OpenCV 4.11.0
开源计算机视觉
|
此类用于执行已知梯度的函数的非线性无约束最小化。更多…
#include <opencv2/core/optim.hpp>
静态公有成员函数 | |
static Ptr< ConjGradSolver > | create (const Ptr< MinProblemSolver::Function > &f=Ptr< ConjGradSolver::Function >(), TermCriteria termcrit=TermCriteria(TermCriteria::MAX_ITER+TermCriteria::EPS, 5000, 0.000001)) |
此函数返回对可立即使用的 ConjGradSolver 对象的引用。 | |
从 cv::Algorithm 继承的静态公有成员函数 | |
template<typename _Tp > | |
static Ptr< _Tp > | load (const String &filename, const String &objname=String()) |
从文件中加载算法。 | |
template<typename _Tp > | |
static Ptr< _Tp > | loadFromString (const String &strModel, const String &objname=String()) |
从字符串加载算法。 | |
template<typename _Tp > | |
static Ptr< _Tp > | read (const FileNode &fn) |
从文件节点读取算法。 | |
其他继承成员 | |
从 cv::MinProblemSolver 继承的公有成员函数 | |
virtual Ptr< Function > | getFunction () const =0 |
获取被优化的函数。 | |
virtual TermCriteria | getTermCriteria () const =0 |
获取此算法先前设置的终止条件。 | |
virtual double | minimize (InputOutputArray x)=0 |
实际运行算法并执行最小化。 | |
virtual void | setFunction (const Ptr< Function > &f)=0 |
设置被优化的函数。 | |
virtual void | setTermCriteria (const TermCriteria &termcrit)=0 |
设置求解器的终止条件。 | |
从 cv::Algorithm 继承的公有成员函数 | |
Algorithm () | |
virtual | ~Algorithm () |
virtual void | clear () |
清除算法状态。 | |
virtual bool | empty () const |
如果 Algorithm 为空(例如,在开始时或读取失败后),则返回 true。 | |
virtual String | getDefaultName () const |
virtual void | read (const FileNode &fn) |
从文件存储中读取算法参数。 | |
virtual void | save (const String &filename) const |
void | write (const Ptr< FileStorage > &fs, const String &name=String()) const |
virtual void | write (FileStorage &fs) const |
将算法参数存储在文件存储中。 | |
void | write (FileStorage &fs, const String &name) const |
从 cv::Algorithm 继承的受保护成员函数 | |
void | writeFormat (FileStorage &fs) const |
此类用于执行已知梯度的非线性无约束函数的最小化。
在 *n* 维欧几里得空间上定义,使用非线性共轭梯度法。该实现基于 Jonathan Richard Shewchuk 的一篇解释清晰的文章 [An Introduction to the Conjugate Gradient Method Without the Agonizing Pain](http://www.cs.cmu.edu/~quake-papers/painless-conjugate-gradient.pdf)。该方法可以看作是标准共轭梯度法(例如,参见 http://en.wikipedia.org/wiki/Conjugate_gradient_method)在数值求解线性方程组中的一个适应。
需要注意的是,这种方法虽然确定性,但更像是一种启发式方法,因此可能收敛到局部最小值,而不是全局最小值。更糟糕的是,它的大部分行为都受梯度支配,因此它本质上无法区分局部最小值和最大值。因此,如果它起始点足够接近局部最大值,它可能会收敛到局部最大值。另一个明显的限制是,应该能够在任何点计算函数的梯度,因此最好有梯度的解析表达式,并且计算负担应该由用户承担。
MinProblemSolver::Function 接口(表示被优化的函数)的 getGradient 方法完成了后一项责任。此方法接受一个n维空间中的点(第一个参数表示该点的坐标数组)并计算其梯度(它应该作为数组存储在第二个参数中)。
|
静态 |
此函数返回对可立即使用的 ConjGradSolver 对象的引用。
所有参数都是可选的,因此即使没有任何参数也可以调用此过程。在这种情况下,将使用默认值。由于终止准则的默认值是唯一合理的,如果未将函数提供给create(),则应该在获得的对象上调用MinProblemSolver::setFunction()。否则,这两种方法(提交给create() 或忽略它并调用MinProblemSolver::setFunction())是完全等效的(并且如果检测到无效输入,则将以相同的方式引发相同的错误)。
f | 将被最小化的函数的指针,类似于您通过MinProblemSolver::setFunction提交的函数。 |
termcrit | 算法的终止准则,类似于您通过MinProblemSolver::setTermCriteria提交的准则。 |