OpenCV 4.11.0
开源计算机视觉
加载中…
搜索中…
未找到匹配项
cv::ml::SVMSGD 类参考抽象

随机梯度下降 SVM 分类器。更多…

#include <opencv2/ml.hpp>

cv::ml::SVMSGD 协作图

公共类型

枚举 MarginType {
  SOFT_MARGIN ,
  HARD_MARGIN
}
 
枚举 SvmsgdType {
  SGD ,
  ASGD
}
 
- 继承自 cv::ml::StatModel 的公共类型
枚举 标志 {
  UPDATE_MODEL = 1 ,
  RAW_OUTPUT =1 ,
  COMPRESSED_INPUT =2 ,
  PREPROCESSED_INPUT =4
}
 

公共成员函数

virtual float getInitialStepSize () const =0
 SVMSGD 优化问题的参数 initialStepSize。
 
virtual float getMarginRegularization () const =0
 SVMSGD 优化问题的参数 marginRegularization。
 
virtual int getMarginType () const =0
 边界类型,SVMSGD::MarginType 之一。
 
virtual float getShift ()=0
 
virtual float getStepDecreasingPower () const =0
 SVMSGD 优化问题的参数 stepDecreasingPower。
 
virtual int getSvmsgdType () const =0
 算法类型,SVMSGD::SvmsgdType 之一。
 
virtual TermCriteria getTermCriteria () const =0
 训练算法的终止条件。您可以指定最大迭代次数 (maxCount) 和/或迭代之间误差变化量 (epsilon) 来使算法继续。
 
virtual Mat getWeights ()=0
 
virtual void setInitialStepSize (float InitialStepSize)=0
 SVMSGD 优化问题的参数 initialStepSize。
 
virtual void setMarginRegularization (float marginRegularization)=0
 SVMSGD 优化问题的参数 marginRegularization。
 
virtual void setMarginType (int marginType)=0
 边界类型,SVMSGD::MarginType 之一。
 
virtual void setOptimalParameters (int svmsgdType=SVMSGD::ASGD, int marginType=SVMSGD::SOFT_MARGIN)=0
 该函数为选择的 SVM SGD 模型设置最佳参数值。
 
virtual void setStepDecreasingPower (float stepDecreasingPower)=0
 SVMSGD 优化问题的参数 stepDecreasingPower。
 
virtual void setSvmsgdType (int svmsgdType)=0
 算法类型,SVMSGD::SvmsgdType 之一。
 
virtual void setTermCriteria (const cv::TermCriteria &val)=0
 训练算法的终止条件。您可以指定最大迭代次数 (maxCount) 和/或迭代之间误差变化量 (epsilon) 来使算法继续。
 
- 继承自 cv::ml::StatModel 的公共成员函数
virtual float calcError (const Ptr< TrainData > &data, bool test, OutputArray resp) const
 计算训练或测试数据集上的误差。
 
virtual bool empty () const CV_OVERRIDE
 如果 Algorithm 为空(例如,在开始时或读取不成功后),则返回 true。
 
virtual int getVarCount () const =0
 返回训练样本中变量的数量。
 
virtual bool isClassifier () const =0
 如果模型是分类器,则返回 true。
 
virtual bool isTrained () const =0
 如果模型已训练,则返回 true。
 
virtual float predict (InputArray samples, OutputArray results=noArray(), int flags=0) const =0
 预测提供的样本的响应。
 
virtual bool train (const Ptr< TrainData > &trainData, int flags=0)
 训练统计模型。
 
virtual bool train (InputArray samples, int layout, InputArray responses)
 训练统计模型。
 
- 继承自 cv::Algorithm 的公共成员函数
 算法 ()
 
virtual ~Algorithm ()
 
virtual void clear ()
 清除算法状态。
 
virtual String getDefaultName () const
 
virtual void read (const FileNode &fn)
 从文件存储中读取算法参数。
 
virtual void save (const String &filename) const
 
void write (const Ptr< FileStorage > &fs, const String &name=String()) const
 
virtual void write (FileStorage &fs) const
 将算法参数存储在文件存储中。
 
void write (FileStorage &fs, const String &name) const
 

静态公共成员函数

static Ptr< SVMSGDcreate ()
 创建空模型。使用 StatModel::train 来训练模型。由于 SVMSGD 有多个参数,您可能需要为您的问题找到最佳参数,或者使用 setOptimalParameters() 来设置一些默认参数。
 
static Ptr< SVMSGD加载 (const String &filepath, const String &nodeName=String())
 从文件中加载并创建一个序列化的SVMSGD
 
- 继承自cv::ml::StatModel的静态公共成员函数
template<typename _Tp >
static Ptr< _Tp训练 (const Ptr< TrainData > &data, int flags=0)
 创建并使用默认参数训练模型。
 
- 继承自cv::Algorithm的静态公共成员函数
template<typename _Tp >
static Ptr< _Tp加载 (const String &filename, const String &objname=String())
 从文件中加载算法。
 
template<typename _Tp >
static Ptr< _Tp从字符串加载 (const String &strModel, const String &objname=String())
 从字符串加载算法。
 
template<typename _Tp >
static Ptr< _Tp读取 (const FileNode &fn)
 从文件节点读取算法。
 

继承的其它成员

- 继承自cv::Algorithm的保护成员函数
void 写入格式 (FileStorage &fs) const
 

详细描述

随机梯度下降SVM分类器。

SVMSGD 提供了使用随机梯度下降法实现SVM分类器的快速易用方法,如[35]中所述。

该分类器具有以下参数:

  • 模型类型,
  • 裕度类型,
  • 裕度正则化 ( \(\lambda\)),
  • 初始步长 ( \(\gamma_0\)),
  • 步长递减幂 ( \(c\)),
  • 以及终止条件。

模型类型可以具有以下值之一:SGDASGD

  • SGDSVMSGD 分类器的经典版本:每一步都根据以下公式计算:

    \[w_{t+1} = w_t - \gamma(t) \frac{dQ_i}{dw} |_{w = w_t}\]

    其中
    • \(w_t\) 是第 \(t\) 步决策函数的权重向量,
    • \(\gamma(t)\) 是迭代 \(t\) 时模型参数的步长,它通过公式 \(\gamma(t) = \gamma_0 (1 + \lambda \gamma_0 t) ^ {-c}\) 在每一步都减小。
    • \(Q_i\) 是来自SVM任务中编号为\(i\)的样本的目标函数,该样本在算法的每一步都随机选择。
  • ASGD 是平均随机梯度下降SVM分类器。ASGD 分类器通过公式 \(\widehat{w}_{t+1} = \frac{t}{1+t}\widehat{w}_{t} + \frac{1}{1+t}w_{t+1}\) 在算法的每一步都对权重向量进行平均。

推荐的模型类型是 ASGD(遵循[35])。

裕度类型可以具有以下值之一:软裕度硬裕度

  • 如果您有线性可分离的集合,则应使用硬裕度类型。
  • 如果您有非线性可分离的集合或带有异常值的集合,则应使用软裕度类型。
  • 在一般情况下(如果您不了解集合的线性可分离性),请使用软裕度。

其他参数可以描述如下:

  • 裕度正则化参数负责每一步权重的减小以及对异常值的限制强度(参数越小,忽略异常值的概率越小)。SGD 模型的推荐值为 0.0001,ASGD 模型的推荐值为 0.00001。
  • 初始步长参数是步长 \(\gamma(t)\) 的初始值。您需要为您的问题找到最佳的初始步长。
  • 步长递减幂是上述公式中 \(\gamma(t)\) 减小的幂参数。SGD 模型的推荐值为 1,ASGD 模型的推荐值为 0.75。
  • 终止条件可以是TermCriteria::COUNTTermCriteria::EPSTermCriteria::COUNT + TermCriteria::EPS。您需要为您的问题找到最佳的终止条件。

请注意,裕度正则化、初始步长和步长递减幂参数应为正数。

要使用SVMSGD算法,请按照以下步骤操作:

// 创建空对象
// 训练随机梯度下降SVM
svmsgd->train(trainData);
// 预测新样本的标签
svmsgd->predict(samples, responses);
static Ptr< SVMSGD > create()
创建空模型。使用 StatModel::train 训练模型。由于 SVMSGD 有多个参数……
std::shared_ptr< _Tp > Ptr
定义 cvstd_wrapper.hpp:23

成员枚举文档

◆ MarginType

边界类型。

枚举器
SOFT_MARGIN 

一般情况,适用于非线性可分集,允许异常值。

HARD_MARGIN 

对于线性可分集的情况更准确。

◆ SvmsgdType

SVMSGD 类型。ASGD 通常是更好的选择。

枚举器
SGD 

随机梯度下降。

ASGD 

平均随机梯度下降。

成员函数文档

◆ create()

static Ptr< SVMSGD > cv::ml::SVMSGD::create ( )
静态
Python
cv.ml.SVMSGD.create() -> 返回值
cv.ml.SVMSGD_create() -> 返回值

创建空模型。使用 StatModel::train 来训练模型。由于 SVMSGD 有多个参数,您可能需要为您的问题找到最佳参数,或者使用 setOptimalParameters() 来设置一些默认参数。

◆ getInitialStepSize()

virtual float cv::ml::SVMSGD::getInitialStepSize ( ) const
纯虚函数
Python
cv.ml.SVMSGD.getInitialStepSize() -> 返回值

SVMSGD 优化问题的参数 initialStepSize。

另见
setInitialStepSize

◆ getMarginRegularization()

virtual float cv::ml::SVMSGD::getMarginRegularization ( ) const
纯虚函数
Python
cv.ml.SVMSGD.getMarginRegularization() -> 返回值

SVMSGD 优化问题的参数 marginRegularization。

另见
setMarginRegularization

◆ getMarginType()

virtual int cv::ml::SVMSGD::getMarginType ( ) const
纯虚函数
Python
cv.ml.SVMSGD.getMarginType() -> 返回值

边界类型,SVMSGD::MarginType 之一。

另见
setMarginType

◆ getShift()

virtual float cv::ml::SVMSGD::getShift ( )
纯虚函数
Python
cv.ml.SVMSGD.getShift() -> 返回值
返回
训练模型的偏移量(决策函数 f(x) = weights * x + shift)。

◆ getStepDecreasingPower()

virtual float cv::ml::SVMSGD::getStepDecreasingPower ( ) const
纯虚函数
Python
cv.ml.SVMSGD.getStepDecreasingPower() -> 返回值

SVMSGD 优化问题的参数 stepDecreasingPower。

另见
setStepDecreasingPower

◆ getSvmsgdType()

virtual int cv::ml::SVMSGD::getSvmsgdType ( ) const
纯虚函数
Python
cv.ml.SVMSGD.getSvmsgdType() -> 返回值

算法类型,SVMSGD::SvmsgdType 之一。

另见
setSvmsgdType

◆ getTermCriteria()

virtual TermCriteria cv::ml::SVMSGD::getTermCriteria ( ) const
纯虚函数
Python
cv.ml.SVMSGD.getTermCriteria() -> 返回值

训练算法的终止条件。您可以指定最大迭代次数 (maxCount) 和/或迭代之间误差变化量 (epsilon) 来使算法继续。

另见
setTermCriteria

◆ getWeights()

virtual Mat cv::ml::SVMSGD::getWeights ( )
纯虚函数
Python
cv.ml.SVMSGD.getWeights() -> 返回值
返回
训练模型的权重(决策函数 f(x) = weights * x + shift)。

◆ load()

static Ptr< SVMSGD > cv::ml::SVMSGD::load ( const String & filepath,
const String & nodeName = String() )
静态
Python
cv.ml.SVMSGD.load(filepath[, nodeName]) -> 返回值
cv.ml.SVMSGD_load(filepath[, nodeName]) -> 返回值

从文件中加载并创建一个序列化的SVMSGD

使用 SVMSGD::saveSVMSGD 序列化并存储到磁盘。通过使用文件的路径调用此函数,再次从该文件加载 SVMSGD。可以选择指定包含分类器的文件的节点

参数
filepath序列化 SVMSGD 的路径
nodeName包含分类器的节点名称

◆ setInitialStepSize()

virtual void cv::ml::SVMSGD::setInitialStepSize ( float InitialStepSize)
纯虚函数
Python
cv.ml.SVMSGD.setInitialStepSize(InitialStepSize) ->

SVMSGD 优化问题的参数 initialStepSize。

另见
getInitialStepSize

◆ setMarginRegularization()

virtual void cv::ml::SVMSGD::setMarginRegularization ( float marginRegularization)
纯虚函数
Python
cv.ml.SVMSGD.setMarginRegularization(marginRegularization) ->

SVMSGD 优化问题的参数 marginRegularization。

另见
getMarginRegularization

◆ setMarginType()

virtual void cv::ml::SVMSGD::setMarginType ( int marginType)
纯虚函数
Python
cv.ml.SVMSGD.setMarginType(marginType) ->

边界类型,SVMSGD::MarginType 之一。

另见
getMarginType

◆ setOptimalParameters()

virtual void cv::ml::SVMSGD::setOptimalParameters ( int svmsgdType = SVMSGD::ASGD,
int marginType = SVMSGD::SOFT_MARGIN )
纯虚函数
Python
cv.ml.SVMSGD.setOptimalParameters([, svmsgdType[, marginType]]) ->

该函数为选择的 SVM SGD 模型设置最佳参数值。

参数
svmsgdTypeSVMSGD 分类器的类型。
marginType是边缘约束的类型。

◆ setStepDecreasingPower()

virtual void cv::ml::SVMSGD::setStepDecreasingPower ( float stepDecreasingPower)
纯虚函数
Python
cv.ml.SVMSGD.setStepDecreasingPower(stepDecreasingPower) ->

SVMSGD 优化问题的参数 stepDecreasingPower。

另见
getStepDecreasingPower

◆ setSvmsgdType()

virtual void cv::ml::SVMSGD::setSvmsgdType ( int svmsgdType)
纯虚函数
Python
cv.ml.SVMSGD.setSvmsgdType(svmsgdType) ->

算法类型,SVMSGD::SvmsgdType 之一。

另见
getSvmsgdType

◆ setTermCriteria()

virtual void cv::ml::SVMSGD::setTermCriteria ( const cv::TermCriteria & val)
纯虚函数
Python
cv.ml.SVMSGD.setTermCriteria(val) ->

训练算法的终止条件。您可以指定最大迭代次数 (maxCount) 和/或迭代之间误差变化量 (epsilon) 来使算法继续。

另见
getTermCriteria

此类的文档是从以下文件生成的: