OpenCV 4.10.0
开源计算机视觉
|
LSTM 循环层。 更多...
#include <opencv2/dnn/all_layers.hpp>
公共成员函数 | |||
int | inputNameToIndex (String inputName) CV_OVERRIDE | ||
返回输入 blob 在输入数组中的索引。 | |||
int | outputNameToIndex (const String &outputName) CV_OVERRIDE | ||
返回输出 blob 在输出数组中的索引。 | |||
virtual void | setOutShape (const MatShape &outTailShape=MatShape())=0 | ||
指定输出 blob 的形状,它将是 [[T ], N ] + outTailShape 。 | |||
virtual void | setProduceCellOutput (bool produce=false)=0 | ||
如果此标志设置为 true,则层将产生 \( c_t \) 作为第二个输出。 | |||
virtual void | setUseTimstampsDim (bool use=true)=0 | ||
指定是将输入 blob 的第一个维度解释为时间戳维度,还是样本。 | |||
virtual void | setWeights (const Mat &Wh, const Mat &Wx, const Mat &b)=0 | ||
为 LSTM 层设置训练后的权重。 | |||
从 cv::dnn::Layer 继承的公共成员函数 | |||
Layer () | |||
Layer (const LayerParams ¶ms) | |||
仅初始化 name、type 和 blobs 字段。 | |||
virtual | ~Layer () | ||
virtual void | applyHalideScheduler (Ptr< BackendNode > &node, const std::vector< Mat * > &inputs, const std::vector< Mat > &outputs, int targetId) const | ||
基于层超参数的自动 Halide 调度。 | |||
virtual void | finalize (const std::vector< Mat * > &input, std::vector< Mat > &output) | ||
根据输入、输出和 blobs 计算并设置内部参数。 | |||
std::vector< Mat > | finalize (const std::vector< Mat > &inputs) | ||
这是一个重载的成员函数,为了方便提供。它与上面的函数唯一的不同之处在于它接受的参数。 | |||
void | finalize (const std::vector< Mat > &inputs, std::vector< Mat > &outputs) | ||
这是一个重载的成员函数,为了方便提供。它与上面的函数唯一的不同之处在于它接受的参数。 | |||
virtual void | finalize (InputArrayOfArrays inputs, OutputArrayOfArrays outputs) | ||
根据输入、输出和 blobs 计算并设置内部参数。 | |||
virtual void | forward (InputArrayOfArrays inputs, OutputArrayOfArrays outputs, OutputArrayOfArrays internals) | ||
给定 input blobs,计算输出 blobs 。 | |||
virtual void | forward (std::vector< Mat * > &input, std::vector< Mat > &output, std::vector< Mat > &internals) | ||
给定 input blobs,计算输出 blobs 。 | |||
void | forward_fallback (InputArrayOfArrays inputs, OutputArrayOfArrays outputs, OutputArrayOfArrays internals) | ||
给定 input blobs,计算输出 blobs 。 | |||
virtual int64 | getFLOPS (const std::vector< MatShape > &inputs, const std::vector< MatShape > &outputs) const | ||
virtual bool | getMemoryShapes (const std::vector< MatShape > &inputs, const int requiredOutputs, std::vector< MatShape > &outputs, std::vector< MatShape > &internals) const | ||
virtual void | getScaleShift (Mat &scale, Mat &shift) const | ||
返回具有通道级乘法和加法的层的参数。 | |||
virtual void | getScaleZeropoint (float &scale, int &zeropoint) const | ||
返回层的比例和零点。 | |||
virtual Ptr< BackendNode > | initCann (const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendWrapper > > &outputs, const std::vector< Ptr< BackendNode > > &nodes) | ||
返回 CANN 后端节点。 | |||
virtual Ptr< BackendNode > | initCUDA (void *context, const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendWrapper > > &outputs) | ||
返回 CUDA 后端节点。 | |||
virtual Ptr< BackendNode > | initHalide (const std::vector< Ptr< BackendWrapper > > &inputs) | ||
返回 Halide 后端节点。 | |||
virtual Ptr< BackendNode > | initNgraph (const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendNode > > &nodes) | ||
virtual Ptr< BackendNode > | initTimVX (void *timVxInfo, const std::vector< Ptr< BackendWrapper > > &inputsWrapper, const std::vector< Ptr< BackendWrapper > > &outputsWrapper, bool isLast) | ||
返回 TimVX 后端节点。 | |||
virtual Ptr< BackendNode > | initVkCom (const std::vector< Ptr< BackendWrapper > > &inputs, std::vector< Ptr< BackendWrapper > > &outputs) | ||
virtual Ptr< BackendNode > | initWebnn (const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendNode > > &nodes) | ||
void | run (const std::vector< Mat > &inputs, std::vector< Mat > &outputs, std::vector< Mat > &internals) | ||
分配层并计算输出。 | |||
virtual bool | setActivation (const Ptr< ActivationLayer > &layer) | ||
尝试将后续激活层附加到层,即在部分情况下执行层融合。 | |||
void | setParamsFrom (const LayerParams ¶ms) | ||
仅初始化 name、type 和 blobs 字段。 | |||
virtual bool | supportBackend (int backendId) | ||
询问层是否支持特定后端进行计算。 | |||
virtual Ptr< BackendNode > | tryAttach (const Ptr< BackendNode > &node) | ||
实现层融合。 | |||
virtual bool | tryFuse (Ptr< Layer > &top) | ||
尝试将当前层与下一个层融合。 | |||
virtual bool | tryQuantize (const std::vector< std::vector< float > > &scales, const std::vector< std::vector< int > > &zeropoints, | 尝试量化给定的层并计算固定点实现所需的量化参数。 | |
virtual void | unsetAttached () | ||
"分离"所有附加到特定层的层。 | |||
virtual bool | updateMemoryShapes (const std::vector< MatShape > &inputs) | ||
从 cv::Algorithm 继承的公共成员函数 | |||
Algorithm () | |||
virtual | ~Algorithm () | ||
virtual void | clear () | ||
清除算法状态。 | |||
virtual bool | empty () const | ||
如果 Algorithm 为空(例如,在最开始或读取不成功后),则返回 true。 | |||
virtual String | getDefaultName () const | ||
virtual void | read (const FileNode &fn) | ||
从文件存储读取算法参数。 | |||
virtual void | save (const String &filename) const | ||
void | write (const Ptr< FileStorage > &fs, const String &name=String()) const | ||
virtual void | write (FileStorage &fs) const | ||
将算法参数存储在文件存储中。 | |||
void | write (FileStorage &fs, const String &name) const | ||
静态公共成员函数 | |
static Ptr< LSTMLayer > | create (const LayerParams ¶ms) |
从 cv::Algorithm 继承的静态公共成员函数 | |
template<typename _Tp > | |
static Ptr< _Tp > | load (const String &filename, const String &objname=String()) |
从文件加载算法。 | |
template<typename _Tp > | |
static Ptr< _Tp > | loadFromString (const String &strModel, const String &objname=String()) |
从字符串加载算法。 | |
template<typename _Tp > | |
static Ptr< _Tp > | read (const FileNode &fn) |
从文件节点读取算法。 | |
额外继承的成员 | |
从 cv::dnn::Layer 继承的公共属性 | |
std::vector< Mat > | blobs |
必须在此存储学习参数列表,以便使用 Net::getParam() 读取它们。 | |
String | name |
层实例的名称,可用于记录或其他内部目的。 | |
int | preferableTarget |
层转发首选目标 | |
String | type |
层工厂用于创建层的类型名称。 | |
从 cv::Algorithm 继承的受保护成员函数 | |
void | writeFormat (FileStorage &fs) const |
LSTM 循环层。
|
static |
创建 LSTM 层实例
|
virtual |
返回输入 blob 在输入数组中的索引。
inputName | 输入 blob 的标签 |
每个层输入和输出都可以被标记,以便使用 "%<layer_name%>[.output_name]" 符号轻松识别它们。此方法将输入 blob 的标签映射到输入向量中的索引。
从 cv::dnn::Layer 重新实现。
|
virtual |
指定输出 blob 的形状,它将是 [[T
], N
] + outTailShape
。
如果此参数为空或未设置,则 outTailShape
= [Wh
.size(0)] 将被使用,其中 Wh
是来自 setWeights() 的参数。
|
纯虚 |
|
纯虚 |
指定是将输入 blob 的第一个维度解释为时间戳维度,还是样本。
produce_cell_output
。如果将标志设置为 true,则输入 blob 的形状将被解释为 [T
, N
, [数据维度]
],其中 T
指定时间戳的数量,N
是独立流的数量。在这种情况下,每个 forward() 调用将遍历 T
个时间戳并更新层的 T
次状态。
如果将标志设置为 false,则输入 blob 的形状将被解释为 [N
, [数据维度]
]。在这种情况下,每个 forward() 调用将进行一次迭代并生成一个形状为 [N
, [输出维度]
] 的时间戳。
为 LSTM 层设置训练后的权重。
LSTM 在每一步的行为由当前输入、前一个输出、前一个单元状态和学习的权重定义。
令 \(x_t\) 为当前输入,\(h_t\) 为当前输出,\(c_t\) 为当前状态。然后当前输出和当前单元状态计算如下
\begin{eqnarray*} h_t &= o_t \odot tanh(c_t), \\ c_t &= f_t \odot c_{t-1} + i_t \odot g_t, \\ \end{eqnarray*}
其中 \(\odot\) 是逐元素乘法运算,\(i_t, f_t, o_t, g_t\) 是使用学习的权重计算的内部门。
门计算如下
\begin{eqnarray*} i_t &= sigmoid&(W_{xi} x_t + W_{hi} h_{t-1} + b_i), \\ f_t &= sigmoid&(W_{xf} x_t + W_{hf} h_{t-1} + b_f), \\ o_t &= sigmoid&(W_{xo} x_t + W_{ho} h_{t-1} + b_o), \\ g_t &= tanh &(W_{xg} x_t + W_{hg} h_{t-1} + b_g), \\ \end{eqnarray*}
其中 \(W_{x?}\), \(W_{h?}\) 和 \(b_{?}\) 是表示为矩阵的学习权重:\(W_{x?} \in R^{N_h \times N_x}\), \(W_{h?} \in R^{N_h \times N_h}\), \(b_? \in R^{N_h}\)。
为了简单和性能,我们使用 \( W_x = [W_{xi}; W_{xf}; W_{xo}, W_{xg}] \)(即 \(W_x\) 是 \( W_{x?} \) 的垂直串联),\( W_x \in R^{4N_h \times N_x} \)。\( W_h = [W_{hi}; W_{hf}; W_{ho}, W_{hg}], W_h \in R^{4N_h \times N_h} \) 和 \( b = [b_i; b_f, b_o, b_g]\),\(b \in R^{4N_h} \) 也一样。
Wh | 是定义如何将前一个输出转换为内部门的矩阵(即根据上面提到的符号是 \( W_h \)) |
Wx | 是定义如何将当前输入转换为内部门的矩阵(即根据上面提到的符号是 \( W_x \)) |
b | 是偏差向量(即根据上面提到的符号是 \( b \)) |