OpenCV 4.10.0
开源计算机视觉
|
命名空间 | |
命名空间 | accessor |
命名空间 | 细节 |
类型定义 | |
typedef std::map< std::string, std::vector< LayerFactory::Constructor > > | LayerFactory_Impl |
typedef std::vector< int > | MatShape |
枚举 | |
enum | Backend { DNN_BACKEND_DEFAULT = 0 , DNN_BACKEND_HALIDE , DNN_BACKEND_INFERENCE_ENGINE , DNN_BACKEND_OPENCV , DNN_BACKEND_VKCOM , DNN_BACKEND_CUDA , DNN_BACKEND_WEBNN , DNN_BACKEND_TIMVX , DNN_BACKEND_CANN } |
支持层计算后端的枚举类型。更多信息... | |
enum | DataLayout { DNN_LAYOUT_UNKNOWN = 0 , DNN_LAYOUT_ND = 1 , DNN_LAYOUT_NCHW = 2 , DNN_LAYOUT_NCDHW = 3 , DNN_LAYOUT_NHWC = 4 , DNN_LAYOUT_NDHWC = 5 , DNN_LAYOUT_PLANAR = 6 } |
模型推理数据布局的枚举类型。更多信息... | |
enum | ImagePaddingMode { DNN_PMODE_NULL = 0 , DNN_PMODE_CROP_CENTER = 1 , DNN_PMODE_LETTERBOX = 2 } |
图像处理模式的枚举类型,用于满足dnn模型的预处理需求。例如,在Yolo系列模型中经常使用的“letter box”。更多信息... | |
enum class | SoftNMSMethod { SoftNMSMethod::SOFTNMS_LINEAR = 1 , SoftNMSMethod::SOFTNMS_GAUSSIAN = 2 } |
Soft NMS方法的枚举类型。更多信息... | |
enum | Target { DNN_TARGET_CPU = 0 , DNN_TARGET_OPENCL , DNN_TARGET_OPENCL_FP16 , DNN_TARGET_MYRIAD , DNN_TARGET_VULKAN , DNN_TARGET_FPGA , DNN_TARGET_CUDA , DNN_TARGET_CUDA_FP16 , DNN_TARGET_HDDL , DNN_TARGET_NPU , DNN_TARGET_CPU_FP16 } |
计算目标设备的枚举类型。更多信息... | |
函数 | |
Mat | blobFromImage (InputArray image, double scalefactor=1.0, const Size &size=Size(), const Scalar &mean=Scalar(), bool swapRB=false, bool crop=false, int ddepth=CV_32F) |
从图像创建四维blob。可选择调整图像大小和从中心裁剪,减去mean值,按scalefactor缩放值,交换蓝红通道。 | |
void | blobFromImage (InputArray image, OutputArray blob, double scalefactor=1.0, const Size &size=Size(), const Scalar &mean=Scalar(), bool swapRB=false, bool crop=false, int ddepth=CV_32F) |
从图像创建四维blob。 | |
Mat | blobFromImages (InputArrayOfArrays images, double scalefactor=1.0, Size size=Size(), const Scalar &mean=Scalar(), bool swapRB=false, bool crop=false, int ddepth=CV_32F) |
从一系列图像中创建四维blob。可选择调整图像大小和从中心裁剪,减去mean值,按scalefactor缩放值,交换蓝红通道。 | |
void | blobFromImages (InputArrayOfArrays images, OutputArray blob, double scalefactor=1.0, Size size=Size(), const Scalar &mean=Scalar(), bool swapRB=false, bool crop=false, int ddepth=CV_32F) |
从一系列图像中创建四维blob。 | |
Mat | blobFromImagesWithParams (InputArrayOfArrays images, const Image2BlobParams ¶m=Image2BlobParams()) |
从一系列图像中按照给定参数创建四维blob。 | |
void | blobFromImagesWithParams (InputArrayOfArrays images, OutputArray blob, const Image2BlobParams ¶m=Image2BlobParams()) |
Mat | blobFromImageWithParams (InputArray image, const Image2BlobParams ¶m=Image2BlobParams()) |
从具有给定参数的图像中创建四维blob。 | |
void | blobFromImageWithParams (InputArray image, OutputArray blob, const Image2BlobParams ¶m=Image2BlobParams()) |
静态 MatShape | concat (const MatShape &a, const MatShape &b) |
void | enableModelDiagnostics (bool isDiagnosticsMode) |
启用CV DNN API中加载DNN模型的详细日志。 | |
std::vector< std::pair< Backend, Target > > | getAvailableBackends () |
std::vector< Target > | getAvailableTargets (dnn::Backend be) |
cv::String | getInferenceEngineBackendType () |
返回Inference Engine内部后端API。 | |
cv::String | getInferenceEngineCPUType () |
返回Inference Engine CPU类型。 | |
cv::String | getInferenceEngineVPUType () |
返回Inference Engine VPU类型。 | |
LayerFactory_Impl & | getLayerFactoryImpl () |
Mutex & | getLayerFactoryMutex () |
获取守护LayerFactory_Impl的互斥量,请参阅getLayerFactoryImpl()函数。 | |
静态 Mat | getPlane (const Mat &m, int n, int cn) |
void | imagesFromBlob (const cv::Mat &blob_, OutputArrayOfArrays images_) |
解析一个4D数据块,将其包含的图像以2D数组的形式输出,通过一个更简单的数据结构(std::vector | |
静态布尔型 | isAllOnes (const MatShape &inputShape, int startPos, int endPos) |
void | NMSBoxes (const std::vector< Rect > &bboxes, const std::vector< float > &scores, const float score_threshold, const float nms_threshold, std::vector< int > &indices, const float eta=1.f, const int top_k=0) |
对给定的框和对应的得分执行非极大值抑制。 | |
void | NMSBoxes (const std::vector< Rect2d > &bboxes, const std::vector< float > &scores, const float score_threshold, const float nms_threshold, std::vector< int > &indices, const float eta=1.f, const int top_k=0) |
void | NMSBoxes (const std::vector< RotatedRect > &bboxes, const std::vector< float > &scores, const float score_threshold, const float nms_threshold, std::vector< int > &indices, const float eta=1.f, const int top_k=0) |
void | NMSBoxesBatched (const std::vector< Rect > &bboxes, const std::vector< float > &scores, const std::vector< int > &class_ids, const float score_threshold, const float nms_threshold, std::vector< int > &indices, const float eta=1.f, const int top_k=0) |
对不同类别的给定框和对应的得分执行批量非极大值抑制。 | |
void | NMSBoxesBatched (const std::vector< Rect2d > &bboxes, const std::vector< float > &scores, const std::vector< int > &class_ids, const float score_threshold, const float nms_threshold, std::vector< int > &indices, const float eta=1.f, const int top_k=0) |
静态整型 | normalize_axis (int axis, const MatShape &shape) |
静态整型 | normalize_axis (int axis, int dims) |
将轴从 [-dims; dims) (类似于Python的切片表示)转换为 [0; dims) 范围。 | |
静态 Range | normalize_axis_range (const Range &r, int axisSize) |
模板<typename _Tp > | |
静态 std::ostream & | operator<< (std::ostream &out, const std::vector< _Tp > &shape) |
模板<typename _Tp > | |
静态 void | print (const std::vector< _Tp > &shape, const String &name="") |
Net | readNet (const String &framework, const std::vector< uchar > &bufferModel, const std::vector< uchar > &bufferConfig=std::vector< uchar >()) |
读取以支持的格式表示的深度学习网络。 | |
Net | readNet (CV_WRAPPER_FILE_PATH const String & model, CV_WRAPPER_FILE_PATH const String & config="", const String & framework="") |
读取以支持的格式表示的深度学习网络。 | |
Net | readNetFromCaffe (const char *bufferProto, size_t lenProto, const char *bufferModel=NULL, size_t lenModel=0) |
读取存储在内存中的以 Caffe 模型格式存储的网络模型。 | |
Net | readNetFromCaffe (const std::vector< uchar > & bufferProto, const std::vector< uchar > & bufferModel=std::vector< uchar >()) |
读取存储在内存中的以 Caffe 模型格式存储的网络模型。 | |
Net | readNetFromCaffe (CV_WRAPPER_FILE_PATH const String & prototxt, CV_WRAPPER_FILE_PATH const String & caffeModel=String()) |
读取由 Caffe 框架格式存储的网络模型。 | |
Net | readNetFromDarknet (const char *bufferCfg, size_t lenCfg, const char *bufferModel=NULL, size_t lenModel=0) |
读取存储在 Darknet 模型文件中的网络模型。 | |
Net | readNetFromDarknet (const std::vector< uchar & gt; & bufferCfg, const std::vector< uchar & gt; & bufferModel=std::vector< uchar & gt;()) |
读取存储在 Darknet 模型文件中的网络模型。 | |
Net | readNetFromDarknet (CV_WRAPPER_FILE_PATH const String & cfgFile, CV_WRAPPER_FILE_PATH const String & darknetModel=String()) |
读取存储在 Darknet 模型文件中的网络模型。 | |
Net | readNetFromModelOptimizer (const std::vector< uchar & gt; & bufferModelConfig, const std::vector< uchar & gt; & bufferWeights) |
从英特尔 Model Optimizer 中间表示中加载网络。 | |
Net | readNetFromModelOptimizer (const uchar *bufferModelConfigPtr, size_t bufferModelConfigSize, const uchar *bufferWeightsPtr, size_t bufferWeightsSize) |
从英特尔 Model Optimizer 中间表示中加载网络。 | |
Net | readNetFromModelOptimizer (CV_WRAPPER_FILE_PATH const String & xml, CV_WRAPPER_FILE_PATH const String & bin="") |
从英特尔 Model Optimizer 中间表示中加载网络。 | |
Net | readNetFromONNX (const char *buffer, size_t sizeBuffer) |
从 ONNX 在内存缓冲区中读取网络模型。 | |
Net | readNetFromONNX (const std::vector< uchar & gt; & gt; buffer) |
从 ONNX 在内存缓冲区中读取网络模型。 | |
Net | 从ONNX读取网络 (CV_WRAP_FILE_PATH const String &onnxFile) |
读取ONNX网络模型。 | |
Net | 从Tensorflow读取网络 (const char *bufferModel, size_t lenModel, const char *bufferConfig=NULL, size_t lenConfig=0) |
读取存储在TensorFlow框架格式的网络模型。 | |
Net | 从Tensorflow读取网络 (const std::vector< uchar > &bufferModel, const std::vector< uchar > &bufferConfig=std::vector< uchar >()) |
读取存储在TensorFlow框架格式的网络模型。 | |
Net | 从Tensorflow读取网络 (CV_WRAP_FILE_PATH const String &model, CV_WRAP_FILE_PATH const String &config=String()) |
读取存储在TensorFlow框架格式的网络模型。 | |
Net | 从TFLite读取网络 (const char *bufferModel, size_t lenModel) |
读取存储在TFLite框架格式的网络模型。 | |
Net | 从TFLite读取网络 (const std::vector< uchar > &bufferModel) |
读取存储在TFLite框架格式的网络模型。 | |
Net | 从TFLite读取网络 (CV_WRAP_FILE_PATH const String &model) |
读取存储在TFLite框架格式的网络模型。 | |
Net | 从Torch读取网络 (CV_WRAP_FILE_PATH const String &model, bool isBinary=true, bool evaluate=true) |
读取存储在Torch7框架格式的网络模型。 | |
Mat | 从ONNX读取张量 (CV_WRAP_FILE_PATH const |
从.pb文件创建blob。 | |
Mat | 读取TorchBlob (const |
加载以Torch7框架torch.Tensor对象序列化的blob。 | |
void | 释放HDDL插件 () |
释放HDDL插件。 | |
void | 重置Myriad设备 () |
释放由OpenCV绑定的Myriad设备。 | |
cv::String | 设置推理引擎后端类型 (const |
指定推理引擎内部的备份API。 | |
静态 MatShape | 形状 (const int *dims, const int n) |
静态 MatShape | 形状 (const Mat&mat) |
静态 MatShape | 形状 (const MatSize &sz) |
静态 MatShape | 形状 (const UMat&mat) |
静态 MatShape | 形状 (int a0, int a1=-1, int a2=-1, int a3=-1) |
void | shrinkCaffeModel(CV_WRAP_FILE_PATH const String &src, CV_WRAP_FILE_PATH const String &dst, const std::vector< String > &layersTypes=std::vector< String >() |
将Caffe网络的全部权重转换为半精度浮点数。 | |
void | skipModelImport (bool skip) |
在readNet()函数后的诊断运行后跳过模型导入。 | |
静态 Mat | slice (const Mat &m, const _Range &r0) |
静态 Mat | slice (const Mat &m, const _Range &r0, const _Range &r1) |
静态 Mat | slice (const Mat &m, const _Range &r0, const _Range &r1, const _Range &r2) |
静态 Mat | slice (const Mat &m, const _Range &r0, const _Range &r1, const _Range &r2, const _Range &r3) |
void | softNMSBoxes (const std::vector< Rect > &bboxes, const std::vector< float > &scores, std::vector< float > &updated_scores, const float score_threshold, const float nms_threshold, std::vector< int > &indices, size_t top_k=0, const float sigma=0.5, SoftNMSMethod method=SoftNMSMethod::SOFTNMS_GAUSSIAN) |
给定框和相应的分数执行软非最大抑制。参考:https://arxiv.org/abs/1704.04503。 | |
模板<typename _Tp > | |
static std::string | toString (const std::vector< _Tp > &shape, const String &name="") |
静态整型 | total (const Mat &mat, int start=-1, int end=-1) |
静态整型 | total (const MatShape &shape, int start=-1, int end=-1) |
void | writeTextGraph (CV_WRAP_FILE_PATH const String &model, CV_WRAP_FILE_PATH const String &output) |
为存储在协议缓冲格式中的二进制网络创建文本表示。 | |
cv::String cv::dnn::getInferenceEngineBackendType | ( | ) |
返回Inference Engine内部后端API。
请查看宏定义 CV_DNN_BACKEND_INFERENCE_ENGINE_*
中的值。
OPENCV_DNN_BACKEND_INFERENCE_ENGINE_TYPE
运行时参数(环境变量)从 4.6.0 版本开始忽略。
cv::String cv::dnn::getInferenceEngineCPUType | ( | ) |
返回Inference Engine CPU类型。
指定 OpenVINO 插件:CPU 或 ARM。
cv::String cv::dnn::getInferenceEngineVPUType | ( | ) |
返回Inference Engine VPU类型。
请查看宏定义 CV_DNN_INFERENCE_ENGINE_VPU_TYPE_*
中的值。
|
行内静态 |
|
行内静态 |
|
行内静态 |
将轴从 [-dims; dims)
(类似于Python的切片表示)转换为 [0; dims)
范围。
|
行内静态 |
|
行内静态 |
void cv::dnn::releaseHDDLPlugin | ( | ) |
释放HDDL插件。
void cv::dnn::resetMyriadDevice | ( | ) |
释放由OpenCV绑定的Myriad设备。
单个 Myriad 设备不能在多个进程间共享,这些进程使用了 Inference Engine 的 Myriad 插件。
cv::String cv::dnn::setInferenceEngineBackendType | ( | const cv::String & | newBackendType | ) |
|
行内静态 |
|
行内静态 |
void cv::dnn::skipModelImport | ( | bool | skip | ) |
|
行内静态 |
|
行内静态 |
|
行内静态 |
|
行内静态 |
|
行内静态 |