#include <opencv2/rgbd/dynafu.hpp>
◆ ~DynaFu()
virtual cv::dynafu::DynaFu::~DynaFu |
( |
| ) |
|
|
虚函数 |
◆ create()
Python |
---|
| cv.dynafu.DynaFu.create( | _params | ) -> | 返回值 |
| cv.dynafu.DynaFu_create( | _params | ) -> | 返回值 |
◆ getCloud()
Python |
---|
| cv.dynafu.DynaFu.getCloud( | [, points[, normals]] | ) -> | points, normals |
获取当前3D网格的点和法向量。
法向量的顺序与点的顺序对应。点的顺序未定义。
- 参数
-
points | 由4个浮点数构成的点向量 |
normals | 由4个浮点数构成的法向量 |
◆ getNodesPos()
virtual std::vector< Point3f > cv::dynafu::DynaFu::getNodesPos |
( |
| ) |
const |
|
纯虚函数 |
◆ getNormals()
Python |
---|
| cv.dynafu.DynaFu.getNormals( | points[, normals] | ) -> | normals |
计算给定点的法向量。
- 参数
-
points | 输入的由4个浮点数构成的点向量 |
normals | 输出的对应的由4个浮点数构成的法向量 |
◆ getParams()
virtual const kinfu::Params & cv::dynafu::DynaFu::getParams |
( |
| ) |
const |
|
纯虚函数 |
◆ getPoints()
virtual void cv::dynafu::DynaFu::getPoints |
( |
OutputArray | points | ) |
const |
|
纯虚函数 |
Python |
---|
| cv.dynafu.DynaFu.getPoints( | [, points] | ) -> | points |
◆ getPose()
virtual Affine3f cv::dynafu::DynaFu::getPose |
( |
| ) |
const |
|
纯虚函数 |
◆ marchCubes()
◆ render()
Python |
---|
| cv.dynafu.DynaFu.render( | [, image[, cameraPose]] | ) -> | image |
将体积渲染到图像中。
使用 Phong 着色将 TSDF 的 0 表面渲染到 CV_8UC4 Mat 中。光源位姿在 DynaFu 参数中固定。
- 参数
-
image | 生成的图像 |
cameraPose | 要从中渲染的摄像机的位姿。如果为空,则从当前位姿(最后一帧摄像机位姿)渲染。 |
◆ renderSurface()
◆ reset()
virtual void cv::dynafu::DynaFu::reset |
( |
| ) |
|
|
纯虚函数 |
Python |
---|
| cv.dynafu.DynaFu.reset( | | ) -> | None |
◆ update()
virtual bool cv::dynafu::DynaFu::update |
( |
InputArray | depth | ) |
|
|
纯虚函数 |
Python |
---|
| cv.dynafu.DynaFu.update( | depth | ) -> | 返回值 |
处理下一帧深度图像。
根据其 ICP 计算的位姿将深度集成到体素空间中。如果输入图像具有其他类型,则会在内部将其转换为 CV_32F。
- 参数
-
depth | 单通道图像,其大小和深度比例在算法的参数中描述。 |
- 返回值
- 如果成功将新帧与当前场景对齐,则为真;否则为假。
此类的文档是从以下文件生成的