CN109781003B - 一种结构光视觉系统的下一最佳测量位姿确定方法 - Google Patents
一种结构光视觉系统的下一最佳测量位姿确定方法 Download PDFInfo
- Publication number
- CN109781003B CN109781003B CN201910110094.0A CN201910110094A CN109781003B CN 109781003 B CN109781003 B CN 109781003B CN 201910110094 A CN201910110094 A CN 201910110094A CN 109781003 B CN109781003 B CN 109781003B
- Authority
- CN
- China
- Prior art keywords
- measurement
- field
- area
- point
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明针对机器人视觉自动测量中下一最佳测量位姿确定问题,公开了一种新颖的结构光视觉系统的下一最佳测量位姿确定方法。该方法首先采用结构光双目视觉测量系统获得被测物体的深度图像和三维点云,通过深度图像快速获取被测物体的边缘与密度聚类分析区域。基于密度聚类方法判定物体边缘区域三维形貌的复杂程度,结合视场大小确定子区域权重,从而获得深度图上下一视场最佳移动方向。采用趋势面分析法预测下一最佳测量位姿的空间范围。为避免边缘局部复杂程度对趋势面的影响,以深度图像上的测量视场为中心获得趋势面分析全局区域,并快速获得中心趋势线以确定出下一最佳测量位姿。
Description
技术领域
本发明涉及机器人自动测量方法,特别是指一种一种结构光视觉系统的下一最佳测量位姿确定方法。
背景技术
结构光三维测量技术已经得到了广泛的应用,然而在实际测量中,受限于系统测量视场范围和物体复杂程度等原因,对大尺寸或者表面形貌较为复杂的物体,一次测量难以获得物体完整的形貌,需要从不同角度多次测量并拼合才能获得完整的物体。被测物体越复杂或者其尺寸与视场大小之间的比例越大,则需要测量次数就越多,甚至达到成千上百次。如此繁重的测量任务使得自动测量变得非常重要,而下一个最佳测量位姿的确定是实现自动测量的前提与关键所在,也是三维重建、机器人导航、自动装配等领域亟待解决的难题之一。
在对未知模型的自动测量中,为了每次获得尽可能多的点云信息,需要根据当前信息判断下一最佳测量位姿。何炳蔚等在论文“线激光三维测量仪中视觉传感器规划方法研究”(中国激光,2010,37(6):1618-1625.)中提出可视空间与极限面相结合的视点规划策略来确定下一最佳视点的位置。张世辉等在论文“基于深度图像利用遮挡信息确定下一最佳观测方位”(计算机学报,2015,38(12),P2450-2463)中从消除被测物体的自遮挡区域入手,确定下一最优视点。在二维深度图像中识别已测得数据中的自遮挡区域,计算可消除自遮挡区域的视点,并结合遮挡区域的向量和面积构建下一最佳观测方位的模型。随后利用梯度下降法寻优求得模型的最优解确定下一最优视点。
综上所述,虽然目前对自动三维测量中下一最优视点的确定方法已有所研究,取得了一定成果,但资料报道并不多,涉及的关键技术亟待进一步研究。
发明内容
本发明的主要目的在于克服现有技术中的上述缺陷,提出一种新颖的结构光视觉系统的下一最佳测量位姿确定方法。
本发明采用如下技术方案:
一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,包括如下步骤:
A1、获取被测物体初始位置的深度图像和三维点云;
A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域;
A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;
A4、结合视场大小优化各个子区域权重,从而确定深度图上最佳移动方向;
A5、以测量视场为中心,结合深度图像获得趋势面,分析全局区域以及中心趋势线,从而确定出下一最佳测量位姿。
所述A2包括如下:
首先,在深度图像上采用Canny算子边缘提取法快速识别出物体的边缘;再采用区域宽度t的计算方法确定所述区域,公式如下:
所述A3包括如下:设待聚类的点集为data={x1,x2,...,xn},令Idata={1,2,…,n}为相应的指标集,n为总点数,则点xi的局部密度系数ρi即各个子区域的复杂系数计算公式为:
考虑各个区域权重引入评估值δ,评估值δ最大的方向即为所述最佳移动方向:
δ=∑ωi
所述A5具体包括如下:
A5.1、在深度图像上,以当前测量视场中心为原点,以最佳移动方向重叠视场大小为约束,快速获得趋势面分析全场区域,利用深度图像像素与三维点云对应关系,获取趋势面拟合所需三维数据;
A5.2、采用该三维数据来拟合趋势面,数学模型为:
z=a0+a1x+a2y+a3x2+a4xy+a5y2
其中a0,a1,a2,a3,a4,a5为多项式系数,x、y为各个三维点的XY平面坐标值;
A5.3、根据深度图像快速获得最佳移动方向上通过视场中心与聚类中心的三维点云数据,并拟合出空间平面,该平面与趋势面相交确定一条空间曲线,该空间平面的方程为:
Ax+By+Cz+D=0
其中A、B、C、D为空间平面拟合系数,x、y、z为各个三维点的三个坐标值;
A5.4、记当前测量视场中心点为PA(xA,yA,zA),下一个测量中心轴与预测趋势面的交点为PB(xB,yB,zB)即下一最佳测量视场中心,点PB可由以下方程组求出:
Rk为PA和PB之间的三维欧式距离,求出PB在趋势面上的法向,在该法向方向上计算离点PB为物距L的点PP(xp,yp,zp),该点PP即为所述下一最佳测量位姿。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
(1)充分利用深度图像进行边缘识别、区域划分、趋势面分析全场区域与中心趋势线提取等算法的实现,具有计算量小、效率高的优点;
(2)建立三维点云密度与复杂程度的关系,以密度聚类方法快速获悉物体表面复杂程度,降低了数据处理难度;
(3)结合视场大小与重叠区域要求,确定聚类姿区域权重,进一步优化了下一最佳视场移动的方向,为算法的稳定性提供了保证。
(4)以深度图像为中介,结合最佳移动方向上视场大小约束,获得了趋势面分析全场区域,避免陷入局部表面信息拟合导致预测未知区域与实际不符。
附图说明
图1是本发明的流程图;
图2是本发明胡巴深度图像;
图3是本发明胡巴边缘区域三维点云图;
图4是本发明胡巴密度聚类区域图;
图5是本发明最佳移动方向示意图;
图6是本发明下一最佳观测方位确定图;
图7是本发明胡巴整体视点图;
以下结合附图和具体实施例对本发明作进一步详述。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
本发明提出一种结构光视觉系统的下一最佳测量位姿确定方法,以胡巴模型测量为例,参见图2。整体过程流程图如图1所示,具体步骤如下:
A1、通过结构光视觉测量系统获得初始位置被测物体的深度图像和三维点云;
本例中采用结构光双目视觉系统对胡巴进行机器人自动测量。测量系统由两个工业相机和一个数字投影仪组成。测量方式基于双目视差原理,采用格雷码与相移光栅相结合的方法进行立体匹配。可测量区域为左、右摄像机、投影仪的公共区域,通过立体匹配可以获得该视角下的深度图像和三维点云。
A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域,参见图3、图4,。
首先在深度图像上采用Canny算子边缘提取法快速识别出物体的边缘;然后考虑视场大小、有效测量区域、物体形状等因素,提出了在边缘提取一定的区域作为聚类分析的区域,其区域宽度t的计算方法,公式如下:
其中a为视场长度,b为视场宽度,表示将面积转化为矩形平均宽度,S为有效测量区域面积,c为边缘区域面积与有效区域面积之比,根据实验经验一般取10%-20%,k1为轮廓修正系数,根据有效测量区域长度l与有效测量区域面积S计算,即 为理想情况正方形有效测量区域的周长。
A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;
设待聚类的点集为data={x1,x2,...,xn},令Idata={1,2,...,n}为相应的指标集,n为总点数,则点xi的局部密度系数ρi,可用与点xi之间距离小于dc的数据点个数表示,其计算公式为:
根据式(2)可以求出各个聚类区域密度系数ρi,即各个子区域的复杂系数。过程如下:将局部密度值进行排序,以密度值最大的点作为第一个聚类中心,依次对聚类数据点进行整理。若某个数据点与之前聚类中心距离小于2*dc时,则点属于该聚类中心,如此重复直到所有的点迭代完成。
A4、结合视场大小优化各个子区域权重,从而确定深度图上最佳移动方向,参见图5。
通过上述聚类密度分析,可以获得最佳移动方向,即以当前视场中心与密度最大聚类中心的连线作为下一测量最佳移动方向。其移动距离根据所需的视场重叠区域比重τ决定,一般取视场大小的20%。设测量视场长为a,宽为b,当前视场中心与下一视场中心的距离为R,根据以下方程:
考虑各个区域权重引入评估值δ:
δ=∑ωi (5)
评估值δ最大的方向即为所求的下一最佳视场移动方向。
A5.1、以测量视场为中心,结合深度图像获得趋势面分析全局区域以及中心趋势线,从而确定出下一最佳测量系统的位姿。
具体过程为:
A5.2、于上述最佳视场移动方向的分析,采用在深度图像上,以当前视场中心(即图像中心)为原点,以最佳移动方向重叠视场大小为约束(取重叠区域比重τ=10%,),快速获得趋势面分析全场区域,利用深度图像像素与三维点云对应关系,获取趋势面拟合所需三维数据;
A5.3、采用其来拟合趋势面,数学模型为:
z=a0+a1x+a2y+a3x2+a4xy+a5y2 (6)
其中a0,a1,a2,a3,a4,a5为待定的多项式系数,x、y为各个三维点的XY平面坐标值。通过回归分析,运用最小二乘法使得残差平方和最小,从而确定多项式系数。
A5.4、利用深度图像信息可以快速获得最佳移动方向上通过视场中心与聚类中心的三维点云数据,并拟合出空间平面,该平面与趋势面相交确定一条空间曲线,下一最佳测量位置应位于这条空间曲线上。设空间平面的方程为:
Ax+By+Cz+D=0 (7)
其中A、B、C、D为空间平面拟合系数,x、y、z为各个三维点的三个坐标值。
A5.5、记当前测量中心点为PA(xA,yA,zA),下一个测量中心轴与预测趋势面的交点为PB(xA,yA,zA)(即下一最佳测量视场中心),两者之间的三维欧式距离为Rk。Rk根据测量系统视场大小以及需要的重叠区域确定,如图7所示。则点PB可由以下方程组求出:
最佳测量系统方向应该垂直于待测平面,因此只要求出PB点在趋势面上的法向,则测量系统轴向正好与趋势面法向相反。在法向方向上计算离点PB为物距L的点PP(xp,yp,zp),该点即为所求的下一最佳测量位置,参见图6、图7,物距为被测物体离测量系统的距离。重复上述过程对胡巴模型进行自动测量,通过6个最佳测量位置的测量可以获得较为完整的模型三维点云数据。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。
Claims (4)
1.一种结构光视觉系统的下一最佳测量位姿确定方法,其特征在于,包括如下步骤:
A1、获取被测物体初始位置的深度图像和三维点云;
A2、通过深度图像获取被测物体的边缘,根据有效测量范围确定下一最佳位姿判定所需的区域;
A3、对区域内三维点云进行密度聚类,依据密度与三维形貌复杂程度关系,获得各个子区域的复杂系数;
A4、结合视场大小优化各个子区域权重,从而确定深度图上最佳移动方向;
A5、以测量视场为中心,结合深度图像获得趋势面,分析全局区域以及中心趋势线,从而确定出下一最佳测量位姿;该步骤具体包括如下:
A5.1、在深度图像上,以当前测量视场中心为原点,以最佳移动方向重叠视场大小为约束,快速获得趋势面分析全场区域,利用深度图像像素与三维点云对应关系,获取趋势面拟合所需三维数据;
A5.2、采用该三维数据来拟合趋势面,数学模型为:
z=a0+a1x+a2y+a3x2+a4xy+a5y2
其中a0,a1,a2,a3,a4,a5为多项式系数,x、y为各个三维点的XY平面坐标值;
A5.3、根据深度图像快速获得最佳移动方向上通过视场中心与聚类中心的三维点云数据,并拟合出空间平面,该平面与趋势面相交确定一条空间曲线,该空间平面的方程为:
Ax+By+Cz+D=0
其中A、B、C、D为空间平面拟合系数,x、y、z为各个三维点的三个坐标值;
A5.4、记当前测量视场中心点为PA(xA,yA,zA),下一个测量中心轴与预测趋势面的交点为PB(xB,yB,zB)即下一最佳测量视场中心,点PB可由以下方程组求出:
Rk为PA和PB之间的三维欧式距离,求出PB在趋势面上的法向,在该法向方向上计算离点PB为物距L的点PP(xp,yp,zp),该点PP即为所述下一最佳测量位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910110094.0A CN109781003B (zh) | 2019-02-11 | 2019-02-11 | 一种结构光视觉系统的下一最佳测量位姿确定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910110094.0A CN109781003B (zh) | 2019-02-11 | 2019-02-11 | 一种结构光视觉系统的下一最佳测量位姿确定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109781003A CN109781003A (zh) | 2019-05-21 |
CN109781003B true CN109781003B (zh) | 2020-10-09 |
Family
ID=66504188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910110094.0A Active CN109781003B (zh) | 2019-02-11 | 2019-02-11 | 一种结构光视觉系统的下一最佳测量位姿确定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109781003B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112146564B (zh) * | 2019-06-28 | 2022-04-15 | 先临三维科技股份有限公司 | 三维扫描方法、装置、计算机设备和计算机可读存储介质 |
CN111750805B (zh) * | 2020-07-06 | 2021-12-10 | 山东大学 | 一种基于双目相机成像和结构光技术的三维测量装置及测量方法 |
CN111862048B (zh) * | 2020-07-22 | 2021-01-29 | 浙大城市学院 | 基于关键点检测和深度卷积神经网络的鱼体姿态与长度自动分析方法 |
CN112710233A (zh) * | 2020-12-18 | 2021-04-27 | 南京航空航天大学 | 一种基于激光点云的大规模飞机蒙皮点云获取装备及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6678415B1 (en) * | 2000-05-12 | 2004-01-13 | Xerox Corporation | Document image decoding using an integrated stochastic language model |
CN106803275A (zh) * | 2017-02-20 | 2017-06-06 | 苏州中科广视文化科技有限公司 | 基于相机位姿估计和空间采样的2d全景视频生成 |
US11132533B2 (en) * | 2017-06-07 | 2021-09-28 | David Scott Dreessen | Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion |
CN108171748B (zh) * | 2018-01-23 | 2021-12-07 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
CN108460779B (zh) * | 2018-02-12 | 2021-09-24 | 浙江大学 | 一种动态环境下的移动机器人图像视觉定位方法 |
CN109048918B (zh) * | 2018-09-25 | 2022-02-22 | 华南理工大学 | 一种轮椅机械臂机器人的视觉引导方法 |
-
2019
- 2019-02-11 CN CN201910110094.0A patent/CN109781003B/zh active Active
Non-Patent Citations (1)
Title |
---|
基于深度图像利用遮挡信息确定下一最佳观测方位;张世辉等;《计算机学报》;20151231;第38卷(第12期);第2450-2463页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109781003A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109781003B (zh) | 一种结构光视觉系统的下一最佳测量位姿确定方法 | |
CN110335316B (zh) | 基于深度信息的位姿确定方法、装置、介质与电子设备 | |
CN112581457B (zh) | 一种基于三维点云的管道内表面检测方法及装置 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
Lee et al. | Skeleton-based 3D reconstruction of as-built pipelines from laser-scan data | |
US10970872B2 (en) | System and method for image capture device pose estimation | |
US20160203387A1 (en) | Vision system and analytical method for planar surface segmentation | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
US20150015602A1 (en) | System and method for selective determination of point clouds | |
EP3023913A1 (en) | Crack data collection method and crack data collection program | |
CN111612728B (zh) | 一种基于双目rgb图像的3d点云稠密化方法和装置 | |
WO2017195228A1 (en) | Process and system to analyze deformations in motor vehicles | |
US20190339207A1 (en) | System and method for flexibly holding workpiece and reporting workpiece location | |
JP2014013147A5 (zh) | ||
JP2014500484A (ja) | 連続b‐スプライン変形を利用してタイヤ表面の三次元画像を前処理する方法 | |
JP6821326B2 (ja) | 情報処理装置、計測システム、情報処理方法およびプログラム | |
JP2016090547A (ja) | ひび割れ情報収集装置及びひび割れ情報を収集するためのサーバ装置 | |
EP2551633B1 (en) | Three dimensional distance measuring device and method | |
CN107504917B (zh) | 一种三维尺寸测量方法及装置 | |
CN110851978A (zh) | 一种基于可见性的摄像机位置优化方法 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JPH07103715A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
CN110926405B (zh) | 一种基于单目视觉灭点检测的arv姿态测量方法 | |
CN112991372B (zh) | 一种基于多边形匹配的2d-3d相机外参标定方法 | |
CN109377562B (zh) | 一种自动三维测量的视点规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |