CN110322561A - 用于机器人无序分拣的3d相机及其测量方法 - Google Patents
用于机器人无序分拣的3d相机及其测量方法 Download PDFInfo
- Publication number
- CN110322561A CN110322561A CN201910360919.4A CN201910360919A CN110322561A CN 110322561 A CN110322561 A CN 110322561A CN 201910360919 A CN201910360919 A CN 201910360919A CN 110322561 A CN110322561 A CN 110322561A
- Authority
- CN
- China
- Prior art keywords
- image
- speckle
- camera
- projecting unit
- speckle pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000004458 analytical method Methods 0.000 claims abstract description 5
- 230000001360 synchronised effect Effects 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000013139 quantization Methods 0.000 claims description 6
- 238000001259 photo etching Methods 0.000 claims description 5
- 230000008901 benefit Effects 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000010425 computer drawing Methods 0.000 claims description 3
- 238000009792 diffusion process Methods 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims description 2
- 239000011521 glass Substances 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims 1
- 230000000644 propagated effect Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract description 15
- 238000013461 design Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000012856 packing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000000608 laser ablation Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/02—Illuminating scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种用于机器人无序分拣的3D相机及其测量方法,采用主动散斑投射技术,通过投射单元将设计的散斑图案投射到被测物体表面;然后,启动两个相机同步采集一次图像;最后,利用数字图像相关法对采集的图像进行匹配计算和三维解析,可实现被测表面三维点云的快速重建。每次测量仅需采集一次图像,图像处理更简单,大大提高测量速度。解决了传统结构光3D相机测量幅面小、解算速度慢的技术问题。投射单元投射幅面更大和亮度更强,能够满足物流分拣1.5m大视野的测量要求。
Description
技术领域
本发明涉及三维视觉测量技术领域,具体涉及一种用于机器人无序分拣的3D相机及其测量方法。
背景技术
近年来,随着三维视觉技术的快速发展和图像采集设备的不断进步,3D相机技术被越来越多的应用于高端制造、汽车制造、机器人、智能无人系统(无人车、无人机)等领域,为工业制造提供数字化依据,为自动化、智能化提供视觉感知。
3D相机按照技术原理可分为条纹结构光、线扫激光以及红外成像等。目前,商业化3D相机中有60%以上均采用了结构光技术,一般采用投影仪(如DLP投影仪)向被测物体表面投射多幅(如多频四步相移14幅)光栅图案(格雷码、正弦条纹等),并利用相机多次采集图像来计算三维点云数据,精度较高,但需要对多幅图像进行解算、速度较慢;同时,受投影仪亮度和镜头不能定制的限制,基于结构光技术的3D相机不能用于大幅面(>1m)的测量。另外,基于线激光技术的3D相机主要用于小型工件的在线检测,且价格昂贵。而基于红外成像技术的3D相机由于精度低,多用于手机、游戏、生物识别等消费级领域。
发明内容
有鉴于此,本发明拟公开一种用于机器人无序分拣的3D相机及其测量方法,以解决传统结构光3D相机测量幅面小、解算速度慢的技术问题。
为解决上述技术问题,本发明采用如下技术方案:
一种用于机器人无序分拣的3D相机,其特征在于由两个工业相机(1)和投射单元(2)组成;两个工业相机(1)位于投射单元(2)的两侧,且投射单元(2)的投射范围在两个工业相机(1)各自的图像采集范围之内。
进一步的,两个工业相机(1)与投射单元(2)位于大致一致的水平高度。
进一步的,所述投射单元(2)中包含散斑投射单元,所述散斑投射单元用于将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案,两个工业相机(1)用于同步采集被测物体图像。
进一步的,所述散斑投射单元主体包括高亮LED光源、散斑玻片以及用于光线传播的透镜单元,透镜单元包括多个先扩散再汇聚的镜片,带有散斑图案的散斑玻片设置在多个镜片之间。
进一步的,所述散斑图案利用计算机绘制矢量化随机制成,经光刻在透光玻璃片上形成散斑玻片。
根据测量幅面和距离,选型镜头或镜片和LED光源进行光路仿真后集成构建
一种测量方法,其特征在于采用上述的3D相机,具体包括如下步骤:
第一步,利用标定靶通过自标定方法标定3D相机的内、外参数,相机的内参数包括镜头焦距、主点坐标及镜头的畸变量等,相机的外参数为世界坐标系到相机坐标系的旋转矩阵和平移矩阵;
第二步,采用主动散斑投射技术,通过投射单元(2)将预设的散斑图案投射到被测物体表面;
第三步,启动相机采集散斑图像,两个工业相机(1)各自采集一幅散斑图像;
第四步,利用数字图像相关法对各两个工业相机(1)采集的散斑图像进行匹配计算和三维解析,实现被测表面三维点云的快速重建。
进一步的,所述散斑图案生成方法如下:
(1)灰度图像生成;(2)图像二值化:对生成的灰度图像进行二值化处理,图像中灰度值大于128的像素点灰度值置为255,其余像素点灰度值置为0,即可得到黑白两色的二值化图像;(3)矢量化:对二值化图像进行逐行扫描,将所有连同的白色区域连接为矩形单元,最终整幅矢量图由图像高度层微小矩形堆积而成随机矢量化散斑图。
进一步的,第二步中,高亮LED光源发射的光线通过一个准直透镜将高度平行的光进行扩束,然后通过一个聚焦透镜将扩束光聚焦,并穿过光刻有散斑图案的散斑玻片聚焦到镜头焦距的焦点位置,使投射的散斑图案保持亮度均匀和较高清晰度。
进一步的,第四步中,基于数字图像相关法,采用去边缘化、三角网格划分、种子点计算、种子点扩散和立体重建技术,实现利用双目单幅散斑图像,快速解算被测件三维形貌点云。
本发明用于机器人无序分拣的3D相机和对应测量方法,采用主动散斑投射技术,通过投射单元将设计的散斑图案投射到被测物体表面;然后,启动两个相机同步采集一次图像;最后,利用数字图像相关法对采集的图像进行匹配计算和三维解析,可实现被测表面三维点云的快速重建。
相比传统的条纹结构光3D相机和对应测量方法,每次测量仅需采集一次图像,而传统结3D相机每次测量需要采集多幅(>10幅)图像,因此,本发明图像处理更简单,大大提高测量速度。相比传统结构光技术常采用的商用投影仪和对应测量方法,本发明3D相机的投射单元投射幅面更大和亮度更强,能够满足物流分拣1.5m大视野的测量要求。
附图说明
图1为本发明3D相机结构示意图。
图2为本发明随机设计的一种散斑图案(a)实施例图和根据该图案投射得到的图像(b)。
图3为随机虚拟光源的示意图。
图4为由虚拟光源得到的灰度图像。
图5为由灰度图得到的二值化图像。
图6为由二值化图像得到的随机矢量化散斑图。
图7为投射器或投射单元的光路原理图。
图8为被测物(物流包装箱)的实物图和散斑图像(灰度)采集图;其中(a)为包装箱图像(未投射散斑),(b)左相机散斑图像,(c)右相机散斑图像。
图9为常用的Sobel梯度算子示意图。
图10为梯度重心偏移量示意图。
图11为四角网格示意图。
图12为根据本发明的缺陷图像进行的三维点云重建效果图。
具体实施方式
下面结合附图1-12和实施例对本发明专利作进一步描述。
根据本发明实施的用于机器人无序分拣的3D相机,如图1所示,主要由两个工业相机1和投射单元2组成。本文所涉及的工业相机是机器视觉系统中标准视觉组件,可提供相机触发和图像采集等SDK,支持window环境软件的二次开发。为现有技术中本领域技术人员可以获取。两个工业相机1位于投射单元2的两侧形成双目摄像头,且投射单元2的投射范围在两个工业相机1各自的图像采集范围之内。
进一步的,两个工业相机1与投射单元2位于大致一致的水平高度。
进一步的,所述投射单元2中散斑投射单元,所述散斑投射单元用于将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案,两个工业相机1用于同步采集被测物体图像。
进一步的,本发明还提供一种测量方法,其特征在于采用本发明用于机器人无序分拣的3D相机,首先,采用主动散斑投射技术,通过投射单元2将设计的散斑图案投射到被测物体表面;然后,启动两个工业相机1同步采集一次被测物体图像;最后,利用数字图像相关法对采集的图像进行匹配计算和三维解析,可实现被测表面三维点云的快速重建。
第一步,利用标定靶通过自标定方法精确求解3D相机的内、外参数,相机的内参数(intrinsic parameters)包括镜头焦距、主点坐标及镜头的畸变量等,相机的外参数(external parameters)为世界坐标系到相机坐标系的旋转矩阵和平移矩阵。
所述自标定方法主要包含以下步骤:
(1)标定图像采集。将标定靶放置于3D相机前标准测量距离(优选1.5~2.5m远)处,通过移动靶标获取六个不同位置和姿态的标定靶图像。
(2)标志点识别。首先对标定靶图像上的标志点进行像素级的边缘提取,然后经过亚像素提取、中心点拟合获得标志点的中心坐标,识别出六组图像中圆形特征点的图像坐标和编码点对应的编码值;
(3)重建编码点三维坐标。利用各组前两幅图片中公共的编码点,通过相对定向算计算出前两组图像的相对位置关系,并重建出编码点物方坐标(如两个相机在标定靶前两个姿态时拍摄的图像为2×2=4幅)。
(4)参数优化。通过光束平差算法对相机内部参数、外部参数、编码点物方坐标进行整体的迭代优化。最后加入比例尺(即标定靶对角线距离),得到真实的三维坐标以及准确的相机内外参数。
(5)输出相机标定参数。进一步对得到的相机外参数进行转换,得到左右相机坐标系的旋转矩阵以及平移矩阵。
第二步,采用主动散斑投射技术,通过投射单元2将设计的散斑图案(本实施例为图2的(a)图样,)投射到被测物体表面。得到的投射图像如图2的(b)所示。
投射单元2内置散斑主动投射器或散斑投射单元,其主体包括LED光源、散斑玻片以及用于光线汇聚的透镜单元(透镜单元包括若干功能不同的透镜)。
首先,利用计算机绘制矢量化随机散斑图案,经光刻制备成散斑玻片;然后,根据测量幅面和距离,选型镜头和LED光源进行光路仿真,集成构建一种散斑投射单元;最后,将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案。
所述散斑图案生成方法如下:
(1)灰度图像生成。如图3所示,在图像范围内,随机放置N个虚拟光源3(如图3),整个图像范围内所有区域均受到该虚拟光源3的影响,光源强度和位置随机。图像上每个像素点的灰度值是所有光源共同作用的结果,像素灰度表示为:
其中,g(x,y)为像素灰度值,Ki为每个光源的亮度(0-255随机数),(x,y)为像素坐标,(sxi,syi)为每个光源的坐标位置(随机数),σ为光强因子(3-8间取值)。
虚拟光源3的个数一般取为图像宽度的3倍,图像最终的灰度值必须进行归一化处理(介于0-255),生成的灰度图像如图4所示。
(2)图像二值化:对生成的灰度图像进行二值化处理,即:图像中灰度值大于128的像素点灰度值置为255,其余像素点灰度值置为0,即可得到黑白两色的二值化图像,如图5所示。
(3)矢量化:对二值化图像进行逐行扫描,将所有连同的白色区域连接为矩形单元,最终整幅矢量图由H(图像高度)层微小矩形堆积而成,如图6所示的随机矢量化散斑图。
如图7所示的投射器或投射单元的光路原理图。将设计好的随机矢量化散斑图案,通过激光刻蚀的方法雕刻制成透光散斑玻片3,加工精度2μm,以此散斑玻片3作为散斑主动投射器或散斑投射单元的散斑模板,高亮LED光源1发射的光线通过一个准直透镜2将高度平行的光进行扩束,然后通过一个聚光透镜5将扩束光聚焦,并穿过散斑玻片3聚焦到聚光透镜5镜头焦距的焦点位置,使投射的散斑图案保持亮度均匀和较高清晰度。在散斑玻片3和聚光透镜5之间设置透镜组4,透镜组4采用复眼透镜,具有匀光左右。
第三步,启动相机采集散斑图像。散斑图案投射到被测物体表面并保持约20ms,利用相机在10ms内完成散斑图像采集,并存储。图8为物流包装箱散斑图像(灰度)的实物图和采集图。其中,(a)为包装箱图像(未投射散斑),(b)左相机散斑图像,(c)右相机散斑图像。
第四步,基于数字图像相关法,采用去边缘化、三角网格划分、种子点计算、种子点扩散和立体重建等技术,实现利用双目单幅散斑图像,快速解算被测件三维形貌点云。
所述散斑图像去边缘化方法如下:
梯度均值:计算图像子区范围内所有图像点梯度的平均值,而像点梯度采用常用的Sobel梯度算子(如图9所示)进行计算,表达式如式(2)所示:
式(2)中,I(x,y)为图像灰度,g为图像梯度,gx为图像水平方向梯度,gy为图像竖直方向梯度。
梯度均值常用式(3)进行计算:
式中,gavg为梯度均值,g(x,y)为图像上某一点(x,y)的梯度值,m、n分别为计算子区在水平和竖直方向的半径。
为了更好过滤点若匹配图像子区,引入一个梯度均值阈值λ,当计算子区的梯度均值gavg大于λ时,则表示该计算子区特征饱满可进行匹配计算,反之,当计算子区梯度均值gavg小于λ时,则表示该区域特征过于统一(即整体偏白或偏黑),属于弱匹配区需要过滤去除,不参与匹配计算。
梯度重心偏移:图像计算子区内,所有像点的梯度重心相对于子区中心的偏移程度。图10为梯度重心偏移量示意图,其中,OD是图像子区的梯度重心,OC是图像子区的坐标中心,dx是重心点相对于中心点的x方向偏移量,dy是重心点相对于中心点的y方向偏移量。
为了获得一个无量纲的梯度重心偏移量计算算子,本文采用式(4)进行计算:
式(4)中,d为介于[0-1]之间的偏移因子,同时引入一个梯度偏移阈值μ,当d大于μ时,则表示该计算子区梯度特征分布不均,可能位于边缘区域,计算时需要剔除。
通过上述图像区边缘化处理,可以有效去除尖锐特征等弱计算区域。
所述三角网格划分方法如下:
一般情况下,不是所有像素点均参与计算,在满足采样需求的条件下,常对图像以等间距d进行网格划分。本文选用四角网格进行网格划分。如图11所示。
所述种子点计算方法如下:
对于图11中所示的空心小圆点(图11有四个箭头的点)标记为种子点,对于三角网格划分在采样时,种子点会向周围邻域点(实心小圆点)进行扩散,而种子点在匹配前无任何匹配初值,需要对其进行整像素和亚像素匹配.
最优种子点匹配完成后,利用相邻点变形的连续性,根据种子点与其邻近点(4个)在参考图像上的距离,通过式(2)可得其邻近点在待匹配图像上的位置初值(通常该初值与其实际位置相近)。利用该中心点位置与其在参考图像上的中心点位置相减作为u、v的初值,u、v分别为匹配点水平和竖直方向的相对位移,其余相关参数取与种子点相同,以此作为ILS算法的初值对邻近点进行优化匹配。利用种子点将上述4个邻近点匹配成功后,又可以这4个邻近点作为种子点,为其他未匹配邻近点(图11中所示小三角形)提供相关参数初值,如此不断向外扩散至所有点匹配完毕。经过种子点扩散计算,获取了密集种子点空间点三维坐标,即实现被测件三维形貌的点云重建。图12根据本本发明的缺陷图像图8a实现的三维点云重建效果。点云指很多密集的三维空间点,空间点分布越密集越形成一个连续的平面,也代表重建效果越好。
与传统的测量方法相比,本发明3D相机及其测量方法具有快速、动态、大视场测量的优势。
(1)由于每次测量仅需采集一次图像,这就大大提高测量速度。
(2)投射幅面更大、亮度更强,能够满足物流分拣1.5m大视野的测量要求以及黑色物体扫描难题。
(3)散斑相关法动态测量的优势,能够克服工业现场环境振动对三维测量的影响,满足物流分拣现场测量需求。
Claims (9)
1.一种用于机器人无序分拣的3D相机,其特征在于由两个工业相机(1)和投射单元(2)组成;两个工业相机(1)位于投射单元(2)的两侧,且投射单元(2)的投射范围在两个工业相机(1)各自的图像采集范围之内。
2.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:两个工业相机(1)与投射单元(2)位于大致一致的水平高度。
3.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:所述投射单元(2)中包含散斑投射单元,所述散斑投射单元用于将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案,两个工业相机(1)用于同步采集被测物体图像。
4.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:所述散斑投射单元主体包括高亮LED光源、散斑玻片以及用于光线传播的透镜单元,透镜单元包括多个先扩散再汇聚的镜片,带有散斑图案的散斑玻片设置在多个镜片之间。
5.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:所述散斑图案利用计算机绘制矢量化随机制成,经光刻在透光玻璃片上形成散斑玻片。
6.一种测量方法,其特征在于采用上述权利要求1-6任一项所述的3D相机,具体包括如下步骤:
第一步,利用标定靶通过自标定方法标定3D相机的内、外参数,相机的内参数包括镜头焦距、主点坐标及镜头的畸变量等,相机的外参数为世界坐标系到相机坐标系的旋转矩阵和平移矩阵;
第二步,采用主动散斑投射技术,通过投射单元(2)将预设的散斑图案投射到被测物体表面;
第三步,启动相机采集散斑图像,两个工业相机(1)各自采集一幅散斑图像;
第四步,利用数字图像相关法对各两个工业相机(1)采集的散斑图像进行匹配计算和三维解析,实现被测表面三维点云的快速重建。
7.根据权利要求6所述的测量方法,其特征在于所述散斑图案生成方法如下:
(1)灰度图像生成;(2)图像二值化:对生成的灰度图像进行二值化处理,图像中灰度值大于128的像素点灰度值置为255,其余像素点灰度值置为0,即可得到黑白两色的二值化图像;(3)矢量化:对二值化图像进行逐行扫描,将所有连同的白色区域连接为矩形单元,最终整幅矢量图由图像高度层微小矩形堆积而成随机矢量化散斑图。
8.根据权利要求6所述的测量方法,其特征在于第二步中,高亮LED光源发射的光线通过一个准直透镜将高度平行的光进行扩束,然后通过一个聚焦透镜将扩束光聚焦,并穿过光刻有散斑图案的散斑玻片聚焦到镜头焦距的焦点位置,使投射的散斑图案保持亮度均匀和较高清晰度。
9.根据权利要求6所述的测量方法,其特征在于第四步中,基于数字图像相关法,采用去边缘化、三角网格划分、种子点计算、种子点扩散和立体重建技术,实现利用双目单幅散斑图像,快速解算被测件三维形貌点云。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910360919.4A CN110322561A (zh) | 2019-04-30 | 2019-04-30 | 用于机器人无序分拣的3d相机及其测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910360919.4A CN110322561A (zh) | 2019-04-30 | 2019-04-30 | 用于机器人无序分拣的3d相机及其测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110322561A true CN110322561A (zh) | 2019-10-11 |
Family
ID=68113323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910360919.4A Pending CN110322561A (zh) | 2019-04-30 | 2019-04-30 | 用于机器人无序分拣的3d相机及其测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110322561A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112747691A (zh) * | 2020-03-19 | 2021-05-04 | 熵智科技(深圳)有限公司 | 一种大视野单幅纹理主动投影模组及3d相机 |
WO2021185216A1 (zh) * | 2020-03-16 | 2021-09-23 | 左忠斌 | 一种基于多激光测距的标定方法 |
CN113720275A (zh) * | 2021-08-11 | 2021-11-30 | 江西联创电子有限公司 | 三维形貌的测量方法、测量系统及建立深度信息标定表的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105928472A (zh) * | 2016-07-11 | 2016-09-07 | 西安交通大学 | 一种基于主动斑投射器的三维形貌动态测量方法 |
CN106595528A (zh) * | 2016-11-10 | 2017-04-26 | 华中科技大学 | 一种基于数字散斑的远心显微双目立体视觉测量方法 |
CN107564091A (zh) * | 2017-07-26 | 2018-01-09 | 深圳大学 | 一种基于快速对应点搜索的三维重建方法及装置 |
CN107869967A (zh) * | 2017-11-02 | 2018-04-03 | 渭南领智三维科技有限公司 | 一种人体足部快速三维扫描方法 |
-
2019
- 2019-04-30 CN CN201910360919.4A patent/CN110322561A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105928472A (zh) * | 2016-07-11 | 2016-09-07 | 西安交通大学 | 一种基于主动斑投射器的三维形貌动态测量方法 |
CN106595528A (zh) * | 2016-11-10 | 2017-04-26 | 华中科技大学 | 一种基于数字散斑的远心显微双目立体视觉测量方法 |
CN107564091A (zh) * | 2017-07-26 | 2018-01-09 | 深圳大学 | 一种基于快速对应点搜索的三维重建方法及装置 |
CN107869967A (zh) * | 2017-11-02 | 2018-04-03 | 渭南领智三维科技有限公司 | 一种人体足部快速三维扫描方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021185216A1 (zh) * | 2020-03-16 | 2021-09-23 | 左忠斌 | 一种基于多激光测距的标定方法 |
CN112747691A (zh) * | 2020-03-19 | 2021-05-04 | 熵智科技(深圳)有限公司 | 一种大视野单幅纹理主动投影模组及3d相机 |
CN113720275A (zh) * | 2021-08-11 | 2021-11-30 | 江西联创电子有限公司 | 三维形貌的测量方法、测量系统及建立深度信息标定表的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127745B (zh) | 结构光3d视觉系统与线阵相机的联合标定方法及装置 | |
CN106595528B (zh) | 一种基于数字散斑的远心显微双目立体视觉测量方法 | |
CA3040002C (en) | A device and method for obtaining distance information from views | |
CN101825431B (zh) | 用于三维传感的参考图像技术 | |
CN100520287C (zh) | 测量物体形状的方法和装置 | |
KR101150755B1 (ko) | 영상촬영장치 | |
JP6363863B2 (ja) | 情報処理装置および情報処理方法 | |
CN103292740B (zh) | 一种三维扫描仪测量方法及其装置 | |
CN112525107B (zh) | 一种基于事件相机的结构光三维测量方法 | |
JP2016128816A (ja) | プレノプティック・カメラを使った表面属性の推定 | |
CN106796661A (zh) | 投影光图案的系统、方法和计算机程序产品 | |
JP5633058B1 (ja) | 3次元計測装置及び3次元計測方法 | |
CN106871815A (zh) | 一种Kinect与条纹反射法结合的类镜面三维面形测量方法 | |
CN110322561A (zh) | 用于机器人无序分拣的3d相机及其测量方法 | |
CN105004324B (zh) | 一种具有三角测距功能的单目视觉传感器 | |
CN106500629B (zh) | 一种显微三维测量装置及系统 | |
JP6695440B2 (ja) | 深度感知システム | |
CN107860337A (zh) | 基于阵列相机的结构光三维重建方法与装置 | |
Zhang et al. | Development of an omni-directional 3D camera for robot navigation | |
CN104969057A (zh) | 轮廓测量的方法和装置 | |
CN110278431A (zh) | 相位检测自动聚焦三维图像撷取系统 | |
CN115082538A (zh) | 基于线结构光投影的多目视觉平衡环零件表面三维重建系统及方法 | |
Chen et al. | Field-of-view-enlarged single-camera 3-D shape reconstruction | |
CN109506562A (zh) | 一种用于太阳翼展开锁定深度检测的双目视觉测量装置 | |
CN106066207A (zh) | 一种平行光路组合式多源信息采集处理装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191011 |
|
RJ01 | Rejection of invention patent application after publication |