CN110322561A - 用于机器人无序分拣的3d相机及其测量方法 - Google Patents

用于机器人无序分拣的3d相机及其测量方法 Download PDF

Info

Publication number
CN110322561A
CN110322561A CN201910360919.4A CN201910360919A CN110322561A CN 110322561 A CN110322561 A CN 110322561A CN 201910360919 A CN201910360919 A CN 201910360919A CN 110322561 A CN110322561 A CN 110322561A
Authority
CN
China
Prior art keywords
image
speckle
camera
projecting unit
speckle pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910360919.4A
Other languages
English (en)
Inventor
赵青
胡浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Entropy Technology (shenzhen) Co Ltd
Original Assignee
Entropy Technology (shenzhen) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Entropy Technology (shenzhen) Co Ltd filed Critical Entropy Technology (shenzhen) Co Ltd
Priority to CN201910360919.4A priority Critical patent/CN110322561A/zh
Publication of CN110322561A publication Critical patent/CN110322561A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种用于机器人无序分拣的3D相机及其测量方法,采用主动散斑投射技术,通过投射单元将设计的散斑图案投射到被测物体表面;然后,启动两个相机同步采集一次图像;最后,利用数字图像相关法对采集的图像进行匹配计算和三维解析,可实现被测表面三维点云的快速重建。每次测量仅需采集一次图像,图像处理更简单,大大提高测量速度。解决了传统结构光3D相机测量幅面小、解算速度慢的技术问题。投射单元投射幅面更大和亮度更强,能够满足物流分拣1.5m大视野的测量要求。

Description

用于机器人无序分拣的3D相机及其测量方法
技术领域
本发明涉及三维视觉测量技术领域,具体涉及一种用于机器人无序分拣的3D相机及其测量方法。
背景技术
近年来,随着三维视觉技术的快速发展和图像采集设备的不断进步,3D相机技术被越来越多的应用于高端制造、汽车制造、机器人、智能无人系统(无人车、无人机)等领域,为工业制造提供数字化依据,为自动化、智能化提供视觉感知。
3D相机按照技术原理可分为条纹结构光、线扫激光以及红外成像等。目前,商业化3D相机中有60%以上均采用了结构光技术,一般采用投影仪(如DLP投影仪)向被测物体表面投射多幅(如多频四步相移14幅)光栅图案(格雷码、正弦条纹等),并利用相机多次采集图像来计算三维点云数据,精度较高,但需要对多幅图像进行解算、速度较慢;同时,受投影仪亮度和镜头不能定制的限制,基于结构光技术的3D相机不能用于大幅面(>1m)的测量。另外,基于线激光技术的3D相机主要用于小型工件的在线检测,且价格昂贵。而基于红外成像技术的3D相机由于精度低,多用于手机、游戏、生物识别等消费级领域。
发明内容
有鉴于此,本发明拟公开一种用于机器人无序分拣的3D相机及其测量方法,以解决传统结构光3D相机测量幅面小、解算速度慢的技术问题。
为解决上述技术问题,本发明采用如下技术方案:
一种用于机器人无序分拣的3D相机,其特征在于由两个工业相机(1)和投射单元(2)组成;两个工业相机(1)位于投射单元(2)的两侧,且投射单元(2)的投射范围在两个工业相机(1)各自的图像采集范围之内。
进一步的,两个工业相机(1)与投射单元(2)位于大致一致的水平高度。
进一步的,所述投射单元(2)中包含散斑投射单元,所述散斑投射单元用于将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案,两个工业相机(1)用于同步采集被测物体图像。
进一步的,所述散斑投射单元主体包括高亮LED光源、散斑玻片以及用于光线传播的透镜单元,透镜单元包括多个先扩散再汇聚的镜片,带有散斑图案的散斑玻片设置在多个镜片之间。
进一步的,所述散斑图案利用计算机绘制矢量化随机制成,经光刻在透光玻璃片上形成散斑玻片。
根据测量幅面和距离,选型镜头或镜片和LED光源进行光路仿真后集成构建
一种测量方法,其特征在于采用上述的3D相机,具体包括如下步骤:
第一步,利用标定靶通过自标定方法标定3D相机的内、外参数,相机的内参数包括镜头焦距、主点坐标及镜头的畸变量等,相机的外参数为世界坐标系到相机坐标系的旋转矩阵和平移矩阵;
第二步,采用主动散斑投射技术,通过投射单元(2)将预设的散斑图案投射到被测物体表面;
第三步,启动相机采集散斑图像,两个工业相机(1)各自采集一幅散斑图像;
第四步,利用数字图像相关法对各两个工业相机(1)采集的散斑图像进行匹配计算和三维解析,实现被测表面三维点云的快速重建。
进一步的,所述散斑图案生成方法如下:
(1)灰度图像生成;(2)图像二值化:对生成的灰度图像进行二值化处理,图像中灰度值大于128的像素点灰度值置为255,其余像素点灰度值置为0,即可得到黑白两色的二值化图像;(3)矢量化:对二值化图像进行逐行扫描,将所有连同的白色区域连接为矩形单元,最终整幅矢量图由图像高度层微小矩形堆积而成随机矢量化散斑图。
进一步的,第二步中,高亮LED光源发射的光线通过一个准直透镜将高度平行的光进行扩束,然后通过一个聚焦透镜将扩束光聚焦,并穿过光刻有散斑图案的散斑玻片聚焦到镜头焦距的焦点位置,使投射的散斑图案保持亮度均匀和较高清晰度。
进一步的,第四步中,基于数字图像相关法,采用去边缘化、三角网格划分、种子点计算、种子点扩散和立体重建技术,实现利用双目单幅散斑图像,快速解算被测件三维形貌点云。
本发明用于机器人无序分拣的3D相机和对应测量方法,采用主动散斑投射技术,通过投射单元将设计的散斑图案投射到被测物体表面;然后,启动两个相机同步采集一次图像;最后,利用数字图像相关法对采集的图像进行匹配计算和三维解析,可实现被测表面三维点云的快速重建。
相比传统的条纹结构光3D相机和对应测量方法,每次测量仅需采集一次图像,而传统结3D相机每次测量需要采集多幅(>10幅)图像,因此,本发明图像处理更简单,大大提高测量速度。相比传统结构光技术常采用的商用投影仪和对应测量方法,本发明3D相机的投射单元投射幅面更大和亮度更强,能够满足物流分拣1.5m大视野的测量要求。
附图说明
图1为本发明3D相机结构示意图。
图2为本发明随机设计的一种散斑图案(a)实施例图和根据该图案投射得到的图像(b)。
图3为随机虚拟光源的示意图。
图4为由虚拟光源得到的灰度图像。
图5为由灰度图得到的二值化图像。
图6为由二值化图像得到的随机矢量化散斑图。
图7为投射器或投射单元的光路原理图。
图8为被测物(物流包装箱)的实物图和散斑图像(灰度)采集图;其中(a)为包装箱图像(未投射散斑),(b)左相机散斑图像,(c)右相机散斑图像。
图9为常用的Sobel梯度算子示意图。
图10为梯度重心偏移量示意图。
图11为四角网格示意图。
图12为根据本发明的缺陷图像进行的三维点云重建效果图。
具体实施方式
下面结合附图1-12和实施例对本发明专利作进一步描述。
根据本发明实施的用于机器人无序分拣的3D相机,如图1所示,主要由两个工业相机1和投射单元2组成。本文所涉及的工业相机是机器视觉系统中标准视觉组件,可提供相机触发和图像采集等SDK,支持window环境软件的二次开发。为现有技术中本领域技术人员可以获取。两个工业相机1位于投射单元2的两侧形成双目摄像头,且投射单元2的投射范围在两个工业相机1各自的图像采集范围之内。
进一步的,两个工业相机1与投射单元2位于大致一致的水平高度。
进一步的,所述投射单元2中散斑投射单元,所述散斑投射单元用于将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案,两个工业相机1用于同步采集被测物体图像。
进一步的,本发明还提供一种测量方法,其特征在于采用本发明用于机器人无序分拣的3D相机,首先,采用主动散斑投射技术,通过投射单元2将设计的散斑图案投射到被测物体表面;然后,启动两个工业相机1同步采集一次被测物体图像;最后,利用数字图像相关法对采集的图像进行匹配计算和三维解析,可实现被测表面三维点云的快速重建。
第一步,利用标定靶通过自标定方法精确求解3D相机的内、外参数,相机的内参数(intrinsic parameters)包括镜头焦距、主点坐标及镜头的畸变量等,相机的外参数(external parameters)为世界坐标系到相机坐标系的旋转矩阵和平移矩阵。
所述自标定方法主要包含以下步骤:
(1)标定图像采集。将标定靶放置于3D相机前标准测量距离(优选1.5~2.5m远)处,通过移动靶标获取六个不同位置和姿态的标定靶图像。
(2)标志点识别。首先对标定靶图像上的标志点进行像素级的边缘提取,然后经过亚像素提取、中心点拟合获得标志点的中心坐标,识别出六组图像中圆形特征点的图像坐标和编码点对应的编码值;
(3)重建编码点三维坐标。利用各组前两幅图片中公共的编码点,通过相对定向算计算出前两组图像的相对位置关系,并重建出编码点物方坐标(如两个相机在标定靶前两个姿态时拍摄的图像为2×2=4幅)。
(4)参数优化。通过光束平差算法对相机内部参数、外部参数、编码点物方坐标进行整体的迭代优化。最后加入比例尺(即标定靶对角线距离),得到真实的三维坐标以及准确的相机内外参数。
(5)输出相机标定参数。进一步对得到的相机外参数进行转换,得到左右相机坐标系的旋转矩阵以及平移矩阵。
第二步,采用主动散斑投射技术,通过投射单元2将设计的散斑图案(本实施例为图2的(a)图样,)投射到被测物体表面。得到的投射图像如图2的(b)所示。
投射单元2内置散斑主动投射器或散斑投射单元,其主体包括LED光源、散斑玻片以及用于光线汇聚的透镜单元(透镜单元包括若干功能不同的透镜)。
首先,利用计算机绘制矢量化随机散斑图案,经光刻制备成散斑玻片;然后,根据测量幅面和距离,选型镜头和LED光源进行光路仿真,集成构建一种散斑投射单元;最后,将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案。
所述散斑图案生成方法如下:
(1)灰度图像生成。如图3所示,在图像范围内,随机放置N个虚拟光源3(如图3),整个图像范围内所有区域均受到该虚拟光源3的影响,光源强度和位置随机。图像上每个像素点的灰度值是所有光源共同作用的结果,像素灰度表示为:
其中,g(x,y)为像素灰度值,Ki为每个光源的亮度(0-255随机数),(x,y)为像素坐标,(sxi,syi)为每个光源的坐标位置(随机数),σ为光强因子(3-8间取值)。
虚拟光源3的个数一般取为图像宽度的3倍,图像最终的灰度值必须进行归一化处理(介于0-255),生成的灰度图像如图4所示。
(2)图像二值化:对生成的灰度图像进行二值化处理,即:图像中灰度值大于128的像素点灰度值置为255,其余像素点灰度值置为0,即可得到黑白两色的二值化图像,如图5所示。
(3)矢量化:对二值化图像进行逐行扫描,将所有连同的白色区域连接为矩形单元,最终整幅矢量图由H(图像高度)层微小矩形堆积而成,如图6所示的随机矢量化散斑图。
如图7所示的投射器或投射单元的光路原理图。将设计好的随机矢量化散斑图案,通过激光刻蚀的方法雕刻制成透光散斑玻片3,加工精度2μm,以此散斑玻片3作为散斑主动投射器或散斑投射单元的散斑模板,高亮LED光源1发射的光线通过一个准直透镜2将高度平行的光进行扩束,然后通过一个聚光透镜5将扩束光聚焦,并穿过散斑玻片3聚焦到聚光透镜5镜头焦距的焦点位置,使投射的散斑图案保持亮度均匀和较高清晰度。在散斑玻片3和聚光透镜5之间设置透镜组4,透镜组4采用复眼透镜,具有匀光左右。
第三步,启动相机采集散斑图像。散斑图案投射到被测物体表面并保持约20ms,利用相机在10ms内完成散斑图像采集,并存储。图8为物流包装箱散斑图像(灰度)的实物图和采集图。其中,(a)为包装箱图像(未投射散斑),(b)左相机散斑图像,(c)右相机散斑图像。
第四步,基于数字图像相关法,采用去边缘化、三角网格划分、种子点计算、种子点扩散和立体重建等技术,实现利用双目单幅散斑图像,快速解算被测件三维形貌点云。
所述散斑图像去边缘化方法如下:
梯度均值:计算图像子区范围内所有图像点梯度的平均值,而像点梯度采用常用的Sobel梯度算子(如图9所示)进行计算,表达式如式(2)所示:
式(2)中,I(x,y)为图像灰度,g为图像梯度,gx为图像水平方向梯度,gy为图像竖直方向梯度。
梯度均值常用式(3)进行计算:
式中,gavg为梯度均值,g(x,y)为图像上某一点(x,y)的梯度值,m、n分别为计算子区在水平和竖直方向的半径。
为了更好过滤点若匹配图像子区,引入一个梯度均值阈值λ,当计算子区的梯度均值gavg大于λ时,则表示该计算子区特征饱满可进行匹配计算,反之,当计算子区梯度均值gavg小于λ时,则表示该区域特征过于统一(即整体偏白或偏黑),属于弱匹配区需要过滤去除,不参与匹配计算。
梯度重心偏移:图像计算子区内,所有像点的梯度重心相对于子区中心的偏移程度。图10为梯度重心偏移量示意图,其中,OD是图像子区的梯度重心,OC是图像子区的坐标中心,dx是重心点相对于中心点的x方向偏移量,dy是重心点相对于中心点的y方向偏移量。
为了获得一个无量纲的梯度重心偏移量计算算子,本文采用式(4)进行计算:
式(4)中,d为介于[0-1]之间的偏移因子,同时引入一个梯度偏移阈值μ,当d大于μ时,则表示该计算子区梯度特征分布不均,可能位于边缘区域,计算时需要剔除。
通过上述图像区边缘化处理,可以有效去除尖锐特征等弱计算区域。
所述三角网格划分方法如下:
一般情况下,不是所有像素点均参与计算,在满足采样需求的条件下,常对图像以等间距d进行网格划分。本文选用四角网格进行网格划分。如图11所示。
所述种子点计算方法如下:
对于图11中所示的空心小圆点(图11有四个箭头的点)标记为种子点,对于三角网格划分在采样时,种子点会向周围邻域点(实心小圆点)进行扩散,而种子点在匹配前无任何匹配初值,需要对其进行整像素和亚像素匹配.
最优种子点匹配完成后,利用相邻点变形的连续性,根据种子点与其邻近点(4个)在参考图像上的距离,通过式(2)可得其邻近点在待匹配图像上的位置初值(通常该初值与其实际位置相近)。利用该中心点位置与其在参考图像上的中心点位置相减作为u、v的初值,u、v分别为匹配点水平和竖直方向的相对位移,其余相关参数取与种子点相同,以此作为ILS算法的初值对邻近点进行优化匹配。利用种子点将上述4个邻近点匹配成功后,又可以这4个邻近点作为种子点,为其他未匹配邻近点(图11中所示小三角形)提供相关参数初值,如此不断向外扩散至所有点匹配完毕。经过种子点扩散计算,获取了密集种子点空间点三维坐标,即实现被测件三维形貌的点云重建。图12根据本本发明的缺陷图像图8a实现的三维点云重建效果。点云指很多密集的三维空间点,空间点分布越密集越形成一个连续的平面,也代表重建效果越好。
与传统的测量方法相比,本发明3D相机及其测量方法具有快速、动态、大视场测量的优势。
(1)由于每次测量仅需采集一次图像,这就大大提高测量速度。
(2)投射幅面更大、亮度更强,能够满足物流分拣1.5m大视野的测量要求以及黑色物体扫描难题。
(3)散斑相关法动态测量的优势,能够克服工业现场环境振动对三维测量的影响,满足物流分拣现场测量需求。

Claims (9)

1.一种用于机器人无序分拣的3D相机,其特征在于由两个工业相机(1)和投射单元(2)组成;两个工业相机(1)位于投射单元(2)的两侧,且投射单元(2)的投射范围在两个工业相机(1)各自的图像采集范围之内。
2.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:两个工业相机(1)与投射单元(2)位于大致一致的水平高度。
3.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:所述投射单元(2)中包含散斑投射单元,所述散斑投射单元用于将散斑图案投射到被测物体表面,形成投射亮度均匀、高对比度的散斑图案,两个工业相机(1)用于同步采集被测物体图像。
4.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:所述散斑投射单元主体包括高亮LED光源、散斑玻片以及用于光线传播的透镜单元,透镜单元包括多个先扩散再汇聚的镜片,带有散斑图案的散斑玻片设置在多个镜片之间。
5.根据权利要求1所述的用于机器人无序分拣的3D相机,其特征在于:所述散斑图案利用计算机绘制矢量化随机制成,经光刻在透光玻璃片上形成散斑玻片。
6.一种测量方法,其特征在于采用上述权利要求1-6任一项所述的3D相机,具体包括如下步骤:
第一步,利用标定靶通过自标定方法标定3D相机的内、外参数,相机的内参数包括镜头焦距、主点坐标及镜头的畸变量等,相机的外参数为世界坐标系到相机坐标系的旋转矩阵和平移矩阵;
第二步,采用主动散斑投射技术,通过投射单元(2)将预设的散斑图案投射到被测物体表面;
第三步,启动相机采集散斑图像,两个工业相机(1)各自采集一幅散斑图像;
第四步,利用数字图像相关法对各两个工业相机(1)采集的散斑图像进行匹配计算和三维解析,实现被测表面三维点云的快速重建。
7.根据权利要求6所述的测量方法,其特征在于所述散斑图案生成方法如下:
(1)灰度图像生成;(2)图像二值化:对生成的灰度图像进行二值化处理,图像中灰度值大于128的像素点灰度值置为255,其余像素点灰度值置为0,即可得到黑白两色的二值化图像;(3)矢量化:对二值化图像进行逐行扫描,将所有连同的白色区域连接为矩形单元,最终整幅矢量图由图像高度层微小矩形堆积而成随机矢量化散斑图。
8.根据权利要求6所述的测量方法,其特征在于第二步中,高亮LED光源发射的光线通过一个准直透镜将高度平行的光进行扩束,然后通过一个聚焦透镜将扩束光聚焦,并穿过光刻有散斑图案的散斑玻片聚焦到镜头焦距的焦点位置,使投射的散斑图案保持亮度均匀和较高清晰度。
9.根据权利要求6所述的测量方法,其特征在于第四步中,基于数字图像相关法,采用去边缘化、三角网格划分、种子点计算、种子点扩散和立体重建技术,实现利用双目单幅散斑图像,快速解算被测件三维形貌点云。
CN201910360919.4A 2019-04-30 2019-04-30 用于机器人无序分拣的3d相机及其测量方法 Pending CN110322561A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910360919.4A CN110322561A (zh) 2019-04-30 2019-04-30 用于机器人无序分拣的3d相机及其测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910360919.4A CN110322561A (zh) 2019-04-30 2019-04-30 用于机器人无序分拣的3d相机及其测量方法

Publications (1)

Publication Number Publication Date
CN110322561A true CN110322561A (zh) 2019-10-11

Family

ID=68113323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910360919.4A Pending CN110322561A (zh) 2019-04-30 2019-04-30 用于机器人无序分拣的3d相机及其测量方法

Country Status (1)

Country Link
CN (1) CN110322561A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112747691A (zh) * 2020-03-19 2021-05-04 熵智科技(深圳)有限公司 一种大视野单幅纹理主动投影模组及3d相机
WO2021185216A1 (zh) * 2020-03-16 2021-09-23 左忠斌 一种基于多激光测距的标定方法
CN113720275A (zh) * 2021-08-11 2021-11-30 江西联创电子有限公司 三维形貌的测量方法、测量系统及建立深度信息标定表的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105928472A (zh) * 2016-07-11 2016-09-07 西安交通大学 一种基于主动斑投射器的三维形貌动态测量方法
CN106595528A (zh) * 2016-11-10 2017-04-26 华中科技大学 一种基于数字散斑的远心显微双目立体视觉测量方法
CN107564091A (zh) * 2017-07-26 2018-01-09 深圳大学 一种基于快速对应点搜索的三维重建方法及装置
CN107869967A (zh) * 2017-11-02 2018-04-03 渭南领智三维科技有限公司 一种人体足部快速三维扫描方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105928472A (zh) * 2016-07-11 2016-09-07 西安交通大学 一种基于主动斑投射器的三维形貌动态测量方法
CN106595528A (zh) * 2016-11-10 2017-04-26 华中科技大学 一种基于数字散斑的远心显微双目立体视觉测量方法
CN107564091A (zh) * 2017-07-26 2018-01-09 深圳大学 一种基于快速对应点搜索的三维重建方法及装置
CN107869967A (zh) * 2017-11-02 2018-04-03 渭南领智三维科技有限公司 一种人体足部快速三维扫描方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021185216A1 (zh) * 2020-03-16 2021-09-23 左忠斌 一种基于多激光测距的标定方法
CN112747691A (zh) * 2020-03-19 2021-05-04 熵智科技(深圳)有限公司 一种大视野单幅纹理主动投影模组及3d相机
CN113720275A (zh) * 2021-08-11 2021-11-30 江西联创电子有限公司 三维形貌的测量方法、测量系统及建立深度信息标定表的方法

Similar Documents

Publication Publication Date Title
CN106595528B (zh) 一种基于数字散斑的远心显微双目立体视觉测量方法
CN106127745B (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
CA3040002C (en) A device and method for obtaining distance information from views
CN101825431B (zh) 用于三维传感的参考图像技术
CN106548489B (zh) 一种深度图像与彩色图像的配准方法、三维图像采集装置
KR101150755B1 (ko) 영상촬영장치
CN100520287C (zh) 测量物体形状的方法和装置
JP6363863B2 (ja) 情報処理装置および情報処理方法
CN103292740B (zh) 一种三维扫描仪测量方法及其装置
CN107860337B (zh) 基于阵列相机的结构光三维重建方法与装置
JP2016128816A (ja) プレノプティック・カメラを使った表面属性の推定
CN106796661A (zh) 投影光图案的系统、方法和计算机程序产品
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
CN110322561A (zh) 用于机器人无序分拣的3d相机及其测量方法
CN112525107B (zh) 一种基于事件相机的结构光三维测量方法
CN105004324B (zh) 一种具有三角测距功能的单目视觉传感器
CN106871815A (zh) 一种Kinect与条纹反射法结合的类镜面三维面形测量方法
CN106500629B (zh) 一种显微三维测量装置及系统
JP6695440B2 (ja) 深度感知システム
CN109307483A (zh) 一种基于结构光系统几何约束的相位展开方法
Zhang et al. Development of an omni-directional 3D camera for robot navigation
CN104969057A (zh) 轮廓测量的方法和装置
CN110278431A (zh) 相位检测自动聚焦三维图像撷取系统
CN109506562A (zh) 一种用于太阳翼展开锁定深度检测的双目视觉测量装置
CN203323714U (zh) 一种三维扫描仪测量装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191011

RJ01 Rejection of invention patent application after publication