CN104296690A - 一种基于图像融合的多线结构光三维测量方法 - Google Patents
一种基于图像融合的多线结构光三维测量方法 Download PDFInfo
- Publication number
- CN104296690A CN104296690A CN201410571411.6A CN201410571411A CN104296690A CN 104296690 A CN104296690 A CN 104296690A CN 201410571411 A CN201410571411 A CN 201410571411A CN 104296690 A CN104296690 A CN 104296690A
- Authority
- CN
- China
- Prior art keywords
- image
- camera
- light
- line
- light belt
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明所述的一种基于图像融合的多线结构光三维测量方法涉及一种使用了图像融合技术的多目线结构光三维测量技术。通过将各摄像机采集到的图像装换到主摄像机的成像平面,进行图像融合,降低了由于光线反射等因素对光带图像的影响,便于更精确的提取光心坐标,提高测量精度。
Description
技术领域
本发明涉及一种使用了图像融合技术的多目线结构光三维测量技术。
背景技术
线结构光作为一种高精度的非接触式三维测量技术,在各方面都得到了日益广泛的应用。但当结构光照射到测量物体表面时,会由于种种原因照成反射,导致最终图像传感器得到的图像存在缺陷,难以准确的确定结构光的光心位置,使得测量的精度难以提高。
发明内容
本分明针对上述缺陷,采用两个以上的摄像机,从不同角度对结构光照射到的被测物体进行观测成像,以某一个相机作为主摄像机,依据摄像机以及结构光之间的几何关系,将其它摄像机得到的图像转换到主摄像机得到的图像坐标中,进行图像融合,从而弥补单个摄像机的成像缺陷,得到高质量的观测图像,从而更为准确的确定光心的位置,达到提高测量精度的目的。
本发明所所提出的一种基于图像融合的多线结构光三维测量方法,具有如下步骤:
A.对系统进行标定的操作,标定各摄像机的内外参数,选定主摄像机,以主摄像机的摄像机坐标系为基准标定各线结构光光平面的位置和方向,以主摄像机的摄像机坐标系为基准标定其它摄像机与主摄像机之间的位置和光轴方向;
B.各摄像机采集多线结构光投影生成的被测物体图像;
C.对各摄像机采集到的图像进行图像处理,分割提取出光带图像,并将这些光带图像编号;
D.对各摄像机采集到的光带图像进行图像特征匹配,建立各各摄像机采集到的光带图像之间的像素点级别的对应关系;
E.以双目或多目立体成像的原理,依据摄像机、线结构光光平面之间的位置、方向的几何关系,将光带图像与生成光带图像的线结构光平面对应关系确定下来;
F.依据摄像机、线结构光光平面之间的位置、方向的几何关系,建立主摄像机以外其余摄像机成像平面坐标系与主摄像机的成像平面坐标系之间的变换关系;
G.将主摄像机以外其余摄像机得到的光带图像以像素点为单位变换到主摄像机的成像平面坐标系上,并通过对其进行重新采样、插值生成基于主摄像机的成像平面坐标系的光带图像;
H.将主摄像机采集到的光带图像与上一步得到的光带图像进行图像融合处理,得到更为优质的光带图像;
I.以上一步得到的光带图像提取图像光心,依据光带图像与线结构光光平面对应关系、主摄像机与线结构光光平面的位置和方向关系,通过集合计算求解得出被测物体的表面轮廓。
采用上述的技术方案,可以减弱由于物体表面反射等因素造成的成像缺陷,便于更为准确的找到线结构光投影光带中心,能够更为精确的对被测物体表面进行测量。
附图说明
图1为一种双目线结构光扫描系统示意图,
图2为左摄像机得到的图像,
图3为右摄像机得到的图像,
图4为图像坐标转换示意图。
具体实施方式
以下以双目线结构光扫描系统为例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一种双目线结构光扫描系统的原理图,其中LP1和LP2为线结构光投射出的光刀平面,这两个光刀平面互相平行,其在被测物体上形成的投影在被摄像机接受,形成图像用于测量被测物体轮廓。OL-XYZ为左侧摄像机的摄像机坐标系,OR-XYZ为左侧摄像机的摄像机坐标系,XOLZ平面与XORZ平面共面,直线OLOR垂直于LP1与LP2平面。IMG1与IMG2为左、右侧摄像机摄像机的成像平面。
使用本发明的方法进行测量时,按如下步骤进行:
A.对系统进行标定的操作,标定左、右摄像机的内外参数,选定左侧摄像机为主摄像机,以主摄像机的摄像机坐标系为基准标定各线结构光光平面的位置和方向,以主摄像机的摄像机坐标系为基准标定其它摄像机与主摄像机之间的位置和光轴方向,以及直线OLOR长度、直线OLZ与LP1平面夹角、直线ORZ与LP1平面夹角、点OL与LP1平面距离、点OL与LP2平面距离等参数;
B.左、右摄像机采集多线结构光投影生成的被测物体图像(图2和图3);
C.对各摄像机采集到的图像进行图像处理,分割提取出光带图像,并将这些光带图像编号;如图2、3中就可以得到四个光带图像,分别编号为A1、A2、A3、A4;
D.对各摄像机采集到的光带图像进行图像特征匹配,建立各摄像机采集到的光带图像之间的像素点级别的对应关系;如图2、3中A1与A3的上端点为特征点且彼此对应,A1与A3的下端点为特征点且彼此对应,A2与A4的上端点为特征点且彼此对应,A2与A4的下端点为特征点且彼此对应;
E.以双目立体成像的原理,依据摄像机、线结构光光平面之间的位置、方向的几何关系,将光带图像与生成光带图像的线结构光平面对应关系确定下来;如A1、A3为线结构光平面LP1所生成,A2、A4为线结构光平面LP2所生成;
F.依据摄像机、线结构光光平面之间的位置、方向的几何关系,建立主摄像机以外其余摄像机成像平面坐标系与主摄像机的成像平面坐标系之间的变换关系;图4为图像坐标转换示意图,图中OL、OR为左、右摄像机坐标系光心,P为空间中的实际点,PL、PR为P点左、右摄像机成像平面上的像点,MM为产生P点投影的线投影光平面与左侧摄像机的摄像机坐标系(OL-XYZ)XOLZ平面的交线,直线OOL、OOR为左、右摄像机的光轴,根据上述几何关系得出右摄像机成像平面坐标系与左摄像机的成像平面坐标系之间的变换关系,即根据PR点在右侧摄像机成像平面上的坐标计算出右摄像机平面上的图像转换到右摄像机平面时,PR点在左侧摄像机成像平面上的坐标;
G.将主摄像机以外其余摄像机得到的光带图像以像素点为单位变换到主摄像机的成像平面坐标系上,并通过对其进行重新采样、插值生成基于主摄像机的成像平面坐标系的光带图像;依据前一步得到的变换关系,将摄像机得到的光带图像A3、A4的所有像素点的坐标值转换为左摄像机成像平面下的坐标值,并通过采样、插值的方式生成光带图像A3、A4在左摄像机成像平面的变换图像;
H.将主摄像机采集到的光带图像与上一步得到的光带图像进行图像融合处理,得到更为优质的光带图像;将光带图像A1、A2与上一步生成的光带图像A3、A4在左摄像机成像平面的变换图像进行图像融合处理,得到高质量的光带图像;
I.以上一步得到的光带图像提取图像光心,依据光带图像与线结构光光平面对应关系、主摄像机与线结构光光平面的位置和方向关系,通过集合计算求解得出被测物体的表面轮廓。
通过上述方法得到的光带图像,其光强分布更少受到光线反射及各种因素影响,可以更精确的提取光心的位置,提高测量精度。
Claims (1)
1.一种基于图像融合的多线结构光三维测量方法,其特征在于,处理步骤包括:E、找出光带图像与生成光带图像的线结构光平面对应关系;G、将各摄像机采集到的光带图像通过坐标转换和图像采样、插值变换为主摄像机的成像平面上的光带图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410571411.6A CN104296690A (zh) | 2014-10-24 | 2014-10-24 | 一种基于图像融合的多线结构光三维测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410571411.6A CN104296690A (zh) | 2014-10-24 | 2014-10-24 | 一种基于图像融合的多线结构光三维测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104296690A true CN104296690A (zh) | 2015-01-21 |
Family
ID=52316526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410571411.6A Pending CN104296690A (zh) | 2014-10-24 | 2014-10-24 | 一种基于图像融合的多线结构光三维测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104296690A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389845A (zh) * | 2015-10-19 | 2016-03-09 | 北京旷视科技有限公司 | 三维重建的图像获取方法和系统、三维重建方法和系统 |
CN111256587A (zh) * | 2020-01-20 | 2020-06-09 | 南昌航空大学 | 一种基于双线结构光扫描的高反射率表面三维测量方法 |
EP4269989A1 (en) * | 2022-04-25 | 2023-11-01 | Enscape Co., Ltd. | Apparatus for inspecting appearance of secondary battery |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009120623A2 (en) * | 2008-03-25 | 2009-10-01 | Electro Scientific Industries, Inc. | Method and apparatus for detecting defects using structured light |
CN102353684A (zh) * | 2011-06-23 | 2012-02-15 | 南京林业大学 | 基于双激光三角法的激光肉图像采集方法 |
CN103759671A (zh) * | 2014-01-10 | 2014-04-30 | 西北农林科技大学 | 一种牙模三维表面数据非接触扫描方法 |
CN103968782A (zh) * | 2014-05-23 | 2014-08-06 | 四川大学 | 一种基于彩色正弦结构光编码的实时三维测量方法 |
-
2014
- 2014-10-24 CN CN201410571411.6A patent/CN104296690A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009120623A2 (en) * | 2008-03-25 | 2009-10-01 | Electro Scientific Industries, Inc. | Method and apparatus for detecting defects using structured light |
CN102353684A (zh) * | 2011-06-23 | 2012-02-15 | 南京林业大学 | 基于双激光三角法的激光肉图像采集方法 |
CN103759671A (zh) * | 2014-01-10 | 2014-04-30 | 西北农林科技大学 | 一种牙模三维表面数据非接触扫描方法 |
CN103968782A (zh) * | 2014-05-23 | 2014-08-06 | 四川大学 | 一种基于彩色正弦结构光编码的实时三维测量方法 |
Non-Patent Citations (2)
Title |
---|
吴庆阳等: "线结构光双传感器测量系统的标定方法", 《中国激光》 * |
肖朝等: "多投影显示系统结构光几何校正算法", 《计算机辅助设计与图形学学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389845A (zh) * | 2015-10-19 | 2016-03-09 | 北京旷视科技有限公司 | 三维重建的图像获取方法和系统、三维重建方法和系统 |
CN111256587A (zh) * | 2020-01-20 | 2020-06-09 | 南昌航空大学 | 一种基于双线结构光扫描的高反射率表面三维测量方法 |
EP4269989A1 (en) * | 2022-04-25 | 2023-11-01 | Enscape Co., Ltd. | Apparatus for inspecting appearance of secondary battery |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110288642B (zh) | 基于相机阵列的三维物体快速重建方法 | |
CN103292695B (zh) | 一种单目立体视觉测量方法 | |
EP3232151B1 (en) | Three-dimensional measurement system and measurement method for feature point based on plane of four-camera set array | |
EP3531066A1 (en) | Three-dimensional scanning method including a plurality of lasers with different wavelengths, and scanner | |
CN106225676B (zh) | 三维测量方法、装置及系统 | |
CN103075960B (zh) | 多视角大深度显微立体视觉特征融合测量方法 | |
CN104061879A (zh) | 一种连续扫描的结构光三维面形垂直测量方法 | |
CN105115560B (zh) | 一种船舱舱容的非接触测量方法 | |
CN104677330A (zh) | 一种小型双目立体视觉测距系统 | |
CN104596439A (zh) | 一种基于相位信息辅助的散斑匹配三维测量方法 | |
CN106500625B (zh) | 一种远心立体视觉测量方法 | |
KR20120058828A (ko) | 3차원 좌표 추출 시스템 및 그 방법 | |
CN101603812A (zh) | 一种超高速实时三维视觉测量装置及方法 | |
JP2012058076A (ja) | 3次元計測装置及び3次元計測方法 | |
JP6580761B1 (ja) | 偏光ステレオカメラによる深度取得装置及びその方法 | |
KR20160121509A (ko) | 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭 | |
CN106441234B (zh) | 一种3d机器视觉空间检测标定方法 | |
CN102980526A (zh) | 用黑白相机获取彩色图像的三维扫描仪及其扫描方法 | |
Patel et al. | Distance measurement system using binocular stereo vision approach | |
CN102798349A (zh) | 一种基于等灰度线搜索的三维表面提取方法 | |
Fernandez et al. | Planar-based camera-projector calibration | |
CN104794717A (zh) | 一种基于双目视觉系统的深度信息对比方法 | |
CN109443214A (zh) | 一种结构光三维视觉的标定方法、装置及测量方法、装置 | |
CN105029691A (zh) | 一种基于三维重建技术的卷烟空头检测方法 | |
CN110728745B (zh) | 一种基于多层折射图像模型的水下双目立体视觉三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150121 |