CN102997891B - 场景深度的测量装置和方法 - Google Patents
场景深度的测量装置和方法 Download PDFInfo
- Publication number
- CN102997891B CN102997891B CN201210461006.XA CN201210461006A CN102997891B CN 102997891 B CN102997891 B CN 102997891B CN 201210461006 A CN201210461006 A CN 201210461006A CN 102997891 B CN102997891 B CN 102997891B
- Authority
- CN
- China
- Prior art keywords
- depth
- camera
- image
- scene
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明提供了一种场景深度的测量装置和方法,所述装置包括摄像部、数据处理部和接口控制部,所述方法包括以下步骤:首先利用一个标定好的相机在一个未知深度获取第一幅散焦图像,再采用与之平行的具有相同参数的相机在不同深度位置获取第二幅散焦图像,深度的变化会导致图像上散焦程度的变化,根据两幅图像中不同散射程度构建点扩散函数上的对应关系,根据对应像素坐标构建深度映射关系,最终估计实际景深值并可估计出物体高度及宽度等二维尺寸。本发明无需机械运动部分和测量相机参数等信息,即可能够实现在复杂环境下对场景中对象距离及尺寸的测量,方便了实施者,适用于广场、大型仓库、商场、机场和交通管理等安防领域。
Description
技术领域
本发明涉及一种距离的测量装置和方法,具体涉及一种场景深度的测量装置和方法。
背景技术
目前散焦深度恢复方法是建立在不同散焦图像模糊度与深度的对应关系上,对获得的不同模糊度图像信息进行处理。这一过程需要改变相机参数来获取图像,但在实际使用过程中获取相机的参数非常困难。如果在散焦恢复深度的过程中保持相机的参数不变,就能极大的方便实施者。
目前与之相关的专利文献被公开的包括:中国发明专利CN102223477A(公开于2011年10月19)揭示了基于双图片匹配的深度估计的四维多项式模型,用于估计物距和聚焦调节。中国发明专利CN101487703(公开于2009年7月22)设计了全景立体摄像测量装置,该装置包括全方位视觉传感器、全景彩色调制光发生器以及用于对全方位图像进行三维立体摄像测量的微处理器。中国发明专利CN101297176(公开于2008年10月29)公布了一种使用视频全站仪的测量方法,使用同一相机在不同位置获取的图像分析确定图像中包含的对象的三维坐标,该系统需要测距仪配合使用。中国发明专利CN1867941(公开于2006年11月22)公布了通过数字照相机检测第一点, 然后移动照相得到第二可检测点,计算两点检测点间的距离,最终确定8个特征点间的相对位移。中国发明专利CN102278946A(公开于2011年12月14)公布了一种使用两台平行同参数相机获取同一场景,再使用3D重构方法估计图像中对象的深度。
上述专利或需要在现场估计相机参数,或需要特殊的仪器如红外测距仪等辅助测量场景深度,而基于通用相机的方案测量精度不理想。本发明仅采用通用相机达到更高的测量精度。
发明内容
针对现有技术存在的上述缺点和不足,本发明提供了一种场景深度的测量装置和方法,本发明用于测量被摄像体距摄像镜头的物理距离,无需机械运动部分和测量相机参数等信息,可准确地估计对象距离及对象尺寸,方便了实施者。
本发明的第一个目的通过以下技术方案实现:
一种场景深度的测量装置,所述装置包括摄像部、数据处理部和接口控制部,所述摄像部包括两个相互平行且前后安置、获取同一场景不同模糊度的两幅图像的摄像机;所述数据处理部对所述两幅图像对应点的匹配及其深度计算;所述接口控制部实时显示图像,与用户相交互,确定需要测量深度的对象,并输出测量结果。
优选的,所述摄像部是由双摄像头构成的前段摄像装置,所述前段摄像装置的所有参数均预先测定。在现场应用中,无需改变相机参数或移动几何位置,降低数据处理部的复杂程度并且提高了系统整体的精度。所述摄像部主要实现对影像的获取。
优选的,所述数据处理部包括:将不同聚焦的两幅图像配准、再对选定对象的深度进行估计的图像处理部分;根据所述接口控制部的信号提取需测量景深的对象控制部分。所述数据处理部主要实现对景象中对象的探测。
本发明提出了深度估计所需的三种约束。它们分别是由两幅不同模糊程度图像估计图像区域模糊半径的约束;根据估计的模糊半径构建彼此深度对应关系,进而估计出景深的约束;深度与成像仿射约束。通过上述约束,可以求取影像中对象的唯一深度信息及镜头放大率。本部分发明仅需知道相机焦距参数信息,在测量过程中无需获取或改变其它参数。本发明在深度估计过程中,对两幅不同聚焦的图像自行配准。
优选的,所述接口控制部包括:选择并清晰显示场景图像的显示部分;采用鼠标控制、选择所述显示部分上特定对象的操作部分;将选定点的景深信息输出的接口部分。
本发明的第二个目的通过以下技术方案实现:
一种场景深度的测量方法,所述方法包括以下步骤:首先利用一个标定好的相机在一个未知深度获取第一幅散焦图像,再采用与之平行的具有相同参数的的相机在不同深度位置获取第二幅散焦图像,深度的变化会导致图像上散焦程度的变化,根据所述两幅散焦图像中不同散射程度构建点扩散函数上的对应关系,根据对应像素坐标构建深度映射关系,最终估计实际景深值并可估计出物体高度及宽度等二维尺寸。
本发明的有益效果如下:本发明提供的场景深度的测量装置的摄像部由两个同参数的摄像头组成,两台相机平行、前后安置,数据处理部对图像进行配准,并且计算场景对象距镜头的几何深度,用于测量被摄像体距摄像镜头的物理距离,即场景深度。本发明通过模糊半径差异估计对象深度,无需机械运动部分和测量相机参数等信息,可以准确地估计对象距离及对象尺寸,方便了实施者,可实现在复杂环境下对场景中对象距离及尺寸的测量,广泛适用于广场、大型仓库、商场、机场、交通管理等安防领域。
附图说明
图1 本发明的系统构成示意图;
图2 本发明的摄像部的机械示意图;
图3本发明的散焦图像获取示意图。
具体实施方式
下面结合附图,通过对本发明的具体实施方式详细描述,将使本发明的技术方案及其它有益效果显而易见。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
如图1所示的场景深度的测量装置,所述装置包括摄像部、数据处理部分和接口控制部分。摄像部用于获取同一场景不同模糊度的两幅图像;数据处理部对所述两幅图像对应点的匹配及其深度计算;接口控制部实时显示图像,与用户相交互,确定需要测量深度的对象,并输出测量结果。
本实施例中,通过数字静态相机来实现本发明的目的。在如图2所示的实施方案中,相机21和相机22为具有相同系统参数的一般数码相机,这些参数包括光学参数和分辨率等。相机21和相机22被平行且前后安置在支架23之上,平行间距d较小,近似紧密排放。为获取聚焦模糊程度差异的图像对,两台同参数的摄像机以间距 前后放置,两相机与支架用紧固件连接形成一个固定的摄像部,其机械结构如图2所示。
在本实施方案中,相邻相机左右间距d小于100v,v为相机镜面与聚焦面的距离。在本实例中,采用较小的相机间距d以减小两幅获取图像间的视差,提高匹配精度。相机前后间距的选取与焦距相关,在本实施方案中取。相机21与22之间采用连接线连接,通过通信协议实现相机间的同步,以保证拍摄时间内两幅图像的场景一致。
相机21和相机22获取的图像采用浅压缩或不压缩的方式进行编码,并用数据传输线分别传输至数据处理部分的帧数据存储器中。
数据处理部分完成对象选择及对象深度估计。
在本实施例中,接口控制部分根据接口部传输的鼠标位置信息,选择图像块并进行区域提取。鉴于场景中的对象可能具有不同的深度,所以控制部根据图像的纹理信息,分析图像对象,提取同一对象上的小的图像块为深度分析单位。该区域中像素被假设为具有相同的深度信息。
在实施过程中,采用领域像素比对的方法分析纹理,即当领域内像素与鼠标点选择像素间的灰度差异小于门限值Th时,视为相同物体上的像素。
深度估计模块采用两个相同参数的相机,在不同的距离对同一物体进行拍摄。所以,生成的两幅图像的物距不同,而焦距点的相距相同。如图2和图3所示,为最佳物距,和为产生散焦图像时的物距,为相距,和是物距为和是的散焦半径。
深度估计需满足3个约束:
(1)图像模糊半径关系;
(2)模糊半径和深度对应关系;
(3)深度与成像仿射关系。
模糊半径估计采用迭代方法求取两幅图像对应部分的模糊半径差。在对模糊图像配准后,对不同模糊图像的对应部分进行比对和分析,确定两幅图像中的清晰部分。将清晰部分用不同的模糊函数进行卷积,并与与之对应的模糊部对比。其中,为像素坐标,即对应于模糊半径不断扩大的点扩散函数,其模糊半径对应为,散焦变化步长。代价计算深度分析单元内与的L2范数差,其中。最小时的R即为和的差距。
本发明中建立模糊半径和深度对应关系。
在对图像深度进行估计时,引入仿射矩阵描述模糊图像对间的位移变化关系,以确定深度与成像仿射关系。
由于两相机相邻放置,所以其获取的图像内容绝大部分是相同的。在本实施例中,忽略视差不同的影响,采用四参数坐标描述图像间位置的不同。
在本发明中定义采样因子,用于表示两幅图像以像素坐标来的采样关系,并建立了两个不同深度间的关联。为相机焦距。根据上述成像关系,不同散焦图像信号被映射到傅里叶域,构建能量谱约束关系
其中属于排除等于零或接近零的频率坐标点的频谱信号,为频点数,为水平和垂直方向频率索引。在上式中,描述和基于深度和的对应关系。
由模糊半径估计、模糊半径与深度约束关系和深度与成像仿射关系,运用数值计算方法可以求取影像中对象的唯一深度信息及镜头放大率。
如相机的像距v已知,则由估计出的物距可以得到该相机透镜的放大率: 。借助放大率可以估计出影像中物体的尺寸,如物体高度H,即 ,h为图像上物体的对应高度。
本实施例中,接口控制部分借助PC接口实现。采用PC的显示器作为图像显示部分,实时显示获取图像;采用鼠标作为输入操作部分,选择测量对象;采用串口作为深度信息输出接口部分。程序基于Visual C++及MFC开发,实现所需的交互功能。
Claims (3)
1.一种场景深度的测量装置,其特征在于,所述装置包括摄像部、数据处理部和接口控制部,所述摄像部包括两个相互平行且前后安置、获取同一场景不同模糊度的两幅图像的摄像机;所述数据处理部对所述两幅图像对应点的匹配及其深度计算;所述接口控制部实时显示图像,与用户相交互,确定需要测量深度的对象,并输出测量结果,所述摄像部是由双摄像头构成的前段摄像装置,所述前段摄像装置的所有参数均预先测定,所述数据处理部包括将不同聚焦的两幅图像配准、再对选定对象的深度进行估计的图像处理部分和根据所述接口控制部的信号提取需测量景深的对象控制部分。
2.根据权利要求1所述的场景深度的测量装置,其特征在于,所述接口控制部包括:选择并清晰显示场景图像的显示部分;采用鼠标控制、选择所述显示部分上特定对象的操作部分;将选定点的景深信息输出的接口部分。
3.一种场景深度的测量方法,其特征在于,所述方法包括以下步骤:首先利用一个标定好的相机在一个未知深度获取第一幅散焦图像,再采用与之平行的具有相同参数的相机在不同深度位置获取第二幅散焦图像,根据所述两幅散焦图像中不同散射程度构建点扩散函数上的对应关系,根据对应像素坐标构建深度映射关系,最终估计实际景深值并可估计出物体的高度和宽度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210461006.XA CN102997891B (zh) | 2012-11-16 | 2012-11-16 | 场景深度的测量装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210461006.XA CN102997891B (zh) | 2012-11-16 | 2012-11-16 | 场景深度的测量装置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102997891A CN102997891A (zh) | 2013-03-27 |
CN102997891B true CN102997891B (zh) | 2015-04-29 |
Family
ID=47926772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210461006.XA Active CN102997891B (zh) | 2012-11-16 | 2012-11-16 | 场景深度的测量装置和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102997891B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102536174B1 (ko) * | 2013-04-08 | 2023-05-26 | 스냅 아이엔씨 | 멀티-카메라 장치를 사용하는 거리 추정 |
CN103780840B (zh) * | 2014-01-21 | 2016-06-08 | 上海果壳电子有限公司 | 一种高品质成像的双摄像成像装置及其方法 |
CN103763477B (zh) * | 2014-02-21 | 2016-06-08 | 上海果壳电子有限公司 | 一种双摄像头拍后调焦成像装置和方法 |
CN105865327A (zh) * | 2015-01-22 | 2016-08-17 | 成都飞机工业(集团)有限责任公司 | 基于变焦照片的相对位置的测量方法 |
CN104599308B (zh) * | 2015-02-05 | 2017-11-21 | 北京科艺有容科技有限责任公司 | 一种基于投射的动态贴图方法 |
CN105488780A (zh) * | 2015-03-25 | 2016-04-13 | 遨博(北京)智能科技有限公司 | 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法 |
CN107209556B (zh) * | 2015-04-29 | 2020-10-16 | 惠普发展公司有限责任合伙企业 | 用于对捕获对象相对于交互平面的交互的深度图像进行处理的系统及方法 |
CN105184784B (zh) * | 2015-08-28 | 2018-01-16 | 西交利物浦大学 | 基于运动信息的单目相机获取深度信息的方法 |
CN106610553B (zh) * | 2015-10-22 | 2019-06-18 | 深圳超多维科技有限公司 | 一种自动对焦的方法及装置 |
JP7104294B2 (ja) * | 2017-12-18 | 2022-07-21 | ミツミ電機株式会社 | 測距カメラ |
KR102472156B1 (ko) * | 2018-04-19 | 2022-11-30 | 삼성전자주식회사 | 전자 장치 및 그 깊이 정보 생성 방법 |
CN110609039B (zh) * | 2019-09-23 | 2021-09-28 | 上海御微半导体技术有限公司 | 一种光学检测装置及其方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833759A (zh) * | 2010-04-01 | 2010-09-15 | 复旦大学 | 一种基于连续视频的机器人场景深度判别方法 |
CN102263114A (zh) * | 2010-05-24 | 2011-11-30 | 博立多媒体控股有限公司 | 多景深感光器件、系统、景深扩展方法及光学成像系统 |
CN102278946A (zh) * | 2010-04-08 | 2011-12-14 | 卡西欧计算机株式会社 | 摄像装置以及长度测量方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003161604A (ja) * | 2001-11-29 | 2003-06-06 | Yokogawa Electric Corp | 高さ測定方法及び高さ測定装置 |
JP2004093457A (ja) * | 2002-09-02 | 2004-03-25 | Toyota Motor Corp | 画像処理装置、及び画像処理方法 |
-
2012
- 2012-11-16 CN CN201210461006.XA patent/CN102997891B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833759A (zh) * | 2010-04-01 | 2010-09-15 | 复旦大学 | 一种基于连续视频的机器人场景深度判别方法 |
CN102278946A (zh) * | 2010-04-08 | 2011-12-14 | 卡西欧计算机株式会社 | 摄像装置以及长度测量方法 |
CN102263114A (zh) * | 2010-05-24 | 2011-11-30 | 博立多媒体控股有限公司 | 多景深感光器件、系统、景深扩展方法及光学成像系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102997891A (zh) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102997891B (zh) | 场景深度的测量装置和方法 | |
JP7043085B2 (ja) | 視点から距離情報を取得するための装置及び方法 | |
EP3099056B1 (en) | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product | |
CN109919911B (zh) | 基于多视角光度立体的移动三维重建方法 | |
RU2668404C2 (ru) | Устройство для записи изображения в трехмерном масштабе, способ создания 3D-изображения и способ формирования устройства для записи изображения в трехмерном масштабе | |
Dal Mutto et al. | A probabilistic approach to tof and stereo data fusion | |
CN106920276B (zh) | 一种三维重建方法和系统 | |
CN108510540B (zh) | 立体视觉摄像机及其高度获取方法 | |
CN110009672A (zh) | 提升ToF深度图像处理方法、3D图像成像方法及电子设备 | |
CN103868460A (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
CN109883391B (zh) | 基于微透镜阵列数字成像的单目测距方法 | |
Wu et al. | Passive measurement method of tree diameter at breast height using a smartphone | |
CN106225676B (zh) | 三维测量方法、装置及系统 | |
WO2018032841A1 (zh) | 绘制三维图像的方法及其设备、系统 | |
Liu et al. | High quality depth map estimation of object surface from light-field images | |
Zhang et al. | Synthetic aperture based on plenoptic camera for seeing through occlusions | |
Garro et al. | A novel interpolation scheme for range data with side information | |
CN114359406A (zh) | 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法 | |
CN110120012A (zh) | 基于双目摄像头的同步关键帧提取的视频拼接方法 | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
Zhang et al. | Virtual image array generated by Risley prisms for three-dimensional imaging | |
Ratajczak et al. | Vehicle size estimation from stereoscopic video | |
CN107610170B (zh) | 多目图像重聚焦的深度获取方法及系统 | |
Ouji et al. | A space-time depth super-resolution scheme for 3D face scanning | |
Dai et al. | Wide Range Depth Estimation from Binocular Light Field Camera. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210817 Address after: Room 813, No.2-3, Zidong Road, Maqun street, Qixia District, Nanjing City, Jiangsu Province, 210000 Patentee after: Nanjing Guanglan Internet of things Technology Co.,Ltd. Address before: 201199 zone 2, room 5216, No. 69, Lane 1985, Chunshen Road, Minhang District, Shanghai Patentee before: SHANGHAI GUANGLIANG PHOTOELECTRIC TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |