CN107622514B - 摄像机凸镜模型自主标定方法 - Google Patents

摄像机凸镜模型自主标定方法 Download PDF

Info

Publication number
CN107622514B
CN107622514B CN201710917401.7A CN201710917401A CN107622514B CN 107622514 B CN107622514 B CN 107622514B CN 201710917401 A CN201710917401 A CN 201710917401A CN 107622514 B CN107622514 B CN 107622514B
Authority
CN
China
Prior art keywords
model
defocusing
camera
straight line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710917401.7A
Other languages
English (en)
Other versions
CN107622514A (zh
Inventor
徐则中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Feichang Information Technology Co.,Ltd.
Original Assignee
Changzhou Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Institute of Technology filed Critical Changzhou Institute of Technology
Priority to CN201710917401.7A priority Critical patent/CN107622514B/zh
Publication of CN107622514A publication Critical patent/CN107622514A/zh
Application granted granted Critical
Publication of CN107622514B publication Critical patent/CN107622514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

本发明公开了一种摄像机凸镜模型自主标定方法,基于单帧图像,通过对摄像机散焦模糊‑深度模型进行重构,建立沿任意直线方向的模糊度函数模型;利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题。其步骤包括:在物理空间中,重构沿光轴方向的“散焦模糊‑深度”模型;在图像空间中,建立沿直线方向的“散焦模糊‑直线”模型;标定摄像机散焦成像模型参数。本发明仅仅基于一帧图像,不需要借助于专门的标定物或标定场景,实现摄像机散焦模型参数的自主标定。提高凸透镜散焦模型参数标定的自主性和适应性。

Description

摄像机凸镜模型自主标定方法
技术领域
本发明涉及一种摄像机凸镜模型的标定方法,特别涉及一种自主性和适应性强的摄像机凸镜模型自主标定方法,属于电子信息和机器视觉领域。
背景技术
在计算机视觉领域,根据摄像机的模型,可以从2D图像中恢复出3D深度信息。一种是小孔成像模型,另一种是凸透镜成像模型。而凸透镜成像模型能够更实际地描述光学图像的成像过程,能够更有效地分析图像散焦模糊的本质。
凸透镜散焦成像模型为:
Figure BDA0001426045360000011
其中σ为模糊核,u为景物深度。为了利用图像中的散焦模糊信息恢复3D深度,首先要精确的标定摄像机凸镜成像模型参数a和b。
常用的摄像机标定算法是基于小孔成像模型【任亮,邱天爽.一种基于三正交约束的摄像机标定方法.电子学报,2014,(10):2050-2054.】,通过建立像素2D坐标和场景3D坐标之间的对应关系,运用优化求解算法实现摄像机参数的标定。
而用于摄像机凸透镜散焦成像模型的标定,有以下两类方法:
(1)基于人工标定物或标定场景。为了得到散焦成像的焦距、光圈、像距,利用一个尺寸已知的物体或者利用深度已知的场景【魏阳杰,董再励,吴成东.摄像机参数固定的全局离焦深度恢复.中国图象图形学报,2010,15(12):1811-1817.】。通过检测对应的模糊程度,得到一组数据对(模糊,深度),通过拟合得到摄像机散焦成像参数。这种标定方法需要人工标定物或场景,要求场景的深度信息是已知的,自主性差。
(2)基于静态场景。对同一静态场景采集多幅模糊程度不同的散焦图像,提取每幅图像的散焦模糊度,结合凸透镜成像几何模型估算散焦成像参数【Park S Y.An image-based calibration technique of spatial domain depth-from-defocus.Patternrecognition letters,2006,27(12):1318-1324.】。这种标定方法要求场景是静态的,需要采集多帧模糊图像,适应性差。
目前摄像机散焦模型标定方法中,要么需要人工标定场景,自主性差;要么是对同一场景采集多幅图像,适应性差。
发明内容
针对现有技术中存在的上述问题,本发明提供一种摄像机凸镜模型自主标定方法,仅仅利用一幅图像,标定出摄像机散焦模型参数,用于散焦深度恢复。提高凸透镜散焦模型参数标定的自主性和适应性。
本发明的技术方案如下:
摄像机凸镜模型自主标定方法,基于单帧图像,通过对摄像机散焦模糊-深度模型进行重构,建立沿任意直线方向的模糊度函数模型;利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题。
进一步,本发明的摄像机凸镜模型自主标定方法包括如下步骤:
步骤1:在物理空间中,重构沿光轴方向的“散焦模糊-深度”模型;
步骤2:在图像空间中,建立沿直线方向的“散焦模糊-直线”模型;
步骤3:标定摄像机散焦成像模型参数。
进一步,所述步骤1,对摄像机散焦成像机理进行分析,基于摄影几何关系,推导散焦模糊核半径相对于景物深度的函数模型,在物理空间中重构“散焦模糊-距离深度”关系模型。
进一步,所述步骤2,对物理空间中的直线及其在图像空间中的投影关系进行分析,研究沿任意直线方向的散焦模糊核半径函数模型,在图像空间中建立“散焦模糊-直线”关系模型,对模型参数进行拟合。
进一步,所述步骤3,在模糊-直线模型的基础上,分析推导直线之间的空间关系,基于Manhattan假说建立关系方程;联合求解,得到沿光轴方向的摄像机散焦成像参数,实现散焦成像参数的自标定。
本发明的有益效果如下:
仅仅基于一帧图像,不需要借助于专门的标定物或标定场景,实现摄像机散焦模型参数的自主标定。提高凸透镜散焦模型参数标定的自主性和适应性。
附图说明
图1是摄像机凸透镜模型自主标定方法的流程图。
图2是摄像机凸透镜成像模型图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明仅仅基于一帧图像,通过对摄像机散焦模糊-深度模型进行重构,建立沿任意直线方向的模糊度函数模型。利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题。
基于单帧图像实现摄像机散焦参数自标定的流程如图1所示,具体步骤如下:
1)、在物理空间中,重构沿光轴方向的“散焦模糊-深度”模型。
对摄像机散焦成像机理进行分析,基于摄影几何关系,推导散焦模糊核半径相对于景物深度的函数模型,在物理空间中重构“散焦模糊-距离深度”关系模型。
2)、在图像空间中,建立沿直线方向的“散焦模糊-直线”模型。
对物理空间中的直线及其在图像空间中的投影关系进行分析,研究沿任意直线方向的散焦模糊核半径函数模型,在图像空间中建立“散焦模糊-直线”关系模型,对模型参数进行拟合。
3)、标定摄像机散焦成像模型参数。
在模糊-直线模型的基础上,分析推导直线之间的空间关系,基于Manhattan假说建立关系方程。联合求解,得到沿光轴方向的摄像机散焦成像参数,实现散焦成像参数的自标定。
实施例一
1)物理空间中,散焦模糊-深度函数模型重构:
根据凸透镜成像法则,有如下关系式:
Figure BDA0001426045360000031
考虑到凸透镜成像,对应于每个像素的模糊核参数为:σ=kR,其中k是一个常量。结合以上公式,对应于每个像素的散焦模糊核为:
其中
Figure BDA0001426045360000032
参数a和b与摄像机的内参数相关。如果摄像机的焦距、光圈、像平面位置不变,则a和b是不变的。
2)图像空间中,散焦模糊-直线函数模型建立:
如果空间中的一条直线
Figure BDA0001426045360000034
不与光轴方向平行,就不能直接运用方程(2)来表示沿直线
Figure BDA0001426045360000035
的模糊核。根据变换关系,引入一个参数c,则沿着一条直线的模糊核函数定义为:
Figure BDA0001426045360000033
参数c用于表征物理空间中直线的方向,不同方向直线对应的c是不同的,平行直线对应的参数c是相等的。
在图像中的一维直线空间上,沿着直线检测每个像素点的模糊程度。并把这些模糊值进行拟合,得到对应于该直线的参数a和b·c的值。
3)凸透镜散焦成像模型参数的标定:
摄像机凸透镜成像模型如图2所示,图中,f和D分别表示相机的焦距和光圈大小,u和s分别表示物距和像平面的位置,R表示由于散焦成像在像平面上形成的光斑半径。
选择三条相互垂直的直线
Figure BDA0001426045360000042
Figure BDA0001426045360000043
分别在各自的直线上进行拟合,分别得到:a,b·c1,b·c2,b·c3四个数值。
根据Manhattan假说,再构造一个方程:
Figure BDA0001426045360000041
联立解方程,得到方程(2)中模糊-深度关系模型σ=a-b/u中的参数a和b。进而实现摄像机散焦模型参数的自主标定。
当检测到像素的散焦模糊核σ时,就可以计算景物的深度u。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (2)

1.摄像机凸镜模型自主标定方法,其特征在于:基于单帧图像,通过对摄像机散焦模糊-深度模型进行重构,建立沿任意直线方向的模糊度函数模型;利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题;所述方法包括如下步骤:
步骤1:在物理空间中,重构沿光轴方向的“散焦模糊-深度”模型;
根据凸透镜成像法则,有如下关系式:
Figure FDA0002541267080000011
其中,f是凸透镜的焦距,D是凸透镜的直径,u是物距,s是凸透镜与像平面的距离,R表示由于散焦成像在像平面上形成的光斑半径;
考虑到凸透镜成像,对应于每个像素的模糊核参数为:σ=kR,其中k是一个常量;结合以上公式,对应于每个像素的散焦模糊核为:
Figure FDA0002541267080000012
参数a和b与摄像机的内参数相关;如果摄像机的焦距、光圈、像平面位置不变,则a和b是不变的;
步骤2:在图像空间中,建立沿直线方向的“散焦模糊-直线”模型;
对物理空间中的直线及其在图像空间中的投影关系进行分析,研究沿任意直线方向的散焦模糊核半径函数模型,在图像空间中建立“散焦模糊-直线”关系模型,对模型参数进行拟合;
图像空间中,建立如下散焦模糊-直线函数模型:
Figure FDA0002541267080000013
其中,参数c用于表征物理空间中直线的方向,代表图像空间中不同的直线;λ是沿该直线方向的距离度量;
步骤3:标定摄像机散焦成像模型参数;
在模糊-直线模型的基础上,分析推导直线之间的空间关系,基于Manhattan假说建立关系方程;联合求解,得到沿光轴方向的摄像机散焦成像参数,实现散焦成像参数的自标定。
2.根据权利要求1所述的摄像机凸镜模型自主标定方法,其特征在于:所述步骤1,对摄像机散焦成像机理进行分析,基于摄影几何关系,推导散焦模糊核半径相对于景物深度的函数模型,在物理空间中重构“散焦模糊-距离深度”关系模型。
CN201710917401.7A 2017-09-30 2017-09-30 摄像机凸镜模型自主标定方法 Active CN107622514B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710917401.7A CN107622514B (zh) 2017-09-30 2017-09-30 摄像机凸镜模型自主标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710917401.7A CN107622514B (zh) 2017-09-30 2017-09-30 摄像机凸镜模型自主标定方法

Publications (2)

Publication Number Publication Date
CN107622514A CN107622514A (zh) 2018-01-23
CN107622514B true CN107622514B (zh) 2020-10-16

Family

ID=61091248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710917401.7A Active CN107622514B (zh) 2017-09-30 2017-09-30 摄像机凸镜模型自主标定方法

Country Status (1)

Country Link
CN (1) CN107622514B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108592824B (zh) * 2018-07-16 2020-06-30 清华大学 一种基于景深反馈的变频条纹投影结构光测量方法
CN116295021B (zh) * 2023-05-25 2023-07-28 齐鲁工业大学(山东省科学院) 一种单目线结构光系统中相机与激光器位置关系计算方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8203602B2 (en) * 2009-02-06 2012-06-19 Robert Bosch Gmbh Depth-aware blur kernel estimation method for iris deblurring
CN103020946A (zh) * 2011-09-21 2013-04-03 云南大学 基于三正交方向消失点的摄像机自标定方法
CN103927748B (zh) * 2014-04-09 2016-08-17 东南大学 一种基于多矩形图像距离转换模型的坐标标定方法
CN105389808A (zh) * 2015-10-27 2016-03-09 郑州大学 一种基于二消失点的相机自标定方法

Also Published As

Publication number Publication date
CN107622514A (zh) 2018-01-23

Similar Documents

Publication Publication Date Title
US10097812B2 (en) Stereo auto-calibration from structure-from-motion
CN111897349B (zh) 一种基于双目视觉的水下机器人自主避障方法
US8385630B2 (en) System and method of processing stereo images
KR101706216B1 (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
CN107507277B (zh) 三维点云重构方法和装置、服务器及可读存储介质
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
CN103458261B (zh) 一种基于立体视觉的视频场景变化检测方法
CN112509125A (zh) 一种基于人工标志物和立体视觉的三维重建方法
CN106155299B (zh) 一种对智能设备进行手势控制的方法及装置
CA3233222A1 (en) Method, apparatus and device for photogrammetry, and storage medium
Ramirez et al. Open challenges in deep stereo: the booster dataset
CN116958419A (zh) 一种基于波前编码的双目立体视觉三维重建系统和方法
CN111105451A (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN105335968A (zh) 一种基于置信度传播算法的深度图提取方法及装置
CN107622514B (zh) 摄像机凸镜模型自主标定方法
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
CN107767332A (zh) 一种实时单幅图像深度恢复方法和系统
Mallik et al. A multi-sensor information fusion approach for efficient 3D reconstruction in smart phone
CN110335308B (zh) 基于视差约束与双向环形检验的双目视觉里程计计算方法
KR20160024419A (ko) Dibr 방식의 입체영상 카메라 판별 방법 및 장치
CN117315138A (zh) 基于多目视觉的三维重建方法及系统
CN102567992B (zh) 遮挡区域的图像匹配方法
AU2017100312A4 (en) Method and Apparatus for Accurate Computational Stereo Vision
KR20160049639A (ko) 부분 선형화 기반의 3차원 영상 정합 방법
Kuhl et al. Monocular 3D scene reconstruction at absolute scales by combination of geometric and real-aperture methods

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230614

Address after: Room 402, Building A, No. 666 Liaohe Road, Xinbei District, Changzhou City, Jiangsu Province, 213000

Patentee after: Changzhou Feichang Information Technology Co.,Ltd.

Address before: 213032 No. 666 Liaohe Road, Xinbei District, Changzhou City, Jiangsu Province

Patentee before: CHANGZHOU INSTITUTE OF TECHNOLOGY

TR01 Transfer of patent right