CN107622514B - 摄像机凸镜模型自主标定方法 - Google Patents
摄像机凸镜模型自主标定方法 Download PDFInfo
- Publication number
- CN107622514B CN107622514B CN201710917401.7A CN201710917401A CN107622514B CN 107622514 B CN107622514 B CN 107622514B CN 201710917401 A CN201710917401 A CN 201710917401A CN 107622514 B CN107622514 B CN 107622514B
- Authority
- CN
- China
- Prior art keywords
- model
- defocusing
- camera
- straight line
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
本发明公开了一种摄像机凸镜模型自主标定方法,基于单帧图像,通过对摄像机散焦模糊‑深度模型进行重构,建立沿任意直线方向的模糊度函数模型;利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题。其步骤包括:在物理空间中,重构沿光轴方向的“散焦模糊‑深度”模型;在图像空间中,建立沿直线方向的“散焦模糊‑直线”模型;标定摄像机散焦成像模型参数。本发明仅仅基于一帧图像,不需要借助于专门的标定物或标定场景,实现摄像机散焦模型参数的自主标定。提高凸透镜散焦模型参数标定的自主性和适应性。
Description
技术领域
本发明涉及一种摄像机凸镜模型的标定方法,特别涉及一种自主性和适应性强的摄像机凸镜模型自主标定方法,属于电子信息和机器视觉领域。
背景技术
在计算机视觉领域,根据摄像机的模型,可以从2D图像中恢复出3D深度信息。一种是小孔成像模型,另一种是凸透镜成像模型。而凸透镜成像模型能够更实际地描述光学图像的成像过程,能够更有效地分析图像散焦模糊的本质。
常用的摄像机标定算法是基于小孔成像模型【任亮,邱天爽.一种基于三正交约束的摄像机标定方法.电子学报,2014,(10):2050-2054.】,通过建立像素2D坐标和场景3D坐标之间的对应关系,运用优化求解算法实现摄像机参数的标定。
而用于摄像机凸透镜散焦成像模型的标定,有以下两类方法:
(1)基于人工标定物或标定场景。为了得到散焦成像的焦距、光圈、像距,利用一个尺寸已知的物体或者利用深度已知的场景【魏阳杰,董再励,吴成东.摄像机参数固定的全局离焦深度恢复.中国图象图形学报,2010,15(12):1811-1817.】。通过检测对应的模糊程度,得到一组数据对(模糊,深度),通过拟合得到摄像机散焦成像参数。这种标定方法需要人工标定物或场景,要求场景的深度信息是已知的,自主性差。
(2)基于静态场景。对同一静态场景采集多幅模糊程度不同的散焦图像,提取每幅图像的散焦模糊度,结合凸透镜成像几何模型估算散焦成像参数【Park S Y.An image-based calibration technique of spatial domain depth-from-defocus.Patternrecognition letters,2006,27(12):1318-1324.】。这种标定方法要求场景是静态的,需要采集多帧模糊图像,适应性差。
目前摄像机散焦模型标定方法中,要么需要人工标定场景,自主性差;要么是对同一场景采集多幅图像,适应性差。
发明内容
针对现有技术中存在的上述问题,本发明提供一种摄像机凸镜模型自主标定方法,仅仅利用一幅图像,标定出摄像机散焦模型参数,用于散焦深度恢复。提高凸透镜散焦模型参数标定的自主性和适应性。
本发明的技术方案如下:
摄像机凸镜模型自主标定方法,基于单帧图像,通过对摄像机散焦模糊-深度模型进行重构,建立沿任意直线方向的模糊度函数模型;利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题。
进一步,本发明的摄像机凸镜模型自主标定方法包括如下步骤:
步骤1:在物理空间中,重构沿光轴方向的“散焦模糊-深度”模型;
步骤2:在图像空间中,建立沿直线方向的“散焦模糊-直线”模型;
步骤3:标定摄像机散焦成像模型参数。
进一步,所述步骤1,对摄像机散焦成像机理进行分析,基于摄影几何关系,推导散焦模糊核半径相对于景物深度的函数模型,在物理空间中重构“散焦模糊-距离深度”关系模型。
进一步,所述步骤2,对物理空间中的直线及其在图像空间中的投影关系进行分析,研究沿任意直线方向的散焦模糊核半径函数模型,在图像空间中建立“散焦模糊-直线”关系模型,对模型参数进行拟合。
进一步,所述步骤3,在模糊-直线模型的基础上,分析推导直线之间的空间关系,基于Manhattan假说建立关系方程;联合求解,得到沿光轴方向的摄像机散焦成像参数,实现散焦成像参数的自标定。
本发明的有益效果如下:
仅仅基于一帧图像,不需要借助于专门的标定物或标定场景,实现摄像机散焦模型参数的自主标定。提高凸透镜散焦模型参数标定的自主性和适应性。
附图说明
图1是摄像机凸透镜模型自主标定方法的流程图。
图2是摄像机凸透镜成像模型图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明仅仅基于一帧图像,通过对摄像机散焦模糊-深度模型进行重构,建立沿任意直线方向的模糊度函数模型。利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题。
基于单帧图像实现摄像机散焦参数自标定的流程如图1所示,具体步骤如下:
1)、在物理空间中,重构沿光轴方向的“散焦模糊-深度”模型。
对摄像机散焦成像机理进行分析,基于摄影几何关系,推导散焦模糊核半径相对于景物深度的函数模型,在物理空间中重构“散焦模糊-距离深度”关系模型。
2)、在图像空间中,建立沿直线方向的“散焦模糊-直线”模型。
对物理空间中的直线及其在图像空间中的投影关系进行分析,研究沿任意直线方向的散焦模糊核半径函数模型,在图像空间中建立“散焦模糊-直线”关系模型,对模型参数进行拟合。
3)、标定摄像机散焦成像模型参数。
在模糊-直线模型的基础上,分析推导直线之间的空间关系,基于Manhattan假说建立关系方程。联合求解,得到沿光轴方向的摄像机散焦成像参数,实现散焦成像参数的自标定。
实施例一
1)物理空间中,散焦模糊-深度函数模型重构:
根据凸透镜成像法则,有如下关系式:
考虑到凸透镜成像,对应于每个像素的模糊核参数为:σ=kR,其中k是一个常量。结合以上公式,对应于每个像素的散焦模糊核为:
参数a和b与摄像机的内参数相关。如果摄像机的焦距、光圈、像平面位置不变,则a和b是不变的。
2)图像空间中,散焦模糊-直线函数模型建立:
参数c用于表征物理空间中直线的方向,不同方向直线对应的c是不同的,平行直线对应的参数c是相等的。
在图像中的一维直线空间上,沿着直线检测每个像素点的模糊程度。并把这些模糊值进行拟合,得到对应于该直线的参数a和b·c的值。
3)凸透镜散焦成像模型参数的标定:
摄像机凸透镜成像模型如图2所示,图中,f和D分别表示相机的焦距和光圈大小,u和s分别表示物距和像平面的位置,R表示由于散焦成像在像平面上形成的光斑半径。
根据Manhattan假说,再构造一个方程:
联立解方程,得到方程(2)中模糊-深度关系模型σ=a-b/u中的参数a和b。进而实现摄像机散焦模型参数的自主标定。
当检测到像素的散焦模糊核σ时,就可以计算景物的深度u。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.摄像机凸镜模型自主标定方法,其特征在于:基于单帧图像,通过对摄像机散焦模糊-深度模型进行重构,建立沿任意直线方向的模糊度函数模型;利用图像中直线之间的空间关系,基于消失点约束和Manhattan假说解决散焦模型参数自标定问题;所述方法包括如下步骤:
步骤1:在物理空间中,重构沿光轴方向的“散焦模糊-深度”模型;
根据凸透镜成像法则,有如下关系式:
其中,f是凸透镜的焦距,D是凸透镜的直径,u是物距,s是凸透镜与像平面的距离,R表示由于散焦成像在像平面上形成的光斑半径;
考虑到凸透镜成像,对应于每个像素的模糊核参数为:σ=kR,其中k是一个常量;结合以上公式,对应于每个像素的散焦模糊核为:
参数a和b与摄像机的内参数相关;如果摄像机的焦距、光圈、像平面位置不变,则a和b是不变的;
步骤2:在图像空间中,建立沿直线方向的“散焦模糊-直线”模型;
对物理空间中的直线及其在图像空间中的投影关系进行分析,研究沿任意直线方向的散焦模糊核半径函数模型,在图像空间中建立“散焦模糊-直线”关系模型,对模型参数进行拟合;
图像空间中,建立如下散焦模糊-直线函数模型:
其中,参数c用于表征物理空间中直线的方向,代表图像空间中不同的直线;λ是沿该直线方向的距离度量;
步骤3:标定摄像机散焦成像模型参数;
在模糊-直线模型的基础上,分析推导直线之间的空间关系,基于Manhattan假说建立关系方程;联合求解,得到沿光轴方向的摄像机散焦成像参数,实现散焦成像参数的自标定。
2.根据权利要求1所述的摄像机凸镜模型自主标定方法,其特征在于:所述步骤1,对摄像机散焦成像机理进行分析,基于摄影几何关系,推导散焦模糊核半径相对于景物深度的函数模型,在物理空间中重构“散焦模糊-距离深度”关系模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710917401.7A CN107622514B (zh) | 2017-09-30 | 2017-09-30 | 摄像机凸镜模型自主标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710917401.7A CN107622514B (zh) | 2017-09-30 | 2017-09-30 | 摄像机凸镜模型自主标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107622514A CN107622514A (zh) | 2018-01-23 |
CN107622514B true CN107622514B (zh) | 2020-10-16 |
Family
ID=61091248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710917401.7A Active CN107622514B (zh) | 2017-09-30 | 2017-09-30 | 摄像机凸镜模型自主标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107622514B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108592824B (zh) * | 2018-07-16 | 2020-06-30 | 清华大学 | 一种基于景深反馈的变频条纹投影结构光测量方法 |
CN116295021B (zh) * | 2023-05-25 | 2023-07-28 | 齐鲁工业大学(山东省科学院) | 一种单目线结构光系统中相机与激光器位置关系计算方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8203602B2 (en) * | 2009-02-06 | 2012-06-19 | Robert Bosch Gmbh | Depth-aware blur kernel estimation method for iris deblurring |
CN103020946A (zh) * | 2011-09-21 | 2013-04-03 | 云南大学 | 基于三正交方向消失点的摄像机自标定方法 |
CN103927748B (zh) * | 2014-04-09 | 2016-08-17 | 东南大学 | 一种基于多矩形图像距离转换模型的坐标标定方法 |
CN105389808A (zh) * | 2015-10-27 | 2016-03-09 | 郑州大学 | 一种基于二消失点的相机自标定方法 |
-
2017
- 2017-09-30 CN CN201710917401.7A patent/CN107622514B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107622514A (zh) | 2018-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10097812B2 (en) | Stereo auto-calibration from structure-from-motion | |
CN111897349B (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
US8385630B2 (en) | System and method of processing stereo images | |
KR101706216B1 (ko) | 고밀도 삼차원 영상 재구성 장치 및 방법 | |
CN107507277B (zh) | 三维点云重构方法和装置、服务器及可读存储介质 | |
JP2018534698A (ja) | Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム | |
CN103458261B (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN112509125A (zh) | 一种基于人工标志物和立体视觉的三维重建方法 | |
CN106155299B (zh) | 一种对智能设备进行手势控制的方法及装置 | |
CA3233222A1 (en) | Method, apparatus and device for photogrammetry, and storage medium | |
Ramirez et al. | Open challenges in deep stereo: the booster dataset | |
CN116958419A (zh) | 一种基于波前编码的双目立体视觉三维重建系统和方法 | |
CN111105451A (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 | |
CN105335968A (zh) | 一种基于置信度传播算法的深度图提取方法及装置 | |
CN107622514B (zh) | 摄像机凸镜模型自主标定方法 | |
JP6395429B2 (ja) | 画像処理装置、その制御方法及び記憶媒体 | |
CN107767332A (zh) | 一种实时单幅图像深度恢复方法和系统 | |
Mallik et al. | A multi-sensor information fusion approach for efficient 3D reconstruction in smart phone | |
CN110335308B (zh) | 基于视差约束与双向环形检验的双目视觉里程计计算方法 | |
KR20160024419A (ko) | Dibr 방식의 입체영상 카메라 판별 방법 및 장치 | |
CN117315138A (zh) | 基于多目视觉的三维重建方法及系统 | |
CN102567992B (zh) | 遮挡区域的图像匹配方法 | |
AU2017100312A4 (en) | Method and Apparatus for Accurate Computational Stereo Vision | |
KR20160049639A (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
Kuhl et al. | Monocular 3D scene reconstruction at absolute scales by combination of geometric and real-aperture methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230614 Address after: Room 402, Building A, No. 666 Liaohe Road, Xinbei District, Changzhou City, Jiangsu Province, 213000 Patentee after: Changzhou Feichang Information Technology Co.,Ltd. Address before: 213032 No. 666 Liaohe Road, Xinbei District, Changzhou City, Jiangsu Province Patentee before: CHANGZHOU INSTITUTE OF TECHNOLOGY |
|
TR01 | Transfer of patent right |