CN105335959A - 成像装置快速对焦方法及其设备 - Google Patents

成像装置快速对焦方法及其设备 Download PDF

Info

Publication number
CN105335959A
CN105335959A CN201410403640.7A CN201410403640A CN105335959A CN 105335959 A CN105335959 A CN 105335959A CN 201410403640 A CN201410403640 A CN 201410403640A CN 105335959 A CN105335959 A CN 105335959A
Authority
CN
China
Prior art keywords
focusing
imaging device
information
image distance
source images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410403640.7A
Other languages
English (en)
Other versions
CN105335959B (zh
Inventor
焉逢运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Galaxycore Shanghai Ltd Corp
Original Assignee
Galaxycore Shanghai Ltd Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Galaxycore Shanghai Ltd Corp filed Critical Galaxycore Shanghai Ltd Corp
Priority to CN201410403640.7A priority Critical patent/CN105335959B/zh
Publication of CN105335959A publication Critical patent/CN105335959A/zh
Application granted granted Critical
Publication of CN105335959B publication Critical patent/CN105335959B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及一种成像装置快速对焦方法及其设备。所述成像装置快速对焦方法包括以下步骤:拍摄步骤,使用两个或多个成像装置针对一个场景取得不同视角的多幅源图像;匹配步骤,对所述源图像进行匹配,得到所述源图像上的点的偏移信息;深度计算步骤,利用所述偏移信息计算所述场景的深度信息;以及确定像距信息,根据所述深度信息确定对焦点的像距信息;对焦步骤,根据所述像距信息调整成像系统镜头以得到清晰的成像。本发明能够任意选择对焦点,同时保证对焦速度和对焦精度。

Description

成像装置快速对焦方法及其设备
技术领域
本发明涉及成像技术领域,特别涉及一种成像装置快速对焦方法及其设备。
背景技术
随着数码成像技术的发展,大量的便携式电子设备,例如手机、播放器、掌上电脑、相机等设备均配备了摄像头,进行摄像。在摄像过程中通常采用自动对焦技术完成对焦,目前常见对焦方法主要有以下两种:
1.对比侦测对焦:对比度检测自动对焦时,镜头会前后方向移动,相机直接对感光器上对焦区域的局部图像进行分析,通过判断图像的对比度大小确定是否合焦。图像对比度达到最大时,完全合焦。优点是对焦精度高,对焦点选择自由,缺点是对焦速度慢,其对焦时需反复驱动马达,耗费时间,也增加马达及传动构件的。
2.相位对焦:对焦系统通过图像分离镜头将图像分解成两个光路,传到两个成对的线性传感器,根据两个传感器的信号分析得到两个传感器聚焦位置,再将两个聚焦位置之间的距离与设定的合焦距离比较。可以计算出达到正确合焦镜头应该移动的方向和距离,不需要镜头多次来回反复移动,对焦迅速。优点是对焦速度快,缺点对焦精度低、对焦点固定以及对焦点图像有要求。
以上两种对焦方法有共同的缺点,都需要对焦点图像有一定的亮度或色彩变化,对焦准确率低。
综上所述,提供一种任意选择对焦点,准确快速低损耗的对焦方法,成为本领域技术人员亟待解决的问题。
现有的深度计算技术即常见的测距方法是用两个或两个以上的视点去观察同一物体目标,获得在不同视角下的一组图像(例如,至少两幅图像),然后通过视觉成像原理推算出不同图像中对应像素间的相对位置信息,进而推断物体目标的空间位置。
图1是以横向双摄像头方案为例,对深度信息进行计算的示意图。图2是横向双摄像头成像的水平面投影示意图。
设空间一点PW(x0,y0,z0)在两个平行放置的传感器中像点分别是PLT(x1,y1,z1)和PRT(x2,y2,z2),则在已知两传感器光轴中心基线长b和镜头焦距f的情况下,可以计算出PW点的深度z0
z 0 = f × b ( x 1 - x 2 ) - b ,
z0为虚化计算所需要的深度信息。
以前后放置的纵向双摄像头方案为例,图3是纵向双摄像头成像的垂直面投影的示意图。
设空间一点PW(x0,y0,z0)在两个纵向同轴放置的传感器中像点分别是前PFT(x1,y1,z1)和后PRR(x2,y2,z2),则在已知两传感器光轴中心基线长b的情况下,可以计算出PW点的深度z0
z 0 = b × y 1 | y 1 - y 2 | ,
z0为虚化计算所需要的深度信息。
此外,对于确定深度信息,还有双目横向会聚模式等等实现方式。
公开于该发明背景技术部分的信息仅仅旨在加深对本发明的一般背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。
发明内容
为解决现有技术对焦过程复杂准确度低的问题,本发明提供一种能够任意选择对焦点,快速准确对焦的方法。
为了达到上述目的,本发明提供一种成像装置快速对焦方法,其包括以下步骤:拍摄步骤,所述拍摄步骤使用两个或多个成像装置针对一个场景取得不同视角的多幅源图像;匹配步骤,所述匹配步骤对所述源图像进行匹配,得到所述源图像上的点的偏移信息;深度计算步骤,所述深度计算步骤利用所述偏移信息计算所述场景的深度信息;以及确定像距信息步骤,所述确定像距信息步骤根据所述深度信息确定对焦点的像距信息;对焦步骤,所述对焦步骤根据所述像距信息调整成像装置镜头以得到清晰的成像。
优选地,所述像距信息根据所述深度信息以及透镜成像的高斯公式确定,所述像距信息计算公式如下:
v = u * f u - f ,
其中,
f为成像装置镜头的焦距,
v为像距,
u为物距。
本发明同时提供了用于实施上述成像装置快速对焦方法的设备,包括成像装置镜头和两个或者多个图像传感器。
优选地,所述图像传感器用于拍摄源图像,所述源图像用于测距。
本发明的有益效果是:利用双摄像头,多摄像头对图像内场景计算深度,并将深度信息作为参数,辅助主摄像头对焦的方法,通过上述深度计算与高斯公式结合准确推得光学成像所需的物距与像距,从而保证对焦的快速与准确,实现成像设备快速准确对焦。
附图说明
图1是以横向双摄像头方案为例,对深度信息进行计算的示意图。
图2是横向双摄像头成像的水平面投影示意图。
图3是纵向双摄像头成像的水平面投影的示意图。
图4是在本发明的一个实施例中使用的SUSAN检测模板的示意图。
图5是在本发明的一个实施例中进行特征匹配的示意图。
图6是像距计算示意图。
图7是根据本发明的一个实施例的方法的流程图。
应当了解,说明书附图并不一定按比例地显示本发明的具体结构,并且在说明书附图中用于说明本发明某些原理的图示性特征也会采取略微简化的画法。本文所公开的本发明的具体设计特征包括例如具体尺寸、方向、位置和外形将部分地由具体所要应用和使用的环境来确定。
在说明书附图的多幅附图中,相同的附图标记表示本发明的相同或等同的部分。
具体实施方式
下面将详细参考本发明的实施例,其示例显示在附图和下文描述中。尽管结合示例性实施例描述了本发明,但应该理解,本说明书并未意欲将本发明限制于这些示例性实施例。相反,本发明不仅意欲覆盖这些示例性实施例,而且也覆盖包含在由所附权利要求书限定的本发明的实质和范围内的各种替代、修改、等价形式和其他实施例。
本发明的一个实施例的实施分为测距和对焦两个部分:
1、测距:
测距根据背景技术介绍的多视点计算方法,按照拍摄、匹配、深度计算等几个步骤获取场景内各特征点的深度数据。
测距所使用的区域匹配的方法大致分为三类:基于特征的匹配,基于区域的匹配和基于相位的匹配。
基于特征的匹配使用的匹配基元包含了丰富的统计特性以及算法编程上的灵活性,易于硬件实现。
基于区域的匹配较为适用于室内等具有显著特征的环境,有较大的局限性,需要有其他的人工智能方法来辅助。
基于相位的匹配,由于周期性模式、光滑区域的存在以及遮挡效应等原因会导致视差图产生误差,还需要有其他的方法来进行误差检测和校正,较为复杂。
根据本发明的一个实施例,以常用的基于特征的匹配来阐述本发明的一种具体实现方法,其中视差计算包含特征提取和特征匹配。然而应该理解的是,本发明不限于基于特征的匹配。
首先需要获取源图像I。以横向双摄像头为例,左右两个传感器获得的源图像分别为IL和IR,先经过图像增强、滤波、缩放等预处理,然后提取特征。
A.特征提取:
选取的特征点基本上具备平移、旋转、缩放、仿射不变性,比如像素灰度值、角点、边缘、拐点等等。常用的有SUSAN角点提取,Harris角点提取,SIFT尺度不变特征提取等等。这里以SUSAN角点提取为例:
SUSAN(SmallestUnivalueSegmentAssimilatingNucleus)即最小核同值区。核同值区:相对于模板的核,模板中有一定的区域与它有相同的灰度。如图4所示,使用37个像素的检测模板A。
通过如下公式得到模板内单像素的检测值C:
C ( x , y ) = 1 , | I ( x , y ) - I ( x 0 , y 0 ) | ≤ t 0 , | I ( x , y ) - I ( x 0 , y 0 ) | > t .
检测对模板中的每个像素进行,I(x0,y0)是模板中心点灰度值,I(x,y)是模板上其他点灰度值,t是确定相似程度的阈值,x,y为以源图像I左下角为原点的坐标系内的坐标。
然后,对属于模板A的点的检测值C求和,得到输出的游程和S:
S ( x 0 , y 0 ) = Σ ( x , y ) ∈ A C ( x , y ) .
源图像I的相应点(x0,y0)的特征值R为:
R ( x 0 , y 0 ) = h - S ( x 0 , y 0 ) S ( x 0 , y 0 ) < h 0 , S ( x 0 , y 0 ) &GreaterEqual; h ,
其中h为几何阈值且h=3Smax/4,其中Smax是游程和S所能取的最大值。
对两副图像作处理,得到特征图分别为HL和HR。对特征图HL和HR进行特征匹配。
B.特征匹配:
如图5所示,以第一特征图HL中待匹配点(x0,y0)为中心点来创建一个大小为宽m、高n的矩形窗Q。在第二特征图HR中,沿水平方向偏移量dx在视差范围内取出与待匹配点(x0,y0)(基准点)相邻同样大小为m×n的另一矩形窗Q’。将第一特征图HL的矩形窗Q与第二特征图HR的矩形窗Q’进行比较,最大相似性的对应点就是最佳匹配。
以灰度差的平方和算法为例,HL中以待匹配点(x0,y0)为中心点的m×n矩形窗与HR中对应尺寸水平偏移量dx的矩形窗的匹配系数为:
&Gamma; dx ( x 0 , y 0 ) = &Sigma; ( i , j ) &Element; Q [ H R ( x 0 + i + dx , y 0 + j ) - H L [ x 0 + i , y 0 + j ] 2 ,
i,j是矩形窗Q内一点的坐标,是以矩形窗Q左下角为原点的坐标系内的坐标。
预选设定一个几何阀值k,如果Γdx(x0,y0)<k,即为匹配成功。
Γdx(x0,y0)取得最小值,即为模板完全匹配。
Γdx(x0,y0)取得最小值时dx的取值,这里用视差矩阵D来记录匹配成功的点的偏移值dx,
D(x0,y0)=dx。
在遍历特征图HL后,要对视差矩阵D插值,对未匹配成功的特征点以及未成功提取特征点的坐标估值。
视差矩阵D包含的偏移量信息将用于计算深度。
C.计算深度:
如背景技术介绍,根据横向双摄像头方案,利用三角公式计算深度。
如图2所示,对于两个平行放置的传感器,左侧传感器获取的源图像IL上一点PLT(x1,y1,z1),通过匹配到右侧一点PRT(x2,y2,z2),可以计算出空间点PW(x0,y0,z0)的深度z0。对于源图像IL上的任意一点(x,y),在已知两传感器光轴中心基线长b和镜头焦距f的情况下,其对应的空间点的深度为:
Z ( x , y ) = f &times; b D ( x , y ) ,
D是前面计算出的包含偏移量信息的视差矩阵。遍历源图像IL可得深度矩阵Z,Z将用于计算虚化系数。
针对特定场景,因为透视关系,存在某些物体或局部只在一个成像装置中成像的情况。对于这种情况,可以用多个成像装置来弥补,只要任意两个成像装置中有同一物体或局部的成像,就可以测距。
2、对焦:
为了实现快速准确对焦的目的,本发明提供一种成像装置快速对焦方法,包括以下步骤:拍摄步骤,使用两个或更多成像装置针对一个场景取得不同视角的多幅源图像;匹配步骤,对所述源图像进行匹配,得到所述源图像上的点的偏移信息;深度计算步骤,利用所述偏移信息计算所述场景的深度信息;以及确定像距信息,根据所述深度信息确定对焦点的像距信息;对焦步骤,根据所述像距信息调整成像装置镜头以得到清晰的成像。
在本发明的具体实施例中,如图6所示,所述像距信息根据所述深度信息以及透镜成像的高斯公式确定:
1 f = 1 u + 1 v ,
可以推得所述像距信息计算公式如下:
v = u * f u - f ,
其中,
f为成像装置镜头的焦距,
v为像距,
u为物距。
使用者指定任何一点B作为对焦点,可以计算出v,并通过电机推动镜头使传感器成像清晰。此方案允许B点处于某个面上,不限定对焦点必须要有图案或色彩差异,减少了对焦机构反复寻找对焦点的情况。
本发明的技术方案同时具备对比侦测对焦的对焦点选择自由、对焦精度高和相位对焦的对焦速度快的特点。
下面结合图7,说明根据本发明的一个实施例的对成像装置快速对焦方法的流程。
首先,使用两个成像装置针对一个场景(或者使用一个成像装置多次针对一个场景)取得不同视角的两幅源图像IL和IR
然后,对源图像IL和IR进行特征提取,得到特征图HL和HR
然后,对特征图HL和HR进行特征匹配,得到视差矩阵D;
然后,利用视差矩阵D包含的信息进行深度数据计算,得到深度矩阵Z;
然后,创建光学模型,利用深度矩阵Z计算像距v;
然后,利用所得像距进行对焦。
3、具体应用:
本发明的具体应用包括但不限于以下形式:
1)照相设备(例如:卡片式照相机,手机等)
2)摄像设备(例如:摄像机等)
上述实施例是用于例示性说明本发明的原理及其功效,但是本发明并不限于上述实施方式。本领域的技术人员均可在不违背本发明的精神及范畴下,在权利要求保护范围内,对上述实施例进行修改。因此本发明的保护范围,应如本发明的权利要求书覆盖。

Claims (4)

1.一种成像装置快速对焦方法,所述成像装置快速对焦方法包括
以下步骤:
拍摄步骤,所述拍摄步骤使用两个或多个成像装置针对一个场景取得不同视角的多幅源图像;
匹配步骤,所述匹配步骤对所述源图像进行匹配,得到所述源图像上的点的偏移信息;
深度计算步骤,所述深度计算步骤利用所述偏移信息计算所述场景的深度信息;以及
确定像距信息步骤,所述确定像距信息步骤根据所述深度信息确定对焦点的像距信息;
对焦步骤,所述对焦步骤根据所述像距信息调整成像装置镜头以得到清晰的成像。
2.根据权利要求1所述的成像装置快速对焦方法,其中,所述像距信息根据所述深度信息以及透镜成像的高斯公式确定,所述像距信息计算公式如下:
v = u * f u - f ,
其中,
f为成像装置镜头的焦距,
v为像距,
u为物距。
3.一种用于实施权利要求1-2中任一项所述的成像装置快速对焦方法的设备,所述设备包括成像装置镜头和两个或者多个图像传感器。
4.根据权利要求3所述的设备,其中,所述图像传感器用于拍摄源图像,所述源图像用于测距。
CN201410403640.7A 2014-08-15 2014-08-15 成像装置快速对焦方法及其设备 Active CN105335959B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410403640.7A CN105335959B (zh) 2014-08-15 2014-08-15 成像装置快速对焦方法及其设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410403640.7A CN105335959B (zh) 2014-08-15 2014-08-15 成像装置快速对焦方法及其设备

Publications (2)

Publication Number Publication Date
CN105335959A true CN105335959A (zh) 2016-02-17
CN105335959B CN105335959B (zh) 2019-03-22

Family

ID=55286464

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410403640.7A Active CN105335959B (zh) 2014-08-15 2014-08-15 成像装置快速对焦方法及其设备

Country Status (1)

Country Link
CN (1) CN105335959B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107147837A (zh) * 2017-06-30 2017-09-08 维沃移动通信有限公司 一种拍摄参数的设置方法和移动终端
CN107277367A (zh) * 2017-07-27 2017-10-20 未来科技(襄阳)有限公司 拍照处理方法、装置、设备和存储介质
CN108780262A (zh) * 2016-05-19 2018-11-09 深圳市大疆创新科技有限公司 基于目标检测的自动对焦初始化
CN109975948A (zh) * 2017-12-28 2019-07-05 格科微电子(上海)有限公司 控制对焦模组运动得到景深信息的方法
CN114071124A (zh) * 2021-11-05 2022-02-18 信利光电股份有限公司 一种模组Peak点测试方法、系统及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1342408A (zh) * 2000-09-08 2002-04-03 姜正华 铃虫克
CN101858741A (zh) * 2010-05-26 2010-10-13 沈阳理工大学 一种基于单相机的变焦测距方法
CN103824303A (zh) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 基于被摄物的位置、方向调整图像透视畸变的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1342408A (zh) * 2000-09-08 2002-04-03 姜正华 铃虫克
CN101858741A (zh) * 2010-05-26 2010-10-13 沈阳理工大学 一种基于单相机的变焦测距方法
CN103824303A (zh) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 基于被摄物的位置、方向调整图像透视畸变的方法和装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108780262A (zh) * 2016-05-19 2018-11-09 深圳市大疆创新科技有限公司 基于目标检测的自动对焦初始化
US10958822B2 (en) 2016-05-19 2021-03-23 SZ DJI Technology Co., Ltd. Autofocus initialization based on target detection
CN108780262B (zh) * 2016-05-19 2021-05-28 深圳市大疆创新科技有限公司 一种相对于成像装置内的图像传感器移动光学器件的方法和装置
CN107147837A (zh) * 2017-06-30 2017-09-08 维沃移动通信有限公司 一种拍摄参数的设置方法和移动终端
CN107277367A (zh) * 2017-07-27 2017-10-20 未来科技(襄阳)有限公司 拍照处理方法、装置、设备和存储介质
CN109975948A (zh) * 2017-12-28 2019-07-05 格科微电子(上海)有限公司 控制对焦模组运动得到景深信息的方法
CN114071124A (zh) * 2021-11-05 2022-02-18 信利光电股份有限公司 一种模组Peak点测试方法、系统及可读存储介质
CN114071124B (zh) * 2021-11-05 2024-04-19 信利光电股份有限公司 一种模组Peak点测试方法、系统及可读存储介质

Also Published As

Publication number Publication date
CN105335959B (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
US20220272313A1 (en) Methods for automatic registration of 3d image data
JP5206853B2 (ja) 補間画像生成装置、再構成画像生成装置、補間画像生成方法及びプログラム
US8406510B2 (en) Methods for evaluating distances in a scene and apparatus and machine readable medium using the same
US10529076B2 (en) Image processing apparatus and image processing method
CN105659580B (zh) 一种自动对焦方法、装置及电子设备
EP2194725B1 (en) Method and apparatus for correcting a depth image
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
EP2426642A1 (en) Method, device and system for motion detection
CN107077743A (zh) 用于阵列相机的动态校准的系统和方法
CN104918035A (zh) 一种获取目标三维图像的方法及系统
CN105335955A (zh) 对象检测方法和对象检测装置
Chen et al. Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework
CN107545586B (zh) 基于光场极线平面图像局部的深度获取方法及系统
CN105335959A (zh) 成像装置快速对焦方法及其设备
CN104424640A (zh) 对图像进行虚化处理的方法和装置
CN112232275B (zh) 基于双目识别的障碍物检测方法、系统、设备及存储介质
US20220383530A1 (en) Method and system for generating a depth map
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
CN103824303A (zh) 基于被摄物的位置、方向调整图像透视畸变的方法和装置
CN107991665A (zh) 一种基于定焦相机的对标靶三维坐标连续测量方法
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
Lee et al. Adaptive background generation for automatic detection of initial object region in multiple color-filter aperture camera-based surveillance system
CN105488802A (zh) 一种指尖深度检测方法及系统
CN102708570B (zh) 获取深度图的方法及装置
CN104809720A (zh) 基于小交叉视场的两相机目标关联方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant