CN108053468B - 一种单目视觉聚焦堆栈采集与场景重建方法 - Google Patents

一种单目视觉聚焦堆栈采集与场景重建方法 Download PDF

Info

Publication number
CN108053468B
CN108053468B CN201711293627.0A CN201711293627A CN108053468B CN 108053468 B CN108053468 B CN 108053468B CN 201711293627 A CN201711293627 A CN 201711293627A CN 108053468 B CN108053468 B CN 108053468B
Authority
CN
China
Prior art keywords
depth
electric control
focus
rotation angle
control rotator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711293627.0A
Other languages
English (en)
Other versions
CN108053468A (zh
Inventor
刘畅
赵旭
亢新凯
邱钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Information Science and Technology University
Original Assignee
Beijing Information Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Information Science and Technology University filed Critical Beijing Information Science and Technology University
Priority to CN201711293627.0A priority Critical patent/CN108053468B/zh
Publication of CN108053468A publication Critical patent/CN108053468A/zh
Application granted granted Critical
Publication of CN108053468B publication Critical patent/CN108053468B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。

Description

一种单目视觉聚焦堆栈采集与场景重建方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,是一种单目视觉聚焦堆栈采集与场景重建方法。
背景技术
图像深度是指真实场景到摄像机成像平面之间的距离。深度信息在传感器中也得到了广泛的应用,如图像识别与处理、智能机器人、虚拟与现实技术等。
目前图像深度信息的获取主要有两种方式,即深度相机拍摄和深度估计软件估计。在深度相机系统中,深度的获取大多数靠飞行时间原理来估计深度,但是由于受到环境影响因素较大,其精确性较低。另外还有基于双目立体匹配的深度传感装置,其对硬件要求较高,且算法复杂,计算的时间较长,不适合广泛的使用。对于深度估计软件,往往在处理数据的过程中准确率较低。
因此,希望有一种技术方案来克服或至少减轻现有技术的上述缺陷中的至少一个。
发明内容
本发明的目的在于提供一种单目视觉聚焦堆栈采集与场景重建方法来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种单目视觉聚焦堆栈采集与场景重建方法,其包括:
步骤100,通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;其中:在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;
步骤200,根据步骤100中对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;
步骤300,根据步骤200得到的电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;
步骤400,根据步骤300中得到的电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函计算每一物点的深度,进而输出场景深度图和全聚焦图,并由深度图和全聚焦图重构三维场景。
进一步地,通过在不同的时刻对输入电控旋转器的电流大小进行控制,使电控旋转器输出目标转动方向和转动角度,电控旋转器将其转动方向和转动角度传递给定焦镜头。
进一步地,步骤200得到的成像面深度与发电控旋转器的转动角度之间的对应关系为:a=a0+k(pi),其中:pi为电控旋转器的转动角度,a0为初始成像面深度,a为成像面深度,k(pi)为成像面深度与旋转角度之间的变换函数。
进一步地,步骤300得到的聚焦物面深度与电控旋转器的转动角度之间的对应关系为:
Figure GDA0001554281440000021
其中:f为定焦透镜的焦距,d为成像面与物面在相机光轴上的水平距离。
进一步地,步骤400中的“利用极大化聚焦测度泛函计算每一物点的深度”为:
d(x,y)=maxd|focus{F(d,x,y)}|;
其中:F(d,x,y)为步骤100采集到的聚焦堆栈,最大聚焦测度所在位置作为物点的图像深度;
步骤400中的“全聚焦图”的模型可以描述为下式:
I(x,y)=F(d(x,y),x,y)。
本发明将探测器固定,通过高精度电控旋转器带动定焦镜头转动使镜头沿光轴移动完成数据采集,由于聚焦堆栈是对一定视场(FOV)下的三维场景的多成像平面成像,因而能够实现相机拍摄视场(FOV)下的三维场景重构,并且可以生成在一定视场下的精确深度图和全聚焦图,并且体积较小,受限条件较小,可以广泛应用在众多领域。
附图说明
图1是本发明实施例提供的单目视觉聚焦堆栈采集与场景重建方法的流程示意图。
图2是对场景生成聚焦堆栈的示意图。
图3是控制高精度电控旋转器转动的原理图。
图4是根据本发明一实施例提供的生成聚焦堆栈的示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
如图1所示,本发明实施例提供的单目视觉聚焦堆栈采集与场景重建方法包括如下步骤:
步骤100,通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据。相机包括定焦镜头和探测器,定焦镜头指的是在采集聚焦堆栈过程中镜头的焦距固定。聚焦堆栈是一组聚焦在不同成像平面或采用不同参数拍摄的成像序列,本实施方式中的聚焦堆栈为一组聚焦在不同成像平面的成像序列。
具体地,本实施方式是通过固定探测器,沿相机的光轴同步移动定焦透镜的方式完成聚焦堆栈采集,在直线平移定焦透镜的过程中,需要通过电控旋转器控制定焦镜头的转动,使定焦镜头转动至预设角度。
如图4所示,首先根据图4说明沿相机的光轴直线平移定焦透镜的过程:图4的左侧包括第1次物面、第n次物面等,示出的是场景中的多个物面位置。右侧为位置固定的探测器。中间包括第1次成像、第n次成像等,示出的是定焦透镜在相机的光轴上的不同位置。
然后根据图3说明沿相机的光轴直线平移定焦透镜的过程中还需要通过电控旋转器控制定焦镜头的转动,使定焦镜头转动至预设角度,具体过程为:
通过在不同的时刻对输入电控旋转器的电流大小进行控制,使电控旋转器输出不同的转动方向和转动角度,这样受电控旋转器控制的定焦镜头的转动方向和转动角度也能够被控制。在本实施例中,定焦镜头的转动角度的控制精度较高(比如1度)。这样就可以在定焦镜头沿着相机光轴方向平移过程中,同时转动定焦镜头,完成对场景的聚焦堆栈数据采集。
实现电控旋转器输出目标转动方向和转动角度的方法很多,比如:电控旋转器内部有一个基准电路,与外界获得的直流偏置电压进行比较,然后将获得的电压差进行输出,进而控制电控旋转器的转动方向和转动角度。不同的电压差对应不同的方向和转动角度。例如:如图3所示,在0.5ms时,电控旋转器输出的转动方向是顺时针,转动角度是-90°;在1ms时,电控旋转器输出的转动方向是顺时针,转动角度是-45°;1.5ms时,电控旋转器输出的转动方向是顺时针,转动角度是0°;在2ms时,电控旋转器输出的转动方向是顺时针,转动角度是45°;在2.5ms时,电控旋转器输出的转动方向是顺时针,转动角度是90°。
电控旋转器需要将其转动方向和转动角度传递给定焦镜头,因此,电控旋转器与定焦镜头之间的连接关系可以采用如图2中示出的方式。图2中,固定栓旋钮2通过卡在不同的卡槽中来配合电控旋转器调节归零角度。定焦镜头1由套筒3外包,通过控制电控旋转器输入电压来控制高精度电控旋转器的转动角度,进而改变定焦镜头1的位置来完成场景聚焦堆栈的数据采集,其具体采集情况如图4所示。
步骤200,根据步骤100中对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系。其中,
定焦镜头的位置包括定焦镜头的在相机光轴上相对于成像面的水平距离、定焦镜头相对于初始位置的转动角度。初始位置可以理解为开始拍摄时调整镜头位置使得被拍摄的物体的某一部位被准确聚焦的位置。成像面深度是指成像面与定焦镜头所在的平面之间在相机光轴上的水平距离。比如:设电控旋转器的转动角度为pi,初始成像面深度为a0,成像面深度为a,则由于不同的转动角度对应定焦镜头的在相机光轴上探测器的探测面的不同的水平距离,即对应不同的成像面深度a,从而得到电控旋转器的转动角度与成像面深度的对应关系为:
a=a0+k(pi),其中:k(pi)指的是成像面深度与旋转角度之间的变换函数,由具体镜头参数所决定。
步骤300,根据步骤200得到的电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系。聚焦物面深度是指物面与定焦镜头所在的平面之间在相机光轴上的水平距离。
步骤300中,透镜成像的物像关系由成像公式可知式(1):
Figure GDA0001554281440000051
式(1)中,f为定焦透镜的焦距,a0为初始成像面深度,d0为初始成像面与物面在相机光轴上的水平距离。
利用上述式(1),当定焦镜头的在相机光轴上相对于成像面的水平距离发生变化时,则可表示为式(2):
Figure GDA0001554281440000052
将式(1)和式(2)变形为下式(3),即聚焦物面深度与电控旋转器的转动角度之间的对应关系为:
Figure GDA0001554281440000053
式(3)中,a为成像面深度,d为成像面与物面在相机光轴上的水平距离。Δd=d-d0可以由高精度电控旋转器的转动角度pi来描述,可得式(4):
Figure GDA0001554281440000054
由式(4)得到聚焦物面深度增量与电控旋转器的转动角度之间的对应关系。
步骤400,根据步骤300中得到的聚焦物面深度与电控旋转器的转动角度的之间对应关系,利用极大化聚焦测度泛函计算场景中每一物点的深度,进而输出场景深度图和全聚焦图,并由深度图和全聚焦图重构三维场景。
根据聚焦堆栈F(d,x,y),建立聚焦测度泛函focus{F(d,x,y)}描述点(x,y)在不同深度d所对应的聚焦程度。极大化聚焦测度泛函focus{F(d,x,y)}得到场景深度图,因此场景的深度图可表示为如下式(5):
d(x,y)=maxd|focus{F(d,x,y)}| (5)
其中,(x,y)为物点在成像面上的坐标。极大化目标泛函的过程是将任意点(x,y)的最大聚焦测度所在位置的深度为点(x,y)的深度。
场景的全聚焦图像可以通过获取具有最大聚焦测度值的像素来实现,对于一组多维的聚焦堆栈,结合最大聚焦测度,全聚焦图的模型可以描述为如下式(6):
I(x,y)=F(d(x,y),x,y) (6)
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (2)

1.一种单目视觉聚焦堆栈采集与场景重建方法,其特征在于,包括:
步骤100,通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;其中:在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;
步骤200,根据步骤100中对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系:a=a0+k(pi),其中:pi为电控旋转器的转动角度,a0为初始成像面深度,a为成像面深度,k(pi)为成像面深度与旋转角度之间的变换函数;
步骤300,根据步骤200得到的电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系:
Figure FDA0002717430940000011
其中:f为定焦透镜的焦距,d为成像面与物面在相机光轴上的水平距离;
步骤400,根据步骤300中得到的电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,进而输出场景深度图和全聚焦图,并由深度图和全聚焦图重构三维场景;
步骤400中的“利用极大化聚焦测度泛函数计算每一物点的深度”为:
d(x,y)=maxd|focus{F(d,x,y)}|;
其中:F(d,x,y)为步骤100采集到的聚焦堆栈,最大聚焦测度所在位置作为物点的图像深度;
步骤400中的“全聚焦图”的模型描述为下式:
I(x,y)=F(d(x,y),x,y)。
2.如权利要求1所述的单目视觉聚焦堆栈采集与场景重建方法,其特征在于,通过在不同的时刻对输入电控旋转器的电流大小进行控制,使电控旋转器输出目标转动方向和转动角度,电控旋转器将其转动方向和转动角度传递给定焦镜头。
CN201711293627.0A 2017-12-08 2017-12-08 一种单目视觉聚焦堆栈采集与场景重建方法 Active CN108053468B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711293627.0A CN108053468B (zh) 2017-12-08 2017-12-08 一种单目视觉聚焦堆栈采集与场景重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711293627.0A CN108053468B (zh) 2017-12-08 2017-12-08 一种单目视觉聚焦堆栈采集与场景重建方法

Publications (2)

Publication Number Publication Date
CN108053468A CN108053468A (zh) 2018-05-18
CN108053468B true CN108053468B (zh) 2021-02-26

Family

ID=62122585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711293627.0A Active CN108053468B (zh) 2017-12-08 2017-12-08 一种单目视觉聚焦堆栈采集与场景重建方法

Country Status (1)

Country Link
CN (1) CN108053468B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110441311B (zh) * 2019-07-22 2021-10-08 中国科学院上海光学精密机械研究所 用于多物面成像的多轴多焦镜头
CN110956668A (zh) * 2019-09-27 2020-04-03 北京信息科技大学 一种基于聚焦测度的聚焦堆栈成像系统预置位标定方法
CN111598997B (zh) * 2020-05-12 2023-10-13 北京信息科技大学 一种基于聚焦堆栈单体数据子集架构的全局计算成像方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105721853A (zh) * 2014-11-24 2016-06-29 奥多比公司 用于深度图生成的数码相机的配置设置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013086078A1 (en) * 2011-12-06 2013-06-13 E-Vision Smart Optics, Inc. Systems, devices, and/or methods for providing images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105721853A (zh) * 2014-11-24 2016-06-29 奥多比公司 用于深度图生成的数码相机的配置设置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于光场数字重聚焦的三维重建方法研究;尹晓艮等;《光电子·激光》;20150515;全文 *
融合特征点密度与边缘信息的场景深度估计;何建梅等;《激光与光电子学进展》;20170321;全文 *

Also Published As

Publication number Publication date
CN108053468A (zh) 2018-05-18

Similar Documents

Publication Publication Date Title
CN110296691B (zh) 融合imu标定的双目立体视觉测量方法与系统
CN105716542B (zh) 一种基于柔性特征点的三维数据拼接方法
CN110617814A (zh) 单目视觉和惯性传感器融合的远距离测距系统及方法
Zeller et al. Depth estimation and camera calibration of a focused plenoptic camera for visual odometry
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN107358633A (zh) 一种基于三点标定物的多相机内外参标定方法
CN108053468B (zh) 一种单目视觉聚焦堆栈采集与场景重建方法
US11663741B2 (en) Stereo calibration method for movable vision system
CN107038753B (zh) 立体视觉三维重建系统及方法
CN108413917B (zh) 非接触式三维测量系统、非接触式三维测量方法及测量装置
CN111220126A (zh) 一种基于点特征和单目相机的空间物体位姿测量方法
US11847797B2 (en) Calibration method for multi-degree-of-freedom movable vision system
CN106340045B (zh) 三维人脸重建中基于双目立体视觉的标定优化方法
CN107084680A (zh) 一种基于机器单目视觉的目标深度测量方法
CN110419208B (zh) 成像系统、成像控制方法、图像处理设备和计算机可读介质
CN112634379B (zh) 一种基于混合视域光场的三维定位测量方法
CN110136204A (zh) 基于双侧远心镜头相机机床位置标定的音膜球顶装配系统
CN108007426A (zh) 一种摄像头测距方法和系统
CN112229323A (zh) 基于手机单目视觉的棋盘格合作目标的六自由度测量方法及其应用
CN115546289A (zh) 一种基于机器人的复杂结构件三维形貌测量方法
Gee et al. Tsai camera calibration enhanced
Lingenauber et al. Benefits of plenoptic cameras for robot vision during close range on-orbit servicing maneuvers
Dang et al. Self-calibration for active automotive stereo vision
CN104123726A (zh) 基于消隐点的大锻件测量系统标定方法
Sun et al. Binocular vision-based position determination algorithm and system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant