CN106454318A - 立体成像方法及立体成像装置 - Google Patents

立体成像方法及立体成像装置 Download PDF

Info

Publication number
CN106454318A
CN106454318A CN201611028864.XA CN201611028864A CN106454318A CN 106454318 A CN106454318 A CN 106454318A CN 201611028864 A CN201611028864 A CN 201611028864A CN 106454318 A CN106454318 A CN 106454318A
Authority
CN
China
Prior art keywords
scene
image
depth
lens unit
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611028864.XA
Other languages
English (en)
Other versions
CN106454318B (zh
Inventor
李其昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Yeta Technology Co ltd
Original Assignee
Chengdu Weijing Jingtai Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Weijing Jingtai Technology Co Ltd filed Critical Chengdu Weijing Jingtai Technology Co Ltd
Priority to CN201611028864.XA priority Critical patent/CN106454318B/zh
Publication of CN106454318A publication Critical patent/CN106454318A/zh
Application granted granted Critical
Publication of CN106454318B publication Critical patent/CN106454318B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开一种立体成像方法及立体成像装置,属于立体成像技术领域。该立体成像方法包括以下步骤:S1控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;S2依据所述场景深度分布图,获取所述场景的视差偏移量;S3依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;S4依据所述视差偏移量与所述第一图像生成立体图像的第二图像。本发明的立体成像方法及立体成像装置,无需考虑成像设备的平整度,无垂直视差,也无需进行繁琐的左右图匹配处理,立体成像简单便捷。

Description

立体成像方法及立体成像装置
技术领域
本发明属于立体拍摄成像技术领域,尤其涉及一种立体成像方法及立体成像装置。
背景技术
现有的3D成像方法主要的是由双目及多目成像系统实现,双目和多目面临了相机安装平行度,光心对准,相机校准,水平或垂直视差的retification对准,多图匹配以及定位等难题。同时双目和多目的3D成像系统无法近距离拍摄合理视差的3D成像。还有采用双目摄像机不仅成本高昂,而且成像装置体积难以缩小,这限制了成像装置在某些场合的应用。
当然,最近随着成像技术的进步,也出现了不少采用单目摄像装置实现3D拍摄的,有些是通过单目摄像机产生位移来模拟双目摄像机实现3D拍摄,另外一些是通过内部复杂的光学结构设计实现3D拍摄,如对比文件1(CN103415807A)公开一种能够拍摄良好的3D图像的单目立体图像拍摄装置。3D图像拍摄装置包括:单目摄影透镜12;第一和第二固态成像设备30、33,该第一和第二固态成像设备30、33经由平行的摄影透镜12接收来自被摄体的入射光的一个部分和另一个部分;光分割部件24,该光分割部件24使用垂直于光轴延伸的边界区域将入射光分割成入射光的一个部分和另一个部分,并且使得入射光的一个部分和另一个部分相应地进入第一和第二固态成像设备30、33;视差分离部件23,该视差分离部件23防止入射光的进入边界区域的部分进入第一和第二固态成像设备30、33;以及图像处理单元41,该图像处理单元41通过对第一和第二固态成像设备30、33的相应的输出信号执行图像处理而产生被摄体的3D图像数据。然而对比文件1虽然入光是由一个摄影透镜12来实现,然而仍需两个固态成像设备30、33才能实现立体成像,结构复杂,需要较多的分光器件和图像传感器,由于分光器件较多实际中较难实现准确分光,其设置多个反射镜,光学对准安装困难。更进一步地,通光量少,导致成像质量差。
基于此,有必要提供一种新的立体成像方法和装置,用以解决现有技术的单目3D摄像机存在的技术问题。
发明内容
有鉴于此,本发明提供一种立体成像方法及立体成像装置,用于解决现有技术中的3D摄像机装置存在的结构复杂、繁杂的图像处理等问题。
本发明提供一种立体成像方法,所述立体成像方法包括以下步骤:S1控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;S2依据所述场景深度分布图,获取所述场景的视差偏移量;S3依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;S4依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
较佳地,所述步骤S2包括以下步骤:
S21依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
S22获取所述物距分布范围;
S23依据所述物距分布范围,计算所述视差偏移量。
较佳地,所述步骤S3包括以下步骤:
S31依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
S32依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
S33获取所述感兴趣区域的对焦图像;
S34获取所述可变焦透镜单元处于非透镜状态下的参考图像;
S35对所述对焦图像与所述参考图像进行图像处理,生成所述立体图像的第一图像。
较佳地,所述步骤S4进一步包括:
S41依据场景深度分布图,获取所述场景的最大深度值和最小深度值;
S42根据预设视差范围、所述最大深度值和最小深度值,获取零视差面的深度值;
S43根据图像中每一像素的深度信息,场景的零视差面的深度值、最大深度值和最小深度值以及预设视差范围,计算对应各像素的视差偏移量;
S44根据图像中各像素的视差偏移量和立体图像的第一图像,生成立体图像的第二图像。
较佳地,所述步骤S42中获取零视差面的深度值的计算公式如下:
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值。
较佳地,所述步骤S43中计算对应各像素的视差偏移量时采用以下公式:
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
本发明提供一种立体成像装置,所述立体成像装置包括:
场景深度分布图获取单元,用于控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;
视差偏移量获取单元,用于依据所述场景深度分布图,获取所述场景的视差偏移量;
第一图像生成单元,用于依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;
第二图像生成单元,用于依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
较佳地,所述视差偏移量获取单元包括:
映射关系建立模块,用于依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
物距分布范围获取模块,用于获取所述物距分布范围;
计算模块,用于依据所述物距分布范围,计算所述视差偏移量。
较佳地,所述第一图像生成单元包括:
感兴趣区域场景深度信息获取模块,用于依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
对焦电压输出模块,用于依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
对焦图像获取模块,用于获取所述感兴趣区域的对焦图像;
参考图像获取模块,用于获取所述可变焦透镜单元处于非透镜状态下的参考图像;
第一图像生成模块,用于对所述对焦图像与所述参考图像进行图像处理,生成所述第一图像。
较佳地,所述第二图像生成单元包括:
深度极值获取模块,用于依据场景深度分布图,获取所述场景的最大深度值和最小深度值;
零视差面深度值获取模块,用于根据预设视差范围、所述最大深度值和最小深度值,获取零视差面的深度值;
视差偏移量计算模块,用于根据图像中每一像素的深度信息,场景的零视差面的深度值、最大深度值和最小深度值以及预设视差范围,计算对应各像素的视差偏移量;
立体图像的第二图像生成模块,用于根据图像中各像素的视差偏移量和立体图像的第一图像,生成立体图像的第二图像。
较佳地,获取零视差面的深度值的计算公式如下:
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值;
计算对应各像素的视差偏移量时采用以下公式:
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
本发明还提供一种立体成像装置,所述立体成像装置包括:
主透镜;
图像传感器,用于将光学信号转换为电信号;
可变焦透镜单元,设于所述主透镜与所述图像传感器之间;
图像处理器以及存储器;其中,所述图像处理器分别连接所述图像传感器、所述可变焦透镜单元以及所述存储器,调用所述存储器中存储的一段程序指令以执行如前所述的立体成像方法。
本发明的立体成像方法及立体成像装置,无需考虑成像设备的平整度,无垂直视差,也无需进行繁琐的左右图匹配处理,立体成像简单便捷。
附图说明
图1为本发明较佳实施方式的立体成像方法的流程示意图。
图2为图1中步骤S2的流程示意图。
图3为图1中步骤S3的流程示意图。
图4a为视差随物距变化的几何关系示意图。
图4b为图1中步骤S4的流程示意图。
图5为本发明一较佳实施方式的立体成像装置的结构示意图。
图6为图5中视差偏移量获取单元的详细结构示意图。
图7为图5中第一图像生成单元的详细结构示意图。
图8为图5中第二图像生成单元的详细结构示意图。
图9为本发明另一较佳实施方式的立体成像装置的结构示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。需要说明的是,如果不冲突,本发明实施例以及实施例中的各个特征可以相互结合,均在本发明的保护范围之内。
请参见图1,图1为本发明较佳实施方式的立体成像方法的流程示意图。如图1所示,本发明的立体成像方法主要包括以下步骤:
S1控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;这里的可变焦透镜单元包括液晶透镜、液体透镜等电驱动的透镜。具体来说,上述获取场景深度分布图的方法可以通过以下步骤实现:
S11驱动一可变焦透镜单元在至少两个光焦度下对同一场景获取至少两幅图像,各幅图像的放大率相同;在这里,主要是分成至少两个时刻,每一时刻分别对可变焦透镜单元施加驱动电压,在驱动电压所对应的光焦度下获取同一场景的图像,而且由于可变焦透镜单元是采用电控制可变焦透镜单元的梯度折射率变化,进而实现焦距变化,因而像距是不变的,可以保证各幅图像的放大率不会发生变化。当然这里的至少两幅图像是指最少采集到两幅图像就可实现场景相对深度的测量,当然要保证场景的相对深度分布的准确性,可以采集3幅及以上的图像,此时只需用多个时刻施加不同的驱动电压至可变焦透镜单元,使其在相应的多个光焦度下获取相应的多幅图像。
S12分别获取每幅图像的相对散焦度值或聚焦度值;这里可以依据弥散圆的计算公式来获取每幅图像的相对散焦度值或聚焦度值。公式如下:
R=qD/2=s*D*[1/f–1/u–1/s]/2
式中,R为弥散圆半径,D是含有该可变焦透镜单元的透镜系统的光阑,s表示像距,f表示焦距,u表示物距。当R接近或等于0时,表示汇聚为一个点,此时可认为处于完全聚焦状态。
S13通过DFD算法或DFF算法获取所述场景的场景深度分布图。这里的DFD算法是指离焦深度法(Depth from Defocus,简称DFD),是图像处理中一种常见的测量场景深度的算法。DFF算法是指聚焦深度法(Depth from focus,简称DFF)是图像处理中另一种常见的测量场景深度的算法。
S2依据所述场景深度分布图,获取所述场景的视差偏移量;
S3依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;
S4依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
本发明的立体成像方法,通过可变焦透镜单元获取场景深度分布图之后,然后计算出视差偏移量,拍摄场景时只需获取构成立体图像的第一图像(例如为左图),然后再结合视差偏移量得到构成立体图像的第二图像(例如为右图),无需考虑成像设备的平整度,无垂直视差,也无需进行繁琐的左右图匹配处理,立体成像简单便捷。
请参见图2,图2为图1中步骤S2的流程示意图。所述步骤S2包括以下步骤:
S21依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
S22获取所述物距分布范围;
S23依据所述物距分布范围,计算所述视差偏移量。
请参见图3,图3为图1中步骤S3的流程示意图。如图3所示,所述步骤S3包括以下步骤:
S31依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
S32依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
S33获取所述感兴趣区域的对焦图像;
S34获取所述可变焦透镜单元处于非透镜状态下的参考图像;
S35对所述对焦图像与所述参考图像进行图像处理,生成所述立体图像的第一图像。这里主要是立体成像装置中不需要采用偏光片,具体主要采用以下方法实现:
S351提取光焦度为0时对应的图像作为参考图像I0
S352对每一图像按照以下方式进行处理:H2n+1=(I2n+1–γI0)/(1-γ),其中,H2n+1表示处理后获得的图像,I2n+1表示在某一光焦度下获取的图像,γ为偏振态异向因子,表征未被所述可变焦透镜单元调制的偏振光分量在入射光中所占的比例。
请参见图4a和4b,图4a为视差随物距变化的几何关系示意图,图4b为图1中步骤S4的流程示意图。如图4a与图4b所示,所述步骤S4进一步包括:
S41依据场景深度分布图,获取所述场景的最大深度值Dmax(这里以图4a中的D1取最大值)和最小深度值Dmin(这里以图4a中的D2取最小值);这个场景深度分布图可依据现有技术中的深度信息同物距D(x,y)之间的关系D(x,y)=function(depth(x,y))获得。
S42根据预设视差范围[d2,d1]、所述最大深度值Dmax和最小深度值Dmin,获取零视差面的深度值D0;这里的预设视差范围可以依据用户需要来设定,较佳的设定是d2取负视差值,即d2<0,而d1取正视差值,即d1>0。
S43根据图像中每一像素的深度信息D,场景的零视差面的深度值D0、最大深度值Dmax和最小深度值Dmin以及预设视差范围,计算对应各像素的视差偏移量d。视差偏移量的集合h:
d(x,y)∈h,0≤x<ImageWidth;0≤y<ImageHeight
上述公式中,ImageWidth表示图像宽度,ImageHeight表示图像高度。
S44根据图像中各像素的视差偏移量d和立体图像的第一图像,生成立体图像的第二图像。这里第二图像为3d成像的右图:
IR(x,y)=Ipif(x+d(x,y),y),0≤x+d(x,y)<ImageWidth
结合图4a,所述步骤S42中获取零视差面的深度值通过计算公式推导如下:
得出零视差面的深度值D0
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值。
结合图4a,所述步骤S43中计算对应各像素的视差偏移量时采用以下公式:
由此得出,视差偏移量d
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
请参见图5,图5为本发明一较佳实施方式的立体成像装置的结构示意图。如图5所示,本发明提供一种立体成像装置,所述立体成像装置包括:
场景深度分布图获取单元100,用于控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;
视差偏移量获取单元200,用于依据所述场景深度分布图,获取所述场景的视差偏移量;
第一图像生成单元300,用于依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;
第二图像生成单元400,用于依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
本发明的立体成像装置,通过可变焦透镜单元获取场景深度分布图之后,然后计算出视差偏移量,拍摄场景时只需获取构成立体图像的第一图像(例如为左图),然后再结合视差偏移量得到构成立体图像的第二图像(例如为右图),无需考虑成像设备的平整度,无垂直视差,也无需进行繁琐的左右图匹配处理,立体成像简单便捷。
请参见图6,图6为图5中视差偏移量获取单元的详细结构示意图。如图6所示,所述视差偏移量获取单元200包括:
映射关系建立模块210,用于依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
物距分布范围获取模块220,用于获取所述物距分布范围;
计算模块230,用于依据所述物距分布范围,计算所述视差偏移量。
请参见图7,图7为图5中第一图像生成单元的详细结构示意图。如图7所示,所述第一图像生成单元300包括:
感兴趣区域场景深度信息获取模块310,用于依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
对焦电压输出模块320,用于依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
对焦图像获取模块330,用于获取所述感兴趣区域的对焦图像;
参考图像获取模块340,用于获取所述可变焦透镜单元处于非透镜状态下的参考图像;
第一图像生成模块350,用于对所述对焦图像与所述参考图像进行图像处理,生成所述第一图像。
请参见图8,图8为图5中第二图像生成单元的详细结构示意图。如图8所示,所述第二图像生成单元400包括:
深度极值获取模块410,用于依据场景深度分布图,获取所述场景的最大深度值和最小深度值;
零视差面深度值获取模块420,用于根据预设视差范围、所述最大深度值和最小深度值,获取零视差面的深度值;
视差偏移量计算模块430,用于根据图像中每一像素的深度信息,场景的零视差面的深度值、最大深度值和最小深度值以及预设视差范围,计算对应各像素的视差偏移量;
立体图像的第二图像生成模块440,用于根据图像中各像素的视差偏移量和立体图像的第一图像,生成立体图像的第二图像。
较佳地,获取零视差面的深度值的计算公式如下:
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值;
计算对应各像素的视差偏移量时采用以下公式:
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
请参见图9,图9为本发明另一较佳实施方式的立体成像装置的结构示意图。如图9所示,本发明还提供一种立体成像装置,所述立体成像装置包括:
主透镜10;
图像传感器30,用于将光学信号转换为电信号;
可变焦透镜单元20,设于所述主透镜10与所述图像传感器30之间;
图像处理器40以及存储器50;其中,所述图像处理器40分别连接所述图像传感器30、所述可变焦透镜单元20以及所述存储器50,调用所述存储器50中存储的一段程序指令以执行如前所述的立体成像方法,该立体成像方法主要描述如下:
S1控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;这里的可变焦透镜单元包括液晶透镜、液体透镜等电驱动的透镜。
S2依据所述场景深度分布图,获取所述场景的视差偏移量;
S3依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;
S4依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
本发明的立体成像装置,通过可变焦透镜单元获取场景深度分布图之后,然后计算出视差偏移量,拍摄场景时只需获取构成立体图像的第一图像(例如为左图),然后再结合视差偏移量得到构成立体图像的第二图像(例如为右图),无需考虑成像设备的平整度,无垂直视差,也无需进行繁琐的左右图匹配处理,立体成像简单便捷。
其中,所述步骤S2包括以下步骤:
S21依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
S22获取所述物距分布范围;
S23依据所述物距分布范围,计算所述视差偏移量。
其中,所述步骤S3主要包括以下步骤:
S31依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
S32依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
S33获取所述感兴趣区域的对焦图像;
S34获取所述可变焦透镜单元处于非透镜状态下的参考图像;
S35对所述对焦图像与所述参考图像进行图像处理,生成所述立体图像的第一图像。
其中,所述步骤S4进一步包括:
S41依据场景深度分布图,获取所述场景的最大深度值Dmax和最小深度值Dmin
S42根据预设视差范围[-d2,+d1]、所述最大深度值Dmax和最小深度值Dmin,获取零视差面的深度值D0
S43根据图像中每一像素的深度信息D,场景的零视差面的深度值D0、最大深度值Dmax和最小深度值Dmin以及预设视差范围,计算对应各像素的视差偏移量d。
S44根据图像中各像素的视差偏移量d和立体图像的第一图像,生成立体图像的第二图像。
在一个具体实施例中,所述步骤S42中获取零视差面的深度值的计算公式如下:
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值。
在一个具体实施例中,所述步骤S43中计算对应各像素的视差偏移量时采用以下公式:
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (12)

1.一种立体成像方法,其特征在于,所述立体成像方法包括以下步骤:
S1控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;
S2依据所述场景深度分布图,获取所述场景的视差偏移量;
S3依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;
S4依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
2.如权利要求1所述的立体成像方法,其特征在于,所述步骤S2包括以下步骤:
S21依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
S22获取所述物距分布范围;
S23依据所述物距分布范围,计算所述视差偏移量。
3.如权利要求2所述的立体成像方法,其特征在于,所述步骤S3包括以下步骤:
S31依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
S32依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
S33获取所述感兴趣区域的对焦图像;
S34获取所述可变焦透镜单元处于非透镜状态下的参考图像;
S35对所述对焦图像与所述参考图像进行图像处理,生成所述立体图像的第一图像。
4.如权利要求1至3任一项所述的立体成像方法,其特征在于,所述步骤S4进一步包括:
S41依据场景深度分布图,获取所述场景的最大深度值和最小深度值;
S42根据预设视差范围、所述最大深度值和最小深度值,获取零视差面的深度值;
S43根据图像中每一像素的深度信息,场景的零视差面的深度值、最大深度值和最小深度值以及预设视差范围,计算对应各像素的视差偏移量;
S44根据图像中各像素的视差偏移量和立体图像的第一图像,生成立体图像的第二图像。
5.如权利要求4所述的立体成像方法,其特征在于,所述步骤S42中获取零视差面的深度值的计算公式如下:
D 0 = d 1 D 2 - d 2 D 1 d 1 - d 2
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值。
6.如权利要求5所述的立体成像方法,其特征在于,所述步骤S43中计算对应各像素的视差偏移量时采用以下公式:
d = d 1 D 2 - d 2 D 1 - D ( d 1 - d 2 ) D 2 - D 1
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
7.一种立体成像装置,其特征在于,所述立体成像装置包括:
场景深度分布图获取单元,用于控制一可变焦透镜单元获取所要拍摄场景的场景深度分布图;
视差偏移量获取单元,用于依据所述场景深度分布图,获取所述场景的视差偏移量;
第一图像生成单元,用于依据所述场景深度分布图,控制所述可变焦透镜单元对所述场景的感兴趣区域进行对焦,经图像处理后生成立体图像的第一图像;
第二图像生成单元,用于依据所述视差偏移量与所述第一图像生成立体图像的第二图像。
8.如权利要求7所述的立体成像装置,其特征在于,所述视差偏移量获取单元包括:
映射关系建立模块,用于依据所述场景深度分布图,建立各场景深度与物距之间的一一映射关系,其中,所述物距为所述可变焦透镜单元到所述场景中物体的距离;
物距分布范围获取模块,用于获取所述物距分布范围;
计算模块,用于依据所述物距分布范围,计算所述视差偏移量。
9.如权利要求8所述的立体成像装置,其特征在于,所述第一图像生成单元包括:
感兴趣区域场景深度信息获取模块,用于依据所述场景深度分布图,控制所述可变焦透镜单元获取所述感兴趣区域的场景深度信息;
对焦电压输出模块,用于依据所述感兴趣区域的场景深度信息,输出所述感兴趣区域的对焦电压;
对焦图像获取模块,用于获取所述感兴趣区域的对焦图像;
参考图像获取模块,用于获取所述可变焦透镜单元处于非透镜状态下的参考图像;
第一图像生成模块,用于对所述对焦图像与所述参考图像进行图像处理,生成所述第一图像。
10.如权利要求7至10任一项所述的立体成像装置,其特征在于,所述第二图像生成单元包括:
深度极值获取模块,用于依据场景深度分布图,获取所述场景的最大深度值和最小深度值;
零视差面深度值获取模块,用于根据预设视差范围、所述最大深度值和最小深度值,获取零视差面的深度值;
视差偏移量计算模块,用于根据图像中每一像素的深度信息,场景的零视差面的深度值、最大深度值和最小深度值以及预设视差范围,计算对应各像素的视差偏移量;
立体图像的第二图像生成模块,用于根据图像中各像素的视差偏移量和立体图像的第一图像,生成立体图像的第二图像。
11.如权利要求10所述的立体成像装置,其特征在于,获取零视差面的深度值的计算公式如下:
D 0 = d 1 D 2 - d 2 D 1 d 1 - d 2
上式中,D0表示零视差面的深度值,D1表示场景中距离所述可变焦透镜单元最近的物体与所述可变焦透镜单元之间的最小距离,D2表示场景中距离所述可变焦透镜单元最远的物体与所述可变焦透镜单元之间的最大距离,d1表示预设视差范围内为正视差值,d2表示预设视差范围内为负视差值;
计算对应各像素的视差偏移量时采用以下公式:
d = d 1 D 2 - d 2 D 1 - D ( d 1 - d 2 ) D 2 - D 1
上式中,d表示各像素的视差偏移量,不同的像素之间视差偏移量d取决于相应像素的深度值。
12.一种立体成像装置,其特征在于,所述立体成像装置包括:
主透镜;
图像传感器,用于将光学信号转换为电信号;
可变焦透镜单元,设于所述主透镜与所述图像传感器之间;
图像处理器以及存储器;其中,所述图像处理器分别连接所述图像传感器、所述可变焦透镜单元以及所述存储器,调用所述存储器中存储的一段程序指令以执行如权利要求1至6任一项所述的立体成像方法。
CN201611028864.XA 2016-11-18 2016-11-18 立体成像方法及立体成像装置 Active CN106454318B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611028864.XA CN106454318B (zh) 2016-11-18 2016-11-18 立体成像方法及立体成像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611028864.XA CN106454318B (zh) 2016-11-18 2016-11-18 立体成像方法及立体成像装置

Publications (2)

Publication Number Publication Date
CN106454318A true CN106454318A (zh) 2017-02-22
CN106454318B CN106454318B (zh) 2020-03-13

Family

ID=58221566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611028864.XA Active CN106454318B (zh) 2016-11-18 2016-11-18 立体成像方法及立体成像装置

Country Status (1)

Country Link
CN (1) CN106454318B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107396082A (zh) * 2017-07-14 2017-11-24 歌尔股份有限公司 一种图像数据的处理方法和装置
CN108480239A (zh) * 2018-02-10 2018-09-04 浙江工业大学 基于立体视觉的工件快速分拣方法及装置
CN108701361A (zh) * 2017-11-30 2018-10-23 深圳市大疆创新科技有限公司 深度值确定方法和装置
CN109429055A (zh) * 2017-08-24 2019-03-05 阿里巴巴集团控股有限公司 图像展示、视频文件处理方法及装置
CN110419213A (zh) * 2017-10-31 2019-11-05 深圳市柔宇科技有限公司 3d图像拍摄方法及装置、拍摄终端及计算机可读存储介质
CN110536124A (zh) * 2018-05-24 2019-12-03 群创光电股份有限公司 显示装置及其操作方法
CN115866399A (zh) * 2023-02-28 2023-03-28 广东欧谱曼迪科技有限公司 一种3d内窥镜自动调焦方法、装置、电子设备及储存介质
CN115937291A (zh) * 2022-09-14 2023-04-07 北京字跳网络技术有限公司 一种双目图像的生成方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605271A (zh) * 2009-07-08 2009-12-16 无锡景象数字技术有限公司 一种基于单幅图像的2d转3d方法
US20120320160A1 (en) * 2011-06-17 2012-12-20 Valter Drazic Device for estimating the depth of elements of a 3d scene
CN102939763A (zh) * 2010-06-14 2013-02-20 高通股份有限公司 计算三维图像的视差
CN104639927A (zh) * 2013-11-11 2015-05-20 财团法人资讯工业策进会 拍摄立体影像的方法以及电子装置
CN105573008A (zh) * 2014-10-11 2016-05-11 深圳市墨克瑞光电子研究院 液晶透镜成像方法
CN106060358A (zh) * 2016-07-20 2016-10-26 成都微晶景泰科技有限公司 场景连续分析方法、设备及成像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605271A (zh) * 2009-07-08 2009-12-16 无锡景象数字技术有限公司 一种基于单幅图像的2d转3d方法
CN102939763A (zh) * 2010-06-14 2013-02-20 高通股份有限公司 计算三维图像的视差
US20120320160A1 (en) * 2011-06-17 2012-12-20 Valter Drazic Device for estimating the depth of elements of a 3d scene
CN104639927A (zh) * 2013-11-11 2015-05-20 财团法人资讯工业策进会 拍摄立体影像的方法以及电子装置
CN105573008A (zh) * 2014-10-11 2016-05-11 深圳市墨克瑞光电子研究院 液晶透镜成像方法
CN106060358A (zh) * 2016-07-20 2016-10-26 成都微晶景泰科技有限公司 场景连续分析方法、设备及成像装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107396082A (zh) * 2017-07-14 2017-11-24 歌尔股份有限公司 一种图像数据的处理方法和装置
CN107396082B (zh) * 2017-07-14 2020-04-21 歌尔股份有限公司 一种图像数据的处理方法和装置
CN109429055B (zh) * 2017-08-24 2021-02-23 阿里巴巴集团控股有限公司 图像展示、视频文件处理方法及装置
CN109429055A (zh) * 2017-08-24 2019-03-05 阿里巴巴集团控股有限公司 图像展示、视频文件处理方法及装置
CN110419213A (zh) * 2017-10-31 2019-11-05 深圳市柔宇科技有限公司 3d图像拍摄方法及装置、拍摄终端及计算机可读存储介质
CN108701361A (zh) * 2017-11-30 2018-10-23 深圳市大疆创新科技有限公司 深度值确定方法和装置
CN108480239A (zh) * 2018-02-10 2018-09-04 浙江工业大学 基于立体视觉的工件快速分拣方法及装置
CN108480239B (zh) * 2018-02-10 2019-10-18 浙江工业大学 基于立体视觉的工件快速分拣方法及装置
CN110536124A (zh) * 2018-05-24 2019-12-03 群创光电股份有限公司 显示装置及其操作方法
CN110536124B (zh) * 2018-05-24 2021-04-20 群创光电股份有限公司 显示装置及其操作方法
CN115937291A (zh) * 2022-09-14 2023-04-07 北京字跳网络技术有限公司 一种双目图像的生成方法、装置、电子设备及存储介质
CN115937291B (zh) * 2022-09-14 2023-12-15 北京字跳网络技术有限公司 一种双目图像的生成方法、装置、电子设备及存储介质
CN115866399A (zh) * 2023-02-28 2023-03-28 广东欧谱曼迪科技有限公司 一种3d内窥镜自动调焦方法、装置、电子设备及储存介质

Also Published As

Publication number Publication date
CN106454318B (zh) 2020-03-13

Similar Documents

Publication Publication Date Title
CN106454318A (zh) 立体成像方法及立体成像装置
EP2566150B1 (en) Image processing apparatus, image processing method, and program
CN108076286B (zh) 图像虚化方法、装置、移动终端和存储介质
CN103202027B (zh) 图像处理装置、图像处理程序、图像处理方法及存储介质
US9774880B2 (en) Depth-based video compression
US20110025830A1 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US20120026297A1 (en) Imaging apparatus and imaging method
CN105391932B (zh) 图像处理装置及其控制方法、以及摄像装置及其控制方法
CN107133982B (zh) 深度图构建方法、装置及拍摄设备、终端设备
KR20170005009A (ko) 3d 라돈 이미지의 생성 및 사용
CN101673395A (zh) 图像拼接方法及装置
JP7104296B2 (ja) 測距カメラ
WO2011014421A2 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
CN103733133A (zh) 摄像装置、其控制方法和程序
JP5614268B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2010068182A (ja) 3次元撮影装置および方法並びにプログラム
Kagawa et al. A three‐dimensional multifunctional compound‐eye endoscopic system with extended depth of field
JP7288226B2 (ja) 測距カメラ
CN103098480A (zh) 图像处理装置、三维摄像装置、图像处理方法、以及图像处理程序
KR20180048082A (ko) 집적영상 디스플레이의 화질 평가 장치 및 방법
JP2013145982A (ja) 撮像装置、画像処理装置及び方法
CN104469161A (zh) 图像处理方法以及电子设备
TW201514569A (zh) 一種立體調焦法及其系統
JP5822700B2 (ja) 画像撮影方法および画像撮影装置、プログラム
JP2022173069A (ja) 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240717

Address after: 610000 No. 16, floor 19, building 2, No. 88, Jitai fifth road, high tech Zone, Chengdu, Sichuan

Patentee after: Chengdu yeta Technology Co.,Ltd.

Country or region after: China

Address before: No. 508, 5th floor, 8 BAIHUATAN Road, Qingyang District, Chengdu, Sichuan 610000

Patentee before: CHENGDU MICROLCL TECHNOLOGY CO.,LTD.

Country or region before: China

TR01 Transfer of patent right