CN101959020B - 成像装置和成像方法 - Google Patents

成像装置和成像方法 Download PDF

Info

Publication number
CN101959020B
CN101959020B CN201010232975.9A CN201010232975A CN101959020B CN 101959020 B CN101959020 B CN 101959020B CN 201010232975 A CN201010232975 A CN 201010232975A CN 101959020 B CN101959020 B CN 101959020B
Authority
CN
China
Prior art keywords
optical system
image
district
visual point
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201010232975.9A
Other languages
English (en)
Other versions
CN101959020A (zh
Inventor
潘毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN101959020A publication Critical patent/CN101959020A/zh
Application granted granted Critical
Publication of CN101959020B publication Critical patent/CN101959020B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

本发明提供一种成像装置和成像方法。该成像方法包括:计算基准光学系统与调整目标光学系统之间的视差量;设定与由基准光学系统输出的第一视点图像相对应的成像条件评估区的坐标;基于与第一视点图像相对应的成像条件评估区的设定坐标,和基于所计算的视差量来计算与由调整目标光学系统输出的第二视点图像相对应的成像条件评估区的坐标;以及基于在设定坐标处的、与第一视点图像相对应的成像条件评估区中的图像数据,并基于在所计算的坐标处的、与第二视点图像相对应的成像条件评估区中的图像数据,来调整基准光学系统和调整目标光学系统的成像条件,并在已调整的成像条件下输出视点图像。

Description

成像装置和成像方法
技术领域
本公开主题涉及包括具有视差的多个光学系统的成像装置,更具体地,涉及防止所述多个光学系统之间的AF(自动调焦处理)处理或AE(自动曝光处理)处理的差异或使其最小化的技术。
背景技术
日本专利申请特许公开No.2005-173270公开了一种立体图像拍摄光学装置,其促使交替地对通过左右物镜光学系统形成的左右视差图像进行成像,并且能够通过旋转分别在左右物镜光学系统中设置的反射镜来调整左右物镜光学系统之间的会聚距离。所述立体图像拍摄光学装置包括具有自动对焦功能的自动对焦装置,和能够促使该自动对焦装置针对已交替地拍摄的左右视差图像中的每个图像进行操作的自动对焦装置。
日本专利申请特许公开No.8-194274公开了一种立体成像装置,其主要由以下各项构成:两个透镜系统,其获得用于左眼或右眼的成像信息;检测电路,其检测与透镜系统相关的焦点位置、眼睛方向角等;CPU(中央处理单元),其包括基于所检测的信息对两个透镜系统执行公共对象的焦点检测范围的运算的区域运算电路、距离运算电路等;以及用于调焦的照相机驱动电路,其执行在从所述运算获得的公共检测范围内的调焦。
日本专利申请特许公开No.2008-209760公开了点式曝光测光、加权平均测光、以及平均测光。点式曝光是用于仅以有限的方式在预定区域内执行测光的系统。加权平均测光是用于对预定区域进行加权并对所拍摄图像的屏幕的整个区域执行平均测光的系统。平均测光是用于在不对预定区域进行加权的情况下对所拍摄图像的屏幕的整个区域执行平均测光的系统。
日本专利申请特许公开No.2009-47498公开了一种用于检测立体照相机中的特征点和对应点的技术。
日本专利申请特许公开No.2009-282117公开了一种闪光灯调光的技术。
发明内容
在具有双目视差的立体成像装置中,如果在中心处设定对焦区域/测光区域,则由于双目视差,可能在左右透镜的对焦位置/曝光水平之间发生差异。为了解决此问题,在日本专利申请特许公开No.2005-173270和No.8-194274中,左右透镜的对焦位置相互一致。
在日本专利申请特许公开No.2005-173270中,在左右透镜中的每一个中执行AF,并将另一个对焦透镜设定到对焦位置之一,并从而防止AF对焦位置的不同。然而,对焦位置可能存在于除立体可视区域之外的区域中。在这种情况下,不能获得适当的立体图像。
在日本专利申请特许公开No.8-194274中,即使对焦位置在立体可视区域之外,会聚角也改变,因此可以容易地在对焦位置处执行立体观察。然而,用于改变此会聚角的机制是复杂的。结果,成像装置变得巨大,这提高了成本。
本公开主题的目的是提供一种紧凑且廉价的立体成像装置,其中,防止诸如为左右成像单元设定的对焦位置/曝光水平等成像条件之间的差异或使其最小化,以便获得良好的立体效果。
本公开主题提供了一种成像装置,包括:成像单元,其被配置为通过成像元件对分别经由基准光学系统和调整目标光学系统形成的对象图像进行光电转换,并输出用于左眼和右眼的视点图像;视差量计算单元,其被配置为用于计算基准光学系统与调整目标光学系统之间的视差量;设定单元,其被配置为用于设定与由基准光学系统输出的第一视点图像相对应的成像条件评估区的坐标;计算单元,其被配置为基于已由所述设定单元设定的、与来自基准光学系统的第一视点图像相对应的成像条件评估区的坐标,和基于由所述视差量计算单元计算的视差量,计算与由调整目标光学系统输出的第二视点图像相对应的成像条件评估区的坐标;以及控制单元,其被配置为在基于由所述设定单元设定的坐标处的、与来自基准光学系统的视点图像相对应的成像条件评估区中的图像数据,和基于在由所述计算单元计算的坐标处的、与来自调整目标光学系统的视点图像相对应的成像条件评估区中的图像数据,调整基准光学系统和调整目标光学系统的成像条件,并控制所述成像单元在已调整成像条件下输出左右视点图像。
优选地,所述成像条件评估区包括对焦评估值计算区。
优选地,包括基准光学系统对焦控制单元,在改变基准光学系统的焦点位置时,其被配置为在由基准光学系统输出的第一视点图像中,检测在其处位于由所述设定单元设定的坐标处的对焦评估值计算区中的对比度变成局部最大的对焦位置,并将基准光学系统的焦点位置移动至所检测的对焦位置;以及调整目标光学系统对焦控制单元,在改变调整目标光学系统的焦点位置时,其被配置为在由调整目标光学系统输出的第二视点图像中,检测在其处位于由所述计算单元计算的坐标处的对焦评估值计算区中的对比度变成局部最大的对焦位置,并使调整目标光学系统的焦点位置移动至所检测的对焦位置。
优选地,所述成像条件评估区包括对象亮度计算区。
优选地,包括基准光学系统曝光控制单元,其被配置为控制基准光学系统的曝光,以便在由所述基准光学系统输出的第一视点图像中,从位于由所述设定单元设定的坐标处的对象亮度计算区所检测的对象亮度变得适当;以及调整目标光学系统曝光控制单元,其被配置为控制调整目标光学系统的曝光,以便在由所述调整目标光学系统输出的第二视点图像中,从位于由所述计算单元计算的坐标处的对象亮度计算区所检测的对象亮度变得适当。
优选地,包括基准光学系统曝光控制单元,其被配置为用于控制基准光学系统的曝光,以便在由所述基准光学系统输出的第一视点图像中,从包括多个划分区的对象亮度计算区的各个划分区所检测的对象亮度的平均加权变得适当,所述多个划分区利用由所述设定单元设定的坐标为中心被加权;以及调整目标光学系统曝光控制单元,其被配置为控制所述调整目标光学系统的曝光,以便在由所述调整目标光学系统输出的第二视点图像中,从包括多个划分区的对象亮度计算区的各个划分区所检测的对象亮度的平均加权变得适当,所述多个划分区利用由所述计算单元计算的坐标为中心被加权。
优选地,所述成像条件评估区包括调光用亮度计算区。
优选地,所述视差量计算单元基于连接特征点和对应点的视差矢量来计算所述基准光学系统与所述调整目标光学系统之间的所述视差量,所述特征点是从坐标已由所述设定单元设定且对应于所述基准光学系统的所述成像条件评估区所检测的,且所述对应点在来自所述调整目标光学系统的视点图像中,与所述特征点相对应。
优选地,所述视差量计算单元根据交叉点调整量、自动视差调整量和手动视差调整量中的至少一个来计算视差量。
优选地,包括立体图像输出单元,其被配置为基于由所述成像单元输出的左右视点图像来输出立体图像。
本公开主题提供了一种成像方法,其中,成像装置包括成像单元,所述成像单元被配置为通过成像元件对分别经由基准光学系统和调整目标光学系统形成的对象图像进行光电转换,并输出用于左眼和右眼的视点图像,该成像方法执行步骤:计算基准光学系统与调整目标光学系统之间的视差量;设定与由基准光学系统输出的第一视点图像相对应的成像条件评估区的坐标;基于与由基准光学图像输出的第一视点图像相对应的成像条件评估区的设定坐标,和基于所计算的视差量,计算与由调整目标光学系统输出的第二视点图像相对应的成像条件评估区的坐标;以及基于在设定坐标处的、与由基准光学系统输出的第一视点图像相对应的成像条件评估区中的图像数据,和基于在所计算的坐标处的、与由调整目标光学系统输出的第二视点图像相对应的成像条件评估区中的图像数据,调整基准光学系统和调整目标光学系统的成像条件,并控制所述成像单元在已调整成像条件下输出左右视点图像。
本公开主题提供了一种包括存储在其上的指令的计算机可读记录介质,使得当由处理器读取并执行指令时,该处理器被配置为执行以下步骤:计算基准光学系统与调整目标光学系统之间的视差量;设定与由基准光学系统输出的第一视点图像相对应的成像条件评估区的坐标;基于与由基准光学图像输出的第一视点图像相对应的成像条件评估区的设定坐标,和基于所计算的视差量,计算与由调整目标光学系统输出的第二视点图像相对应的成像条件评估区的坐标;基于在设定坐标处的、与由基准光学系统输出的第一视点图像相对应的成像条件评估区中的图像数据,和基于在所计算的坐标处的、与由调整目标光学系统输出的第二视点图像相对应的成像条件评估区中的图像数据,调整基准光学系统和调整目标光学系统的成像条件,并在已调整成像条件下输出视点图像。
根据本公开主题,可以防止多个成像光学系统之间的成像条件评估中的差异(例如,对焦位置的差异或曝光控制的差异)或使其最小化,并可以输出良好的立体图像。
附图说明
图1是照相机的正面透视图;
图2是根据第一实施例的照相机的框图;
图3A和3B是图示第一和第二图像数据的示例的图;
图4是示意性地图示最终视差矢量(Δx,Δy)的计算的图;
图5是示意性地图示AF评估区域中的中心坐标(X+Δx、Y+Δy)的计算的图;
图6是图示第一图像拍摄光学系统1a与第二图像拍摄光学系统1b之间的视差的示例的图;
图7A和图7B分别是图示其中第一图像拍摄光学系统1a已经对焦在对象SB1上,第二图像拍摄光学系统1b已经对焦在对象SB2上,且对象处于不同距离的示例的图;
图8是根据第一实施例的图像拍摄处理的流程图;
图9A和9B是图示AF评估区域R1-L和R1-R的示例的图;
图10是根据第二实施例的照相机的框图;
图11是根据第二实施例的图像拍摄处理的流程图;
图12A和12B是图示点式测光区域R2-L和R2-R的示例的图;
图13是示意性地图示点式测光区域中的中心坐标(X+Δx,Y+Δy)的计算的图;
图14是根据第三实施例的照相机的框图;
图15是根据第三实施例的图像拍摄处理的流程图;
图16是图示第二图像数据的小区域和加权中心坐标(X,Y)的示例的图;
图17是图示第二图像数据的每个小区域的权重的示例的图;
图18A和18B是示意性地图示加权中心坐标(X+Δx,Y+Δy)的计算的图;
图19是图示在第一图像数据中设定的加权中心坐标(x+Δx,Y+Δy)和第一图像数据的小区域的示例的图;
图20是第一图像数据的每个小区域的权重的示例的图;
图21是根据第四实施例的照相机的框图;
图22是根据第四实施例的图像拍摄处理的流程图;
图23A和23B是图示闪光灯调光区域的示例的图;
图24是示意性地图示点式测光区域中的中心坐标(X+Δx,Y+Δy)的计算的图;
图25是根据第五实施例的照相机的框图;
图26是根据第五实施例的图像拍摄处理的流程图;
图27是第二图像数据的小区域和加权中心坐标(X,Y)的示例的图;
图28是图示第二图像数据的每个小区域的权重的示例的图;
图29是示意性地图示加权中心坐标(X+Δx,Y+Δy)的计算的图;
图30是图示在第一图像数据中设定的加权中心坐标(X+Δx,Y+Δy)和第一图像数据的小区域的示例的图;以及
图31是图示第一图像数据的每个小区域的权重的示例的图。
具体实施方式
<第一实施例>
图1图示照相机2的正面透视图。在图1中,在照相机2的前表面上,嵌入了包括第一图像拍摄光学系统1a的第一透镜镜筒4a,和包括第二图像拍摄光学系统1b的第二透镜镜筒4b。另外,闪光灯5等被暴露在照相机2的前表面上。沿水平方向以规则的间隔并排地设置第一和第二透镜镜筒4a和4b,并且其在图像拍摄模式时从照相机主体3向前延伸,并且在关闭电源时或在图像再现模式时被包含在照相机主体3中。此外,在照相机2的上表面上,设置有用于快门释放操作的快门按钮6。
在照相机2的后表面上(未示出),设置有包括变焦按钮、菜单按钮、和光标按钮的操作单元10,以及监视器11。根据操作单元10的适当操作,执行电源开/关、在包括图像拍摄模式和图像再现模式的各种模式之间切换、变焦等等。监视器11是视差屏障系统(稍后描述)或是其中在监视器11的屏幕上设置双凸透镜的双凸透镜系统的三维(3D)监视器,并在拍摄图像时充当电子取景器,且在再现图像时充当图像再现监视器。这里,监视器11的系统不限于视差屏障系统或双凸透镜系统,而是可以采用其它系统,例如,时分系统或偏振滤光器系统。
图2图示照相机2的电气配置。第一图像拍摄光学系统1a包括:第一可变放大倍率透镜21、第一对焦透镜22、和第一光圈23,其沿着透镜光轴L1布置。由包括直流电动机和驱动器的第一可变放大倍率透镜控制单元(Z透镜控制单元)24来驱动第一可变放大倍率透镜21。由包括直流电动机和驱动器的第一对焦透镜控制单元(F透镜控制单元)25来驱动第一对焦透镜22。由包括直流电动机和驱动器的第一光圈控制单元26来驱动第一光圈23。由主CPU(中央处理单元)40(在下文中简单地表示为“CPU 40”)来控制控制单元24至26的操作。
响应于向操作单元10的变焦按钮(然而,还可以是环状控制部件而不是变焦按钮)输入指示长焦或广角的变焦方向信息的操作,第一可变放大倍率透镜控制单元24使第一可变放大倍率透镜21从作为起点的原始位置沿着透镜光轴L1移动到长焦侧(伸出侧)/广角侧(收缩侧),并改变焦距(图像拍摄放大倍率)。当第一可变放大倍率透镜21移动至长焦侧时,焦距变成长焦距,且图像拍摄范围变小。当第一可变放大倍率透镜21移动到广角侧时,焦距变成短焦距,且图像拍摄范围变大。
对焦透镜控制单元25使第一对焦透镜22沿着透镜光轴L1移动,并执行调焦。随着第一可变放大倍率透镜21的移动自动地调整第一对焦透镜22的位置,因此对焦没有发生移位。假设可以以定相方式从操作单元10输入变焦放大倍率(变焦相位)Z1、Z2、...、Zn。虽然相位的数目“n”是任意的,但Z1对应于广角端,且Zn对应于长焦端。
从变焦按钮设定的目标变焦方向被输出到CPU 40。CPU 40根据目标变焦方向来设定目标变焦位置。如果目标变焦方向是长焦方向,则将在长焦方向的一侧离第一可变放大倍率透镜21的当前位置最近的变焦相位设定为目标变焦位置,并且如果目标变焦方向是广角方向,则将在广角方向的一侧离当前第一可变放大倍率透镜21最近的变焦相位设定为目标变焦位置。CPU 40将目标变焦位置转换成到第一可变放大倍率透镜21的目标停止位置的脉冲数目,并促使第一可变放大倍率透镜控制单元24根据脉冲数目来执行驱动。应注意的是脉冲数目“0”对应于原始位置。
第一图像传感器28在光接收元件中接收被对象反射的光(对象光),并根据接收到的光的量来积聚光电荷,其中,所述对象的图像已由第一可变放大倍率透镜21和第一对焦透镜22形成。在第一图像传感器28中,由从定时发生器20(TG:定时发生器)周期性地输入的定时信号(时钟脉冲)来控制光电荷积聚和转移操作,并且在图像拍摄模式时,在每个预定时间段获得用于一个屏幕的图像信号,并将其连续地输入到第一模拟信号处理单元27。应注意的是,使用CCD(电荷耦合器件)型或MOS(金属氧化物半导体)型的固态成像装置作为第一图像传感器28。
第一模拟信号处理单元27接收已从第一图像传感器28输入的用于一个屏幕的成像信号,将精确地对应于每个光接收元件中的积聚电荷量的R(红色)、G(绿色)和B(蓝色)图像数据放大,并将该数据输入到第一A/D(模数)转换器29。第一A/D转换器29将输入图像数据从模拟的转换成数字的。来自图像传感器28的成像信号经由第一模拟信号处理单元27和第一A/D转换器29而变成第一图像数据(用于右眼的图像数据)。
第二图像拍摄光学系统1b具有与第一图像拍摄光学系统1a相同的配置,并且包括由第二可变放大倍率透镜控制单元34驱动的第二可变放大倍率透镜31、由第二对焦透镜控制单元36驱动的第二对焦透镜32、以及由第二光圈控制单元37驱动的第二光圈38。由CPU 40来控制各个控制单元34、36和37的操作。
应注意的是,在第二图像拍摄光学系统1b中,使用与第一图像拍摄光学系统1a的每个部件相同性质的每个部件。此外,第一图像拍摄光学系统1a和第二图像拍摄光学系统1b基本上是同步的,并相互一起工作以执行成像操作,同时,每个图像拍摄光学系统可以单独地操作以便改善控制速度等。左右光学系统中的任何一个可以变成第一图像拍摄光学系统1a或第二图像拍摄光学系统1b,并且两者在技术上是可互换的。为了方便解释,将基准成像单元假设为在左侧的第二图像拍摄光学系统1b,并将调整目标成像单元假设为在右侧的第一图像拍摄光学系统1a,虽然两者可以互换。
第二模拟信号处理单元35和第二A/D转换器39分别具有与第一模拟信号处理单元和A/D转换器29相同的配置。来自第二图像传感器33的成像信号经由第二模拟信号处理单元35和第二A/D转换器39而变成第二图像数据(用于左眼的图像数据)。
从第一和第二A/D转换器29和39输出的第一和第二图像数据分别经由图像输入控制器39a和39b而输入到数字信号处理单元41和42。数字信号处理单元41和42向第一和第二图像数据中的每一个应用各种图像处理,诸如色调修正、白平衡修正和γ修正处理。已由数字信号处理单元41处理并在每个预定的时间段输出的第一图像数据被输入到VRAM(视频随机存取存储器)43。已由数字信号处理单元42处理并在每个预定的时间段输出的第二图像数据被输入到VRAM43。
VRAM 43是暂时存储第一和第二图像数据的工作存储器。应注意的是,如果在第一和第二图像数据已被存储在VRAM 43中的状态下,在下一个时间段,第一和第二图像数据被输入到VRAM 43,则用新输入的第一和第二图像数据覆写已存储的第一和第二图像数据。将在VRAM 43中在每个预定时间段处被反复地覆写和更新的第一和第二图像数据称为“即时取景图像(即时预览图像,直通图像(throughimages))”。
三维(3D)图像生成单元45将存储在VRAM 43中的第一和第二图像数据合成,作为用于由监视器11执行立体显示的立体图像数据。当在图像拍摄模式时使用监视器11作为电子取景器时,显示控制单元56促使由3D图像生成单元45合成的立体图像数据作为直通图像而被显示在监视器11上。
下面将描述对所拍摄图像的记录。分别由模拟信号处理单元27和35来处理在已经将快门按钮6按下的定时处,使用第一图像拍摄光学系统1a和第二图像拍摄光学系统1b而已经捕捉的图像,并随后由A/D 29和39将其转换成数字信号,并分别经由图像输入控制器39a和39b而输入到数字信号处理单元41和42。数字信号处理单元41和42向第一和第二图像数据中的每一个应用各种图像处理,诸如色调修正、白平衡修正和γ修正处理。已被数字信号处理单元41和42处理并输出的第一和第二图像数据被记录在SDRAM(同步动态随机存取存储器)52中。压缩/扩展处理单元47以诸如JPEG(联合图像专家组)系统等的压缩格式,对存储的第一和第二图像数据应用压缩处理。SDRAM 52被用作此压缩处理所需的临时存储区。媒体控制单元48使被应用了由压缩/扩展处理单元47进行的压缩处理的每个图像数据被记录在存储卡49中。
如果在监视器11上再现并显示以此方式而被记录在存储卡49中的第一和第二图像数据,则通过媒体控制单元48读取记录在存储卡49中的每个图像数据。被应用了通过压缩/扩展处理单元47进行的扩展处理的每个图像数据被3D图像生成单元45转换成立体图像数据,并随后经由显示控制单元56而在监视器11上再现和显示。
虽然未示出监视器11的详细结构,但监视器11在其表面上包括视差屏障显示层。在监视器11中,在视差屏障显示层上生成包括如下图案的视场屏障,在所述图案中,以预定的节距交替地布置光透射部分和光阻挡部分,并且,在作为监视器11的较低层的图像显示表面上,交替地布置和显示表示左右图像的条状图像片段。然后,视场屏障允许左眼和右眼分别看用于左眼的图像(左眼图像)和用于右眼的图像(右眼图像),因此,观看者能够获得图像的立体效果的感觉。监视器11的系统不限于视差屏障系统,并且可以使用能够实现类似功能的另一系统。
CPU 40以集成的方式控制照相机2的整体操作。控制闪光灯5的发光的闪光灯控制单元72和操作单元10被连接到CPU 40。此外,闪速ROM(只读存储器)50被连接到CPU 40。虽然闪速ROM 50是能够电重写数据的非易失性存储器,但闪速ROM 50能够存储任何数据,只要存在空闲空间即可。
ROM 51存储用于由CPU 40执行各种处理的控制程序。时钟单元70对当前时间进行计数,并将当前时间输出到CPU 40。姿态检测传感器71在CPU 40所指示的定时处,例如,快门按钮被半按的时间点处,检测指示照相机2是水平放置还是垂直放置的图像拍摄姿态,并将检测结果输出到CPU 40。当电源控制单元80感测响应于包括在操作单元10中的电源开关的开启(ON)或关闭(OFF)操作而从CPU 40发出的电源ON信号或OFF信号时,电源控制单元80进行控制,以开启或关闭从电池81提供给照相机2中的每个块的电源。
AF检测单元44分别根据存储在VRAM 43中的第一图像数据和第二图像数据来计算第一AF评估值和第二AF评估值。通过对每个图像数据中关于由CPU 40指定的区域(例如中心部分)的亮度值的高频分量求积分来计算第一AF评估值和第二AF评估值,并且其表示图像的锐度。第一和第二AF评估值随着AF更接近于焦点而变大,并在AF在焦点上时变成最大值。
AE/AWB(自动曝光/自动白平衡修正)检测单元73基于存储在VRAM 43中的第一图像数据和第二图像数据中的每一个来检测对象亮度(度量对象的明亮度),并将从第一图像数据和第二图像数据检测的对象亮度分别设定为第一测光值和第二测光值。此外,AE/AWB检测单元73基于存储在VRAM 43中的第一图像数据和第二图像数据中的每一个来检测第一WB(白平衡)值和第二WB值。计算曝光值的系统是任意的,并且其可以是点式曝光测光、加权平均测光、和平均测光中的任何一个。已经获得的第一和第二测光值、第一和第二WB值、以及第一和第二AF评估值被通知给CPU 40,并用于控制从第一图像拍摄光学系统1a和第二图像拍摄光学系统1b获得的图像信号的AE、AWB和AF。
CPU 40将定义测光值、光圈值、灵敏度和快门时间之间的相互对应关系的程序图从ROM 51读出到SDRAM 52,参照该程序图,并分别对光圈控制单元26和37,以及图像传感器28和33设定与已由AE/AWB检测单元73所检测的第一测光值和第二测光值相对应的光圈值和灵敏度,并执行曝光控制。
视差量计算单元82检测第一图像数据与第二图像数据之间的视差量。具体而言,首先,对于从基准成像单元获得的图像,在这里其为从第二图像拍摄光学系统1b获得的第二图像数据IMGL(参见图3A),视差量计算单元82从其中设定了中心坐标(X,Y)的预定形状和预定尺寸的AF评估区域R1-L的内部提取多个特征点(P1至P3)。虽然先前已设定了中心坐标(X,Y)并将其保存在ROM 51中,但能够根据来自CPU 40或操作单元10的指令来修改中心坐标(X,Y)。例如,中心坐标(X,Y)是图像数据的中心部分,然而,其不限于此。例如,CPU 40可以在来自基准成像单元的图像中执行诸如人脸检测等特定种类的对象检测,并且可以将所检测的对象的中心设定为中心坐标(X,Y)。此外,AF评估区域R的形状不限于矩形,并且可以是诸如圆形或椭圆形的其它形状。此外,AF评估区域R的尺寸也是任意的。
特征点(P1至P3)是沿多个方向具有强信号梯度的点(像素),并且例如,可以通过使用Harris(哈里斯)的方法或Shi-Tomasi(史-托马西)的方法来提取。随后,视差量计算单元82从第一图像数据(参见图3B)中提取对应点(C1至C3),其为第一图像数据IMGR上的点并对应于从第二图像数据IMGL提取的各个特征点(P1至P3)。可以与传统技术(例如,日本专利申请特许公开No.2009-47498)类似地执行用于检测特征点和对应点的方法。连接此特征点和对应点的线段是视差矢量。在图3A和3B中,存在多组特征点P1至P3和对应点C1至C3,并且对应于各组的视差矢量V1至V3被检测。
视差量计算单元82根据以下公式来计算最终视差矢量(Δx,Δy)。
Δx=OAC_CP_ADJH+OAC_AUTO_ADJH+OAC_USR_ADJH
Δy=OAC_CP_ADJV+OAC_AUTO_ADJV+OAC_USR_ADJV
这里,公式的参数如下,并且其具有对应于视差量的扩大或减小的符号。
OAC_CP_ADJH和OAC_CP_ADJV:分别与水平(X)和垂直(Y)方向相关的交叉点调整量。换言之,是调整应执行的移位量,使得第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的光轴L1和L2在预定距离处的交叉点处相交。
OAC_AUTO_ADJH和OAC_AUTO_ADJV:分别与水平(X)和垂直(Y)方向相关的自动视差调整量。此自动视差调整量是视差矢量,其为如上所述的连接特征点和对应点的线段。
OAC_USR_ADJH和OAC_USR_ADJV:根据用户操作,分别与水平(X)和垂直(Y)方向相关的视差调整量。可以从诸如在操作单元10上设置的视差调整按钮的用户接口,任意地设定这些参数。
即使当不是所有这些参数都存在时,如果某些参数,即,至少一个参数存在,则其它不存在参数的值被设定为“0”,并且可以计算最终视差矢量(Δx,Δy)。
视差量计算单元82还可以基于多个视差矢量来计算和定义最终视差矢量。从同一距离处的对象应当检测出同一长度的视差矢量。然而,如果在从中提取特征点的图像区域中混合了有处于不同距离处的对象,则所有视差矢量不一定具有相同的长度。因此,视差量计算单元82根据以下规则1至4之一来定义最终视差矢量(Δx,Δy)(参见图4)。可以任意地采用任何规则。
1.定义多个视差矢量的平均值作为最终视差矢量。
2.定义多个视差矢量的模态值(mode value),作为最终视差矢量。
3.定义最长视差矢量作为最终视差矢量。
4.定义距离照相机2最近的对象的视差矢量作为最终视差矢量。
基于由视差量计算单元82检测的最终视差矢量(Δx,Δy)和用于第二图像数据IMGL的AF评估区域中的中心坐标(X,Y),AF评估区域坐标计算单元83计算用于第一图像数据IMGR的AF评估区域中的中心坐标(X+Δx,Y+Δy)(参见图5)。
应注意的是,可以通过从第一图像数据IMGR中提取特征点,和从第二图像数据IMGL中提取对应点来检测最终视差矢量(Δx′,Δy′)。在这种情况下,基于最终视差矢量(Δx′,Δy′)和用于第一图像数据IMGR的AF评估区域中的中心坐标(X′,Y′),计算用于第二图像数据IMGL的AF评估区域中的中心坐标(X′+Δx′,Y+Δy′)。基本上,如果在第一图像数据IMGR和第二图像数据IMGL中的任何一个中设定了区域R,并且提取区域R中的特征点,则可以计算第一图像数据和第二图像数据中的另一个的AF评估区域中的中心坐标。
在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的光轴L1和L2之间的相交点(也称为“交叉点”)处不存在对象的情况下,如果假设将对焦区域设定在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b两者中的同一位置(例如图像中心部分)处,则包括在各个AF评估区域中的对象是不同的,因此,其评估值也是不同的,并且由AF处理设定的第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的对焦透镜22和32的对焦位置也是不同的。
例如,如图6所示,由于第一图像拍摄光学系统1a和第二图像拍摄光学系统1b之间的视差SB的效应,分别地,从第一图像拍摄光学系统1a和第二图像拍摄光学系统1b到对象SB1和SB2的距离是不同的。如果假设在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b两者中将对焦区域设定在图像中心部分处,如图7A和7B所示,则第一图像拍摄光学系统1a和第二图像拍摄光学系统1b分别对焦在不同距离处的对象上,亦即,第一图像拍摄光学系统1a对焦在对象SB1上,并且第二图像拍摄光学系统1b对焦在对象SB2上。因此,左右对焦透镜22和32的位置之间的差异变大,并且不能获得适当的立体图像,这还导致观看者的眼睛疲劳。在本实施例中,为了避免对焦位置上的此差异,执行以下图像拍摄处理。
图8图示根据本公开主题的第一实施例的图像拍摄处理的流程图。由CPU 40来控制此处理的执行。用于促使CPU 40执行此处理的程序被存储在ROM 51中。应注意的是具有等效于CPU 40的硬件配置的个人计算机等也可以控制以下处理的执行,因此,不一定需要在照相机2中包括CPU 40。
在S1中,CPU 40设定当前被存储在VRAM 43中的第二图像数据(来自基准成像单元的图像数据)中的AF评估区域R1-L中的中心坐标(X,Y),并控制视差量计算单元82以检测所指定AF评估区域R1-L中的特征点和第一图像数据中的作为与特征点相对应的点的对应点,并基于已检测的特征点和对应点来执行最终视差矢量(Δx,Δy)的计算。如果最终视差矢量(Δx,Δy)的计算的定时在开始图像拍摄之前,则该定时是任意的。例如,在照相机2被接通电源之后,可以立即设定交叉点调整量,并且可以设定根据用户操作的视差调整量。然而,可以在快门按钮被半按之后执行自动视差调整量的获取。
在S2中,确定快门按钮是否已被半按。如果确定了半按,则处理继续至S3,并且如果未确定半按,则重复以上确定。
在S3中,控制AE/AWB检测单元73根据第一和第二图像数据检测第一测光值、第二测光值、第一WB(白平衡)值和第二WB值。虽然计算AE/AWB检测单元73中的曝光值的系统是任意的,但该系统可以是稍后将描述的第二或第三实施例的系统。
在S4中,响应于第一测光值、第二测光值、第一WB值和第二WB值的检测的终止,开始随后的AF处理。首先,CPU 40在预定范围(在下文中称为“AF搜索范围”)内以每个预定步幅使对焦透镜22和32从近距离移到至无穷远。
在S5中,在通过在基准成像单元——在这里为第二图像拍摄光学系统1b的每个运动位置处的成像而获得的每个第二图像数据中,设定AF评估区域中的中心坐标(X,Y)。
在S6中,根据对应于每个运动位置的第二图像数据IMGL获得对应于每个运动位置的第二AF评估值。换言之,控制AF检测单元44,以基于预定形状和预定尺寸的AF评估区域R1-L中的图像数据(参见图9A)来计算对应于每个运动位置的第二AF评估值,所述AF评估区域R1-L具有在对应于每个运动位置的每个第二图像数据IMGL中设定的中心坐标(X,Y)。
在S7中,控制AF评估区域坐标计算单元83,以计算用于从调整目标成像单元——在本实施例中为第一图像拍摄光学系统1a(参见图5)获得的第一图像数据IMGR的AF评估区域中的中心坐标(X+Δx,Y+Δy)。
在S8中,在通过第一图像拍摄光学系统1a的每个运动位置处的成像获得的每个第一图像数据IMGR中,设定具有中心坐标(X+Δx,Y+Δy)的预定形状和预定尺寸的AF评估区域R1-R。在图9B中,区域R1-R′是原始(未运动)光评估区域。然后,控制AF检测单元44,以基于对应于每个运动位置的第一图像数据的AF评估区域R中的图像数据,来计算对应于每个运动位置的第一AF评估值。
在S9中,将对焦透镜22移动到对应于与各个运动位置相对应的第一AF评估值中的最大值的对焦透镜32的位置(第一对焦位置)。此外,将对焦透镜32移动到对应于与各个运动位置相对应的第二AF评估值中的最大值的对焦透镜32的位置(第二对焦位置)。
在S10中,响应于对焦透镜22在第一对焦位置处停止,并且对焦透镜32在第二对焦位置处停止,处理继续至S11。
在S11中,确定快门按钮是否被完全按下。如果确定已执行完全按下,则处理继续至S12。如果确定未执行完全按下,则重复此确定。
在S12中,执行要记录的第一和第二图像数据的成像。将所获得的图像数据存储在存储卡49中。
应注意的是,当拍摄运动图像时或当执行连续AF处理时,半按的确定可能不触发处理继续至S3,并且作为替代地,可以周期性地执行S3至S10中的例行程序。此外,要求仅存在至少一个基准光学系统,并且可以存在多个调整目标光学系统。
根据以上处理,照相机2设定基准成像单元和调整目标成像单元的AF评估区域的中心坐标,以便消除AF评估区域之间的视差(图9A和9B)。因此,可以防止左右图像的对焦位置之间的差异(使其最小化),并且可以形成可容易地看见且不容易使观看者疲倦的稳定立体图像。
<第二实施例>
假设如果在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b(参见图6)的光轴L 1和L2之间的相交点(也称为“交叉点”)处不存在对象,则执行点式曝光测光系统的AE处理。如果假设与传统技术一样,在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b两者中将点式测光区域设定在相同位置(例如,图像中心部分)处,则包括在第一和第二图像数据中的点式测光区域中的对象由于视差效应而不同,因此,由AE处理设定的第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的曝光也是不同的。如果在左右图像之间的曝光水平大大不同,则不能获得适当的立体图像,这使得观看者疲倦。在本实施例中,为了避免曝光的差异,执行以下图像拍摄处理。
图10图示根据本公开主题的第二实施例的照相机2的块。对与第一实施例的那些相同的块赋予相同的附图标号。此照相机2具有AE测光区域坐标计算单元84。
在下文中,参照图11的流程图,将描述根据本公开主题的第二实施例的图像拍摄处理的流程。由CPU 40来控制此处理的执行。用于促使CPU 40执行此处理的程序被存储在ROM 51中。应注意的是,具有等效于CPU 40的硬件配置的个人计算机等也可以控制以下处理的执行,因此,不一定需要在照相机2中包括CPU 40。
S21至S22分别类似于S1至S2。在S21中,定义最终视差矢量(Δx,Δy)。
在S23中,响应于最终视差矢量(Δx,Δy)的定义,开始随后的AE处理。
在S24中,控制AE/AWB检测单元73,以在响应于快门按钮的半按由基准成像单元——在本实施例中为第二图像拍摄光学系统1b进行成像而获得的图像数据——即,第二图像数据IMGL中,设定具有中心坐标(X,Y)的预定形状和预定尺寸的点式测光区域R2-L(参见图12A)。虽然先前已设定中心坐标(X,Y)并将其保存在ROM 51中,但能够根据来自CPU 40或操作单元10的指令来修改中心坐标(X,Y)。
在S25中,控制AE/AWB检测单元73,以根据在第二图像数据IMGL中设定的测光区域R2-L中的图像数据来计算第二测光值和第二WB值(点式测光)。
在S26中,控制AE测光区域坐标计算单元84,以计算用于第一图像数据的AE评估区域中的中心坐标(X+Δx,Y+Δy)(参见图13)。
在S27中,控制AE/AWB检测单元73,以在通过调整目标成像单元的每个运动位置处的成像而获得的图像——在这里为通过第一图像拍摄光学系统1a的成像获得的第一图像数据中,设定具有中心坐标(X+Δx,Y+Δy)的预定形状和预定尺寸的点式测光区域R2-R。在图12B中,区域R2-R′是原始(未运动)点式测光区域。然后,控制AE/AWB检测单元73,以基于第一图像数据IMGR中的AE测光区域R2-R中的图像数据来计算第一测光值和第一WB值(点式测光)。然后,基于已经获得的第一测光值、第一WB值、第二测光值、和第二WB值来执行曝光控制。
在S28至S30中,执行AF处理。此AF处理优选地是分别在第一实施例的S4至S10中描述的AF处理,然而,其可以是传统AF处理。
S31至S32分别类似于S11至S12。
根据上述处理,使点式测光区域移位基准成像单元与调整目标成像单元之间的视差量。可以消除调整目标成像单元中的左右成像系统的点式测光区域之间的视差(使其最小化),可以防止测光值和曝光水平的差异(使其最小化),并且可以向观看者提供很容易看见图像且观看者不容易疲倦的处于稳定状态的立体图像。应注意的是,基准成像单元还可以是第一图像拍摄光学系统1a,并且调整目标成像单元还可以是第二图像拍摄光学系统1b。此外,当拍摄运动图像时或执行连续AF处理时,快门按钮6的半按的确定可能不触发处理继续至S23,并且作为替代地,可以周期性地重复S23至S30的例行程序。
<第三实施例>
假设如果在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的光轴L1和L2之间的相交点(也称为“交叉点”)处不存在对象(参见图6),则执行加权平均测光的AE处理。如果假设与传统技术一样,在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b两者中将用于与分割图像的每个小区域相对应的适当曝光值计算的权重设定为一样,则由于视差效应,在第一和第二图像数据之间,包括在同一位置处的小区域中的对象部分是不同的,因此,由AE处理设定的第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的曝光也是不同的。如果在左右图像之间曝光水平大大不同,则不能获得适当的立体图像,这使得观看者疲倦。在本实施例中,为了避免曝光的差异,执行以下图像拍摄处理。
图14图示根据本公开主题的第三实施例的照相机2的块。对与第一或第二实施例的那些相同的块赋予相同的附图标号。此照相机2具有AE测光区域——加权中心设定单元85。
在下文中,参照图15的流程图,将描述根据本公开主题的优选第三实施例的图像拍摄处理的流程。由CPU 40来控制此处理的执行。用于促使CPU 40执行此处理的程序被存储在ROM 51中。应注意的是,具有等效于CPU 40的硬件配置的个人计算机等也可以控制以下处理的执行,因此,不一定需要在照相机2中包括CPU 40。
S41至S42分别类似于S1至S2。在S41中,定义最终视差矢量(Δx,Δy)。
在S43中,响应于最终视差矢量(Δx,Δy)的定义,开始随后的AE处理。
在S44中,控制AE/AWB检测单元73,以在响应于快门按钮6的半按进行成像而获得的第二图像数据IMGL中设定加权中心坐标WL(X,Y)(参见图16)。AE/AWB检测单元73将一个屏幕的第二图像数据划分成预定数目(例如8×8=64)的小区域,并根据设定的加权中心坐标WL(X,Y)来决定每个小区域的权重。虽然先前已设定中心坐标WL(X,Y)并将其保存在ROM 51中,但能够根据来自CPU 40或操作单元10的指令来修改中心坐标WL(X,Y)。
图17图示由AE/AWB检测单元73决定的第二图像数据IMGL的每个小区域的权重的示例。对加权中心坐标WL(X,Y)周围的小区域给定最高的权重“8”,并对远离中心的小区域给定较小的权重“4”、“2”或“1”。如图17所示,如果(X,Y)在屏幕的中心处,则测光是所谓的中心加权平均测光。换言之,鉴于主要对象常常位于所拍摄图像的屏幕中心附近这一事实,将所拍摄图像的屏幕中心附近的权重系数设定为较大。应注意的是,权重的值不限于图中所示的值,并且可以适当地设定该值。
在S45中,AE/AWB检测单元73检测每个小区域的对象亮度,对每个小区域的对象亮度赋予相应的权重,执行曝光操作处理,并计算第二测光值。然后,基于所获得的第二测光值来执行曝光控制。可以与日本专利申请特许公开No.2008-209760类似地执行曝光控制。
在S46中,控制AE测光区域——加权中心设定单元85,以计算用于第一图像数据IMGR中的AE评估区域中的加权中心坐标WR(X+Δx,Y+Δy)(参见图18A和18B)。在图18A和18B中,区域WR′是原始(未运动)测光区域(加权中心)。AE/AWB检测单元73将一个屏幕的第一图像数据IMGR划分成预定数目(例如8×8=64)的小区域,并根据设定的加权中心坐标(X+Δx,Y+Δy)来判定每个小区域(参见图19)的权重。
图20图示由AE/AWB检测单元73决定的第一图像数据IMGR的每个小区域的权重的示例。对加权中心坐标(X+Δx,Y+Δy)周围的小区域给定最高的权重“8”,并对远离中心的小区域给定较小的权重“4”、“2”或“1”。应注意的是,权重的值不限于图中所示的值,并且可以适当地设定该值。
在S47中,AE/AWB检测单元73检测每个小区域的对象亮度,对每个小区域的测光值(对象亮度)赋予相应的权重,执行曝光操作处理,并计算第一测光值(曝光值)。然后,基于所获得的第一测光值来执行曝光控制。可以与日本专利申请特许公开No.2008-209760类似地执行曝光控制。换言之,基于每个小区域的对象亮度的平均加权值来计算适当的曝光值,并执行曝光控制。
在S48至S50中,执行AF处理。此AF处理优选地是在第一实施例的S4至S10中描述的AF处理,然而,其可以是传统AF处理。
S51至S52分别类似于S11至S12。
根据以上处理,使右AE测光区域相对于左AE测光区域中的加权中心坐标移位了视差量,因此,可以消除成像系统的AE测光区域的加权中心坐标之间的视差,可以防止测光值和曝光水平的差异,并且可以向观看者提供很容易看见图像且观看者不疲倦的处于稳定状态的立体图像。
<第四实施例>
还可以对闪光灯调光区域执行设定,其与用于AF评估区域和AE测光区域的中心坐标的设定类似。闪光灯调光区域是通过比较在没有闪光灯5发光的情况下的曝光和有发光的曝光获得的两个图像之间的亮度,而根据其来决定适当的发光量的区域。
图21图示根据第四实施例的照相机2的电气配置。对与上述实施例的那些相同的块赋予相同的附图标号。此照相机2具有调光区域坐标计算单元86。
图22图示由根据第四实施例的照相机2执行的图像拍摄处理的流程图。
S61至S62分别类似于S1至S2。此外,S63可以类似于第二或第三实施例,或者可以是正常AE处理。此外,S64至S66可以类似于第一实施例,或者可以是正常AF处理。S67类似于S11。
在S68中,确定先前是否已从操作单元10等设定闪光灯发光。如果已经设定闪光灯发光,则处理继续至S69,并且如果尚未设定闪光灯发光,则处理继续至S73。闪光灯发光的该种设定可以是自动的或手动的。
在S69中,控制闪光灯控制单元72,以在响应于快门按钮的全按下由基准成像单元——在这里为第二图像拍摄光学系统1b进行成像而获得的图像数据——即,第二图像数据IMGL中,设定具有中心坐标(X,Y)的预定形状和预定尺寸的调光区域A1L(参见图23A)。虽然先前已设定中心坐标(X,Y)并将其保存在ROM 51中,但能够根据来自CPU 40或操作单元10的指令来修改中心坐标(X,Y)。
在S70中,CPU 40控制调光区域坐标计算单元86,以根据如上述实施例所计算的最终视差矢量(Δx,Δy)来计算用于第一图像数据IMGR的闪光灯调光区域A1R中的中心坐标(X+Δx,Y+Δy)(参见图24)。然后,CPU 40控制闪光灯控制单元72,以在响应于快门按钮的全按下由调整目标成像单元——在这里为第一图像拍摄光学系统1a进行成像而获得的图像数据——即,第一图像数据IMGR中,设定具有所计算的中心坐标(X+Δx,Y+Δy)的预定形状和预定尺寸的调光区域A1R(参见图23B)。在图23B中,区域A1R′是原始(未运动)闪光灯调光区域。
在S71中,对应于在没有闪光灯5的初步发光的情况下的曝光和有初步发光的曝光,CPU 40在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b中的每一个中执行成像两次。然后,CPU 40控制闪光灯控制单元72,以在已在如上所述的无发光状态下和发光状态下分别获得的对应的两个第一图像数据和两个第二图像数据中,设定具有中心坐标(X+Δx,Y+Δy)和(X,Y)的预定形状和预定尺寸的调光区域。
CPU 40计算所获得的两个第一图像数据中的相应调光区域(例如,如图23B所示,通过将图像中心部分等分成2×2个而获得的划分区)中的亮度之间的差值和平均值,并计算两个第二图像数据IMGL的相应调光区域(例如,图23A)中的亮度之间的差值和平均值。
CPU 40基于分别对应于第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的两个差值,来计算实际图像拍摄时的闪光灯的发光量。可以采用众所周知的计算方法。例如,CPU 40根据上述两个差值的平均值(或平均加权)来计算相对于初步发光的用于闪光灯发光量的发光放大倍率和发光时间。
在S72中,当响应于快门按钮的全按下来执行要记录的第一和第二图像数据的成像时,CPU 40控制闪光灯控制单元72,以使得闪光灯5发光达到所述发光时间。
在S73中,与闪光灯5的发光同步地,CPU 40执行要记录的第一和第二图像数据的成像。将所获得的图像数据存储在存储卡49中。
根据以上处理,使右调光区域相对于左调光区域中的中心坐标移位了视差量,因此,可以消除成像系统的调光区域的中心坐标之间的视差,可以防止调光水平的差异,并且可以向观看者提供很容易看见图像且观看者不疲倦的处于稳定状态的立体图像。
<第五实施例>
还可以对闪光灯调光区域执行设定,其与用于AE测光区域的加权中心坐标的设定类似。
图25图示根据第五实施例的照相机2的电气配置。对与上述实施例的那些相同的块赋予相同的附图标号。此照相机2具有调光区域加权中心设定单元87。
图26图示由根据第五实施例的照相机2执行的图像拍摄处理的流程图。
除S89至S92之外,S81至S93分别类似于S61至S73。
在S89中,控制调光区域加权中心设定单元87,以在响应于快门按钮的全按下进行成像而获得的第二图像数据IMGL中,设定加权中心坐标(X,Y)(参见图27)。调光区域加权中心设定单元87将一个屏幕的第二图像数据划分成预定数目(例如,8×8=64)的小区域,并根据所设定的加权中心坐标(X,Y)来决定每个小区域的权重。虽然先前已设定中心坐标(X,Y)并将其保存在ROM 51中,但能够根据来自CPU 40或操作单元10的指令来修改中心坐标(X,Y)。
图28图示由调光区域加权中心设定单元87决定的第二图像数据的每个小区域的权重的示例。对加权中心坐标(X,Y)周围的小区域A5L给定最高的权重“8”,并对远离中心的小区域给定较小的权重“4”、“2”或“1”。如图28所示,如果(X,Y)在屏幕的中心处,则调光是重点在中心部分的调光。换言之,鉴于主要对象常常位于拍摄图像的屏幕中心附近这一事实,将拍摄图像的屏幕中心附近的权重系数设定为较大。应注意的是,权重的值不限于图中所示的值,并且可以适当地设定该值。
在S90中,控制调光区域加权中心设定单元87,以计算用于第一图像数据的AE评估区域中的加权中心坐标(X+Δx,Y+Δy)(参见图29)。调光区域加权中心设定单元87将一个屏幕的第一图像数据IMGR划分成预定数目(例如,8×8=64)的小区域,并根据所设定的加权中心坐标(X+Δx,Y+Δy)来决定每个小区域(参见图30)的权重。
图31图示由调光区域加权中心设定单元87决定的第一图像数据IMGR的每个小区域的权重的示例。对加权中心坐标(X+Δx,Y+Δy)周围的小区域A5R给定最高的加权“8”,并对远离中心的小区域给定较小的加权“4”、“2”或“1”。应注意的是,权重的值不限于图中所示的值,并且可以适当地设定该值。在图30和31中,区域A5R′是(未运动)加权中心(X,Y)周围的原始区域。
在S91中,对应于在没有闪光灯5的初步发光的情况下的曝光和有初步发光的曝光,CPU 40在第一图像拍摄光学系统1a和第二图像拍摄光学系统1b中的每一个中执行成像两次。然后,CPU 40控制闪光灯控制单元72,以在已在如上所述的无发光状态下和发光状态下分别获得的对应的两个第一图像数据和两个第二图像数据中,设定具有加权中心坐标(X+Δx,Y+Δy)和(X,Y)的预定形状和预定尺寸的调光区域。
CPU 40计算所获得的两个第一图像数据中的相应调光区域中的亮度的平均加权值之间的差值,并计算两个第二图像数据中的相应调光区域中的亮度的平均加权值之间的差值。CPU 40基于分别对应于第一图像拍摄光学系统1a和第二图像拍摄光学系统1b的两个差值来计算实际图像拍摄时的闪光灯的发光量。可以采用众所周知的计算方法。例如,CPU 40根据上述两个差值的平均值(或平均加权)来计算相对于初步发光的用于闪光灯发光量的发光放大倍率和发光时间。
在S92中,当响应于快门按钮的全按下来执行要记录的第一和第二图像数据的成像时,CPU 40控制闪光灯控制单元72,以使得闪光灯5发光达到所述发光时间。
根据以上处理,使右调光区域相对于左调光区域中的加权中心坐标移位了视差量,因此,可以消除成像系统的调光区域的加权中心坐标之间的视差,可以防止调光水平的差异,并且可以向观看者提供很容易看见图像且观看者不疲倦的处于稳定状态的立体图像。
可以将本公开主题提供为用于促使设备(诸如立体照相机、电子照相机、相互连接的多个电子照相机、或包括或连接到电子照相机的计算机)执行上述处理的计算机可读程序代码、其上面存储该计算机可读程序代码的计算机可读记录介质或包括计算机可读程序代码的计算机程序产品。

Claims (11)

1.一种成像装置,包括:
成像单元,所述成像单元被配置为通过成像元件对分别经由基准光学系统和调整目标光学系统而形成的对象图像进行光电转换,并输出用于左眼和右眼的视点图像;
视差量计算单元,所述视差量计算单元被配置为计算所述基准光学系统与所述调整目标光学系统之间的视差量;
设定单元,所述设定单元被配置为设定与由所述基准光学系统输出的第一视点图像相对应的成像条件评估区的坐标;
计算单元,所述计算单元被配置为基于已由所述设定单元设定的与由所述基准光学系统输出的所述第一视点图像相对应的所述成像条件评估区的坐标和基于由所述视差量计算单元计算的所述视差量,计算与由所述调整目标光学系统输出的第二视点图像相对应的成像条件评估区的坐标;以及
控制单元,所述控制单元被配置为基于在由所述设定单元设定的所述坐标处的、与来自所述基准光学系统的视点图像相对应的所述成像条件评估区中的图像数据,和基于在由所述计算单元计算的所述坐标处的、与来自所述调整目标光学系统的视点图像相对应的所述成像条件评估区中的图像数据,来调整所述基准光学系统和所述调整目标光学系统的成像条件,并控制所述成像单元在已调整成像条件下输出所述视点图像;
所述视差量计算单元基于连接特征点和对应点的视差矢量来计算所述基准光学系统和所述调整目标光学系统之间的视差量,所述特征点是从所述第一视点图像所检测的,且所述对应点在所述第二视点图像中,与所述特征点相对应,当在所述第一视点图像相对应的成像条件评估区中混合了有处于不同距离处的对象时,则将处于不同距离处的对象的多个视差矢量的平均值、所述多个视差矢量的模态值、所述多个视差矢量中最长视差矢量、或所述多个视差矢量中距离成像装置最近的对象的视差矢量定义为所述视差量。
2.如权利要求1所述的成像装置,其中
所述成像条件评估区包括对焦评估值计算区。
3.如权利要求2所述的成像装置,还包括:
基准光学系统对焦控制单元,在改变所述基准光学系统的焦点位置时,所述基准光学系统对焦控制单元被配置为在由所述基准光学系统输出的所述第一视点图像中检测位于由所述设定单元设定的坐标处的所述对焦评估值计算区中的对比度变成局部最大的对焦位置,并将所述基准光学系统的焦点位置移动至所检测的对焦位置;以及
调整目标光学系统对焦控制单元,在改变所述调整目标光学系统的焦点位置时,所述调整目标光学系统对焦控制单元被配置为在由所述调整目标光学系统输出的所述第二视点图像中检测位于由所述计算单元计算的坐标处的所述对焦评估值计算区中的对比度变成局部最大的对焦位置,并使所述调整目标光学系统的焦点位置移动至所检测的对焦位置。
4.如权利要求1所述的成像装置,其中
所述成像条件评估区包括对象亮度计算区。
5.如权利要求4所述的成像装置,还包括:
基准光学系统曝光控制单元,所述基准光学系统曝光控制单元被配置为控制所述基准光学系统的曝光,以便在由所述基准光学系统输出的所述第一视点图像中,从位于由所述设定单元设定的坐标处的所述对象亮度计算区所检测的对象亮度变得适当;以及
调整目标光学系统曝光控制单元,所述调整目标光学系统曝光控制单元被配置为控制所述调整目标光学系统的曝光,以便在由所述调整目标光学系统输出的所述第二视点图像中,从位于由所述计算单元计算的坐标处的所述对象亮度计算区所检测的对象亮度变得适当。
6.如权利要求4所述的成像装置,还包括:
基准光学系统曝光控制单元,所述基准光学系统曝光控制单元被配置为控制所述基准光学系统的曝光,以便在由所述基准光学系统输出的所述第一视点图像中,从包括多个划分区的所述对象亮度计算区的各个划分区所检测的对象亮度的平均加权变得适当,所述多个划分区利用由所述设定单元设定的坐标为中心被加权;以及
调整目标光学系统曝光控制单元,所述调整目标光学系统曝光控制单元被配置为控制所述调整目标光学系统的曝光,以便在由所述调整目标光学系统输出的所述第二视点图像中,从包括多个划分区的所述对象亮度计算区的各个划分区所检测的对象亮度的平均加权变得适当,所述多个划分区利用由所述计算单元计算的坐标为中心被加权。
7.如权利要求1所述的成像装置,其中
所述成像条件评估区包括调光用亮度计算区。
8.如权利要求1至7中的任一项所述的成像装置,其中
所述视差量计算单元基于连接特征点和对应点的视差矢量来计算所述基准光学系统与所述调整目标光学系统之间的所述视差量,所述特征点是从坐标已由所述设定单元设定且对应于所述基准光学系统的所述成像条件评估区所检测的,且所述对应点在来自所述调整目标光学系统的视点图像中,与所述特征点相对应。
9.如权利要求1至7中的任一项所述的成像装置,其中
所述视差量计算单元根据交叉点调整量、自动视差调整量和手动视差调整量中的至少一个来计算所述视差量。
10.如权利要求1至7中的任一项所述的成像装置,还包括立体图像输出单元,所述立体图像输出单元被配置为基于由所述成像单元输出的左右视点图像来输出立体图像。
11.一种成像方法,其中,成像装置包括成像单元,所述成像单元被配置为通过成像元件对分别经由基准光学系统和调整目标光学系统形成的对象图像进行光电转换并输出用于左眼和右眼的视点图像,所述成像方法执行以下步骤:
计算所述基准光学系统与所述调整目标光学系统之间的视差量;
设定与由所述基准光学系统输出的第一视点图像相对应的成像条件评估区的坐标;
基于与由所述基准光学图像输出的所述第一视点图像相对应的所述成像条件评估区的设定坐标,和基于所计算的视差量,计算与由所述调整目标光学系统输出的第二视点图像相对应的成像条件评估区的坐标;以及
基于在所述设定坐标处的、与由所述基准光学系统输出的所述第一视点图像相对应的所述成像条件评估区中的图像数据,和基于在所计算的坐标处的、与由所述调整目标光学系统输出的所述第二视点图像相对应的所述成像条件评估区中的图像数据,调整所述基准光学系统和所述调整目标光学系统的成像条件,并控制所述成像单元在已调整成像条件下输出所述视点图像;
其中基于连接特征点和对应点的视差矢量来计算所述基准光学系统和所述调整目标光学系统之间的视差量,所述特征点是从所述第一视点图像所检测的,且所述对应点在所述第二视点图像中,与所述特征点相对应,当在所述第一视点图像相对应的成像条件评估区中混合了有处于不同距离处的对象时,处于不同距离处的对象的多个视差矢量的平均值、所述多个视差矢量的模态值、所述多个视差矢量中最长视差矢量、或所述多个视差矢量中距离成像装置最近的对象的视差矢量被定义为所述视差量。
CN201010232975.9A 2009-07-17 2010-07-16 成像装置和成像方法 Expired - Fee Related CN101959020B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009-169317 2009-07-17
JP2009169317 2009-07-17
JP2010072997A JP5450200B2 (ja) 2009-07-17 2010-03-26 撮像装置、方法およびプログラム
JP2010-072997 2010-03-26

Publications (2)

Publication Number Publication Date
CN101959020A CN101959020A (zh) 2011-01-26
CN101959020B true CN101959020B (zh) 2015-05-27

Family

ID=42937452

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010232975.9A Expired - Fee Related CN101959020B (zh) 2009-07-17 2010-07-16 成像装置和成像方法

Country Status (4)

Country Link
US (1) US8773509B2 (zh)
EP (1) EP2278821A3 (zh)
JP (1) JP5450200B2 (zh)
CN (1) CN101959020B (zh)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011029905A (ja) * 2009-07-24 2011-02-10 Fujifilm Corp 撮像装置、方法およびプログラム
US8588600B2 (en) * 2010-07-27 2013-11-19 Texas Instruments Incorporated Stereoscopic auto-focus based on coordinated lens positions
US9485495B2 (en) * 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
JPWO2012023168A1 (ja) * 2010-08-19 2013-10-28 パナソニック株式会社 立体映像撮像装置および立体映像撮像方法
US8768044B2 (en) 2010-09-14 2014-07-01 Texas Instruments Incorporated Automatic convergence of stereoscopic images based on disparity maps
KR101723235B1 (ko) * 2010-10-04 2017-04-04 삼성전자주식회사 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법
US20120106840A1 (en) * 2010-10-28 2012-05-03 Amit Singhal Combining images captured with different color patterns
US20120105584A1 (en) * 2010-10-28 2012-05-03 Gallagher Andrew C Camera with sensors having different color patterns
JP5411842B2 (ja) * 2010-12-07 2014-02-12 シャープ株式会社 撮像装置
US20120188409A1 (en) * 2011-01-24 2012-07-26 Andrew Charles Gallagher Camera with multiple color sensors
JP5786412B2 (ja) * 2011-03-31 2015-09-30 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP5874192B2 (ja) 2011-04-11 2016-03-02 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP5917017B2 (ja) * 2011-05-11 2016-05-11 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US8754929B1 (en) * 2011-05-23 2014-06-17 John Prince Real time vergence control for 3D video capture and display
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
JP2013061440A (ja) * 2011-09-13 2013-04-04 Canon Inc 撮像装置および撮像装置の制御方法
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
JP5860663B2 (ja) * 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
JP5948856B2 (ja) * 2011-12-21 2016-07-06 ソニー株式会社 撮像装置とオートフォーカス方法並びにプログラム
US8619148B1 (en) * 2012-01-04 2013-12-31 Audience, Inc. Image correction after combining images from multiple cameras
US8718459B2 (en) * 2012-06-01 2014-05-06 Blackberry Limited Method and digital camera having improved autofocus
KR101207343B1 (ko) * 2012-08-30 2012-12-04 재단법인대구경북과학기술원 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
CN104871058B (zh) * 2012-12-19 2017-04-12 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
WO2014115489A1 (ja) * 2013-01-25 2014-07-31 パナソニック株式会社 ステレオカメラ
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
IL236420A (en) 2014-12-23 2016-06-30 Ron Schneider Methods and systems for producing an enlarged 3D image
US9794522B2 (en) 2015-02-06 2017-10-17 Google Inc. Systems, methods, and devices for managing coexistence of multiple transceiver devices by optimizing component layout
US10419655B2 (en) 2015-04-27 2019-09-17 Snap-Aid Patents Ltd. Estimating and using relative head pose and camera field-of-view
CN105635595B (zh) * 2015-05-29 2019-11-08 宇龙计算机通信科技(深圳)有限公司 闪光灯的控制方法、闪光灯的控制装置和移动终端
US9906715B2 (en) 2015-07-08 2018-02-27 Htc Corporation Electronic device and method for increasing a frame rate of a plurality of pictures photographed by an electronic device
US10097747B2 (en) * 2015-10-21 2018-10-09 Qualcomm Incorporated Multiple camera autofocus synchronization
US11255663B2 (en) 2016-03-04 2022-02-22 May Patents Ltd. Method and apparatus for cooperative usage of multiple distance meters
US10687184B2 (en) 2016-05-13 2020-06-16 Google Llc Systems, methods, and devices for utilizing radar-based touch interfaces
US10432869B2 (en) * 2016-09-07 2019-10-01 Multimedia Image Solution Limited Method of utilizing wide-angle image capturing element and long-focus image capturing element for achieving clear and precise optical zooming mechanism
WO2018183206A1 (en) 2017-03-26 2018-10-04 Apple, Inc. Enhancing spatial resolution in a stereo camera imaging system
CN107343155B (zh) * 2017-07-10 2019-03-29 Oppo广东移动通信有限公司 抑制aec跳变的方法及装置、终端设备
JP2019029875A (ja) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 画像処理装置、カメラ装置及び画像処理方法
WO2020015754A1 (zh) * 2018-07-19 2020-01-23 杭州海康威视数字技术股份有限公司 图像采集方法及图像采集设备
WO2020170237A1 (en) 2019-02-19 2020-08-27 Edgy Bees Ltd. Estimating real-time delay of a video data stream
JP2020167517A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
CN110572580B (zh) * 2019-10-10 2020-11-03 珠海格力电器股份有限公司 一种适于移动终端的拍照方法及移动终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101385332A (zh) * 2006-03-22 2009-03-11 松下电器产业株式会社 摄像装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05134167A (ja) * 1991-11-12 1993-05-28 Canon Inc 撮像装置
JP3035434B2 (ja) * 1993-10-13 2000-04-24 キヤノン株式会社 複眼撮像装置
FR2724033B1 (fr) 1994-08-30 1997-01-03 Thomson Broadband Systems Procede de generation d'image de synthese
JPH08194274A (ja) 1995-01-13 1996-07-30 Olympus Optical Co Ltd 立体撮像装置
JP3653790B2 (ja) * 1995-05-23 2005-06-02 松下電器産業株式会社 立体電子ズーム装置及び立体画質制御装置
JPH0961910A (ja) 1995-08-21 1997-03-07 Canon Inc カメラシステムおよびストロボ装置
JP3587506B2 (ja) * 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
JP2005173270A (ja) 2003-12-11 2005-06-30 Canon Inc 立体撮影用光学装置、撮影装置、立体撮影システム及び立体撮影装置
JP4451353B2 (ja) * 2005-06-24 2010-04-14 富士フイルム株式会社 複眼撮像装置及び複眼撮像システム及び複眼撮像装置の制御プログラム
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
JP2008129554A (ja) * 2006-11-27 2008-06-05 Sanyo Electric Co Ltd 撮像装置及びオートフォーカス制御方法
JP2008209760A (ja) 2007-02-27 2008-09-11 Fujifilm Corp 撮影方法及び撮影装置
JP2009047498A (ja) * 2007-08-17 2009-03-05 Fujifilm Corp 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP5048468B2 (ja) * 2007-11-28 2012-10-17 富士フイルム株式会社 撮像装置およびその撮像方法
US8300086B2 (en) * 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US8724013B2 (en) * 2007-12-27 2014-05-13 Qualcomm Incorporated Method and apparatus with fast camera auto focus
JP5137196B2 (ja) 2008-05-20 2013-02-06 富士フイルム株式会社 撮影装置およびその制御方法並びにプログラム
JP5444651B2 (ja) * 2008-07-16 2014-03-19 カシオ計算機株式会社 カメラ装置、その撮影方法と撮影制御プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101385332A (zh) * 2006-03-22 2009-03-11 松下电器产业株式会社 摄像装置

Also Published As

Publication number Publication date
JP2011039486A (ja) 2011-02-24
EP2278821A2 (en) 2011-01-26
EP2278821A3 (en) 2014-03-05
US8773509B2 (en) 2014-07-08
CN101959020A (zh) 2011-01-26
US20110012998A1 (en) 2011-01-20
JP5450200B2 (ja) 2014-03-26

Similar Documents

Publication Publication Date Title
CN101959020B (zh) 成像装置和成像方法
US7856181B2 (en) Stereoscopic imaging device
EP2590421B1 (en) Single-lens stereoscopic image capture device
JP4904108B2 (ja) 撮影装置及び画像表示制御方法
US20130113892A1 (en) Three-dimensional image display device, three-dimensional image display method and recording medium
US20110018970A1 (en) Compound-eye imaging apparatus
JP5474234B2 (ja) 単眼立体撮像装置及びその制御方法
CN103370943B (zh) 成像装置和成像方法
JP4763827B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
CN103649807B (zh) 成像设备
JP5231771B2 (ja) 立体画像撮影装置
JP2011075675A (ja) 複眼撮像装置
US20130155204A1 (en) Imaging apparatus and movement controlling method thereof
US20110025824A1 (en) Multiple eye photography method and apparatus, and program
JP2008141776A (ja) デジタルカメラ
CN103329549B (zh) 立体视频处理器、立体成像装置和立体视频处理方法
WO2013047641A1 (ja) 立体画像処理装置及び立体画像処理方法
JP4632060B2 (ja) 画像記録装置、方法およびプログラム
JP2021016128A (ja) 撮像装置、撮像方法およびプログラム
JP2024082891A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体
JP5307189B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2014149459A (ja) 撮像装置及びその制御方法
JP2014057172A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2016019256A (ja) 立体画像表示装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150527

Termination date: 20210716