CN101968603A - 立体成像设备和立体成像方法 - Google Patents
立体成像设备和立体成像方法 Download PDFInfo
- Publication number
- CN101968603A CN101968603A CN2010102396166A CN201010239616A CN101968603A CN 101968603 A CN101968603 A CN 101968603A CN 2010102396166 A CN2010102396166 A CN 2010102396166A CN 201010239616 A CN201010239616 A CN 201010239616A CN 101968603 A CN101968603 A CN 101968603A
- Authority
- CN
- China
- Prior art keywords
- focal position
- imaging
- condenser lens
- imaging device
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
Abstract
本发明提供一种立体成像设备和立体成像方法。所述立体成像方法使用:第一和第二成像装置(11L,11R),其包括具有第一和第二聚焦透镜(130FL,130FR)的第一和第二成像光学系统(14L,14R),并且对被摄对象成像以产生第一和第二图像;以及,透镜驱动装置(126L,126R),其被配置来分别沿着所述第一和第二成像光学系统的所述第一和第二光轴来移动所述第一和第二聚焦透镜,所述方法包括:移动所述聚焦透镜以分别检测在第一和第二聚焦透镜的成像空间中的第一和第二聚焦位置;计算在其中所述第一和第二成像装置的视差量在可接受的范围内的立体视像可能范围;判定所述聚焦位置是否在所述光轴的交叉处和所述立体视像可能范围的近点之间;以及,使得所述透镜驱动装置将所述第一和第二聚焦透镜聚焦在所判定的聚焦位置上。
Description
技术领域
本公开的主题涉及包括多个成像装置的立体成像设备和使用多个成像装置的立体成像方法,具体地,涉及被配置来获得立体图像的立体成像设备和立体成像方法,在其中,防止(减少或最小化)了成像装置的聚焦位置的位移(偏移),通过这样,能容易地获得立体视像,并且使得观众的眼睛不易疲劳。
背景技术
存在已知的立体成像设备,包括:左成像系统,其包括具有聚焦透镜的左成像光学系统,并且对被摄对象成像以产生用于左眼的照相图像(左眼图像);以及,右成像系统,其包括具有聚焦透镜的右成像光学系统,并且对被摄对象成像以产生用于右眼的照相图像(右眼图像)。所述立体成像设备通过使用左眼图像和右眼图像来允许立体视像显示。
日本专利申请特开No.2006-162990公开了一种用于通过下述步骤来防止聚焦位置偏移的构造:通过左成像系统和右成像系统执行AF(自动聚焦调整处理),并且将一个成像系统的聚焦透镜设置在由另一个成像系统获得的照相图像的高频分量最大的聚焦透镜位置。
日本专利申请特开No.8-194274公开了一种包括会聚角调整机制的构造,所述会聚角调整机制被配置来调整成像光学系统的会聚角。
发明内容
在立体成像设备中存在双目视差。因此,如果将聚焦区域设置在视角的中央,则左成像系统和右成像系统的聚焦位置可能会发生偏移。由于聚焦位置的偏移,导致可能会丢失图像的三维效果。
在日本专利申请特开No.2006-162990的构造中,在左成像系统和右成像系统中聚焦位置重合。然而,重合的聚焦位置可能在立体视像可能范围之外,并且,可能不能获得适当的立体图像。
在日本专利申请特开No.8-194274的构造中,被配置来调整会聚角的机制是必要的,并且无论采用何种方式这样的机制都是复杂的,这导致了大的设备尺寸和高成本。
已经考虑到所述情况而建立了本公开的主题,并且本公开的主题的目的是提供一种立体成像设备和一种立体成像方法,其能够获得立体图像,在其中,防止了聚焦位置的偏移,由此容易地获得立体视像,并且使得观众的眼睛不易变得疲劳,并且所述立体成像设备和所述立体成像方法能够使得设备的尺寸紧凑。
为了实现这个目的,本公开的主题的第一方面提供了一种立体成像设备,其包括:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;聚焦位置检测装置,其被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;立体视像可能范围计算装置,其被配置来计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的立体视像可能范围;聚焦位置判定装置,其被配置来判定所述聚焦位置是否在所述立体视像可能范围内;以及,聚焦控制装置,其被配置来使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置的一个聚焦位置,所述一个聚焦位置被判定为在所述立体视像可能范围内。根据所述方面,即使所述被摄对象未在所述成像光学系统的光轴的相交处(交叉点),并且如果所述成像装置通过将聚焦区域设置在视角的中央来执行聚焦搜索,则所述第一和第二聚焦透镜聚焦在所述立体视像可能范围中的所述聚焦位置上。因此,可以获得立体图像,在其中,防止了聚焦位置的偏移,使得容易形成立体视像,使得眼睛不容易变得疲劳,并且使得三维效果良好。而且,因为不需要用于调整会聚角的机制,所以可以提供具有紧凑的设备尺寸的便宜的立体成像设备。
在本说明书中,在其中存在要成像的被摄对象的空间(即,要成像的空间)被称为“成像空间”。在本说明书中,当所述聚焦透镜聚焦在视角中的特定范围(聚焦区域)时所述聚焦透镜所聚焦在的所述成像空间中的位置(即,所述聚焦透镜所聚焦在的被摄对象的位置)被称为“聚焦位置”。例如,当所述聚焦透镜聚焦在视角的中央时,在所述成像光学系统的光轴上存在的被摄对象的位置是“聚焦位置”。在该情况下,可以使用被摄对象距离来表达所述聚焦位置。在本说明书中,聚焦在视角的特定范围(聚焦区域)中的被摄对象的聚焦透镜的透镜位置被称为“聚焦透镜位置”。
本公开的主题的第二方面提供了一种立体成像设备,包括:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;聚焦位置检测装置,其被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;景深计算装置,其被配置来计算所述成像装置的景深;聚焦位置判定装置,其被配置来判定所述第一聚焦位置和所述第二聚焦位置两者是否均被包括在所述成像装置的景深中;以及,聚焦控制装置,其被配置来使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的所述聚焦位置中的一个上,所述成像装置的景深包括所述第一聚焦位置和所述第二聚焦位置。根据所述方面,即使所述被摄对象未在所述成像光学系统的光轴的相交处(交叉点),并且如果所述成像装置通过将聚焦区域设置在视角的中央来执行聚焦搜索,则所述第一和第二聚焦透镜聚焦在由所述成像装置检测的聚焦位置之一,所述成像装置的景深中包括所述两个聚焦位置。因此,可以获得良好的立体图像,在其中,防止了聚焦位置的偏移,使得立体视像变得容易,并且,使得眼睛不容易变得疲劳。而且,因为不需要用于调整会聚角的机制,所以可以提供具有紧凑的设备尺寸的便宜的立体成像设备。
本公开的主题的第三方面提供了一种立体成像设备,包括:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;聚焦位置检测装置,其被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;视差量计算装置,其被配置来为每一个聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;聚焦位置判定装置,其被配置来从所述第一聚焦位置和所述第二聚焦位置中判定具有较小的视差量的聚焦位置;以及,聚焦控制装置,其被配置来使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述聚焦位置判定装置判定为具有较小视差量的聚焦位置。根据所述方面,即使所述被摄对象未在所述成像光学系统的光轴的相交处(交叉点),并且如果所述成像装置通过将聚焦区域设置在视角的中央来执行聚焦搜索,所述第一和第二聚焦透镜聚焦在具有较小视差量的聚焦位置上。因此,可以获得良好的立体图像,在其中,防止了聚焦位置的偏移,使得立体视像变得容易,并且,使得眼睛不变得疲劳。而且,因为不需要用于调整会聚角的机制,所以可以提供具有紧凑的设备尺寸的便宜的立体成像设备。
本公开的主题的第四方面提供了一种立体成像设备,其包括:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;聚焦位置检测装置,其被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;立体视像可能范围计算装置,其被配置来计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的立体视像可能范围;景深计算装置,其被配置来计算所述成像装置的景深;视差量计算装置,其被配置来为每一个所述聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;聚焦位置选择装置,其被配置来基于所述第一聚焦位置、所述第二聚焦位置、所述立体视像可能范围、所述景深、和所述视差量来从所述第一聚焦位置和所述第二聚焦位置中选择一个聚焦位置;以及,聚焦控制装置,其被配置来使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述选择的聚焦位置。
本公开的主题的第五方面提供了根据第一方面的立体成像设备,进一步包括景深计算装置,所述景深计算装置被配置来计算所述成像装置的景深,其中,所述聚焦位置判定装置判定所述第一聚焦位置和所述第二聚焦位置是否都被包括在所述成像装置的景深中,并且,如果所述第一聚焦位置和所述第二聚焦位置两者均在所述立体视像可能范围内,所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的所述聚焦位置之一,所述成像装置的景深包括在所述景深中的所述第一聚焦位置和所述第二聚焦位置两者。
本公开的主题的第六方面提供了根据第一方面的立体成像设备,进一步包括视差量获取装置,所述视差量获取装置被配置来获取在所述第一图像和所述第二图像中的聚焦位置的视差量,其中,如果所述第一聚焦位置和所述第二聚焦位置两者都在所述立体视像可能范围内,则所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的具有较小的视差量的一个上。
本公开的主题的第七方面提供了根据第一、第五和第六方面的任何一个的立体成像设备,其进一步包括景深计算装置,所述景深计算装置计算所述成像装置的景深,其中,所述聚焦位置判定装置判定所述第一聚焦位置和所述第二聚焦位置是否都被包括在所述成像装置的景深中,并且,如果所述第一聚焦位置和所述第二聚焦位置两者都在所述立体视像可能范围之外,所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的所述聚焦位置中的一个上,所述成像装置的景深包括在所述景深中的所述第一聚焦位置和所述第二聚焦位置两者。
本公开的主题的第八方面提供了根据第一、第五和第六方面的任何一个的立体成像设备,其进一步包括视差量获取装置,所述视差量获取装置被配置来获取在所述第一图像和所述第二图像中的聚焦位置的视差量,其中,如果所述第一聚焦位置和所述第二聚焦位置两者都在所述立体视像可能范围之外,则所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中具有较小的视差量的一个上。
本公开的主题的第九方面提供了根据第一方面的立体成像设备,其中,所述聚焦位置判定装置判定所述聚焦位置是否在所述成像光学系统的光轴的交叉处和所述立体视像可能范围的近点之间,并且,所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的被判定为在所述交叉处和所述立体视像可能范围的近点之间的一个上。
本公开的主题的第十方面提供了根据第九方面的立体成像设备,其中,如果所述第一聚焦位置和所述第二聚焦位置在所述交叉处和所述立体视像可能范围的所述近点之间,则所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的最接近所述近点的一个上。
本公开的主题的第十一方面提供了一种立体成像方法,其使用:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且对被摄对象成像以产生第二图像;以及,透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:聚焦位置检测步骤,其通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;立体视像可能范围计算步骤,其计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的立体视像的可能范围;聚焦位置判定步骤,其判定所述聚焦位置是否在所述立体视像可能范围内;以及,聚焦步骤,其使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的一个聚焦位置,所述一个聚焦位置被判定为在所述立体视像可能范围内。
本公开的主题的第十二方面提供了一种立体成像方法,其使用:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且对被摄对象成像以产生第二图像;以及,透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:聚焦位置检测步骤,其通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;景深计算步骤,其计算所述成像装置的景深;聚焦位置判定步骤,其判定所述第一聚焦位置和所述第二聚焦位置两者是否都被包括在所述成像装置的景深中;以及,聚焦步骤,其使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的聚焦位置中的一个上,所述成像装置的景深包括所述第一聚焦位置和所述第二聚焦位置两者。
本公开的主题的第十三方面提供了一种立体成像方法,其使用:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且对被摄对象成像以产生第二图像;透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:聚焦位置检测步骤,其通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;视差量计算步骤,其对于每一个所述聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;聚焦位置判定步骤,其从所述第一聚焦位置和所述第二聚焦位置中判定具有较小的视差量的聚焦位置;以及,聚焦步骤,其使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述聚焦位置判定步骤中被判定为具有较小的视差量的所述聚焦位置上。
本公开的主题的第十四方面提供了一种立体成像方法,其使用:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且对被摄对象成像以产生第二图像;透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:聚焦位置检测步骤,其通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;立体视像可能范围计算步骤,其计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的所述成像空间中的立体视像的可能范围;景深计算步骤,其计算所述成像装置的景深;视差量计算步骤,其对于每一个所述聚焦位置来计算所述第一成像装置和所述第二成像装置的视差量;聚焦位置选择步骤,其基于所述第一聚焦位置、所述第二聚焦位置、所述立体视像可能范围、所述景深、和所述视差量来从所述第一聚焦位置和所述第二聚焦位置中选择一个聚焦位置;以及,聚焦步骤,其使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述选择的聚焦位置上。
本公开的主题的第十五方面提供了一种立体成像方法,其使用:第一成像装置,其被配置来包括具有第一聚焦透镜的第一成像光学系统,并且对被摄对象成像以产生第一图像;第二成像装置,其被配置来包括具有第二聚焦透镜的第二成像光学系统,并且对被摄对象成像以产生第二图像;以及,透镜驱动装置,其被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:聚焦位置检测步骤,其通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;立体视像可能范围计算步骤,其计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的所述成像空间中的立体视像的可能范围;聚焦位置判定步骤,其判定所述聚焦位置是否在所述成像光学系统的光轴的交叉处和所述立体视像可能范围的近点之间;以及,聚焦步骤,其用于使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的一个聚焦位置,所述一个聚焦位置被判定为在所述交叉处和所述立体视像可能范围的所述近点之间。
根据本公开的主题,可以获得立体图像,在其中,防止了聚焦位置的偏移,由此,能够容易地获得立体视像,并且使得观众的眼睛不易变得疲劳,还可以使得设备的尺寸紧凑。
附图说明
图1是图示根据本公开的主题的数字照相机的外部配置的前透视图;
图2是图示根据本公开的主题的数字照相机的外部配置的后透视图;
图3是用于解释能够进行立体视像显示的监控器的结构的示例的说明图;
图4A和4B是用于解释用于立体视像成像和立体视像显示的配置的说明图;
图5是根据第一实施例的数字照相机的内部配置的框图;
图6A和6B是图示根据第一实施例的立体成像控制处理的流程的示例的流程图;
图7是用于解释第一实施例的图像空间的示例的说明图;
图8A和8B是图示在成像空间中的照相图像的示例的说明图;
图9是用于解释飞出(pop-up)图像和引入(pop-down)图像的说明图;
图10是图示在交叉点和立体视像可能范围之间的对应性的图;
图11A和11B是用于解释在其中通过电路来构成立体视像可能范围计算单元和聚焦位置判定单元的情况的说明图;
图12是图示根据第二实施例的数字照相机的内部配置的框图;
图13A和13B是图示根据第二实施例的立体成像控制处理的流程的示例的流程图;
图14是图示用于解释第二实施例的成像空间的示例的说明图;
图15是用于解释在其中由电路构成聚焦位置判定单元的情况的说明图;
图16是图示根据第三实施例的数字照相机的内部配置的框图;
图17A和17B是图示根据第三实施例的立体成像控制处理的流程的示例的流程图;
图18是图示用于解释第三实施例的成像空间的示例的说明图;
图19是用于解释在其中通过电路来构成景深计算单元的情况的说明图;
图20是图示根据第四实施例的数字照相机的内部配置的框图;
图21A和21B是图示根据第四实施例的立体成像控制处理的流程的示例的流程图;
图22是图示用于解释第四实施例的成像空间的示例的说明图;
图23A和23B是用于解释视差量的说明图;
图24是用于解释在其中通过电路来构成视差量计算单元的情况的说明图;
图25是图示根据第五实施例的数字照相机的内部配置的框图;
图26A和26B是图示根据第五实施例的立体成像控制处理的流程的示例的流程图;
图27是图示在成像时的聚焦位置的判定表的示例的说明图;以及
图28是图示在成像时的聚焦位置的判定表的另一个示例的说明图。
具体实施方式
现在参考附图详细说明本公开的主题的实施例。
图1是根据本公开的主题的一个实施例的数字照相机的外部构造的前透视图。图2是图1的数字照相机的后透视图。
本实施例的数字照相机10是包括多个成像系统(以下称为“成像装置”)的立体成像设备的示例,并且可以从多个视点来对同一被摄对象成像。
虽然为了说明方便而在当前实施例中图示了两个成像系统,当存在三个或更多成像系统时,也可以以相同的方式来应用本公开的主题。成像系统(主要是拍摄透镜14R和14L)可以不沿水平方向上对齐在一条线上,而是可以二维地被布置。
数字照相机10的数字照相机主体12以矩形盒状来形成。如图1中所示,所述拍摄透镜对14R和14L、补光发射单元15、闪光灯16等被布置在数字照相机主体12的前侧上。快门按钮18、电源/模式开关20、模式转盘22等被布置在数字照相机主体12的上表面上。
如图2中所示,监控器24、变焦按钮26、十字按钮28、菜单/OK按钮30、DISP(显示)按钮32、BACK(返回)按钮34、垂直成像/水平成像切换按钮36等被布置在数字照相机主体12的后侧上。
所述右和左拍摄透镜对14R和14L由折叠透镜构成,并且包括微距成像功能(接近成像功能)。当数字照相机10的电源接通时,拍摄透镜14R和14L从数字照相机主体12中伸出。拍摄透镜的变焦机制、折叠机制、和微距成像机制是已知的技术,在此将不说明具体配置。
闪光灯16向成像空间发出用于主成像的光。本实施例的闪光灯16由氙气管或LED(发光二极管)构成,并且闪光灯16在必要时发光以对暗的被摄对象成像,或在背光期间成像。
快门按钮18由两行程开关构成,所述两行程开关能够进行所谓的“半按”和“全按”。在静止图像拍摄期间(例如,当通过模式转盘22或菜单选择静止图像拍摄模式时),数字照相机10当半按下快门按钮180时执行成像准备处理,成像准备处理包括AE(自动曝光)处理、AF(自动聚焦调整)处理、和AWB(自动白平衡)处理;并且数字照相机10当全按下快门按钮18时执行主成像和拍摄图像的记录处理。以下,因为至少执行AF处理,所以所述半按可以被称为“聚焦指令”,并且因为至少执行拍摄图像的记录处理,所以所述全按可以被称为“成像指令”。在移动图像拍摄(例如,当通过模式转盘22或菜单来选择移动图像拍摄模式时)期间,数字照相机10当快门按钮18被全按下时开始对移动图像成像,并且当快门按钮18再一次被全按下时结束成像。默认地,可以在全按下快门按钮18的同时对移动图像成像,并且可以当释放全按时结束所述成像。也可以布置专用于静止图像拍摄的快门按钮或专用于移动图像拍摄的快门按钮。
电源/模式开关20作为数字照相机10的电源开关,并且作为用于切换数字照相机10的再现模式和拍摄模式的切换装置。电源/模式开关20可在“关闭位置”、“再现位置”和“拍摄位置”之间滑动。当电源/模式开关20位于“再现位置”时,数字照相机10被设置到再现模式,并且当电源/模式开关20位于“拍摄位置”时,数字照相机10被设置到拍摄模式。当电源/模式开关20位于“关闭位置”时,电源关断。
模式转盘22用于设置拍摄模式和再现模式的细节。模式转盘22以可旋转方式布置在数字照相机主体12的上表面上,并且未示出的棘轮(click)机构可以将模式转盘22设置到“2D静止图像位置”、“2D移动图像位置”、“3D静止图像位置”和“3D移动图像位置”。
当模式转盘22被设置到在拍摄模式中的“2D静止图像位置”时,设置用于对二维(2D)静止图像成像的2D静止图像拍摄模式,并且对2D/3D模式切换标记设置用于指示2D模式的标记。当将模式转盘22设置到“2D移动图像位置”时,设置用于对2D移动图像成像的2D移动图像拍摄模式,并且对2D/3D模式切换标记设置用于指示2D模式的标记。当模式转盘22被设置为“3D静止图像位置”时,设置用于对三维(3D)静止图像成像的3D静止图像拍摄模式,并且对2D/3D模式切换标记设置用于指示3D模式的标记。当模式转盘22被设置为“3D移动图像位置”时,设置用于对3D移动图像成像的3D移动图像拍摄模式,并且对2D/3D模式切换标记设置指示3D模式的标记。下述的CPU(中央处理单元)110将参考2D/3D模式切换标记来识别设置成2D模式和3D模式中的哪一个。
“2D”表示二维(即,平面),并且“3D”表示三维(即,立体)。2D成像表示来自单个视点的拍摄图像(2D图像)的成像和记录(也称为“二维成像”和“平面成像”),并且,2D显示表示来自单个视点的拍摄图像(2D图像)(也称为“二维显示”和“平面显示”)的显示。3D成像表示来自多个视点的拍摄图像(3D图像)的成像和记录(也称为“三维成像”和“立体视像成像”),并且,3D显示表示来自多个视点的拍摄图像(3D图像)的显示(也称为“三维显示”和“立体视像显示”)。虽然通常三维地显示通过3D成像获得的来自多个视点的拍摄图像,但是在一些情况下可以仅二维地显示在所述多个视点的拍摄图像中的来自一个视点的拍摄图像。
监控器24是诸如彩色液晶板的显示装置。监控器24被用作用于显示所拍摄的图像的图像显示单元,并且被用作用于各种设置的GUI(图形用户界面)。在成像期间,监控器24依序显示由成像元件134R和134L连续捕获的图像(实时取景图像或直通图像),并且被用作电子取景器。
变焦按钮26用于拍摄透镜14R和14L的变焦操作,并且由用于指令远摄变焦的远摄变焦按钮和用于指令广角变焦的广角变焦按钮构成。
可以在垂直和水平的四个方向上按压和操作十字按钮28,并且根据数字照相机的设置状态的功能被分配到方向按钮上。
菜单/OK按钮30用于调用菜单屏幕(菜单功能)以及确认选择的内容,并且指令处理的执行(OK功能)。
DISP按钮32用于输入监控器24等的显示内容的切换指令。返回按钮34用于输入指令,例如,输入操作的取消。
垂直成像/水平成像切换按钮36是用于指令是要通过垂直成像还是通过水平成像来拍摄图像的按钮。
输入/输出连接器38用于与外部的无线通信。可以通过输入/输出连接器38来向数字照相机10输入所拍摄的图像。
图3是用于解释能够进行立体视像显示的监控器24的结构的示例的说明图。在本实施例中使用柱状透镜系统,并且使用在前侧布置了包括半圆透镜组的柱状透镜的监控器24。
柱状透镜24a被布置在监控器24的前侧上(观察者的视点(左眼EL和右眼ER)所位于的z轴方向)。通过在图3的x轴方向上布置多个柱形凸透镜来构成柱状透镜24a。
在监控器24上显示的立体图像(也称为“3D图像”)的显示区域通过左眼带图像显示区域24L和右眼带图像显示区域24R来构成。左眼带图像显示区域24L和右眼带图像显示区域24R在屏幕的图3的y轴方向上具有细长带形状,并且被交替地布置在图3的x轴方向上。
基于观察者的给定观察点,在与带集合图像显示区域24c对应的位置处形成构成柱状透镜24a的凸透镜,所述带集合图像显示区域24c包括左眼带图像显示区域24L和右眼带图像显示区域24R的组。
在图3中,在监控器24的左眼带图像显示区域24L中显示的左眼带图像通过柱状透镜24a的光折射效应被投射到观察者的左眼EL。在监控器24的右眼带图像显示区域24R上显示的右眼带图像通过柱状透镜24a的光折射效应被投射到观察者的右眼ER。因此,观察者的左眼仅看到左眼带图像,并且观察者的右眼仅看到右眼带图像。通过基于左眼图像和右眼图像的左/右视差,使得立体视像变得可能,其中,所述左眼图像是左眼带图像的集合,所述右眼图像是右眼带图像的集合。
虽然已经参考图3描述了使用柱状透镜系统来作为用于三维显示器的监控器24的结构的示例,本公开的主题不特别限于所述柱状透镜系统。
例如,可以使用视差格栅系统,其中,左拍摄图像和右拍摄图像在图像的垂直方向上被切割为细长带形状,所述图像被交替地对齐和显示,并且所述图像通过以相同方式垂直切开的狭缝而被提供到观察者,以由此向观察者的左眼传递左拍摄图像,并且向右眼传递右拍摄图像。同样还可以使用其他空间分割系统。
还可以使用光方向控制系统(也称为时分光方向控制背光系统)来以时分的方式在观察者的右眼方向和左眼方向上控制照射构成监控器24的LCD(液晶显示装置)的背面的背光的方向。在下文中描述了所述光方向控制系统:Kentaro Toyooka,Tetsuya Miyashita,Tatsuo Uchida,″The three-dimensional display using a field-sequential light direction control back light″,Proceedings of Japanese Liquid CrystalSociety Annual Meeting 2000,pp.137-138(2000),以及日本专利申请特开No.2004-20684等。也可以使用在日本专利3930021等中描述的所谓的扫描背光系统。
还可以通过交替地显示左右图像,并且使得观察者使用图像分离眼镜来提供图像的立体视像。
例如,监控器24是液晶显示装置和有机EL(电致发光)显示装置。则可以使用自发射系统,或可以使用包括用于控制光量的独立光源的系统。可以使用任何系统,例如,基于偏振、彩色立体图(anaglyph)的系统和裸眼系统。也可以使用在多层中堆积液晶和有机EL的系统。
将参考图4A和4B来说明在图1至3中图示的数字照相机10中的3D成像(立体视像成像)和3D显示(立体视像显示)的概要。
为了便利本发明的理解,基线长度SB(在数字照相机10中的成像系统11L和11R的光轴之间的间隔)和会聚角θc(由成像系统11L和11R的光轴形成的角度)在说明中是固定的。
多个成像系统11L和11R从多个视点拍摄相同特定目标91(例如球体)的图像,即,执行3D成像,以产生多个拍摄图像,在本实施例中该多个拍摄图像为左拍摄图像(左眼图像)92L和右拍摄图像(右眼图像)92R。所产生的拍摄图像92L和92R分别包括同一特定目标91所投影的特定目标图像93L和93R。
拍摄图像92L和92R在能够进行立体视像显示的监控器24上被重叠显示,即,执行3D显示,以产生3D显示图像94。在本实施例中,3D显示图像94由左拍摄图像92L和右拍摄图像92R构成。观察者95从两眼96L和96R观察在监控器24上的3D显示图像94。因此,观察者95可以看到所述特定目标91(例如球体)的虚拟图像97飞出。在图4A和4B中,虚拟图像97看起来朝着近侧飞出,因为特定目标91处于比光轴的相交处99(也称为“交叉点”)更近的位置。如果特定目标在比相交处99更远的位置,则虚拟图像看起来朝着远侧引入。
如图4A和4B中所示,在被摄对象距离S小于到成像系统11L和11R的光轴的相交处99的距离的范围中,被摄对象距离S越小,则在拍摄图像92L和92R上的特定目标图像93L和93R的中央坐标XLF和XRF(仅在图4A和4B中图示了x坐标)之间的差|XLF-XRF|越大。因此,被摄对象距离S越小,则在来自不同视点的拍摄图像之间的对应点越远。所述差|XLF-XRF|仅包括x坐标,并且所述差被表达为双目视差量AP。换句话说,如果确定了基线长度SB和会聚角θc,那么被摄对象距离S越小,则AP越大,并且观察者95感到的虚拟图像97的飞出量AD也越大。
虽然已经描述了在其中基线长度SB和会聚角θc恒定的本实施例,但是如果会聚角θc可变,则飞出量AD根据会聚角θc和被摄对象距离S而改变。
如果除了会聚角θc之外基线长度SB也可变,则飞出量AD根据基线长度SB、会聚角θc、和被摄对象距离S改变。
将在下面是实施例中描述在图1和2中图示的数字照相机10的示例。
(第一实施例)
图5是图示根据第一实施例的数字照相机101的内部构造的框图。以相同的附图标记来指定在图1和2中图示的元件,并且,将不重复已经描述的内容的描述。
如图5中所示,本实施例的数字照相机101被配置来能够从两个成像系统11L和11R的每一个获得图像信号。数字照相机101包括:立体视像可能范围计算单元42、聚焦位置判定单元48、CPU 110、计时(时间测量)单元111、操作单元112、ROM(只读存储器)116、闪存ROM 118、SDRAM(同步动态随机存取存储器)120、VRAM(视频RAM)122(图像显示存储器)、变焦透镜控制单元124(124L和124R)、聚焦透镜控制单元126(126L和126R)、光圈控制单元(光阑控制单元)128(128L和128R)、成像元件134(134L和134R)、成像元件控制单元136(136L和136R)、模拟信号处理单元138(138L和138R)、模/数转化器140(140L和140R)、图像输入控制器141(141L和141R)、数字信号处理单元142(142L和142R)、AF检测单元144、AE/AWB检测单元146、3D图像产生单元150、压缩/解压缩处理单元152、介质控制单元154、存储卡156、显示控制单元158、功率控制单元160、电池162、闪光灯控制单元164、和方位检测传感器166。
用于左眼的成像系统11L(也称为“左成像装置”)包括:拍摄透镜14L、变焦透镜控制单元124L、聚焦透镜控制单元126L、光圈控制单元128L、成像元件134L、成像元件控制单元136L、模拟信号处理单元138L、模/数转化器140L、图像输入控制器141L、和数字信号处理单元142L。
用于右眼的成像系统11R(也称为“右成像装置”)包括:拍摄透镜14R、变焦透镜控制单元124R、聚焦透镜控制单元126R、光圈控制单元128R、成像元件134R、成像元件控制单元136R、模拟信号处理单元138R、模/数转化器140R、图像输入控制器141R、和数字信号处理单元142R。
在本说明书中,由成像系统11L和11R通过对被摄对象成像而获得的图像信号(图像数据)将被称为“拍摄图像”。由用于左眼的成像系统11L获得的拍摄图像将被称为“左拍摄图像”,并且由用于右眼的成像系统11R获得的拍摄图像被称为“右拍摄图像”。
CPU 110作为控制装置,其综合地控制整个数字照相机的操作,诸如成像和再现。CPU 110基于来自操作单元112的输入,根据预定的控制程序来控制所述部件。
计时单元111记录当前日期/时间,并且根据来自CPU 110的命令来测量时间。
如图1和2中所示,操作单元112包括:快门按钮18、电源/模式开关20、模式转盘22、变焦按钮26、十字按钮28、菜单/OK按钮30、显示按钮32、返回按钮34、垂直成像/水平成像切换按钮36。
通过总线114连接的ROM 116存储由CPU 110执行的控制程序、用于控制所需要的各种数据等。闪存ROM 118存储用户设置信息等,诸如与数字照相机10的操作相关的各种设置信息。
SDRAM 120被用作CPU 110的计算工作区域,并且被用作图像数据的暂时存储区域。VRAM 122被用作专用于要显示的图像数据的暂时存储区域。
所述左右拍摄透镜对14L和14R(可以被统称为拍摄透镜14)包括变焦透镜130ZL和130ZR(可以被统称为变焦透镜130Z)、聚焦透镜130FL和130FR(可以被统称为聚焦透镜130F)、以及光圈132L和132R。左右拍摄透镜14L和14R附到数字照相机主体12的未示出的主体框架上,以便光轴131L和131R以预定的间隔平行(SB:基线长度)。
作为变焦透镜驱动装置的变焦透镜控制单元124R和124L分别驱动变焦透镜130ZR和130ZL,并且,变焦透镜130ZR和130ZL沿着其光轴来回移动。CPU 110控制变焦透镜130ZL和130ZR的位置,并且通过拍摄透镜14L和14R经由变焦透镜控制单元124L和124R来执行变焦处理。
作为聚焦透镜驱动装置的聚焦透镜控制单元126L和126R分别驱动聚焦透镜130FL和130FR,并且,聚焦透镜130FL和130FR沿着其光轴来回移动。CPU 110控制聚焦透镜130FL和130FR的位置,并且通过拍摄透镜14L和14R经由聚焦透镜控制单元126L和126R来执行聚焦调整处理。
光圈132L和132R由例如光阑光圈构成,并且利用未示出的用于操作的光圈致动器来进行驱动。CPU 110通过光圈控制单元128L和128R来控制光圈致动器的驱动,以控制光圈132L和132R的打开(光圈值),从而控制进入成像元件134L和134R的光量。
CPU 110同步和驱动左右拍摄透镜14L和14R,以驱动构成拍摄透镜14L和14R的变焦透镜130ZL和130ZR、聚焦透镜130FL和130FR、以及光圈132L和132R。更具体说来,左右拍摄透镜14L和14R总是被设置在相同的焦距(变焦放大倍率),并且调整聚焦以总是对同一被摄对象聚焦。而且,调整光圈以便注入的光量(光圈值)总是相同。
成像元件134L和134R由彩色CCD(电荷耦合器件)构成,所述彩色CCD包括以预定图案排列的滤色器(例如,R(红色)、G(绿色)、B(蓝色))。多个光电二极管被二维地布置在CCD的光接收表面上。光电二极管将在CCD的光接收表面上的、由拍摄透镜14L和14R形成的被摄对象的光学图像(被摄图像)转换为与注入的光量对应的信号电荷。根据CPU 110的命令,基于从成像元件控制单元136L和136R提供的驱动脉冲,在光电二极管上的累积的信号电荷被顺序地从成像元件134L和134R读出为与信号电荷对应的电压信号(图像信号)。成像元件134L和134R包括电子快门的功能,并且通过控制光电二极管中的电荷存储时间来控制曝光时间(快门速度)。虽然CCD在本实施例中被用作成像元件,但是还可以使用具有其他构造的成像元件,诸如CMOS(互补金属氧化物半导体)传感器。
模拟信号处理单元138L和138R包括:相关双采样电路(CD),其用于去除在从成像元件134L和134R输出的图像信号中包括的复位噪声(低频);以及,AGC(自动增益控制)电路,其用于放大所述图像信号以将所述图像信号控制为一定水平的大小。模拟信号处理单元138L和138R向从成像元件134L和134R输出的图像信号应用相关双采样处理,并且放大图像信号。模/数转化器140L和140R将从模拟信号处理单元138L和138R输出的模拟图像信号转换为数字图像信号。图像输入控制器141L和141R导入(获得)从模/数转化器140L和140R输出的图像信号,并且将所述图像信号存储在SDRAM 120中。在本实施例中,左拍摄图像和右拍摄图像被暂时存储在SDRAM 120中。数字信号处理单元142L和142R根据来自CPU 110的命令导入(获得)在SDRAM 120中存储的图像信号,并且向图像信号应用预定信号处理,以产生由亮度信号Y与色差信号Cr和Cb构成的图像数据(Y/C信号)。数字信号处理单元142L和142R也根据来自CPU 110的命令来执行各种数字校正,诸如补偿(offset)处理、白平衡调整处理、伽玛校正处理、RGB插值处理、RGB/YC转换处理、降噪处理、轮廓校正处理、色调校正、和光源类型判定处理。数字信号处理单元142L和142R可以由硬件电路构成,或可以通过软件来构成相同的功能。
AF检测单元144导入从图像输入控制器141中的一个导入的R、G和B颜色的图像信号(拍摄图像),并且计算聚焦评估值。所述实施例的AF检测单元144包括:高通滤波器,其仅通过G信号的高频分量;绝对值形成处理器;聚焦区域提取单元,其切出在屏幕中设置的预定聚焦区域中的信号;以及,累计(integration)单元,其对在聚焦区域中的绝对值数据进行累计。AF检测单元144将由所述累计单元累计的在聚焦区域中的绝对值数据计算为聚焦评估值。聚焦评估值指示在聚焦区域中的拍摄图像的对比度。
CPU 110在AF控制期间搜索其中在聚焦区域中的从AF检测单元144输出的聚焦评估值是局部极大值的透镜位置(聚焦透镜位置),并且将聚焦透镜130FL和130FR移动到透镜位置,从而对在成像空间中要聚焦的被摄对象进行聚焦。例如,CPU 110首先将聚焦透镜130FL和130FR从最近距离移动到无限远距离,在所述移动过程中依序从AF检测单元144中获取聚焦评估值,检测其中在聚焦区域中聚焦评估值为局部极大的透镜位置,并且将聚焦透镜130FL和130FR移动到透镜位置(聚焦透镜位置)。以这种方式,对在视角中的位于聚焦区域中的被摄对象(主要被摄对象)进行聚焦。下面详细描述成像系统11L和11R的聚焦定位。
AE/AWB检测单元146导入从图像输入控制器141R导入的R、G和B颜色的图像信号,并且计算AE控制和AWB控制所需要的累计值。本示例的AE/AWB检测单元146将一个屏幕划分为多个区域(例如,8×8=64个区域),并且计算在每一个所划分的区域中的R、G和B信号的累计值。
CPU 110在AE控制期间获取由AE/AWB检测单元146计算的每一个区域中的R、G和B信号的累计值,并且获得被摄对象的亮度(光度值)以设置曝光。换句话说,CPU 110设置感光度、光圈值、快门速度、和闪光灯发光是否必要。
CPU 110在AWB控制期间获取由AE/AWB检测单元146计算的每一个区域中的R、G、和B信号的累计值,计算用于白平衡调整的增益值,并且检测光源类型。
3D图像产生单元150在3D成像期间(在3D静止图像拍摄模式或3D移动图像拍摄模式期间)从自左右双成像系统获得的图像数据中产生3D图像数据。
在3D静止图像拍摄模式期间,本实施例的数字照相机产生平行地排列的图像,所述图像包括由左成像系统获得的左拍摄图像和由右成像系统获得的右拍摄图像,并且所述图像在存储卡156中被记录为3D图像数据。在3D移动图像拍摄模式期间,产生时分系统的3D移动图像,并且在存储卡156中记录所述3D移动图像。这种类型的3D图像产生方法是已知技术,并且在此将不描述具体的产生方法。
压缩/解压缩处理单元152根据来自CPU 110的命令向输入的图像数据应用具有预定格式的压缩处理,以产生压缩的图像数据。压缩/解压缩处理单元152根据来自CPU 110的命令向输入的压缩图像数据应用具有预定格式的解压缩处理,以产生未压缩的图像数据。
介质控制单元154根据来自CPU 110的命令控制向存储卡156写入数据和从存储卡156读取数据。
显示控制单元158根据来自CPU 110的命令来控制向监控器24的显示。更具体说,显示控制单元158将输入的图像信号转换为用于在监控器24上显示的视频信号(例如,NTSC(国家电视系统委员会)信号、PAL(逐行倒相)信号、或SECAM顺序传送彩色与存贮信号)),并且向监控器24输出视频信号。显示控制单元158也将预定的字符、图、符号等的信号与图像信号组合,并且将信号输出到监控器24(所谓的在屏显示)。
功率控制单元160根据来自CPU 110的命令来控制从电池162向部件的供电。
闪光灯控制单元164根据来自CPU 110的命令来控制闪光灯16的发光。
方位检测传感器166检测数字照相机主体12的方位(垂直和水平倾斜),并且向CPU 110输出结果。更具体说,方位检测传感器166检测在数字照相机主体12的水平方向上的倾斜角(围绕拍摄透镜14L和14R的光轴的旋转角)和在数字照相机主体12的垂直方向上的倾斜角(在拍摄透镜14L和14R的光轴的垂直方向上的倾斜角)。
立体视像可能范围计算单元42计算在其中左成像系统11L和右成像系统11R的视差量在预定的可接受范围内的成像空间中的范围(以下称为“立体视像可能范围”)。
本实施例的聚焦位置判定单元48判定在成像系统11L和11R的成像空间中的聚焦位置是否在立体视像可能范围内,并且所述聚焦位置是否比拍摄透镜14L和14R的光轴相交处(以下称为“交叉点”)更近。更具体而言,聚焦位置判定单元48判定通过在成像系统11L和11R中的AF搜索获得的聚焦位置(左成像系统聚焦位置P1和右成像系统聚焦位置P2)是否在图7的交叉点位置CP和下述的立体视像可能近点位置Near之间。
虽然与在图5中的CPU 110分离地进行描述,但是立体视像可能范围计算单元42、聚焦位置判定单元48、和3D图像产生单元150可以通过CPU 110来构成。
图6A和6B是图示根据第一实施例的立体成像控制处理的流程的示例的流程图。图5的CPU 110根据程序来执行处理。
以下,将说明下述示例,其中,在图7中图示的成像空间中执行3D成像,并且将在图8A和8B中图示的左拍摄图像92L和右拍摄图像92R在存储卡156中记录为立体图像。在该情况下,如图9中示意地图示,比交叉点位置CP更近的花朵SUB1在监控器24上立体地显示为飞出图像,并且比交叉点位置CP远的汽车SUB2在监视器24上立体地显示为引入图像。
在步骤S101,CPU 110判定快门按钮18是否被半按下。如果快门按钮18被半按下,则处理进行到步骤S102。
在步骤S102,CPU 110执行AE(自动曝光)处理。因此,CPU 110执行光度测量,并且设置曝光量。
在步骤S103,CPU 110开始AF(自动聚焦)处理。
在步骤S104,CPU 110开始左成像系统11L的AF搜索。更具体地,在左成像系统11L中,CPU 110使得AF检测单元144计算在左拍摄图像92L的视角的中央的聚焦区域中的聚焦评估值,同时使得聚焦透镜控制单元126L沿着光轴131L移动聚焦透镜130FL。
在步骤S105中,CPU 110获取左成像系统聚焦位置P1。更具体地,CPU 110检测其中在左成像系统11L的聚焦区域中的聚焦评估值为局部极大的聚焦透镜130FL的透镜位置(左成像系统聚焦透镜位置),以获取与所述透镜位置对应的、在成像空间中的聚焦位置P1(以下称为“左成像系统聚焦位置”)。
在步骤S106,CPU 110开始右成像系统11R的AF搜索。更具体地,在右成像系统11R中,CPU 110使得AF检测单元144计算在右拍摄图像92R的视角的中央的聚焦区域中的聚焦评估值,同时使得聚焦透镜控制单元126R沿着光轴131R移动聚焦透镜130FR。
在步骤S107,CPU 110获取右成像系统聚焦位置P2。更具体地,CPU 110检测其中在右成像系统11R的聚焦区域中的聚焦评估值为局部极大的聚焦透镜130FR的透镜位置(右成像系统聚焦透镜位置),以获取与所述透镜位置对应的、在成像空间中的聚焦位置P2(以下称为“右成像系统聚焦位置”)。
在步骤S108,聚焦位置判定单元48计算在左成像系统聚焦位置P1和右成像系统聚焦位置P2之间的差Pdiff(以下称为“聚焦位置差”)。在图7中,在左成像系统11L的光轴131L上的花朵SUB1的位置用P1指示,在右成像系统11R的光轴131R上的汽车SUB2的位置用P2指示,并且在P1和P2之间的差(即,在P1和P2之间的距离)用Pdiff指示。
在步骤S109,聚焦位置判定单元48判定聚焦位置差Pdiff是否大于预定阈值Diff。如果Pdiff大于Diff,则处理进行到步骤S110。如果Pdiff等于或小于Diff,则处理进行到步骤S120。
在步骤S110,聚焦位置判定单元48初始地对左右成像系统聚焦位置P3设置默认位置。例如,左成像系统聚焦位置P1被用作默认位置。
在步骤S111,立体视像可能范围计算单元42计算在成像空间中的立体视像可能范围。在图7中,在立体视像可能近点位置“Near”和立体视像可能远点位置“Far”之间的区域是立体视像可能范围。在该示例中,基于近点可接受视差量Pnear、远点可接受视差量Pfar、焦距f、交叉点位置CP、和基线长度SB来计算在成像空间中的立体视像可能近点位置Near和立体视像可能远点位置Far。
如果立体视像可能视差量(称为“可接受视差量”)被表达为相对于视角的宽度的比率,则例如,所述比率在近点侧是3%,并且所述比率在远点侧是5%。通过与在成像元件134R的光接收表面上的光轴131R的距离来表示在图7中的近点可接受视差量Pnear和远点可接受视差量Pfar。焦距f对应于变焦位置(变焦透镜130ZR和130ZL的透镜位置),即,拍摄透镜14L和14R的变焦放大倍率。可以基于拍摄透镜14L,使用交叉点距离Scp、立体视像可能近点距离Snear、和立体视像可能远点距离Sfar来表达附图标记CP、Near和Far。基线长度SB是在拍摄透镜14L和14R之间的距离。在图7中,θnear和θfar用[表达式1]表达,并且Snear和Sfar用[表达式2]表达。在图7中,atan表示反正切。
[表达式1]
θnear=atan(Pnear/f)
θfar=atan(Pfar/f)
[表达式2]
Snear=SB×tan(90°-atan(SB/Scp)-θnear)
Sfar=SB×tan(90°-atan(SB/Scp)-θfar)
例如,立体视像可能范围计算单元42根据变焦按钮26的变焦操作来将焦距f设置为可变参数。并且将其他参数Pnear、Pfar、SB和Scp设置为固定参数,以根据表达式1和2计算Snear和Sfar。用于指示在焦距f、Snear、和Sfar之间的对应性的表格信息可以用于获取Snear和Sfar。如果Pnear、Pfar、SB、和Scp被设置为可变参数,则也可以应用本公开的主题。例如,图10的曲线图图示了在一定焦距(广角端)中的Scp、Snear、和Sfar之间的关系。准备用于存储每一个焦距的这样的对应性的表格信息允许将Scp处理为可变参数。
在步骤S112中,聚焦位置判定单元48判定左成像系统聚焦位置P1和右成像系统聚焦位置P2的至少一个的聚焦位置是否在交叉点位置CP和立体视像可能近点Near之间。在图7中,花朵的聚焦位置P1在CP和Near之间,并且汽车的聚焦位置P2在CP和Far之间。例如,在图7的情况中,将从左拍摄透镜14L到P1的距离(第一物距)与Scp和Snear作比较,并且将从右拍摄透镜14R到P2的距离(第二物距)与Scp×acos(θc)和Snear×acos(θc)作比较。顺便提及,θc表示会聚角,并且acos表示反余弦。如果聚焦位置P1和P2的至少一个被判定为在CP和Near之间的区域中,则所述处理进行到步骤S113。如果所述两个聚焦位置被判定为在CP和Near之间的区域之外,则所述处理进行到步骤S120。
在步骤S113中,聚焦位置判定单元48将在两个聚焦位置P1和P2中被判定为在交叉点位置CP和立体视像可能近点Near之间的聚焦位置设置为左右成像系统聚焦位置P3。在图7的情况下,将在CP和Near之间的花朵SUB1的聚焦位置P1设置为P3。如果P1和P2均在CP和Near之间,则P1和P2中最接近立体视像可能近点Near的一个被设置为P3。
在步骤S120,CPU 110使得聚焦透镜控制单元126L和126R将左成像系统11L的聚焦透镜130FL和右拍摄系统11R的聚焦透镜130FR移动到与左右成像系统聚焦位置P3对应的透镜位置。更具体地,CPU 110使得聚焦透镜130FL和130FR对位于交叉点位置CP和立体视像可能近点Near之间的被摄对象(在图7中的花朵SUB1)进行聚焦。
在步骤S121,CPU 110等待聚焦透镜控制单元126L和126R的聚焦操作的完成。
在步骤S122,CPU 110判定是否完全按下快门按钮18。如果完全按下快门按钮18,则处理进行到步骤S123。
在步骤S123中,开始成像。更具体地,左成像系统11L和右拍摄系统11R获得被摄对象的图像,并且介质控制单元154在存储卡156中记录所获得的立体图像(左拍摄图像92L和右拍摄图像92R)。
图11A和11B图示了在其中通过电路来构成本实施例的立体视像可能范围计算单元42和聚焦位置判定单元48的情况的示例。
图11A的立体视像可能范围计算单元42包括输入端口42a和输出端口42b。例如,当焦距f、交叉点位置CP、基线长度SB、近点可接受视差量Pnear、和远点可接受视差量Pfar被输入到输入端口42a时,立体视像可能范围计算单元42基于所输入的参数f、CP、SB、Pnear、和Pfar来计算在成像空间中的立体视像可能近点位置Near和立体视像可能远点位置Far,并且从输出端口42b输出Near和Far。附图标记CP、Near、和Far分别包括用于指示图7的交叉点距离Scp、立体视像可能近点距离Snear、和立体视像可能远点距离Sfar的值。虽然所述计算方法如上所述,但是可以预先在ROM 116或闪存ROM 118中存储用于指示在输入和输出之间的关系的表格信息,并且可以基于所述表格信息来输出Near和Far。而且,如所述,可以将CP、SB、P、Pnear、和Pfar设置为固定参数以跳过输入。
图11B的聚焦位置判定单元48包括输入端口48a和输出端口48b。例如,当向输入端口48a输入左成像系统聚焦位置P1、右成像系统聚焦位置P2、交叉点位置CP、立体视像可能近点位置Near、和立体视像可能远点位置Far时,聚焦位置判定单元48基于所输入的参数P1、P2、CP、Near、和Far从P1和P2中判定左右成像系统聚焦位置P3,并且从输出端口48b输出P3。参数CP、Near、和Far分别包括用于指示图7的交叉点距离Scp、立体视像可能近点距离Snear、和立体视像可能远点距离Sfar的值。虽然所述判定方法如上所述,但是可以预先在ROM 116或闪存ROM118中存储用于指示在输入和输出之间的关系的表格信息,并且可以基于所述表格信息来输出P3。此外,可以将CP设置为固定参数以跳过输入。从立体视像可能范围计算单元42的输出端口42b输出的参数Near和Far被输入。
(第二实施例)
图12是图示根据第二实施例的数字照相机102的内部配置的框图。使用相同的附图标记来指定与在图5中图示的第一实施例的数字照相机101相同的元件,并且将仅说明与第一实施例不同的项目。
本实施例的聚焦位置判定单元58判定聚焦位置P1和P2是否在立体视像可能范围内。
虽然与在图12中的CPU 110分离地进行描述,但是立体视像可能范围计算单元42和聚焦位置判定单元58可以通过CPU 110来构成。
图13A和13B是图示根据第二实施例的立体成像控制处理的流程的示例的流程图。图12的CPU 110根据程序来执行处理。
将描述下述示例,其中,在图14中图示的成像空间中执行立体视像成像,并且将左拍摄图像92L和右拍摄图像92R在存储卡156中记录为立体图像。
步骤S201至S208分别类似于在图6A和6B中图示的第一实施例中的S101至S108,并且将不重复说明。
在步骤S209,聚焦位置判定单元58判定聚焦位置差Pdiff是否大于阈值Diff。如果Pdiff大于Diff,则处理进行到步骤S210。如果Pdiff等于或小于Diff,则处理进行到步骤S220。
步骤S210和S211分别与第一实施例的S110和S111相同。
在步骤S212,聚焦位置判定单元58判定左成像系统聚焦位置P1和右成像系统聚焦位置P2的至少一个的聚焦位置是否在立体视像可能范围内。更具体地,聚焦位置判定单元58判定聚焦位置P1和P2是否在立体视像可能远点Far和立体视像可能近点Near之间,并且判定所述聚焦位置的至少一个是否在Far和Near之间。在图14中,P1在比Near更近的位置,P2在Far和Near之间。如果所述聚焦位置的至少一个被判定为在立体视像可能范围内,则所述处理进行到步骤S213。如果两个聚焦位置被判定为不在立体视像可能范围内,则所述处理进行到步骤S220。
在步骤S213,聚焦位置判定单元58将被判定为在立体视像可能范围内的聚焦位置P1和P2中的一个设置为左右成像系统聚焦位置P3。在图14的情况下,在Near和Far之间的P1被设置为P3。如果P1和P2都在Near和Far之间,则在P1和P2中的最接近立体视像可能近点Near的聚焦位置被设置为P3。
在步骤S220,CPU 110使得聚焦透镜控制单元126L和126R将左成像系统11L的聚焦透镜130FL和右成像系统11R的聚焦透镜130FR移动到与左右成像系统聚焦位置P3对应的透镜位置。因此,CPU 110使得聚焦透镜130FL和130FR对在立体视像可能范围中的被摄对象进行聚焦(在图14中的汽车SUB2)。
步骤S221至S223分别与第一实施例的S121至S123相同。
图15图示了在其中通过电路来构成本实施例的聚焦位置判定单元58的示例。在图15中,聚焦位置判定单元58包括输入端口58a和输出端口58b。例如,当向输入端口58a输入左成像系统聚焦位置P1、右成像系统聚焦位置P2、立体视像可能近点位置Near(Snear)、和立体视像可能远点位置Far(Sfar)时,聚焦位置判定单元58基于输入的参数P1、P2、Near、和Far从P1和P2判定左右成像系统聚焦位置P3,并且从输出端口58b输出P3。虽然判定方法如上所述,但是可以在ROM 116或闪存ROM 118中预先存储用于指示在输入和输出之间的关系的表格信息,并且可以基于表格信息来输出P3。
(第三实施例)
图16是根据第三实施例的数字照相机103的内部配置的框图。使用相同的附图标记来指定与根据在图5中图示的第一实施例的数字照相机101中相同的元件,并且将仅说明与第一实施例不同的项目。
景深计算单元64计算成像系统11L和11R的景深。
本实施例的聚焦位置判定单元68判定左成像系统聚焦位置P1和右成像系统聚焦位置P2是否都被包括在成像系统11L和11R的景深中。
虽然与在图16中的CPU 110分离地进行描述,但是景深计算单元64和聚焦位置判定单元68可以通过CPU 110构成。
图17A和17B是图示根据第三实施例的立体成像处理的流程的示例的流程图。图16的CPU 110根据程序来执行所述处理。
将描述下述示例,其中,在图18中的成像空间中执行立体视像成像,并且将左拍摄图像92L和右拍摄图像92R在存储卡156中记录为立体图像。
步骤S301至S308分别与在图6A和6B中图示的根据第一实施例的S101至S108相同,并且将不重复说明。
在步骤S309,聚焦位置判定单元68判定聚焦位置差Pdiff是否大于阈值Diff。如果Pdiff大于Diff,则所述处理进行到步骤S310。如果Pdiff等于或小于Diff,则所述处理进行到步骤S320。
在步骤S310,景深计算单元64计算成像系统11L和11R的景深。
假定H表示超焦距,f表示焦距,N表示光圈值,C表示模糊圈的可接受直径,Sp表示到聚焦位置的距离,DN表示近端景深,并且DF表示远端景深,则可以使用表达式3-6来计算景深D。
[表达式3]H=f2/(N×C)
[表达式4]DN=(Sp×(H-f))/(H+Sp-2f)
[表达式5]DF=(Sp×(H-f))/(H-Sp)
[表达式6]D=DN+DF
使用DL来指定左成像系统11L的景深D,并且使用DR来指定右成像系统11R的景深D。更具体地,DL表示当聚焦透镜130FL被设置在与左成像系统聚焦位置P1对应的透镜位置时的左成像系统11L的景深,并且,DR表示当聚焦透镜130FR被设置在与右成像系统聚焦位置P2对应的透镜位置时的右成像系统11R的景深。因此,景深计算单元64计算DL和DR。
在步骤S311,聚焦位置判定单元68判定左成像系统聚焦位置P1和右成像系统聚焦位置P2是否均被包括在成像系统11L和11R的景深DL和DR中,选择其中景深包括P1和P2的成像系统,并且将由所选择的成像系统的AF搜索检测的聚焦位置(P1或P2)中的一个设置为左右成像系统聚焦位置P3。在图18中,聚焦在P1上的左成像系统11L的景深DL包括P1和P2,而聚焦在P2上的右成像系统11R的景深DR仅包括P2。因此,聚焦位置判定单元68选择左成像系统11L,并且将P1设置为P3。
在步骤S320,CPU 110使得聚焦透镜控制单元126L和126R将左成像系统11L的聚焦透镜130FL和右成像系统11R的聚焦透镜130FR移动到与左右成像系统聚焦位置P3对应的透镜位置。因此,CPU 110使得聚焦透镜130FL和130FR聚焦在由其中景深包括P1和P2的成像系统(11L或11R)检测的聚焦位置。
步骤S321至S323分别与第一实施例的S121至S123相同。
图19图示了在其中由电路构成的本实施例的景深计算单元64的示例。在图19中,景深计算单元64包括输入端口64a和输出端口64b。例如,当左成像系统聚焦位置P1(Sp1)、右成像系统聚焦位置P2(Sp2)、光圈132L和132R的光圈值N、模糊圈的可接受直径C、和焦距f被输入到输入端口64a时,景深计算单元64基于输入的参数P1、P2、N、C、和f来计算景深DL和DR,并且从输出端口64b输出DL和DR。
(第四实施例)
图20是图示根据第四实施例的数字照相机104的内部配置的框图。使用相同的附图标记来指定与在图5中图示的根据第一实施例的数字照相机101中相同的元件,并且将仅说明与第一实施例不同的项目。
视差量计算单元76对于聚焦位置P1和P2的每一个计算左成像系统11L和右成像系统11R的视差量。
本实施例的聚焦位置判定单元78比较左成像系统聚焦位置P1和右成像系统聚焦位置P2的视差量,并且判定在P1和P2之间的具有较小视差量的聚焦位置。
虽然与在图20中的CPU 110分离地进行描述,但是视差量计算单元76和聚焦位置判定单元78可以通过CPU 110构成。
图21A和21B是图示根据第四实施例的立体成像处理的流程的示例的流程图。图20的CPU 110根据程序来执行处理。
将说明下述示例,其中,在图22中图示的成像空间中执行立体视像成像,并且分别在图23A和23B中图示的左拍摄图像92L和右拍摄图像92R在存储卡156中被记录为立体图像。
表示S401至S408分别与在图6A中图示的根据第一实施例的S101至S108相同,并且将不重复说明。
在步骤S409中,聚焦位置判定单元78判定聚焦位置差Pdiff是否大于阈值Diff。如果Pdiff大于Diff,则处理进行到步骤S410。如果Pdiff等于或小于Diff,则处理进行到步骤S420。
在步骤S410,视差量计算单元76对于聚焦位置P1和P2中的每一个计算左成像系统11L和右成像系统11R的视差量。在本实施例中,基于左成像系统聚焦位置P1、右成像系统聚焦位置P2、交叉点位置CP、和基线长度SB来计算左成像系统聚焦位置P1的视差量A1和右成像系统聚焦位置P2的视差量A2。附图标记A1和A2表示在成像空间中的成像系统11L和11R之间的视差量。如图22中所示,当使用Sp1来指定到P1的被摄对象距离,使用Sp2来指定到P2的被摄对象距离,并且使用Scp来指定到CP的距离时,可以使用[表达式7]来计算A1和A2。
[表达式7]
A1=((Scp/SB)×(Scp-Sp1))
A2=((Scp/SB)×(Sp2-Scp))
附图标记A1与在图23A和23B中的左拍摄图像92L的花朵图像921L和右拍摄图像92R的花朵图像921R的双眼视差量AP1成比例。附图标记A2与在图23A和23B中的左拍摄图像92L的汽车图像922L和右拍摄图像92R的汽车图像922R的双眼视差量AP2成比例。附图标记AP1和AP2是在拍摄图像中的双眼之间的视差量。因此,也可以说,视差量计算单元76对于聚焦位置P1和P2的每一个检测在拍摄图像中的双眼视差量AP1和AP2。
在步骤S411,聚焦位置判定单元78将在左成像系统聚焦位置P1和右成像系统聚焦位置P2的视差量A1和A2作比较,判定在P1和P2之间的具有较小视差量的聚焦位置,并且将该聚焦位置设置为左右成像系统聚焦位置P3。
在步骤S420,CPU 110使得聚焦透镜控制单元126L和126R将左成像系统11L的聚焦透镜130FL和右成像系统11R的聚焦透镜130FR移动到与左右成像系统聚焦位置P3对应的透镜位置。因此,CPU 110使得聚焦透镜130FL和130FR聚焦在在P1和P2之间的具有较小视差量的聚焦位置。
步骤S421至S423分别与第一实施例的S121至S123相同。
图24图示了在其中由电路构成的本实施例的视差量计算单元76的示例。在图24中,视差量计算单元76包括输入端口76a和输出端口76b。例如,当向输入端口76a输入左成像系统聚焦位置P1(Sp1)、右成像系统聚焦位置P2(Sp2)、交叉点位置CP(Scp)、和基线长度SB时,视差量计算单元76基于输入的参数P1、P2、CP、和SB来计算视差量A1和A2,并且从输出端口76b输出A1和A2。
(第五实施例)
图25是图示根据第五实施例的数字照相机105的内部配置的框图。使用相同的附图标记来指定与第一至第四实施例的数字照相机(图5的101、图12的102、图16的103、和图20的104)中相同的元件,并且仅描述不同的项目。
聚焦位置判定单元88判定聚焦位置P1和P2是否在立体视像可能范围中(第一聚焦位置判定)。聚焦位置判定单元88也判定左成像系统聚焦位置P1和右成像系统聚焦位置P2是否都被包括在成像系统11L和11R的景深中(第二聚焦位置判定)。聚焦位置判定单元88还判定在左成像系统聚焦位置P1的视差量和在右成像系统聚焦位置P2的视差量之间的大小关系(第三聚焦位置判定)。聚焦位置判定单元88基于第一到第三聚焦位置判定的结果来选择第一聚焦位置和第二聚焦位置中的一个。更具体地,本实施例的聚焦位置判定单元88基于左成像系统聚焦位置P1、右成像系统聚焦位置P2、立体视像可能范围、景深、和在P1和P2的视差量,来从P1和P2中选择左右成像系统聚焦位置P3。
图26A和26B是图示根据第五实施例的立体成像处理的流程的示例的流程图。图25的CPU 110根据程序来执行处理。
步骤S501至S508分别与在图6A中图示的根据第一实施例的S101至S108相同,并且将不重复说明。
在步骤S509,聚焦位置判定单元88判定聚焦位置差Pdiff是否大于阈值Diff。如果Pdiff大于Diff,则所述处理进行到步骤S510。如果Pdiff等于或小于Diff,则所述处理进行到步骤S520。
在步骤S510,景深计算单元64使用与在第三实施例的步骤S310中相同的方式来计算成像系统11L和11R的景深DL和DR。更具体地,景深计算单元64计算在其中左成像系统11L的聚焦透镜130FL聚焦在左成像系统聚焦位置P1的状态中的左成像系统11L的景深DL,和在其中右成像系统11R的聚焦透镜130FR聚焦在右成像系统聚焦位置P2的状态中的右拍摄系统11R的景深DR。
在步骤S511中,像在第三实施例的步骤S311中那样,判定左成像系统聚焦位置P1和右成像系统聚焦位置P2是否均被包括在成像系统11L和11R的景深DL和DR中。
在步骤S512中,像第四实施例的步骤S410中那样,对于聚焦位置P1和P2的每一个计算左成像系统11L和右成像系统11R的视差量。
在步骤S513中,像在第四实施例的步骤S411中那样,判定在左成像系统聚焦位置P1的视差量和在右成像系统聚焦位置P2的视差量之间的大小关系。
在步骤S514中,像在第二实施例的步骤S211中那样计算在成像空间中的立体视像可能范围。
在步骤S515中,像在第二实施例的步骤S212中那样,判定聚焦位置P1和P2是否在立体可能范围内。
在步骤S517中,基于在成像时的聚焦位置的判定表来判定左右成像系统聚焦位置P3(在成像时的聚焦位置)。
图27图示了在成像时的聚焦位置的判定表的示例。在所述示例中,如果P1和P2的至少一个在立体视像可能范围中,则像在第二实施例中那样,将在立体视像可能范围中的聚焦位置选择为在成像时的聚焦位置P3。如果P1和P2均在立体视像可能范围之外,将聚焦位置中具有较小视差量的的一个选择为P3。如果P1和P2均在立体视像可能范围内,则由包括在景深中的聚焦位置P1和P2的成像系统所检测的聚焦位置中的一个被选择为P3。
图28图示了在成像的聚焦位置的判定表的另一个示例。在所述示例中,如果P1和P2的至少一个在立体视像可能范围内,则像在第二实施例中那样,在立体视像可能范围中的聚焦位置被选择为在成像时的聚焦位置P3。如果P1和P2均在立体视像可能范围之外,则由包括在景深中的聚焦位置P1和P2的成像系统所检测的聚焦位置中的一个被选择为P3。如果P1和P2两者均在立体视像可能范围内,则具有较小的视差量的聚焦位置被选择为P3。
本公开的主题不具体限于在图27和28中图示的情况。例如,如果P1和P2两者均在立体视像可能范围之外并且/或者如果P1和P2两者均在立体视像可能范围内,则可以将具有较小视差量的聚焦位置选择为P3。此外,例如,如果P1和P2两者均在立体视像可能范围之外并且/或者如果P1和P2两者均在立体视像可能范围内,则包括在景深中的聚焦位置P1和P2的成像系统所检测的聚焦位置中的一个可以被选择为P3。
在步骤S520中,CPU 110使得聚焦透镜控制单元126L和126R将左成像系统11L的聚焦透镜130FL和右成像系统11R的聚焦透镜130FR移动到与左右成像系统聚焦位置P3对应的透镜位置。
步骤S521至S523分别与第一实施例的S121至S123相同。
已经描述了下述示例,其中,通过检测其中拍摄图像的对比度为局部极大的聚焦透镜位置,来检测在视角中的特定聚焦区域中聚焦透镜对其进行聚焦的被摄对象的位置(聚焦位置)。但是,本公开的主题不限于这样的情况。例如,本公开的主题可以被应用到使用距离测量传感器来测量被摄对象距离的情况上。
本公开的主题可以被提供为用于使得装置(诸如电子照相机、电子立体照相机、或与其连接的计算机)执行上述的处理的计算机可读程序代码、其上存储了计算机可读程序代码的计算机可读记录介质、或包括所述计算机可读程序代码的计算机程序产品。
本公开的主题不限于在当前说明书中所述的示例或者在附图中图示的示例。显然,在不偏离本公开的主题的范围的情况下,可以进行各种设计改变和修改。
Claims (15)
1.一种立体成像设备,包括:
第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;
第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;
透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;
聚焦位置检测装置,所述聚焦位置检测装置被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
立体视像可能范围计算装置,所述立体视像可能范围计算装置被配置来计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的立体视像可能范围;
聚焦位置判定装置,所述聚焦位置判定装置被配置来判定所述聚焦位置是否在所述立体视像可能范围内;以及,
聚焦控制装置,所述聚焦控制装置被配置来使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的一个聚焦位置上,所述一个聚焦位置被判定为在所述立体视像可能范围内。
2.一种立体成像设备,包括:
第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;
第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;
透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;
聚焦位置检测装置,所述聚焦位置检测装置被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
景深计算装置,所述景深计算装置被配置来计算所述成像装置的景深;
聚焦位置判定装置,所述聚焦位置判定装置被配置来判定所述第一聚焦位置和所述第二聚焦位置两者是否均被包括在所述成像装置的景深中;以及,
聚焦控制装置,所述聚焦控制装置被配置来使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的所述聚焦位置中的一个上,所述成像装置的景深包括所述第一聚焦位置和所述第二聚焦位置两者。
3.一种立体成像设备,包括:
第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;
第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;
透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;
聚焦位置检测装置,所述聚焦位置检测装置被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
视差量计算装置,所述视差量计算装置被配置来为每一个所述聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;
聚焦位置判定装置,所述聚焦位置判定装置被配置来从所述第一聚焦位置和所述第二聚焦位置中判定具有较小的视差量的聚焦位置;以及
聚焦控制装置,所述聚焦控制装置被配置来使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述聚焦位置判定装置判定为具有较小视差量的聚焦位置上。
4.一种立体成像设备,包括:
第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且被配置为对被摄对象成像以产生第一图像;
第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且被配置为对被摄对象成像以产生第二图像;
透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜;
聚焦位置检测装置,所述聚焦位置检测装置被配置来检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
立体视像可能范围计算装置,所述立体视像可能范围计算装置被配置来计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的立体视像可能范围;
景深计算装置,所述景深计算装置被配置来计算所述成像装置的景深;
视差量计算装置,所述视差量计算装置被配置来为每一个所述聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;
聚焦位置选择装置,所述聚焦位置选择装置被配置来基于所述第一聚焦位置、所述第二聚焦位置、所述立体视像可能范围、所述景深、和所述视差量来从所述第一聚焦位置和所述第二聚焦位置中选择一个聚焦位置;以及
聚焦控制装置,所述聚焦控制装置被配置来使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所选择的聚焦位置上。
5.根据权利要求1所述的立体成像设备,进一步包括:
景深计算装置,所述景深计算装置被配置来计算所述成像装置的景深,其中,
所述聚焦位置判定装置判定所述第一聚焦位置和所述第二聚焦位置是否都被包括在所述成像装置的景深中,并且
如果所述第一聚焦位置和所述第二聚焦位置两者均在所述立体视像可能范围内,所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的所述聚焦位置中的一个上,所述成像装置的景深包括在所述景深中的所述第一聚焦位置和所述第二聚焦位置两者。
6.根据权利要求1所述的立体成像设备,进一步包括:
视差量获取装置,所述视差量获取装置被配置来获取在所述第一图像和所述第二图像中的聚焦位置的视差量,其中,
如果所述第一聚焦位置和所述第二聚焦位置两者均在所述立体视像可能范围内,则所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中具有较小的视差量的一个上。
7.根据权利要求1或6所述的立体成像设备,进一步包括:
景深计算装置,所述景深计算装置计算所述成像装置的景深,其中,
所述聚焦位置判定装置判定所述第一聚焦位置和所述第二聚焦位置是否均被包括在所述成像装置的景深中,并且
如果所述第一聚焦位置和所述第二聚焦位置两者均在所述立体视像可能范围之外,所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的所述聚焦位置的一个上,所述成像装置的景深包括在所述景深中的所述第一聚焦位置和所述第二聚焦位置两者。
8.根据权利要求1或5所述的立体成像设备,进一步包括:
视差量获取装置,所述视差量获取装置被配置来获取在所述第一图像和所述第二图像中的聚焦位置的视差量,其中,
如果所述第一聚焦位置和所述第二聚焦位置两者均在所述立体视像可能范围之外,则所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中具有较小的视差量的一个上。
9.根据权利要求1所述的立体成像设备,其中,
所述聚焦位置判定装置判定所述聚焦位置是否在所述成像光学系统的光轴的交叉处和所述立体视像可能范围的近点之间,以及
所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中被判定为在所述交叉处和所述立体视像可能范围的近点之间的一个上。
10.根据权利要求9所述的立体成像设备,其中,
如果所述第一聚焦位置和所述第二聚焦位置均在所述交叉处和所述立体视像可能范围的所述近点之间,则所述聚焦控制装置使得所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中最接近所述近点的一个上。
11.一种立体成像方法,使用:第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且配置为对被摄对象成像以产生第一图像;第二成像装置,所述第二成像装置来配置为包括具有第二聚焦透镜的第二成像光学系统,并且配置为对被摄对象成像以产生第二图像;以及,透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:
聚焦位置检测步骤,所述聚焦位置检测步骤通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
立体视像可能范围计算步骤,所述立体视像可能范围计算步骤计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的立体视像可能范围;
聚焦位置判定步骤,所述聚焦位置判定步骤判定所述聚焦位置是否在所述立体视像可能范围内;以及,
聚焦步骤,所述聚焦步骤使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的一个聚焦位置上,所述一个聚焦位置被判定为在所述立体视像可能范围内。
12.一种立体成像方法,使用:第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且配置为对被摄对象成像以产生第一图像;第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且配置为对被摄对象成像以产生第二图像;以及,透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:
聚焦位置检测步骤,所述聚焦位置检测步骤通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
景深计算步骤,所述景深计算步骤计算所述成像装置的景深;
聚焦位置判定步骤,所述聚焦位置判定步骤判定所述第一聚焦位置和所述第二聚焦位置两者是否均被包括在所述成像装置的景深中;以及
聚焦步骤,所述聚焦步骤使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在由所述成像装置检测的聚焦位置中的一个上,所述成像装置的景深包括所述第一聚焦位置和所述第二聚焦位置两者。
13.一种立体成像方法,使用:第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且配置为对被摄对象成像以产生第一图像;第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且对被摄对象成像以产生第二图像;透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:
聚焦位置检测步骤,所述聚焦位置检测步骤通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
视差量计算步骤,所述视差量计算步骤为每一个所述聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;
聚焦位置判定步骤,所述聚焦位置判定步骤从所述第一聚焦位置和所述第二聚焦位置中判定具有较小的视差量的聚焦位置;以及
聚焦步骤,所述聚焦步骤使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述聚焦位置判定步骤中判定为具有较小的视差量的所述聚焦位置上。
14.一种立体成像方法,使用:第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且配置为对被摄对象成像以产生第一图像;第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且配置为对被摄对象成像以产生第二图像;透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:
聚焦位置检测步骤,所述聚焦位置检测步骤通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
立体视像可能范围计算步骤,所述立体视像可能范围计算步骤计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的所述成像空间中的立体视像可能范围;
景深计算步骤,所述景深计算步骤计算所述成像装置的景深;
视差量计算步骤,所述视差量计算步骤为每一个所述聚焦位置计算所述第一成像装置和所述第二成像装置的视差量;
聚焦位置选择步骤,所述聚焦位置选择步骤基于所述第一聚焦位置、所述第二聚焦位置、所述立体视像可能范围、所述景深、和所述视差量来从所述第一聚焦位置和所述第二聚焦位置中选择一个聚焦位置;以及
聚焦步骤,所述聚焦步骤使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所选择的聚焦位置上。
15.一种立体成像方法,使用:第一成像装置,所述第一成像装置被配置来包括具有第一聚焦透镜的第一成像光学系统,并且配置为对被摄对象成像以产生第一图像;第二成像装置,所述第二成像装置被配置来包括具有第二聚焦透镜的第二成像光学系统,并且配置为对被摄对象成像以产生第二图像;以及,透镜驱动装置,所述透镜驱动装置被配置来分别沿着所述第一成像光学系统的第一光轴和所述第二成像光学系统的第二光轴来移动所述第一和第二聚焦透镜,所述立体成像方法包括:
聚焦位置检测步骤,所述聚焦位置检测步骤通过所述透镜驱动装置移动所述聚焦透镜,以检测在所述第一聚焦透镜的成像空间中的第一聚焦位置和所述第二聚焦透镜的成像空间中的第二聚焦位置;
立体视像可能范围计算步骤,所述立体视像可能范围计算步骤计算在其中所述第一成像装置和所述第二成像装置的视差量在可接受的范围内的所述成像空间中的立体视像可能范围;
聚焦位置判定步骤,所述聚焦位置判定步骤判定所述聚焦位置是否在所述成像光学系统的光轴的交叉处和所述立体视像可能范围的近点之间;以及
聚焦步骤,所述聚焦步骤用于使得所述透镜驱动装置将所述第一聚焦透镜和所述第二聚焦透镜聚焦在所述第一聚焦位置和所述第二聚焦位置中的一个聚焦位置上,所述一个聚焦位置被判定为在所述交叉处和所述立体视像可能范围的所述近点之间。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-174560 | 2009-07-27 | ||
JP2009174560A JP5425554B2 (ja) | 2009-07-27 | 2009-07-27 | 立体撮像装置及び立体撮像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101968603A true CN101968603A (zh) | 2011-02-09 |
CN101968603B CN101968603B (zh) | 2014-11-05 |
Family
ID=42937577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010239616.6A Expired - Fee Related CN101968603B (zh) | 2009-07-27 | 2010-07-27 | 立体成像设备和立体成像方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8547417B2 (zh) |
EP (1) | EP2282549A3 (zh) |
JP (1) | JP5425554B2 (zh) |
CN (1) | CN101968603B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102984530A (zh) * | 2011-09-02 | 2013-03-20 | 宏达国际电子股份有限公司 | 图像处理系统及自动对焦方法 |
CN103019001A (zh) * | 2011-09-22 | 2013-04-03 | 晨星软件研发(深圳)有限公司 | 自动对焦方法与装置 |
CN103227899A (zh) * | 2012-01-26 | 2013-07-31 | 佳能株式会社 | 摄像设备及其控制方法 |
CN103454833A (zh) * | 2012-05-31 | 2013-12-18 | Lg伊诺特有限公司 | 摄像装置系统及其自动对焦方法 |
CN103782234A (zh) * | 2011-09-09 | 2014-05-07 | 富士胶片株式会社 | 立体图像捕捉设备和方法 |
CN105025193A (zh) * | 2014-04-29 | 2015-11-04 | 钰创科技股份有限公司 | 手提式立体扫描仪和产生对应对象的立体扫描结果的方法 |
TWI507807B (zh) * | 2011-06-24 | 2015-11-11 | Mstar Semiconductor Inc | 自動對焦方法與裝置 |
CN105282375A (zh) * | 2014-07-24 | 2016-01-27 | 钰创科技股份有限公司 | 附着式立体扫描模块 |
CN109073858A (zh) * | 2017-03-30 | 2018-12-21 | 索尼半导体解决方案公司 | 成像装置、成像模块以及成像装置的控制方法 |
CN113141499A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 实现3d拍摄的方法、装置及3d显示终端 |
CN114620570A (zh) * | 2020-12-10 | 2022-06-14 | 株式会社日立大厦系统 | 维护作业远程管理服务器以及维护作业远程管理方法 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9200245B2 (en) | 2003-06-26 | 2015-12-01 | Seng Enterprises Ltd. | Multiwell plate |
US9975118B2 (en) | 2007-11-15 | 2018-05-22 | Seng Enterprises Ltd. | Device for the study of living cells |
US9145540B1 (en) | 2007-11-15 | 2015-09-29 | Seng Enterprises Ltd. | Device for the study of living cells |
JP4787369B1 (ja) * | 2010-03-30 | 2011-10-05 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
US8588600B2 (en) * | 2010-07-27 | 2013-11-19 | Texas Instruments Incorporated | Stereoscopic auto-focus based on coordinated lens positions |
JP5597525B2 (ja) * | 2010-07-28 | 2014-10-01 | パナソニック株式会社 | 立体映像撮像装置および立体映像撮像方法 |
EP2608553A4 (en) * | 2010-08-19 | 2014-04-16 | Panasonic Corp | STEREOSCOPIC IMAGE RECORDING DEVICE AND STEREOSCOPIC IMAGE RECORDING METHOD |
JP2012095167A (ja) * | 2010-10-28 | 2012-05-17 | Panasonic Corp | 撮像装置 |
US8836767B2 (en) * | 2010-12-17 | 2014-09-16 | Samsung Electronics Co., Ltd | Imaging apparatus and imaging method |
JP5050094B2 (ja) * | 2010-12-21 | 2012-10-17 | 株式会社東芝 | 映像処理装置及び映像処理方法 |
JP2012198075A (ja) * | 2011-03-18 | 2012-10-18 | Ricoh Co Ltd | ステレオカメラ装置、画像補整方法 |
US9313390B2 (en) | 2011-04-08 | 2016-04-12 | Qualcomm Incorporated | Systems and methods to calibrate a multi camera device |
CN103385005B (zh) * | 2011-05-03 | 2015-10-21 | 奥林巴斯映像株式会社 | 立体图像处理装置以及立体图像处理方法 |
JP5987270B2 (ja) * | 2011-05-30 | 2016-09-07 | リコーイメージング株式会社 | 立体画像を表示可能なカメラ |
KR101772458B1 (ko) * | 2011-06-28 | 2017-08-30 | 엘지전자 주식회사 | 영상표시 장치 및 그 제어방법 |
KR20130008334A (ko) * | 2011-07-12 | 2013-01-22 | 삼성전자주식회사 | 입체 영상 표시 제어를 위한 주시각 제어 방법 및 이를 지원하는 단말기 |
FR2978320B1 (fr) * | 2011-07-22 | 2013-07-26 | Thales Sa | Systeme de prise de vues stereoscopiques comportant des moyens de calibration des objectifs de prise de vues |
US20130038784A1 (en) * | 2011-08-08 | 2013-02-14 | Canon Kabushiki Kaisha | Lens apparatus and imaging system using the same |
JP5938659B2 (ja) * | 2011-09-01 | 2016-06-22 | パナソニックIpマネジメント株式会社 | 撮像装置およびプログラム |
US20140225991A1 (en) * | 2011-09-02 | 2014-08-14 | Htc Corporation | Image capturing apparatus and method for obatining depth information of field thereof |
JP5978573B2 (ja) | 2011-09-06 | 2016-08-24 | ソニー株式会社 | 映像信号処理装置および映像信号処理方法 |
CN103874960B (zh) | 2011-09-13 | 2017-02-15 | 富士胶片株式会社 | 单眼立体摄影装置、摄影方法及程序 |
JP5580486B2 (ja) * | 2011-12-19 | 2014-08-27 | 富士フイルム株式会社 | 画像出力装置、方法およびプログラム |
US9124875B2 (en) * | 2012-05-23 | 2015-09-01 | Fujifilm Corporation | Stereoscopic imaging apparatus |
JP2015194709A (ja) * | 2014-03-28 | 2015-11-05 | パナソニックIpマネジメント株式会社 | 画像表示装置 |
CN104954661B (zh) * | 2014-03-31 | 2018-10-12 | 诺基亚技术有限公司 | 用于控制图像捕获的方法和装置 |
US20160366393A1 (en) * | 2015-06-11 | 2016-12-15 | Intel IP Corporation | Three-dimensional advanced imaging |
US9703175B2 (en) * | 2015-07-02 | 2017-07-11 | Qualcomm Incorporated | Systems and methods for autofocus trigger |
CN106470309A (zh) * | 2015-08-19 | 2017-03-01 | 中兴通讯股份有限公司 | 获取双摄像的焦点距离的方法和装置 |
DE102016117024B4 (de) * | 2016-09-09 | 2021-08-05 | Karl Storz Se & Co. Kg | Vorrichtung zum Erfassen eines Stereobilds sowie Verfahren zum Justieren der Vorrichtung |
US10666923B2 (en) * | 2017-02-24 | 2020-05-26 | Immervision, Inc. | Wide-angle stereoscopic vision with cameras having different parameters |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08194274A (ja) * | 1995-01-13 | 1996-07-30 | Olympus Optical Co Ltd | 立体撮像装置 |
US6512892B1 (en) * | 1999-09-15 | 2003-01-28 | Sharp Kabushiki Kaisha | 3D camera |
JP2006162990A (ja) * | 2004-12-07 | 2006-06-22 | Fuji Photo Film Co Ltd | 立体画像撮影装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69417824D1 (de) * | 1993-08-26 | 1999-05-20 | Matsushita Electric Ind Co Ltd | Stereoskopischer Abtastapparat |
DE69421873T2 (de) * | 1993-09-20 | 2000-06-15 | Canon Kk | Bildaufnahme- und anzeigesystem |
US5532782A (en) * | 1994-02-17 | 1996-07-02 | Nikon Corporation | Camera having a depth priority operation mode |
JPH08191462A (ja) * | 1995-01-10 | 1996-07-23 | Olympus Optical Co Ltd | 立体映像再生装置および立体撮影装置 |
JPH09102967A (ja) * | 1995-10-04 | 1997-04-15 | Toshiba Corp | 立体視装置 |
JP4646438B2 (ja) * | 2001-05-18 | 2011-03-09 | オリンパス株式会社 | 立体画像撮影装置及びカメラの制御方法 |
JP2004020684A (ja) | 2002-06-13 | 2004-01-22 | Tatsuo Uchida | 3次元表示装置 |
US7210836B2 (en) | 2002-09-19 | 2007-05-01 | Mitsubishi Denki Kabushiki Kaisha | Display unit and electronic apparatus with display unit |
JP4942106B2 (ja) * | 2007-06-27 | 2012-05-30 | 独立行政法人情報通信研究機構 | 奥行データ出力装置及び奥行データ受信装置 |
KR101313740B1 (ko) * | 2007-10-08 | 2013-10-15 | 주식회사 스테레오피아 | 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠제작방법 |
US7933512B2 (en) * | 2009-03-24 | 2011-04-26 | Patrick Campbell | Stereo camera with controllable pivot point |
US8698878B2 (en) * | 2009-07-02 | 2014-04-15 | Sony Corporation | 3-D auto-convergence camera |
-
2009
- 2009-07-27 JP JP2009174560A patent/JP5425554B2/ja not_active Expired - Fee Related
-
2010
- 2010-07-26 US US12/843,406 patent/US8547417B2/en not_active Expired - Fee Related
- 2010-07-27 CN CN201010239616.6A patent/CN101968603B/zh not_active Expired - Fee Related
- 2010-07-27 EP EP10251335.5A patent/EP2282549A3/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08194274A (ja) * | 1995-01-13 | 1996-07-30 | Olympus Optical Co Ltd | 立体撮像装置 |
US6512892B1 (en) * | 1999-09-15 | 2003-01-28 | Sharp Kabushiki Kaisha | 3D camera |
JP2006162990A (ja) * | 2004-12-07 | 2006-06-22 | Fuji Photo Film Co Ltd | 立体画像撮影装置 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI507807B (zh) * | 2011-06-24 | 2015-11-11 | Mstar Semiconductor Inc | 自動對焦方法與裝置 |
CN102984530A (zh) * | 2011-09-02 | 2013-03-20 | 宏达国际电子股份有限公司 | 图像处理系统及自动对焦方法 |
CN103782234A (zh) * | 2011-09-09 | 2014-05-07 | 富士胶片株式会社 | 立体图像捕捉设备和方法 |
CN103782234B (zh) * | 2011-09-09 | 2015-11-25 | 富士胶片株式会社 | 立体图像捕捉设备和方法 |
CN103019001A (zh) * | 2011-09-22 | 2013-04-03 | 晨星软件研发(深圳)有限公司 | 自动对焦方法与装置 |
CN103019001B (zh) * | 2011-09-22 | 2016-06-29 | 晨星软件研发(深圳)有限公司 | 自动对焦方法与装置 |
US9693037B2 (en) | 2012-01-26 | 2017-06-27 | Canon Kabushiki Kaisha | Imaging apparatus having an imaging element in which a plurality of light receiving elements is arranged with respect to a micro lens and method for controlling same |
CN103227899A (zh) * | 2012-01-26 | 2013-07-31 | 佳能株式会社 | 摄像设备及其控制方法 |
CN103227899B (zh) * | 2012-01-26 | 2016-09-28 | 佳能株式会社 | 摄像设备及其控制方法 |
CN103454833A (zh) * | 2012-05-31 | 2013-12-18 | Lg伊诺特有限公司 | 摄像装置系统及其自动对焦方法 |
US9967449B2 (en) | 2012-05-31 | 2018-05-08 | Lg Innotek Co., Ltd. | Camera system and auto focusing method thereof |
CN105025193A (zh) * | 2014-04-29 | 2015-11-04 | 钰创科技股份有限公司 | 手提式立体扫描仪和产生对应对象的立体扫描结果的方法 |
CN105025193B (zh) * | 2014-04-29 | 2020-02-07 | 钰立微电子股份有限公司 | 手提式立体扫描仪和产生对应对象的立体扫描结果的方法 |
CN105282375A (zh) * | 2014-07-24 | 2016-01-27 | 钰创科技股份有限公司 | 附着式立体扫描模块 |
CN105282375B (zh) * | 2014-07-24 | 2019-12-31 | 钰立微电子股份有限公司 | 附着式立体扫描模块 |
CN109073858A (zh) * | 2017-03-30 | 2018-12-21 | 索尼半导体解决方案公司 | 成像装置、成像模块以及成像装置的控制方法 |
CN109073858B (zh) * | 2017-03-30 | 2022-03-18 | 索尼半导体解决方案公司 | 成像装置、成像模块以及成像装置的控制方法 |
CN113141499A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 实现3d拍摄的方法、装置及3d显示终端 |
CN114620570A (zh) * | 2020-12-10 | 2022-06-14 | 株式会社日立大厦系统 | 维护作业远程管理服务器以及维护作业远程管理方法 |
CN114620570B (zh) * | 2020-12-10 | 2024-03-22 | 株式会社日立大厦系统 | 维护作业远程管理服务器以及维护作业远程管理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20110018972A1 (en) | 2011-01-27 |
CN101968603B (zh) | 2014-11-05 |
US8547417B2 (en) | 2013-10-01 |
JP2011028053A (ja) | 2011-02-10 |
EP2282549A2 (en) | 2011-02-09 |
JP5425554B2 (ja) | 2014-02-26 |
EP2282549A3 (en) | 2014-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101968603B (zh) | 立体成像设备和立体成像方法 | |
JP5014979B2 (ja) | 個人用電子機器の3次元情報取得及び表示システム | |
CN102860019B (zh) | 立体图像再生装置及方法、立体摄像装置、立体显示器装置 | |
CN103493484B (zh) | 成像装置和成像方法 | |
JP5346266B2 (ja) | 画像処理装置、カメラ及び画像処理方法 | |
CN102907104A (zh) | 形成具有感知深度的视频 | |
CN102959467A (zh) | 单眼立体成像装置 | |
US20110267432A1 (en) | Camera and camera system | |
CN102959969A (zh) | 单眼立体摄像装置 | |
JP2010114760A (ja) | 撮影装置、指がかり通知方法およびプログラム | |
CN103339947B (zh) | 3d视频再现装置、3d显示装置、3d成像装置和3d视频再现方法 | |
JP4991685B2 (ja) | 立体画像処理装置および立体画像処理方法 | |
WO2013046886A1 (ja) | 立体画像撮像装置及びその合焦状態確認用画像表示方法 | |
JP5160460B2 (ja) | 立体撮像装置および立体撮像方法 | |
WO2011136137A1 (ja) | 立体撮像装置及びその制御方法 | |
JP2011035643A (ja) | 多眼撮影方法および装置、並びにプログラム | |
CN103329549B (zh) | 立体视频处理器、立体成像装置和立体视频处理方法 | |
EP2755086B1 (en) | Stereoscopic image capture device and method | |
JP2010103949A (ja) | 撮影装置、方法およびプログラム | |
CN103339948B (zh) | 3d视频再现装置、3d成像装置和3d视频再现方法 | |
CN103155576A (zh) | 立体图像显示装置和立体图像显示方法 | |
CN104041026B (zh) | 图像输出装置、方法以及程序及其记录介质 | |
WO2013047105A1 (ja) | 画像処理装置、画像処理方法、プログラム、記録媒体及び撮像装置 | |
JP2001016620A (ja) | 撮像装置、その輻輳距離決定方法、記憶媒体および光学装置 | |
WO2012117619A1 (ja) | 立体画像撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20141105 Termination date: 20210727 |