CN103069818B - 立体图像控制设备以及控制其操作的方法和程序 - Google Patents
立体图像控制设备以及控制其操作的方法和程序 Download PDFInfo
- Publication number
- CN103069818B CN103069818B CN201180027164.8A CN201180027164A CN103069818B CN 103069818 B CN103069818 B CN 103069818B CN 201180027164 A CN201180027164 A CN 201180027164A CN 103069818 B CN103069818 B CN 103069818B
- Authority
- CN
- China
- Prior art keywords
- image
- object images
- eye image
- right eye
- left eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本发明公开了用于显示出自然的立体图像并且缓解了眼睛紧张的立体图像控制设备。在由左眼用图像和右眼用图像构成的立体图像中检测面部图像。以消除所检测到的面部图像的视差位移的方式移动左眼和右眼用图像。此外,计算包含该面部图像的显示区域。将计算出来的显示区域放大,使其显示在整个显示屏幕之上。消除了在面部图像前方看到的重影图像,从而为观看者缓解眼睛的压力。
Description
技术领域
本发明涉及立体图像控制设备并且涉及控制这一设备操作的方法和程序。
背景技术
已经开发出了显示立体图像的设备(日本专利申请公开第2008-2215号)。在这样的立体图像显示设备中,存在用于为立体图像中包含的被摄体的每个部分调节视差的构造(日本专利申请公开第2007-307225号)。此外,还存在用于提取感兴趣区域的数码相机(日本专利申请公开第2001-148800号)和获取通过多个对象的重叠看到的被摄体的多个景深值的视差图像摄像设备(日本专利申请公开第2001-4370号)。
在立体图像中,需要将其安排成这样:在构成立体图像的左眼用图像和右眼用图像二者共有的某些图像部分之间将没有视差。通常,虽然安排成在左眼用图像和右眼用图像各自的近似中央部分之间没有视差,但是还是会有所显示的立体图像看起来不自然的情况。
发明内容
本发明的目的是获得相对自然的立体图像。
按照本发明的第一个方面的立体图像控制设备包括:第一对象图像部分检测装置(第一对象图像部分检测手段),用于从构成立体图像的左眼用图像中和从构成立体图像的右眼用图像中找出期望的对象图像部分;视差移动装置(视差移动手段),用于以消除第一对象图像部分检测装置中找出的左眼用图像的对象图像部分和右眼用图像的对象图像部分之间的双眼视差的方式移动左眼用图像和右眼用图像;显示区域确定装置(显示区域确定手段),用于在由视差移动装置进行了移动的左眼用图像中和右眼用图像中确定包含由视差移动装置消除了双眼视差的对象图像部分的显示区域;和显示控制装置(显示控制手段),用于控制显示单元,以使其放大和显示由视差移动装置进行了移动的左眼用图像和右眼用图像中的由显示区域确定装置确定的显示区域内的图像。
本发明的第一个方面还提供了一种控制上述立体图像控制设备的操作的方法。具体地说,该方法包括:对象图像部分检测装置从构成立体图像的左眼用图像中和构成立体图像的右眼用图像中找出期望的对象图像部分;视差移动装置以消除第二对象图像部分检测装置中找出的左眼用图像的对象图像部分和右眼用图像的对象图像部分之间的双眼视差的方式移动左眼用图像和右眼用图像;显示区域确定装置在由视差移动装置进行了移动的左眼用图像中和右眼用图像中确定包含由视差移动装置消除了双眼视差的对象图像部分的显示区域;和显示控制装置对显示单元进行控制,以使其放大和显示由视差移动装置进行了移动的左眼用图像和右眼用图像中的由显示区域确定装置确定的显示区域内的图像。
本发明的第一个方面还提供了一种实施控制上述立体图像控制设备的操作的方法的操作程序。此外,可以安排成,还提供存储着这一操作程序的记录介质。
按照本发明的第一个方面,从构成立体图像的左眼用图像和右眼用图像中的每个图像中找出期望的对象图像部分。以消除从左眼用图像中找到的对象图像部分与从右眼用图像中找到的对象图像部分之间的视差的方式,在左眼用图像和右眼用图像之间进行视差移动。在左眼用图像中和在右眼用图像中确定包含已经消除了双眼视差的对象图像部分的显示区域(其大小最好等于或大于最小显示大小并且小于立体图像的大小)。以放大和显示所确定的显示区域内的图像的方式控制显示装置。
不是进行简单消除左眼用图像的中央部分与右眼用图像的中央部分之间的双眼视差的视差移动,而是进行消除被观看者注意到的期望的对象图像部分的双眼视差的视差移动。由于被观看者注意到的期望的对象图像部分没有双眼视差,因此获得了自然的立体图像。此外,由于确定了包含这一对象图像部分的显示区域并且放大和显示所确定的对象图像部分内的图像,因此不会显示在显示区域之外的图像部分。在立体图像显示中,代表位于前方的被摄体的被摄体图像会由于拍摄图像的装置中包含的成像透镜的象差的影响而产生较大的双眼视差,并且对眼睛造成的压力很大。不过,由于不会显示在显示区域之外的图像部分,因此可以缓解对观看者眼睛造成的压力。
该设备还可以包括:第一判定装置(第一判定手段),用于判断在左眼用图像中和右眼用图像中是否包含代表位于由第一对象图像部分检测装置检测到的对象图像部分所代表的对象前方的被摄体的前方被摄体图像(前方重影图像);第二判定装置(第二判定手段),用于响应于由第一判定装置做出的在左眼用图像中右眼用图像中包含前方被摄体图像的判定结果,判断左眼用图像中包含的前方被摄体图像与右眼用图像中包含的前方被摄体图像之间的双眼视差量是否超出容许范围。在这种情况下,显示区域确定装置按照由第二判定装置做出的双眼视差量超出容许范围的判定结果,确定图像区域。
该设备还可以包括:大小判定单元(大小判定手段),用于判断在左眼用图像和右眼用图像之中的一个图像中没有找出而在左眼用图像和右眼用图像之中的另一个图像中找出的对象图像部分的大小是否大于在第一对象图像部分检测装置中从左眼用图像和右眼用图像两个图像中都找出的对象图像部分的大小;和第二对象图像部分检测装置(第二对象图像部分检测手段),用于在大小判定装置已经判定从另一个图像中找到的对象图像部分的大小大于从左眼用图像和右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是左眼用图像的情况下,或者在大小判定装置已经判定从所述另一个图像中找到的对象图像部分的大小大于从左眼用图像和右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是右眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的右侧,找出没有从所述一个图像中找到的对象图像部分,并且在大小判定装置已经判定从另一个图像中找到的对象图像部分的大小大于从左眼用图像和右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是右眼用图像的情况下,或者在大小判定装置已经判定从所述另一个图像中找到的对象图像部分的大小大于从左眼用图像和右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是左眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的左侧,找出没有从所述一个图像中找到的对象图像部分。在这种情况下,举例来说,显示区域确定装置将会在由视差移动装置移动了的左眼用图像和右眼用图像中确定包含由视差移动装置消除了双眼视差的对象图像部分、在第一对象图像部分检测装置中从另一个图像中找到的对象图像部分和在第二对象图像部分检测装置中从一个图像中找到的对象图像部分的显示区域。
该设备还可以包括:第三对象图像部分检测装置(第三对象图像部分检测手段),用于在由第一对象图像部分检测装置中仅从左眼用图像和右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置前方而且所述一个图像是左眼用图像的情况下,或者在由第一对象图像部分检测装置中仅从左眼用图像和右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置后方而且所述一个图像是右眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的右侧,找出没有从所述一个图像中找到的对象图像部分,并且在由第一对象图像部分检测装置仅从左眼用图像和右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置前方而且所述一个图像是右眼用图像的情况下,或者在由第一对象图像部分检测装置仅从左眼用图像和右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置后方而且所述一个图像是左眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的左侧,找出没有从所述一个图像中找到的对象图像部分。在这种情况下,举例来说,显示区域确定装置将会在由视差移动装置移动了的左眼用图像和右眼用图像中确定包含由视差移动装置消除了双眼视差的对象图像部分、在第一对象图像部分检测装置中从另一个图像中找到的对象图像部分和在第三对象图像部分检测装置中从一个图像中找到的对象图像部分的显示区域。
该设备还可以包括比较装置(比较手段),用于响应于中央被摄体图像的存在,将该中央被摄体图像的主要被摄体概率与由第一对象图像部分检测装置检测到的对象图像部分的主要被摄体概率进行比较,该中央被摄体图像代表存在于由第一对象图像部分检测装置检测到的对象图像部分代表的对象的前方,并且该中央被摄体图像位于左眼用图像和右眼用图像中的每个图像的中央部分。在这种情况下,举例来说,响应于比较装置做出的中央图像的主要被摄体概率大于由第一对象图像部分检测装置检测到的对象图像部分的主要被摄体概率的判定结果,视差移动装置以消除左眼用图像的中央被摄体图像与右眼用图像的中央被摄体图像之间的双眼视差的方式移动左眼用图像和右眼用图像。
该设备还可以包括显示判定装置(显示判定手段),用于响应于由显示控制装置进行的放大显示控制,判断是否不显示在左眼用图像检测装置中找到的对象图像部分;和视差移动控制装置(视差移位控制手段),用于响应于由显示判定装置做出的不显示在左眼用图像检测装置中找到的对象图像部分的判定结果,控制视差移动装置,以使其以消除左眼用图像的中央部分与右眼用图像的中央部分之间的双眼视差的方式移动左眼用图像和右眼用图像。
该设备还可以包括记录控制装置(记录控制手段),用于将代表左眼用图像的左眼用图像数据、代表右眼用图像的右眼用图像数据、代表由视差移动装置消除了双眼视差的部分的数据和代表由显示区域确定装置确定的显示区域的数据记录在便携式记录介质上。
在代表左眼用图像的左眼用图像数据和代表右眼用图像的右眼用图像数据已经记录在便携式记录介质上的情况下,该设备还可以包括记录控制装置(记录控制手段),用于将代表已经由视差移动装置消除了双眼视差的部分的数据和代表由显示区域确定装置确定的显示区域的数据记录在所述便携式记录介质上。
按照本发明的第二个方面的立体图像控制设备包括:立体图像生成装置(立体图像生成手段),用于通过重叠左眼用图像和右眼用图像生成立体图像;对象图像检测装置(对象图像检测手段),用于从立体图像生成装置生成的立体图像中找出期望的对象图像部分;电子缩放区域指定装置(电子缩放区域指定手段),用于在立体图像生成装置生成的立体图像中指定电子缩放区域;判定装置(判定手段),用于判断由对象图像检测装置检测到的对象图像是否包含在由电子缩放区域指定装置指定的电子缩放区域内;视差移动装置(视差移动手段),用于响应于由判定装置做出对象图像不包含在电子缩放区域内的判定结果,以将消除立体图像或者电子缩放区域的中央部分的双眼视差的方式移动左眼用图像和右眼用图像,并且响应于由判定装置做出的对象图像包含在电子缩放区域内的判定结果,以将消除由对象图像检测装置检测到的对象图像的双眼视差的方式移动左眼用图像和右眼用图像;和显示控制装置(显示控制手段),用于放大和显示电子缩放区域内的图像。
本发明的第二个方面还提供一种适合于上述立体图像控制设备的操作控制方法。具体地说,该方法包括:立体图像生成装置通过重叠左眼用图像和右眼用图像生成立体图像;对象图像检测装置从立体图像生成装置生成的立体图像中找出期望的对象图像部分;电子缩放区域指定装置在立体图像生成装置生成的立体图像中指定电子缩放区域;判定装置判断由对象图像检测装置检测到的对象图像是否包含在由电子缩放区域指定装置指定的电子缩放区域内;视差移动装置响应于由判定装置做出对象图像不包含在电子缩放区域内的判定结果,以消除立体图像或者电子缩放区域的中央部分的双眼视差的方式移动左眼用图像和右眼用图像,并且响应于由判定装置做出的对象图像包含在电子缩放区域内的判定结果,以消除由对象图像检测装置检测到的对象图像的双眼视差的方式移动左眼用图像和右眼用图像;和显示控制装置放大和显示电子缩放区域内的图像。
按照本发明的第二个方面,如果对象图像部分包含在所指定的电子缩放区域内,则以消除这一对象图像部分的双眼视差的方式进行视差移动。如果对象图像部分不包含在所指定的电子缩放区域内,则以消除立体图像或电子缩放区域的中央部分的双眼视差的方式进行视差移动。这样就获得了自然的立体图像。
附图说明
图1图解说明被摄体和立体成像数码相机之间的位置关系;
图2a图解说明左眼用图像,图2b图解说明右眼用图像;
图3图解说明被摄体图像和立体成像数码相机之间的位置关系;
图4是立体图像的例子;
图5是立体图像的例子;
图6是图解说明立体成像数码相机的电气构造的框图;
图7是图解说明立体成像数码相机的处理过程的流程图;
图8图解说明被摄体和立体成像数码相机之间的位置关系;
图9a图解说明左眼用图像,图9b图解说明右眼用图像;
图10是已经检测到的对象图像部分的例子;
图11图解说明被摄体和立体成像数码相机之间的位置关系;
图12a图解说明左眼用图像,图12b图解说明右眼用图像;
图13图解说明被摄体和立体成像数码相机之间的位置关系;
图14a图解说明左眼用图像,图14b图解说明右眼用图像;
图15图解说明被摄体和立体成像数码相机之间的位置关系;
图16a图解说明左眼用图像,图16b图解说明右眼用图像;
图17图解说明被摄体和立体成像数码相机之间的位置关系;
图18图解说明聚焦到图像的中央部分时的聚焦透镜位置和聚焦到对象图像部分时的聚焦透镜位置;
图19a图解说明左眼用图像,图19b图解说明右眼用图像;
图20a图解说明左眼用图像,图20b图解说明右眼用图像;
图21a图解说明左眼用图像,图21b图解说明右眼用图像;
图22a图解说明左眼用图像,图22b图解说明右眼用图像;
图23是立体图像的例子;
图24是图解说明立体成像数码相机的电气构造的框图;
图25是图解说明显示区域计算处理过程的流程图;
图26图解说明被摄体图像和立体成像数码相机之间的位置关系;
图27a图解说明左眼用图像,图27b图解说明右眼用图像;
图28图解说明图像中央部分的聚焦透镜位置、对象图像部分的聚焦透镜位置和主要被摄体概率之间的关系;
图29图解说明图像中央部分的聚焦透镜位置、对象图像部分的聚焦透镜位置和主要被摄体概率之间的关系;
图30图解说明图像中央部分的聚焦透镜位置、对象图像部分的聚焦
透镜位置和主要被摄体概率之间的关系;
图31是立体图像的例子;
图32是图解说明立体成像数码相机的电气构造的框图;
图33是图解说明图像移动处理过程的流程图;
图34是立体图像的例子;
图35是立体图像的例子;
图36是图解说明立体成像数码相机的处理过程的流程图;
图37是图解说明回放处理过程的流程图;
图38是立体图像的例子;
图39是立体图像的例子;
图40是立体图像的例子;
图41是立体图像的例子;和
图42是图解说明立体成像数码相机的电气构造的框图。
具体实施方式
图1图解说明本发明的实施方式并且平面地表示立体成像数码相机与被摄体之间的关系。
立体成像数码相机1配备有用于拍摄观察者左眼看到的左眼用图像的第一摄像装置2并且配备有用于拍摄由观察者右眼看到的右眼用图像的第二摄像装置3。
塔11、人物12和墙壁13以距离立体成像数码相机1由远及近的顺序处于立体成像数码相机1的前方。
图2a和2b分别表示通过使用图1中所示的立体成像数码相机1进行成像所获得的左眼用图像和右眼用图像。
图2a中所示的左眼用图像10L是由立体成像数码相机1的第一摄像装置2拍摄的。图2b中所示的右眼用图像10R是由立体成像数码相机1的第二摄像装置3拍摄的。
参照图2a,与位于中央的塔11相对应的塔图像11L正被显示在左眼用图像10L上。与人物12相对应的人物图像12L显示在塔图像11L的左侧。与墙壁13相对应的墙壁图像13L显示在左眼用图像10L的右下角。
参照图2b,塔图像11R也被显示在右眼用图像10R的中央,并且人物图像12R被显示在塔图像11R的左侧。墙壁图像13R被显示在右眼用图像10R的右下角。
在图2a中所示的左眼用图像10L与图2b中所示的右眼用图像10R之间存在视差。在将这些图像显示为立体图像的情况下,需要以会消除(消失)右眼用图像10R和左眼用图像10L共有的某一图像部分的视差的方式,水平移动左眼用图像10L和右眼用图像10R。在这一实施方式中,从左眼用图像10L和右眼用图像10R各自的图像中检测出期望的对象图像部分,并且以将会消除所检测出的对象图像部分的视差的方式,沿水平方向移动左眼用图像10L和右眼用图像10R。在找到多个对象图像部分的情况下,会消除多个对象图像部分中的任何一个对象图像部分的视差。
在这一实施方式中,采用人物12的面部图像作为期望的对象图像部分,不过不言自明,其它的对象图像部分也是可以的。
参照图2a,执行从左眼用图像10L中检测出人物图像12L的面部图像5L的处理,并且检测出面部图像5L。在左眼用图像10L中显示指明所检测到的面部图像5L的框15L。类似地,也针对图2b中所示的右眼用图像10R,执行检测人物图像12R的面部图像5R的处理并且检测出面部图像5R。在右眼用图像10R中显示指明所检测到的面部图像5R的框15R。
图3图解说明被摄体图像与立体成像数码相机1之间的关系。
如前面所提到的,当以消除从左眼用图像10L中检测到的面部图像5L(人物图像12L)与从右眼用图像10R中检测到的面部图像5R(人物图像12R)之间的视差的方式移动左眼用图像10L和右眼用图像10R时,使得人物图像12中的双眼视差消失。
位于人物12背后的塔11由左眼用图像10L中包含的塔图像11L和右眼用图像10R中包含的塔图像11R表示。在塔图像11L和11R之间会出现双眼视差(背后双重图像)。位于人物12前方的墙壁13由左眼用图像10L中包含的墙壁图像13L和右眼用图像10R中包含的墙壁图像13R表示。在墙壁图像13L和墙壁图像13R之间会出现双眼视差(前方双重图像)。
由于塔11在没有视差的人物12的后面,因此左眼用图像10L中包含的塔图像11L在右眼用图像10R中包含的塔图像11R的右侧。另一方面,由于墙壁13在没有视差的人物12的前面,因此左眼用图像10L中包含的墙壁图像13L在右眼用图像10R中包含的墙壁图像13R的左侧。
图4是通过将图2a中所示的左眼用图像10L和图2b中所示的右眼用图像10R重叠起来(移动)而获得的立体图像的例子。
这个立体图像10是移动左眼用图像10L和右眼用图像10R,使得从左眼用图像10L中检测到的面部图像5L与从右眼用图像10R中检测到的面部图像5R之间的视差消失的结果。
立体图像10包含与塔11、人物12和墙壁13相对应的塔图像11、人物图像12和墙壁图像13(这些附图标记也采用了与塔11、人物12和墙壁13的附图标记相同的标记)。尽管人物图像12没有双眼视差,但塔图像11和墙壁图像13表现出双眼视差并且是重影图像。在这一实施方式中,在立体图像10内确定包括所检测到的面部图像5的显示区域,并且以放大的形式显示这一显示区域内的图像。
图5是立体图像10的例子。
如前面提到的,在立体图像10内确定显示区域17,使其包含所检测到的面部图像5。显示区域17拥有与立体图像10相同的宽高比,并且侧边分别与立体图像10的顶部、底部、左右侧边平行。将显示区域17内的图像放大,使其显示在显示单元的整个显示屏幕之上。显示区域17之外的图像还包含代表墙壁13的墙壁图像13(视差造成的重影图像),墙壁图像13是由所检测到的对象图像部分代表的人物12的面部前方的对象(离立体成像数码相机1较近)。代表塔11的塔图像11是视差造成的重影图像,塔11是人物12面部后方的对象(离立体成像数码相机较远)。虽然需要使得比无视差面部图像5表示的面部5更靠后的对象的图像表现出立体感,但是最好清除比面部5更靠前的对象的图像,以便缓解对观看者眼睛造成的紧张。在这一实施方式中,不显示在显示区域17之外的图像,因此,通常不会再显示面部5前面的对象的重影图像。而且,由于显示区域17被确定为包含面部图像5,因此能够避免不显示希望由观看者看到对象图像部分的情形。
图6是图解说明立体成像数码相机的电气构造的框图。
立体成像数码相机的整体操作是由主CPU 20控制的。立体成像数码相机配备有操作单元27,该操作单元27包括各种不同的按钮,比如用于成像模式和回放模式等的模式设置按钮,以及指定立体运动图像的记录开始和结束的动画按钮。操作单元27输出的操作信号被输入给主CPU 20。
如前面所提到的,立体成像数码相机包括第一摄像装置2和第二摄像装置3。由第一摄像装置2和第二摄像装置3对被摄体进行成像。
第一摄像装置2对被摄体进行成像,从而输出表示构成立体图像的左眼用图像的图像数据。第一摄像装置2包括第一图像传感器(CCD,CMOS,等等)34。变焦透镜31、聚焦透镜32和光圈33设置于第一图像传感器34前方。变焦透镜31、聚焦透镜32和光圈33分别由变焦透镜控制单元35、聚焦透镜控制单元36和光圈控制单元37驱动。当设置为成像模式并且在第一图像传感器34的感光体表面上形成左眼用图像时,基于由定时发生器42供应的时钟脉冲,从第一图像传感器34输出代表左眼用图像的左眼视频信号。
在模拟信号处理单元39中对从第一图像传感器34输出的左眼视频信号进行规定的模拟信号处理,并且在模拟/数字转换单元40中将其转换为数字的左眼用图像数据。左眼用图像数据被从图像输入控制器41输入到数字信号处理单元62。在数字信号处理单元62中对左眼用图像数据进行规定的数字信号处理。从数字信号处理单元62中输出的左眼用图像数据被输入到AF检测单元76并且计算决定聚焦透镜32的透镜位置的AF评价值。基于计算出来的AF评价值对聚焦透镜32进行定位。此外,左眼用图像数据还被输入到AE/AWB检测单元77,在AE/AWB检测单元77中,计算曝光量和白平衡调整量。基于计算出来的曝光量,确定光圈33的f制光圈值(f-stop value)和第一图像传感器34的快门速度(电子快门)。基于计算出来的白平衡调整量,在模拟信号处理单元39中进行白平衡调整。
第二摄像装置3包括第二图像传感器54。在第二图像传感器54前方设置有分别由变焦透镜控制单元55、聚焦透镜控制单元56和光圈控制单元57驱动的变焦透镜51、聚焦透镜52和光圈53。当设置为成像模式并且在第二图像传感器54的感光体表面上形成右眼用图像时,基于由定时发生器62供应的时钟脉冲,从第二图像传感器54输出代表右眼用图像的右眼视频信号。
在模拟信号处理单元59中对从第二图像传感器54输出的右眼视频信号进行规定的模拟信号处理,并且在模拟/数字转换单元60中将其转换为数字的右眼用图像数据。右眼用图像数据被从图像输入控制器61输入到数字信号处理单元62。在数字信号处理单元62中对右眼用图像数据进行规定的数字信号处理。从数字信号处理单元62中输出的右眼用图像数据也被输入到AF检测单元76并且计算决定聚焦透镜52的透镜位置的AF评价值。基于计算出来的AF评价值对聚焦透镜52进行定位。此外,右眼用图像数据也被输入到AE/AWB检测单元77,在AE/AWB检测单元77中,计算曝光量和白平衡调整量。基于计算出来的曝光量,确定光圈53的f制光圈值和第二图像传感器54的快门速度(电子快门)。基于计算出来的白平衡调整量,在模拟信号处理单元59中进行白平衡调整。
如前面提出的那样获得的左眼用图像数据和右眼用图像数据的项目也被输入到被摄体检测单元85。如前面所提到的,在被摄体检测单元85中从左眼用图像中和从右眼用图像中检测出期望的对象图像部分(面部图像)。左眼用图像数据、右眼用图像数据和表示所检测到的对象图像部分的位置的数据的项目,在仅仅通过视差调整单元83和重影图像判定单元86之后,被输入到位置双眼视差量测量单元88。在左眼用图像和右眼用图像中的每一个图像中,位置双眼视差量测量单元88测量相互对应的图像部分的偏移方向和双眼视差量。此外,位置双眼视差量测量单元88还检测代表由所检测到的对象图像部分表示的对象前方的被摄体的图像(前方重影图像)的位置双眼视差或者代表这一对象后方的被摄体的图像(后方重影图像)的位置双眼视差。
在视差调整单元83中,以消除左眼用图像中检测到的对象图像部分与右眼用图像中检测到的对象图像部分之间的位置双眼视差的方式(即,以消除视差的方式)移动左眼用图像和右眼用图像。在视差调整单元83中被移动过的图像的左眼用图像数据和右眼用图像数据的项目被输入到显示控制器81。
表示所检测出的对象图像部分的位置、左眼用图像和右眼用图像的数据项目也被输入到显示区域计算单元87。在显示区域计算单元87中,如上所述,计算显示区域的位置及其尺寸。在仅仅通过重影图像判定单元86之后,表示计算出来的显示区域的位置和尺寸的数据被应用于显示控制单元81。
显示控制单元81以消除所检测到的对象图像部分的视差的方式,而且,以放大和显示图像显示区域内的图像从而将其显示在整个显示屏幕上的方式,来控制监视显示单元82。
立体成像数码相机还包括对应点检测单元84,在从左和右眼用图像之一中发现对象图像部分的情况下,对应点检测单元84从这些图像中的另一个中找出对象图像部分。立体成像数码相机还包括重影图像判定单元86,用于判断是否存在表示对象图像部分所代表的对象前方的被摄体的前方重影图像以及这一前方重影图像的双眼视差程度是否处于容许范围之内,下面将对此进行介绍。
当包含在操作单元27中的快门释放按钮被按下时,如前所述那样获得的代表立体图像的数据(左眼用图像数据和右眼用图像数据)由媒体控制单元79记录在存储卡80上。虽然可以安排成这样:将表示显示区域内的图像的左眼用图像和右眼用图像的项目记录在存储卡80上,但是最好是将包括图像显示区域之外的图像的、通过成像获得的左眼用图像和右眼用图像的项目记录在存储卡80上。
立体成像数码相机还包括VRAM 71、SDRAM 72、快闪ROM 73和ROM 74,用于存储各种数据。立体成像数码相机还包含电池21。电池21供应的电力被施加到电力控制单元22。电力控制单元22向构成立体成像数码相机的各个装置供应电力。立体成像数码相机还包括由闪光控制单元25控制的闪光单元24、姿态传感器26和相机抖动控制单元78。
立体成像数码相机的操作程序已经被存储在前面提到的存储卡80中,并且通过将这一操作程序安装到立体成像数码相机中来使得立体成像数码相机进行操作。自然,操作程序可以是预先安装在立体成像数码相机中,或者可以是记录在除了存储卡80之外的其它便携式记录介质上的。此外,操作程序可以是通过网络加到立体成像数码相机上的。在这种情况下,立体成像数码相机将会配备用于与网络连接的通信装置。
图7是图解说明立体成像数码相机的处理过程的流程图。
如前面所提到的,如图2a和2b所示那样对被摄体进行成像和获得左眼用图像和右眼用图像。从左眼用图像中和从右眼用图像中检测出对象图像部分(面部图像)。如果从这些图像中的任何一个中都检测到了对象图像部分(步骤91的"是"),则以消除对象图像部分的双眼视差的方式移动左眼用图像和右眼用图像(步骤92),如图4中所示。在仅仅从左和右眼用图像中的一个图像中检测到对象图像部分的情况下,对应点检测单元84执行用于从另一个图像中检测特征点的处理并且从该另一个图像中检测出与从所述一个图像中检测到的对象图像部分相对应的图像部分。
基于由位置双眼视差量测量单元88获得的位置双眼视差的测量结果,判断是否存在代表处于由所检测到的对象图像部分表示的对象前方的被摄体的前方重影图像(步骤93),如前面所提到的那样。在存在这样的前方重影图像的情况下(步骤93中的"是"),基于位置双眼视差量测量单元88获得的位置双眼视差测量结果,判断前方重影图像的双眼视差是否处于容许范围之内(步骤94)。如果双眼视差超出了容许范围(步骤94中的"否"),那么,如前面所提到的那样,计算显示区域(例如,尺寸小于立体图像的尺寸并且宽高比与立体图像的宽高比相同的区域),使其包括检测到的对象图像部分(步骤95)。
当检测到显示区域时,确认是否有被从立体图像(左眼用图像和右眼用图像)中排除的区域(步骤96)。如果存在被排除的区域(步骤96中的"是"),则判断计算出来的图像区域是否大于最小尺寸(例如,VGA:视频图形阵列)(步骤97)。
如果计算出来的显示区域大于该最小尺寸(步骤97中的"是"),则可以将图像区域内的图像显示在整个显示屏幕上。由此,显示区域内的图像是以放大形式显示的(步骤98)。因此显示出了缓解了视觉疲劳并且从中消除了观看时产生不适感的前方重影图像的立体图像。如果计算出来的显示区域小于该最小尺寸(步骤97中的"否"),则不能将图像区域内的图像显示在整个显示屏幕上。由此,整个立体图像被显示在显示屏幕的全部范围内,而不是放大显示显示区域内的图像(步骤99)。
如果不能检测到对象图像部分(步骤91中的"否"),或者如果没有前方重影图像(步骤93中的"否"),或者如果前方重影图像的双眼视差量处于容许范围内(步骤94中的"是"),或者如果不存在被排除的区域(步骤96中的"否"),那么不能将显示区域内的图像显示在整个显示表面上。由此,整个立体图像被显示在显示屏幕的全部范围内,而不是放大显示显示区域内的图像(步骤99)。
前面的实施方式是针对在图像拍摄时获得的左眼用图像数据和右眼用图像数据实现的。不过,不言自明,不仅可以在图像拍摄时进行类似的处理,而且也可以在再现诸如存储卡80这样的便携式记录介质(不过介质不必是便携的)上记录的左眼用图像数据和右眼用图像数据时进行类似的处理。
在前述的实施方式中,可以显示从中消除了前方重影图像的立体图像。结果,在图像拍摄的时候,或者所谓的直播观看的时候,并且在回放的时候,可以使得用户能够看到宽高比与拍摄的图像的宽高比相同的图像,而且,该图像还具有很小的双眼视差。在前面介绍的实施方式中,考虑了所谓的自动回放并且能够在这一自动回放中缓解观看者的视觉疲劳。
为了消除前方重影图像,希望在左眼和右眼用图像的各个图像中进行面部图像(对象图像)的精确检测。不过,在比如面部离立体成像数码相机1很远、面部朝向侧面而不是超向前或者面部全部或部分很暗的情况下,会有不能精确检测到面部图像的情形和仅能从左眼和右眼用图像中的一个图像中检测到面部图像的情形。即使在这些情况下,最好通过也从左眼和右眼用图像中的另一个图像中检测出面部图像,来如前面所提到的那样消除前方重影图像。为了检测到面部图像,如果针对左眼和右眼用图像中没有检测到面部图像的另一个图像整个进行与面部图像模板匹配的处理,并且这样检测到了面部图像,那么前面提到的显示区域的计算(图7中步骤95的处理)将会花费相对较长的时间。因此,最好相对较快地从没有检测到面部图像的另一个图像中检测到面部图像。下面提出的实施方式用于相对较快地从没有检测到面部图像的另一个图像中检测到面部图像。
图8到17图解说明另一个实施方式。如前面所提到的那样,这一实施方式从左眼和右眼用图像中的没有检测到对象图像的另一个图像中相对快速地检测到对象图像,并且以仅从所述一个图像中检测到的对象图像部分也将落入显示区域内的方式确定显示区域。首先,将会参照图8到17介绍左眼用图像中和右眼用图像中包含多个人并且针对至少一个人在左眼和右眼用图像中都检测到面部图像的情况下的处理。设置用于检测面部图像的处理的检测目标区域,将其安排成使得对于在两个图像中检测到的面部图像而言,没有双眼视差。
图8与图1相对应,图8以平面方式图解说明立体成像数码相机1和被摄体之间的关系。图8中与图1中所示的相同的项目用类似的附图标记表示并且不必再加以介绍。
在图8中,位于前面提到的人物(第一个人物)12后面并且在其右侧的第二个人物14处于塔11前方。在前面介绍的实施方式中,作为在成像区域内的对象图像的人物图像(面部图像)是单个人物的人物图像。不过,在这个实施方式中,新加入了第二个人物14,从而成像区域现在包含两个人物(人物的数量可以是三个或更多)的人物图像。
图9a和9b是通过在立体成像数码相机1的第一和第二摄像装置2和3中分别对具有图8中所示的位置关系的被摄体进行成像获得的左眼用图像和右眼用图像。图9a和9b也分别对应于图2a和2b,图9a和9b中与图2a和2b中所示的项目相同的项目由相同的附图标记表示并且不必再次介绍。
在左眼用图像10L中,执行检测对象图像部分的处理并且假设检测到了第一个人物12的面部图像5L和第二个人物14的面部图像6L。(也显示了包围面部图像5L的框15L和包围面部图像6L的框16L。)类似地,在右眼用图像10R中,执行检测对象图像部分的处理并且假设,虽然已经检测到了第一个人物12的面部图像5R(显示包围面部图像5R的框15R),但是没有检测到第二个人物14的面部图像6R。
通过利用从左眼用图像10L中检测到的面部图像6L,从右眼用图像10R中找出与面部图像6L对应的面部图像6R。
图10对从左眼用图像10L和右眼用图像10R二者中检测到的面部图像5L(5R)的大小与仅从左眼用图像10L和右眼用图像10R中的一个图像中检测到的面部图像6L的大小进行比较。
在这一实施方式中,如果从两个图像中检测到的面部图像5L(5R)的大小大于仅从一个图像中检测到的面部图像6L的大小,则假设仅从一个图像中检测到的面部图像6L所代表的被摄体处于从两个图像中检测到的面部图像5L所代表的被摄体的更远处的位置(后方)。
如参照图3所介绍的,当消除了从两个图像中检测到的面部图像5L(见图9a)和对象图像5R(见图9b)之间的双眼视差时,这一对象图像5后方的被摄体是这样的:它的由左眼用图像10L表示的图像处于右侧,而它的由右眼用图像10R表示的图像处于左侧。因此,如果从右眼用图像10R中,在右眼用图像10R与左眼用图像10L中检测到的面部图像6L相对应的位置的右侧,找到与面部图像6L相对应的面部图像,那么就可以以相对较短的时间找到这个面部图像。
这里的目的是希望找出面部图像并且使得视差与面部图像相符。不过,在从左眼和右眼用图像的每一个图像中都找到面部图像的情况下,这些图像将已经被存储在文件中。当代表面部图像的区域的坐标信息已经被记录在文件的头部信息中时,为了调节视差而检测对应点的范围就变得极其有限。不过,在仅仅在左眼和右眼用图像之一中检测到面部图像的情况下,缺乏与面部图像位于何处相关的信息的状态下,在对图像空间应用穷举法的系统中,找到构成一对的面部图像需要巨大的时间成本。因此,为了改善使用时的响应,关键是通过某种或其它手段限制搜索范围,然后以高速执行对应点检测处理。由此,通过将从左眼和右眼用图像二者中检测到的面部图像(双眼检出面部图像)的大小与从左眼和右眼用图像中的一个图像中检测到的面部图像(单眼检出面部图像)的大小进行比较,判断单眼检出面部图像处于双眼检出面部图像前方还是后方,并且基于前方或后方判定信息限定在前方或后方进行搜索的搜索范围。
在这一实施方式中,如果判定仅可从另一个图像中找到的对象图像部分的大小大于可以从左眼用图像10L和右眼用图像10R两个图像中找到的对象图像部分的大小,而且,不能找到对象图像部分的所述一个图像是左眼用图像,或者如果判定仅可从另一个图像中找到的对象图像部分的大小小于可以从左眼用图像10L和右眼用图像10R两个图像中找到的对象图像部分的大小,而且,不能找到对象图像部分的所述一个图像是右眼用图像,那么从与可以在另一个图像中找到的对象图像部分相对应的位置的右侧,找到不能从所述一个图像中找到的对象图像部分。
图11按照面部图像5L和6L以及面部图像5R和6R的人物图像12和14与立体成像数码相机1之间的位置关系,表示包含在如图9a和9b中所示那样使用立体成像数码相机1拍摄的左眼用图像10L和右眼用图像10R的每一个中的面部图像5L、6L和面部图像5R、6R。
还是参照图9a和9b,假设对于处于靠近立体成像数码相机1的位置上的人物而言,已经从左眼用图像10L中检测到该人物的面部图像5L并且从右眼用图像10R中检测到该人物的面部图像5R。由于从左眼用图像10L中检测到了面部图像5L,围绕着面部图像5L显示着框15L,如图9a和11中所示。由于从右眼用图像10R中检测到了面部图像5R,框15R被显示出来,如图9a和11中所示。
假设对于位于远离立体成像数码相机1的位置上的人物而言,已经从左眼用图像10L中检测到了该人物的面部图像6L,但不能从右眼用图像10R中检测到面部图像6R。在此情况下,在右眼用图像10R中,将从左眼用图像10L中检测到的面部图像6L所对应的位置的右侧设置为用于检测面部图像6R的检测目标区域210。更加具体地讲,处于包围着左眼用图像10L中检测到的面部图像6L的框16L的左端所对应的右眼用图像10R中的位置的右侧的检测目标区域210,具有最大宽度w1和高度h1,最大宽度w1小于将所检测到的面部的宽度与双眼视差的最大量相加而获得的值,高度h1与左眼用图像10L中检测到的面部图像6L的高度相当。自然,检测目标区域210的左端可以向包围着左眼用图像10L中检测到的面部图像6L的框16L的左端的左侧稍移,并且检测目标区域210的高度h1可以在上下稍大于左眼用图像10L中检测到的面部图像6L的高度。由于面部图像6L是从检测目标区域210中检测的,因此可以相对快速地检测到面部图像6L。
图12a是左眼用图像的例子,附图12b是右眼用图像的例子。图13与图11相对应,图13按照面部图像5L和6L以及面部图像5R和6R的人物图像12和14与立体成像数码相机1之间的位置关系,表示包含在如图12a和12b中所示那样使用立体成像数码相机1拍摄的左眼用图像10L和右眼用图像10R的每一个中的面部图像5L、6L和面部图像5R、6R。
假设对于位于远离立体成像数码相机1的位置上的人物而言,已经从左眼用图像10L中检测到了该人物的面部图像6L并且从右眼用图像10R中检测到了面部图像6R。由于从左眼用图像10L中检测到了面部图像6L,围绕着面部图像6L显示着框16L,如图12a和13中所示。由于从右眼用图像10R中检测到了面部图像6R,因此框16R被显示出来,如图12a和13中所示。
假设对于位于接近立体成像数码相机1的位置上的人物而言,已经从右眼用图像10R中检测到了该人物的面部图像5R,但不能从左眼用图像10L中检测到面部图像5L。在此情况下,在左眼用图像10L中,将从右眼用图像10R中检测到的面部图像5R所对应的位置的右侧设置为用于检测面部图像5L的检测目标区域211。更加具体地讲,处于包围着右眼用图像10R中检测到的面部图像5R的框15R的右端在左眼用图像10L中的对应位置的左侧的检测目标区域211,具有最大宽度w2和高度h2,最大宽度w2小于将所检测到的面部的宽度与双眼视差的最大量相加而获得的值,高度h2与右眼用图像10R中检测到的面部图像5R的高度相当。自然,检测目标区域211的左端可以向包围着右眼用图像10R中检测到的面部图像5R的框15R的左端的左侧稍移,并且检测目标区域211的高度h2可以在上下稍大于右眼用图像10R中检测到的面部图像5R的高度。由于面部图像5L是从检测目标区域211中检测的,因此可以相对快速地检测到面部图像6L。
此外,如果判定仅可从另一个图像中找到的对象图像部分的大小大于可以从左眼用图像和左眼用图像两个图像中找到的对象图像部分的大小,而且,不能找到对象图像部分的所述一个图像是右眼用图像,或者如果判定仅可从另一个图像中找到的对象图像部分的大小小于可以从左眼用图像和右眼用图像两个图像中找到的对象图像部分的大小,而且,不能找到对象图像部分的所述一个图像是左眼用图像,那么从与可以在另一个图像中找到的对象图像部分相对应的位置的左侧,找到不能从所述一个图像中找到的对象图像部分。
图14a是左眼用图像的例子,图14b是右眼用图像的例子。图15与图11和13相对应,图15按照面部图像5L和6L以及面部图像5R和6R的人物图像12和14与立体成像数码相机1之间的位置关系,表示包含在如图14a和14b中所示那样使用立体成像数码相机1拍摄的左眼用图像10L和右眼用图像10R的每一个中的面部图像5L、6L和面部图像5R、6R。
以类似于前面参照图9a、9b和图11介绍的方式,假设针对处于靠近立体成像数码相机1的位置上的人物而言,已经从左眼用图像10L中检测到了面部图像5L并且从右眼用图像10R中检测到了面部图像5R。
假设对于位于远离立体成像数码相机1的位置上的人物而言,已经从右眼用图像10R中检测到了该人物的面部图像6R,但不能从左眼用图像10L中检测到面部图像6L。在此情况下,在左眼用图像10L中,将从右眼用图像10R中检测到的面部图像6R所对应的位置的左侧设置为用于检测面部图像6L的检测目标区域212。检测目标区域212被设置在左眼用图像10L中与包围着右眼用图像10R中检测到的面部图像6R的框16R的右端相对应的位置的左侧。检测目标区域212的大小与前面介绍的检测目标区域210的大小相同(当然也可以是不同的)。
图16a是左眼用图像的例子,图16b是右眼用图像的例子。图17与图11、13和15相对应,图17按照面部图像5L和6L以及面部图像5R和6R的人物图像12和14与立体成像数码相机1之间的位置关系,表示包含在如图16a和16b中所示那样使用立体成像数码相机1拍摄的左眼用图像10L和右眼用图像10R的每一个中的面部图像5L、6L和面部图像5R、6R。
假设对于位于远离立体成像数码相机1的位置上的人物而言,已经从左眼用图像10L中检测到了该人物的面部图像6L并且从右眼用图像10R中检测到了面部图像6R。
假设对于位于接近立体成像数码相机1的位置上的人物而言,已经从左眼用图像10L中检测到了该人物的面部图像5L,但不能从右眼用图像10R中检测到面部图像5R。在此情况下,在右眼用图像10R中,将从左眼用图像10L中检测到的面部图像5L所对应的位置的左侧设置为用于检测面部图像5R的检测目标区域213。检测目标区域213的大小与前面介绍的检测目标区域211的大小相同(见图12a)(当然也可以是不同的)。
在前面的实施方式中,将从左眼和右眼用图像两个图像中检测到的面部图像的大小与仅从左眼和右眼用图像中的一个图像中检测到的面部图像的大小进行比较,并且确定用于检测没有从另一个图像中检测到的面部图像的检测目标区域。不过,如果没有从左眼用图像和右眼用图像两个图像中检测出来的至少一个面部图像(即,如果不能稳定地检测到面部图像),那么就不能确定检测目标区域。在下面将要介绍的实施方式中,即使不存在从左眼用图像和右眼用图像两个图像中检测出来的面部图像,也可以从左眼和右眼用图像中的一个图像中检测出面部图像并且确定用于检测没有从另一个图像中检测到的面部图像的检测目标区域。
图18图解说明聚焦透镜的位置。
在不能从左眼用图像10L和右眼用图像10R中检测出共有的对象图像部分(面部图像)的情况下,利用聚焦透镜的位置确定用于检测另一个图像中与在一个图像中检测到的对象图像部分相对应的对象图像部分的部分。
假设左眼和右眼用图像中检测到对象图像部分的那个图像的中央部分被调节到焦点上时,占优势的聚焦透镜位置是P1,并且假设所检测到的对象图像部分被调节到焦点上时,占优势的聚焦透镜位置是P2。在此情况下,从这些位置P1和P2之间的位置关系,将会知道存在于图像中央部分的被摄体与检测到的对象图像部分所代表的对象之间的位置关系。在这一实施方式中,以使得图像的中央部分不表现出双眼视差的方式调整左眼用图像和右眼用图像。
如果仅从左眼和右眼用图像中的另一个图像中找到的对象图像部分所代表的对象的位置处于该另一个图像的中央部分处的与没有双眼视差的图像相对应的被摄体的位置的前方,而且,不能找到对象图像部分的一个图像是右眼用图像,或者如果仅从左眼和右眼用图像中的另一个图像中找到的对象图像部分所代表的对象的位置处于该另一个图像的中央部分处的与没有双眼视差的图像相对应的被摄体的位置后方,而且,所述一个图像是左眼用图像,那么将会从在另一个图像中找到的对象图像部分所对应的位置的左侧,找到不能从所述一个图像中找到的对象图像部分。
图19a是左眼用图像的例子,图19b是右眼用图像的例子。图19a和19b中与图9a和9b中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
塔图像11L处于左眼用图像10L的中心,并且塔图像11R处于右眼用图像10R的中心。与前面介绍的实施方式不同,假设已经在左眼用图像10L和右眼用图像10R之间消除了位于中心的塔图像11L和11R的双眼视差。
此外,假设虽然已经从左眼用图像10L中检测到了面部图像6L,但是没有从右眼用图像10R中检测到面部图像6R。由于对象图像(从左眼用图像10L中检测到的面部图像6L)的聚焦透镜位置P2比中央部分(塔11)的聚焦透镜位置P1更加靠近近端,如图18中所示,因此知道面部6的人物14处于塔11前方。由此,由于塔11和人物14对应于图17中所示的位置关系,因此在右眼用图像10R中,在检测到的面部图像6L所对应的位置的左侧,设置用于检测面部图像6R的检测目标区域210A。
图20a是左眼用图像的例子,图20b是右眼用图像的例子。图20a和20b中与图16a和16b中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。与前面介绍的实施方式不同,假设图20a和20b中也已经在左眼用图像10L和右眼用图像10R之间消除了塔图像11L和11R的双眼视差。
假设虽然已经从左眼用图像10L中检测到了面部图像5L,但是没有从右眼用图像10R中检测到面部图像5R。在这种情况下,以类似于图19a和19b中所示的方式,要检测面部图像5R的人物12同样也在塔11的前方,因此知道在右眼用图像10R中,在所检测到的面部图像5L所对应的位置的左侧设置用于检测面部图像5R的检测目标区域213。
如果仅从左眼和右眼用图像中的另一个图像中找到的对象图像部分所代表的对象的位置处于该另一个图像的中央部分处的与没有双眼视差的图像相对应的被摄体的位置的前方,而且,不能找到对象图像部分的一个图像是左眼用图像,或者如果仅从左眼和右眼用图像中的另一个图像中找到的对象图像部分所代表的对象的位置处于该另一个图像的中央部分处的与没有双眼视差的图像相对应的被摄体的位置后方,而且,不能找到对象图像部分的所述一个图像是右眼用图像,那么将会从在另一个图像中找到的对象图像部分所对应的位置的右侧,找到不能从所述一个图像中找到的对象图像部分。
图21a是左眼用图像的例子,图21b是右眼用图像的例子。图21a和21b中与图14a和14b中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。假设图21a和21b中也已经在左眼用图像10L和右眼用图像10R之间消除了塔图像11L和11R的双眼视差。
此外,假设虽然已经从右眼用图像10R中检测到了面部图像6R,但是没有从左眼用图像10L中检测到面部图像6L。由于塔11和人物14对应于图13中所示的位置关系,因此在左眼用图像10L中,在所检测到的面部图像6R所对应的位置的右侧,设置用于检测面部图像6L的检测目标区域212A。
图22a是左眼用图像的例子,图22b是右眼用图像的例子。图22a和22b中与图12a和12b中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。假设图22a和22b中也已经在左眼用图像10L和右眼用图像10R之间消除了塔图像11L和11R的双眼视差。
假设虽然已经从右眼用图像10R中检测到了面部图像5R,但是没有从左眼用图像10L中检测到面部图像5L。在这种情况下,以类似于图21a和21b中所示的方式,要检测面部图像5R的人物12同样也在塔11的前方,因此知道在左眼用图像10L中,在所检测到的面部图像5R所对应的位置的右侧设置用于检测面部图像5L的检测目标区域211。
鉴于在图9b中以左眼用图像10L中检测到的面部图像6L为基准,将检测目标区域210设置在了右侧,在图19b中,以左眼用图像10L中检测到的面部图像6L为基准,将检测目标区域210A设置在了左侧。此外,鉴于在图14a中以右眼用图像10R中检测到的面部图像6R为基准,将检测目标区域212设置在了左侧,在图21a中,以右眼用图像10R中检测到的面部图像6R为基准,将检测目标区域212A设置在了左侧。设置检测目标区域的方向不同的原因在于:在图9b和14a中,面部图像都已经在左眼用图像10L和右眼用图像10R两个图像中检测到的人物12的双眼视差已经被消除,并且在要检测面部图像6R或6L的人物14处于人物12后方的情形下,以人物12为基准,设置了检测目标区域210和212。另一方面,在图19b和21a中,塔11的图像11L和11R之间的双眼视差已经被消除,并且已经在要检测面部图像6R或6L的人物14在塔11前方的状态下,以塔11为基准设置了检测目标区域210A和212A。
图23对应于图5,图23是左眼用图像和右眼用图像重叠在一起的立体图像的例子。图23中与图5中所示的相同的项目用相同的附图标记表示并且不必再加以介绍。
如前面所提出的,即使在不能从右眼用图像10R中检测出与从左眼用图像10L中检测到的面部图像6L相对应的面部图像的情况下,也能够找到面部图像6R。确定显示区域18,使其包围住立体图像中包含的面部图像5和6(框15和16也会被显示)。将所确定的显示区域内的图像显示在整个显示屏幕上。
图24是图解说明立体成像数码相机的电气构造的框图。图24中与图5中所示的部件相同的部件用相同的附图标记表示并且不必再加以介绍。
图24中所示的立体成像数码相机配备有聚焦位置比较计算单元89。如图18中所示,聚焦位置比较计算单元89将左眼用图像和右眼用图像中检测到对象图像部分的图像中的中央部分的聚焦透镜位置与所检测到的对象图像部分的聚焦透镜位置进行比较,并且计算存在于中央部分的被摄体与所检测到的对象图像部分所代表的对象之间的位置关系。基于所计算出位置关系,从不能检测到对象图像部分的图像中确定用于找到对象图像部分的区域。
图25是图解说明确定显示区域的处理过程(图7中的步骤95的处理过程)的流程图。
检查判断是否仅在左眼和右眼用图像中的一个图像中检测到了对象图像部分(步骤101)。如果仅在一个图像中检测到了对象图像部分(步骤101中的"是"),则检查判断是否在左眼和右眼用图像两个图像中都检测到了对象图像部分(步骤102)。
如果在两个图像中都检测到了对象图像部分(步骤102中的"是"),则,如参照图10介绍的那样,判断两个图像中检测到的对象图像部分的大小是否大于仅在一个图像中检测到的对象图像部分的大小(步骤103)。如果两个图像中检测到的对象图像部分的大小大于仅在一个图像中检测到的对象图像部分的大小(步骤103中的"是"),则认为由仅在一个图像中检测到的对象图像部分代表的对象处于由两个图像中检测到的对象图像部分代表的对象的前方(使得匹配方向为前侧)。如前面所提到的,取决于不能检测到对象图像部分的图像是左眼用图像还是右眼用图像,在不能检测到对象图像部分的一个图像中,从设置在另一个图像中检测到对象图像部分的位置所对应的位置的右侧或左侧的检测目标区域中,找出不能检测到的对象图像部分(步骤104,107)。这里"匹配"指的是这样的计算操作:在针对仅能够在左眼和右眼用图像中的一个图像中找到的对象图像进行搜索时,通过所谓的图案匹配在另一个图像内部进行对应点检测。具体地说,这是以前面参照图8到图22a和22b介绍的方式检测面部图像的处理。
如果在两个图像中检测到的对象图像部分的大小小于仅在一个图像中检测到的对象图像部分的大小(步骤103中的"否"),则认为由仅在一个图像中检测到的对象图像部分代表的对象处于由两个图像中检测到的对象图像部分代表的对象的后方(使得匹配方向为后侧)。因此,如前面所提到的,取决于不能检测到对象图像部分的图像是左眼用图像还是右眼用图像,在不能检测到对象图像部分的一个图像中,从设置在另一个图像中检测到对象图像部分的位置所对应的位置的右侧或左侧的检测目标区域中,找出不能检测到的对象图像部分(步骤105,107)。
如果不存在从两个图像中检测到的对象图像部分(步骤102中的"否"),则,如参照图18所介绍的那样,利用聚焦透镜的位置来确定找出不能找到的对象图像部分的范围。
如果仅从一个图像中检测到的对象图像部分的聚焦透镜位置与中央部分的聚焦透镜位置相比比较靠前(步骤106中的"是"),则认为仅在一个图像中检测到的对象图像部分所代表的对象处于存在于中心的被摄体的前方(使得匹配方向为前侧)。如前面所提到的,设置检测目标区域,取决于不能检测到对象图像部分的图像是左眼用图像还是右眼用图像,在不能检测到对象图像部分的一个图像中,从检测目标区域中,找出不能检测到的对象图像部分(步骤104,107)。
如果仅从一个图像中检测到的对象图像部分的聚焦透镜位置与中央部分的聚焦透镜位置相比比较靠后(步骤106中的"否"),则认为仅在一个图像中检测到的对象图像部分所代表的对象处于存在于中心的被摄体的后方(使得匹配方向为后侧)。如前面所提到的,设置检测目标区域,取决于不能检测到对象图像部分的图像是左眼用图像还是右眼用图像,在不能检测到对象图像部分的一个图像中,从检测目标区域中,找出不能检测到的对象图像部分(步骤105,107)。
如果不存在仅在一个图像中检测到的对象图像部分(步骤101中的"否"),则跳过步骤102到107的处理。
计算显示区域,使其包含已经找到(检测到)的所有对象图像部分(步骤108)。
前述实施方式精确检测面部图像并且防止前方重影图像。不过,还有一些情况,比如微距模式处于有效状态时,希望前方重影图像不被消除。下面将介绍这样的实施方式。
图26到33图解说明另一种实施方式。这一实施方式是,即使在检测到对象图像部分的情况下,如果除了这一对象图像部分之外的图像部分被认为是主要的被摄体,那么就以消除这一图像部分的双眼视差的方式移动左眼用图像和右眼用图像。
图19与图1相对应,图19以平面方式图解说明立体成像数码相机和被摄体之间的位置关系。图26中与图1中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
人物111和花112位于立体成像数码相机1前方。花112位于人物111前方。花112基本上处于由立体成像数码相机1进行成像的成像区域的近似中心的位置上。
图27a和27b是在由立体成像数码相机1对处于图26中所示的位置关系的人物111和花112进行了成像的情况下获得的左眼用图像和右眼用图像的例子。
参照图27a,代表人物111的人物图像111L被显示在左眼用图像110L的左上角,并且代表花112的花图像112L被显示在左眼用图像110L的近似中心。通过执行检测对象图像部分的处理,检测到了面部图像115L并且围绕着所检测到的面部图像115L显示了框113L。
参照图27b,代表人物111的人物图像111R被显示在右眼用图像110R的左上角,并且代表花112的花图像112R被显示在右眼用图像110R的近似中心。通过执行检测对象图像部分的处理,检测到了面部图像115R并且围绕着所检测到的面部图像115R显示了框113R。
图28到30图解说明检测到对象图像部分时成像透镜的聚焦位置、处于中央部分的成像透镜的聚焦位置和代表主要被摄体概率的指数之间的关系。图28表示变焦透镜被设置在广角端的情况下的关系曲线G1,图29表示变焦透镜被设置在广角端和远景端中间的情况下的关系曲线G2,图30表示变焦透镜被设置在远景端的情况下的关系曲线G3。
按照变焦透镜的变焦位置,为各个变焦位置预先存储了代表主要被摄体概率的指数FP。如果变焦透镜处于广角端,则获得"近"端是最大值的曲线G1,如图28中所示。如果变焦透镜位于广角端和远景端之间,则获得"近"和"远"端之间的近似段为最大值的曲线G2,如图29中所示。如果变焦透镜处于远景端,则获得"远"端是最大值的曲线G3,如图30中所示。表示聚焦透镜位置和主要被摄体概率的指数之间的这些关系的曲线随着变焦位置的变化而连续变化。按照变焦位置预先存储表示聚焦透镜位置与主要被摄体概率的指数之间的关系的曲线(实际上是以表格形式存储的),从这些曲线中选择出与所设定的变焦位置相对应的曲线,并且在确定成像透镜成功检测到对象图像部分处的聚焦位置和中央部分的成像透镜的聚焦位置时,使用所选择的曲线来计算代表主要被摄体概率的指数FP。
假设检测到对象图像部分时的聚焦透镜位置是P12并且处于中央部分的被摄体被调整到焦点上时的聚焦透镜位置是P11。
假设变焦位置处于广角端。使用图28中所示的曲线G1,当垂直延伸聚焦透镜的位置P11和P12时,与曲线G1相交处的指数就是各自的主要被摄体概率。代表处于中央部分的被摄体的主要被摄体概率的指数是F1,并且代表对象图像部分的主要被摄体概率的指数是F2。由于F1>F2,因此认为处于中央部分的被摄体比对象图像部分所代表的对象更有可能是主要被摄体。
在变焦位置为中间位置并且使用图29中所示的曲线G2的情况下,代表处于中央部分的被摄体的主要被摄体概率的指数是F3并且代表对象图像部分的主要被摄体概率的指数是F1。由于F1>F3,因此认为对象图像部分所代表的对象比处于中央部分的被摄体更有可能是主要被摄体。
在变焦位置为远景端并且使用图30中所示的曲线G3的情况下,代表处于中央部分的被摄体的主要被摄体概率的指数是F4并且代表对象图像部分的主要被摄体概率的指数是F1。由于F1>F4,因此认为对象图像部分所代表的对象比处于中央部分的被摄体更有可能是主要被摄体。
在用户对准近距离的被摄体进行成像的情况下,和变焦透镜被设置在广角端上的微距模式下一样,消除这一被摄体的视差并且不进行前方重影图像的消除。
图31是立体图像110的例子,立体图像110是将图27a和27b中所示的左眼用图像和右眼用图像重叠起来的结果。
立体图像110包含代表人物的人物图像111和代表花112的花图像112。(这里采取人物图像111和花图像112的附图标记与人物111和花112的附图标记相同的方式。)已经检测到人物图像111的面部图像115,并且围绕着面部图像115显示框113。
在这一实施方式中,已经设置了微距模式,并且花图像112的主要被摄体概率指数F1大于人物图像111的主要被摄体概率指数F2,如图28中所示。因此,不是以使得人物图像111不产生双眼视差的方式移动左眼用图像110L和右眼用图像110R,而是以使得被认为是主要被摄体的花图像112不产生双眼视差的方式移动左眼用图像110L和右眼用图像110R。因此消除了立体图像110中包含的花图像112的双眼视差。
图32是图解说明立体成像数码相机的电气构造的框图。图32中与图24中所示的部件相同的部件用相同的附图标记表示并且不必再加以介绍。
图32中所示的立体成像数码相机1配备有主要被摄体概率判定单元109。在主要被摄体概率判定单元109中,如前面所提出的那样,将处于图像中心的图像的主要被摄体概率指数与所检测到的对象图像部分的主要被摄体概率指数进行比较,并且以消除主要被摄体概率指数较高的图像的双眼视差的方式移动左眼用图像和右眼用图像。
图33是图解说明移动左眼和右眼用图像的处理过程(图7中的步骤92的处理过程)的流程图。
判断通过将左眼用图像和右眼用图像重叠起来获得的立体图像的中央部分处是否有重影图像(步骤121)。如果在中央部分处有重影图像(步骤121中的"是"),则如前所述那样计算中央部分处的重影图像的主要被摄体概率指数(步骤122)。接着,还要计算所检测到的对象图像部分的主要被摄体概率指数(步骤123)。
将计算出来的各个主要被摄体概率指数进行比较(步骤124)。如果处于中心的重影图像的主要被摄体概率指数大于所检测到的对象图像部分的主要被摄体概率指数,则移动左眼用图像和右眼用图像,以消除处于中央部分的重影图像的双眼视差(步骤126)。相反,如果处于中央部分的重影图像的主要被摄体概率指数大于所检测到的对象图像部分的主要被摄体概率指数,则检查判断是否存在多个对象图像部分(步骤125)。如果存在多个对象图像部分(步骤124),则以消除具有高优先级的对象图像部分的双眼视差的方式移动左眼用图像和右眼用图像(步骤127)。所述优先级可以是所检测到的对象图像部分的大小递减的顺序、所检测到的对象图像部分的位置靠近中心的程度递减的顺序等等,并且不言自明,优先级可以是预先设定的。如果不存在多个对象图像部分(步骤124中的"否"),则以消除所检测到的对象图像部分的双眼视差的方式移动左眼用图像和右眼用图像(步骤128)。
虽然前述实施方式考虑了所谓的自动回放,但是还会有用户利用手动缩放进行回放的情况。即使在这种情况下,最好也按照缩放操作再现出双眼视差很小且对用户眼睛造成很小压力的良好图像。下面将介绍这样的实施方式。
图34到37图解说明另一种实施方式。这一实施方式属于回放时的电子缩放处理。
图34和35是立体图像的例子(作为重叠左眼和右眼用图像的结果而得到的图像)。图34是消除了对象图像部分5的双眼视差的立体图像,图35是消除了位于中心的塔图像11的双眼视差的立体图像。这些图是通过对图1中所示的位置关系下的被摄体进行成像而获得的,并且图34和35中与图4中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
在回放时进行电子缩放处理的情况下,指定缩放区域131,如图21和22中所示。缩放区域131是利用立体成像数码相机1中包含的操作单元27来指定的。以使得指定的缩放区域131内的图像显示在整个显示屏幕上的方式进行放大处理。
当在回放的时候检测到对象图像部分并且在以消除所检测到的对象图像部分的双眼视差的方式移动左眼和右眼用图像后显示立体图像的情况下如上所述那样进行电子缩放处理的时候,将会有对象图像部分超出所指定的缩放区域131的情形。如果在这些状态下进行电子缩放处理,则将要显示的放大的立体图像将不会包含消除了双眼视差的对象图像部分,如图34中所示。出于这一原因,本实施方式是这样的:在所检测到的对象图像部分超出缩放区域131的情况下,以消除位于中央部分的图像部分(塔图像11)的双眼视差的方式移动左眼和右眼用图像,如图35中所示。
图36是图解说明立体成像数码相机的电气构造的框图。图36中与图32中所示的部件相同的部件用相同的附图标记表示并且不必再加以介绍。
图36中所示的立体成像数码相机包括缩放区域判定单元132。如前面所提到的,缩放区域判定单元132判断对象图像部分是否包含在所指定的缩放区域之内。如果对象图像部分不包含在缩放区域之内,则以消除处于图像中心或处于缩放区域中心的图像的双眼视差的方式移动左眼和右眼用图像,并且放大缩放区域内的图像。
图37是图解说明基于电子缩放的回放处理过程的流程图。
从存储卡80中读取出左眼用图像数据和右眼用图像数据的项目,并且执行从由左眼用图像数据和右眼用图像数据代表的左眼和右眼用图像的每个图像中检测对象图像部分的检测处理。可以安排成执行从左眼和右眼用图像中的任何一个图像中检测对象图像部分的检测处理。将由左眼用图像和右眼用图像构成的立体图像显示在监视显示单元80的显示屏幕上并且指定电子缩放区域。
当用户进行缩放操作(手动缩放操作)时(步骤140中的"是"),执行判断立体图像中是否存在对象图像的处理。如果立体图像中存在对象图像部分(步骤141中的"是"),则判断所检测到的对象图像部分是否在指定的电子缩放区域之内(步骤142)。
如果所检测到的对象图像部分处于指定的电子缩放区域之内(步骤142中的"是"),则检查判断显示区域中是否包含多个对象图像部分(步骤143)。
在存在多个对象图像部分的情况下(步骤143中的"是"),以按照类似于前面介绍的方式消除高优先级的对象图像部分的双眼视差的方式移动左眼和右眼用图像(步骤145)。在不存在多个对象图像部分的情况下(步骤142中的"否"),以消除所检测到的对象图像部分的双眼视差的方式移动左眼和右眼用图像(步骤146)。
在立体图像中不存在多个对象图像部分的情况下(步骤141中的"否"),或者在所检测到的对象图像部分不在指定的电子缩放区域内的情况下(步骤142中的"否"),如前面所提到的,在以消除处于立体图像中央部分或者处于电子缩放区域中央部分的图像的双眼视差的方式移动了左眼和右眼用图像之后,显示左眼和右眼用图像(步骤144)。
如果用户没有进行缩放操作(步骤140中的"否"),则跳过前面介绍的步骤141到146的处理。不进行改变双眼视差的处理。
图38到42图解说明另一种实施方式。在立体图像的印刷品中,消除了诸如前方重影图像这样的突兀的且在观看时引起眼睛紧张的部分。这使得提供用于供应具有很小的双眼视差并且不会造成用户眼睛疲劳的印刷品的系统成为可能。在这一实施方式中,如上所述,代表消除了双眼视差量的部分的数据和代表显示区域的数据被记录在存储卡80上。代表消除了双眼视差量的部分的数据和代表显示区域的数据可以与通过成像获得的左眼用图像和右眼用图像一起被记录在存储卡80上,或者可以安排成将其记录在已经记录了左眼和右眼用图像数据的存储卡80上。
图38是立体图像10的例子。图38与图23相对应,并且图38中与图23中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
参照图38,如果要以消除立体图像10中包含的第一个人物12的面部图像5的双眼视差的方式提供显示,则采用表示包围着面部图像5的矩形框15的左上角坐标(x1,y1)的数据和表示矩形框15的右下角坐标(x2,y2)的数据作为表示要消除双眼视差的部分的数据。
图39是立体图像10的例子。图39与图23相对应,并且图39中与图23中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
已经在立体图像10中检测到了第一个人物12的面部图像5和第二个人物14的面部图像6,并且确定矩形显示区域18,使其包含面部图像5。采用表示包围着面部图像5的显示区域18的左上角坐标(x3,y3)的数据和表示显示区域18右下角坐标(x4,y4)的数据作为表示该显示区域18的数据。
将这些数据项记录在存储卡80上(通过记录在存储卡80的头部区域中),作为表示将会消除双眼视差的部分的数据和表示显示区域的数据。
记录着代表将要从中消除双眼视差的部分的数据和代表显示区域的数据以及左眼和右眼用图像数据的存储卡80被送到照片冲洗店。通过读出代表要从中消除双眼视差的部分的数据,可以确定要从立体图像中消除双眼视差的这一图像部分。可以洗印出消除了这一图像部分的双眼视差的立体图像。此外,通过从存储卡80中读取代表显示区域的数据,可以确定立体图像中的显示区域。可以将显示区域内的图像洗印出来,作为单独的图像印刷品。
图42是立体图像10的例子。图42与图23相对应,并且图42中与图23中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
参照图40,如果要以消除了立体图像10中包含的第一个人物12的面部图像6的双眼视差的方式提供显示,则采用表示包围着面部图像6的矩形框16的左上角坐标(x5,y5)的数据和表示矩形框16的右下角坐标(x6,y6)的数据作为表示要消除双眼视差的部分的数据。
图41是立体图像10的例子。图41与图23相对应,并且图41中与图23中所示的项目相同的项目用相同的附图标记表示并且不必再加以介绍。
已经在立体图像10中检测到了第一个人物12的面部图像5和第二个人物14的面部图像6,并且确定矩形显示区域18,使其包含面部图像6。采用表示显示区域18的左上角坐标(x7,y7)的数据和表示显示区域18右下角坐标(x8,y8)的数据作为表示该显示区域18的数据。
以类似于前面介绍的方式,将这些数据项记录在存储卡80上,作为表示将会消除双眼视差的部分的数据和表示显示区域的数据。
以类似于前面介绍的方式,记录着代表将要从中消除双眼视差的部分的数据和代表显示区域的数据以及左眼和右眼用图像数据的存储卡80被送到照片冲洗店。通过读出代表要从中消除双眼视差的部分的数据,可以确定要从立体图像中消除双眼视差的这一图像部分。可以洗印出消除了这一图像部分的双眼视差的立体图像。此外,通过从存储卡80中读取代表显示区域的数据,可以确定立体图像中的显示区域。可以将显示区域内的图像洗印出来,作为单独的图像印刷品。
在前述实施方式中,从中消除双眼视差的部分和显示区域是以立体图像10中的坐标的形式取得的。不过,实际上,由于立体图像由左眼用图像和右眼用图像构成,因此要将左眼和右眼用图像每个图像中的代表消除双眼视差的部分的坐标和代表显示区域的坐标记录在存储卡80上。
图42是图解说明立体成像数码相机的电气构造的框图。图42中与图36中所示的部件相同的部件用相同的附图标记表示并且不必再加以介绍。
图42中所示的立体成像数码相机配备有洗印命令信息生成单元109。洗印命令信息生成单元109生成与立体图像的洗印有关的信息。要洗印的立体图像被显示在监视显示单元82上。除了指定在监视显示单元82上显示的立体图像(左眼用图像和右眼用图像)的数据(例如,帧编号数据)之外,还生成前面所提到的表示要消除双眼视差的图像部分的数据和代表显示区域的数据,作为洗印命令信息。所生成的洗印命令信息被记录在存储卡80上,并且按照这一洗印命令信息洗印立体图像。
Claims (10)
1.一种立体图像控制设备,包括:
第一对象图像部分检测装置,用于从构成立体图像的左眼用图像中和构成立体图像的右眼用图像中找出期望的对象图像部分;
视差移动装置,用于以消除在所述第一对象图像部分检测装置中找出的所述左眼用图像的对象图像部分和所述右眼用图像的对象图像部分之间的双眼视差的方式移动所述左眼用图像和所述右眼用图像;
显示区域确定装置,用于在由所述视差移动装置进行了移动的所述左眼用图像中和所述右眼用图像中确定包含由所述视差移动装置消除了双眼视差的对象图像部分的显示区域;和
显示控制装置,用于控制显示单元,使其放大和显示由所述视差移动装置进行了移动的所述左眼用图像中和所述右眼用图像中的由所述显示区域确定装置确定的显示区域内的图像。
2.按照权利要求1所述的立体图像控制设备,还包括:
第一判定装置,用于判断在所述左眼用图像中和所述右眼用图像中是否包含代表位于由所述第一对象图像部分检测装置检测到的对象图像部分所代表的对象前方的被摄体的前方被摄体图像;和
第二判定装置,用于响应于由所述第一判定装置做出的在所述左眼用图像中和在所述右眼用图像中包含前方被摄体图像的判定结果,判断所述左眼用图像中包含的前方被摄体图像与所述右眼用图像中包含的前方被摄体图像之间的双眼视差量是否超出容许范围;
其中所述显示区域确定装置按照由所述第二判定装置做出的双眼视差量超出容许范围的判定结果,确定所述显示区域。
3.按照权利要求2所述的立体图像控制设备,还包括:
大小判定装置,用于判断在所述左眼用图像和所述右眼用图像之中的一个图像中没有找出而在所述左眼用图像和所述右眼用图像之中的另一个图像中找出的对象图像部分的大小是否大于在所述第一对象图像部分检测装置中从所述左眼用图像和所述右眼用图像两个图像中都找出的对象图像部分的大小;和
第二对象图像部分检测装置,用于在所述大小判定装置已经判定从所述另一个图像中找到的对象图像部分的大小大于从所述左眼用图像和所述右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是左眼用图像的情况下,或者在所述大小判定装置已经判定从所述另一个图像中找到的对象图像部分的大小小于从所述左眼用图像和所述右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是所述右眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的右侧,找出没有从所述一个图像中找到的对象图像部分,并且在所述大小判定装置已经判定从所述另一个图像中找到的对象图像部分的大小大于从所述左眼用图像和所述右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是右眼用图像的情况下,或者在所述大小判定装置已经判定从所述另一个图像中找到的对象图像部分的大小小于从所述左眼用图像和所述右眼用图像两个图像中找到的对象图像部分的大小而且所述一个图像是所述左眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的左侧,找出没有从所述一个图像中找到的对象图像部分;
其中所述显示区域确定装置在由所述视差移动装置进行了移动的所述左眼用图像中和所述右眼用图像中,确定包含由所述视差移动装置消除了双眼视差的对象图像部分、在所述第一对象图像部分检测装置中从所述另一个图像中找到的对象图像部分和在所述第二对象图像部分检测装置中从所述一个图像中找到的对象图像部分的显示区域。
4.按照权利要求3所述的立体图像控制设备,还包括:
第三对象图像部分检测装置,用于在由所述第一对象图像部分检测装置中仅从所述左眼用图像和所述右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置前方而且所述一个图像是左眼用图像的情况下,或者在由所述第一对象图像部分检测装置中仅从所述左眼用图像和所述右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置后方而且所述一个图像是右眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的右侧,找出没有从所述一个图像中找到的对象图像部分,并且在由所述第一对象图像部分检测装置仅从所述左眼用图像和所述右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置前方而且所述一个图像是右眼用图像的情况下,或者在由所述第一对象图像部分检测装置仅从所述左眼用图像和所述右眼用图像中的所述另一个图像中找到的对象图像部分代表的对象的位置处于所述另一个图像的中央部分处的图像所对应的被摄体的位置后方而且所述一个图像是左眼用图像的情况下,从在所述另一个图像中找到的对象图像部分所对应的位置的左侧,找出没有从所述一个图像中找到的对象图像部分;
其中所述显示区域确定装置在由所述视差移动装置进行了移动的所述左眼用图像中和所述右眼用图像中,确定包含由所述视差移动装置消除了双眼视差的对象图像部分、在所述第一对象图像部分检测装置中从所述另一个图像中找到的对象图像部分和在所述第三对象图像部分检测装置中从所述一个图像中找到的对象图像部分的显示区域。
5.按照权利要求4所述的立体图像控制设备,还包括:
比较装置,用于响应于中央被摄体图像的存在,将所述中央被摄体图像的主要被摄体概率与由所述第一对象图像部分检测装置检测到的对象图像部分的主要被摄体概率进行比较,所述中央被摄体图像代表存在于由所述第一对象图像部分检测装置检测到的对象图像部分代表的对象的前方,并且该中央被摄体图像位于所述左眼用图像和所述右眼用图像中的每个图像的中央部分;
其中响应于由所述比较装置得出的所述中央图像的主要被摄体概率大于由所述第一对象图像部分检测装置检测到的对象图像部分的主要被摄体概率的判定结果,所述视差移动装置以消除所述左眼用图像的所述中央被摄体图像与所述右眼用图像的所述中央被摄体图像之间的双眼视差的方式移动所述左眼用图像和所述右眼用图像。
6.按照权利要求5所述的立体图像控制设备,还包括:记录控制装置,用于将代表所述左眼用图像的左眼用图像数据、代表所述右眼用图像的右眼用图像数据、代表由所述视差移动装置消除了双眼视差的部分的数据和代表由所述显示区域确定装置确定的显示区域的数据记录在便携式记录介质上。
7.按照权利要求6所述的立体图像控制设备,其中代表所述左眼用图像的左眼用图像数据和代表所述右眼用图像的右眼用图像数据已经被记录在便携式记录介质上;
所述设备还包括记录控制装置,用于将代表由所述视差移动装置消除了双眼视差的部分的数据和代表由所述显示区域确定装置确定的显示区域的数据记录在所述便携式记录介质上。
8.一种立体图像控制设备,包括:
立体图像生成装置,用于通过重叠左眼用图像和右眼用图像生成立体图像;
对象图像检测装置,用于从立体图像生成装置生成的立体图像中找出期望的对象图像部分;
电子缩放区域指定装置,用于在所述立体图像生成装置生成的立体图像中指定电子缩放区域;
判定装置,用于判断由所述对象图像检测装置检测到的对象图像是否包含在由所述电子缩放区域指定装置指定的电子缩放区域内;
视差移动装置,用于响应于由所述判定装置做出对象图像不包含在电子缩放区域内的判定结果,以消除所述立体图像或者所述电子缩放区域的中央部分的双眼视差的方式移动左眼用图像和右眼用图像,并且响应于由所述判定装置做出的对象图像包含在电子缩放区域内的判定结果,以消除由所述对象图像检测装置检测到的对象图像的双眼视差的方式移动左眼用图像和右眼用图像;和
显示控制装置,用于放大和显示所述电子缩放区域内的图像。
9.一种用于控制立体图像控制设备的操作的方法,包括:
对象图像部分检测装置从构成立体图像的左眼用图像中和构成立体图像的右眼用图像中找出期望的对象图像部分;
视差移动装置以消除在所述对象图像部分检测装置中找出的所述左眼用图像的对象图像部分和所述右眼用图像的对象图像部分之间的双眼视差的方式移动所述左眼用图像和所述右眼用图像;
显示区域确定装置在由所述视差移动装置进行了移动的所述左眼用图像中和所述右眼用图像中确定包含由所述视差移动装置消除了双眼视差的对象图像部分的显示区域;和
显示控制装置对显示单元进行控制,使其放大和显示由所述视差移动装置进行了移动的所述左眼用图像中和所述右眼用图像中的由所述显示区域确定装置确定的显示区域内的图像。
10.一种用于控制立体图像控制设备的操作的方法,包括:
立体图像生成装置通过重叠左眼用图像和右眼用图像生成立体图像;
对象图像检测装置从立体图像生成装置生成的立体图像中找出期望的对象图像部分;
电子缩放区域指定装置在所述立体图像生成装置生成的立体图像中指定电子缩放区域;
判定装置判断由所述对象图像检测装置检测到的对象图像是否包含在由所述电子缩放区域指定装置指定的电子缩放区域内;
视差移动装置响应于由所述判定装置做出对象图像不包含在电子缩放区域内的判定结果,以消除所述立体图像或者所述电子缩放区域的中央部分的双眼视差的方式移动左眼用图像和右眼用图像,并且响应于由所述判定装置做出的对象图像包含在电子缩放区域内的判定结果,以消除由所述对象图像检测装置检测到的对象图像的双眼视差的方式移动左眼用图像和右眼用图像;和
显示控制装置放大和显示所述电子缩放区域内的图像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-123669 | 2010-05-31 | ||
JP2010123669 | 2010-05-31 | ||
PCT/JP2011/060496 WO2011152167A1 (ja) | 2010-05-31 | 2011-04-22 | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103069818A CN103069818A (zh) | 2013-04-24 |
CN103069818B true CN103069818B (zh) | 2015-08-26 |
Family
ID=45066549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180027164.8A Expired - Fee Related CN103069818B (zh) | 2010-05-31 | 2011-04-22 | 立体图像控制设备以及控制其操作的方法和程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9357205B2 (zh) |
JP (1) | JP5425305B2 (zh) |
CN (1) | CN103069818B (zh) |
WO (1) | WO2011152167A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4787369B1 (ja) * | 2010-03-30 | 2011-10-05 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
JP5143262B1 (ja) * | 2011-08-30 | 2013-02-13 | 株式会社東芝 | 立体映像処理装置、立体映像処理方法 |
JP5281720B1 (ja) * | 2011-09-20 | 2013-09-04 | パナソニック株式会社 | 立体映像処理装置及び立体映像処理方法 |
JPWO2013128847A1 (ja) * | 2012-03-02 | 2015-07-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 視差量調整装置、3次元画像生成装置、および視差量調整方法 |
US9886636B2 (en) * | 2013-05-23 | 2018-02-06 | GM Global Technology Operations LLC | Enhanced top-down view generation in a front curb viewing system |
US10027883B1 (en) * | 2014-06-18 | 2018-07-17 | Amazon Technologies, Inc. | Primary user selection for head tracking |
US9729865B1 (en) | 2014-06-18 | 2017-08-08 | Amazon Technologies, Inc. | Object detection and tracking |
CN104581115B (zh) * | 2014-12-03 | 2018-05-15 | 深圳市魔眼科技有限公司 | 一种基于人脸识别的景深自适应的全息显示方法及其装置 |
JP2017192086A (ja) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 画像生成装置、画像観察装置、撮像装置および画像処理プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1087336A2 (en) * | 1999-09-22 | 2001-03-28 | Fuji Jukogyo Kabushiki Kaisha | Apparatus and method for stereoscopic image processing |
CN100496097C (zh) * | 2006-04-14 | 2009-06-03 | 富士胶片株式会社 | 图像显示控制装置及其控制方法和控制程序 |
CN101562754A (zh) * | 2009-05-19 | 2009-10-21 | 无锡景象数字技术有限公司 | 一种改善平面图像转3d图像视觉效果的方法 |
WO2009157707A2 (en) * | 2008-06-24 | 2009-12-30 | Samsung Electronics Co,. Ltd. | Image processing method and apparatus |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3653790B2 (ja) * | 1995-05-23 | 2005-06-02 | 松下電器産業株式会社 | 立体電子ズーム装置及び立体画質制御装置 |
US6762794B1 (en) * | 1997-12-03 | 2004-07-13 | Canon Kabushiki Kaisha | Image pick-up apparatus for stereoscope |
JP2001004370A (ja) | 1999-06-23 | 2001-01-12 | Fuji Photo Film Co Ltd | 視差画像撮像装置、視差画像処理装置、視差画像撮像方法、及び視差画像処理方法 |
JP2001148800A (ja) | 1999-11-18 | 2001-05-29 | Fuji Photo Film Co Ltd | デジタルカメラおよび画像処理方法 |
JP4225768B2 (ja) * | 2002-07-31 | 2009-02-18 | シャープ株式会社 | 立体画像データ処理装置および立体画像データ処理用プログラム |
US7660472B2 (en) * | 2004-02-10 | 2010-02-09 | Headplay (Barbados) Inc. | System and method for managing stereoscopic viewing |
US7512262B2 (en) * | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
JP5022630B2 (ja) | 2006-05-19 | 2012-09-12 | Hoya株式会社 | 電子内視鏡装置 |
JP2008022150A (ja) * | 2006-07-11 | 2008-01-31 | Fujifilm Corp | 撮像装置 |
WO2008038068A1 (en) * | 2006-09-25 | 2008-04-03 | Nokia Corporation | Supporting a 3d presentation |
FR2917845B1 (fr) * | 2007-06-19 | 2011-08-19 | Christophe Brossier | Procede de visualisation d'une sequence d'images produisant une sensation de relief |
KR100918480B1 (ko) * | 2007-09-03 | 2009-09-28 | 한국전자통신연구원 | 스테레오 비전 시스템 및 그 처리 방법 |
JP5243003B2 (ja) * | 2007-11-28 | 2013-07-24 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
JP4959535B2 (ja) * | 2007-12-13 | 2012-06-27 | 株式会社日立製作所 | 撮像装置 |
US20110080466A1 (en) * | 2009-10-07 | 2011-04-07 | Spatial View Inc. | Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images |
US20120242803A1 (en) * | 2010-01-13 | 2012-09-27 | Kenjiro Tsuda | Stereo image capturing device, stereo image capturing method, stereo image display device, and program |
-
2011
- 2011-04-22 JP JP2012518300A patent/JP5425305B2/ja not_active Expired - Fee Related
- 2011-04-22 CN CN201180027164.8A patent/CN103069818B/zh not_active Expired - Fee Related
- 2011-04-22 WO PCT/JP2011/060496 patent/WO2011152167A1/ja active Application Filing
-
2012
- 2012-11-29 US US13/689,040 patent/US9357205B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1087336A2 (en) * | 1999-09-22 | 2001-03-28 | Fuji Jukogyo Kabushiki Kaisha | Apparatus and method for stereoscopic image processing |
CN100496097C (zh) * | 2006-04-14 | 2009-06-03 | 富士胶片株式会社 | 图像显示控制装置及其控制方法和控制程序 |
WO2009157707A2 (en) * | 2008-06-24 | 2009-12-30 | Samsung Electronics Co,. Ltd. | Image processing method and apparatus |
CN101562754A (zh) * | 2009-05-19 | 2009-10-21 | 无锡景象数字技术有限公司 | 一种改善平面图像转3d图像视觉效果的方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5425305B2 (ja) | 2014-02-26 |
US20130083174A1 (en) | 2013-04-04 |
JPWO2011152167A1 (ja) | 2013-07-25 |
US9357205B2 (en) | 2016-05-31 |
WO2011152167A1 (ja) | 2011-12-08 |
CN103069818A (zh) | 2013-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103069818B (zh) | 立体图像控制设备以及控制其操作的方法和程序 | |
CN101959020B (zh) | 成像装置和成像方法 | |
CN102959969B (zh) | 单眼立体摄像装置 | |
JP4737573B2 (ja) | 3次元画像出力装置及び方法 | |
CN103733133B (zh) | 摄像装置及其控制方法 | |
JP4692849B2 (ja) | 立体画像記録装置および立体画像記録方法 | |
CN102972032A (zh) | 三维图像显示装置、三维图像显示方法、三维图像显示程序及记录介质 | |
CN102318331A (zh) | 立体图像拾取装置 | |
CN102918858A (zh) | 立体全景图像创建设备、立体全景图像创建方法和立体全景图像创建程序,立体全景图像再现设备、立体全景图像再现方法和立体全景图像再现程序,以及记录介质 | |
CN102135722B (zh) | 摄像机结构、摄像机系统和方法 | |
CN101866106A (zh) | 摄像装置 | |
CN104782110A (zh) | 图像处理装置、摄像装置、程序及图像处理方法 | |
CN102860017B (zh) | 立体摄像装置及其制造方法 | |
CN103649807A (zh) | 成像设备 | |
US8773506B2 (en) | Image output device, method and program | |
JP5550791B2 (ja) | 画像処理装置、撮像装置及び視差量調整方法 | |
CN102656892B (zh) | 立体图像显示控制设备及其操作控制方法 | |
CN101715144A (zh) | 图像生成装置及程序 | |
CN103339947A (zh) | 3d视频再现装置、3d视频再现程序及其记录介质、3d显示装置、3d成像装置和3d视频再现方法 | |
CN103339948B (zh) | 3d视频再现装置、3d成像装置和3d视频再现方法 | |
CN103329549B (zh) | 立体视频处理器、立体成像装置和立体视频处理方法 | |
US9177382B2 (en) | Image processing apparatus for forming synthetic image and image processing method for forming synthetic image | |
JP2017215851A (ja) | 画像処理装置および画像処理方法、造形システム | |
CN104041026A (zh) | 图像输出装置、方法以及程序及其记录介质 | |
JP2013175805A (ja) | 表示装置および撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150826 Termination date: 20180422 |
|
CF01 | Termination of patent right due to non-payment of annual fee |