CN102447780A - 移动终端及其控制方法 - Google Patents
移动终端及其控制方法 Download PDFInfo
- Publication number
- CN102447780A CN102447780A CN2011102725469A CN201110272546A CN102447780A CN 102447780 A CN102447780 A CN 102447780A CN 2011102725469 A CN2011102725469 A CN 2011102725469A CN 201110272546 A CN201110272546 A CN 201110272546A CN 102447780 A CN102447780 A CN 102447780A
- Authority
- CN
- China
- Prior art keywords
- rendering
- depth value
- controller
- eye image
- portable terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/002—Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephone Function (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本发明公开了一种移动终端及其控制方法,通过其,可以产生3D或立体图像以使得观看者从视觉疲劳中显著地复苏。本发明包括:第一相机和第二相机,其被配置来获得3D图像;显示单元,用于显示由第一和第二相机的至少一个拍摄的图像;以及,控制器,用于控制第一相机、第二相机、和显示单元,其中,所述控制器在由第一相机拍摄的右眼图像和由第二相机拍摄的左眼图像上设置多个分开部分,并且然后基于多个分开部分的每一个的深度值来产生3D图像。
Description
相关申请的交叉引用
本申请要求在2010年9月8日提交的韩国申请No.10-2010-0087980的较早的申请日和优先权的权益,通过引用,将其内容整体包含在此。
技术领域
本发明涉及移动终端,更具体地涉及移动终端及其控制方法。虽然本发明适合于大量应用,但是其特别适合于用于生成能显著地将观看者从视觉疲劳中复苏的3D或立体图像。
背景技术
通常,可以根据移动性的存在或不存在来将终端划分为移动终端和固定终端。并且,可以根据手提的可获得性而进一步将移动终端划分为手持终端和车载终端。
随着终端的功能趋向于多样化,终端被实现为多媒体播放器型,该多媒体播放器型配备了复合功能,该复合功能例如包括图像或视频拍摄、音乐或视频文件重放、游戏、和广播接收等。
为了支持和增加终端功能,可以考虑终端的结构部分和/或软件部分的改进。
近来,开发了能够拍摄3D(或立体)图像的便携相机。考虑到开发便携3D相机的当前趋势,移动终端将要配备3D拍摄相机和用于处理3D图像的处理器。
然而,因为由根据现有技术的3D图像拍摄相机和处理器产生的3D图像对于观看者或观众而言会引起视觉疲劳,所以对于产生3D图像以防止由于观看3D图像而引起的观众的疲劳的方法的需求正在上升。
发明内容
因此,本发明涉及一种移动终端及其控制方法,其基本上消除了由于现有技术的限制和缺点导致的一个或多个问题。
本发明的一个目的是提供一种移动终端及其控制方法,通过其,可以产生3D图像以防止由于观看3D图像而引起的观众疲劳。
本发明的另一个目的是提供一种移动终端及其控制方法,通过其,可以根据3D图像模式来产生具有最佳的3D效果的3D图像。
本发明的另一个目的是提供一种移动终端及其控制方法,通过其,便于3D图像拍摄者拍摄最佳的3D图像。
本发明的另外的优点、目的和特征将在随后的描述中部分地给出,并且其的部分对于查看了下面的内容的本领域内的普通技术人员而言变得显然,或者,其部分可以从本发明的实践来获悉。可以通过在所书的说明书及其权利要求以及附图中具体指出的结构来实现和获得本发明的目的和其他优点。
为了实现这些目的和其他优点,并且根据本发明的目的,如在此具体表达和宽泛描述地,根据本发明的一种移动终端包括:第一相机和第二相机,其被配置来拍摄3D图像;显示单元,其显示由所述第一和第二相机的至少一个拍摄的图像;以及,控制器,用于控制所述第一相机、所述第二相机和所述显示单元。而且,所述控制器在由所述第一相机拍摄的右眼图像和由所述第二相机拍摄的左眼图像上设置多个分开的部分,然后基于多个所述分开的部分的每一个的深度值来产生所述3D图像。
在本发明的另一个方面,一种用于控制移动终端的方法包括:图像拍摄步骤,其分别使用第一相机和第二相机来拍摄对象的右眼图像和左眼图像;分开部分设置步骤,其在所述图像拍摄步骤中获得的所述对象的左右眼图像的每一个上布置(或设置)多个分开部分;深度值确定步骤,其确定多个所述分开部分的每一个的深度值;以及,3D图像产生步骤,其基于在所述深度值确定步骤中确定的多个所述分开部分的每一个的所述深度值,来同步和处理3D图像,根据其可以消除观看者在观看的情况下的视觉疲劳。
因此,本发明提供了下面的效果和/或优点。
首先,本发明可以产生3D图像,以防止由于观看3D图像而导致的观众的疲劳。
其次,本发明可以根据3D图像模式来产生具有最佳的3D效果的3D图像。
第三,本发明便于3D图像拍摄者拍摄最佳的3D图像。
应当明白,本发明的上述一般描述和下面的详细描述是示例性的和解释性的,并且意欲提供所要求保护的本发明的进一步的解释。
附图说明
附图被包括来用于进一步理解本发明,并且被并入本申请和构成本申请的一部分,附图图示了本发明的实施例,并且与说明书一起用于解释本发明的原理。在附图中:
图1是根据本发明的实施例的移动终端的框图;
图2A是根据本发明的一个实施例的移动终端的前透视图;
图2B是根据本发明的一个实施例的移动终端的后透视图;
图3是根据本发明的图像拍摄处理的示意图;
图4A和图4B是根据每一个3D图像的会聚点在3D图像显示器中的3D效果的示意图;
图5是根据本发明的一个实施例的深度值确定步骤的示意图;
图6是根据本发明的一个实施例的深度值计算处理的示意图;
图7是根据本发明的一个实施例的分开部分设置步骤和深度值确定步骤的示意图;
图8是根据本发明的另一个实施例的分开部分设置步骤和深度值确定步骤的示意图;
图9A是根据本发明的在属于3D图像模式的风景模式中的预设深度值分布的示意图;
图9B是根据本发明的在属于3D图像模式的风景模式中的在存储器中存储的3D图像的示意图;
图9C是根据本发明的在显示单元上显示3D图像的情况下,在属于3D图像模式的风景模式中的3D图像的示意布局;
图10A是根据本发明的在属于3D图像模式的风景内聚焦对象模式中的预设深度值分布的示意图;
图10B是根据本发明的在属于3D图像模式的风景内聚焦对象模式中的在存储器中存储的3D图像的示意图;
图10C是根据本发明的在显示单元上显示3D图像的情况下,在属于3D图像模式的风景内聚焦对象模式中的3D图像的示意布局;
图11A是根据本发明的在属于3D图像模式的室内聚焦对象模式中的预设深度值分布的示意图;
图11B是根据本发明的在属于3D图像模式的室内聚焦对象模式中的在存储器中存储的3D图像的示意图;
图11C是根据本发明的在显示单元上显示3D图像的情况下,在属于3D图像模式的室内聚焦对象模式中的3D图像的示意布局;
图12A是根据本发明的在属于3D图像模式的特写模式中的预设深度值分布的示意图;
图12B是根据本发明的在属于3D图像模式的特写模式中在存储器中存储的3D图像的示意图;
图12C是根据本发明的在显示单元上显示3D图像的情况下,在属于3D图像模式的特写模式中的3D图像的示意布局;
图13A是根据本发明的在不匹配部分存在的情况下的移动终端的后视图;
图13B是在图13A中所示的移动终端中左右眼图像的分开部分的深度值分布的示意图;
图13C是在图13A中所示的移动终端的显示单元的示意图;
图14A是根据本发明的在不确定的分开部分存在的情况下的移动终端的后视图;
图14B是在图14A中所示的移动终端中3D图像的分开部分的深度值分布的示意图;
图14C是在图14A中所示的移动终端的显示单元的示意图;
图15是根据本发明的用于控制移动终端的方法的示意流程图;
图16是根据本发明的一个实施例的在用于控制移动终端的方法中的深度值确定步骤的示意流程图;
图17是根据本发明的第一另外实施例的在用于控制移动终端的方法中的深度值确定步骤的示意流程图;
图18是根据本发明的第二另外实施例的在用于控制移动终端的方法中的深度值确定步骤的示意流程图;以及
图19是根据本发明的在用于控制移动终端的方法中的3D图像产生步骤的示意流程图。
具体实施方式
在下面的详细描述中,参考附图,附图形成说明书的一部分,并且通过例示示出了本发明的特定实施例。本技术领域内的普通技术人员应当明白,可以使用其他实施例,并且在不偏离本发明的范围的情况下,可以进行结构、电气结构以及过程的改变。每当可能时,贯穿附图使用相同的附图标记来指示相同或类似的部分。
如在此使用地,后缀“模块”“单元”和“部分”仅用于元件以便便利公开。因此,未向后缀本身提供重要的含义或角色,并且可以明白,可以一起或可交换地使用“模块”“单元”和“部分”。
在本说明书中所述的移动终端可以包括下述部分之一:移动电话、智能电话、笔记本计算机(膝上型计算机)、数字广播终端、PDA(个人数字助理)、PMP(便携多媒体播放机)和导航系统等。并且,对于本领域内的技术人员显而易见的是,除了仅适用于移动终端的情况之外,根据在本说明书中公开的实施例的配置应当适用于固定或静态终端,诸如数字TV和台式计算机等。
图1是根据本发明的实施例的移动终端100的框图。
图1示出的是根据本发明的一个实施例的移动终端100包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、和电源单元190等。图1示出了具有各个部件的无线终端100,但是应当明白,不要求实现所有图示的部件。可以替代地实现更多或更少的部件。
在下面的描述中,依序说明上面的部件。
无线通信单元110通常包括一个或多个部件,该一个或多个部件允许在移动终端100与移动终端100所位于的无线通信系统或网络之间的无线通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114、和位置定位模块115等。
广播接收模块111经由广播信道来从外部广播管理服务器接收广播信号和/或广播关联信息。
广播信道可以包括卫星信道和陆地信道。
广播管理服务器一般表示产生和发射广播信号和/或广播关联信息的服务器,或被提供预先产生的广播信号和/或广播关联信息并且然后向终端发射所提供的信号或信息的服务器。
除了其他信号之外,广播信号可以被实现为TV广播信号、无线电广播信号和数据广播信号。根据需要,广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。
广播关联信息包括与广播信道、广播节目、广播服务提供商等相关联的信息。并且,可以经由移动通信网络来提供广播关联信息。在该情况下,移动通信模块112可以接收广播关联信息。
可以以各种形式来实现广播关联信息。例如,广播关联信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG)和手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以被构造来接收从各种类型的广播系统发射的广播信号。通过非限定性示例举例,这样的广播系统包括陆地数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、手持数字视频广播(DVB-H)、DVB-CBMS、OMA-BCAST、被称为仅媒体前向链路的数据广播系统、和陆地综合业务数字广播(ISDB-T)。可选地,广播接收模块111可以被构造来适合于其他广播系统以及上述的数字广播系统。
由广播接收模块111接收的广播信号和/或广播关联信息可以被存储在诸如存储器160的适当装置中。
移动通信模块112向/从一个或多个网络实体(例如,基站、外部终端、服务器等)发射/接收无线信号。除了别的形式之外,这样的无线信号可以根据文本/多媒体消息的收发来表示音频、视频、和数据。
无线因特网模块113支持移动终端100的因特网接入。该模块可以内部或外部地耦合到移动终端100。在该情况下,无线因特网技术可以包括WLAN(无线局域网)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等。
短距离通信模块114便于较短距离通信。用于实现这个模块的适当技术包括射频识别(RFID)、红外线数据协会(IrDA)、超宽带(UWB)以及被通称为蓝牙和ZigBee的联网技术,这里仅列出了几种。
位置定位模块115识别或获得移动终端100的位置,根据需要,可以使用全球定位系统(GPS)模块来实现这个模块。
同时,A/V(音频/视频)输入单元120被构造来输入音频信号或视频信号,并且可以包括相机模块121和麦克风122等。相机模块121处理在视频呼叫模式或拍摄模式中由图像传感器获得的静止或移动图像的图像帧。而且,可以在显示器151上显示所处理的图像帧。
由相机模块121处理的图像帧被存储在存储器160中,或可以经由无线通信单元110向外部发射。可以根据终端的配置类型来提供至少两个相机模块121。
而且,可以提供多个相机121。具体地说,用于拍摄3D图像3D的右眼图像R的第一相机121a和用于拍摄3D图像3D的左眼图像L的第二相机121b构成双镜相机。并且,第三相机121c是工作在视频呼叫模式或2D拍摄模式中的相机。优选的是,第一和第二相机121a和121b能够拍摄3D图像3D,并且也能够用作在视频呼叫模式或2D拍摄模式中。
在便携装置在诸如电话呼叫模式、记录模式和语音识别的特定模式中时,麦克风122接收外部音频信号。这个音频信号被处理和转换为电子音频数据。被处理的音频数据被转换为可在呼叫模式的情况下经由移动通信模块112发射到移动通信基站的格式。麦克风122通常包括各种噪声去除算法,用于去除在接收外部音频信号的过程中产生的噪声。
用户输入单元130响应于相关联的输入装置或者装置的用户操控而产生输入数据。这样的装置的示例包括小键盘、圆顶开关、诸如静压/电容的触摸板、转盘、轻摇开关等。具体示例是其中用户输入单元130与显示器合作地被配置为触摸板的示例,下面更详细地描述该示例。
感测单元140检测移动终端100的当前配置,诸如移动终端100的打开/闭合配置、移动终端100的定位、和用户接触的存在与不存在等,然后产生用于控制移动终端100的操作的感测信号。
例如,如果移动终端100是滑盖型,则感测单元140能够感测滑盖电话是否打开或关闭。并且,感测单元140负责感测与电源190提供的电力的存在与否,和接口单元170的外部装置安装等相关的功能。
同时,感测单元140可以包括接近传感器141。
输出单元150被配置来输出音频信号、视频信号、和/或警告信号。并且,输出单元150可以包括显示器151、音频输出模块152、警报输出模块153、和触觉模块154等。
显示器151通常被实现来可视地显示(输出)与移动终端100相关联的信息。例如,如果移动终端在电话呼叫模式中操作,则显示器通常提供用户界面(UI)或图形用户界面(GUI),用户界面(UI)或图形用户界面(GUI)包括与开始、进行和结束电话呼叫相关联的信息。
可以使用下述已知的显示技术来实现显示器151,所述显示技术例如包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管显示器(OLED)、软性显示器、和三维显示器。移动终端100也可以包括一个或多个这样的显示器。
可以以透明或透光配置实现所述显示器的一些,以从外部能够透视其中。并且,这样的显示器可以被称为透光显示器。TOLED(透明OLED)和AMOLED(有源矩阵OLED)等是透光显示器的代表性示例。并且,显示器的背面结构也可以具有透光配置。由于这种结构,用户能够通过由终端主体占用的区域看到位于终端主体后面的物体。
根据移动终端100的实现类型,可以在移动终端100中存在至少两个显示器151。例如,可以以彼此隔开或内置在一个主体中的方式来在移动终端100的一个表面上布置多个显示器。又如,可以分别在移动终端100的不同表面上布置多个显示器。
在显示器151与用于检测诸如用户的手指和钢笔等的指针的接触行为的传感器(以下称为“触摸传感器”)构成互层结构(以下称为“触摸屏”)的情况下,能够使用显示器151作为输入装置以及输出装置。在该情况下,例如,可以使用接触膜、接触片、或接触板等来构造触摸传感器。
触摸传感器可以被构造为将向显示器151的特定部分施加的压力或从显示器151的特定部分产生的电容的变化转换为电输入信号。而且,能够配置触摸传感器来检测接触压力,以及接触的位置或大小。
如果向触摸传感器进行了接触输入,则与接触对应的信号被传送到接触控制器。接触控制器处理所述信号,然后将所处理的信号传送到控制器180。因此,控制器180能够知道接触了显示器151的哪个部分。
可以向由触摸屏围绕或在触摸屏周围的移动终端100的内部区域提供接近传感器。接近传感器是下述传感器,该传感器在没有机械接触的情况下,使用电磁场强度或红外线来检测接近规定的检测表面的物体或位于接近传感器周围的物体的存在与否。因此,接近传感器具有比接触型传感器更长的持续时间,并且也可以具有比接触型传感器更宽的用途。
接近传感器可以包括透射光电传感器、直接反射光电传感器、镜反射光电传感器、射频振荡接近传感器、静电电容接近传感器、磁接近传感器、和红外线接近传感器等之一。在触摸屏包括静电电容接近传感器的情况下,该传感器被构造来使用根据指针的接近的电场变化来检测指针的接近。在该情况下,可以将触摸屏(触摸传感器)分类为接近传感器。
在下面的描述中,为了清楚,指针接近而不接触所述触摸屏从而被识别为位于触摸屏上的行为被称为“接近接触”。而且,指针实际上接触所述触摸屏的行为被称为“触摸接触”。由指针接近触摸的触摸屏上的位置的含义表示当指针执行接近触摸时垂直地对着触摸屏的指针的位置。
接近传感器检测接近接触和接近接触模式(例如,接近接触距离、接近接触持续时间、接近接触位置、接近接触移位状态等)。并且,可以向触摸屏输出与所检测的接近接触行为和所检测的接近接触模式对应的信息。
音频输出模块152以包括呼叫接收模式、呼叫进行模式、记录模式、语音识别模式、和广播接收模式等的各种模式来起作用,以输出从无线通信单元110接收或被存储在存储器160中的音频数据。在运行期间,音频输出模块152输出与特定功能(例如,接收到呼叫、接收到消息等)相关的音频。经常使用一个或多个扬声器、蜂鸣器、其他音频产生装置及其组合来实现音频输出模块152。
警报单元153输出用于声明与移动终端100相关联的特定事件的发生的信号。典型事件包括接收到呼叫事件、接收到消息事件、和接收到触摸输入事件。警报单元153能够输出用于通过振动以及视频信号或音频信号来声明事件发生的信号。也可以经由显示器151或音频输出模块152输出该视频或音频信号。因此,显示器151或音频输出模块152可以被看作为警报单元153的一部分。
触觉模块154产生可以被用户感觉到的各种触觉效果。振动是由触觉模块154产生的触觉效果的代表方式。由触觉模块154产生的振动的强度和模式是可控的。例如,可以以合成在一起的方式来输出或可以依序输出不同的振动。
触觉模块154能够产生各种触觉效果以及振动。例如,触觉模块154可以产生由顶着接触皮肤表面垂直地移动的引脚布置而产生的效果、经由喷射/吸入孔的空气的喷射/吸入力而产生的效果、由在皮肤表面上的掠过而产生的效果、由与电极的接触而产生的效果、由静电力而产生的效果、以及由使用吸热或发热装置产生的热/冷感觉而表示的效果等。
触觉模块154可以被实现为使得用户能够经由手指或手臂等的肌肉感觉来感觉触觉效果,并且通过直接接触来传送触觉效果。选用地,可以根据移动终端100的对应配置类型来向移动终端100提供至少两个触觉模块154。
存储器160可以存储用于控制器180的处理和控制的程序,并且也能够执行输入/输出的数据(例如,电话簿数据、消息数据、静止图像数据、移动图像数据等)的暂时存储的功能。而且,存储器160可以存储在向触摸屏输入的触摸的情况下输出的振动和声音的各种模式的数据。而且,存储器160能够存储各种控制变量。具体地说,存储器160能够将与在观看者和显示单元151之间的距离对应的阻挡层的挡光部分的长度和空间确定值存储为阻挡层的控制变量,并且也能够存储与通过观看者的双眼中心相对于显示单元151的垂直中轴的位置而形成的偏角对应的位移确定值。
存储器160可以包括诸如下述类型的至少一个存储介质:快闪存储器型、硬盘型、多媒体微型卡型、卡型存储器(例如,SD存储器、XD存储器等)、RAM、SRAM(静态随机存取存储器)、ROM、EEPROM(电可擦除只读存储器)、和PROM(可编程只读存储器)等。而且,移动终端100能够操作网络存储器,该网络存储器在因特网上执行存储器160的存储功能。
接口单元170扮演与连接到移动终端100的每个外部装置的接口的角色。例如,外部装置包括有线/无线头戴耳机、外部充电器、有线/无线数据端口、卡插槽(例如,存储卡插槽、SIM/UIM卡插槽等)、音频I/O(输入/输出)端、视频I/O(输入/输出)端、耳机等。接口单元170从外部装置接收数据或被提供电力,接口单元170然后将所接收的数据或所提供的电力传送到在移动终端100内的对应的部件,或向对应的外部装置发射在便携终端100内的数据。
识别模块是用于存储用于鉴权移动终端100的使用授权的各种信息的芯片,并且可以包括用户识别模块(UIM)、订户识别模块(SIM)、和/或通用订户识别模块(USIM)等。可以将具有识别模块的装置(以下称为“识别装置”)制造为智能卡。因此,识别装置可以经由对应的端口连接到移动终端100。
当无线通信单元110连接到外部托架时,接口单元170变为从托架向移动终端100供电的通道,或用于向移动终端100提供由用户从托架输入的各种命令信号的通道。从托架输入的各种命令信号的每一个或者电力可以作为用于使得移动终端100能够识别其被正确地安装在托架中的信号。
控制器180通常控制移动终端100的全部操作。例如,控制器180执行与语音呼叫、数据通信、和视频呼叫等相关联的控制和处理。并且,控制器180也可以被提供有用于多媒体重放的多媒体播放模块181。多媒体播放模块181可以被构造为在控制器180内的硬件或与控制器180分离的软件。
控制器180能够执行模式识别处理,用于将在触摸屏上执行的手写输入或绘制输入分别识别为字符或图像。
而且,在使用第一相机121a和第二相机121b构成的双镜相机拍摄3D图像3D的情况下,控制器180合成和处理3D图像3D,以产生使得观看者从视觉疲劳中复苏的3D图像。在下面的说明中将描述这一点。
电源单元190接收外部和/或内部电源,然后在控制器180的控制下提供相应部件的运行所需的电力。
可以使用例如计算机软件、硬件、或其某种组合来在计算机可读介质中实现在此所述的各个实施例。
对于硬件实施方式,可以在专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计来执行在此所述的功能的其他电子单元或其选择性组合中的一个或多个内实现在此所述的实施例。这样的实施例也可以被控制器180实现。
对于软件实施方式,可以使用独立的软件模块来实现在此所述的实施例,所述独立的软件模块例如是过程和功能,其中每一个执行在此所述的功能和操作的一个或多个。软件代码可以使用以任何适当的编程语言编写的软件应用程序来实现,并且可以被存储在存储器160中并被控制器180执行。
图2A是根据本发明的一个实施例的移动终端的前透视图。
在附图中所示的移动终端100具有直板型终端主体,但是,可以以多种不同的配置来实现移动终端100。这样的配置的示例包括折叠型、滑盖型、旋转型、旋盖型及其组合。为了清楚,进一步的公开将主要涉及直板型移动终端100。然而,这样的教导同样地适用于其他类型的移动终端。
参见图2A,移动终端100的主体包括构成其外型的壳体(例如,外壳、外罩、外盖等)。根据本实施例,所述壳体可以被划分为前壳体101和后壳体102。可以在前后壳体101和102之间提供的空间中安装各种电子/电气部分。选用地,可以另外在前后壳体101和102之间进一步提供至少一个中间壳体。
可以通过合成树脂的注射模塑来形成壳体101和102,或可以由诸如不锈钢(STS)或钛(Ti)等的金属物质形成壳体101和102。
可以向终端主体,并且主要向前壳体101设置显示器151、音频输出单元152、相机121、用户输入单元130(131/132)、麦克风122和接口170等。具体地说,相机121包括第三相机121c,并且其优选地是在视频呼叫模式或2D拍摄模式中运行的相机。
显示器151占用前壳体101的主表面的大部分。音频输出单元152和相机121被设置到与显示器151的两个端部之一相邻的区域,而第一用户输入单元131和麦克风122被设置到与显示器151的另一端部相邻的另一个区域。第二用户输入单元132和接口170等可以被设置在前和后壳体101和102的侧面。
用户输入单元130被操控来接收用于控制终端100的操作的命令的输入。并且,输入单元130能够包括多个操控单元131和132。操控单元131和132可以被总体上称为操控部分,并且可以采用触觉方式的任何机制,所述触觉方式的任何机制使得用户能够通过体验触觉感觉来执行操控行为。可以不同地设置经由操控单元131或132输入的内容或材料。例如,可以向第一操控单元131输入诸如开始、结束、和滚动等的命令。而且,可以向第二操控单元132输入用于从音频输出模块152输出的声音的音量调整的命令,或用于转换显示器151的触摸识别模式的命令等。
图2B是在图2A中示出的移动终端的背面的透视图。
参见图2B,包括第一相机121a和第二相机121b的双镜相机可以另外被加载在终端主体的背侧上,更具体地,被安装在后壳体102上。第一和第二相机121a和121b的每一个具有基本上与在图2A所示的第三相机121c的拍摄方向相反的拍摄方向。第一和第二相机121a和121b能够拍摄3D图像和2D图像。第一和第二相机121a和121b的每一个可以具有与第三相机121c的像素不同的像素。
优选的是,例如,第三相机121c具有较少像素,所述像素足以拍摄并且传输用户的面部的图像来用于视频呼叫。优选的是,因为第一和第二相机121a和121b拍摄一般对象的3D或2D图像,并且所拍摄的图像通常不瞬时被传输,所以第一和第二相机121a和121b的每一个具有较大数量的像素。并且,第一至第三相机121a至121c的每一个可以被安装在终端主体处,以能够旋转和/或弹出。
闪光灯123和镜124另外被设置为在第一相机121a附近。闪光灯123在使用第一相机121a拍摄对象的情况下向对象投射光。在用户试图使用第一相机121a来拍摄他本身的图像(自拍)的情况下,镜124使得用户能够通过镜124的反射而观看到他的面部。
可以向终端主体的背面设置另外的音频输出单元152’。该另外的音频输出单元152’能够与在图2A中所示的先前的音频输出单元152一起实现立体声功能,并且可以用于在通过终端进行谈话时实现喇叭扬声器模式。
广播信号接收天线124可以另外被设置到终端主体的侧面,以及用于通信的天线等。构成在图1中所示的广播接收模块111的一部分的天线124可以被可伸缩地设置到终端主体。
向终端主体设置用于向移动终端100供电的电源单元190。并且,电源单元190可以被构造来内置在终端主体内。替代地,电源单元190可以被构造来可卸下地连接到终端主体。
用于检测触摸的触摸板135被另外设置到后壳体102。可以以像显示器151那样的透光型来构造触摸板135。在该情况下,如果显示器151被构造来从其两面输出可视信息,则也能够经由触摸板135来识别可视信息。从两面输出的信息可以被触摸板135整体控制。替代地,可以向触摸板135进一步提供另一个显示器,以便也可以向后壳体102提供触摸屏。
通过与前壳体101的显示器151互连来激活触摸板135。也可以平行地在显示器151的前或后设置触摸板135。触摸板135可以具有等于或小于显示器151的大小的大小。
在下面的描述中,描述了根据本发明的一个实施例的移动终端。为了下面根据本发明的一个实施例的移动终端的说明的清楚,假定在下面的说明中涉及的移动终端包括在图1中所示的前述部件的至少一个。具体地说,本发明所适用的移动终端包括:拍摄3D图像所需的第一和第二相机121a和121b;显示单元151,其被配置来输出图像;以及,控制器180,其被配置来控制第一相机121a、第二相机121b和显示单元151。
第一相机121a是用于拍摄对象的右眼图像R的右眼相机。第二相机121b是用于拍摄对象的左眼图像L的左眼相机。当用户使用一双眼(即,两眼)观看对象时,用户识别由于归因于在两眼之间的距离的双眼差异而导致的3D效果。为了形成引起对象的3D效果的双眼差异,以通过在其间留下预定的空间而使得彼此隔开的方式来布置第一和第二相机121a和121b。优选的是,在第一和第二相机121a和121b之间的空间被设置为6cm~7cm,其类似于在人眼之间的距离。
图3是根据本发明的图像拍摄处理的示意图。具体地说,图3示出根据本发明的由移动终端的第一相机121a拍摄的右眼图像R、由移动终端的第二相机121b拍摄的左眼图像L、以及由第一和第二相机121a和121b两者拍摄的3D图像。
参见图3,第一相机121a(即,右眼相机)能够拍摄对象的右眼图像R(例如,在图3中的风景)。并且,第二相机121b(即,左眼相机)能够拍摄对象的左眼图像L。其后,右眼图像R和左眼图像L被传输到控制器180,然后通过处理和合成被产生为3D图像。所产生的3D图像被存储在存储器中,或可以被显示在显示单元151上。
在产生3D图像的情况下,由第一相机121a拍摄的右眼图像R和由第二相机121b拍摄的左眼图像L的每一个包括被合成为3D图像的FOV(视场)和被去除的FON(非视场)。
在下面的说明中,对引起正在观看对应的图像的观看者的视觉疲劳的3D图像和不引起观看者的视觉疲劳的3D图像进行说明。随后,描述根据本发明的,控制器180用于产生向观看者提供最佳的3D效果的3D图像的处理。通常,诸如深度的术语用于指示在产生或生成3D图像中的3D效果或透视效果。但是,为了下面的说明的清楚,应当一致地使用深度值(d)。
图4A和图4B是根据每一个3D图像的会聚点的,在3D图像显示器中的3D效果的示意图。具体地说,图4A是根据在3D图像上设置的会聚点而引起观看者的视觉疲劳的3D图像的示意图。并且,图4B是根据在3D图像上设置的会聚点而不引起观看者的视觉疲劳的3D图像的示意图。
在该情况下,会聚点指示特定点,在该特定点,两个相机的视差信息由于在第一和第二相机121a和121b之间的会聚而变为零。在该情况下,会聚表示在其中第一和第二相机121a和121b通过以与下述相似的方式向彼此移动从而被聚焦在对象上的现象:即,使与正在观看特定对象的人的双眼通过向彼此移动而聚焦在对象上的现象类似的方式。当观看3D图像时,被指定(或设置)为会聚点的点/区域变为位于在显示单元151的表面或屏幕上的点/区域。具体地说,观看者将被指定为会聚点的区域识别为象2D图像那样位于显示单元151的表面上。并且,被指定为会聚点的区域一般被称为立体窗口。具体地说,当观看3D图像时,观看者将在3D图像拍摄的情况下位于比在被指定为会聚点的区域中的另一个单元对象更远的单位对象识别为位于显示单元151(即,显示单元151的表面)之后。相反,当观看3D图像时,观看者将在3D图像拍摄的情况下位于比在被指定为会聚点的区域中的另一个单元对象更近的单位对象识别为位于显示单元151(即,显示单元151的表面)之前。
参见图4A,通过双眼相机来拍摄3D图像。在其会聚点被控制器180(即,自动地)或拍摄者(即,手动地)指定为最远距离(超远距离)的单元对象的3D图像的情况下,当观看者经由显示单元151来观看3D图像时,观看者将3D图像的大部分识别为从显示单元151的表面(即,立体窗口)突出。在该情况下,观看者体验到视觉疲劳。当观看者长时间观看3D图像时,视觉疲劳可能对于观看者引起红眼、头晕、呕吐和恶心等。
参见图4B,通过双眼相机来拍摄3D图像。在其会聚点被控制器180(即,自动地)或拍摄者(即,手动地)指定为最近距离的单元对象的3D图像的情况下,当观看者经由显示单元151来观看3D图像时,观看者将3D图像的大部分识别为从显示单元151的表面(即,立体窗口)后撤。在该情况下,因为观看者很少体验到视觉疲劳,所以不对于观看者引起任何由于视觉疲劳而导致的痛苦。但是,因为观看者感觉到对象位于远处,3D图像的逼真度会或多或少地降低。
如在上面的说明中所述,为了防止观看者的视觉疲劳并且增强3D图像的逼真度,会聚点被最佳地指定为3D图像的区域。在下面的描述中,详细描述根据本发明的产生具有最佳地指定的会聚点的移动终端及其控制方法。
图5是根据本发明的一个实施例的深度值确定步骤的示意图。具体地说,因为需要确定在所产生的3D图像中包含的单元对象的深度值,以指定在3D图像中的最佳会聚点,所以图5示意地示出了深度值确定步骤的子步骤。
参见图5,控制器180能够将参考部分(以下缩写为RS)设置为在左右眼图像L和R之一中的特定部分。在图5中,控制器180将参考部分RS设置为例如左眼图像L的特定部分。控制器180提取参考部分RS,然后能够对于右眼图像R搜索匹配部分(以下缩写为MS),该匹配部分MS包括与在参考部分RS中包括的FOV(视场)(或单元对象和单元对象的一部分之一)对应(或几乎匹配)的FOV(或单元对象和单元对象的一部分之一)。
随后,控制器180将在右眼图像R的匹配部分MS中包括的FOV在右眼图像R内向右移位规定的位移ΔX以使得左眼图像L的参考部分RS的位置能够匹配右眼图像R的匹配部分MS的位置,并且然后能够计算该规定的位移ΔX。
图6是根据本发明的一个实施例的深度值计算处理的示意图。具体地说,图6示意地示出了深度值计算处理,其用于基于在图5中所示的前一个处理中计算的规定的位移ΔX来计算参考部分RS的深度值d。
参见图6,控制器180使用在位移和深度值之间的比例关系,基于第一位移值ΔX1来计算作为单元对象的深度值的第一深度值d1,其中,第一位移值ΔX1的数量等于位于近距离的单元对象(例如,在图6中的树)的位移(displacement)。并且,控制器180能够基于第二位移值ΔX2来计算作为单元对象的深度值的第二深度值d2,其中,第二位移值ΔX2的数量等于位于远距离的单元对象(例如,在图6中的山)的位移。
深度值计算处理或位移计算处理是示例性的,本发明不限于此。并且,用于计算在3D图像中的对象的深度值的任何技术都适用于本发明。
图7是根据本发明的一个实施例的分开部分设置步骤和深度值确定步骤的示意图。
首先,图5和图6示出用于以将单个部分设置为参考部分RS和/或匹配部分MS的方式来确定深度值的处理。但是,参见图7,本发明的控制器180在左右眼图像L和R上设置或布置多个分开部分(以下缩写为DS),并且然后能够确定多个分开部分DS的每一个的深度值。
具体地说,控制器180能够以下述方式来确定多个分开部分DS的每一个的深度值d:即,将在图5和图6中所示的深度值确定步骤重复与在左右眼图像L和R上设置的多个分开部分DS的数量一样的次数。在下面的描述中,为了清楚,当拍摄3D图像时,位于较近距离的单元对象或单元对象的一部分应当被指示为较小数,而位于较远距离的单元对象或单元对象的一部分应当被指示为较大数。
根据本发明的一个实施例,控制器180能够以多个分开部分DS彼此在大小上相等的方式,来设置左右眼图像L和R的分开部分DS。
因此,当控制器180确定在左右眼图像L和R上设置的多个分开部分DS的每一个的深度值时,可以在3D图像中精确地指定会聚点,该会聚点提供最佳的3D效果,而不给观看3D图像的观看者带来视觉疲劳。因此,可以向观看者提供最佳的3D图像。
图8是根据本发明的另一个实施例的分开部分设置步骤和深度值确定步骤的示意图。
首先,图5和图6示出用于以下述方式来设置深度值的处理:即,将单个部分设置为参考部分RS和/或匹配部分MS。但是,参见图8,本发明的控制器180在左右眼图像L和R上设置或布置多个分开部分(以下缩写为DS),并且然后能够确定多个分开部分DS的每一个的深度值。
具体地说,控制器180能够以下述方式来确定多个分开部分DS的每一个的深度值d:即,将在图5和图6中所示的深度值确定步骤重复与在左右眼图像L和R上设置的多个分开部分DS的数量一样的次数。
根据本发明的另一个实施例,控制器180能够以下述方式来设置左右眼图像L和R的分开部分DS:即,多个分开部分DS的一些彼此在大小上不同。在该情况下,优选的是,控制器180能够参考在左右眼图像L和R中包括的单元对象,以下述方式来控制多个分开部分DS的设置:即,多个分开部分DS彼此在大小上不同。
因此,当控制器180确定在左右眼图像L和R上设置的多个分开部分DS的每一个的深度值时,可以在3D图像中精确地指定会聚点,该会聚点提供最佳的3D效果,而不给观看3D图像的观看者带来视觉疲劳。因此,可以向观看者提供对于每一个单位对象而言不同的3D效果,由此提供具有更逼真的3D效果的3D图像。
在指定在3D图像中的会聚点之前,如在上面的说明中所述,本发明的控制器180能够以下述方式来指定适合于某种对象的会聚点:即,确定在包括左眼图像L和右眼图像R的3D图像中拍摄的对象是否是简单的风景,确定是否在风景中存在要变为聚焦目标的物体,确定是否在房间中存在要变为聚焦目标的物体,以及确定是否物体是特写拍摄物体。具体地说,控制器180参考预设的3D图像模式来分类由第一和第二相机121a和121b拍摄的对象的类型,并且然后能够将会聚点指定为对于3D图像模式而言最佳的区域(即,在左右眼图像L和R上设置的多个分开部分DS)。
在移动终端的存储器中预设的3D图像模式包括风景模式、在风景内的聚焦物体模式、室内聚焦物体模式、和特写拍摄模式。并且,风景模式、在风景内的聚焦物体模式、室内聚焦物体模式、和特写拍摄模式中的每一个具有预设深度值的独特分布。
在下面的描述中,参考图9至12来描述根据每一个3D图像模式的预设深度值分布、通过指定适合于每一个3D图像模式的会聚点而在存储器中存储的3D图像、以及在显示单元151上显示的3D图像的示意布局。
图9A是根据本发明的在属于3D图像模式的风景模式中的预设深度值分布的示意图。图9B是根据本发明的在属于3D图像模式的风景模式中,在存储器中存储的3D图像的示意图。并且,图9C是根据本发明的在显示单元上显示3D图像的情况下,在属于3D图像模式的风景模式中的3D图像的示意布局。这些附图仅示出示例性深度值分布,以清楚地描述本发明,但是本发明不限于此。
参见图9A,以下面的方式来配置属于在存储器中预设的3D图像模式的风景模式的预设深度值分布。首先,在3D图像帧的顶侧上布置用于指示远距离的多个深度值(例如,在图9中被表示为“6”)。其次,在3D图像帧的底侧上布置用于指示中等距离的多个深度值(例如,在图9中表示为“4”)。
控制器180将在左右眼图像L和R上设置的多个分开部分DS的深度值分布与在图9A中所示的风景模式中的3D图像帧的预设深度值分布作比较。如果多个分开部分DS的深度值分布匹配(或几乎匹配)风景模式的预设深度值分布,则控制器180能够将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为风景模式。
参见图9B,如果控制器180将在左右眼图像L和R的每一个中所拍摄的对象的3D图像模式确定为风景模式,则控制器180将在左右眼图像L和R上设置的多个分开部分DS中的、具有用于指示最近距离的深度值的分开部分DS指定为会聚点,并且然后能够通过彼此重叠被指定为会聚点的左右眼图像L和R的分开部分DS而产生3D图像。
例如,参见图9B,如果在左右眼图像L和R中的所拍摄对象是风景的情况下,则控制器180将在最接近左右眼相机(即,具有最小的深度值)的“道路的入口部分”上设置的分开部分DS指定为会聚点,并且然后能够通过以下述方式彼此叠加整个左眼图像L和整个右眼图像R来产生3D图像:即,在“道路的入口部分”上设置的分开部分DS彼此重叠。
如果在左右眼图像L和R中的具有用于指示远距离和中等距离的深度值的分开部分DS被指定为会聚点的情况下,则观看者在观看3D图像的情况下识别在对象内的几乎全部单元对象从显示单元151的表面(即,立体窗口)突出。因此,减少了3D图像的3D逼真度。而且,观看者识别为过度突出的单元对象可能看起来摇摆,从而导致观看者的视觉疲劳。因此,在风景模式的情况下,在位于最近距离的单元对象上设置的分开部分DS被指定为会聚点。
参见图9C,当在图9B中所示的风景模式中产生的3D图像被显示在显示单元151上时,在显示单元151的表面(即,立体窗口)上显示被设置为3D图像的会聚点的“道路的入口部分”,而以下述方式来显示在3D图像中拍摄的其余单元对象:即,观看者识别所有其余的单元对象从显示单元151的表面的后面后撤。
因此,在对象是风景的情况下,则控制器180如在上面的说明中所述地设置会聚点。因此,增强了3D图像的逼真3D效果,并且也防止3D图像导致观看者的视觉疲劳。
图10A是根据本发明的在属于3D图像模式的风景内聚焦物体模式中的预设深度值分布的示意图。图10B是根据本发明的在属于3D图像模式的风景内聚焦物体模式中,在存储器中存储的3D图像的示意图。并且,图10C是根据本发明的在显示单元上显示3D图像的情况下,在属于3D图像模式的风景内聚焦物体模式中的3D图像的示意布局。
参见图10A,以下面的方式来配置属于在存储器中预设的3D图像模式的风景内聚焦物体模式的预设深度值分布。首先,在3D图像帧的顶侧上布置用于指示远距离的多个深度值(例如,在图10A中被表示为“6”的深度值)。其次,在3D图像帧的中间和底侧的至少一个上布置用于指示近距离的多个深度值(例如,在图10A中被表示为“2”的深度值)。第三,在3D图像帧的底侧的至少一部分上布置用于指示中等距离的多个深度值(例如,在图10A中被表示为“4”的深度值)。
控制器180将在左右眼图像L和R上设置的多个分开部分DS的深度值分布与在图10A中所示的风景内聚焦物体模式中的3D图像帧的预设深度值分布作比较。如果多个分开部分DS的深度值分布匹配(或几乎匹配)风景内聚焦物体模式的预设深度值分布,则控制器180能够将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为风景内聚焦物体模式。
参见图10B,如果控制器180将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为风景内聚焦物体模式,则控制器180将与在左右眼图像L和R上设置的多个分开部分DS中的、具有用于指示最近距离的深度值的分开部分DS和具有聚焦物体的深度值的分开部分DS的平均深度值对应的分开部分DS确定为会聚点,并且然后能够通过彼此重叠被指定为会聚点的左右眼图像L和R的分开部分DS来产生3D图像。
例如,参见图10B,如果在左右眼图像L和R中的所拍摄的对象是在风景中的人(即,聚焦物体)的情况下,则控制器180将具有在最接近左右眼相机(即,具有最小深度值)的“道路的入口部分”上设置的分开部分DS和对应于人的分开部分DS的深度值的平均深度值的,与“左树的前部分”对应的分开部分DS指定为会聚点,并且然后能够通过以下述方式彼此重叠整个左眼图像L和整个右眼图像R来产生3D图像:即,彼此重叠在“树的前部分”上设置的分开部分DS。
如果与人(即,聚焦物体)对应的分开部分DS被指定为会聚点的情况下,则降低了3D图像的远处空间的感觉。而且,因为观看者在观看3D图像的情况下,识别到位于人附近的单元物体从显示单元151的表面(即,立体窗口)突出,所以3D图像的3D逼真度降低。因此,在风景内聚焦物体模式的情况下,具有聚焦物体的深度值和用于指示最近距离的深度值的平均深度值的分开部分DS被指定为会聚点。
参见图10C,当在图10B中所示的风景模式中产生的3D图像被显示在显示单元151上时,在显示单元151的表面(即,立体窗口)上显示被设置为3D图像的会聚点的“左树的前部分”,以从显示单元151的表面(即,立体窗口)突出的方式来显示聚焦物体的人,以观看者识别到其余单元对象在显示单元151的表面(即,立体窗口)后部后撤的方式来显示在3D图像中拍摄的其余单元对象。
因此,在对象在风景内聚焦物体模式中的情况下,控制器180如在上面的说明中所述地设置会聚点。因此,增强3D图像的逼真3D效果,并且,也防止3D图像引起观看者的视觉疲劳。
图11A是根据本发明的、在属于3D图像模式的室内聚焦物体模式中的预设深度值分布的示意图。图11B是根据本发明的在属于3D图像模式的室内聚焦物体模式中,在存储器中存储的3D图像的示意图。图11C是根据本发明的、在显示单元上显示3D图像的情况下,在属于3D图像模式的室内聚焦物体模式中的3D图像的示意布局。
参见图11A,以下面的方式来配置属于在存储器中预设的3D图像模式的室内聚焦物体模式的预设深度值分布。首先,在3D图像帧的顶侧上布置用于指示中等距离的多个深度值(例如,在图11A中被表示为“4”的深度值)。其次,在3D图像帧的中间和底侧的至少一个上布置用于指示近距离的多个深度值(例如,在图11A中被表示为“2”的深度值)。第三,在3D图像帧的底侧的至少一部分上布置用于指示中等距离的多个深度值(例如,在图11A中被表示为“4”的深度值)。
控制器180将在左右眼图像L和R上设置的多个分开部分DS的深度值分布与在图11A中所示的室内聚焦物体模式中的3D图像帧的预设深度值分布作比较。如果多个分开部分DS的深度值分布匹配(或几乎匹配)室内聚焦物体模式的预设深度值分布,则控制器180能够将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为室内聚焦物体模式。
参见图11B,如果控制器180将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为室内聚焦物体模式,则控制器180将与在左右眼图像L和R上设置的多个分开部分DS中的具有聚焦物体的深度值的分开部分DS确定为会聚点,并且然后能够通过彼此重叠被指定为会聚点的左右眼图像L和R的分开部分DS来产生3D图像。
例如,参见图11B,如果在左右眼图像L和R中的所拍摄的对象是在室内空间(或房间)中的人的情况下,则控制器180将对应于“人”的分开部分DS指定为会聚点,并且然后能够通过以下述方式彼此重叠整个左眼图像L和整个右眼图像R来产生3D图像:即,彼此重叠在“人”上设置的分开部分DS。
因为在室内空间的情况下深度值受限于预定值,所以优选的是,在逼真的3D效果和防止视觉疲劳产生的方面,与聚焦物体对应的分开部分DS被指定为会聚点。
参见图11C,当在图11B中所示的室内聚焦物体模式中产生的3D图像被显示在显示单元151上时,在显示单元151的表面(即,立体窗口)上显示被设置为3D图像的会聚点的“人”,观看者识别到通过在显示单元151的表面(即,立体窗口)之前突出来显示在3D图像3D中拍摄的其余单元对象中比“人”更接近的单元对象,并且,观看者识别到通过在显示单元151的表面(即,立体窗口)之后后撤来显示在3D图像3D中拍摄的其余单元对象中的比“人”更远的单元对象。
因此,在对象是位于室内空间中的聚焦物体的情况下,控制器180如在上面的说明中所述地设置会聚点。因此,增强了3D图像的逼真的3D效果,并且,也防止3D图像引起观看者的视觉疲劳。
图12A是根据本发明的在属于3D图像模式的特写模式中的预设深度值分布的示意图,图12B是根据本发明的在属于3D图像模式的特写模式中,在存储器中存储的3D图像的示意图,并且图12C是根据本发明的,在显示单元上显示3D图像的情况下,在属于3D图像模式的特别模式中的3D图像的示意布局。
参见图12A,以下面的方式来配置属于在存储器中预设的3D图像模式的特写拍摄模式的预设深度值分布。首先,在3D图像帧的顶侧上布置用于指示中等距离的多个深度值(例如,在图12A中被表示为“4”的深度值)。其次,在3D图像帧的中间和底侧的至少一个上布置用于指示特写拍摄距离的多个深度值(例如,在图12A中被表示为“1”的深度值)。第三,在3D图像帧的底侧的至少一部分上布置用于指示中等距离的多个深度值(例如,在图12A中被表示为“4”的深度值)。
控制器180将在左右眼图像L和R上设置的多个分开部分DS的深度值分布与在图12A中所示的特写拍摄模式中的3D图像帧的预设深度值分布作比较。如果多个分开部分DS的深度值分布匹配(或几乎匹配)特写拍摄模式的预设深度值分布,则控制器180能够将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为特写拍摄模式。
参见图12B,如果控制器180将在左右眼图像L和R的每一个中拍摄的对象的3D图像模式确定为特写拍摄模式,则控制器180将具有在左右眼图像L和R上设置的多个分开部分DS中的、具有用于指示中等距离的深度值的分开部分DS和具有特写物体的深度值的分开部分DS的平均深度值的分开部分DS指定为会聚点,并且然后能够通过彼此重叠被指定为会聚点的左右眼图像L和R的分开部分DS来产生3D图像。
例如,参见图12B,如果在左右眼图像L和R中的所拍摄的对象是人的情况下,控制器180将具有在最接近左右眼相机的“人”(即,特写物体)上设置的分开部分DS的深度值和在构成室内空间或背景的物体上设置的分开部分DS的深度值的平均深度值的分开部分DS指定为会聚点,并且然后能够通过以下述方式彼此重叠整个左眼图像L和整个右眼图像R来产生3D图像:即,彼此重叠被指定为会聚点的左右眼图像L和R的分开部分DS。
在特写拍摄模式的情况下,因为拍摄者通常意欲通过强调特写物体来表示3D效果,所以位于比特写物体更远的单元对象的分开部分DS优选地被指定为会聚点。
参见图12C,当在图12B中所示的特写拍摄模式中产生的3D图像被显示在显示单元151上时,在显示单元151的表面(即,立体窗口)上显示被设置为3D图像的会聚点的分开部分DS,并且,观看者识别到通过在显示单元151的表面之前突出来显示在3D图像3D中拍摄的特写物体。
因此,在对象是特写物体的情况下,控制器180如在上面的说明中所述地设置会聚点。因此,增强了3D图像的逼真的3D效果,并且,也防止3D图像引起观看者的视觉疲劳。
如在上面的说明中所述地,控制器180在左右眼图像L和R上建立多个分开部分DS,并且确定多个分开部分DS的每一个的深度值。随后,控制器180基于多个分开部分DS的深度值的分布来自动地指定适合于3D图像模式的最佳会聚点。因此,拍摄者能够拍摄最佳的3D图像,而不会引起观看者的视觉疲劳。
图13A是根据本发明的、在存在非匹配部分(NMS)的情况下的移动终端的后视图。图13B是在图13A中所示的移动终端中的左右眼图像的分开部分的深度值分布的示意图。并且,图13C是在图13A中所示的移动终端的显示单元的示意图。
参见图13A,当拍摄者使用移动终端的第一和第二相机121a和121b来拍摄3D图像时,拍摄者可能无意地使用手阻挡第一和第二相机121a和121b的至少一个。在该情况下,如果拍摄者进一步继续,则可以产生具有降低的逼真3D效果的3D图像。而且,因为控制器180不能指定精确的会聚点,则会产生引起视觉疲劳的3D图像。
为了校正拍摄者的拍摄姿势的上述错误,本发明的控制器180能够控制显示单元151来向拍摄者提供用于校正拍摄者的拍摄姿势的信息。
参见图13B,如果障碍物(例如,拍摄者的手)位于第一和第二相机121a和121b之一之前,则控制器180确定在左右眼图像L和R上设置的多个分开部分DS的每一个的深度值,并且然后能够确定障碍物在第一相机121a或第二相机121b之前。具体地说,控制器180优先地确定在左右眼图像L和R上设置的多个分开部分DS的每一个的深度值,并且然后能够确定是否超过预设比率地在其他图像中存在不匹配部分(NMS),其中,所述不匹配部分不对应于在左右眼图像L和R之一的FOV(视场)上设置的多个分开部分DS上设置的至少一个参考部分(RS)。
在该情况下,不匹配部分(NMS)的预设比率是在多个分开部分DS的总的大小上的不匹配部分(NMS)的大小的比率。优选的是,该预设比率的范围是20%至30%。
如果控制器180确定超过预设比率地在其他图像中存在不匹配部分(NMS),则控制器180能够控制显示单元151来向拍摄者提供关于不匹配部分(NMS)的信息,或用于去除不匹配部分(NMS)的信息。
参见图13C,向显示单元151提供的关于不匹配部分(NMS)的信息I1是用于指示在第一相机121a或第二相机121b之前存在障碍物的信息。例如,关于不匹配部分(NMS)的信息I1是关于内容“右相机被阻挡”或类似的内容的信息。向显示单元151提供的用于去除不匹配部分(NMS)的信息I1是关于用于引导用户从在左右眼图像L和R上设置的多个分开部分DS去除不匹配部分(NMS)的内容的信息。例如,用于去除不匹配部分(NMS)的信息I1是关于“去除在右相机之前的障碍物(例如,手指等)”的内容或类似的内容的信息。
因此,本发明提供了用于校正拍摄者的拍摄姿势的信息,由此防止由于拍摄者作出的错误而产生3D效果降低的3D图像,或引起视觉疲劳的3D图像。
图14A是根据本发明的在不确定的分开部分存在的情况下,移动终端的后视图。图14B是在图14A中所示的移动终端中3D图像的分开部分的深度值分布的示意图。并且,图14C是在图14A中所示的移动终端的显示单元的示意图。
参见图14,如在上面的说明中所述,用于拍摄3D图像的双眼相机(即,第一和第二相机121a和121b)能够通过分别拍摄左眼图像L和右眼图像R来再现对象的3D效果。但是,如果对象在仅用于第一相机121a(即,右眼相机)的视角内,在仅用于第二相机121b(即,左眼相机)的视角内,或者处于由于在第一和第二相机121a和121b之间的相隔距离而导致形成的盲点内,则存在其深度值不能被控制器180确定的分开部分(以下称为不确定的分开部分:IDS)。
例如,如果对象位于第一和第二相机121a和121b的盲点内[图14A],则控制器180能够使用用于检测在盲点内的对象的不确定分开部分(IDS)检测装置来确定其深度值不能够确定的不可能部分存在[图14B]。优选的是,对象检测装置是在考虑到第一相机121a的视角和第二相机121b的视角的情况下,基于用于预设盲点的距离或范围来检测在盲点内的对象的装置。并且,对象检测装置包括诸如红外线传感器、接近传感器、和距离传感器等的装置。
如果控制器180确定不确定的分开部分IDS存在,则控制器180能够控制显示单元151来显示关于不确定的分开部分IDS的信息,或用于去除不确定的分开部分IDS的校正信息。
例如,参见图14C,向显示单元151提供的关于不确定的分开部分IDS的信息I2指示内容“对象太近”或类似的内容。并且,用于去除不确定的分开部分IDS的信息I2是用于引导用户以使其位于在第一和第二相机121a和121b之间的重叠视角(参见图6)内的信息,并且包括关于内容“离开对象”或“躲开对象”或类似的内容的信息。
根据本发明的移动终端提供了用于校正拍摄者的拍摄姿势以拍摄最佳的3D图像的信息,由此在降低视觉疲劳的同时增强拍摄者的3D效果。并且,根据本发明的移动终端便于拍摄者拍摄3D图像。
在下面的描述中,参考附图来描述根据本发明的用于控制移动终端的方法。
图15是根据本发明的用于控制移动终端的方法的示意流程图。
参见图15,根据本发明的用于控制移动终端的方法S200包括:图像拍摄步骤S210,其分别使用第一相机121a和第二相机121b来拍摄对象的右眼图像R和左眼图像L;分开部分设置步骤S220,其用于在图像拍摄步骤S210中获得的对象的左右眼图像L和R的每一个上布置(或设置)多个分开部分DS;深度值确定步骤S230,其用于确定多个分开部分DS的每一个的深度值;以及,3D图像产生步骤S240,其用于基于在深度值确定步骤S230中确定的多个分开部分DS的每一个的深度值来合成和处理3D图像,根据所述3D图像可以在观看的情况下消除观看者的视觉疲劳。
具体地说,拍摄者使用第一相机121a和第二相机121b来拍摄右眼图像R和左眼图像L[S210]。
随后,控制器180在分别由第一和第二相机121a和121b拍摄的左右眼图像L和R的每一个上设置多个分开部分DS[S220]。在该情况下,多个分开部分DS可以在大小上彼此相等,或可以在大小上彼此不同。如果多个分开部分DS在大小上彼此不同,则优选的是,以构成单个对象的每多个单元对象确定大小。
控制器180确定在左右眼图像L和R的每一个上设置的多个分开部分DS的深度值[S230]。将在下面的说明中详细描述深度值确定步骤S230。
其后,控制器180以基于多个分开部分DS的每一个的深度值来处理和合成左右眼图像L和R的方式,从而产生最佳的3D图像,通过防止视觉疲劳来增强了最佳3D图像的逼真3D效果[S240]。将在下面的说明中详细描述3D图像产生步骤S240。
图16是根据本发明的一个实施例的在用于控制移动终端的方法S200中的深度值确定步骤S230的示意流程图。
参见图16,控制器180执行深度值确定步骤S230,其用于计算在分开部分设置步骤S220中设置的多个分开部分DS的深度值。具体地说,深度值确定步骤S230包括参考部分设置子步骤S231、匹配部分搜索子步骤S232、匹配部分(MS)移位子步骤S233、位移计算子步骤S234、和深度值计算子步骤S236。在下面的描述中,详细描述深度值确定步骤S230的子步骤。
首先,为了确定深度值,控制器180将在左右眼图像L和R之一的FOV(视场)上设置的多个分开部分DS设置为至少一个参考部分RS[S231]。
控制器180对于在左右眼图像L和R的另一个的FOV(视场)中设置的多个分开部分DS搜索与在参考部分确定步骤S231中确定的至少一个参考部分RS对应的至少一个匹配部分MS[S232]。具体地说,参考下述部分来执行匹配部分搜索子步骤S232:即,参考部分RS的形状是否等于匹配部分MS的形状,参考部分RS的色度是否等于匹配部分MS的色度,或参考部分RS的亮度是否等于匹配部分MS的亮度。
随后,控制器180参考其上设置了参考部分RS的一个图像来移位在另一个图像内的至少一个匹配部分MS的每一个中包括的FOV(视场),以使得至少一个参考部分RS的每一个的位置能够匹配至少一个匹配部分MS的每一个的位置[S233]。
其后,控制器180计算在匹配部分移位步骤S233中在另一个图像中的至少一个匹配部分MS的每一个的位移[S234]。具体地说,位移计算方法可以参见参考图5的前面的描述。
在如此进行中,控制器180通过下述方式来计算多个分开部分DS的每一个的位移:即,将匹配部分移位子步骤S233和位移计算子步骤S234重复与多个分开部分DS的数量一样多的次数[S235]。
其后,控制器180基于在位移计算子步骤S234中计算的多个位移来计算分开部分DS的每一个的深度值。具体地说,用于基于在位移计算子步骤S234中计算的多个位移来计算分开部分DS的每一个的深度值的方法可以参见参考图6的前述描述。
图17是根据本发明的第一另外实施例的在用于控制移动终端的方法中的深度值确定步骤S230’的示意流程图。
参见图17,如根据一个实施例的之前的深度值确定步骤S230那样,根据第一另外实施例的深度值确定步骤S230’包括参考部分设置子步骤S231’、匹配部分搜索子步骤S232’、匹配部分(MS)移位子步骤S233’、位移计算子步骤S234’、和深度值计算子步骤S236’。并且,根据第一另外实施例的深度值确定步骤S230’进一步包括信息提供子步骤S238’,其用于校正拍摄者的拍摄姿势。
具体地说,在深度值计算子步骤S236’的完成后,控制器180确定是否超过预设比率地在另一个图像中存在不匹配部分(NMS),其中,所述不匹配部分(NMS)不对应于在左右眼图像L和R之一的FOV(视场)上设置的多个分开部分DS上设置的至少一个参考部分(RS)[S237’]。
如果控制器180确定超过预设比率地在另一个图像中存在不匹配部分(NMS),则控制器180经由显示单元151向拍摄者提供关于不匹配部分(NMS)的信息或用于去除不匹配部分(NMS)的信息[S238’]。
在该情况下,不匹配部分(NMS)的预设比率是在多个分开部分DS的总的大小上的不匹配部分(NMS)的大小的比率。优选的是,该预设比率的范围是20%至30%。
图18是根据本发明的第二另外实施例的在用于控制移动终端的方法中的深度值确定步骤的示意流程图。
参见图18,如根据一个实施例的前述深度值确定步骤S230那样,根据第二另外实施例的深度值确定步骤S230”包括参考部分设置子步骤S231”、匹配部分搜索子步骤S232”、匹配部分(MS)移位子步骤S233”、位移计算子步骤S234”、和深度值计算子步骤S236”。并且,根据第二另外实施例的深度值确定步骤S230”进一步包括引导信息提供子步骤S237”,其用于引导拍摄者容易地拍摄3D图像。
具体地说,在深度值计算子步骤S235”的完成后,控制器180确定是否在多个分开部分DS中存在不确定的分开部分IDS,其中,不确定的分开部分IDS的深度值不能被确定[S236”]。
如果控制器180确定在多个分开部分DS中存在其深度值不能不期确定的不确定的分开部分IDS,则控制器经由显示单元来向拍摄者提供关于不确定的分开部分的信息,或用于去除不确定的分开部分IDS的信息[S237”]。
图19是根据本发明的在用于控制移动终端的方法中的3D图像产生步骤S240的示意流程图。
参见图19,根据本发明的3D图像产生步骤S240包括3D图像模式确定在步骤S241、提供关于3D图像模式的信息的子步骤S242、会聚点指定子步骤S243、FOV(视场)移位子步骤S244、和FON(非视场)去除子步骤S245。
具体地说,为了产生3D图像,控制器180基于在深度值确定步骤S230、S230’和S230”之一中确定的多个分开部分DS的深度值来优先地确定适合于对象的3D图像的3D图像模式[S241]。
在该情况下,在3D图像模式确定子步骤S241中确定的3D图像模式包括下述模式之一:风景模式,其具有独特的预设深度值分布;风景内聚焦物体模式,其具有独特的预设深度值分布;室内聚焦物体模式,其具有独特的预设深度值分布;以及,特写拍摄模式,其具有独特的预设深度值分布。但是,所确定的3D图像模式是示例性3D图像模式,其以便于拍摄者指定会聚点的方式来便于拍摄者拍摄高质量的3D图像,但是本发明不限于此。
在下面的描述中,描述3D图像模式的预设深度值分布。
首先,风景模式具有预设深度值分布[参考图9]。具体地说,在3D图像帧的顶侧上布置了用于指示远距离的多个深度值,而在3D图像帧的底侧上布置了用于指示中等距离的多个深度值。
其次,风景内聚焦物体模式具有预设深度值分布[参考图10]。具体地说,在3D图像帧的顶侧上布置了用于指示远距离的多个深度值,在3D图像帧的中间侧和底侧的至少一个上布置了用于指示近距离的多个深度值,并且,在3D图像帧的底侧的至少一部分上布置了用于指示中等距离的多个深度值。
第三,室内聚焦物体模式具有预设的深度值分布[参考图11]。具体地说,在3D图像帧的顶侧上布置了用于指示中等距离的多个深度值,在3D图像帧的中间侧和底侧的至少一个上布置了用于指示近距离的多个深度值,并且,在3D图像帧的底侧的至少一部分上布置了用于指示中等距离的多个深度值。
第四,特写拍摄模式具有预设的深度值分布[参考图12]。具体地说,在3D图像帧的顶侧上布置了用于指示中等距离的多个深度值,在3D图像帧的中间侧和底侧的至少一个上布置了用于指示特写距离的多个深度值,并且,在3D图像帧的底侧的至少一部分上布置了用于指示中等距离的多个深度值。
优选的是,如果控制器180确定在多个分开部分DS的深度值分布和3D图像模式的上述预设深度值之间的匹配率等于或大于预设同步率,则控制器180将对象的3D图像的模式确定为与深度值分布的同步率对应的3D图像模式。在该情况下,预设同步率优选地被设置为70%~80%。
因此,控制器180确定在多个分开部分DS的深度值分布和3D图像模式的上述预设深度值之间的匹配率是否等于或大于预设同步率。虽然在多个分开部分DS的深度值分布之间的匹配率不匹配3D图像模式的预设深度值,但是控制器180能够通过校正在深度值分布之间的不匹配来产生3D图像,该3D图像的逼真3D效果被增强,并且防止了该3D图像的视觉疲劳。
优选的是,如果控制器180确定在多个分开部分DS的深度值分布和3D图像模式的预设深度值之间的匹配率小于预设同步率,则控制器180将对象的3D图像的模式确定为风景模式。当观看在风景模式中产生的3D图像时,观看者识别到几乎全部对象在显示单元151的表面之后后撤,由此不对于观看者引起视觉疲劳。因此,如果控制器180不能确定对象的3D图像模式,则控制器180确定将3D图像模式确定为风景模式,其将不引起视觉疲劳。
优选的是,在控制器180已经确定3D图像模式后,控制器180经由显示单元向拍摄者提供关于在3D图像模式确定子步骤中确定的3D图像模式的信息[S242]。具体地说,控制器向用户通知所确定的3D图像模式的类型,以使得用户能够确定所确定的3D图像模式是否是由拍摄者期望的3D图像模式。在该情况下,移动终端可以进一步包括休息或刷新按钮,用于在如果拍摄者确定由控制器180确定的3D图像模式不适当时,重新设置3D图像模式。如果选择了休息或刷新按钮,则控制器180将除了所确定的3D图像模式之外的其余3D图像模式中的最适合的一个确定为3D图像的模式。
在3D图像模式确定子步骤S241的完成后,控制器180基于在3D图像模式确定子步骤S241中确定的3D图像模式来将多个分开部分DS的至少一个指定为会聚点[S243]。
具体地说,如果在3D图像模式确定步骤S241中确定的3D图像模式是风景模式,则控制器180将在左眼图像L和右眼图像R上设置的多个分开部分DS中的、具有用于指示最近距离的深度值的分开部分DS指定为会聚点[参考图9]。具体地说,如果在3D图像模式确定步骤S241中确定的3D图像模式是风景内聚焦物体模式,则控制器180将在左眼图像L和右眼图像R上设置的多个分开部分DS中的、与具有用于指示最近距离的深度值的分开部分DS和具有聚焦物体的深度值的分开部分DS的平均深度值的对应的分开部分DS指定为会聚点[参考图10]。具体地说,如果在3D图像模式确定步骤S241中确定的3D图像模式是室内聚焦物体模式,则控制器180将在左眼图像L和右眼图像R上的设置的多个分开部分DS中的、具有聚焦物体的深度值的分开部分DS指定为会聚点[参考图11]。具体地说,如果在3D图像模式确定步骤S241中确定的3D图像模式是特写拍摄模式,则控制器180将具有在左眼图像L和右眼图像R上设置的多个分开部分DS中的、具有用于指示中间距离的深度值的分开部分DS和具有特写物体的深度值的分开部分DS的平均深度值的分开部分DS指定为会聚点[参考图12]。
优选的是,如果单元对象位于在3D图像帧的边缘上设置的分开部分DS处,则控制器180将在多个分开部分DS中的、在3D图像帧的边缘上设置的分开部分DS指定为会聚点,或将具有用于指示比在3D图像帧的边缘上设置的分开部分DS的深度值远的距离的深度值的分开部分DS指定为会聚点。当观看3D图像时,如果对象更接近显示单元151的边缘,则观看者难以获得大的视差。因此,不容易提供3D效果。虽然有能够提供3D效果的范围,但是如果观看者识别到对象以从显示单元151的边缘突出的方式定位,则这会导致观看者的不逼真的3D效果和视觉疲劳。因此,如在上面的说明中所述,如果在3D图像帧的边缘上存在单元对象,则能够以控制器180将会聚点校正到3D图像帧部分内的方式来解决上述问题。
在会聚点指定子步骤S243的完成后,控制器180以下述方式来移位在左眼图像L和右眼图像R内的左眼图像L和右眼图像R的至少一个的FOV(视场):即,在会聚点指定子步骤S243中被指定为会聚点的至少一个分开部分DS中包括的左眼图像L和右眼图像R的FOV彼此重叠[S244]。
随后,控制器180以在由FOV移位子步骤S244移位的位置处将左眼图像L和右眼图像R重叠在一起的方式来合成3D图像。
其后,控制器180从在3D图像合成步骤中合成的3D图像去除除了预设3D图像帧或FON(非视场)之外的区域[S245]。选用地,可以在FOV移位子步骤S244之前执行区域去除子步骤S245。
根据本发明的一个实施例,可以在程序记录介质中将上述方法实现为计算机可读代码。计算机可读介质包括其中存储了由计算机系统可读的数据的所有种类的记录装置。计算机可读介质例如包括ROM、RAM、CD-ROM、磁带、软盘、和光学数据存储装置等,并且也包括载波型实现方式(例如,经由因特网的传输)。
通过预定类型的本发明的结构元件和特征的组合来实现上述实施例。除非独立地指定,应当选择性地考虑结构元件或特征的每一个。可以执行结构元件或特征的每一个,而不与其他结构元件或特征组合。而且,一些结构元件和/或特征可以彼此组合以构成本发明的实施例。
本领域的技术人员应该明白,可以在不脱离本发明的精神和范围的情况下,对本发明进行各种的修改和变化。因此,本发明旨在使得本发明涵盖只要在所附权利要求和其等价物的范围内的该发明的变化和修改。
Claims (20)
1.一种移动终端,包括:
第一相机和第二相机,其被配置来分别获得场景的右眼图像和左眼图像;
显示器,其被配置来显示三维(3D)图像;以及
控制器,用于控制所述第一相机、所述第二相机和所述显示器,
其中,所述控制器被配置来
设置所述左眼图像和所述右眼图像的每一个的多个分开部分;
基于所述左眼图像和所述右眼图像的每一个的所述多个分开部分的每一个的深度值来产生所述3D图像;以及
使得所述显示器显示所述产生的3D图像。
2.根据权利要求1所述的移动终端,其中:
用于所述左眼图像和所述右眼图像的每一个的所述多个分开部分的每一个具有相同的大小;或
所述多个分开部分的至少一个具有不同的大小。
3.根据权利要求2所述的移动终端,其中,所述控制器进一步被配置来当所述多个分开部分的所述至少一个具有所述不同的大小时,参考在所述左眼图像和所述右眼图像中包括的单元对象设置用于所述左眼图像和所述右眼图像的每一个的所述多个分开部分。
4.根据权利要求1所述的移动终端,其中,所述控制器被进一步配置来:
将在所述左眼图像和所述右眼图像的一个图像的视场上的所述多个分开部分设置为至少一个参考部分;以及
搜索与在所述左眼图像和所述右眼图像的另一个图像的视场上设置的所述多个分开部分中的所述至少一个参考部分对应的至少一个匹配部分。
5.根据权利要求4所述的移动终端,其中,所述控制器被进一步配置来:
移位在所述另一个图像内的所述至少一个匹配部分的每一个中包括的视场,使得参考所述一个图像,所述至少一个参考部分的每一个的位置与所述至少一个匹配部分的每一个的位置匹配;
计算在所述另一个图像内移位的所述至少一个匹配部分的每一个的位移;以及
基于所述计算的位移来确定所述多个分开部分的每一个的深度值。
6.根据权利要求1所述的移动终端,其中:
所述控制器被进一步配置来基于所述左眼图像和所述右眼图像的每一个的所述多个分开部分的每一个的所述深度值来确定所述3D图像的3D图像模式,并且
所述3D图像模式包括选自由下述部分构成的组的一个:
风景模式,其具有独特的预设深度值分布;
风景内聚焦物体模式,其具有独特的预设深度值分布;
室内聚焦物体模式,其具有独特的预设深度值分布;或者,
特写拍摄模式,其具有独特的预设深度值分布。
7.根据权利要求6所述的移动终端,其中,所述风景模式具有以下述方式配置的所述预设深度值分布:在3D图像帧的顶部上布置用于指示远距离的多个深度值,并且在所述3D图像帧的底部上布置用于指示中等距离的多个深度值。
8.根据权利要求6所述的移动终端,其中,所述风景内聚焦物体模式具有以下述方式配置的所述预设深度值分布:在3D图像帧的顶部上布置用于指示远距离的多个深度值,在所述3D图像帧的至少中间部分或底部部分上布置用于指示近距离的多个深度值,并且在所述3D图像帧的至少所述底部部分上布置用于指示中等距离的多个深度值。
9.根据权利要求6所述的移动终端,其中,所述室内聚焦模式具有以下述方式配置的所述预设深度值分布:在3D图像帧的顶部上布置用于指示中等距离的多个深度值的一些,在所述3D图像帧的至少中间部分或底部部分上布置用于指示近距离的多个深度值,以及在所述3D图像帧的至少所述底部部分上布置用于指示所述中等距离的其余所述多个深度值。
10.根据权利要求6所述的移动终端,其中,所述特写拍摄模式具有以下述方式配置的所述预设深度值分布:在3D图像帧的至少顶部或底部上布置用于指示中等距离的多个深度值,以及在所述3D图像帧的至少中间部分上布置用于指示特写距离的多个深度值。
11.根据权利要求6所述的移动终端,其中:
如果在所述多个分开部分的深度值分布和所述3D图像模式的预设深度值分布之间的匹配率等于或大于预定同步率,则所述控制器被进一步配置来将所述3D图像的模式确定为与所述深度值分布的所述预设同步率对应的所述3D图像模式,并且
如果在所述多个分开部分的所述深度值分布和所述3D图像模式的所述预设深度值分布之间的所述匹配率小于所述预设同步率,则所述控制器被进一步配置来将所述3D图像的所述模式确定为所述风景模式。
12.根据权利要求11所述的移动终端,其中,所述预设同步率包括70%~80%。
13.根据权利要求6所述的移动终端,其中,所述控制器被进一步配置来基于由所述控制器确定的所述3D图像模式来将所述多个分开部分的至少一个指定为会聚点。
14.根据权利要求13所述的移动终端,其中,如果由所述控制器确定的所述3D图像模式是所述风景模式,则所述控制器被进一步配置来将在所述左眼图像和所述右眼图像上设置的所述多个分开部分中的、具有用于指示最近距离的深度值的分开部分指定为所述会聚点。
15.根据权利要求13所述的移动终端,其中,如果由所述控制器确定的所述3D图像模式是风景内聚焦物体模式,则所述控制器被进一步配置来将在所述左眼图像和所述右眼图像上设置的所述多个分开部分中的、与具有用于指示最近距离的深度值的分开部分和具有聚焦物体的深度值的分开部分之间的平均值深度值对应的分开部分指定为所述会聚点。
16.根据权利要求13所述的移动终端,其中,如果由所述控制器确定的所述3D图像模式是所述室内聚焦物体模式,则所述控制器被进一步配置来将在所述左眼图像和所述右眼图像上设置的所述多个分开部分中的、具有聚焦物体的深度值的分开部分指定为所述会聚点。
17.根据权利要求13所述的移动终端,其中,如果由所述控制器确定的所述3D图像模式是所述特写拍摄模式,则所述控制器被进一步配置来将具有在所述左眼图像和所述右眼图像上设置的所述多个分开部分中的、具有用于指示中等距离的深度值的分开部分和具有特写物体的深度值的分开部分之间的平均值深度值的分开部分指定为所述会聚点。
18.根据权利要求13所述的移动终端,其中,如果单元对象位于在3D图像帧的边缘部分上设置的分开部分处,则所述控制器被进一步配置来:
将在所述3D图像帧的所述边缘部分上设置的所述分开部分指定为所述会聚点;或者
将具有用于指示比在所述3D图像帧的所述边缘部分上设置的所述分开部分的深度值更远的距离的深度值的分开部分指定为所述会聚点。
19.根据权利要求13所述的移动终端,其中,所述控制器被进一步配置来在所述左和右图像内的至少一个图像的视场移位,使得在被指定为所述会聚点的所述多个分开部分的至少一个中包括的所述左和右眼图的视场彼此重叠。
20.根据权利要求19所述的移动终端,其中,所述控制器被进一步配置来通过将所述左眼图像和所述右眼图像彼此重叠来产生所述3D图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100087980A KR101638919B1 (ko) | 2010-09-08 | 2010-09-08 | 이동 단말기 및 이동 단말기의 제어방법 |
KR10-2010-0087980 | 2010-09-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102447780A true CN102447780A (zh) | 2012-05-09 |
CN102447780B CN102447780B (zh) | 2014-11-05 |
Family
ID=44677341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110272546.9A Expired - Fee Related CN102447780B (zh) | 2010-09-08 | 2011-09-08 | 移动终端及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8842167B2 (zh) |
EP (1) | EP2429198B1 (zh) |
KR (1) | KR101638919B1 (zh) |
CN (1) | CN102447780B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108933850A (zh) * | 2017-05-24 | 2018-12-04 | Lg电子株式会社 | 移动终端 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9349183B1 (en) * | 2006-12-28 | 2016-05-24 | David Byron Douglas | Method and apparatus for three dimensional viewing of images |
US11275242B1 (en) | 2006-12-28 | 2022-03-15 | Tipping Point Medical Images, Llc | Method and apparatus for performing stereoscopic rotation of a volume on a head display unit |
US11228753B1 (en) | 2006-12-28 | 2022-01-18 | Robert Edwin Douglas | Method and apparatus for performing stereoscopic zooming on a head display unit |
US11315307B1 (en) | 2006-12-28 | 2022-04-26 | Tipping Point Medical Images, Llc | Method and apparatus for performing rotating viewpoints using a head display unit |
US10795457B2 (en) | 2006-12-28 | 2020-10-06 | D3D Technologies, Inc. | Interactive 3D cursor |
US9237330B2 (en) * | 2012-02-21 | 2016-01-12 | Intellectual Ventures Fund 83 Llc | Forming a stereoscopic video |
TWI446089B (zh) * | 2012-04-24 | 2014-07-21 | Wistron Corp | 鏡頭擴充座 |
US9148651B2 (en) * | 2012-10-05 | 2015-09-29 | Blackberry Limited | Methods and devices for generating a stereoscopic image |
US9137517B2 (en) * | 2012-10-05 | 2015-09-15 | Blackberry Limited | Methods and devices for generating a stereoscopic image |
KR20150042574A (ko) * | 2013-10-11 | 2015-04-21 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
CN103974035B (zh) * | 2014-04-19 | 2017-02-08 | 东风商用车有限公司 | 一种宽视野前视系统及其使用方法 |
KR20160051411A (ko) * | 2014-11-03 | 2016-05-11 | 삼성전자주식회사 | 외부의 물체를 제어하는 전자 장치 및 그 방법 |
CN109716348A (zh) * | 2016-08-12 | 2019-05-03 | 3M创新有限公司 | 独立地处理多个所关注的区域 |
US11450140B2 (en) * | 2016-08-12 | 2022-09-20 | 3M Innovative Properties Company | Independently processing plurality of regions of interest |
CN107124488B (zh) * | 2017-05-08 | 2020-01-10 | Oppo广东移动通信有限公司 | 电子装置 |
JP2018189544A (ja) * | 2017-05-09 | 2018-11-29 | オリンパス株式会社 | 情報処理装置 |
KR101917762B1 (ko) * | 2017-05-22 | 2019-01-29 | 주식회사 그루크리에이티브랩 | 가상현실 장치의 컨버전스를 조절하여 눈의 피로를 감소시키는 방법 |
AT521845B1 (de) * | 2018-09-26 | 2021-05-15 | Waits Martin | Verfahren zur Fokuseinstellung einer Filmkamera |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0641132A1 (en) * | 1993-08-26 | 1995-03-01 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image pickup and display apparatus |
US20040233275A1 (en) * | 2003-03-20 | 2004-11-25 | Seijiro Tomita | Stereoscopic image picking up and display system |
CN101015220A (zh) * | 2004-09-10 | 2007-08-08 | 江良一成 | 三维图像再现设备 |
US20080240549A1 (en) * | 2007-03-29 | 2008-10-02 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images |
WO2008139351A1 (en) * | 2007-05-11 | 2008-11-20 | Koninklijke Philips Electronics N.V. | Method, apparatus and system for processing depth-related information |
CN101322155A (zh) * | 2005-12-02 | 2008-12-10 | 皇家飞利浦电子股份有限公司 | 立体图像显示方法和设备、从2d图像数据输入产生3d图像数据的方法以及从2d图像数据输入产生3d图像数据的设备 |
CN101562754A (zh) * | 2009-05-19 | 2009-10-21 | 无锡景象数字技术有限公司 | 一种改善平面图像转3d图像视觉效果的方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU1433495A (en) * | 1993-12-12 | 1995-06-27 | Asp Solutions Usa, Inc. | Apparatus and method for signal processing |
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
ITRM20030345A1 (it) * | 2003-07-15 | 2005-01-16 | St Microelectronics Srl | Metodo per ricavare una mappa di profondita' |
KR100656783B1 (ko) * | 2004-12-14 | 2006-12-12 | 한국전자통신연구원 | 양안식 입체 영상 전송 장치 및 그 방법과 그를 이용한양안식 입체 영상 렌더링 장치 및 그 방법 |
US20080246759A1 (en) * | 2005-02-23 | 2008-10-09 | Craig Summers | Automatic Scene Modeling for the 3D Camera and 3D Video |
EP1883242B1 (en) * | 2005-05-20 | 2014-09-17 | Toyota Jidosha Kabushiki Kaisha | Image processor for vehicles |
KR100735447B1 (ko) * | 2005-12-20 | 2007-07-04 | 삼성전기주식회사 | 휴대용 단말기용 스테레오 카메라 모듈 |
KR101100096B1 (ko) | 2009-01-29 | 2011-12-29 | 조수 | 지중 축열식 하이브리드 냉난방 시스템 |
JP2010278878A (ja) * | 2009-05-29 | 2010-12-09 | Fujifilm Corp | 立体画像表示装置及びその表示画像切替方法 |
JP5620651B2 (ja) * | 2009-06-26 | 2014-11-05 | キヤノン株式会社 | 再生装置、撮像装置、及びその制御方法 |
-
2010
- 2010-09-08 KR KR1020100087980A patent/KR101638919B1/ko active IP Right Grant
-
2011
- 2011-09-05 EP EP11007194.1A patent/EP2429198B1/en not_active Not-in-force
- 2011-09-07 US US13/227,396 patent/US8842167B2/en not_active Expired - Fee Related
- 2011-09-08 CN CN201110272546.9A patent/CN102447780B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0641132A1 (en) * | 1993-08-26 | 1995-03-01 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image pickup and display apparatus |
US20040233275A1 (en) * | 2003-03-20 | 2004-11-25 | Seijiro Tomita | Stereoscopic image picking up and display system |
CN101015220A (zh) * | 2004-09-10 | 2007-08-08 | 江良一成 | 三维图像再现设备 |
CN101322155A (zh) * | 2005-12-02 | 2008-12-10 | 皇家飞利浦电子股份有限公司 | 立体图像显示方法和设备、从2d图像数据输入产生3d图像数据的方法以及从2d图像数据输入产生3d图像数据的设备 |
US20080240549A1 (en) * | 2007-03-29 | 2008-10-02 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling dynamic depth of stereo-view or multi-view sequence images |
WO2008139351A1 (en) * | 2007-05-11 | 2008-11-20 | Koninklijke Philips Electronics N.V. | Method, apparatus and system for processing depth-related information |
CN101562754A (zh) * | 2009-05-19 | 2009-10-21 | 无锡景象数字技术有限公司 | 一种改善平面图像转3d图像视觉效果的方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108933850A (zh) * | 2017-05-24 | 2018-12-04 | Lg电子株式会社 | 移动终端 |
US10897607B2 (en) | 2017-05-24 | 2021-01-19 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
CN108933850B (zh) * | 2017-05-24 | 2021-04-23 | Lg电子株式会社 | 移动终端 |
Also Published As
Publication number | Publication date |
---|---|
US20120056998A1 (en) | 2012-03-08 |
EP2429198A2 (en) | 2012-03-14 |
KR20120025834A (ko) | 2012-03-16 |
EP2429198B1 (en) | 2016-11-16 |
EP2429198A3 (en) | 2012-10-17 |
US8842167B2 (en) | 2014-09-23 |
KR101638919B1 (ko) | 2016-07-12 |
CN102447780B (zh) | 2014-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102447780B (zh) | 移动终端及其控制方法 | |
EP3094080B1 (en) | Mobile terminal | |
US20180275770A1 (en) | Mobile terminal and control method therefor | |
KR101848871B1 (ko) | 이동 단말기 | |
US9491279B2 (en) | Mobile terminal equipped with touch screen and method of controlling therefor | |
CN103092504B (zh) | 移动终端及其控制方法 | |
KR101660505B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101666919B1 (ko) | 전자 기기 및 전자 기기의 제어 방법 | |
US20180084099A1 (en) | Mobile device and method of controlling the same | |
KR101830966B1 (ko) | 전자 기기 및 전자 기기의 컨텐츠 생성 방법 | |
US10229545B2 (en) | Watch-type mobile terminal and controlling method thereof | |
EP3364405A1 (en) | Mobile terminal and controlling method thereof | |
US20190043038A1 (en) | Mobile device and control method therefor | |
US20200302313A1 (en) | Artificial intelligence device | |
US10348970B2 (en) | Mobile terminal and method of operating the same | |
US10628024B2 (en) | Method for setting guidelines for an omnidirectional image based on user gestures on a touch screen | |
US10297060B2 (en) | Glasses-type mobile terminal and method of operating the same | |
EP3276476B1 (en) | Display apparatus | |
US10706264B2 (en) | Mobile terminal providing face recognition using glance sensor | |
KR20130065074A (ko) | 전자 기기 및 전자 기기의 제어 방법 | |
US20200379724A1 (en) | Mobile terminal and control method therefor | |
US10764528B2 (en) | Mobile terminal and control method thereof | |
KR20120109151A (ko) | 이동 단말기 및 그 제어방법 | |
KR101619934B1 (ko) | 이동 단말기, 그 제어방법 및 이를 포함하는 정보표시 시스템 | |
KR101673409B1 (ko) | 전자 기기 및 전자 기기의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20141105 Termination date: 20190908 |
|
CF01 | Termination of patent right due to non-payment of annual fee |