CN102595157B - 显示3d图像的装置及其控制方法 - Google Patents
显示3d图像的装置及其控制方法 Download PDFInfo
- Publication number
- CN102595157B CN102595157B CN201110263964.1A CN201110263964A CN102595157B CN 102595157 B CN102595157 B CN 102595157B CN 201110263964 A CN201110263964 A CN 201110263964A CN 102595157 B CN102595157 B CN 102595157B
- Authority
- CN
- China
- Prior art keywords
- image
- display
- viewpoint
- rendering
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/339—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
公开了一种用于显示图像的装置及其控制方法,由此可以向用户提供更加方便和愉快的3D立体图像欣赏环境。本发明包括:显示单元,该显示单元被配置成显示感知到的三维(3D)图像;存储单元,该存储单元被配置成存储第一至第三图像;以及控制器,该控制器确定规定的显示条件,如果满足第一条件,则控制器使用第一图像和第二图像来控制经由显示单元显示所感知到的3D图像,如果满足第二条件,则控制器使用第一图像和第三图像来控制经由显示单元显示所感知到的3D图像。优选地,第一至第三图像分别包括在不同视点中的共同对象的图像。
Description
技术领域
本发明涉及图像显示装置,并且更具体地,涉及用于显示图像的装置及其控制方法。虽然本发明适用于宽的应用范围,但是其特别适用于考虑到用于欣赏的环境更加愉快地欣赏3维图像。
背景技术
近来,对终端类型的图像显示设备的需求正在增长。并且,图像显示设备的终端可以分类为移动/便携式终端和固定终端。此外,移动终端可以按照用户的直接便携性的可能性来分类为手持终端和车载终端。
由于终端的功能是多样化的,所以终端被实现为提供有合成功能的多媒体播放器,诸如例如拍摄照片或者活动图片、播放音乐或者活动图片文件、玩游戏、广播接收等等。
为了支持和提高终端功能,其能够考虑改进终端的结构部分和/或软件部分。
近来,由于立体类型(例如,双目视差)的3维(在下文中,缩写为3D)图像可以在移动终端的显示单元上实现,所以持续存在对更加方便地和愉快地欣赏3D立体图像的方法的需求。
发明内容
因此,本发明针对一种用于显示图像的装置及其控制方法,其基本上消除了由于相关技术的限制和缺点而造成的一个或多个问题。
本发明的一个目的是提供一种用于显示图像的装置及其控制方法,由此可以向用户提供更加方便和愉快的3D立体图像欣赏环境。
本发明的另一个目的是提供一种用于输出图像的装置及其控制方法,由此考虑到用于输出3D立体图像的环境,可以在没有导致用户视觉不适的情况下经由诸如移动终端的装置来欣赏3D立体图像。
本发明的再一个目的是提供一种用于生成源图像的装置及其控制方法,由此考虑到用于输出3D立体图像的环境,可以在没有导致用户视觉不适的情况下提供3D立体图像。
在下面的描述中将在某种程度上阐述本发明的附加优点、目的和特征,并且部分地在参阅以下内容时对本领域普通技术人员将变得显而易见或者可以从本发明的实施中获悉。通过在书面描述及其权利要求以及所附的附图中特别指出的结构,可以实现和获得本发明的目的和其他优点。
为了实现这些目的和其他的优点,和按照本发明的目的,如在此处体现和广泛地描述的,根据本发明,一种用于显示图像的装置,包括:显示单元,该显示单元包括用于显示双目视差类型的3D立体图像的视差生成装置;存储器单元,该存储器单元被配置成存储第一至第三图像;以及控制器,该控制器确定规定的显示条件,如果满足第一条件,则该控制器使用第一图像和第二图像来控制经由显示单元显示3D立体图像,如果满足第二条件,则该控制器使用第一图像和第三图像来控制经由显示单元显示3D立体图像。优选地,第一至第三图像分别包括在不同的视点中共同对象的图像。
在本发明的另一个方面中,一种用于显示图像的装置,包括:显示单元,该显示单元包括用于显示双目视差类型的3D立体图像的视差生成装置;存储器单元,该存储器单元被配置成存储第一至第四图像;以及控制器,该控制器确定规定的显示条件,如果满足第一条件,则该控制器使用第一图像和第四图像来控制经由显示单元显示3D立体图像,如果满足第二条件,则该控制器使用第二图像和第三图像来控制经由显示单元显示3D立体图像。优选地,第一至第四图像分别包括在不同的视点中的共同对象的图像。
在本发明的另一个方面中,一种控制图像显示设备的方法,包括步骤:确定规定的显示条件,如果作为确定步骤的结果满足第一条件,则使用第一图像和第二图像来显示立体类型的3D立体图像,如果作为确定步骤的结果满足第二条件,则使用第一图像和第三图像来显示立体类型的3D立体图像。优选地,第一至第三图像分别包括在不同的视点中的共同对象的图像。
在本发明的再一个方面中,一种控制图像显示设备的方法,包括步骤:确定规定的显示条件,如果作为确定步骤的结果满足第一条件,则使用第一图像和第四图像来显示立体类型的3D立体图像,如果作为确定步骤的结果满足第二条件,则使用第二图像和第三图像来显示立体类型的3D立体图像。优选地,第一至第四图像分别包括在不同的视点中的共同对象的图像。
因此,本发明提供以下的效果和/或优点。
首先,可以给用户提供有更加愉快的3D立体图像欣赏环境。
其次,由于视差按照3D立体图像的欣赏环境是可调整,所以可以将在欣赏3D立体图像时用户的视觉不适减到最小。
第三,本发明能够使用至少一个或多个相机来生成3D立体图像的源图像。
应当明白,本发明的上文的概述和下面的详细说明是示例性和解释性的,并且意在提供对如要求保护的本发明的进一步的解释。
附图说明
该伴随的附图被包括以提供对本发明进一步的理解,并且被结合进和构成本申请书的一部分,附图图示了本发明的实施例(多个),并且与该说明书一起可以用于解释本发明的原理。在附图中:
图1是根据本发明的一个实施例的移动终端的框图;
图2是根据本发明的一个实施例的移动终端的前立体图;
图3是用于描述双目视差的原理的视图;
图4是用于归因于双目视差感测距离和3D深度的概念的视图;
图5是用于描述适用于本发明实施例的使用双目视差的3D立体图像显示方法的视图;
图6是用于描述按照显示环境由用户感测的双目视差差异的视图;
图7是根据本发明的一个实施例的用于在三个不同的视点中看到的共同对象的图像的一个例子的视图;
图8A是用于在三个不同的视点中由于看到的共同对象而产生的图像的一个例子的视图;
图8B是按照显示单元的大小用于在三个不同的视点中由于看到的共同对象而产生的图像组合的一个例子的视图;
图9是在参考图8A和图8B描述的源图像组合中的详细对象的显示屏幕配置的视图;
图10是根据本发明的一个实施例的用于在四个不同的视点中看到的共同对象的图像的一个例子的视图;
图11是根据本发明的一个实施例的用于经由一个相机拍摄源图像的方法的一个例子的视图;
图12是根据本发明的一个实施例的用于经由一个相机拍摄源图像的方法的另一个例子的视图;
图13是根据本发明的一个实施例的用于经由两个相机拍摄源图像的方法的一个例子的视图;
图14是根据本发明的一个实施例的用于经由两个相机拍摄源图像的装置的一个例子的立体图;以及
图15是根据本发明的一个实施例的用于经由两个相机拍摄源图像的方法的另一个例子的视图。
具体实施方式
在下面的详细说明中,参考形成本文的一部分的伴随的附图,并且其通过本发明说明具体实施例的方式示出。本技术领域普通技术人员应当理解,可以利用其它的实施例,并且在不脱离本发明的范围的情况下,可以进行结构、电气以及程序上的改变。只要可能,贯穿附图相同的附图标记将用于表示相同的或者类似的部分。
如在此处使用的,后缀“模块”、“单元”和“部分”经常用于要素以便促进本公开的论述。因此,没有对后缀本身给出有效的含义或者作用,并且应当明白,“模块”、“单元”和“部分”可以一起或者可互换地使用。
可以使用在此处论述的各种技术来实现各种类型的终端。这样的终端的例子包括移动和固定的终端,诸如移动电话、用户设备、智能电话、DTV、计算机、数字广播终端、个人数字助理、便携式多媒体播放器(PMP)、导航仪等等。仅仅通过非限制例子的方式,进一步描述将对于移动终端100进行,并且这样的教导可以同样地适用于其他类型的终端。
图1是按照本发明实施例的移动终端100的框图。图1示出了连同其它组件一起具有无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源单元190的移动终端100。所示出的移动终端100具有各种组件,但是,应当明白,实现所有图示的组件不是必要的,因为替代地可以实现更多或者更少的组件。
首先,无线通信单元110典型地包括一个或多个组件,其容许在移动终端100和无线通信系统或者移动终端100所位于的网络之间无线通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114、位置定位模块115等等。
广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播关联信息。广播信道可以包括卫星信道和陆地信道。广播管理服务器通常指的是生成和发送广播信号和/或广播关联信息的服务器,或者提供有先前生成的广播信号和/或广播关联信息并且然后将所提供的信号或者信息发送给终端的服务器。广播信号可以被实现为TV广播信号、无线电广播信号和数据广播信号等。如果期望的话,则广播信号可以进一步包括与TV或者无线电广播信号相组合的广播信号。
广播关联信息包括与广播信道、广播节目、广播服务提供商等等相关联的信息。这个广播关联信息还可以经由移动通信网络提供。在这种情况下,广播关联信息可以由移动通信模块112接收。
广播关联信息可以以各种形式来实现。例如,广播关联信息可以包括数字多媒体广播(DMB)的电子节目指南(EPG),和手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以被配置成接收从各种类型的广播系统传送的广播信号。通过非限制性的例子,这样的广播系统包括陆地数字多媒体广播(DMB-T)系统、卫星数字多媒体广播(DMB-S)系统、手持数字视频广播(DVB-H)系统、已知为仅媒体前向链路的数据广播系统和陆地综合服务数字广播(ISDB-T)系统。可选地,广播接收模块111可以被配置成适用于除了以上提及的数字广播系统之外的其它的广播系统。
由广播接收模块111接收到的广播信号和/或广播关联信息可以存储在诸如存储器160的适宜的设备中。
移动通信模块112向一个或多个网络实体(例如,基站、外部终端、服务器等等)发送/从其接收无线信号。这样的无线信号可以根据文本/多媒体消息收发来表示音频、视频和数据等。
无线因特网模块113支持移动终端100接入因特网。这个模块可以内部地或者外部地耦合到移动终端100。在这种情况下,无线因特网技术可以包括WLAN(无线局域网)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等等。
短距离通信模块114促进了相对短距离的通信。用于实现这个模块的适宜的技术仅举几个例子包括射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB),同时以通常称为蓝牙和ZigBee的联网技术。
位置定位模块115标识或者以其他方式获得移动终端100的位置。如果期望的话,则这个模块可以用全球定位系统(GPS)模块来实现。
仍然参考图1,示出的音频/视频(A/V)输入单元120被配置成向移动终端100提供音频或者视频信号输入。如图所示,A/V输入单元120包括相机121和麦克风122。相机121接收和处理由图像传感器以视频通话模式或者拍摄模式获得的静止图片或者视频的图像帧。典型地,已处理的图像帧可以显示在显示器151上。
由相机121处理的图像帧可以存储在存储器160中,或者可以经由无线通信单元110外部地传送。可选地,根据用户需要,两个或更多个相机121可以根据使用终端的环境提供给移动终端100。
麦克风122接收外部音频信号,而便携式设备处于特定的模式,诸如,电话通话模式、记录模式和语音识别模式。这个音频信号被处理和转换为电子音频数据。已处理的音频数据在通话模式的情况下被变换成可经由移动通信模块112传送到移动通信基站的格式。麦克风122典型地包括配套的噪声去除算法以去除在接收外部音频信号的过程中生成的噪声。
用户输入单元130响应于关联输入设备的用户操纵而生成输入数据。这样的设备的例子包括键盘、薄膜开关、触摸板(例如,静压/电容)、慢进轮、慢进开关等等。
感测单元140提供用于使用移动终端的各种方面的状态测量来控制移动终端100操作的感测信号。例如,感测单元140可以检测该移动终端100的打开/关闭状态、移动终端100的组件(例如,显示器和键盘)的相对定位、移动终端100或者移动终端100的组件的位置的改变、与移动终端100接触的用户的存在或者不存在、移动终端100的取向或者加速度/减速度。
作为一个例子,考虑移动终端100被配置为滑动型移动终端。在这种配置中,感测单元140可以感测移动终端的滑动部分是打开的还是关闭的。其它的例子包括感测单元140感测由电源190提供的电源的存在或者不存在、在接口单元170和外部设备之间耦合或者其它的连接的存在或者不存在。如果期望的话,则感测单元140可以包括接近传感器141。
输出单元150生成与视觉、听觉和触觉等等有关的输出。在一些情形下,输出单元150包括显示器151、音频输出模块152、警报单元153、触觉模块154、投影仪模块155等等。
显示器151典型地被实现成在视觉上显示(输出)与移动终端100相关联的信息。例如,如果移动终端以电话通话模式操作,则显示器将通常提供用户界面(UI)或者图形用户界面(GUI),其包括与拨打、进行和终止电话通话相关联的信息。作为另一个例子,如果移动终端100处于视频通话模式或者拍摄模式,则显示器151可以另外或者替代地显示与这些模式相关联的图像、UI或者GUI。
显示模块151可以使用已知的显示器技术来实现,包括例如液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管显示器(OLED)、柔性显示器和三维显示器的。移动终端100可以包括一个或多个这样的显示器。
以上显示器中的一些可以以透明或者光学透射类型实现,其可以称为透明显示器。作为透明显示器的代表性的例子,存在TOLED(透明OLED)等等。显示器151的背面配置同样可以以光学透射类型实现。在这种配置中,用户能够经由由终端主体的显示器151占据的区域看到在终端主体后面的对象。
至少两个显示器151可以按照所实现的移动终端100的配置而提供给移动终端100。例如,多个显示器可以以相互间隔开或嵌入一个主体中的方式布置在移动终端100的单个表面上。替代地,多个显示器可以布置在移动终端100的不同表面上。
在显示器151和用于检测触摸动作的传感器(在下文中也称为“触摸传感器”)配置相互层状结构(在下文中也称为“触摸屏”)的情形下,用户可以将显示器151用作输入设备和输出设备。在这种情况下,触摸传感器可以被配置为触摸薄膜、触摸片、触摸板等等。
触摸传感器可以被配置成将施加于显示器151的特定部分的压力、或者从显示单元151的特定部分生成的电容的变化转换为电子输入信号。此外,其能够配置触摸传感器检测触摸的压力以及触摸位置或者大小。
如果对触摸传感器进行触摸输入,则与该触摸相对应的信号(多个)被传送给触摸控制器。触摸控制器处理该信号(多个),并且然后将已处理的信号(多个)传送给控制器180。因此,控制器180能够知道是否触摸了显示器151的规定部分。
继续参考图1,接近传感器(图中未示出)可以提供给由触摸屏包围或者接近于触摸屏的移动终端100的内部区域。接近传感器是在没有机械接触的情况下使用电磁场强度或者红外线来检测存在或者不存在靠近规定的检测表面的对象,或者围绕接近传感器存在对象的传感器。因此,接近传感器具有比接触型传感器更长的耐用性,以及还具有比接触型传感器更广泛的实用性。
接近传感器可以包括透射的光电传感器、直接反射光电传感器、镜像反射光电传感器、射频振荡接近传感器、静电容接近传感器、磁接近传感器、红外接近传感器等等中的一个或多个。当触摸屏包括静电电容接近传感器的时候,其还可以被配置成使用根据指针的接近电场的变化来检测指针的接近。在这种情形下,触摸屏(触摸传感器)可以被分类为接近传感器。
在以下描述中,为了清楚,指针在没有与触摸屏接触的情况下靠近被识别为位于触摸屏上的动作被称为“接近触摸”,而指针实际上触摸触摸屏的动作可以被称为“接触触摸”。在触摸屏上由指针接近触摸的位置的含义指的是当指针执行接近触摸的时候垂直地相对触摸屏的指针的位置。
接近传感器检测接近触摸和接近触摸模式(例如,接近触摸距离、接近触摸持续时间、接近触摸位置、接近触摸移位状态等等)。另外,与所检测到的接近触摸动作和所检测到的接近触摸模式相对应的信息可以输出给触摸屏。
音频输出模块152在各种模式下起作用,包括通话接收模式、通话拨打模式、记录模式、语音识别模式、广播接收模式等等,以输出从无线通信单元110接收到的或者在存储器160中存储的音频数据。在操作期间,音频输出模块152输出与特定的功能(例如,接收到通话、接收到消息等等)有关的音频。音频输出模块152经常使用一个或多个扬声器、蜂鸣器、其它音频产生设备及其组合来实现。
警报单元153输出用于通知与移动终端100相关联的特定事件发生的信号。典型的事件包括接收到通话事件、接收到消息事件和接收到触摸输入事件。警报单元153能够通过振动和经由视频或者音频信号来输出用于通知事件发生的信号。视频或者音频信号可以经由显示器151或者音频输出单元152输出。因此,显示器151或者音频输出模块152可以被认为是警报单元153的一部分。
触觉模块154生成可以由用户感测的各种触觉效果。振动是由触觉模块154生成的触觉效果的代表性的一个。由触觉模块154生成的振动的强度和模式是可控制的。例如,不同的振动可以以合成在一起的方式输出,或者可以依次输出。
触觉模块154能够生成各种触觉效果以及振动。例如,触觉模块154生成归因于相对于接触皮肤表面垂直地移动引脚的布置的效果,归因于通过喷射/吸气孔喷射/吸入空气能量的效果,归因于滑过皮肤表面的效果,归因于与电极接触的效果,归因于静电力的效果,归因于表示使用吸热或者放热设备的热/冷感觉的效果。
触觉模块154可以被实现成使得用户能够通过手指、胳膊等等的肌肉感觉来感测触觉效果,以及通过直接接触来传送触觉效果。可选地,可以按照移动终端100的相应配置类型来将至少两个触觉模块154提供给移动终端100。
投影仪模块155是用于使用移动终端100来执行图像投影仪功能的元件。并且,投影仪模块155能够根据控制器180的控制信号在外部屏幕或者墙上显示图像,其与在显示器151上显示的图像相同或者至少部分地不同。
具体地,投影仪模块155可以包括生成用于外部地投影图像的光(例如,激光)的光源(图中未示出),用于使用从光源生成的光来产生图像以外部地输出的图像产生元件(图中未示出),和用于以预定的焦距放大以外部地输出图像的透镜(图中未示出)。投影仪模块155可以进一步包括用于通过机械地移动透镜或者整个模块来调整图像投影方向的设备(图中未示出)。
投影仪模块155可以根据显示装置的设备类型来分类为CRT(阴极射线管)模块、LCD(液晶显示器)模块、DLP(数字光处理)模块等等。具体地,DLP模块通过使得从光源生成的光能够反映在DMD(数字微镜子设备)芯片上的机制来操作,并且对于投影仪模块151的尺寸缩小可以是有利的。
优选地,投影仪模块155可以提供在移动终端100的侧面、前面或者背部方向的长度方向上。应当明白,投影仪模块155可以根据其必要性而提供到移动终端100的任何部分。
存储单元160通常用于存储各种类型的数据以支持移动终端100的处理、控制和存储要求。这样的数据的例子包括用于在移动终端100上操作的应用的程序指令、联系人数据、电话簿数据、消息、音频、静止图片和活动图片等等。并且,最近的使用历史或者每个数据的累积使用频率(例如,对于每个电话簿、每个消息或者每个多媒体的使用频率)可以存储在存储单元160中。此外,用于各种振动模式的数据,和/或在对触摸屏触摸输入的情况下输出的声音可以存储在存储单元160中。
存储器160可以使用适宜的易失性和非易失性存储器或者存储设备的任何类型或者组合来实现,包括硬盘、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、电可擦可编程只读存储器(EEPROM)、可擦可编程序只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、闪存、磁盘或者光盘、多媒体卡微型存储器,卡型存储器(例如,SD存储器、XD存储器等等),或者其它类似的存储器或者数据存储设备。并且,移动终端100能够在因特网上与用于执行存储器160的存储功能的网络存储器相结合地操作。
接口单元170经常被实现成将移动终端100与外部设备耦合。接口单元170从外部设备接收数据,或者提供以电力,并且然后将数据或者电力传送给移动终端100的相应元件,或者使得移动终端100内的数据能够传送到外部设备。接口单元170可以使用有线/无线头戴式受话器端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于耦合到具有身份模块的设备的端口、音频输入/输出端口、视频输入/输出端口、耳机端口等等来配置。
身份模块是用于存储供认证移动终端100的使用权限的各种各样的信息的芯片,并且可以包括用户标识模块(UIM)、订户身份模块(SIM)、通用订户身份模块(USIM)等等。具有身份模块的设备(在下文中称作“识别设备”)可以被制造为智能卡。因此,身份设备经由相应端口可连接到移动终端100。
当移动终端110连接到外部托架的时候,接口单元170变为用于从该托架对移动终端110供电的通道,或者用于将由用户从该托架输入的各种命令信号递送到移动终端110的通道。从托架或者电源输入的各种命令信号中的每个可以操作为使得移动终端100能够识别其被正确地加载在该托架中的信号。
控制器180典型地控制移动终端100的整个操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关联的控制和处理。控制器180可以包括提供多媒体回放的多媒体模块181。多媒体模块181可以被配置为控制器180的一部分,或者被实现为分离的组件。此外,控制器180能够执行用于将书写输入和在触摸屏上执行的绘图输入分别识别为字符或者图像的模式识别过程。
电源单元190提供移动终端100的各种组件需要的电力。电源可以是内部电源、外部电源或者其组合。
在此处描述的各种实施例可以例如使用计算机软件、硬件或者其某种组合在计算机可读介质中实现。对于硬件实现,在此处描述的实施例可以在一个或多个专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、设计成执行在此处描述的功能的其它电子单元、或者其选择性组合内实现。这样的特征也可以由控制器180实现。
对于软件实现,在此处描述的实施例可以借助于单独的软件模块来实现,诸如每个执行在此处描述的功能和操作的一个或多个的过程和功能。该软件代码可以以任何适宜的程序设计语言编写的软件应用来实现,并且可以存储在诸如存储器160的存储器中,以及由诸如控制器180的控制器或者处理器来执行。
图2是根据本发明的各种实施例的移动终端的前立体图。移动终端100被示出为直板型终端主体,但是移动终端可以替代地使用诸如折叠型、滑动型、旋转型、摆动型及其组合等的其他配置来实现。为了清楚,进一步的公开将主要地涉及直板型移动终端100,但是这样的教导同样地适用于其他类型的移动终端。
依然参考图2,移动终端100包括配置其外部的壳体(外壳、壳、盖子等等)。示出的外壳被划分成前壳体101和后壳体102。各种电子/电子组件定位或者以其他方式位于在前壳体101和后壳体102之间提供的空间或者空腔中。可选地,至少一个中间壳体可以进一步提供在前壳体101和后壳体102之间。例如,壳体101和102可以由合成树脂的注塑形成,或者它们可以由诸如例如不锈钢(STS)、钛(Ti)等等的金属物质形成。
显示器151、音频输出单元152、相机121、用户输入单元130/131和132、麦克风122、接口180等等可以提供给终端主体,并且更具体地,提供给前壳体101。
示出的显示器151占据前壳体101的主表面的大部分。音频输出单元151和相机121提供给与显示器151的两端部分中的一个相邻的区域,而用户输入单元131和麦克风122提供给与显示器151的另一端部分相邻的另一个区域。用户输入单元132和接口170可以提供给前壳体101和后壳体102的侧面。
输入单元130被操纵成接收用于控制终端100的操作的命令。输入单元130还可以包括多个操纵单元131和132。操纵单元131和132在此处将有时被称为操纵部分,并且它们可以实现使得用户能够通过体验触觉来执行操纵动作的触觉方式的任何机制。
由第一操纵单元131或者第二操纵单元132输入的内容可以不同地设置。例如,诸如开始、结束、滚动等等这样的命令输入到第一操纵单元131。用于从音频输出单元152输出的声音的音量调整的命令、用于切换到显示器151的触摸识别模式的命令等等可以输入到第二操纵单元132。
立体3D图像的实现
在以下的描述中,解释了在适用于本发明实施例的移动终端中显示3D图像的方法和用于其的显示单元配置。
用于实现3D图像的一个方案是分别将不同的图像提供给两个眼睛的立体方案,其使用在以人眼观看对象时用户可以感测立体效果的原理。具体地,人眼被配置成在观看相同的对象时由于在两个眼睛之间的距离而看到不同的平面图像。这些不同的图像经由视网膜被转发到人的大脑。人的大脑能够通过将不同的图像组合在一起来感测3D图像的深度和真实性。因此,尽管或多或少地存在双目视差的个体差异,但是归因于两个眼睛之间的距离的双目视差使得用户能够感测到立体效果。因此,双目视差变成第二类别最重要的因素。如下参考图3详细地解释双目视差。
图3是用于解释双目视差的原理的视图。
参考图3,假设六面体310作为对象放置在低于眼睛高度的前面以通过人眼看到的情形。在这种情况下,左眼能够看到仅仅展现三个面的左眼平面图像320,三个面包括六面体310的上侧、前侧和左侧。并且,右眼能够看到仅仅展现三个面的右眼平面图像330,三个面包括六面体310的上侧、前侧和右侧。
即使真实的东西事实上没有放置在用户的两个眼睛的前面,如果左眼平面图像320和右眼平面图像330被设置为分别地到达左眼和右眼,则用户能够仿佛实际上看到六面体310一样,大体上感测六面体310。
因此,为了在移动终端100中实现属于第二类别的3D图像。相同对象的图像应当以对于具有预定视差的相同对象的左眼图像和右眼图像相互区分的方式到达两个眼睛。
在以下的描述中,参考图4解释了归因于双目视差的3D深度。
图4是用于归因于双目视差距离和3D深度的感测的概念的视图。
参考图4,鉴于六面体500,在距离d1中,通过两个眼睛进入每个眼球的图像的侧边比相对地高于在距离d2中的侧边比,借此在通过两个眼睛看到的图像之间的差异提高。此外,鉴于六面体400,在距离d1中由用户感测到的立体效果的程度可以变得高于鉴于六面体400在距离d2中的立体效果的程度。特定地,当通过用户的两个眼睛看到东西的时候,更近的对象给出更大的立体效果,而较远的对象给出较小的立体效果。
在立体效果方面这样的差异可以被数字化为3D深度或者3D水平。在以下的描述中,位于更近的东西的高的立体效果将被表示为低的3D深度和低的3D水平。并且,位于较远的东西的低的立体效果将被表示为高的3D深度和高的3D水平。由于3D深度或者水平的清晰度是相对设置的,所以用于3D深度或者水平的分类基准和3D深度或者水平的提高/降低方向是可改变的。
为了相互区分在本公开中以上提及的两个类别,属于第一类别的立体图像被称为“2D立体图像”,并且属于第二类别的立体图像被称为“3D立体图像”。
实现3D立体图像的方法描述如下。
首先,如在以下的描述中提及的,为了实现3D立体图像,用于右眼的图像和用于左眼的图像需要以相互区分的方式到达两个眼睛。为此,各种方法解释如下。
1)视差屏障方案
该视差屏障方案通过电子地驱动在一般显示器和两个眼睛之间提供的切断设备来使得不同的图像能够以控制光的传送方向的方式到达两个眼睛。参考图5对此解释如下。
图5是用于在适用于本发明实施例的视差屏障类型的显示单元中实现3D立体图像的方案的视图。
参考图5,用于显示3D图像的视差屏障类型显示单元151的结构可以以一般显示器件151a与开关LC(液晶)151b组合的方式来配置。光的传播方向是使用开关LC151b通过激活光学视差屏障500来控制的,如图5(a)所示,借此光被分离成两个不同的光以分别地到达左眼和右眼。因此,当由将用于右眼的图像和用于左眼的图像组合在一起生成的图像显示在显示器件151a上的时候,用户分别地看到与眼睛相对应的图像,从而感觉到3D或者立体效果。
替代地,参考图5(b),归因于开关LC的视差屏障500被电子地控制成使得整个光能够穿过其传送,借此避免了由于视差屏障而造成的光分离。因此,可以通过左眼和右眼看到相同的图像。在这种情况下,常规的显示单元的相同的功能是可用的。
具体地,图5示例性地示出了该视差屏障在一个轴向方向上执行平行移动,本发明不限于此。替代地,本发明能够使用视差屏障,其使得能够根据来自控制器180的控制信号在至少两个轴向方向上平行移动。
2)透镜的
该透镜的方案涉及使用在显示器和两个眼睛之间提供的透镜状屏幕的方法。具体地,光的传播方向经由透镜折射在透镜状屏幕上,借此不同的图像分别到达两个眼睛。
3)偏振眼镜
根据偏振眼镜方案,偏振方向被设置相互正交以向两个眼睛分别提供不同的图像。在圆形偏振的情况下,执行偏振以具有不同的旋转方向,借此不同的图像可以分别地提供给两个眼睛。
4)活动遮光器
这个方案是一种眼镜方案。具体地,右眼图像和左眼图像以规定的定期性交替地显示在显示单元上。并且,当显示相应方向的图像的时候,用户的眼镜在相反的方向关闭其遮光器。因此,相应方向的图像可以在相应的方向上到达眼球。即,当正在显示左眼图像时,右眼的遮光器被关闭以使得左眼图像仅仅能够到达左眼。相反地,当正在显示右眼图像时,左眼的遮光器被关闭以使得右眼图像仅仅能够到达右眼。
在以下的描述中,假设根据本发明一个实施例的移动终端能够通过以上描述的方法中的一个经由显示单元151向用户提供3D立体图像。
由于参考图3和图4描述的3D图像原理采取立体对象,所以在左眼图像中的对象在形状上不同于在右眼图像中的对象。但是,如果对象不是立体对象,而是平面对象,则在左眼图像中的对象的形状与在右眼图像中的对象的形状相同。如果在左眼图像中对象的位置不同于在右眼图像中对象的位置,则用户能够在该视角看到相应的对象。为了帮助理解本公开,假设在以下的描述中立体图像是平面对象。当然,对于本领域技术人员来说显而易见的是,本发明同样适用于立体对象。
为了以下的描述清楚和方便,假设在以下的描述中提及的移动终端包括图1中示出的组件中的至少一个。具体地,适用本发明的移动终端包括能够通过以上描述的3D立体图像实现方案中的一个向用户提供3D立体图像的显示单元。在这种情况下,除了提供给移动终端本身的显示单元151之外,该显示单元具有包括诸如TV、投影仪等等这样通过有线/无线可连接的外部显示设备的概念。优选地,这样的外部显示设备能够通过以上描述的方案中的至少一个来显示3D立体图像。在外部显示设备通过有线连接的情况下,其能够经由接口单元170使用诸如USB(通用串行总线)、HDMI(高清晰度多媒体接口)、S-视频(超视频)、DVI(数字视觉接口)、D-SUB(D-超小型)、AV端子等等这样的有线接口。在无线连接的情况下,该外部设备可以通过根据DLNA(数字实况网络联盟)标准或者诸如3G/4G数据传输、Wi-Fi、蓝牙等等这样的无线/短距离通信的连接来连接。
根据显示环境的双目视差
如在先前的描述中提及的,为了实现3D立体图像,需要用于实现3D立体图像的“源图像”集合。具体地,用于左眼的源图像和用于右眼的源图像(在用于相同对象的视点其相互不同)是为生成双目视差所必需的。换句话说,用于左眼的一个图像和用于右眼的另一个图像构成用于一个3D立体图像的源图像集合。双目视差(即,视点之间的距离)变得越大,3D效果变得越大。
但是,如果双目视差偏离预定的距离,导致用户视觉不适。当显示从源图像生成的3D图像的时候,如果由用户大体上感测到的视差超过与用户的两个眼睛之间空间相对应的距离(例如,不管个体差异通常在7cm内的范围),导致用户视觉不适。具体地,当显示从源图像集合生成的3D图像的时候,由用户大体上感测到的视差可以取决于源图像的视差、显示单元的大小和/或在显示单元和用户之间的距离。
更具体地,由用户感测到的视差与源图像本身的视差和显示单元的大小成正比,或者与在显示单元和用户之间的距离成反比。如果源图像本身的视差提高,则显示单元的大小提高,或者在显示单元和用户之间的距离降低,由用户感测到的视差提高。相反地,如果源图像本身的视差降低,则显示单元的大小降低,或者在显示单元和用户之间的距离提高,由用户感测到的视差降低。
因此,虽然使用相同的源图像,但是由用户感测到的视差可以按照经由相同的源图像(即,用于显示相应3D立体图像的显示单元的大小、在用户和显示单元之间的距离等等)实现的3D立体图像的欣赏环境而变化。参考图6对此解释如下。
图6是用于描述按照显示环境由用户感测到的双目视差差异的视图。
在以下包括图6的附图中,为了清楚,假设用于实现3D立体图像的源图像的集合(或者源图像集合)包括用于左眼的图像(在下文中称为左眼图像)和用于右眼的图像(在下文中称为右眼图像),其是由分别从不同的视点观看球状对象产生的。但是,这种假设仅仅是示例性的,并且不限制本发明。例如,对于本领域技术人员来说显而易见的是,本发明应当适用于供实现3D立体图像的各种各样的源图像。
参考图6(a),例如,准备用于实现3D立体图像、左眼图像610和右眼图像620的源图像集合,其是由分别从不同的视点观看球状对象615产生的。由于视点差异,在左眼图像610中球状对象615的位置与在右眼图像620中球状对象615的位置不同。
当使用在图6(a)中示出的源图像集合在不同的显示环境中实现3D立体图像的时候,由用户感测到的双目视差的差异参考图6(b)描述如下。
参考图6(b),当3D立体图像630显示在提供给移动终端的显示单元151上的时候,由用户感测到的视差对应于在左眼图像的对象615的中心和右眼图像的对象625的中心之间的距离d1。同时,当使用相同的源图像的3D立体图像340显示在具有大于移动终端的显示单元大小的大小的外部显示设备上的时候,由用户感测到的视差对应于d2。如果在用户和显示单元151之间的距离等于在用户和外部显示设备之间的距离,则在d1和d2之间的差值与距离单元对外部显示设备的大小比成正比。
在这种情况下,虽然d1小于导致用户视觉不适的距离,但是如果d2大于导致视觉不适的距离,则其在经由外部显示设备进行3D立体图像欣赏时导致用户感到视觉不适的问题。为了解决这个问题,其考虑到最大显示大小可能能够降低和固定源图像集合本身的左/右图像的视差。然而,这是不利的,因为由用户感测到的视差在诸如移动终端的显示单元151这样相对小的显示器中被过度地减小以致降低了3D效果。
通过至少三个不同视点的源图像的选择性应用来实现3D立体图
像
为了解决以上的问题,本发明建议选择性地按照显示环境使用在至少三个不同的视点观看的相同对象的两个图像来实现3D立体图像。
在这种情况下,共同对象并不意指在以源图像集合实现的3D立体图像中包括的部分特定对象,而是意指在3D立体图像中包括的整个图像。换句话说,由于左眼图像和右眼图像在视点中配置相互不同的源图像,虽然由于源图像的视差而可能存在部分差异,但是该共同对象意指大体上相同的整个图像。
在以下的描述中,参考图7和图8解释了根据本发明在至少三个不同视点观看的共同对象的图像的概念和选择性的组合。
图7是根据本发明的一个实施例的用于在三个不同视点看到的共同对象的图像的一个例子的视图。
参考图7,根据本发明,准备作为三个不同视点的目标准备的对象710。并且,从三个不同的点720、730和740中观看共同对象710产生的图像可以用作本发明的源图像集合。
假设在左视点720和中心视点730之间的距离D1与在中心视点730和右视点740之间的距离D2不同,则其能够使用分别由在视点720、730和740中观看共同对象710产生的三个图像来实现具有共同对象710的三个不同视差的3D立体图像。
图8A是用于在三个不同视点中由看到共同对象产生的图像的一个例子的视图。在图8A中,假设共同对象包括球状对象。
参考图8A,在从在用于共同对象的三个不同视点之中的第一视点中观看共同对象生成的源图像810中,相应对象815通过向左侧倾斜来放置。
在从在三个不同视点之中的第二视点中观看共同对象生成的源图像820中,相应对象825通过略微地从中心向左侧偏离来接近放置在源图像820的中心。
并且,在从在三个不同的视点之中的第三视点中观看共同对象生成的源图像830中,相应对象835通过向右侧倾斜来放置。
使用从在三个不同的视点中观看相同的对象生成的三个源图像,如图8A所示,参考图8B如下解释了按照提供由用户感测到的类似视差的显示环境,选择三个图像中的两个以构成源图像集合的方式来实现3D立体图像的方法的一个例子。
图8B是按照显示单元的大小用于在三个不同的视点由看到共同对象生成的源图像组合的一个例子的视图。
参考图8B,首先,假设提供了在大小方面相互不同的三个显示单元。并且,假设在用户和三个显示单元的每个之间的距离是均等的。在这种情况下,三个显示单元中的每个可以包括提供给移动终端100本身的显示单元151。替代地,三个显示单元中的每个可以包括通过有线/无线连接到移动终端100的外部显示设备。
3D立体图像可以在三个显示单元的最小的一个860上以以下的方式实现。
首先,在图8A中示出的源图像810和830以在球状对象815和835之间的空间被设置为最大的(即,源图像集合本身的视差被设置为最大的)的方式组合在一起。在这种情况下,由用户感测到的视差对应于距离d1。
其次,在图8A中示出的源图像820和830以源图像集合本身的视差被设置为中等大小的方式组合在一起。在这种情况下,由用户感测到的视差对应于距离d2。
第三,在图8A中示出的源图像810和820以源图像集合本身的视差被设置为最小的方式组合在一起。在这种情况下,由用户感测到的视差对应于距离d3。
因此,即使显示单元在大小方面提高,由用户感测到的视差也可以通过在视点中相互不同的源图像的适宜组合来维持在预定的范围d1~d3中。
因此,不管显示器大小,用户能够在提高显示单元大小的情况下,以组合不同视点的三个源图像中的两个以降低源图像的视差,或者在降低显示单元大小的情况下,以组合不同视点的三个源图像中的两个以提高源图像的视差的方式来感测类似的视差。
当然,产生类似的视差的方法是该组合的一个例子。为了尽最大可能维持由用户感测到的3D效果,该组合可以以维持与导致用户视觉不适的视差更小的最大视差的方式来执行。
图9是在参考图8A和图8B描述的源图像组合中的详细对象的显示屏幕配置的视图。
参考图9,在显示单元的大小是相对小的情况下,可以以将在左眼图像和右眼图像中具有在共同对象之间大的视差910的源图像与在左眼图像和右眼图像中具有在共同对象之间大的视差920的源图像集合组合的方式来提高3D效果[图9(a)]。相反地,在显示单元的大小是相对大的情况下,可以以将在左眼图像和右眼图像中具有在共同对象之间小的视差930的源图像与在左眼图像和右眼图像中具有在共同对象之间小的视差924的源图像集合组合的方式来降低用户的视觉疲劳[图9(b)]。
按照以上描述的实施例,3D立体图像是使用在多个不同的视点的每个中从观看共同对象生成的源图像来参考三个视点选择性地实现的,例如,本发明不限于此。本发明适用于使用从在更多的视点中观看共同对象生成的源图像的方法。参考图10对此解释如下。
图10是根据本发明的一个实施例的用于在四个不同的视点中用于共同对象的图像的一个例子的视图。
参考图10,准备作为本发明的四个不同的视点的目标的对象1010。在这种情况下,从在四个不同的视点1020、1030、1040和1050的每个中观看共同对象1010生成的图像可以用作本发明的源图像。
假设在最左边的视点1020和中心左边视点1030之间的距离D1、在中心左边视点1030和中心右边视点1040之间的距离D2、和在中心右边视点1040和最右边的视点1050之间的距离D3相互不同,则其能够使用分别从在视点中观看共同对象1010生成的四个图像,在用于共同对象1010的视差方面实现相互不同的六种3D立体图像。
具体地,当在观看共同对象时存在许多相互不同的视点的时候,如果更多的视点到视点距离相互不同,则使用更多的组合来调整源图像集合的视差。因此,其能够给用户提供具有最佳视差的3D立体图像。
用于相同的对象的不同视点图像的组合可以由用户通过用户输入单元130的输入来确定。替代地,控制器180能够通过识别显示环境来自动地确定用于相同对象的不同的视点图像的组合。
例如,当用户根据本发明使用在视点中相互不同的至少三个源图像来欣赏3D立体图像的时候,如果用户感测到视觉不适,或者意欲调整3D效果的水平,则用于生成3D立体图像的组合可以按照通过用户输入单元130的规定输入而改变。具体地,在组合已经按照用于共同对象的不同视点图像的数目分别映射给达到组合数目的多个键按钮之后,可以通过与该键按钮的操纵的键按钮相对应的组合来显示3D立体图像。此外,在已经准备了用于组合改变的键按钮之后,如果所准备的键按钮被操纵,则可以改变该组合。
对于另一个例子,控制器180识别正在显示3D立体图像的显示器的类型(即,大小),并且然后控制源图像自动地组合以形成具有最佳视差的源图像集合。具体地,在通过移动终端100的显示单元151来实现3D立体图像的情况下,控制器180选择源图像的组合以使得用户能够感测到最大的视差。在经由连接到移动终端的大型的LCDTV来实现3D立体图像的情况下,控制器180能够选择源图像的组合以使得用户能够感测到最小的视差。
可选地,以上描述的自动和手动选择两者可以共同地实现是理所当然的事。
用于在不同视点中拍摄共同对象的图像的相机布置结构
在以下的描述中,使用至少一个或多个相机的方法被解释为在至少三个视点中生成共同对象的源图像的方法。在使用相机的情况下,共同对象可以被称作公共对象。
首先,参考图11和图12如下解释了使用单个相机的方法。
图11是根据本发明的一个实施例的用于经由一个相机拍摄源图像的方法的一个例子的视图。
参考图11,使用提供给移动终端100的单个相机,其能够通过扫描全景方案,在不同视点中生成共同对象1110的源图像1120和1130。在这种情况下,该扫描全景方案意指以彼此规定的间隔附加通过在一个方向上移动相机拍摄的单个图像的方式来生成左眼图像和右眼图像的方法。
图12是根据本发明的一个实施例的用于经由一个相机拍摄源图像的方法的另一个例子的视图。
参考图12,单个相机151可以以在规定的往复运动轨迹上移动的方式提供给移动终端100。使用这种结构的移动终端,其能够通过在轨迹D上改变相机的位置以拍摄对象1210至少三次的方式来获得本发明的源图像。在这种情况下,轨迹的长度优选地被设置为不超过导致前述的用户视觉疲劳的视差的长度。
在以下的描述中,参考图13至15解释了使用两个相机的方法。
图13是根据本发明的一个实施例的用于经由两个相机拍摄源图像的方法的一个例子的视图。
参考图13,一个相机151被固定到移动终端100,而另一个相机151’被安装为在规定的往复运动轨迹D2上是可移动的。使用这种结构的移动终端,其能够通过改变相机在轨迹上的位置,以拍摄对象至少两次的方式来获得本发明的源图像(包括经由固定相机拍摄的图像)。在这种情况下,两个相机之间的最大距离D3优选地被设置为不超过导致前述的用户视觉疲劳的视差的长度。
图14是根据本发明的一个实施例的用于经由两个相机拍摄源图像的装置的一个例子的立体图。
具体地,图14(a)是根据本发明另一个实施例的移动终端的前立体图。图14(b)是根据本发明的移动终端的前立体图,其中示出了该移动终端的操作状态。并且,图14(c)是根据本发明的移动终端的后立体图。
参考图14,类似以前的实施例的描述,在图14中示出的实施例包括一对相机121和121’。具体地,第一相机121可旋转地安装在包括第一壳体101和第二壳体102的移动终端主体的一个长度方向末端部分。并且,第二相机121’可伸缩地装载在包括第一壳体101和第二壳体102的移动终端主体的侧边之中的底侧。
第一相机121可旋转地安装在可扩展和可收缩的折叠管部件的一端上。第一相机121可旋转地以平行于插入或者拔出方向的旋转柄(图中未示出)为中心安装。
第二相机121’的拔出长度可以通过多级的可伸缩的折叠管部件ra来调整。并且,当第二相机121’被拔出的时候,可以将第二相机121’可旋转地装载为使用多级的可伸缩的折叠管部件ra作为旋转柄是可旋转的。
根据在图14中示出的实施例,第一相机121在移动终端的前和后方向是可旋转的,并且多级的可伸缩折叠管部件ra的拔出长度是可调整的,借此可以调整在第一相机121和第二相机121’之间的间隔距离。
因此,其能够使用经由第一相机拍摄的图像、在第二相机的第一拔出长度拍摄的图像、和在第二相机的第二拔出长度拍摄的图像在至少三个不同的视点中获得相同对象的图像。
同时,其还能够通过调整与对象的距离来获得具有不同视差的图像。参考图15对此解释如下。
图15是根据本发明的一个实施例的用于经由两个相机拍摄源图像的方法的另一个例子的视图。
参考图15,一对相机151和151’被布置在移动终端100上,以在其间具有固定的距离。并且,其能够通过从D1至D3改变对象1510和相机151和151’中的每个之间的距离来拍摄对象的方法在不同视点获得对象1510的源图像。
在本发明前述的实施例中,源图像可以包括静止图片或者活动图片。源图像被预先地存储在存储器160中,或者可以作为数据流通过有线/无线传送。
根据本发明的一个实施例,以上描述的方法可以在作为计算机可读代码的程序记录介质中实现。计算机可读介质包括各种各样的记录设备,其中存储了由计算机系统可读的数据。计算机可读介质例如包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备等等,并且还包括载波型实现(例如,经由因特网的传输)。
前面提到的图像显示装置可以通过本发明的结构元素和特征以预定类型的组合来实现。结构元素或者特征中的每个除非单独指定之外应当认为是选择性地。结构元素或者特征中的每个可以在没有与其它结构元素或者特征组合的情况下执行。而且,一些结构元素和/或特征可以相互结合以构成本发明的实施例。
对于本领域技术人员来说将显而易见的是,在不脱离本发明的精神或者范围的情况下,可以在本发明中进行各种修改和变化。因此,本发明意欲覆盖本发明的改进和变化,只要它们归入所附的权利要求和其等同物的范围之内。
Claims (17)
1.一种用于显示图像的装置,包括:
显示单元,所述显示单元被配置为显示感知到的3D图像;
存储单元,所述存储单元被配置为存储来自第一视点的对象的第一图像、来自第二视点的所述对象的第二图像和来自第三视点的所述对象的第三图像;
接口单元,所述接口单元被配置为经由有线连接和/或无线地连接到用于显示感知到的3D图像的外部显示设备;以及
控制器,所述控制器被配置为控制所述接口单元以通过使用在所获得的第一、第二和第三图像当中的两个图像的组合显示在所述外部显示设备上感知到的3D图像,其中所述组合基于所述外部显示设备的大小。
2.根据权利要求1所述的装置,进一步包括:第一相机,所述第一相机用于从所述第一视点捕获所述对象的所述第一图像,从所述第二视点捕获所述对象的所述第二图像,以及从所述第三视点捕获所述对象的所述第三图像。
3.根据权利要求1所述的装置,进一步包括:
第一相机,所述第一相机用于从所述第一视点捕获所述对象的所述第一图像;以及
第二相机,所述第二相机用于从所述第二视点捕获所述对象的所述第二图像,和从所述第三视点捕获所述对象的所述第三图像。
4.根据权利要求1所述的装置,其中,所述控制器在不使用所述第三图像的情况下通过使用所述第一图像和所述第二图像来控制所感知到的3D图像将被显示。
5.根据权利要求1所述的装置,其中,所述控制器在不使用所述第二图像的情况下通过使用所述第一图像和所述第三图像来控制所感知到的3D图像将被显示。
6.根据权利要求1所述的装置,进一步包括:
其中,所述组合进一步基于显示条件,其中所述显示条件是存在或者不存在所述外部显示设备的有线连接。
7.根据权利要求1所述的装置,进一步包括:
其中,所述组合进一步基于显示条件,其中所述显示条件是存在或者不存在到所述外部显示设备的无线连接。
8.根据权利要求1所述的装置,其中,所显示的3D图像是双目视差类型的感知到的3D立体图像。
9.根据权利要求1所述的装置,其中,所述显示单元包括显示器件、开关液晶(LC)器件和光学视差屏障。
10.一种控制图像显示设备的方法,所述方法包括:
从第一视点获得对象的第一图像;
从第二视点获得所述对象的第二图像;
从第三视点获得所述对象的第三图像;
通过使用所获得的第一、第二和第三图像显示感知到的3D图像;
经由接口单元连接到用于显示感知到的3D图像的外部显示设备;以及
控制所述接口单元以通过使用在所获得的第一、第二和第三图像当中的两个图像的组合经由所述外部显示设备显示感知到的3D图像,其中所述组合基于所述外部显示设备的大小。
11.根据权利要求10所述的方法,其中,获得所述对象的所述第一图像包括使用第一相机来获得所述第一图像。
12.根据权利要求11所述的方法,其中,获得所述对象的所述第二图像包括使用第二相机来获得所述第二图像。
13.根据权利要求12所述的方法,其中,获得所述对象的所述第三图像包括使用所述第二相机来获得所述第三图像。
14.根据权利要求10所述的方法,其中,所感知到的3D图像是在不使用所述第三图像的情况下通过使用所述第一图像和所述第二图像的第一组合来显示的。
15.根据权利要求14所述的方法,其中,所感知到的3D图像是在不使用所述第二图像的情况下通过使用所述第一图像和所述第三图像的第二组合来显示的。
16.根据权利要求10所述的方法,其中,所述组合进一步基于显示条件,其中所述显示条件包括确定从用户经由用户输入单元输入的显示命令。
17.根据权利要求10所述的方法,其中,所述组合进一步基于显示条件,其中所述显示条件包括确定所述图像显示设备是有线连接还是无线连接到用于显示所述3D图像的外部显示设备。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110000776A KR101852811B1 (ko) | 2011-01-05 | 2011-01-05 | 영상표시 장치 및 그 제어방법 |
KR10-2011-0000776 | 2011-01-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102595157A CN102595157A (zh) | 2012-07-18 |
CN102595157B true CN102595157B (zh) | 2015-11-25 |
Family
ID=44650833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110263964.1A Expired - Fee Related CN102595157B (zh) | 2011-01-05 | 2011-09-02 | 显示3d图像的装置及其控制方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9071820B2 (zh) |
EP (1) | EP2475177B1 (zh) |
JP (1) | JP2012142917A (zh) |
KR (1) | KR101852811B1 (zh) |
CN (1) | CN102595157B (zh) |
TW (1) | TWI499281B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8976160B2 (en) | 2005-03-01 | 2015-03-10 | Eyesmatch Ltd | User interface and authentication for a virtual mirror |
US8982110B2 (en) | 2005-03-01 | 2015-03-17 | Eyesmatch Ltd | Method for image transformation, augmented reality, and teleperence |
US8982109B2 (en) | 2005-03-01 | 2015-03-17 | Eyesmatch Ltd | Devices, systems and methods of capturing and displaying appearances |
US9269157B2 (en) | 2005-03-01 | 2016-02-23 | Eyesmatch Ltd | Methods for extracting objects from digital images and for performing color change on the object |
TWI617178B (zh) * | 2012-09-20 | 2018-03-01 | 優克利丹有限公司 | 用以表現出三維景象之電腦圖形方法、系統及軟體產品 |
CA2885283C (en) | 2012-09-21 | 2020-05-05 | Euclideon Pty Ltd | A computer graphics method for rendering three dimensional scenes using orthogonal projections |
JP5800996B2 (ja) * | 2012-09-26 | 2015-10-28 | 富士フイルム株式会社 | 画像処理装置、方法及びプログラム、プリンタ、表示装置 |
CA2887922A1 (en) * | 2012-10-10 | 2014-10-09 | John Tamkin | System for distributing auto-stereoscopic images |
BR112015014629A2 (pt) * | 2012-12-18 | 2020-09-15 | Eyesmatch Ltd | método para operar um sistema que possui um monitor, uma câmera e um processador |
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9967549B2 (en) | 2013-03-20 | 2018-05-08 | Mediatek Inc. | 3D image capture method with 3D preview of preview images generated by monocular camera and related electronic device thereof |
US9762781B2 (en) * | 2015-10-30 | 2017-09-12 | Essential Products, Inc. | Apparatus and method to maximize the display area of a mobile device by increasing the size of the display without necessarily increasing the size of the phone |
US9736383B2 (en) | 2015-10-30 | 2017-08-15 | Essential Products, Inc. | Apparatus and method to maximize the display area of a mobile device |
US9723114B2 (en) | 2015-10-30 | 2017-08-01 | Essential Products, Inc. | Unibody contact features on a chassis shell of a mobile device |
WO2018136098A1 (en) * | 2017-01-23 | 2018-07-26 | Huami Inc. | System and Method for Generating Digital Content for a Composite Camera |
CN108572770A (zh) * | 2017-03-13 | 2018-09-25 | 中兴通讯股份有限公司 | 一种浏览图像的方法及装置 |
TWI640959B (zh) * | 2017-08-04 | 2018-11-11 | 適着三維科技股份有限公司 | 校準設備 |
CN207926666U (zh) * | 2018-02-09 | 2018-09-28 | 广东欧珀移动通信有限公司 | 移动终端 |
CN108763911B (zh) * | 2018-06-06 | 2019-12-06 | Oppo广东移动通信有限公司 | 验证方法、验证装置、电子设备和计算机可读存储介质 |
WO2021025241A1 (en) * | 2019-08-07 | 2021-02-11 | Samsung Electronics Co., Ltd. | Method and bendable device for constructing 3d data item |
CN114387151A (zh) | 2020-10-21 | 2022-04-22 | 宏碁股份有限公司 | 3d显示系统与3d显示方法 |
US11895383B2 (en) * | 2021-01-27 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device including optical sensor |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101895779A (zh) * | 2010-07-23 | 2010-11-24 | 深圳超多维光电子有限公司 | 立体显示方法和系统 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5493427A (en) * | 1993-05-25 | 1996-02-20 | Sharp Kabushiki Kaisha | Three-dimensional display unit with a variable lens |
TW262541B (zh) | 1994-05-09 | 1995-11-11 | Image Technology Internat Inc | |
US6005607A (en) * | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
US6476850B1 (en) | 1998-10-09 | 2002-11-05 | Kenneth Erbey | Apparatus for the generation of a stereoscopic display |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
US20040219980A1 (en) * | 2003-04-30 | 2004-11-04 | Nintendo Co., Ltd. | Method and apparatus for dynamically controlling camera parameters based on game play events |
KR100779634B1 (ko) * | 2003-06-20 | 2007-11-26 | 니폰 덴신 덴와 가부시끼가이샤 | 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치 |
JP2005084569A (ja) * | 2003-09-11 | 2005-03-31 | Brother Ind Ltd | 画像表示装置 |
US7796155B1 (en) * | 2003-12-19 | 2010-09-14 | Hrl Laboratories, Llc | Method and apparatus for real-time group interactive augmented-reality area monitoring, suitable for enhancing the enjoyment of entertainment events |
JP4024769B2 (ja) | 2004-03-11 | 2007-12-19 | シャープ株式会社 | 液晶表示パネルおよび液晶表示装置 |
US7590075B2 (en) * | 2005-04-15 | 2009-09-15 | Dell Products L.P. | Systems and methods for managing wireless communication |
JP4488996B2 (ja) * | 2005-09-29 | 2010-06-23 | 株式会社東芝 | 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム |
KR101276720B1 (ko) * | 2005-09-29 | 2013-06-19 | 삼성전자주식회사 | 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체 |
US20070229850A1 (en) * | 2006-04-04 | 2007-10-04 | Boxternal Logics, Llc | System and method for three-dimensional image capture |
JP4751801B2 (ja) * | 2006-10-17 | 2011-08-17 | シャープ株式会社 | 立体画像検索装置 |
KR101342987B1 (ko) * | 2006-11-21 | 2013-12-18 | 톰슨 라이센싱 | 3d 이미지의 컬러 보정을 위한 방법 및 시스템 |
DE102006055641B4 (de) * | 2006-11-22 | 2013-01-31 | Visumotion Gmbh | Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes |
US10366426B2 (en) * | 2007-03-09 | 2019-07-30 | Amazon Technologies, Inc. | Personalizing handheld electronic book readers |
JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
EP2332340B1 (en) | 2008-10-10 | 2015-12-23 | Koninklijke Philips N.V. | A method of processing parallax information comprised in a signal |
RU2011103188A (ru) | 2008-12-26 | 2013-02-10 | Панасоник Корпорэйшн | Носитель записи, устройство воспроизведения и интегральная схема |
JP4737573B2 (ja) | 2009-02-05 | 2011-08-03 | 富士フイルム株式会社 | 3次元画像出力装置及び方法 |
WO2010095081A1 (en) * | 2009-02-18 | 2010-08-26 | Koninklijke Philips Electronics N.V. | Transferring of 3d viewer metadata |
JP5439890B2 (ja) * | 2009-03-25 | 2014-03-12 | 富士通株式会社 | 画像処理方法、画像処理装置及びプログラム |
JP2011081480A (ja) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | 画像入力システム |
JP5299214B2 (ja) | 2009-10-20 | 2013-09-25 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US8717360B2 (en) * | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
JP5776173B2 (ja) * | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
JP5499778B2 (ja) * | 2010-03-03 | 2014-05-21 | 株式会社ニコン | 撮像装置 |
US8896668B2 (en) * | 2010-04-05 | 2014-11-25 | Qualcomm Incorporated | Combining data from multiple image sensors |
US20110261166A1 (en) * | 2010-04-21 | 2011-10-27 | Eduardo Olazaran | Real vision 3D, video and photo graphic system |
CN101893763B (zh) * | 2010-07-01 | 2011-10-05 | 深圳超多维光电子有限公司 | 一种2d/3d显示切换装置及其驱动装置及方法 |
JP5835932B2 (ja) * | 2010-07-02 | 2015-12-24 | キヤノン株式会社 | 画像処理装置、及びその制御方法 |
US8446461B2 (en) * | 2010-07-23 | 2013-05-21 | Superd Co. Ltd. | Three-dimensional (3D) display method and system |
WO2012056686A1 (ja) * | 2010-10-27 | 2012-05-03 | パナソニック株式会社 | 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 |
CN103181173B (zh) * | 2010-10-27 | 2016-04-27 | 松下知识产权经营株式会社 | 三维图像处理装置、三维摄像装置以及三维图像处理方法 |
US9538133B2 (en) * | 2011-09-23 | 2017-01-03 | Jie Diao | Conveying gaze information in virtual conference |
-
2011
- 2011-01-05 KR KR1020110000776A patent/KR101852811B1/ko active IP Right Grant
- 2011-07-27 US US13/191,895 patent/US9071820B2/en not_active Expired - Fee Related
- 2011-08-01 TW TW100127202A patent/TWI499281B/zh active
- 2011-08-22 EP EP11006849.1A patent/EP2475177B1/en not_active Not-in-force
- 2011-09-02 CN CN201110263964.1A patent/CN102595157B/zh not_active Expired - Fee Related
- 2011-11-09 JP JP2011245687A patent/JP2012142917A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101895779A (zh) * | 2010-07-23 | 2010-11-24 | 深圳超多维光电子有限公司 | 立体显示方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
US20120169850A1 (en) | 2012-07-05 |
KR20120079548A (ko) | 2012-07-13 |
US9071820B2 (en) | 2015-06-30 |
EP2475177A1 (en) | 2012-07-11 |
JP2012142917A (ja) | 2012-07-26 |
TWI499281B (zh) | 2015-09-01 |
KR101852811B1 (ko) | 2018-04-27 |
EP2475177B1 (en) | 2016-09-28 |
CN102595157A (zh) | 2012-07-18 |
TW201230776A (en) | 2012-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102595157B (zh) | 显示3d图像的装置及其控制方法 | |
CN102214065B (zh) | 移动终端及其图像显示控制方法 | |
CN102446064B (zh) | 移动终端及其控制方法 | |
CN103973840B (zh) | 移动终端 | |
CN102467341B (zh) | 移动终端以及在其中控制图像拍摄的方法 | |
CN102385476B (zh) | 移动终端及其控制方法 | |
CN102857592B (zh) | 移动终端及其3d图像显示方法 | |
CN102348010B (zh) | 移动终端以及在其中控制三维图像的方法 | |
KR101873759B1 (ko) | 영상 표시 장치 및 그 제어방법 | |
KR20140016495A (ko) | 휴대 단말기 및 그 제어 방법 | |
CN104281402A (zh) | 移动终端及其控制方法 | |
CN104049740A (zh) | 移动终端及其控制方法 | |
KR20150041453A (ko) | 안경형 영상표시장치 및 그것의 제어방법 | |
KR20120102365A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120021414A (ko) | 이동 단말기 및 그 제어방법 | |
KR20120048397A (ko) | 휴대 단말기 및 그 동작 제어방법 | |
KR101737840B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101633336B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101629313B1 (ko) | 이동 단말기 및 그 제어 방법 | |
KR101882263B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR20110056816A (ko) | 휴대용 단말기 | |
KR101648453B1 (ko) | 휴대용 단말기 | |
KR20110060125A (ko) | 이동 단말기 및 그 제어방법 | |
KR101753033B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR20130053476A (ko) | 휴대 단말기 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151125 Termination date: 20180902 |
|
CF01 | Termination of patent right due to non-payment of annual fee |