CN102056002B - 图像显示装置及其控制方法 - Google Patents
图像显示装置及其控制方法 Download PDFInfo
- Publication number
- CN102056002B CN102056002B CN201010543023.9A CN201010543023A CN102056002B CN 102056002 B CN102056002 B CN 102056002B CN 201010543023 A CN201010543023 A CN 201010543023A CN 102056002 B CN102056002 B CN 102056002B
- Authority
- CN
- China
- Prior art keywords
- pointer
- image
- depth
- degree
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
Abstract
一种图像显示装置及其控制方法,该图像显示装置包括:遥控接口,其被配置为从遥控器接收信号;控制器,其被配置为基于接收到的信号来计算指针将要显示在所述图像显示装置的显示器上的第一指针位置,确定显示在所述图像显示装置的所述显示器上的三维(3D)对象的深度,并且基于所确定的所述3D对象的深度来计算第二指针位置;以及视频处理器,其被配置为在所述图像显示装置的所述显示器上的计算出的所述第二指针位置处显示所述指针。
Description
技术领域
本发明涉及一种图像显示装置以及用于按照相同深度等级显示三维(3D)对象和指针的相应方法。
背景技术
本申请要求2009年11月5日提交的美国专利申请No.61/258,215的优先权,其公开内容通过引证的方式全部合并到本申请中。
图像显示装置能够在显示器上对用户从广播台发送的多个广播节目中选出的广播节目进行显示。近年来广播的趋势是在世界范围内从模拟广播转换到数字广播。而且,与模拟广播相比数字广播具有很多优点,例如抗噪声鲁棒性、数据丢失更小、纠错更容易以及提供高清图像的能力。数字广播还包括用户交互服务。
然而,随着为满足各种用户需要而增加广播频道数量,用户不得不在大量频道中选出期望的频道,这对于用户来说通常是费时而且乏味的。显示装置也要花时间切换到所选频道并进行显示。
显示装置所配置的遥控器也包含很多按钮,使得用户能够进行选择以在显示装置或与显示装置相连的其它设备上执行不同的功能。遥控器还使得用户能够通过指针来选择显示器上的选项。然而,直观地观看显示器上的指针比较困难,高级的屏幕显示器尤其如此。
发明内容
因此,本发明的一个目的是解决上述问题和其它问题。
本发明的另一目的是提供一种新颖的图像显示装置和相应控制方法,其中3D对象和指针以相同深度显示在图像显示装置的显示器上。
为了实现这些和其它优点并根据本发明的目的,如在此具体实施并广义上描述的,本发明在一个方面提供了一种用于控制图像显示装置的方法,该方法包括:经由遥控接口从遥控器接收信号;经由控制器基于接收到的信号来计算指针将要显示在所述图像显示装置的显示器上的第一指针位置;经由所述控制器确定显示在所述图像显示装置的所述显示器上的三维(3D)对象的深度;经由所述控制器基于所确定的所述3D对象的深度来计算第二指针位置;并且经由视频处理器在计算出的所述第二指针位置处显示所述指针。
在另一方面,本发明提供了一种图像显示装置,该图像显示装置包括:遥控接口,其被配置为从遥控器接收信号;控制器,其被配置为基于接收到的信号来计算指针将要显示在所述图像显示装置的显示器上的第一指针位置,确定显示在所述图像显示装置的所述显示器上的三维(3D)对象的深度,并且基于所确定的所述3D对象的深度来计算第二指针位置;以及视频处理器,其被配置为在所述图像显示装置的所述显示器上的计算出的所述第二指针位置处显示所述指针。
从下面给出的具体描述中,显然可以得出本发明更进一步的应用范围。然而应当理解,表示本发明优选实施方式的具体描述和特定实例仅仅是示例性的,本领域技术人员显然可以根据这些具体描述在本发明的精神和范围内进行各种更改和变型。
附图说明
通过下面给出的详细描述并结合附图,将可以更加全面地理解本发明,附图仅仅是示意性的,因此并不对本发明构成限制,并且其中:
图1A-1B是示出根据本发明一个实施方式的图像显示装置和空间遥控器的立体图;
图2是根据本发明一个实施方式的空间遥控器的框图;
图3和图4是根据本发明一个实施方式的图像显示装置的框图;
图5包括图3和图4所示的图像显示装置可用的3D图像格式的概图;
图6A、图6B和图6C是示出图3所示的图像显示装置中显示的图像的示图;
图7是示出根据本发明一个实施方式的图3和图4所示的图像显示装置的操作方法的流程图;
图8A-图12是用于描述图3和图4所述的图像显示装置所参考的概图;
图13是示出图7所示的图像显示装置的操作方法的流程图;以及
图14A-15B是用于描述图3和图4所述的图像显示装置所参考的概图。
具体实施方式
下面将参照附图对本发明的示例性实施方式进行描述。
图像显示装置可由遥控器发送的单个或多个信号控制。因此,用户可以利用遥控器向图像显示装置输入诸如开/关命令、频道前进/后退命令、音量增大/减小命令之类的命令。遥控器还向图像显示装置发送携带与用户操作相对应的命令的信号,而图像显示装置执行与包含在接收到的信号中的命令相对应的操作。
遥控器还可根据红外线(IR)通信标准和其它无线通信标准向图像显示装置发送信号。遥控器还可配置用于检测用户动作,并向图像显示装置发送携带与用户动作相对应的命令的信号,这种遥控器称为空间遥控器。
例如,图1A-1B是示出根据本发明一个实施方式的图像显示装置100和用于向图像显示装置100发送命令的空间遥控器200的立体图。参照图1A-1B,在操作中,空间遥控器200根据射频通信标准向图像显示装置100发送射频(RF)信号或从图像显示装置100接收射频(RF)信号。如图1A所示,表示空间遥控器200的运动的指针201可以显示在图像显示装置100上。
此外,用户可以上下、前后和左右地移动空间遥控器200,或者转动空间遥控器200。然后,如图1B所示,指针201根据空间遥控器200的运动而在图像显示装置100上移动。更具体地,参照图1B,如果用户将空间遥控器200移动到左边,则指针201也移动到左边。
此外,空间遥控器200包含能够检测动作的传感器,从而检测空间遥控器200的运动,并将与检测结果相对应的动作信息发送到图像显示装置100。然后,图像显示装置100根据从空间遥控器200接收到的动作信息来确定空间遥控器200的运动,并基于确定的结果来计算根据空间遥控器200的运动应将指针201移动至的目标点的坐标。接着,图像显示装置100将指针201显示在计算出的坐标处。
如图1A-1B所示,指针201可以根据空间遥控器200的垂直运动、水平运动或旋转而在图像显示装置100上移动。指针201的移动速度和方向也可与空间遥控器200的运动速度和方向相对应。或者,可以响应于空间遥控器200的运动而向图像显示装置100输入操作命令。例如,当用户前后移动空间遥控器200时,显示在图像显示装置100上的图像可以逐渐放大或缩小。
接下来,图2是图1A-1B所示的空间遥控器200的框图。参照图2,空间遥控器200包括无线通信模块220、用户输入部230、传感器部240、输出部250、电源260、存储器270以及控制器280。无线通信模块220可以向图像显示装置100发送信号和/或从图像显示装置100接收信号,并且该无线通信模块包括射频模块221,该射频模块用于根据射频通信标准向图像显示装置100发送射频信号和/或从图像显示装置100接收射频信号。
此外,无线通信模块220还包括红外模块223,该红外模块用于根据红外通信标准向图像显示装置100发送红外信号和/或从图像显示装置100接收红外信号。在本实施方式中,空间遥控器200还通过射频模块221向图像显示装置100发送携带与空间遥控器200的运动相关的运动信息的信号。空间遥控器200还可通过射频模块221从图像显示装置100接收信号,并且在需要时通过红外模块223向图像显示装置100发送命令,如开/关命令、频道切换命令、音量调节命令。
用户输入部230例如还包括键盘和/或多个按钮。用户可以通过操作用户输入部230来输入控制图像显示装置100的命令。如果用户输入部230包括多个硬键按钮,则用户可通过按压硬键按钮来输入各种命令以控制图像显示装置100。另选地或作为补充,如果用户输入部230包括显示多个软键的触摸屏,则用户可通过触摸软键向图像显示装置100输入各种命令。除了此处所述的输入工具之外,用户输入部230还可包括其它各种输入工具,例如滚动键和/或拨动键等。
此外,图2中的传感器部240包括陀螺传感器241和/或加速度传感器243。陀螺传感器241可检测空间遥控器200例如在X、Y、Z轴方向的运动,而加速度传感器243可检测空间遥控器200的运动速度。此外,输出部250可输出与用户输入部230的操作相对应的视频和/或音频信号或图像显示装置100发送的信号。根据输出部250输出的视频和/或音频信号,用户能够容易地识别用户输入部230是否受到操纵,或图像显示装置100是否已被控制。
例如,输出部250包括发光二极管(LED)模块251,其在用户输入部230受到操纵或者通过无线通信模块230从图像显示装置100接收信号或向图像显示装置100发送信号时进行开关。输出部250还包括用于产生振动的振动模块253、用于输出声音的音频输出模块255和/或用于输出图像的显示模块257。
此外,电源260向空间遥控器200供电,并且如果空间遥控器200在预定时间或更长时间内保持静止,则电源260例如减少或切断空间遥控器200的供电以节约电力。接着,例如如果空间遥控器200上的特定键受到操纵,则电源260恢复供电。
此外,存储器270存储用于控制或驱动空间遥控器200的各种程序和应用数据。并且,空间遥控器200能够在射频模块221的协助下以预定频带向图像显示装置100无线地发送信号和/或从图像显示装置100无线地接收信号。因此,空间遥控器200的控制器280能够将与用于空间遥控器200向图像显示装置100无线地发送信号和/或从图像显示装置100无线地接收信号的频带相关的信息存储在存储器270中,然后在后续的应用中参考该信息。
此外,控制器280提供对空间遥控器200的整体控制。例如,控制器280能够通过无线通信模块220向图像显示装置100发送与从用户输入部230检测到的按键操作相对应的信号或者与传感器部240检测到的空间遥控器200的动作相对应的信号。
接下来,图3是根据本发明一个实施方式的图像显示装置100的框图。参照图3,图像显示装置100包括广播信号接收器110、网络接口120、外部设备输入/输出(I/O)部130、遥控器接口140、控制器150、用户接口(UI)控制器160、音频/视频(A/V)处理器170、显示器180和音频输出部185。
广播信号接收器110能接收与用户选择的频道对应的射频广播信号,或通过天线接收的多个射频广播信号中与所有预先存储的频道对应的射频广播信号,将接收到的射频广播信号下变频为数字中频(IF)信号或模拟基带A/V信号,并将数字中频信号或模拟基带A/V信号输出到A/V处理器170。广播信号接收器110还能从高级电视系统委员会(ATSC)单载波系统或数字视频广播(DVB)多载波系统接收射频广播信号。
此外,广播信号接收器110能够通过频道增加功能顺序地或周期性地从多个通过天线接收的射频信号中选择与多个预先存储的广播频道相对应的多个射频广播信号,将选择的射频广播信号下变频为红外信号或基带A/V信号。该操作可用于在显示器180上显示包含了与预先存储的广播频道相对应的多个缩略图的缩略图清单。从而可以接收与选择的频道相对应的射频广播信号,或顺序地或周期性地接收与所有预先存储的广播频道相对应的射频广播信号。
此外,网络接口120将图像显示装置100与包含互联网的有线/无线网络连接,并且可包括用于将图像显示装置100无线地连接到互联网的无线通信模块。对于无线互联网接入,无线通信模块可根据无线局域网(WLAN)(即Wi-Fi)、无线宽带(Wibro)、全球微波接入互操作性(WiMax)或高速下行链路分组接入(HSDPA)标准来进行操作。网络接口120还能通过网络从内容供应商或网络运营商接收内容或数据,具体包括例如广播、游戏、视频点播(VOD:Video On Demand)、广播信号等内容以及与内容相关的信息。此外,网络接口120可以从例如网络运营商接收固件更新信息和更新文件。
此外,外部设备I/O部130可将图像显示装置100连接到外部设备。对于图像显示装置100与外部设备间的连接,外部设备I/O部130可包括A/V I/O部或无线通信模块。并且,外部设备I/O部130无线或有线连接到外部设备(例如数字多功能光盘(DVD)、蓝光光盘、游戏设备、照相机、摄像机或计算机(如笔记本计算机))。然后,外部设备I/O部130从外部设备接收视频、音频和/或数据信号,并将接收到的外部输入信号发送到图像显示装置100的A/V处理器170。此外,外部设备I/O部130可将经过A/V处理器170处理的视频、音频和数据信号输出到外部设备。
此外,为了将从外部设备接收的A/V信号发送到图像显示装置100,外部设备I/O部130的A/V I/O部可以包括以太网端口、通用串行总线(USB)端口、复合视频消隐同步(CVBS)端口、部件端口、超级视频(S-video)(模拟)端口、数字视频接口(DVI)端口、高清多媒体接口(HDMI)端口、红绿蓝(RGB)端口和D-sub端口。外部设备I/O部130的无线通信模块还能与其他电子设备进行无线通信。对于无线通信,图像显示装置100可通过蓝牙、射频识别(RFID)、红外数据通信(IrDA)、超宽带(UWB)或ZigBee连接到其他电子设备。
此外,外部设备I/O部130可通过以下端口的至少一种连接到各种机顶盒:以太网端口、USB端口、CVBS端口、部件端口、S-video端口、DVI端口、HDMI端口、RGB端口和D-sub端口,因此可以从各种机顶盒接收数据或向机顶盒发送数据。例如,当连接到网际协议电视(IPTV)机顶盒时,外部设备I/O部130可将经过IPTV机顶盒处理的视频、音频和数据信号发送到A/V处理器170,并将从A/V处理器170接收的各种信号发送到IPTV机顶盒。
此处采用的术语“IPTV”涵盖了取决于传输网络的较宽的服务范围,如非对称数字用户线路电视(ADSL-TV)、极高速数字用户线路电视(VDSL-TV)、光纤到户电视(FTTH-TV)、数字用户线路(DSL)电视、DSL视频、IP电视(TVIP)、宽带电视(BTV)、网络电视、全网络浏览电视,它们能提供互联网访问服务。外部设备I/O部130还可连接到支持语音通话或视频通话的通信网络。并且,通信网络可为广播通信网络、公共交换电话网(PSTN)和移动通信网络中的任意一种。
此外,遥控器接口140包括用于向空间遥控器200无线地发送信号和/或从空间遥控器200无线地接收信号的无线通信模块,以及用于计算根据空间遥控器200的运动应将指针201移动至的显示器180上的目标点的指针坐标对的坐标计算器。遥控器接口140还可通过射频模块向空间遥控器200无线地发送射频信号和/或从空间遥控器200无线地接收射频信号。并且,遥控器接口140可通过红外模块向空间遥控器200无线地发送红外信号和/或从空间遥控器200无线地接收红外信号。
此外,遥控器接口140的坐标计算器可从空间遥控器200的无线通信模块接收与空间遥控器200的运动相关的动作信息,并通过校正用户的手晃动或其它可能误差产生的动作信息来计算应将指针201移动至的显示器180屏幕上的目标点的指针坐标对(X,Y)。
此外,在图像显示装置100中通过遥控器接口140从空间遥控器200接收到的信号被输出到控制器150。然后,控制器150可根据从遥控器接口140接收到的信号获得与空间遥控器200的运动相关的信息以及与从空间遥控器200检测到的按键操作相关的信息,并根据获得的信息来控制图像显示装置100。
或者,遥控器200可计算与空间遥控器200的运动相对应的指针坐标(X,Y),并将计算出的指针坐标(X,Y)输出到遥控器接口140。然后,遥控器接口140可将收到的指针坐标(X,Y)发送到控制器150,并校正或不校正与用户手的晃动或可能误差有关的移动。
此外,控制器150对图像显示装置100进行整体控制,并可通过遥控器接口140从空间遥控器200接收信号。并且,控制器150可通过图像显示装置100中提供的本地键的输入来接收命令。然后,控制器150识别包含在接收信号中的命令或与本地键操作相对应的命令,并根据命令来控制图像显示装置100的操作。例如,在从用户处收到选择特定频道的命令时,控制器150控制广播信号接收器110在选择的频道上接收广播信号。控制器150还控制A/V处理器170对在选择的频道上收到的广播信号中的音频和视频信号进行处理,并将用户选择的频道的相关信息连同音频和视频信号分别输出到音频输出部185和显示器180。
在另一示例中,用户可通过空间遥控器200输入命令以向图像显示装置100输出不同类型的A/V信号。例如,用户需要浏览通过外部设备I/O部130从照相机或摄像机接收的视频信号。此时,控制器150控制A/V处理器170将通过外部设备I/O部130的USB端口收到的A/V信号输出到音频输出部185或显示器180。
此外,UI控制器160生成与图像显示装置100相关的图形UI(GUI),并通过A/V处理器170将GUI输出到显示器180或音频输出部185。还可根据以下各项来改变GUI:包含在从空间遥控器200接收的信号中的命令、通过图像显示装置100中设置的本地键进行输入而收到的命令或图像显示装置100的操作。
例如,在从空间遥控器200收到信号时,UI控制器160可生成与空间遥控器200的运动相对应的指针图像信号,并将指针图像信号输出到A/V处理器170。控制器150还可计算根据从空间遥控器200接收的信号应将指针201移动至的目标点的指针坐标,并将与计算出的指针坐标相关的信息输出到UI控制器160。进而,UI控制器160可根据收到的指针坐标信息生成指针图像信号。
A/V处理器170对指针图像信号进行处理,使得指针201对应于指针图像信号而显示在显示器180上。显示在显示器180上的指针201还根据空间遥控器200的运动而移动。在另一示例中,UI控制器160可针对UI而生成图像信号(UI包含与通过空间遥控器200接收到的信号中的命令相对应的对象、通过本地键进行输入而收到的命令或图像显示装置100的操作),并将UI图像信号输出到A/V处理器170。
对象包括各类窗件(widget),通过这些窗件可将命令输入到图像显示装置100或将与图像显示装置100的相关信息提供给用户。这些窗件也可进行在屏显示(OSD)。此外,对象包括用于提供与图像显示装置100相关的信息或图像显示装置100所示图像的图像或文本(例如声音输出(音量)等级、频道信息、当前时间等)。根据可以或应当显示在图像显示装置100上的信息类型,对象也可被实现为任何其他类型(例如运动图像)。应当理解,本实施方式所述的对象并不能构成对本发明的限制。
此外,窗件是一种使用户能够在GUI中自行改变特定数据的部件。例如,窗件可为显示在显示器180上的以下各项之一:音量按钮、频道按钮、菜单、图标、导航标签、滚动条、进度条、文本框、以及窗口。在图像显示装置100中实现的窗件的类型随着能够或应当在图像显示装置100中实现的GUI的规范而变化。本实施方式的窗件不应被解释为对本发明构成限制。
此外,A/V处理器170对A/V信号进行处理,A/V信号包含在通过适用于显示器180的广播信号接收器110、网络接口120或外部设备I/O部130接收的信号中。然后,A/V处理器170可根据包含在随同A/V信号收到的数据信号中的信息对A/V信号进行处理。A/V处理器170还对通过UI控制器160接收的A/V信号进行处理,使得A/V信号能够输出到音频输出部185或显示器180。用户还可根据UI控制器160生成的A/V信号来识别图像显示装置100的工作状态,或在显示器180显示的GUI中输入与图像显示装置100相关的命令。
此外,A/V处理器170可根据从控制器150接收到的用户命令来选择待处理的A/V信号。A/V信号对应于通过音频输出部185或显示器180输出的声音或图像。通过控制器150接收的命令还可包括广播频道选择命令、从输入到图像显示装置100的内容中选择待播放内容的命令等。在本实施方式中,A/V处理器170对视频信号进行处理,使得从外部接收的二维(2D)或三维(3D)视频信号可以显示在显示器180上。A/V处理器170还可对视频信号进行处理,使得UI控制器160生成的UI能够以3D形式显示在显示器180上。A/V处理器170将在下面参照图4详细描述。
此外,显示器180通过将如下信号转换为RGB信号而生成驱动信号:在A/V处理器170中处理的视频信号、数据信号、OSD信号,或从外部设备I/O部130接收的视频信号和数据信号。显示器180可以实现为等离子显示板(PDP)、液晶显示器(LCD)、有机发光二极管(OLED)或柔性显示器。在本发明的一个实施方式中,显示器180能够进行3D显示。
更具体地,根据用户如何观看3D图像,可将3D显示技术划入自动立体显示技术和双目立体显示技术。自动立体显示技术可在显示器中实现3D图像而无需采用辅助设备。也即是说,用户可以不使用辅助设备(如偏振眼镜)就能在自动立体显示器上观看3D图像。此外,自动立体显示技术包括透镜类型、视差屏障类型等。
双目立体显示技术采用辅助设备来实现3D图像。头盔显示器(HMD)和眼镜都属于双目立体显示技术。眼镜式显示器要求诸如采用偏振眼镜、快门眼镜、光谱滤光镜之类的眼镜。
此外,显示器180还可实现为触摸屏,使得显示器180不仅能用作输出设备,也能用作输入设备。此外,音频输出部185接收经过A/V处理器170处理的音频信号(如立体声信号、3.1频道信号或5.1频道信号),并将音频信号作为语音或声音输出。音频输出部185也可实现为各种类型的扬声器。
接下来,图4是根据本发明一个实施方式的图像显示装置100中的A/V处理器170的框图。如图所示,A/V处理器170包括解调器171、解复用器172、解码器173、混合器174和格式器175。解调器171对从广播信号接收器110接收到的广播信号进行解调。例如,解调器171可从广播信号接收器110接收数字中频DIF信号并对该数字中频DIF信号进行解调。解调器171也可进行频道解码。对于频道解码过程,解调器171可包括卷积解码器、解交织器和里德-所罗门解码器,并且进行卷积解码、解交织和里德-所罗门解码。
解调器171还可对从广播信号接收器110接收的数字中频信号进行解调和频道解码,从而获得流信号TS。更具体地,流信号TS是复用了视频信号、音频信号和数据信号的一种信号。例如,流信号TS可为通过复用MPEG-2视频信号和杜比AC-3音频信号而获得的运动图像专家组-2(MPEG-2)传输流(TS)信号。MPEG-2TS信号也可包括4字节报头和184字节有效载荷。
为了正确处理ATSC信号和DVB信号,解调器171还可包括ATSC解调器和DVB解调器。此外,解调器171将流信号TS输出到解复用器172。接着,解复用器172将输入流信号TS(如MPEG-2TS)解复用为音频信号、视频信号和数据信号。解复用器172还可从解调器171、网络接口120或外部设备I/O部130接收流信号。
此外,通过解复用输入流信号而获得的数据信号可为编码数据信号,该编码数据信号可包括例如电子节目指南(EPG:Electronic ProgramGuide)信息,EPG信息用于提供广播信息(例如各个广播频道所播放的广播节目的起始时间)。例如,EPG信息可为ATSC的ATSC节目和系统信息协议(TSC-PSIP)信息,也可为DVB的DVB服务信息(DVB-SI)。
解码器173还可对解复用后的信号进行解码。在本实施方式中,解码器173包括用于对解复用后的视频信号进行解码的视频解码器173a,以及用于将解码后的视频信号的分辨率控制在使解码后的视频信号能在图像显示装置100中输出的分辨率水平的定标器(scaler)173b。此外,混合器174将从外部设备输入到图像显示装置100的视频信号与UI控制器160生成的视频信号相混合。然后,显示器180根据混合视频信号来显示图像。
此外,格式器175通过参照与视频信号相关的数据信号可以识别从混合器174接收的混合视频信号的格式。然后,格式器175将混合视频信号转换成适用于显示器180的格式,并将转换后的视频信号输出到显示器180。
此外,在本实施方式中,图像显示装置100可在显示器180上显示3D图像。特别地,格式器175将混合视频信号分离为多视角图像,并利用多视角图像生成预定格式的3D图像信号。格式器175还将3D图像信号输出到显示器180,并且显示器180根据3D图像信号来显示3D图像。
此外,3D图像是利用多视角图像而形成的。接着,用户用左眼和右眼观看多视角图像。左眼和右眼看到的多视角图像之间的视差使得用户看到3D幻像(illusion)。形成3D图像的多视角图像包括左眼可见的左眼图像和右眼可见的右眼图像。
更具体地,图5示出了可实现3D图像的3D图像格式。根据为形成3D图像而生成左眼图像和右眼图像的分布来划分3D图像格式。参照图5(a),左眼图像和右眼图像分别布置在左右两侧,称为并排格式。
参照图5(b),左眼图像和右眼图像以垂直式(top and bottom)的格式垂直布置。参照图5(c),左眼图像和右眼图像为时分布置,称为帧连续格式。参照图5(d),左眼图像和右眼图像逐行交替布置,称为交织格式。参照图5(e),左眼图像和右眼图像以棋盘的形式混合,称为棋盘格式。
此外,包含在从外部设备接收到的信号中的视频信号以及UI控制器160生成的GUI视频信号也可为实现3D图像的3D图像信号。此外,混合器174混合这些3D图像信号并将混合后的3D图像信号输出到格式器175。接着,格式器175参照相关的数据信号可识别混合3D图像信号的格式,根据识别的格式处理3D图像信号,并将处理后的3D图像信号输出到显示器180。
此外,如果显示器180具有有限的3D图像格式,则格式器175可将收到的3D图像信号转换为其中显示器180能够显示3D图像的3D图像格式,并将转换后的3D图像信号输出到显示器180。并且,如果格式器175采用相关的数据信号未能识别输入的混合3D图像信号的格式,则可以采用预定算法来识别输入的混合3D图像信号的格式。例如,可以通过分析根据输入的3D图像信号生成的图像的边缘来识别格式。此外,如果格式器175接收了用于形成2D图像的混合2D信号,则格式器175可采用2D-3D转换算法根据2D图像信号来生成3D图像信号。
接下来,图6A、6B和6C示出了根据本发明一个实施方式的图3所示的图像显示装置100中显示的图像。更进一步,图像显示装置100可以采用图5所示的3D图像格式中垂直式的格式来显示3D图像。具体地说,图6A示出了当图像显示装置100中断图像再现时显示器180上显示的图像。因此,由于多视角图像以垂直式的格式上下设置,因此图像再现的中断导致上下图像191、192分开显示,如图6A所示。
当图像显示装置100支持双目立体显示方案时,显示在显示器180上的图像在用户看来像是失焦,除非用户戴上3D眼镜(如偏振眼镜)。因此,如图6B所示,3D对象193A、193B、193C看起来像是失焦。如果显示器180上显示的图像193为3D图像,则图像193看起来也像是失焦。
图6C示出了用户采用3D眼镜(如偏振眼镜)来观看如图6B所示的图像显示装置的画面。参照图6C,图像194和3D对象194A、194B、194C在显示器180上准确对焦。3D对象194A、194B、194C也看起来向着用户突出。并且,如果图像显示装置100支持自动立体显示方案,则用户无需佩戴3D眼镜(如偏振眼镜)就能观看图6C所示的画面。
更进一步,在本发明的一个实施方式中,3D对象可包括提供与图像显示装置100相关的信息的图像或文本或在图像显示装置100上显示的图像(如声音输出(音量)等级、频道信息、当前时间等)。例如,3D对象可为显示在显示器180上的以下各项之一:音量按钮、频道按钮、菜单、图标、导航标签、滚动条、进度条、文本框、窗口。因此,用户利用这些3D对象获得关于图像显示装置100的信息或关于在图像显示装置100上显示的图像的信息。用户也可利用显示器180上显示的对象来向图像显示装置100输入命令。
此外,为了提供朝向用户突出的感觉,将3D对象的深度设置为正值。并且,看起来离开用户一定距离的2D或3D对象的深度设置为0。因此,为了使得一个3D对象看起来比深度为0的2D或3D对象离用户更远,可将该3D对象的深度设置为负值。因此,由于3D对象越深,其看起来就越朝着用户突出。
此外,在本发明的实施方式中,3D对象是经过处理以给出3D幻像的对象。可以通过采用多视角图像来实现3D对象,并且3D对象的深度取决于3D对象的多视角图像之间的视差。在此例中,格式器175生成的3D对象的多视角图像之间的视差可与3D对象的深度相对应。并且,尽管出于例示目的将3D对象显示为图6C所示的画中画(PIP)图像,但是本发明并不限于此,可以将用于提供广播节目信息的EPG、图像显示装置100的各种菜单、窗件、图标等配置为3D对象。
接下来,图7是示出根据本发明一个实施方式的图像显示装置100的操作方法的流程图。如图所示,图像显示装置100从空间遥控器200接收信号(S10)。接着,根据包含在接收的信号中的命令来控制图像显示装置100。此外,图像显示装置100可根据包含在从空间遥控器200接收到的信号中的信息来在显示器180上显示指针201,并根据从空间遥控器200接收到的信号来移动指针201。例如,指针201对应于空间遥控器200的运动而移动。在另一示例中,指针201可根据从空间遥控器200接收到的图像显示装置相关命令的类型而成形。
如上所述,图像显示装置100可显示3D图像。例如,图像显示装置100能够以使得3D对象看起来朝着用户突出的方式显示3D对象。在本实施方式中,图像显示装置100还根据包含在显示器180所显示的3D图像中的3D对象的深度来显示指针201。即指针201的深度对应于3D对象的深度。此外,可以根据3D对象的深度来确定指针201的亮度、大小和/或形状。如前所述,本发明的实施方式中采用的遥控器可为如图1A、1B所示的空间遥控器200。
再次参照图7,图像显示装置100在步骤S10中根据各种无线通信标准(包括红外通信标准、射频通信标准等)通过遥控器接口140从空间遥控器200接收信号。遥控器接口140还将接收到的信号输出到控制器150。
接着,控制器150根据接收到的信号来计算表示应将指针201移动至的目标点的指针坐标(S15)。具体地说,控制器150采用手抖动消除算法来计算与空间遥控器200的运动相对应的指针坐标。此外,指针坐标表示指针201在显示器180上所处的位置。或者,空间遥控器200计算指针坐标,并且将携带与计算出的指针坐标相关的信息的信号发送到图像显示装置100。接着,控制器150可以从接收到的信号中提取指针坐标信息,并相应地确定指针坐标。
接着,控制器150确定3D图像是否能够在图像显示装置100中实现(S20)。并且,其中设置了3D图像的图像显示装置100的模式称为3D图像模式。如果图像显示装置100未处于3D图像模式中(S20中的“否”),则控制器150在计算出的指针坐标处显示指针201(S25)。例如,指针可以二维地显示在显示器180上,从而使得2D指针201深度为0。另一方面,如果图像显示装置100处于3D图像模式中(S20中的“是”),则控制器150确定设置在图像显示装置100中的当前3D对象的深度(S30)。此外,可根据经过格式器175处理的3D图像信号来确定3D对象的深度。
例如,控制器150能够对格式器175生成的3D对象的多视角图像进行分析。具体地说,控制器150能够分析3D对象的多视角图像之间的视差(例如3D对象的左眼图像和右眼图像之间的视差),这是因为3D对象的深度取决于其左眼图像和右眼图像之间的视差。
控制器150还能够根据分析结果来生成3D对象的深度信息,并根据深度信息确定图像显示装置100所显示的3D对象的深度。此外,控制器150能够定期地或在预定事件发生时更新深度信息。例如,如果发生了触发3D对象深度变化的事件,则控制器150可以更新深度信息。
此外,控制器150能够将指针坐标信息和深度信息输出到UI控制器160。接着,UI控制器160生成与接收到的信息相对应的指针图像信号,并将指针图像信号输出到混合器174。生成指针图像信号时,UI控制器160还参照了指针图像信息(S35)。此外,指针图像信息包括与具有不同深度的、用于指针201的指针图像相关的信息。例如,可根据指针图像的左眼图像和右眼图像之间的视差(具体地说,指针图像的左眼图像和右眼图像的显示位置之间的距离)来确定指针201的深度。指针图像信息还可包括各种深度下关于左眼图像和右眼图像的信息以及关于左眼图像和右眼图像之间距离的信息。
因此,UI控制器160生成按照控制器150参照指针图像信息确定的3D对象深度来显示指针201的指针图像信号。在另一示例中,指针图像信息可以包括关于各种深度下指针201的亮度等级、大小或形状的信息。接着,UI控制器160可以生成按照与控制器150确定的3D对象深度相对应的亮度、大小或形状来显示指针201的指针图像信号。
接着,格式器175根据从UI控制器160接收到的指针图像信号而生成指针图像的多视角图像,并将指针图像的多视角图像显示在显示器180上(S40)。并且,显示在显示器180上的指针201的深度、亮度、大小和形状中的至少一个可以与当前显示的3D对象的深度相对应。
接下来,图8A、8B、8C是用于描述图7所示的图像显示装置100的操作方法所参考的图。此外,图像显示装置100能够通过改变指针201的多视角图像的显示位置而控制指针201的深度。在一个实施方式中,多视角图像为左眼图像和右眼图像。
更具体地说,图8A示出了在预定显示平面D1上形成指针P的左眼图像SL和右眼图像SR的显示位置。接着,用户以左眼L观看左眼图像SL,以右眼观看右眼图像SR。由于左眼图像SL和右眼图像SR的显示位置之间存在视差,用户感觉到指针P好像位于显示该左眼图像SL和右眼图像SR的显示平面D1之后。
参照图8B,左眼图像SL和右眼图像SR显示在相同的位置。因此,用户感觉到指针P好像位于显示该左眼图像SL和右眼图像SR的显示平面D1之上。参照图8C,左眼图像SL显示在右眼图像SR的右侧。因此,用户感觉到指针P好像从显示该左眼图像SL和右眼图像SR的显示平面D1向着用户突出。
从图8A、8B、8C可知,UI控制器160生成指针图像信号,使得指针的多视角图像能够显示在与指针的预期深度相对应的位置,并将指针图像信号输出到混合器174。此外,当指针看起来向着用户突出时,UI控制器160以使得指针变大或变亮的方式生成指针图像信号,并将指针图像信号输出到混合器174。
接下来,图9是用于描述图7所示的图像显示装置100的操作方法所参考的图。更具体地说,UI控制器160根据将要显示指针的位置来存储指针图像信息并参照该指针图像信息。如图7所示,其上显示了指针的多视角图像的预定显示平面D2分为多个块。接着,UI控制器160逐块地存储指针图像信息。
此外,UI控制器160采用从控制器150接收到的指针坐标信息来识别将要显示指针的块。UI控制器160还根据控制器150确定的3D对象深度来计算指针将要显示的深度,并参照与指针图像信息查找表中的指针深度相对应的指针图像信息来生成指针图像信号。
再次参照图9,UI控制器160包括针对每个块B2的指针图像信息查找表T2。在本发明的一个实施方式中,针对3D对象和指针定义了11个深度等级。当深度等级为-5至-1时,3D对象和指针看起来位于显示平面D2之后。并且,如果3D对象和指针看起来位于显示平面D2之前,则其深度等级为+1至+5。
并且,在本发明的一个实施方式中,对于每个指针深度,指针图像信息查找表包含关于左眼图像SL和右眼图像SR的信息(具体地说,关于显示左眼图像SL和右眼图像SR的位置的信息)。因此,在生成例如深度等级为-5的指针图像信号时,UI控制器160参照关于与深度等级-5相对应的左眼图像和右眼图像的信息。
此外,对于每个指针深度,指针图像信息查找表能够存储关于左眼图像SL和右眼图像SR的信息(具体地说,关于左眼图像SL和右眼图像SR的亮度等级、大小或形状的信息)。因此,在生成例如深度等级为-5的指针图像信号时,UI控制器160参照关于与深度等级-5相对应的左眼图像和右眼图像的信息,从而确定指针的亮度等级、大小或形状。
接下来,图10是用于描述图7所示的图像显示装置的操作方法所参考的图。更具体地说,控制器150可以根据格式器175生成的3D对象的多视角图像之间的视差(具体地说,3D对象的多视角图像的显示位置之间的距离)来计算3D对象的深度,并存储3D对象深度信息。
当生成了触发指针显示的事件时,控制器150参照存储的3D对象深度信息来确定当前显示的3D对象的深度。或者,当生成了触发指针显示的事件时,控制器150计算3D对象深度信息并参照3D对象深度信息。控制器150可将3D对象深度信息通知到UI控制器160。
再次参照图10,为了实现3D图像,将3D图像的左眼图像和右眼图像显示在显示器180上(S100)。接着,控制器150逐块地存储左眼图像和右眼图像的图像数据(S105)并对存储的图像数据进行分析(S110)。在一个实施方式中,控制器150计算显示在特定块中的左眼图像和右眼图像的边缘(S115),并检测计算出的边缘的起始像素和终止像素(S120)。控制器150还计算左眼图像和右眼图像的边缘起始像素之间的差值和边缘终止像素之间的差值。也即是说,控制器150计算左眼图像和右眼图像之间的边缘位移值(S125)。接着,控制器150计算当前显示的3D对象(具体地说,边缘已被检测的3D对象)的深度(S130)。
接下来,图11是列出了针对计算出的位移值的3D对象深度的表格。因此,控制器150能够参照上表,并根据左眼图像和右眼图像的边缘起始像素之间的位移值和边缘终止像素之间的位移值以及左眼图像和右眼图像的位移方向来获得3D对象的深度信息。
图12A、12B是用于描述图7所示的图像显示装置的操作方法的图。在一个实施方式中,图像显示装置100能够将3D对象和指针显示为似乎向着特定基准点(RP:reference point)或用户突出。参照图12A,3D对象311的多视角图像和指针312的多视角图像以相同深度感觉显示在预定的显示平面D3上,并且看起来向着RP突出。
此外,指针312根据空间遥控器200的运动而相应地运动,并且显示在根据从空间遥控器200接收到的信号而计算出的指针坐标处。同时,指针312的深度与图像显示装置100显示的3D对象311的深度相对应。参照图12B,如果3D对象316显示为看起来朝着用户或RP更加突出,则位于相同指针坐标的指针317的深度也相应于3D对象316的深度而变化。
接下来,图13是示出根据本发明另一实施方式的图7所示的图像显示装置的操作方法的流程图。在本实施方式中,控制器150参照3D对象的深度信息,并根据深度信息来控制显示器180的亮度。控制器150还能选择性地控制在显示器180上显示3D图像的区域的亮度。因此,可以根据深度信息来改变3D对象或指针的亮度。并且,当控制器150直接控制显示器180的亮度时,无需重新处理3D对象和指针的图像信号来改变3D对象或指针的亮度。
参照图13,控制器150确定图像显示装置100是否处于3D图像模式(S200)。在3D图像模式中(S200中的“是”),控制器150参照3D图像的深度信息(S210)。3D图像的深度信息可以根据3D图像的多视角图像的视差而获得。接着,控制器150根据深度信息来控制显示器180的、显示有3D对象的多视角图像的特定区域的亮度(S220)。此外,如果显示器180是采用LED作为背光的LCD,则控制器150可以通过控制特定区域的背光LED来控制特定区域的亮度。
接下来,图14A-15B是用于描述根据本发明一个实施方式的图7所示的图像显示装置的操作方法所参考的图。参照图14A、14B,3D图像的多视角图像可以显示在预定显示平面D4的特定块B41或B42中。如果多视角图像为左眼图像和右眼图像,则3D图像的深度由左眼图像和右眼图像之间的视差决定。此外,显示在图14A所示的块B41中的多视角图像之间的视差小于显示在图14B所示的块B42中的多视角图像之间的视差。
结果,与结合了图14B所示的左眼图像和右眼图像的3D图像相比,结合了图14A所示的左眼图像和右眼图像的3D图像看起来更靠近显示平面D4。此外,控制器150可通过分析3D图像的多视角图像之间的视差来确定3D图像的深度,并根据该深度来控制显示了多视角图像的区域的亮度。因此,控制器150能够控制显示器180的亮度,使得图14B所示的块B42的亮度高于图14A所示的块B41。
此外,图15A、15B示出了分别采用图14A、14B所示的多视角图像而形成的3D图像。并且,对于双目立体图像显示装置,当用户佩戴了辅助设备(如偏振眼睛)时,3D对象411、416和指针412、417看起来朝着用户突出,如图15A、15B所示。此外,相对于图15B所示的3D对象416和指针417,图15A所示的3D对象411和指针412看起来更靠近显示平面D4。并且,图15A所示的3D对象411和指针412的亮度小于显示平面D4的亮度,也小于图15B所示的3D对象416和指针417的亮度。
此外,在另一实施方式中,图像显示装置包括具有多个发光二极管(LED)的背光单元,其中多个LED块独立驱动。此外,该方法还包括控制设置在计算出的指针位置处的相应LED块的亮度。
此外,根据上述实施方式的图像显示装置及操作或控制该图像显示装置的方法并不限于此处描述的实施方式。因此,此处提供的示例性实施方式的变型和组合也落入本发明的范围内。此外,根据上述实施方式的图像显示装置的操作或控制方法可以实现为能被写入计算机可读记录介质从而能被处理器读取的代码。计算机可读记录介质可为以计算机可读方式存储数据的任意类型的记录设备。
计算机可读记录介质的例子包括ROM、RAM、CD-ROM、磁带、磁盘、光数据存储和互联网传输。计算机可读记录介质可以通过连接到网络的多个计算机系统而分布,使得计算机可读代码被写入其中并以分散方式执行。本领域技术人员可以想到实现此处的实施方式所需的功能程序、代码和代码段。
根据一个或多个上述实施方式,图像显示装置能以使得3D对象看起来向着用户突出的方式而显示3D对象。并且,图像显示装置能够采用与显示在该图像显示装置上的3D对象相同的深度等级来显示根据遥控器发送的信号而移动的指针。用户也可选择显示在图像显示装置上的3D对象,或向图像显示装置输入与3D对象相关的命令。
此处描述的一个或多个实施方式提供了一种图像显示装置及控制该图像显示装置的方法,其能够以使得3D对象看起来朝着用户突出的深度感觉来显示3D对象。并且,此处描述的一个或多个实施方式还提供了一种图像显示装置及用于操作该图像显示装置的方法,能够采用与3D对象相同的深度等级来显示对应于遥控器发送的信号而移动的指针。
尽管已经通过示例性实施方式对本发明进行了具体例示和描述,但本领域技术人员应当理解,在不偏离所附权利要求限定的本发明的精神和范围的前提下,可以在形式和细节上进行各种变化。
Claims (22)
1.一种用于控制图像显示装置的方法,该方法包括以下步骤:
经由遥控接口从遥控器接收信号;
经由控制器基于接收到的信号来计算指针将要显示在所述图像显示装置的显示器上的第一指针位置;
经由所述控制器确定显示在所述图像显示装置的所述显示器上的三维3D对象的深度;
经由所述控制器基于所确定的所述3D对象的深度来计算第二指针位置;并且
经由视频处理器在计算出的所述第二指针位置处以相同深度感觉显示所述指针和所述3D对象,
其中,计算所述第二指针位置的步骤包括:
根据所述第一指针位置识别将要显示所述指针的块;
根据所确定的3D对象的深度来计算所述指针将要显示的深度;以及
参照与指针图像信息查找表中的指针深度相对应的指针图像信息来生成指针图像信号。
2.如权利要求1所述的方法,其中显示所述指针的步骤包括:
经由所述视频处理器以如下方式对所述指针的亮度和尺寸中的至少一项进行显示:所述指针的亮度和尺寸随着按照越靠近观看者的深度显示所述指针而变得亮度越亮且尺寸越大,且随着按照越远离所述观看者的深度显示所述指针而变得亮度越暗且尺寸越小。
3.如权利要求1所述的方法,其中确定所述3D对象的深度的步骤包括:
计算显示在特定块中的所述3D对象的左眼图像和右眼图像的边缘;
检测计算出的边缘的起始像素和终止像素;
计算所述左眼图像和所述右眼图像的边缘起始像素之间的差值和边缘终止像素之间的差值;以及
计算所述左眼图像和所述右眼图像之间的边缘位移值。
4.如权利要求1所述的方法,其中对于每个指针深度,所述指针图像信息查找表还包括关于左眼图像和右眼图像的亮度等级、大小或形状的至少一个的信息。
5.如权利要求1所述的方法,其中显示所述指针的步骤包括:
经由所述视频处理器在所述显示器上显示所述指针的多视角图像,以使得所显示的多视角图像让显示的指针看起来为3D指针,
其中显示所述多视角图像的步骤包括:经由所述视频处理器根据所述3D对象的深度来显示所述指针的所述多视角图像。
6.如权利要求1所述的方法,其中显示所述指针的步骤包括:
经由所述视频处理器在所述显示器上显示所述指针的多视角图像,以使得所显示的多视角图像让显示的指针看起来为3D指针,
该方法还包括以下步骤:
针对多个指针深度存储多视角图像信息,所述多视角图像信息包括所述多个指针深度中的各个指针深度下的所述指针的图像,
其中显示所述指针的步骤包括:
从针对各个指针深度存储的所述多视角图像中读取针对所确定的所述3D对象深度的相应多视角图像;并且
在所述显示器上显示所读取的所述指针的相应多视角图像。
7.如权利要求6所述的方法,其中针对各个指针深度的所述多视角图像与计算出的指针位置相对应。
8.如权利要求1所述的方法,该方法还包括经由所述控制器根据所述3D对象的深度来控制所述显示器的亮度。
9.如权利要求8所述的方法,其中控制所述亮度的步骤包括:
经由所述控制器根据所述3D对象的深度来控制在所述显示器上的、显示了所述3D对象的多视角图像的区域的亮度,或控制在所述显示器上的、显示了所述指针的多视角图像的区域的亮度。
10.如权利要求9所述的方法,其中控制所述多视角图像的区域的亮度的步骤还包括:在显示看起来向观看所述显示器的观看者突出的所述3D对象或所述指针的多视角图像时,增加显示了所述3D对象或所述指针的所述多视角图像的区域的亮度。
11.如权利要求8所述的方法,其中所述图像显示装置包括背光单元,所述背光单元具有多个发光二极管LED,其中所述多个LED的块被独立驱动,并且
其中该方法还包括控制设置在计算出的指针位置处的LED的相应块的亮度。
12.一种图像显示装置,该图像显示装置包括:
显示器;
遥控接口,其被配置为从遥控器接收信号;
控制器,其被配置为基于接收到的信号来计算指针将要显示在所述图像显示装置的显示器上的第一指针位置,确定显示在所述图像显示装置的所述显示器上的三维3D对象的深度,并且基于所确定的所述3D对象的深度来计算第二指针位置;以及
视频处理器,其被配置为在所述图像显示装置的所述显示器上的计算出的所述第二指针位置处以相同深度感觉显示所述指针和所述3D对象,
其中,所述控制器被配置为:
根据所述第一指针位置识别将要显示所述指针的块;
根据所确定的3D对象的深度来计算所述指针将要显示的深度;以及
参照与指针图像信息查找表中的指针深度相对应的指针图像信息来生成指针图像信号。
13.如权利要求12所述的图像显示装置,其中所述视频处理器还被配置为以如下方式对所述指针的亮度和尺寸中的至少一项进行显示:所述指针的亮度和尺寸随着按照越靠近观看者的深度显示所述指针而变得亮度越亮且尺寸越大,且随着按照越远离所述观看者的深度显示所述指针而变得亮度越暗且尺寸越小。
14.如权利要求12所述的图像显示装置,其中所述控制器还被配置为:
计算显示在特定块中的所述3D对象的左眼图像和右眼图像的边缘;
检测计算出的边缘的起始像素和终止像素;
计算所述左眼图像和所述右眼图像的边缘起始像素之间的差值和边缘终止像素之间的差值;以及
计算所述左眼图像和所述右眼图像之间的边缘位移值。
15.如权利要求12所述的图像显示装置,其中对于每个指针深度,所述指针图像信息查找表还包括关于左眼图像和右眼图像的亮度等级、大小或形状的至少一个的信息。
16.如权利要求12所述的图像显示装置,其中所述视频处理器还被配置为在所述显示器上显示所述指针的多视角图像,以使得所显示的多视角图像让显示的指针看起来为3D指针,以及
其中所述视频处理器还被配置为根据所述3D对象的深度来显示所述指针的所述多视角图像。
17.如权利要求12所述的图像显示装置,其中所述视频处理器还被配置为在所述显示器上显示所述指针的多视角图像,以使得所显示的多视角图像让显示的指针看起来为3D指针,以及
该图像显示装置还包括:
存储器,其被配置为针对多个指针深度存储多视角图像信息,所述多视角图像信息包括所述多个指针深度中的各个指针深度下的所述指针的图像,
其中所述视频处理器还被配置为从针对各个指针深度存储的所述多视角图像中,显示读取针对所确定的所述3D对象深度的相应多视角图像,并且在所述显示器上显示所读取的所述指针的相应多视角图像。
18.如权利要求17所述的图像显示装置,其中针对各个指针深度的所述多视角图像与计算出的指针位置相对应。
19.如权利要求12所述的图像显示装置,其中所述控制器还被配置为根据所述3D对象的深度来控制所述显示器的亮度。
20.如权利要求19所述的图像显示装置,其中所述控制器还被配置为根据所述3D对象的深度来控制在所述显示器上的、显示了所述3D对象的多视角图像的区域的亮度,或控制在所述显示器上的、显示了所述指针的多视角图像的区域的亮度。
21.如权利要求20所述的图像显示装置,其中所述控制器还被配置为在显示看起来向观看所述显示器的观看者突出的所述3D对象或所述指针的多视角图像时,增加显示了所述3D对象或所述指针的所述多视角图像的区域的亮度来控制所述多视角图像的所述区域的亮度。
22.如权利要求19所述的图像显示装置,该图像显示装置还包括:
背光单元,所述背光单元具有多个发光二极管LED,其中所述多个LED的块被独立驱动,并且
其中所述控制器还被配置为控制设置在计算出的指针位置处的LED的相应块的亮度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US25821509P | 2009-11-05 | 2009-11-05 | |
US61/258,215 | 2009-11-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102056002A CN102056002A (zh) | 2011-05-11 |
CN102056002B true CN102056002B (zh) | 2014-04-23 |
Family
ID=43478036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010543023.9A Expired - Fee Related CN102056002B (zh) | 2009-11-05 | 2010-11-05 | 图像显示装置及其控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9681112B2 (zh) |
EP (1) | EP2337363B1 (zh) |
CN (1) | CN102056002B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5866199B2 (ja) * | 2008-07-01 | 2016-02-17 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 3dポインタマッピング |
KR20120013727A (ko) | 2010-08-06 | 2012-02-15 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
JP5302285B2 (ja) * | 2010-10-28 | 2013-10-02 | シャープ株式会社 | 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置 |
KR20130007824A (ko) * | 2011-07-11 | 2013-01-21 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
KR101855939B1 (ko) * | 2011-09-23 | 2018-05-09 | 엘지전자 주식회사 | 영상표시장치의 동작 방법 |
CN102508651B (zh) * | 2011-09-29 | 2015-04-15 | 深圳超多维光电子有限公司 | 用户界面的实现方法及系统、电子设备 |
US9746989B2 (en) * | 2011-10-13 | 2017-08-29 | Toshiba Medical Systems Corporation | Three-dimensional image processing apparatus |
US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
WO2013103224A1 (en) * | 2012-01-03 | 2013-07-11 | Lg Electronics Inc. | Image display apparatus and method for operating the same |
CN103566587B (zh) * | 2012-08-08 | 2016-06-22 | 原相科技股份有限公司 | 遥控装置及交互系统的省电方法 |
KR102105167B1 (ko) * | 2012-11-19 | 2020-04-24 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US20140152558A1 (en) * | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
CN103870149B (zh) * | 2012-12-18 | 2017-08-29 | 联想(北京)有限公司 | 数据处理方法及电子设备 |
KR102143472B1 (ko) * | 2013-07-26 | 2020-08-12 | 삼성전자주식회사 | 다시점 영상 처리 장치 및 그 영상 처리 방법 |
CN109074784B (zh) * | 2016-04-01 | 2021-10-12 | 夏普株式会社 | 显示装置、显示装置的控制方法、及控制程序的记录介质 |
CN108073338B (zh) * | 2016-11-15 | 2020-06-30 | 龙芯中科技术有限公司 | 光标显示方法及系统 |
CN111935866B (zh) * | 2020-07-08 | 2021-06-11 | 武汉理工大学 | 一种基于光污染评价的航标亮度调节方法、装置及系统 |
CN117555417A (zh) * | 2020-09-25 | 2024-02-13 | 苹果公司 | 用于调节和/或控制与用户界面相关联的沉浸度的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0285315A2 (en) * | 1987-04-02 | 1988-10-05 | Tektronix, Inc. | Cursor for use in 3-D imaging systems |
US6225979B1 (en) * | 1997-07-22 | 2001-05-01 | Sanyo Electric Co., Ltd. | Cursor display method and apparatus for perceiving cursor as stereoscopic image in stereoscopic display region, and recording medium recorded with cursor display program that can be read out by computer |
EP1821182A1 (en) * | 2004-10-12 | 2007-08-22 | Nippon Telegraph and Telephone Corporation | 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program |
EP1954036A2 (en) * | 2007-01-30 | 2008-08-06 | Samsung Electronics Co., Ltd. | Method for providing graphical user interface (GUI) for generating list and image apparatus thereof |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6918087B1 (en) * | 1999-12-16 | 2005-07-12 | Autodesk, Inc. | Visual clues to navigate three-dimensional space in a computer-implemented graphics system |
US7889209B2 (en) * | 2003-12-10 | 2011-02-15 | Sensable Technologies, Inc. | Apparatus and methods for wrapping texture onto the surface of a virtual object |
GB0525995D0 (en) * | 2005-12-21 | 2006-02-01 | Electra Entertainment Ltd | An enhanced interactive television return path |
EP2118880A4 (en) * | 2007-02-01 | 2010-08-25 | Dolby Lab Licensing Corp | CALIBRATION OF VARIABLE BACKLIGHT DISPLAY DEVICES IN SPACE |
KR20090121525A (ko) * | 2008-05-22 | 2009-11-26 | 삼성전자주식회사 | 리모트 컨트롤러, 전자장치 및 그 제어방법 |
JP5866199B2 (ja) * | 2008-07-01 | 2016-02-17 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 3dポインタマッピング |
-
2010
- 2010-10-14 US US12/904,869 patent/US9681112B2/en not_active Expired - Fee Related
- 2010-11-05 CN CN201010543023.9A patent/CN102056002B/zh not_active Expired - Fee Related
- 2010-11-05 EP EP10014344.5A patent/EP2337363B1/en not_active Not-in-force
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0285315A2 (en) * | 1987-04-02 | 1988-10-05 | Tektronix, Inc. | Cursor for use in 3-D imaging systems |
US6225979B1 (en) * | 1997-07-22 | 2001-05-01 | Sanyo Electric Co., Ltd. | Cursor display method and apparatus for perceiving cursor as stereoscopic image in stereoscopic display region, and recording medium recorded with cursor display program that can be read out by computer |
EP1821182A1 (en) * | 2004-10-12 | 2007-08-22 | Nippon Telegraph and Telephone Corporation | 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program |
EP1954036A2 (en) * | 2007-01-30 | 2008-08-06 | Samsung Electronics Co., Ltd. | Method for providing graphical user interface (GUI) for generating list and image apparatus thereof |
Also Published As
Publication number | Publication date |
---|---|
CN102056002A (zh) | 2011-05-11 |
US20110102321A1 (en) | 2011-05-05 |
EP2337363B1 (en) | 2013-10-09 |
US9681112B2 (en) | 2017-06-13 |
EP2337363A1 (en) | 2011-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102056002B (zh) | 图像显示装置及其控制方法 | |
CN102648633B (zh) | 图像显示设备、控制图像显示设备的方法和图像显示系统 | |
KR101924058B1 (ko) | 영상표시장치 및 그 동작방법 | |
EP2337366A1 (en) | Image display device and method for operating the same | |
EP2547112B1 (en) | Image display apparatus and method for operating the same | |
US20140143733A1 (en) | Image display apparatus and method for operating the same | |
CN101938670A (zh) | 图像显示装置及其操作方法 | |
CN102598678B (zh) | 图像显示设备及其操作方法 | |
US20150109426A1 (en) | Glassless stereoscopic image display apparatus and method for operating the same | |
US20140132726A1 (en) | Image display apparatus and method for operating the same | |
CN103024410A (zh) | 图像显示设备及其操作方法 | |
US9047797B2 (en) | Image display apparatus and method for operating the same | |
KR101832225B1 (ko) | 영상표시장치 및 그 동작방법 | |
CN102984480A (zh) | 图像显示装置和操作该图像显示装置的方法 | |
CN103024424A (zh) | 图像显示装置及其操作方法 | |
KR101699740B1 (ko) | 2d/3d 변환 가능한 영상표시장치와 그 동작제어방법 | |
KR101626310B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101912635B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101698787B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR20130120255A (ko) | 영상표시장치 및 그 동작방법 | |
KR20140098512A (ko) | 영상표시장치 및 그 동작방법 | |
KR101945811B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101825669B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101878808B1 (ko) | 영상표시장치 및 그 동작 방법 | |
KR101691801B1 (ko) | 멀티비전 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140423 Termination date: 20191105 |
|
CF01 | Termination of patent right due to non-payment of annual fee |