CN103369335B - 图像显示设备及其操作方法 - Google Patents
图像显示设备及其操作方法 Download PDFInfo
- Publication number
- CN103369335B CN103369335B CN201310019531.0A CN201310019531A CN103369335B CN 103369335 B CN103369335 B CN 103369335B CN 201310019531 A CN201310019531 A CN 201310019531A CN 103369335 B CN103369335 B CN 103369335B
- Authority
- CN
- China
- Prior art keywords
- beholder
- image
- visual point
- display
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
公开了一种图像显示设备及其操作方法。所述图像显示设备包括:显示器,其用于显示多视点图像;透镜单元,其被设置在所述显示器的前面,用于根据方向将所述多视点图像分开;以及控制器,如果被第一观看者的左眼和右眼感知到的视点图像的至少一部分交叠在所述第一观看者的左眼和右眼之间,则所述控制器进行控制,将所述交叠的视点图像的至少一部分处理为黑色。
Description
技术领域
本发明涉及图像显示设备及其操作方法,更具体地,涉及在裸眼三维(3D)视觉期间可增加用户便利的图像显示设备及其操作方法。
背景技术
图像显示设备具有向用户显示图像的功能。图像显示设备可在显示器上显示由用户从自广播台发送的多个广播节目当中选择出的广播节目。广播中的最近趋势是从模拟广播到数字广播的世界范围的转换。
因为发送数字音频和视频信号,所以数字广播相比模拟广播提供了许多优点(例如,对噪声的鲁棒性、小的数据损失、易于纠错以及提供高分辨率、使图像清晰的能力)。与模拟广播相比,数字广播还使得能够进行交互的观看者服务。
发明内容
因此,鉴于以上问题做出了本发明,本发明的目的在于提供一种在裸眼三维(3D)视觉期间增加用户便利的图像显示设备及其操作方法。
本发明的另一目的在于提供一种能够在多个用户观看裸眼3D图像时稳定地显示3D图像的图像显示设备及其操作方法。
根据本发明的一个方面,以上和其它目的可通过提供一种图像显示设备来实现,所述图像显示设备包括:显示器,其用于显示多视点图像;透镜单元,其被设置在所述显示器的前面,用于根据方向将所述多视点图像分开;以及控制器,如果被第一观看者的左眼和右眼感知到的多个视点图像的至少一个交叠在所述第一观看者的左眼和右眼之间,则所述控制器进行控制,将所述交叠的视点图像的至少一部分处理为黑色。
根据本发明的另一方面,提供了一种用于操作显示多视点图像的图像显示设备的方法,该方法包括以下步骤:接收第一位置信息,该第一位置信息是关于第一观看者的左眼和右眼的位置的信息;利用所述第一位置信息来计算被所述第一观看者的左眼感知到的视点图像和被所述第一观看者的右眼感知到的视点图像;以及如果被所述第一观看者的左眼和右眼感知到的多个视点图像中的至少一个交叠在所述第一观看者的左眼和右眼之间,则将所述交叠的视点图像的至少一部分处理为黑色,并显示包括经处理的视点图像的视点图像。
附图说明
从下面结合附图进行的详细描述,本发明的以上和其它目的、特征和其它优点将被更清楚地理解,附图中:
图1示出根据本发明的实施方式的图像显示设备的外观;
图2示出图1中示出的图像显示设备中的彼此分开的透镜单元和显示器;
图3是根据本发明的实施方式的图像显示设备的框图;
图4是图3中示出的控制器的框图;
图5示出用于控制图3中示出的遥控器的方法;
图6是图3中示出的遥控器的框图;
图7示出通过组合左眼图像和右眼图像形成3D图像;
图8示出根据左眼图像和右眼图像之间的不同视差的三维(3D)图像的不同的深度错觉(illusion);
图9是被参照用于描述裸眼3D图像显示设备的操作原理的示图;
图10至图14是被参照用于描述显示多视点图像的图像显示设备的操作原理的示图;
图15是示出用于操作根据本发明的实施方式的图像显示设备的方法的流程图;
图16至图18是被参照用于描述图15中示出的用于操作图像显示设备的方法的示图;
图19是示出用于操作根据本发明的另一实施方式的图像显示设备的方法的流程图;以及
图20、图21和图22是被参照用于描述图19中示出的操作图像显示设备的方法的示图。
具体实施方式
下面将参照附图描述本发明的实施方式。
用于表示部件的术语“模块”和“单元”在这里用来帮助理解部件进而不应该被理解为具有特定含义或作用。因此,术语“模块”和“单元”可以互换地使用。
图1示出根据本发明的实施方式的图像显示设备的外观,图2示出图1中示出的图像显示设备中的彼此分开的透镜单元和显示器。
参照图1和图2,根据本发明的实施方式的图像显示设备能够显示立体图像(即,三维(3D)图像)。在本发明的实施方式中,通过示例,图像显示设备能够显示裸眼3D图像。
对于裸眼3D视觉,图像显示设备100包括显示器180和透镜单元195。
在本发明的实施方式中,显示器180可显示接收到的图像(具体地,多视点图像)。具体地,多视点图像的子像素可被显示为按照特定图案排列。
透镜单元195被设置为与显示器180隔开预定间隙并朝向用户。显示器180和透镜单元195在图2中被示出为彼此分开。
透镜单元195可按照使用双凸透镜的双凸透镜方案、使用狭缝阵列的视差方案和微透镜阵列方案操作。在双凸透镜方案的上下文中给出以下描述。
图3是根据本发明的实施方式的图像显示设备的框图。
参照图3,根据本发明的实施方式的图像显示设备100包括广播接收器105、外部装置接口130、存储器140、用户输入接口150、相机单元155、控制器170、显示器180、音频输出单元185、电源190和透镜单元195。
广播接收器105可包括调谐器单元110、解调制器120和网络接口135。如果需要,广播接收器105可被构造为仅包括调谐器单元110和解调制器120或者仅包括网络接口135。
调谐器单元110从通过天线接收到的多个射频(RF)广播信号当中选择与用户选择的信道对应的RF广播信号或者与每一个预先存储的信道对应的RF广播信号,并将所选择的RF广播信号下变频成数字中频(IF)信号或模拟基带音频/视频(A/V)信号。
更具体地,如果所选择的RF广播信号是数字广播信号,则调谐器单元110将所选择的RF广播信号下变频成数字IF信号DIF。另一方面,如果所选择的RF广播信号是模拟广播信号,则调谐器单元110将所选择的RF广播信号下变频成模拟基带A/V信号CVBS/SIF。即,调谐器单元110可以是不仅能够处理数字广播信号而且还能够处理模拟广播信号的混合调谐器。模拟基带A/V信号CVBS/SIF可被直接输入到控制器170。
调谐器单元110能够从高级电视系统委员会(ATSC)单载波系统或从数字视频广播(DVB)多载波系统接收RF广播信号。
调谐器单元110可从通过天线接收到的多个RF信号当中通过信道添加功能顺序地选择与预先存储在图像显示设备100中的所有广播信道对应的多个RF广播信号,并可将所选择的RF广播信号下变频成IF信号或基带A/V信号。
调谐器单元110可包括用于在多个信道上接收广播信号的多个调谐器。另选地,调谐器单元110可被实现为用于在多个信道上同时接收广播信号的单个调谐器。
解调制器120从调谐器单元110接收数字IF信号DIF,并对数字IF信号DIF进行解调制。
解调制器120可对数字IF信号DIF进行解调制和信道解码,从而获得流信号TS。流信号TS可以是复用了视频信号、音频信号和数据信号的信号。
流信号TS可被输入到控制器170,因此经受解复用和A/V信号处理。经处理的视频和音频信号分别被输出到显示器180和音频输出单元185。
外部装置接口130可将数据发送到连接到图像显示设备100的外部装置(未示出)或从连接到图像显示设备100的外部装置接收数据。针对数据发送和接收,外部装置接口130可包括A/V输入/输出(I/O)单元(未示出)和/或无线通信模块(未示出)。
外部装置接口130可以按照无线方式或者通过线路连接到外部装置(例如,数字通用光盘(DVD)播放器、蓝光播放器、游戏机、相机、摄像机、计算机(例如,膝上型计算机)或机顶盒)。然后,外部装置接口130可将信号发送到外部装置以及从外部装置接收信号。
外部装置接口130的A/V I/O单元可从外部装置接收视频、音频和/或数据信号。外部装置接口130的无线通信模块可与其它电子装置执行短距离无线通信。
网络接口135用作图像显示设备100和诸如互联网的有线/无线网络之间的接口。网络接口135可从互联网、内容提供商(CP)或网络提供商(NP)接收内容或数据。
存储器140可存储控制器170处理和控制信号所需的各种程序,并且还可存储经处理的视频、音频和数据信号。
存储器140可临时存储从外部装置接口130接收到的视频、音频和/或数据信号。存储器140可存储关于通过信道添加功能(例如,信道映射)的广播信道的信息。
尽管在图3中存储器140被示出为与控制器分开构造,但是本发明不限于此,例如,存储器140可被并入控制器170中。
用户输入接口150将从用户接收到的信号发送到控制器170或者将从控制器170接收到的信号发送到用户。
例如,用户输入接口150可从遥控器200接收各种用户输入信号(例如,开/关信号、信道选择信号和屏幕设置信号),向控制器170提供从本地键(未示出)接收到的用户输入信号(例如,电源键、信道键、音量键和设置键的输入),并将从用于感测用户手势的传感器单元(未示出)接收到的控制信号发送到控制器170,或者将从控制器170接收到的信号发送到传感器单元。
控制器170可将从调谐器单元110、解调制器120或外部装置接口130接收到的流信号TS解复用成多个信号,并将解复用后的信号处理成音频和视频数据。
经控制器170处理后的视频信号可在显示器180上显示为图像。经控制器170处理后的视频信号还可通过外部装置接口130被发送到外部输出装置。
经控制器170处理后的音频信号可被输出到音频输出单元185。另外,经控制器170处理后的音频信号可通过外部装置接口130被发送到外部输出装置。
尽管图3中没有示出,但是控制器170可包括稍后将参照图4描述的解复用器(DEMUX)和视频处理器。
另外,控制器170可向图像显示设备100提供整体控制。例如,控制器170可控制调谐器单元110选择与用户选择的信道或预先存储的信道对应的RF广播信号。
控制器170可根据通过用户输入接口150接收到的用户命令或根据内部程序来控制图像显示设备100。
控制器170还可控制显示器180显示图像。显示器180上显示的图像可以是二维(2D)或3D静止图像或者2D或3D视频。
控制器170可控制显示器180上显示的图像中的特定对象被渲染成3D对象。例如,所述特定对象可以是链接的网页(例如,来自报纸、杂志等)、电子节目指南(EPG)、菜单、窗口小部件(widget)、图标、静止图像、运动图片或文本中的至少一个。
3D对象可被处理为具有与显示器180上显示的图像不同的深度。优选地,3D对象可以看起来相对于显示器180上显示的图像突出。
控制器170可基于由相机单元155拍摄的图像来定位用户。具体地,控制器170可测量用户和图像显示设备100之间的距离(z轴坐标)。另外,控制器170可计算显示器180上的与用户的位置对应的x轴和y轴坐标。
图像显示设备100还可包括用于生成与信道信号或外部输入信号对应的缩略图图像的信道浏览处理器(未示出)。信道浏览处理器可提取从解调制器120接收到的流信号TS或从外部装置接口130接收到的流信号中的每一个的视频帧中的一些视频帧,并在显示器180上将所提取的视频帧显示为缩略图图像。在通过流解码处理了缩略图图像与经解码的图像之后,缩略图图像可被输出到控制器170。控制器170可在显示器180上显示包括多个接收到的缩略图图像的缩略图列表。
缩略图列表可以与显示器180上显示的图像一起显示在显示器180的一部分上(即,作为紧凑视图),或者所述缩略图列表可在显示器180上全屏显示。缩略图列表的缩略图图像可以被顺序地更新。
显示器180通过转换从控制器170接收到的经处理的视频信号、经处理的数据信号、屏幕显示(OSD)信号和控制信号或者从外部装置接口130接收到的视频信号、数据信号和控制信号来生成驱动信号。
显示器180可以是各种类型的显示器(例如,等离子体显示面板(PDP)、液晶显示器(LCD)、有机发光二极管(OLED)显示器和挠性显示器)。显示器180还能够显示3D图像。
如上所述,显示器180能够显示裸眼3D图像,这避免针对使用特殊的3D眼镜来观看3D图像的需要。针对裸眼3D成像,设置了按照双凸透镜方案操作的透镜单元195。
电源190向图像显示设备100供应电力,使得各个模块或单元可在图像显示设备100中操作。
显示器180可被构造为包括2D图像区域和3D图像区域。在这种情况下,电源190可向透镜单元195供应不同的第一电力电压和第二电力电压。可在控制器170的控制下供应第一电力电压和第二电力电压。
透镜单元195根据接收到的电力电压来改变光的行进方向。
第一电力电压可被施加到透镜单元195的与显示器180的2D图像区域对应的第一区域。然后,透镜单元195可沿着与来自显示器180的2D图像区域的光相同的方向发射光。因此,用户可原样感知显示的2D图像。
第二电力电压可被施加到透镜单元195的与显示器180的3D图像区域对应的第二区域。然后,来自显示器180的3D图像区域的光被散射。由于所得到的3D效果,使得用户不必佩戴3D眼镜来感知显示的3D图像。
透镜单元195可设置为与显示器180分开并且朝向用户。具体地,透镜单元195可以与显示器180平行,或者关于显示器180按照预定角度倾斜。透镜单元195可以是凹透镜或凸透镜。透镜单元195可采用片状。因此,在本发明的实施方式中,透镜单元195可称为透镜片。
显示器180还可以是不仅可被用作输出装置还可被用作输入装置的触摸屏。
音频输出单元185可从控制器170接收经处理的音频信号,并将所接收到的音频信号输出为语音。
相机单元155拍摄用户。相机单元155可包括(但不限于)单个相机。当需要时,相机单元155可包括多个相机。在图像显示设备100中,相机单元155可被嵌入在显示器180上方,或者可被单独构造。由相机单元155拍摄的图像信息可被提供给控制器170。
控制器170可以从自相机单元155接收到的拍摄的图像或者自传感器单元(未示出)接收到的信号单独地或按照组合方式感测用户的手势。
遥控器200将用户输入发送到用户输入接口150。针对用户输入的发送,遥控器200可基于各种通信标准(例如,Bluetooth、RF、红外(IR)、超宽带(UWB)和ZigBee)进行操作。另外,遥控器200可从用户输入接口150接收视频信号、音频信号和/或数据信号,并将所接收到的信号输出为图像或声音。
上述图像显示设备100可以是固定或移动数字广播接收器。
这里阐述的图像显示设备100可以是TV接收器、监视器、移动电话、智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)等中的任何一个。
图3中示出的图像显示设备100的框图是本发明的示例性实施方式。图像显示设备100在图3中被示出为具有按照给定构造的多个部件。然而,在另选的实施方式中,图像显示设备100可包括比图1中示出的部件更少或更多的部件。另外,在另选的实施方式中,图像显示设备100的两个或更多个部件可被组合成单个部件,或者其单个部件可被分成两个或更多个部件。这里阐述的图像显示设备100的部件的功能实际上是说明性的,并且例如可被修改为满足给定应用的需求。
与图3中示出的构造不同,图像显示设备100可被构造为无需调谐器单元100和解调制器120而通过网络接口130或外部装置接口135来接收和重放视频内容。
图像显示设备100是处理存储的图像或输入图像的图像信号处理设备的示例。图像信号处理设备的其它示例包括不具有图3中示出的显示器180和音频输出单元185的机顶盒、DVD播放器、蓝光播放器、游戏机和计算机。
图4是图3中示出的控制器的框图。
参照图4,根据本发明的实施方式,控制器170可包括解复用器310、视频处理器320、处理器330、OSD发生器340、混合器345、帧率转换器(FRC)350和格式化器。控制器170还可包括音频处理器(未示出)和数据处理器(未示出)。
解复用器310将输入流解复用。例如,解复用器310可将MPEG-2TS解复用成视频信号、音频信号和数据信号。可从调谐器单元110、解调制器120或外部装置接口130接收所述输入流信号。
视频处理器320可处理经解复用的视频信号。针对视频信号处理,视频处理器320可包括视频解码器325和缩放器335。
视频解码器325对经解复用的视频信号进行解码,缩放器335对解码后的视频信号的分辨率进行缩放,使得视频信号可显示在显示器180上。
视频解码器325可设置有按照各种标准操作的解码器。
经视频处理器320处理后的解码的视频信号可以是2D视频信号、3D视频信号或者2D视频信号和3D视频信号二者的组合。
例如,可确定从外部装置接收到的外部视频信号或者包括在从调谐器单元110接收到的广播信号中的视频信号是2D信号、3D信号还是2D信号和3D信号二者的组合。因此,控制器170(具体地,视频处理器320)处理视频信号,并输出2D视频信号、3D视频信号或者2D视频信号和3D视频信号二者的组合。
来自视频处理器320的解码的视频信号可具有各种可用格式中的任何一种。例如,解码的视频信号可以是具有彩色图像和深度图像的3D视频信号或者具有多视点图像信号的3D视频信号。多视点图像信号可包括例如左眼图像信号和右眼图像信号。
针对3D视觉,可用的3D格式为并排格式、顶底格式、帧顺序格式、交织格式和棋盘格式。左眼图像L和右眼图像R在并排格式中并排排列。左眼图像L和右眼图像R在顶底格式中被垂直地堆叠,而在帧顺序格式中按照时间划分排列。在交织格式中,左眼图像L和右眼图像R逐行交替。左眼图像L和右眼图像R在棋盘格式中基于棋盘混合。
处理器330可向图像显示设备100或控制器170提供整体控制。例如,处理器330可控制调谐器单元110对与用户选择的信道或预先存储的信道对应的RF广播进行调谐。
处理器330还可根据通过用户输入接口150接收到的用户命令或内部程序来控制图像显示设备100。
处理器330可通过网络接口135或外部装置接口130控制数据发送。
处理器330可控制控制器170中的解复用器310、视频处理器320和OSD发生器340的操作。
OSD发生器340自动地或根据用户输入生成OSD信号。例如,OSD发生器340可根据用户输入信号生成用来将各种信息作为图形或文本显示在显示器180上的信号。OSD信号可包括各种数据(例如,用户接口(UI)、各种菜单、窗口小部件、图标等)。另外,OSD信号还可包括2D对象和/或3D对象。
此外,OSD发生器340可基于从遥控器200接收到的指向信号来生成要显示在显示器180上的指示器。具体地,可从可位于OSD发生器240中的指向信号处理器(未示出)生成指示器。明显地,可单独构造指向信号处理器。
混合器345可将经视频处理器320处理的解码的视频信号与从OSD发生器340生成的OSD信号混合在一起。OSD信号和解码的视频信号各自可包括2D信号或3D信号中的至少一个。混合的视频信号被提供给FRC350。
FRC350可改变混合的视频信号的帧率,或者可以无需帧率转换简单地输出混合的视频信号。
格式化器360可排列经帧率转换的3D图像的左眼视频帧和右眼视频帧。
格式化器360可将2D视频信号和3D视频信号从自混合器345接收到的OSD信号和解码的视频信号的混合视频信号中分离出来。
这里,3D视频信号表示包括诸如画中画(PIP)图像(静止图像或视频)、描述广播节目的EPG、菜单、窗口小部件、图标、文本、图像内的对象、人物、背景或(例如,来自报纸、杂志等的)网页的3D对象的信号。
格式化器360可改变3D视频信号的格式。例如,当以上述3D格式中的一种格式接收到3D图像时,格式化器360可将接收到的3D图像转换成多视点图像(具体地,按照重复多视点图像的方式)。因此,可显示裸眼3D图像。
同时,格式化器360可将2D视频信号转换成3D视频信号。例如,格式化器360可从2D视频信号中检测边缘或可选择的对象,并基于检测到的边缘或可选择的对象生成具有对象的3D视频信号。如前面所描述的,3D视频信号可以是多视点图像信号。
3D处理器(未示出)还可设置在格式化器360之后,用于处理信号以展现3D效果。为了增强3D效果,3D处理器可调节视频信号的亮度、色调和颜色。
控制器170的音频处理器(未示出)可处理经解复用的音频信号。针对音频信号处理,音频处理器可具有多个解码器。
控制器170的音频处理器还可调节音频信号的低音、高音和音量。
控制器170的数据处理器(未示出)可处理通过对输入流信号进行解复用所获得的数据信号。例如,如果经解复用的数据信号是编码的数据信号,则数据处理器可对编码的数据信号进行解码。编码的数据信号可以是EPG,该EPG包括指定所安排的广播TV或广播节目的开始时间、结束时间等的广播信息。
尽管在图4中示出混合器345将从OSD发生器340和视频处理器320接收到的信号混合,然后格式化器360对混合的信号执行3D处理,但是本发明不限于此,混合器345可设置在格式化器360之后。因而,格式化器360可对从视频处理器320接收到的信号执行3D处理,OSD发生器340可生成OSD信号,并使得OSD信号经受3D处理,然后混合器345将从格式化器360和OSD发生器340接收到的经处理的3D信号混合在一起。
图4中示出的图像显示设备100的框图仅为示例性的。在实际实施中,根据图像显示设备100的规范,图像显示设备100的部件可被组合或省略,或者可添加新的部件。即,根据需要,两个或更多个部件被合并成一个部件,或者一个部件可被构造为分开的多个部件。
具体地,FRC350和格式化器360可在控制器170外部被单独构造。
图5示出根据本发明的实施方式的用于控制图3中示出的遥控器的方法。
图5(a)示出用于呈现在显示器180上显示的遥控器200的移动的指示器205。
用户可上下、从一侧到另一侧(图5(b))以及前后(图5(c))移动或旋转遥控器200。由于指示器205根据遥控器200的移动而移动,所以遥控器200可称为指点装置。
参照图5(b),如果用户向左移动遥控器200,则指示器205根据遥控器200的移动在显示器180上也向左移动。
遥控器200的传感器检测遥控器200的移动,并将与检测结果对应的移动信息发送到图像显示设备。然后,图像显示设备基于从遥控器200接收到的移动信息来确定遥控器200的移动,并基于确定结果计算根据遥控器200的移动指示器205应该移动到的目标点的坐标。图像显示设备然后在所计算的坐标处显示指示器205。
参照图5(c),在按下遥控器200的预定按钮的同时,用户将遥控器200远离显示器180移动。然后,与指示器205对应的选择区域在显示器180上可被放大和扩大。相反,如果用户朝向显示器180移动遥控器200,则与指示器205对应的选择区域在显示器180上被缩小并因此收缩。相反的情况也是可以的。即,当遥控器200远离显示器180移动时,选择区域可被缩小,并且当遥控器200靠近显示器180时,选择区域可被放大。
针对遥控器200中按下的预定按钮,遥控器200的上、下、左、右移动可被忽略。即,当遥控器200远离显示器180移动或靠近显示器180时,仅遥控器200的向后和向前的移动被感测,而遥控器200的上、下、左、右移动可被忽略。除非在遥控器200中按下预定按钮,指示器205才根据遥控器200的上、下、左或右移动而移动。
指示器205的速度和方向可对应于遥控器200的速度和方向。
图6是图3中示出的遥控器的框图。
参照图6,遥控器200可包括无线通信模块420、用户输入单元430、传感器单元440、输出单元450、电源460、存储器470和控制器480。
无线通信模块420可将信号发送到图像显示设备100和/或从图像显示设备100接收信号。
在本发明的实施方式中,无线通信模块420可包括RF模块421,所述RF模块421根据RF通信标准将RF信号发送到图像显示设备100和/或从图像显示设备100接收RF信号。无线通信模块420还可包括IR模块423,所述IR模块423根据IR通信标准将IR信号发送到图像显示设备100和/或从图像显示设备100接收IR信号。
在本发明的实施方式中,遥控器200通过RF模块421将关于其移动的移动信息发送到图像显示设备100。
遥控器200还可通过RF模块421从图像显示设备100接收信号。如果需要,遥控器200可通过IR模块423将诸如通电/断电命令、信道切换命令或声音音量改变命令的命令发送到图像显示设备100。
用户输入单元430可包括键区、多个按钮和/或触摸屏。用户可通过操纵用户输入单元430来将命令输入到图像显示设备100。如果用户输入单元430包括多个硬键按钮,则用户可通过按下硬键按钮来将各种命令输入到图像显示设备100。另选地或者另外地,如果用户输入单元430包括显示多个软键的触摸屏,则用户可通过触摸软键来将各种命令输入到图像显示设备100。除了这里阐述的,用户输入单元430还可包括各种输入工具(例如,滚动键和/或柄式控制键(jog key)),这不应该被理解为限制本发明。
传感器单元440可包括陀螺仪传感器441和/或加速度传感器443。陀螺仪传感器441可感测遥控器200的例如在X轴、Y轴和Z轴方向上的移动,加速度传感器443可感测遥控器200的移动速度。传感器单元440还可包括用于感测遥控器200和显示器180之间的距离的距离传感器。
输出单元450可输出与用户输入单元430的操纵对应的视频和/或音频信号或者由图像显示设备100发送的信号。用户可基于由输出单元450输出的视频和/或音频信号来容易地识别出用户输入单元430是否已被操纵或者图像显示设备100是否已被控制。
输出单元450可包括发光二极管(LED)模块451、产生振动的振动模块453、输出音频数据的音频输出模块455和输出图像的显示单元457,每当用户输入单元430被操纵时,或者每当通过无线通信模块420从图像显示设备100接收到信号或信号被发送到图像显示设备100时,所述LED模块451被打开或关闭。
电源460向遥控器200供应电力。如果遥控器200保持静止达预定时间或更长时间,则电源460可例如切断到遥控器200的电力供应,以节省电力。如果遥控器200上的特定键被操纵,则电源460可恢复电力供应。
存储器470可存储用于控制或操作遥控器200的各种应用数据。遥控器200可通过RF模块421在预定频带中以无线方式将信号发送到图像显示设备100和/或从图像显示设备100接收信号。遥控器200的控制器480可以将关于用于遥控器200以无线方式将信号发送到配对的图像显示设备100和/或以无线方式从配对的图像显示设备100接收信号的频带的信息存储在存储器470中,然后可在稍后时间参照该信息以进行使用。
控制器480向遥控器200提供整体控制。例如,控制器480可通过无线通信模块420将与从用户输入单元430检测到的键操纵对应的信号或与由感测单元440感测到的遥控器200的移动对应的信号发送到图像显示设备100。
图像显示设备100的用户输入接口150可包括:无线通信模块451,其以无线方式将信号发送到遥控器200和/或以无线方式从遥控器200接收信号;以及坐标计算器415,其计算呈现遥控器200在显示屏幕上的位置的坐标,该位置根据遥控器200的移动而移动。
用户输入接口150可通过RF模块412以无线方式将RF信号发送到遥控器200和/或以无线方式从遥控器200接收RF信号。另外,用户输入接口150可根据IR通信标准通过IR模块413以无线方式从遥控器200接收IR信号。
坐标计算器415可通过无线通信模块411接收关于遥控器200的移动的移动信息,并可通过针对可能的误差(例如,用户手颤)校正移动信息来计算用于呈现指示器在显示器180的屏幕上的位置的坐标(x,y)。
可将在图像显示设备100中通过用户输入接口150从遥控器200接收到的信号发送到控制器170。然后,控制器170可从自用户输入接口150接收到的信号获取关于遥控器200的移动的信息和关于从遥控器200检测到的键操纵的信息,并可基于所获取的信息来控制图像显示设备100。
在另一示例中,遥控器200可计算指示器将根据遥控器200的移动而移动到的位置的坐标,并将该坐标输出到图像显示设备100的用户输入接口150。在这种情况下,用户输入接口150可将与没有针对诸如用户手颤的可能误差进行校正的指示器坐标有关的信息发送到控制器170。
在另一示例中,与图6中示出的遥控器200的构造不同,坐标计算器415可驻留在控制器170中而非驻留在用户输入接口150中。
图7示出通过组合左眼图像和右眼图像形成3D图像,图8示出根据左眼图像和右眼图像之间的不同视差的不同的深度错觉。
参照图7,存在多个图像或对象515、525、535和545。
通过组合基于第一左眼图像信号的第一左眼图像511(L1)与基于第一右眼图像信号的第一右眼图像513(R1)来创建第一对象515,其中,第一左眼图像511和第一右眼图像513之间具有视差d1。用户看到图像形成在将左眼501连接到第一左眼图像511的线与将右眼503连接到第一右眼图像513的线之间的交叉点处。因此,用户被使得感知到第一对象515位于显示器180的后面。
通过将第二左眼图像521(L2)和第二右眼图像523(R2)交叠在显示器180上来创建第二对象525,因此第二左眼图像521和第二右眼图像523之间具有视差0。因此,用户感知到第二对象525位于显示器180上。
通过组合第三左眼图像531(L3)和第三右眼图像533(R3)来创建第三对象535,第三左眼图像531和第三右眼图像533之间具有视差d3。通过组合第四左眼图像541(L4)和第四右眼图像543(R4)来创建第四对象545,第四左眼图像541和第四右眼图像543之间具有视差d4。
用户感知到第三对象535和第四对象545在图像形成的位置(即,位于显示器180前面)。
因为第四左眼图像541和第四右眼图像543之间的视差d4大于第三左眼图像531和第三右眼图像533之间的视差d3,所以第四对象545看起来比第三对象535更突出。
在本发明的实施方式中,显示器180与对象515、525、535和545之间的距离被呈现为深度。当对象被用户感知为位于显示器180的后面时,对象的深度为负。另一方面,当对象被用户感知为位于显示器180的前面时,对象的深度为正。因此,对象在用户看来越突出,对象就越深(即,对象的深度越大)。
参照图8,图8(a)中的左眼图像601和右眼图像602之间的视差a比图8(b)中的左眼图像601和右眼图像602之间的视差b小。因此,图8(a)中创建的3D对象的深度a’比图8(b)中创建的3D对象的深度b’小。
在左眼图像和右眼图像被组合成3D图像的情况下,如果3D图像的左眼图像和右眼图像按照不同的视差彼此分开,则3D图像被用户感知为形成在不同的位置。这表示可通过调节左眼图像和右眼图像的视差来控制利用组合的左眼图像和右眼图像形成的3D图像或3D对象的深度。
图9是被参照用于描述裸眼3D图像显示设备的操作原理的示图。
如上所述,裸眼3D图像显示设备按照双凸透镜方案、视差方案或微透镜阵列方案操作。下面,将描述双凸透镜方案和视差方案。另外,尽管在多视点图像(作为包括左眼图像和右眼图像的双视点图像)的上下文中给出了下面的描述,但是这仅为示例性的,因此不应该被理解为限制本发明。
图9(a)示出使用双凸透镜的双凸透镜方案。参照图9(a),形成左眼视点图像的块720(L)和形成右眼视点图像的块710(R)可以在显示器180上彼此交替。尽管各个块可具有多个像素,但是各个块还可包括单个像素。这里假设各个块具有一个像素。
在双凸透镜方案中,在透镜单元195中设置双凸透镜195a。设置在显示器180的前面的双凸透镜195a可改变从像素710和720发射的光的传播方向。例如,从像素720(L)发射的光的传播方向可被改变成指向观看者的左眼701,而从像素710(R)发射的光的传播方向可被改变成指向观看者的右眼702。
因此,随着从形成左眼视点图像的像素720(L)发射的光被组合,用户看到左眼视点图像。另外,随着从形成右眼视点图像的像素710(R)发射的光被组合,用户看到右眼视点图像。因此,观看者不必佩戴3D眼镜就可感知3D图像。
图9(b)示出使用狭缝阵列的视差方案。参照图9(b),如图9(b)所示,形成左眼视点图像的块720(L)和形成右眼视点图像的块710(R)可以在显示器180上交替排列。在视差方案中,在透镜单元195中设置狭缝阵列195b。狭缝阵列195b用作屏障,从而在预定方向上引导从像素发射的光。因此,与双凸透镜方案相同,用户可利用左眼702看到左眼视点图像并利用右眼701看到右眼视点图像。因此,用户不必佩戴3D眼镜就可感知3D图像。
图10至图14是被参照用于描述显示多视点图像的图像显示设备的操作原理的示图。
图10示出包括三个视点区域821、822和823的图像显示设备100。如图10所示,用于形成在三个视点区域821、822和823中的每一个中显示的三个视点图像的像素的一部分可以重新排列在显示器180上。像素重新排列表示改变显示器180上显示的像素的值,并在显示器180上以改变的值显示像素,但不改变像素的物理位置。
如图11所示,可通过从不同方向拍摄对象910来获得三个视点图像。
显示器180上显示的第一像素811可被划分成第一子像素801、第二子像素802和第三子像素803。第一子像素801、第二子像素802和第三子像素803中的每一个可呈现红色、绿色和蓝色中的一个。
图10示出在显示器180上重新排列三个视点图像的像素的图案,这不限制本发明的范围。可根据透镜单元195在显示器180上按照各种图案重新排列三个视点图像的像素。
在图10中,标号1表示第一视点图像的子像素801、802和803,标号2表示第二视点图像的子像素,标号3表示第三视点图像的子像素。
由标号1表示的子像素可被组合成在第一视点区域821中显示的第一视点图像。由标号2表示的子像素可被组合成在第二视点区域822中显示的第二视点图像。由标号3表示的子像素可被组合成在第三视点区域823中显示的第三视点图像。
即,图11中示出的第一视点图像901、第二视点图像902和第三视点图像903是根据各自的视点方向显示的图像。另外,第一视点图像901、第二视点图像902和第三视点图像903可以是分别从第一视点方向、第二视点方向和第三视点方向拍摄的对象901的图像。
参照图12(a),因此,如果观看者的左眼922和右眼921分别位于第三视点区域823和第二视点区域822中,则左眼922观看第三视点图像903并且右眼921观看第二视点图像902。因此,如图12(b)所示,基于以上参照图7描述的原理,观看者被使得感知对象910位于显示器180的前面。按照这种方式,观看者不必佩戴3D眼睛就可感知3D图像。当观看者的左眼922和右眼921分别位于第二视点区域822和第一视点区域821中时,观看者可感知立体图像(即,3D图像)。
如图10所示,如果仅在水平方向上重新排列多视点图像的像素,则与2D图像的水平分辨率相比,所得到的3D图像的水平分辨率降低为1/n(n为多视点图像的数量)。例如,图10中示出的3D图像的水平分辨率被降低至2D图像的水平分辨率的1/3。另一方面,3D图像具有与重新排列之前的多视点图像901、902和903的垂直分辨率相等的垂直分辨率。
在每方向视点图像的数量较大的情况下(稍后将参照图14描述视点图像的数量增加的原因),仅水平分辨率减小。由于所得到的分辨率明显不平衡,3D图像的整体质量可能劣化。
为了解决该问题,如图13所示,透镜单元195可在显示器180的前面关于显示器180的纵轴185按照预定角度α倾斜,并且多视点图像的子像素可根据透镜单元195的倾角按照各种图案被重新排列。图13示出根据本发明的实施方式的具有25个每方向多视点图像的图像显示设备。透镜单元195可包括双凸透镜或狭缝阵列。
作为透镜单元195被倾斜的结果,在水平方向和垂直方向这二者中,每五个像素可出现第六视点图像的红色子像素,并且所得到的3D图像的水平分辨率和垂直分辨率可被减小为重新排列的每方向多视点图像的水平分辨率和垂直分辨率的1/5。因此,与仅将水平分辨率减小至1/25的常规方法相比,分辨率可被平衡。
图14是被参照用于描述在图像显示设备的前面限定的甜蜜区(sweet zone)和盲区(dead zone)的示图。
前面描述的图像显示设备100有利地向不佩戴特殊3D眼镜的多个观看者给予立体感觉,但这仅在有限的区域内。存在观看者能够观看最佳图像的区域。通过最佳观看距离(OVD)D和甜蜜区1020来限定该区域。可根据左眼和右眼之间的距离、透镜单元的倾斜和透镜的焦距来确定OVD D。甜蜜区1020是多个视点图像被顺序地排列进而观看者可稳定地感知3D效果的区域。如图14所示,当观看者位于由标记字符a指示的甜蜜区1020时,第12视点图像、第13视点图像和第14视点图像被右眼1001感知,而第17视点图像、第18视点图像和第19视点图像被左眼1002感知。因此,每方向视点图像可顺序地被左眼1002和右眼1001感知。结果,由于左眼图像和右眼图像,观看者可感知立体感觉。
相反,如果观看者移动到由标记字符b指示的甜蜜区1020之外的盲区1015,例如,如果第1视点图像、第2视点图像和第3视点图像被左眼1003感知,并且第23视点图像、第24视点图像和第25视点图像被右眼1004感知,则每方向视点图像不能顺序地被左眼1003和右眼1004感知。结果,观看者可能颠倒地感知左眼图像和右眼图像,而感知不到3D效果。此外,当第1视点图像至第25视点图像都被左眼1003和右眼1004中的任一个感知时,观看者可能感觉眩晕。
可通过每方向多视点图像的数量n和与一个视点对应的距离来确定甜蜜区1020的尺寸。由于与一个视点对应的距离应该比观看者的眼睛之间的距离小,所以在增加与一个视点对应的距离方面存在限制。因此,为了增加甜蜜区1020的尺寸,应该增加每方向多视点图像的数量n。
增加每方向多视点图像的数量n又增加了被观看者的左眼或右眼感知到的视点图像的数量,并带来串扰。串扰表示被两个眼睛感知到的弱视点图像(第14视点图像1035和第15视点图像1045)之间的交叠,如图16所示。随着每方向多视点图像的数量的增加,被观看者的左眼1002和右眼1001感知到的视点图像的数量也增加。左眼1002和右眼1001之间交叠的视点图像的数量的增加结果可导致严重的串扰。例如,在35个每方向多视点图像的情况下,与图16不同,在观看者的左眼和右眼之间可交叠三个或更多个视点图像。
为了克服该问题,根据本发明的实施方式提供了一种用于将引起串扰的多个视点图像中的至少一个视点图像处理为黑色的图像显示设备。现在将给出图像显示设备的描述。
图15是示出用于操作根据本发明的实施方式的图像显示设备的方法的流程图,图16至图18是被参照用于描述图15中示出的用于操作图像显示设备的方法的示图。
参照图15,相机单元155可感测观看者的位置。相机单元155通过眼睛跟踪来实时地跟踪观看者的左眼和右眼的位置,并将关于观看者的位置信息提供给控制器170。控制器170接收关于观看者的左眼和右眼的位置信息(S1110),并计算视点信息(S1120)。视点信息可指定被左眼和右眼感知到的视点图像的数量、被左眼和右眼感知到的视点图像的索引或者在左眼和右眼的中心被感知到的视点图像的索引中的至少一个。
控制器170可基于视点信息检测引起串扰的视点图像。
例如,图16的曲线图示出了强视点图像怎样被左眼L和右眼R感知到。从图16注意到,八个视点图像被左眼L和右眼R中的每一个感知到。当第14视点图像至第21视点图像被左眼L感知到并且第8视点图像至第15视点图像被右眼R感知到时,被左眼L的中心感知到的五个视点图像(第15视点图像至第19视点图像)给予左眼L强感知,而第14视点图像、第20视点图像和第21视点图像给予左眼L弱感知。类似地,被右眼R的中心感知到的五个视点图像(第10视点图像至第14视点图像)给予右眼R强感知,而第8视点图像、第9视点图像和第15视点图像给予右眼R弱感知。
左眼L和右眼R同时观看第14视点图像1035和第15视点图像1045,这可引起串扰,如曲线图所示。结果,左眼图像和右眼图像的交叠视图可减小3D效果,并使得观看者感觉眩晕。
因此,控制器170基于计算出的视点信息提取交叠在左眼L和右眼R之间的视点图像(S1130),并将所提取的视点图像处理为黑色(S1440)。
可将黑色数据插入到所提取的视点图像的多个子像素中的至少一个中。例如,如果如图16所示左眼和右眼之间交叠的视点图像是第14视点图像1035和第15视点图像1045,则控制器170可将黑色数据插入到第14视点图像1035和第15视点图像1045的子像素1055中,如图17所示。
因为按照上述方式将黑色数据插入到第14视点图像1035和第15视点图像1045的子像素1055中,所以第14视点图像1035和第15视点图像1045被处理为黑色,如图18所示。因此,左眼L和右眼R之间的串扰可被降低,左眼L和右眼R之间的视点图像的交叠被消除。
除了将交叠的视点图像处理为黑色的方法之外,可通过改变交叠的视点图像的子像素的亮度或尺寸来降低串扰现象。例如,如果降低子像素的亮度,则用户不能很好地感知像素,进而可降低串扰。还可通过减小像素的尺寸来降低串扰。
图19是示出用于操作根据本发明的另一实施方式的图像显示设备的方法的流程图,图20、图21和图22是被参照用于描述图19中示出的操作图像显示设备的方法的示图。
图20示出第一观看者和第二观看者的各种示例性位置。具体地,图20(a)示出第一观看者的左眼1320和右眼1325的位置,图20(b)至图20(g)示出第二观看者的左眼1330和右眼1335的位置。
参照图20(a),当第18视点图像至第23视点图像被第一观看者的左眼1320感知到,并且第14视点图像至第19视点图像被第一观看者的右眼1325感知到时,左眼1320和右眼1325之间交叠的视点图像(即,第18视点图像1315和第19视点图像1310)可根据图15的操作方法被处理为黑色。
参照图20(b),如果第二观看者与第一观看者相隔一个视点区域,则因为第18视点图像1315和第19视点图像1310针对第一观看者被处理为黑色,所以被处理为黑色的第19视点图像1310被第二观看者的左眼1330强烈地感知到。因此,存在第二观看者看到黑色图像的问题。
在第二观看者与第一观看者相隔两个视点区域(如图20(c)所示)或者相隔三个视点区域(如图20(d)所示)的情况下,第二观看者的左眼1330还强烈地感知到被处理为黑色的第18视点图像1315和第19视点图像1310,因此看到黑色图像。
类似地,第二观看者的左眼1330还可强烈地感知到被处理为黑色的第18视点图像1315,因此可看到黑色图像,如图20(e)的情况所示。
相反,第二观看者的左眼1330可微弱地感知被处理为黑色的第18视点图像1315,因此可能看不到黑色图像。
如果如图20(g)所示,第二观看者与第一观看者相隔六个视点区域,则第18视点图像1315和第19视点图像1310可针对第一观看者的左眼1320和右眼1325被稳定地处理为黑色,而第12视点图像1345和第13视点图像1340可针对第二观看者的左眼1330和右眼1335被稳定地处理为黑色。
为了解决如图20(b)至图20(e)所示的由于针对第一观看者的黑色数据的插入导致的第二观看者遇到的观看黑色图像的问题,本发明的实施方式提供了一种用于向观看者显示通知消息的图像显示设备。下面将详细描述该图像显示设备。
参照图19,相机单元155感测第一观看者的位置。相机单元155通过眼睛跟踪来实时地跟踪第一观看者的左眼和右眼的位置,并将关于第一观看者的左眼和右眼的第一位置信息发送给控制器170。相机单元155确定除了第一观看者之外是否存在第二观看者(S1420)。
在不存在第二观看者的情况下,控制器170基于第一位置信息计算第一视点信息,按照以上参照图15描述的方式提取第一观看者的左眼和右眼之间交叠的视点图像(S1130),并将交叠的视点图像处理为黑色(S1140)。
在存在第二观看者的情况下,相机单元155通过眼睛跟踪来实时地跟踪第二观看者的左眼和右眼的位置,并将关于第二观看者的左眼和右眼的第二位置信息发送给控制器170。
相机单元155可被实现为单个相机,因此可顺序地跟踪第一观看者和第二观看者的位置。另选地,相机单元155可包括多个相机,进而可同时实时跟踪第一观看者和第二观看者的位置。
控制器170可基于第二位置信息计算第二视点信息。控制器170通过将第一位置信息与第二位置信息进行比较来确定第一观看者和第二观看者之间的距离等于还是大于基准距离(S1440)。
可基于第一视点信息或第二视点信息来确定基准距离。例如,如果被第一观看者和第二观看者中的每一个的左眼或右眼感测到五个视点图像,则使得能够针对第一观看者和第二观看者稳定插入黑色数据的基准距离可被确定为六个视点区域(参照图20(g))。因此,控制器170可通过检查第二观看者是否与第一观看者向左或向右相隔六个或更多个视点区域来确定是否显示通知消息。
随着被第一观看者和第二观看者的左眼或右眼感测到的视点图像的数量减少,基准距离也可减小。相反,随着被第一观看者和第二观看者的左眼或右眼感测到的视点图像的数量增多,基准距离也可减大。
如果第一观看者和第二观看者之间的距离等于或大于基准距离,则控制器170分别基于第一位置信息和第二位置信息来计算第一视点信息和第二视点信息(S1120),提取第一观看者的左眼和右眼之间交叠的视点图像以及第二观看者的左眼和右眼之间交叠的视点图像(S1130),并如以上参照图15所描述的,将所提取的视点图像中的至少一个处理为黑色(S1140)。
另一方面,如果第一观看者和第二观看者之间的距离小于所述基准距离,则控制器170在显示器180上显示通知消息(S1450)。所述通知消息还可被输出为通知声音,本发明不限于此。
图21和图22示出根据本发明的实施方式的显示有通知消息的画面。
参照图21,通知消息1510可以是提示第一观看者或第二观看者移动的消息。可仅向第一观看者和第二观看者中的一个显示通知消息1510。例如,如果如图20(e)所示,在第11视点图像、第12视点图像和第13视点图像中显示通知消息1510,则因为第一观看者的左眼1320和右眼1325没有感知到第11视点图像、第12视点图像和第13视点图像,所以第一观看者可能看不到通知消息1510,而因为第二观看者的右眼1335感知到第11视点图像、第12视点图像和第13视点图像,所以第二观看者可看到通知消息1510。
通知消息1510可将要移动的方向或要移动的最小距离中的至少一个通知给第一观看者或第二观看者。
参照图22,控制器170可通过相机单元155拍摄第一观看者1501和第二观看者1502,在显示器180上显示拍摄的图像1520,并在图像1520上显示通知消息。控制器170还可控制选择第一观看者1501和第二观看者1502中的一个,并显示提示所选择的观看者移动的消息。
控制器170可在第一观看者1501和第二观看者1502当中选择离显示器180较远的观看者,以进行控制来显示提示所选择的观看者移动的消息。
从以上描述明显的是,通过处理观看者的左眼和右眼之间交叠的感知到的多个视点图像中的至少一个来降低串扰。因此可稳定地显示3D图像。此外,即使多个观看者观看3D图像,也能够通过通知消息来提示用户移动以稳定地显示3D图像。因此,可增加用户便利。
根据以上示例性实施方式的图像显示设备及其操作方法不限于这里阐述的示例性实施方式。因此,这里阐述的示例性实施方式的变型和组合可落入本发明的范围内。
根据以上示例性实施方式的用于操作图像显示设备的方法可被实现为可写入计算机可读记录介质进而可被处理器读取的代码。所述计算机可读记录介质可以是以计算机可读方式存储数据的任何类型的记录装置。所述计算机可读记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储器和载波(例如,经由互联网的数据传输)。所述计算机可读记录介质可经由连接到网络的多个计算机系统分布,使得计算机可读代码以分散方式被写入并被执行。用于实现这里的实施方式的程序、代码和代码段可被本领域普通技术人员理解。
尽管已经参照本发明的示例性实施方式具体示出和描述了本发明,但是,本领域普通技术人员将理解的是,在不脱离由以下权利要求限定的本发明的精神和范围的情况下,可对这些示例性实施方式做出形式和细节方面的各种改变。
相关申请的交叉引用
本申请要求于2012年4月3日提交到韩国知识产权局的韩国专利申请No.10-2012-0034538的优先权,通过引用将其公开并入本文。
Claims (12)
1.一种图像显示设备,该图像显示设备包括:
显示器,其用于显示多视点图像;
透镜单元,其被设置在所述显示器的前面,用于根据方向将所述多视点图像分开;以及
控制器,如果被第一观看者的左眼和右眼感知到的多个视点图像中的至少一个交叠在所述第一观看者的左眼和右眼之间,则所述控制器进行控制,将交叠的视点图像中的至少一个处理为黑色;以及
相机单元,该相机单元用于跟踪所述第一观看者的左眼和右眼的位置,并将作为关于所跟踪的位置的信息的第一位置信息发送给所述控制器;
并且其中所述控制器利用所述第一位置信息来计算关于所述第一观看者的左眼和右眼的第一视点信息;
其中,所述控制器接收作为关于第二观看者的左眼和右眼的位置的信息的第二位置信息,利用所述第二位置信息计算关于所述第二观看者的左眼和右眼的第二视点信息,并且如果所述第一观看者与所述第二观看者之间的距离小于能够稳定插入黑色数据的基准距离,则所述控制器进行控制以显示通知消息;
其中,基于第一视点信息或第二视点信息来确定所述基准距离,如果被第一观看者和第二观看者中的每一个的左眼或右眼感测到5个视点图像,则使得所述基准距离被确定为6个视点区域;
其中,所述通知消息包括所述第一观看者或所述第二观看者要移动的方向或要移动的最小距离中的至少一个;
其中,如果所述第一观看者与所述第二观看者之间的距离等于或大于基准距离,则所述控制器进行控制,将所述交叠的视点图像中的至少一个处理为黑色。
2.根据权利要求1所述的图像显示设备,其中,被处理为黑色的视点图像的数量与所述多视点图像的数量成比例。
3.根据权利要求1所述的图像显示设备,其中,所述第一视点信息包括被所述第一观看者的左眼和右眼感知到的视点图像的数量、被所述第一观看者的左眼和右眼感知到的视点图像的索引或者被所述第一观看者的左眼和右眼的中心感知到的视点图像的索引中的至少一个。
4.根据权利要求1所述的图像显示设备,其中,所述基准距离是基于所述第一视点信息或所述第二视点信息确定的。
5.根据权利要求1所述的图像显示设备,其中,所述通知消息提示所述第一观看者或所述第二观看者移动。
6.根据权利要求1所述的图像显示设备,其中,所述透镜单元包括双凸透镜。
7.根据权利要求6所述的图像显示设备,其中,所述双凸透镜关于所述显示器按照预定角度倾斜。
8.一种用于操作显示多视点图像的图像显示设备的方法,该方法包括以下步骤:
接收作为关于第一观看者的左眼和右眼的位置的信息的第一位置信息;
利用所述第一位置信息来确定被所述第一观看者的左眼感知到的视点图像和被所述第一观看者的右眼感知到的视点图像;以及
如果被所述第一观看者的左眼和右眼感知到的多个视点图像中的至少一个交叠在所述第一观看者的左眼和右眼之间,则将交叠的视点图像中的至少一个处理为黑色,并显示包括经处理的视点图像的视点图像;
利用所述第一位置信息计算第一视点信息;
接收作为关于第二观看者的左眼和右眼的位置的信息的第二位置信息;
利用所述第二位置信息计算关于所述第二观看者的左眼和右眼的第二视点信息;以及
如果所述第一观看者与所述第二观看者之间的距离小于能够稳定插入黑色数据的基准距离,则显示通知消息,
其中,基于第一视点信息或第二视点信息来确定所述基准距离,如果被第一观看者和第二观看者中的每一个的左眼或右眼感测到5个视点图像,则使得所述基准距离被确定为6个视点区域;
并且其中,所述通知消息包括所述第一观看者或所述第二观看者要移动的方向或要移动的最小距离中的至少一个;
其中所述处理包括:如果所述第一观看者与所述第二观看者之间的距离等于或大于基准距离,则将所述交叠的视点图像中的至少一个处理为黑色。
9.根据权利要求8所述的方法,其中,通过眼睛跟踪来获得所述第一位置信息。
10.根据权利要求8所述的方法,
其中,所述第一视点信息包括被所述第一观看者的左眼和右眼感知到的视点图像的数量、被所述第一观看者的左眼和右眼感知到的视点图像的索引或者被所述第一观看者的左眼和右眼的中心感知到的视点图像的索引中的至少一个。
11.根据权利要求8所述的方法,其中,所述基准距离是基于所述第一视点信息或所述第二视点信息确定的。
12.根据权利要求8所述的方法,其中,所述通知消息提示所述第一观看者或所述第二观看者移动。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120034538A KR101924058B1 (ko) | 2012-04-03 | 2012-04-03 | 영상표시장치 및 그 동작방법 |
KR10-2012-0034538 | 2012-04-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103369335A CN103369335A (zh) | 2013-10-23 |
CN103369335B true CN103369335B (zh) | 2016-08-24 |
Family
ID=48044533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310019531.0A Expired - Fee Related CN103369335B (zh) | 2012-04-03 | 2013-01-18 | 图像显示设备及其操作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9335552B2 (zh) |
EP (1) | EP2648413A3 (zh) |
KR (1) | KR101924058B1 (zh) |
CN (1) | CN103369335B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9648308B2 (en) * | 2012-03-27 | 2017-05-09 | Koninklijke Philips N.V. | Multiple viewer 3D display |
EP2853936A1 (en) * | 2013-09-27 | 2015-04-01 | Samsung Electronics Co., Ltd | Display apparatus and method |
US20160295200A1 (en) * | 2013-11-20 | 2016-10-06 | Koninklijke Philips N.V. | Generaton of images for an autostereoscopic multi-view display |
CN104023222A (zh) * | 2014-05-29 | 2014-09-03 | 京东方科技集团股份有限公司 | 裸眼3d显示控制方法、装置及系统 |
CN104394394A (zh) * | 2014-09-30 | 2015-03-04 | 深圳市亿思达科技集团有限公司 | 一种实现全息图像显示的三维显示方法、装置及系统 |
CN104394393A (zh) * | 2014-09-30 | 2015-03-04 | 深圳市亿思达科技集团有限公司 | 同时为多个观察者提供全息图像的显示方法、装置及系统 |
CN104597610B (zh) * | 2015-02-10 | 2016-12-07 | 京东方科技集团股份有限公司 | 一种裸眼3d的显示处理方法、装置及显示设备 |
CN104702939B (zh) * | 2015-03-17 | 2017-09-15 | 京东方科技集团股份有限公司 | 图像处理系统、方法、确定位置的方法及显示系统 |
KR102415502B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
KR102447101B1 (ko) * | 2017-09-12 | 2022-09-26 | 삼성전자주식회사 | 무안경 3d 디스플레이를 위한 영상 처리 방법 및 장치 |
JP7483604B2 (ja) * | 2018-06-25 | 2024-05-15 | 京セラ株式会社 | 3次元表示システム、光学素子、設置方法、制御方法、および移動体 |
CN112352422B (zh) * | 2018-06-26 | 2022-10-04 | 京瓷株式会社 | 三维显示装置、控制器、三维显示方法、三维显示系统以及移动体 |
JP7188981B2 (ja) | 2018-11-05 | 2022-12-13 | 京セラ株式会社 | 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体 |
CN109581731B (zh) * | 2019-01-23 | 2022-04-12 | 京东方科技集团股份有限公司 | 一种显示面板、其视点标的方法及可读性存储介质 |
CN110662012A (zh) * | 2019-09-18 | 2020-01-07 | 深圳市维超智能科技有限公司 | 一种裸眼3d显示效果优化的排图方法、系统及电子设备 |
JP2021057844A (ja) * | 2019-10-01 | 2021-04-08 | 京セラ株式会社 | 3次元表示装置、3次元表示システム及び移動体 |
CN112532964B (zh) * | 2020-11-30 | 2023-01-20 | 深圳英伦科技股份有限公司 | 图像处理方法、设备、装置及可读存储介质 |
EP4262198A1 (en) * | 2020-12-14 | 2023-10-18 | Kyocera Corporation | Three-dimensional display device, image display system, and moving body |
CN117529911A (zh) * | 2022-06-01 | 2024-02-06 | 京东方科技集团股份有限公司 | 显示方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011063993A1 (en) * | 2009-11-30 | 2011-06-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for displaying image information and autostereoscopic screen |
WO2012026372A1 (ja) * | 2010-08-24 | 2012-03-01 | シャープ株式会社 | 立体表示装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4403162B2 (ja) * | 2006-09-29 | 2010-01-20 | 株式会社東芝 | 立体画像表示装置および立体画像の作製方法 |
WO2011132422A1 (ja) * | 2010-04-21 | 2011-10-27 | パナソニック株式会社 | 立体映像表示装置、立体映像表示方法 |
KR101073512B1 (ko) * | 2010-05-20 | 2011-10-17 | 한국과학기술연구원 | 시역 확장을 이용한 3차원 영상 표시 장치 |
JP5269027B2 (ja) * | 2010-09-30 | 2013-08-21 | 株式会社東芝 | 三次元画像表示装置および画像処理装置 |
-
2012
- 2012-04-03 KR KR1020120034538A patent/KR101924058B1/ko active IP Right Grant
-
2013
- 2013-01-15 US US13/741,455 patent/US9335552B2/en not_active Expired - Fee Related
- 2013-01-18 CN CN201310019531.0A patent/CN103369335B/zh not_active Expired - Fee Related
- 2013-03-13 EP EP13158911.1A patent/EP2648413A3/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011063993A1 (en) * | 2009-11-30 | 2011-06-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for displaying image information and autostereoscopic screen |
WO2012026372A1 (ja) * | 2010-08-24 | 2012-03-01 | シャープ株式会社 | 立体表示装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2648413A2 (en) | 2013-10-09 |
CN103369335A (zh) | 2013-10-23 |
KR20130112281A (ko) | 2013-10-14 |
US20130257928A1 (en) | 2013-10-03 |
EP2648413A3 (en) | 2014-01-22 |
US9335552B2 (en) | 2016-05-10 |
KR101924058B1 (ko) | 2018-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103369335B (zh) | 图像显示设备及其操作方法 | |
EP2547112B1 (en) | Image display apparatus and method for operating the same | |
CN102056002A (zh) | 图像显示装置及其控制方法 | |
CN104581125B (zh) | 裸眼立体图像显示装置及其操作方法 | |
CN103024410B (zh) | 图像显示设备及其操作方法 | |
US20140132726A1 (en) | Image display apparatus and method for operating the same | |
EP2672716A2 (en) | Image display apparatus and method for operating the same | |
EP2566165A2 (en) | Image display apparatus and method for operating the same | |
US20130070063A1 (en) | Image display apparatus and method for operating the same | |
US9117387B2 (en) | Image display apparatus and method for operating the same | |
KR101912635B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101836846B1 (ko) | 영상표시장치, 및 그 동작방법 | |
KR20130120255A (ko) | 영상표시장치 및 그 동작방법 | |
KR20140098512A (ko) | 영상표시장치 및 그 동작방법 | |
KR101945811B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101878808B1 (ko) | 영상표시장치 및 그 동작 방법 | |
KR101890323B1 (ko) | 영상표시장치, 셋탑 박스 및 그 동작방법 | |
KR101825669B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR20130068964A (ko) | 영상표시장치의 동작 방법 | |
KR20140073231A (ko) | 영상표시장치 및 그 동작방법 | |
KR20140008188A (ko) | 영상표시장치 및 그 동작방법 | |
KR20140044181A (ko) | 영상표시장치 및 그 동작방법 | |
KR20140057058A (ko) | 영상표시장치, 및 그 동작방법 | |
KR20110106705A (ko) | 영상표시장치 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160824 Termination date: 20210118 |
|
CF01 | Termination of patent right due to non-payment of annual fee |