CN102447861B - 按照3d图像来显示图形用户界面的电子设备及方法 - Google Patents
按照3d图像来显示图形用户界面的电子设备及方法 Download PDFInfo
- Publication number
- CN102447861B CN102447861B CN201110240216.1A CN201110240216A CN102447861B CN 102447861 B CN102447861 B CN 102447861B CN 201110240216 A CN201110240216 A CN 201110240216A CN 102447861 B CN102447861 B CN 102447861B
- Authority
- CN
- China
- Prior art keywords
- gui
- depth
- electronic equipment
- data
- customer location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及一种按照3D图像来显示图形用户界面的电子设备及方法。公开了用于显示图形用户界面的电子设备和方法。位置确定模块确定用户位置。控制器基于预定距离值和所确定的位置来计算深度设定值,并基于所计算的深度设定值来对多个图形用户界面(GUI)的深度值进行调节。显示器按照所调节的深度值来显示所述多个GUI。所述多个GUI显示在各自输出位置。
Description
技术领域
这里所描述的本发明的一个或更多个实施方式涉及在屏幕上进行显示的图形用户界面(GUI)的处理。
背景技术
模拟广播环境已快速转换到数字广播环境。在数字广播中,与现有技术的模拟广播相比,内容量显著增大并且内容类型更加多样化。具体地说,近来,增加了对提供真实感和立体效果(与二维(2D)内容相比)的三维(3D)内容的生产。
电子设备是一种多功能设备,其开发为除执行3D内容的重放之外还执行数字广播接收器的功能、或与其它电子设备相兼容。
然而,在用于显示3D图像的现有技术电子设备中,当用户选择菜单输出时,菜单输出位置是由生产商的设置来设定,而同用户位置或该电子设备与用户之间的距离无关。因此,用户使用菜单并不方便。
发明内容
因此,本发明致力于一种按照3维(3D)图像来显示图形用户界面(GUI)的电子设备和方法,其基本上避免了由于现有技术的限制和缺点所导致的一个或更多个问题。
本发明的一个目标在于,提供一种在根据用户位置或用户偏好按照3D图像数据来提供GUI时用于对GUI的位置和深度进行控制和输出的电子设备,以提高用户便利,并提供按照3D图像来显示GUI的方法。
本发明的其它优点、目的及特征将在以下说明书中部分地进行阐述,并且对于本领域的技术人员,将通过对以下说明书进行研究而部分地变得明了,或者可以通过对本发明的实践而得知。本发明的这些目的和其它优点可以通过在说明书、权利要求书及附图中具体指出的结构来实现和获得。
为了实现这些目的和其它优点,并且根据本发明的目的,如在此具体实施和广泛描述的,提供了一种显示图形用户界面(GUI)的方法,该方法包括以下步骤:接收GUI输出指令;根据所述GUI输出指令来确定用户位置;根据所确定的用户位置来确定GUI的输出位置;以及按照3D格式在所确定的位置输出GUI。
在本发明的另一方面,提供了一种电子设备,该电子设备包括:被配置为接收图形用户界面(GUI)输出指令的用户输入单元;被配置为根据所述GUI输出指令来确定用户位置的位置确定模块;被配置为根据所确定的用户位置来确定GUI的输出位置的控制器;以及被配置为按照3D格式在所确定的位置输出GUI的输出格式化器。
在本发明的另一方面,提供了一种显示图形用户界面(GUI)的方法,该方法包括以下步骤:确定用户位置;基于预定距离值和所确定的位置来计算深度设定值;基于所计算的深度设定值来对多个GUI的深度值进行调节;以及按照所调节的深度值来显示所述多个GUI。多个GUI可显示在各自输出位置。多个GUI可包括至少一个菜单项。
设置所述深度设定值的步骤可包括计算所述多个GUI中的各个GUI的单个深度设定值,并且,该单个深度设定值可基于所述预定距离值、所确定的位置及所述输出位置而计算的。
可对所述深度值进行调节,使得所述用户与所述GUI的三维(3D)图像之间的距离成为所述预定距离值。
调节所述深度值的步骤可包括:访问存储介质中的用于显示所述多个GUI的一个左视图像的第一组像素数据和用于显示该多个GUI的一个右视图像的第二组像素数据;并且基于所述深度设定值,来对包括在所访问的第一组像素数据中的像素与包括在所访问的第二组像素数据中的像素之间的间隔进行调节。该方法还包括以下步骤:接收包括左视图像数据及右视图像数据在内的三维(3D)图像;将所述左视图像数据与第一组像素数据混合,并将所述右视图像数据与第二组像素数据混合;并且将用于显示混合后的左视图像数据及混合后的右视图像数据的图像信号输出到显示器。
该方法还包括以下步骤:基于所述输出位置来对用于显示所述多个GUI的多组像素数据进行混合。
该方法还包括以下步骤:确定用户位置是否改变,其中,按照预定时间间隔来执行确定所述用户位置的步骤,并且,当所述用户位置变化时,计算所述深度设定值。
该方法还包括以下步骤:检测用于请求输出位置设定的用户操作;并且响应于检测到的用户操作,显示用于设置距离值或输出位置中的至少一个的GUI。所显示的GUI可包括与所述多个GUI中的一个GUI相关联的至少一个图像,并且,所述输出位置是基于该图像所处位置来确定。所述图像可根据检测到的用户操作而移动。
在本发明的另一方面,提供了一种电子设备,该电子设备包括:位置确定模块,其被配置为确定用户位置;控制器,其被配置为基于预定距离值和所确定的位置来计算深度设定值,并且,基于所计算的深度设定值来对多个图形用户界面GUI的深度值进行调节;以及显示器,其被配置为按照所调节的深度值来显示所述多个GUI。所述多个GUI可显示在各自的输出位置。所述多个GUI可包括至少一个菜单项。
所述控制器可计算所述多个GUI中的各个GUI的单个深度设定值,并且该单个深度设定值可基于所述预定距离值、所确定的位置和所述输出位置而计算。
所述控制器可调节所述深度值,使得所述用户与所述GUI的三维(3D)图像之间的距离成为所述预定距离值。
所述控制器可访问存储介质中的用于显示多个GUI的一个左视图像的第一组像素数据和用于显示一个右视图像的第二组像素数据,并基于所述深度设定值来对包括在所访问的第一组像素数据中的像素与包括在所访问的第二组像素数据中的像素之间的间隔进行调节。
所述电子设备可还包括:接收器,其被配置为接收包括左视图像数据及右视图像数据在内的三维3D图像;混合器,其被配置为将所述左视图像数据与第一组像素数据混合,并将所述右视图像数据与第二组像素数据混合;以及格式化器,其被配置为输出用于显示混合后的左视图像数据及混合后的右视图像数据的图像信号。
所述电子设备还包括混合器,其被配置为基于所述输出位置来对用于显示所述多个GUI的多组像素数据进行混合。
所述位置确定模块可按照预定时间间隔来感测用户位置,并且,所述控制器可确定所述用户位置是否改变,并当所述用户位置变化时,基于改变后的用户位置来计算所述深度设定值。
所述控制器可检测用于请求输出位置设定的用户操作,并响应于检测到的用户操作,控制用于设定预定距离值或输出位置中的至少一个的GUI的显示。
所显示的GUI可包括与所述多个GUI中的一个GUI相关联的至少一个图像,并且,所述输出位置可基于该图像所处位置而确定。所述图像可根据检测到的用户操作而移动。
因此,在本发明中,如果按照3D输出模式输出GUI,则计算要与所述用户位置对应而输出的GUI的位置并将其输出,使得用户在同一位置按照同一尺寸来观看所述GUI。因此,使得用户能够稳定可靠地感受GUI,而与到电子设备的距离无关,并提高用户的便利。
也就是说,如果按照用于输出3D图像数据的3D输出模式不均衡地观看GUI(即,菜单),则对用户来说观看GUI是困难的。本发明能够解决这一问题。
在本发明中,由于不仅保持住用户与GUI之间的距离、而且保持住GUI的输出位置,而与用户位置无关,因此,可以在GUI的输出中为用户提供可靠稳定。
因此,在本发明中,可以提供GUI,其使得用户能够设定按照3D输出GUI的输出位置、并且可以根据用户选择来确定并提供3DGUI的输出位置。因此,用户能够基于用户位置在期望的位置执行菜单设定选择。
应当理解的是,本发明的以上概述和以下详述都是示例性和说明性的,并旨在对所要求保护的本发明提供进一步的说明。
附图说明
附图被包括进来以提供对本发明的进一步理解,并结合到本申请中且构成本申请的一部分,附图示出了本发明的实施方式,并且与说明书一起用于解释本发明的原理。在附图中:
图1是示出了根据本发明的一个实施方式的、用于提供三维(3D)内容的电子设备的图;
图2是根据左视图像数据与右视图像数据之间的间隙或差异(disparity)来说明立体概念的图;
图3是示出了根据本发明的一个实施方式的、在电子设备中提供3D图形用户界面(GUI)的过程的图;
图4是示出了根据本发明的一个实施方式的、确定用户位置的图;
图5是示出了根据本发明的一个实施方式的、按照到用户位置的预定距离来输出GUI的图;
图6是示出了根据本发明的一个实施方式的、按照距离用户位置的预定距离来输出GUI的图;
图7是示出了根据本发明的在电子设备中实现3D图像的方法的示例的图;
图8是示出了根据本发明的一个实施方式的、根据用户位置变化的GUI输出位置变化的图;
图9是示出了根据本发明一个实施方式的、用于设置3DGUI的输出位置的GUI的图;
图10是示出了根据本发明一个实施方式的、用户设置3DGUI的输出位置的另一示例的图;
图11是示出了根据本发明的一个实施方式的、多个3DGUI中的各个GUI的输出位置的设置的图;
图12是示出了根据本发明的另一实施方式的、按照距离用户位置的预定距离来输出GUI的图;
图13是示出了根据本发明一个实施方式的电子设备构造的框图;以及
图14是示出了根据本发明一个实施方式的快门眼镜(shutteredglasses)构造的图。
具体实施方式
另外,虽然在本发明中所使用的术语是从公知及常用的术语中选择的,但是,在本发明说明书中提及的术语中的一些术语是由申请人根据自己的判断而选择的,这些术语的详细含义将在说明书的相关部分中进行描述。此外,不应当仅根据所使用的实际术语来理解本发明,而是应当由各个术语中所包括的含义来理解。
本发明涉及针对输出三维(3D)内容来显示电子设备的图形用户界面(GUI)的方法,并涉及采用该方法的电子设备。在下文中,将参照附图详细描述本发明的各个实施方式。
将按照至少一个实施方式来描述在附图中示出并参照附图所描述的本发明的设置和操作;然而,本发明的技术思想、核心设置以及操作并不限于此。
图1是示出了根据本发明一个实施方式的、用于提供三维(3D)内容的电子设备的图。
在本发明中,显示3D内容的方法包括眼镜型方法(glassesmethod)和无眼镜型方法(non-glassesmethod)。眼镜型方法划分为被动型和主动型。在被动型中,使用偏振滤光镜来分别显示左视图像和右视图像。另选的是,在被动型中也包括使用具有蓝色透镜和红色透镜的眼镜的方法。在主动型中,使用液晶快门来识别左眼和右眼,并且在时间序列中隐藏左眼和右眼、以分离左图像和右图像。也就是说,在主动型中,对在时间上划分的画面进行周期性地重复,并且使用具有与该周期同步的电子快门的眼镜。主动型也表示时间划分型或快门眼镜型。无眼镜型方法的典型示例包括透镜方法以及视差屏障方法,在透镜方法中,在图像板前提供了微透镜板(在该微透镜板中垂直设置柱面透镜阵列),而视差屏障方法在图像板上包括具有周期性缝隙(periodicslit)的屏障层。
图1示出了使用3D显示方法的立体方法、以及该立体方法的主动型的实施方式。虽然按照快门眼镜来描述主动型介质,但是本发明并不限于此,而是可适用于其它介质。
参照图1,根据本发明的一个实施方式的电子设备100在显示单元上输出3D图像数据,生成用于3D图像数据的同步的同步信号Vsync,并将该同步信号Vsync输出至快门眼镜200的IR发射器(未示出),因此,允许用户使用快门眼镜200来观看3D图像。
电子设备100可以是个人计算机系统,例如台式计算机、便携式计算机、平板计算机或手持个人计算机(PC)。此外,电子设备100可以是移动终端(例如,移动电话,智能电话,个人数字助理(PDA)、便携式多媒体播放器(PMP))或导航设备或固定终端(例如,图像显示设备或数字TV接收器)。
快门眼镜200根据通过IR发射器(未示出)接收到的同步信号,来对左眼或右眼快门液晶板的开启周期进行控制,以对从电子设备100输出的3D图像300进行同步。
电子设备100可基于立体视法来处理3D图像数据。也就是说,使用位于不同位置的两部相机来拍摄同一对象,以生成左视图像数据和右视图像数据,将左视图像数据和右视图像数据彼此正交地分别输入到观看者的左眼和右眼,并且,分别输入到左眼和右眼的左视图像数据和右视图像数据由大脑进行组合,由此生成3D图像。将左视图像数据与右视图像数据设置为彼此正交,这表明左视图像数据和右视图图象数据不会产生相互干扰。
图2是示出根据左视图像数据与右视图像数据之间的间隙或视差的立体概念的图。
图2(A)示出了如果右视图像数据201与左视图像数据202之间的间隙较小时由该右视图像数据201和该左视图像数据202形成的图像的位置203,而图2(B)示出了如果右视图像数据211与左视图像数据212之间的间隙较大时由该右视图像数据211和该左视图像数据211形成的图像的位置213。
也就是说,图2(A)和图2(B)示出了在图像处理设备中根据左视图像数据与右视图像数据之间的间隙而在不同位置形成的图像的立体程度。
参照图2(A),当从右眼到右视图像数据201的一侧和另一侧描绘了延长线R1和R2,并且从左眼到左视图像数据202的一侧和另一侧描绘了延长线L1和L2时,在右视图像数据的延长线R1与左视图像数据的延长线L1彼此交叉的点203形成图像,该点距离右眼和左眼为预定距离d1。
参照图2(B),类似于图2(A),在右视图像数据的延长线R3与左视图像数据的延长线L3彼此交叉的点213形成图像,该点距离右眼和左眼为预定距离d2。
当对左眼及右眼与形成图像的位置203和213之间的距离d1(图2(A))和d2(图2(B))进行比较时,d1大于d2。也就是说,在图2(A)中示出的形成图像的位置比图2(B)中示出的图像的位置距离左眼及右眼更远。
距离d1和d2彼此不同的原因在于,右视图像数据与左视图像数据之间的间隙(在图2的水平方向)是彼此不同的。
例如,图2(A)的右视图像数据201与左视图像数据202之间的间隙比图2(B)的右视图像数据211与左视图像数据212之间的间隙窄。
因此,如从图2(A)和图2(B)所看到的,随着右视图像数据与左视图像数据之间的间隙减小,由左视图像数据和右视图像数据所形成的图像与人眼之间的距离增大。
使用各种方法(例如,提供倾斜或深度的方法,或提供3D效果的方法),来将3D图像数据实现为3D图像。
图3是示出了根据本发明的一个实施方式的、在电子设备中提供3D图形用户界面(GUI)的过程的图。
参照图3,在步骤S301,根据本发明一个实施方式的电子设备确定是否接收到GUI输出指令。可从用户接收(例如,提供预定的遥控器)用于输出与电子设备的操作有关的GUI的GUI输出指令。该GUI输出指令可以是由电子设备所感测的用户操作。这里,该用户操作可包括用于电子设备或遥控按键的物理选择,在触摸显示屏上的预定手势的执行,对软键的选择,从由照相设备所拍摄的图像中识别出预定手势的实现,以及由声音识别所辨认的预定声音的实现。
在步骤S302,电子设备100确定是否设置了3D输出模式。3D输出模式允许3D输出格式化器设置按照3D格式来输出图像信号,而2D输出模式允许图像信号绕过3D输出格式化器,使得按照2D格式来输出该图像信号。
如果在步骤S302确定设置了2D输出模式,则在步骤S306,电子设备100按照2D来输出与GUI输出指令相应的GUI。
如果在步骤S302确定设置了3D输出模式,则在步骤S303,电子设备根据GUI输出指令来确定用户位置。
此时,可将各种实施方式应用于确定用户位置的方法。例如,如果本发明的电子设备100是无眼镜型,则包括在电子设备100中的传感器可检测用户位置,以生成位置信息。如果本发明的电子设备100是眼镜型,则对快门眼镜的位置进行检测,或者,从快门眼镜接收位置信息以获得该快门眼镜的位置信息。
例如,快门眼镜200可使用位置传感器来感测用户位置,并向电子设备100传送所感测的信息。电子设备100可从快门眼镜200接收所感测的信息,并使用所接收到的信息来确定快门眼镜的位置(即,用户位置)。
另选的是,可在电子设备100中安装IR传感器,以检测从快门眼镜发送的IR信号,在x,y和z轴上计算距离快门眼镜的距离,并确定快门眼镜的位置。
根据另一实施方式,在电子设备100中可包括相机模块,以拍摄图像,从所拍摄的图像识别预定出图形(快门眼镜或用户面部的图像),并分析所识别的图形的尺寸或角度,以此确定用户位置。
根据另一实施方式,在电子设备100中可安装IR发送模块,并且在快门眼镜200中可安装IR相机,以对由IR相机所拍摄的IR发送模块的图像数据进行分析,由此确定快门眼镜200的位置。此时,如果安装了多个IR发送模块,则对由快门眼镜200的IR相机所拍摄的多个IR发送模块的图像进行分析,以确定快门眼镜200的位置。快门眼镜200的位置可用作用户位置。
其次,在步骤S304,电子设备100根据所确定的用户位置来确定GUI的输出位置。在步骤S305,电子设备100按照3D格式来在所确定的位置输出GUI。
此时,根据本发明的示例性实施方式,电子设备100确定GUI的深度值,使得GUI与用户之间的距离成为预定值,并按照3D格式输出GUI。也就是说,电子设备100可基于预定值和所确定的用户位置来计算深度设定值,并基于所计算的深度设定值来调节GUI的深度值。
根据本发明的示例性实施方式,电子设备100可将GUI的深度值确定为使得GUI与用户之间的距离成为由用户设定的距离。也就是说,电子设备100可基于由用户设定的距离和所确定的用户位置来计算深度设定值,并基于所计算的深度设定值来调节GUI的深度值。
此时,电子设备100可单独提供用于设置GUI与用户之间距离的GUI。
根据本发明的示例性实施方式,电子设备100使得用户按照与用户位置对应的方式来设置GUI的输出位置,在存储器中存储由用户设定的GUI的输出位置信息,根据所确定的用户位置来确定GUI的输出位置,并通过参照该存储器来确定GUI的输出位置。在本发明的一些实施方式中,电子设备100可计算关于多个GUI的同一深度设定值,并基于所计算的深度设定值来调节多个GUI的深度值。在本发明的一些实施方式中,电子设备100可计算多个GUI中的各个GUI的单个深度设定值,并基于所计算的单个深度设定值来调节各个GUI的深度值。该单个深度设定值可以基于预定的距离值、所确定的用户位置和所确定的输出位置而计算的。该预定的距离值可以是由用户设定的距离,或者是在GUI与用户之间的默认距离。
此时,电子设备100可提供允许用户按照与用户位置对应的方式来设定GUI的输出位置的GUI。
GUI的输出位置可根据多个GUI而不同地设定,并且GUI的输出位置可根据用户而不同地设定。
根据本发明的示例性实施方式,电子设备100按照预定时间间隔来感测用户位置。当该用户位置变化时,图形用户界面的输出位置可与用户位置变化相对应地改变。
图4是示出了根据本发明一个实施方式的、确定用户位置的图。图4示出了眼镜型的电子设备。
参照图4,根据本发明一个实施方式的电子设备400包括预定位置传感器401,以确定快门眼镜402的位置是否改变。
快门眼镜402包括预定IR输出单元或IR传感器403,以使得电子设备400能够确定快门眼镜的位置。
图5是示出了根据本发明一个实施方式的、按照距离用户位置的预定距离来输出GUI的图。
参照图5,如果确定用户位置(即,快门眼镜510与电子设备500之间的距离)为距离D1501,则根据本发明一个实施方式的电子设备500可将GUI504至D2502的深度值确定为使得快门眼镜510与GUI504之间的距离成为D3503,并且按照3D格式输出GUI。
此时,可将用户位置(即,快门眼镜510与GUI504之间的距离D3503)设置为最佳的默认值,或设置为由用户使用预定GUI所输入的值。
图6是示出了根据本发明一个实施方式的、按照距离用户位置的预定距离来输出GUI的图。
参照图6,根据本发明一个实施方式的电子设备可在距离用户(即,快门眼镜510)的预定位置输出GUI504。
也就是说,电子设备可将GUI的输出位置(x1,y1,z1)确定为使得GUI504的水平投影与连接用户位置510及GUI中心点的直线之间的角度变为θ,并且,按照3D格式来处理并输出GUI。
电子设备可基于所存储的输出位置(x1,y1,z1)和D3503来计算D4601,并基于D4601和D3503来计算单个深度设定值D5602。
图7是示出了根据本发明的在电子设备中实现3DGUI的方法的示例的图。
图7(A)示出了构成3DGUI的左视图像数据701与右视图像数据702之间的间隙较小的情形,并且图7(B)示出了构成3DGUI的左视图像数据704与右视图像数据705之间的间隙较大的情形。
因此,在图7(A)和图7(B)中根据图像数据之间的间隙而实现的3DGUI中,根据图2的原理,图7(A)中示出的3D图像703出现在距离人眼较远的位置,并且,图7(B)中示出的3DUI706出现在距离人眼较近的位置(即,显得凸起)。基于上述原理(即,通过对构成3DGUI左视图像数据与右视图像数据之间的间隙进行调节),可以为UI赋予适当的深度,以获得3D效果。
图8是示出了根据本发明的一个实施方式的、根据用户位置变化的GUI输出位置变化的图。
参照图8,根据本发明一个实施方式,如果电子设备800与用户位置806之间的距离是3m,则将GUI803的深度值设定为2.5m,使得用户位置806与GUI803之间的距离变为0.5m。
如果电子设备801与用户位置807之间的距离为2m,则将GUI804的深度值设定为1.5m,使得用户位置807与GUI804之间的距离变为0.5m。
如果电子设备802与用户位置808之间的距离为1m,则将GUI805的深度值设定为0.5m,使得用户位置808与GUI805之间的距离变为0.5m。
此时,如上所述,该电子设备可按照预定时间间隔来感测用户位置,并且,当该用户位置变化时,改变GUI的输出位置。
也就是说,如果用户移动到位置806、位置807或位置808,则可将GUI移动到位置803、位置804或位置805,以在GUI与用户位置之间保持恒定距离。
如上所述,可根据多个GUI而不同地设定GUI的输出位置,并且可根据用户而不同地设定GUI的输出位置。
因此,在本发明中,如果按照3D输出模式来输出GUI,则计算与用户位置相对应的要输出的GUI的位置,并输出GUI的位置,使得用户在同一位置按照同一尺寸来观看GUI。因此,使得用户能够稳定可靠地感受GUI,而与到电子设备的距离无关,并提高用户的便利。
也就是说,如果按照用于输出3D图像数据的3D输出模式不均衡地观看GUI(即,菜单),则对用户来说观看GUI是困难的。本发明能够解决这一问题。
在本发明中,由于不仅保持住用户与GUI之间的距离、而且保持住GUI的输出位置,而与用户位置无关,因此,可以在GUI的输出中为用户提供可靠稳定。
图9是示出了根据本发明一个实施方式的、用于设置3DGUI输出位置的GUI的图。
参照图9,根据本发明一个实施方式的电子设备900可输出用于设定GUI与用户之间的距离901的GUI910、输出GUI的粗略位置902、GUI的深度值903或者输出GUI的精确位置904。
例如,用户可将GUI与用户之间的距离901设定为“0.5m”。当接收到GUI输出指令时,该电子设备确定用户位置,调节GUI的深度值并按照3D格式来输出GUI,使得用户位置与GUI之间的距离变为0.5m。
用户可选择输出GUI的粗略位置902。例如,用户可选择“左上部”、“左下部”、“中心”、“右上部”以及“右下部”中的一个。当用户选择了输出GUI的粗略位置时,电子设备900可在所选择的位置输出GUI。
在本发明示例性实施方式中,用户可选择GUI的深度值903,并且该电子设备按照3D格式以所选择的深度值903来输出GUI。
在本发明示例性实施方式中,用户可选择输出GUI的精确位置904。如果选择了精确位置904,则可提供图10中示出的GUI。
在本发明示例性实施方式中,可根据3DGUI的种类来提供图9的GUI910,并且用户可设置3DGUI的输出位置。
因此,可根据多个GUI而不同地设定GUI的输出位置。
此外,可将图9的GUI910提供给各个用户。多个用户可不同地设置多个3DGUI的输出位置。
在这种情况下,基于逐个用户来存储GUI的输出位置信息。如果用户登录到电子设备900,则可读取与登录到该电子设备的用户相应的GUI的输出位置信息,并且在所读取的输出位置输出3DGUI。
因此,在本发明中,可以提供GUI910,其使得用户能够设定按照3D输出GUI的输出位置、并且可以根据用户选择来确定并提供3DGUI的输出位置。因此,用户能够基于用户位置在期望的位置执行菜单设定选择。
图10是示出了根据本发明一个实施方式的、用户设置3DGUI输出位置的另一示例的图。
当用户在图9中示出的GUI设定910中选择精确位置904时,输出图10中示出的GUI1010。用户可选择3DGUI1001,并将其移动至期望的输出位置1003。
此时,用户可使用遥控器1100来将位于3DGUI1001上的指针1002移动至期望的输出位置1004。
在本发明示例性实施方式中,可显示与遥控器1100对应的指点设备、以及指针1002和1004。
用户可旋转遥控器1100,或在向上和向下的方向、向左和向右的方向、或向前和向后的方向移动遥控器1100。显示在电子设备1000上的指针1002和1004按照与遥控器1100的移动相对应的方式而移动。因为指针1002和1004按照与遥控器在3D空间中的移动相对应的方式而移动和显示,所以,可将遥控器1100视为指点设备。
将遥控器1100的传感器所检测到的与遥控器1100的移动有关的信息传送给电子设备1000。电子设备1000可根据与遥控器1100的移动有关的信息来计算指针1002和1004的坐标,并按照对应于所计算的坐标来显示该指针1002和1004。
电子设备1000可在存储器中存储与所识别的用户位置相对应而移动的GUI1003的位置信息,当接收到GUI输出指令时通过参照该存储器来确定GUI1003的输出位置,并按照3D格式来输出GUI1003。因此,可在由各个用户所设定的位置输出各个3DGUI。
虽然图10示出了使用指点设备来设置3DGUI的输出位置的情形,但是,可使用各种方法(例如,手势识别方法或动作识别方法)来设置3DGUI的输出位置。
图11是示出了根据本发明一个实施方式的、多个3DGUI中的各个GUI的输出位置的设置的图。
参照图11,当用户在图9示出的GUI中选择精确位置设定904时,可输出图11中示出的GUI1150。用户可选择多个3DGUI1101、1102、1103、1104、1105以及1106,并将其移动至期望的输出位置。
此时,类似于图10,用户可使用遥控器1100来将位于3DGUI1101、1102、1103、1104、1105以及1106中的各个上的指针移动至期望的输出位置。
例如,用户可将第一GUI1101移动移动至期望的输出位置1107。用户可将第二GUI1102移动至期望的输出位置1108。用户可将第三GUI1103移动至期望的输出位置1109。用户可将第四GUI1104移动至期望的输出位置1110,可将第五GUI1105移动至期望的输出位置1111,并且将第六GUI1106移动至期望的输出位置1112。
用户可使用遥控器1100来选择3DGUI1101、1102、1103、1104、1105以及1106,并在向上和向下的方向、向左和向右的方向、或向前和向后的方向移动遥控器1100,从而将3DGUI1101、1102、1103、1104、1105以及1106移动至期望的输出位置。
该电子设备可在存储器中存储与所识别的用户位置相对应而移动的3DGUI的位置信息1107、1108、1109、1110、1111以及1112,当接收到GUI输出指令时通过参照该存储器来确定GUI的输出位置,并按照3D格式来输出GUI。因此,可在由各个用户所设定的位置输出各个3DGUI。
虽然描述了通过拖动指点设备来设定多个3DGUI输出位置的实施方式,但是,可使用图9中示出的GUI910来设定多个3DGUI的输出位置。
如上所述,可基于逐个用户来不同地设置多个3DGUI的输出位置。在此情况下,如果用户键入用户ID和口令以登录到该电子设备,则可以在由该用户所设定的输出位置来输出多个3DGUI。
图12是示出了根据本发明一个实施方式的、按照距离用户位置的预定距离来输出GUI的图。
参照图12,可根据图11中设定的3DGUI的位置信息1107、1108、1109、1110、1111以及1112,来显示3DGUI1207、1208、1209、1210、1211以及1212。也就是说,在输出位置1107显示3DGUI1207,并且,在输出位置1108显示3DGUI1208。
可将3DGUI1207、1208、1209、1210、1211以及1212与接收到的图像1250一起显示在屏幕上。
图13是示出了根据本发明一个实施方式的、当本发明的电子设备100是数字广播接收器时电子设备1300的配置的框图。
参照图13,根据本发明的电子设备1300包括调谐器101、解调器102、解复用器103、信令信息处理器104、应用控制器105、存储器108、外部输入接收单元109、解码器/倍线器110、控制器115、混合器118、输出格式化器119以及显示单元120。除图13的配置之外,该数字广播接收器可还包括其它组件。
调谐器101调谐至特定频道,并接收包含有内容的广播信号。该内容可以是3D图像,并且该3D图像可以是立体视图图像或多视图图像。
解调器102对从调谐器101接收到的广播信号进行解调。
解复用器103将已解调的广播信号解复用为音频信号、视频信号和信令信息。通过包标识符(PID)过滤来执行解复用。为了说明的便利,在本说明书中该信令信息可以是诸如节目特定信息/节目及系统信息协议(PST/PSIP)的系统信息(SI)。
解复用器103将解复用后的音频/视频信号输出至解码器/倍线器110,并将信令信息输出至信令信息处理器104。
信令信息处理器104对解复用后的信令信息进行处理,并将处理后的信令信息输出至应用控制器105、控制器115和混合器118。信令信息处理器104可包括用于临时存储处理后的信令信息的数据库(未示出)。
应用控制器105包括频道管理器106和频道图107。频道管理器106可基于信令信息来创建并管理频道图107,并根据用户输入基于频道图107来控制频道变化。
解码器/倍线器110包括视频解码器111、音频解码器112、倍线器113以及视频处理器114。
视频解码器111和音频解码器112分别接收并处理解复用后的视频和音频信号。视频信号可包括用于显示左视图像的信号和用于显示右视图像的信号。
倍线器113对由解码器111和112处理后的信号进行缩放,以输出分别具有适当大小的信号。
用户输入单元123接收通过遥控器输入的用户按键。
应用控制器105可还包括用于GUI配置的OSD数据生成器(未示出)。另选的是,该OSD数据生成器在应用控制器105的控制下,可生成用于GUI配置的OSD数据。在一些实施方式中,控制器115可对OSD数据的生成进行控制。
应用控制器105可在存储器108中访问用于显示GUI的左视图像的第一组像素数据和用于显示该GUI的右视图像的第二组像素数据。应用控制器105可根据图7的方法基于深度设定值来对包括在所访问的第一组像素数据中的像素与包括在第二组像素数据中的像素之间的间隙进行调节。在一些实施方式中,不是由应用控制器105,而是由控制器115访问第一组像素数据和第二组像素数据,并调节这些像素之间的间隙。
显示单元120输出内容、GUI等。
混合器118对从信令处理器104、解码器/倍线器110以及应用控制器105接收到的信号进行混合,并输出混合后的信号。混合器118可将从视频解码器111输出的左视图像数据与从应用控制器105输出的第一组像素数据进行混合,并将从视频解码器111输出的右视图像数据与从应用控制器105输出的第二组像素数据进行混合。
输出格式化器119将混合器118的输出设置为适合显示单元的输出格式。输出格式化器119可在控制器115的控制下,例如作为用于绕过二维(2D)图像而处理3D图像以适于3D格式(诸如显示单元120的输出频度)的输出格式化器来操作。
输出格式化器119将3D图像数据输出至显示单元120,并且,当使用快门眼镜121观察输出的3D图像数据时生成用于同步的3D图像数据同步信号Vsync,并将该同步信号Vsync输出至快门眼镜中的IR发射器(未示出),使得用户可使用快门眼镜121来观看3D图像。
电子设备1300还包括用于确定用户位置变化值的位置确定模块122,并且,该位置确定模块122按照预定时间间隔来感测用户的位置。
用户输入单元123接收GUI输出指令。
位置确定模块122根据GUI输出指令来确定用户位置。位置确定模块122可使用图4的方法来确定用户位置。
控制器115根据所确定的用户位置来确定GUI的输出位置。此时,控制器115将GUI的深度值确定为使得GUI与用户之间的距离成为预定值。
控制器115可将GUI的深度值确定为使得GUI与用户之间的距离成为由用户设定的距离。可基于所确定的深度值来调节GUI的深度值。
输出格式化器119输出用于以3D格式按照调节后的深度值来显示GUI的左视图像数据和右视图像数据。
用户输入单元124使得用户能够按照与用户位置相对应的方式来设置GUI输出位置。
存储器108可储存GUI的输出位置信息,并且,控制器115可通过参照存储器108来确定GUI的输出位置。
存储器108可预先存储用于提供GUI的一组GUI数据。该组GUI数据可包括用于左视图像的第一组像素数据和用于右视图像的第二组像素数据。也就是说,第一组像素数据和第二组像素数据使得GUI能够按照3D图像进行显示。第一组像素数据可以是左视图像数据,并且第二组像素数据可以是右视图像数据。
存储器108可存储与广播接收器相关联的补充信息。
在本发明的示例性实施方式中,位置确定模块122可感测用户位置,并调节GUI的深度值,使得GUI的输出位置根据用户位置的变化而改变。
如果电子设备1300被设置为3D输出模式,则位置确定模块122根据GUI输出指令来确定用户位置。
IR发射器接收由输出格式化器119生成的同步信号,并将该同步信号输出至包括在快门眼镜121中的光接收单元(未示出)。快门眼镜121根据通过该光接收单元从IR发射器(未示出)接收到的该同步信号,来调节快门开启周期,并执行与从显示单元120所输出的3D图像数据的同步。
外部输入接收单元109可提供用于连接外部设备和电子设备1300的接口。外部设备包括各种视频或音频输出设备,诸如数字多功能光盘(DVD)、蓝牙设备、游戏控制台、便携式摄像机和计算机(膝上型)。电子设备1300可对从该外部输入接收单元109接收到的视频信号的显示和音频信号进行控制,并存储和使用数据信号。该视频信号可以是3D视频信号。
图14是示出了根据本发明一个实施方式的、快门眼镜的构造的图。
参照图14,快门眼镜200包括左眼快门液晶板1200和右眼快门液晶板1230。快门液晶板1200和1230用来根据源驱动电压来透过光线或阻塞光线。当由电子设备100显示左视图像时,左眼快门液晶板1200透过光线且右眼快门液晶板1230阻塞光线,使得将左视图像传送到用户的左眼。当由电子设备100显示右视图像时,左眼快门液晶板1200阻塞光线且右眼快门液晶板1230透过光线,使得将右视图像传送到用户的右眼。
在该过程中,快门眼镜200的IR发送/接收单元1160将从电子设备100接收到的IR信号转换为电子信号,并将该电子信号提供给控制器1170。控制器1170根据同步基准信号来对左眼快门液晶板1200和右眼快门液晶板1230进行控制,使其轮流开启/关闭。
如上所述,快门眼镜可还包括用于检测用户位置的IR传感器,并且,IR发送/接收单元1160可将由IR传感器检测到的信息传送至该电子设备。
对于本领域技术人员来说很明显,在不脱离本申请精神或范围的情况下,可对本发明进行各种修改和变化。因此,本发明旨在涵盖落入所附权利要求及其等同物的范围中的对本发明的修改和变型。
Claims (13)
1.一种在电子设备显示图形用户界面GUI的方法,该方法包括以下步骤:
确定用户位置,所述用户位置利用在所述电子设备中包括的传感器检测到的信息或从预定眼镜接收到的信息来确定;
基于预定距离值和所确定的位置来计算深度设定值;
基于所计算的深度设定值来对多个GUI的深度值进行调节;
按照所调节的深度值来显示所述多个GUI,所述多个GUI显示在各自输出位置;以及
确定所述用户位置是否改变,
其中,按照预定时间间隔来执行确定所述用户位置的步骤,并且,当所述用户位置变化时,再次计算所述深度设定值,并且
通过对由用户感知到的GUI的深度值进行调节,所述用户与由所述用户感知到的GUI的三维图像之间的距离被保持为所述预定距离值,与所述用户位置的改变无关。
2.根据权利要求1所述的方法,其中,计算所述深度设定值的步骤包括计算所述多个GUI中的各个GUI的单个深度设定值,并且,该单个深度设定值是基于所述预定距离值、所确定的位置及所述输出位置而计算的。
3.根据权利要求1所述的方法,其中,调节所述深度值的步骤包括:
访问存储介质中的用于显示所述多个GUI的一个左视图像的第一组像素数据和用于显示该多个GUI的一个右视图像的第二组像素数据;并且
基于所述深度设定值,来对位于包括在所访问的第一组像素数据中的像素与包括在所访问的第二组像素数据中的像素之间的间隔进行调节。
4.根据权利要求3所述的方法,该方法还包括以下步骤:
接收包括左视图像数据及右视图像数据在内的三维图像;
将所述左视图像数据与第一组像素数据混合,并将所述右视图像数据与第二组像素数据混合;并且
将用于显示混合后的左视图像数据及混合后的右视图像数据的图像信号输出到显示器。
5.根据权利要求1所述的方法,该方法还包括以下步骤:基于所述输出位置来对用于显示所述多个GUI的多组像素数据进行混合。
6.根据权利要求1所述的方法,其中,所述多个GUI包括至少一个菜单项。
7.根据权利要求1所述的方法,该方法还包括以下步骤:
检测用于请求输出位置设定的用户操作;并且
响应于检测到的用户操作,显示用于设置距离值或输出位置中的至少一个的GUI。
8.根据权利要求7所述的方法,其中,所显示的GUI包括与所述多个GUI中的一个GUI相关联的至少一个图像,并且,所述输出位置是基于该图像所处位置来确定。
9.根据权利要求8所述的方法,其中,所述图像是根据检测到的用户操作而移动的。
10.一种电子设备,该电子设备包括:
位置确定模块,其被配置为确定用户位置以及所述用户位置是否改变,所述用户位置利用在所述电子设备中包括的传感器检测到的信息或从预定眼镜接收到的信息来确定;
控制器,其被配置为基于预定距离值和所确定的位置来计算深度设定值,并且,基于所计算的深度设定值来对多个图形用户界面GUI的深度值进行调节;以及
显示器,其被配置为按照所调节的深度值来显示所述多个GUI,所述多个GUI显示在各自输出位置,
其中,所述位置确定模块被进一步配置为按照预定时间间隔来确定所述用户位置,并且,当所述用户位置变化时,所述控制器被配置为再次计算所述深度设定值,并且
通过对由用户感知到的GUI的深度值进行调节,所述用户与由所述用户感知到的GUI的三维图像之间的距离被保持为所述预定距离值,与所述用户位置的改变无关。
11.根据权利要求10所述的电子设备,其中,所述控制器计算所述多个GUI中的各个GUI的单个深度设定值,并且,该单个深度设定值是基于所述距离值、所确定的位置和所述输出位置而计算的。
12.根据权利要求10所述的电子设备,其中,所述控制器访问存储介质中的用于显示所述多个GUI的一个左视图像的第一组像素数据和用于显示所述多个GUI的一个右视图像的第二组像素数据,并且,基于所述深度设定值来对包括在所访问的第一组像素数据中的像素与包括在所访问的第二组像素数据中的像素之间的间隔进行调节。
13.根据权利要求12所述的电子设备,该电子设备还包括:
接收器,其被配置为接收包括左视图像数据及右视图像数据在内的三维图像;
混合器,其被配置为将所述左视图像数据与第一组像素数据混合,并将所述右视图像数据与第二组像素数据混合;以及
格式化器,其被配置为输出用于显示混合后的左视图像数据及混合后的右视图像数据的图像信号。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100067377A KR101719981B1 (ko) | 2010-07-13 | 2010-07-13 | 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 |
KR10-2010-0067377 | 2010-07-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102447861A CN102447861A (zh) | 2012-05-09 |
CN102447861B true CN102447861B (zh) | 2016-06-01 |
Family
ID=44582201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110240216.1A Expired - Fee Related CN102447861B (zh) | 2010-07-13 | 2011-07-12 | 按照3d图像来显示图形用户界面的电子设备及方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9030467B2 (zh) |
EP (1) | EP2408215B1 (zh) |
KR (1) | KR101719981B1 (zh) |
CN (1) | CN102447861B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011061975A1 (ja) * | 2009-11-19 | 2011-05-26 | シャープ株式会社 | 画像表示システム |
KR101816846B1 (ko) * | 2010-08-19 | 2018-01-12 | 삼성전자주식회사 | 디스플레이 장치 및 이에 적용되는 osd 제공방법 |
KR20130013248A (ko) * | 2011-07-27 | 2013-02-06 | 삼성전자주식회사 | 3d 영상 재생 기기 및 그 3d 영상 제어 방법 |
JP5242762B2 (ja) * | 2011-11-30 | 2013-07-24 | 株式会社東芝 | 画像再生装置、画像再生方法及びデータ構造 |
ES2665889T3 (es) * | 2011-12-30 | 2018-04-30 | Borealis Ag | Componente catalítico |
CN104321730B (zh) * | 2012-06-30 | 2019-02-19 | 英特尔公司 | 3d图形用户接口 |
US11237695B2 (en) * | 2012-10-12 | 2022-02-01 | Sling Media L.L.C. | EPG menu with a projected 3D image |
KR20140061098A (ko) * | 2012-11-13 | 2014-05-21 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
CN103024415B (zh) * | 2012-12-07 | 2015-11-18 | 深圳Tcl新技术有限公司 | 基于一屏双显的信源识别方法和装置 |
CN103034346B (zh) * | 2012-12-24 | 2016-11-23 | 华为软件技术有限公司 | 终端、遥控器及三维播放模式下显示器的调整方法 |
CN104063137B (zh) * | 2013-03-18 | 2017-11-28 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
KR20180045609A (ko) * | 2016-10-26 | 2018-05-04 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 표시 방법 |
US10974135B2 (en) * | 2017-09-28 | 2021-04-13 | James Andrew Aman | Interactive game theater with secret message imaging system |
US10891803B2 (en) | 2017-10-16 | 2021-01-12 | Comcast Cable Communications, Llc | User interface and functions for virtual reality and augmented reality |
WO2022156729A1 (zh) * | 2021-01-22 | 2022-07-28 | 海信视像科技股份有限公司 | 一种显示设备及显示方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0905988A1 (en) * | 1997-09-30 | 1999-03-31 | Kabushiki Kaisha Toshiba | Three-dimensional image display apparatus |
EP1806933A2 (fr) * | 2006-01-04 | 2007-07-11 | Laurence Frison | Procédé d'interaction en temps réel avec des images virtuelles en relief |
CN101266546A (zh) * | 2008-05-12 | 2008-09-17 | 深圳华为通信技术有限公司 | 一种实现操作系统三维显示的方法和一种三维操作系统 |
EP2194504A1 (en) * | 2008-12-02 | 2010-06-09 | Koninklijke Philips Electronics N.V. | Generation of a depth map |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5694530A (en) * | 1994-01-18 | 1997-12-02 | Hitachi Medical Corporation | Method of constructing three-dimensional image according to central projection method and apparatus for same |
JP3504111B2 (ja) * | 1996-06-27 | 2004-03-08 | 株式会社東芝 | 立体視システム、立体視方法、及び、異なる2つの視点から見た一対の画像を立体視可能に表示させるコンピュータプログラムを格納する記憶媒体 |
US6064354A (en) * | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
US20040246272A1 (en) * | 2003-02-10 | 2004-12-09 | Artoun Ramian | Visual magnification apparatus and method |
JP4792127B2 (ja) * | 2008-07-24 | 2011-10-12 | パナソニック株式会社 | 立体視再生が可能な再生装置、再生方法、プログラム |
CN102150433B (zh) * | 2008-09-18 | 2014-04-09 | 松下电器产业株式会社 | 立体视觉影像再现装置及立体视觉影像显示装置 |
-
2010
- 2010-07-13 KR KR1020100067377A patent/KR101719981B1/ko active IP Right Grant
-
2011
- 2011-07-12 CN CN201110240216.1A patent/CN102447861B/zh not_active Expired - Fee Related
- 2011-07-12 EP EP11173635.1A patent/EP2408215B1/en not_active Not-in-force
- 2011-07-12 US US13/181,097 patent/US9030467B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0905988A1 (en) * | 1997-09-30 | 1999-03-31 | Kabushiki Kaisha Toshiba | Three-dimensional image display apparatus |
EP1806933A2 (fr) * | 2006-01-04 | 2007-07-11 | Laurence Frison | Procédé d'interaction en temps réel avec des images virtuelles en relief |
CN101266546A (zh) * | 2008-05-12 | 2008-09-17 | 深圳华为通信技术有限公司 | 一种实现操作系统三维显示的方法和一种三维操作系统 |
EP2194504A1 (en) * | 2008-12-02 | 2010-06-09 | Koninklijke Philips Electronics N.V. | Generation of a depth map |
Also Published As
Publication number | Publication date |
---|---|
CN102447861A (zh) | 2012-05-09 |
EP2408215A2 (en) | 2012-01-18 |
US20120013612A1 (en) | 2012-01-19 |
KR101719981B1 (ko) | 2017-03-27 |
KR20120006742A (ko) | 2012-01-19 |
US9030467B2 (en) | 2015-05-12 |
EP2408215B1 (en) | 2016-06-15 |
EP2408215A3 (en) | 2012-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102447861B (zh) | 按照3d图像来显示图形用户界面的电子设备及方法 | |
CN102804789B (zh) | 接收系统和提供3d图像的方法 | |
CN102223555B (zh) | 图像显示装置及其控制方法 | |
EP2611162B1 (en) | Apparatus and method for displaying | |
US10631039B2 (en) | Image display device | |
KR20110138995A (ko) | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 | |
KR20140038799A (ko) | 영상표시장치, 서버 및 그 동작방법 | |
AU2011314521A1 (en) | 3D image display apparatus and display method thereof | |
KR101888082B1 (ko) | 영상표시장치 및 그 동작방법 | |
CN102970564A (zh) | 视频处理装置以及视频处理方法 | |
CN102970567A (zh) | 视频处理装置以及视频处理方法 | |
KR20130137927A (ko) | 영상표시장치 및 그 동작방법 | |
CN102970563A (zh) | 视频处理装置以及视频处理方法 | |
EP2803198B1 (en) | 3d display apparatus and method thereof | |
CN102970566A (zh) | 视频处理装置以及视频处理方法 | |
KR20130026236A (ko) | 영상표시장치 및 그 동작방법 | |
CN102970562A (zh) | 视频处理装置、视频处理方法以及远程控制装置 | |
US9117387B2 (en) | Image display apparatus and method for operating the same | |
KR101737832B1 (ko) | Ui 제공 방법 및 디지털 방송 수신기 | |
KR20120009897A (ko) | 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 | |
KR101598916B1 (ko) | 사용자 인터페이스 제공 방법 및 그 방법을 채용한 디지털 방송 수신기 | |
KR101660731B1 (ko) | 디지털 방송 수신기의 시청 제한 방법 및 그 방법을 채용한 디지털 방송 수신기 | |
KR101662077B1 (ko) | 방송프로그램 정보 제공 방법 및 그 방법을 채용한 디지털 방송 수신기 | |
KR20110091409A (ko) | Ui 제공 방법 및 디지털 방송 수신기 | |
KR20130066335A (ko) | 영상표시장치, 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160601 Termination date: 20210712 |
|
CF01 | Termination of patent right due to non-payment of annual fee |