CN103155579A - 3d图像显示设备及其显示方法 - Google Patents

3d图像显示设备及其显示方法 Download PDF

Info

Publication number
CN103155579A
CN103155579A CN2011800494449A CN201180049444A CN103155579A CN 103155579 A CN103155579 A CN 103155579A CN 2011800494449 A CN2011800494449 A CN 2011800494449A CN 201180049444 A CN201180049444 A CN 201180049444A CN 103155579 A CN103155579 A CN 103155579A
Authority
CN
China
Prior art keywords
display element
depth value
eye image
display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800494449A
Other languages
English (en)
Other versions
CN103155579B (zh
Inventor
延守珍
李相一
李惠元
金甫美
郑文植
李妍憙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103155579A publication Critical patent/CN103155579A/zh
Application granted granted Critical
Publication of CN103155579B publication Critical patent/CN103155579B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/339Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种三维(3D)图像显示设备的显示方法。所述显示方法包括如下步骤:显示具有第一深度值的第一显示元素;调整第一显示元素和具有第二深度值的第二显示元素中的至少一个显示元素的深度值,其中,第二显示元素在显示具有第一深度值的第一显示元素的状态下与第一显示元素重叠显示或显示在第一显示元素之上;显示已调整深度值的第一显示元素和与第一显示元素重叠显示或显示在第一显示元素之上的第二显示元素显示元素,其中,通过调整的深度值显示第一显示元素和第二显示元素中的所述至少一个显示元素。因此,在执行用户接口(UI)时可增强用户的关注和识别。

Description

3D图像显示设备及其显示方法
技术领域
本发明涉及一种三维(3D)图像显示设备及其显示方法,更具体地讲,涉及一种可提供3D图形用户界面(GUI)的3D图像显示设备及其显示方法。
背景技术
3D立体图像技术具有诸如信息通信、广播、医疗、教育训练、军事、游戏、动画、虚拟现实、计算机辅助设计、工业技术等跨度很大的应用领域,并且可能是在上述领域中共同需要的下一代3D立体多媒体信息通信的核心基础技术。
通常,3D效果,通过根据将被观察的对象的位置的晶状体的厚度改变的程度、双眼与对象之间的角度差、对象的位置和形状在左眼与右眼之间的差,根据对象的移动而发生的视差(disparity)以及各种类型的心理和记忆引起的其它效果的综合作用而发生。
在这些因素中,两个人眼之间的大约6-7cm的距离引起的双眼视差可能是最重要的因素。由于双眼视差,两个眼睛以不同角度观看同一对象,并且由于两眼之间的角度差,在两眼上分别形成不同图像。所述两个图像通过视网膜传输到观看者的大脑,并且大脑精确地协调所述两种类型信息,从而观看者可感受原始3D立体图像。
3D图像包括由左眼识别的左眼图像和由右眼识别的右眼图像。此外,3D显示设备使用左眼图像与右眼图像之间的视差表现图像的3D效果。如上所述,通过交替地显示左眼图像和右眼图像来实现3D图像的环境被称作立体3D图像。
为了以二维(2D)图像表现3D图像,已经使用了改变透明度、执行阴影处理、改变纹理等的方法。但是,在使用3D显示设备的情况下,连UI也可被赋予3D效果。
图1和图17是解释现有技术中的问题的示图。
图1示出通过将变化给予视觉图形元素(诸如,位置、大小、颜色等)来表现选择(关注)的不同的一般2D图形(例如,2.5或3D)用户接口(UI)屏幕。
图17示出通过立体3D表现UI的方法,其中,在通过立体3D表现UI的方法中,利用存在于屏幕上的对象被观看时发生的两眼之间的视点差通过沿Z轴方向的深度值表现对象,并通过这样的深度值立体地表现在屏幕上选择的元素与剩余元素之间的关注信息。
如图17所示,在具有相同特性的UI元素相互重叠地表示在利用立体3D立体地再现具有深度值的一个或多个UI元素的屏幕上的情况下,存在于屏幕上的现有的3D UI元素与新UI元素之间的深度值相互抵触,引起视觉干涉的发生。
因此,由于选择的UI对象与未选择的UI对象的区分在屏幕上变得不清楚,所以在视觉上或UI操作上给用户造成混乱,并且由于示出在屏幕上的多个UI元素而产生的过多的3D值可引起用户视觉疲劳。
因此,当通过深度在背景上显示3D图像时,3D图像可能与其应被表现不同地被表现,或者可能引起用户的视觉疲劳。
发明内容
技术问题
针对至少上述问题和/或缺陷提出了本发明,并且本发明至少提供下面描述的优点。因此,本发明的一方面提供了一种可布置和提供3D显示元素中的深度值的3D图像显示设备及其显示方法。
技术方案
根据本发明的一方面,一种3D图像显示设备的显示方法包括如下步骤:显示具有第一深度值的第一显示元素;调整第一显示元素和具有第二深度值的第二显示元素中的至少一个显示元素的深度值,其中,第二显示元素在显示具有第一深度值的第一显示元素的状态下与第一显示元素重叠显示或显示在第一显示元素之上;显示已调整深度值的第一显示元素和与第一显示元素重叠显示或显示在第一显示元素之上的第二显示元素,其中,通过调整的深度值显示第一显示元素和第二显示元素中的所述至少一个显示元素。
根据本发明的另一方面,一种3D图像显示设备包括:显示处理单元,用于产生具有第一深度值的第一显示元素和具有第二深度值的第二显示元素;显示单元,用于显示产生的第一显示元素和第二显示元素;控制单元,用于调整和显示第一显示元素和具有第二深度值的第二显示元素中的至少一个显示元素的深度值,其中,第二显示元素在显示具有第一深度值的第一显示元素的状态下与第一显示元素重叠显示或显示在第一显示元素之上,其中,通过调整的深度值显示第一显示元素和第二显示元素中的所述至少一个显示元素。
有益效果
因此,可在视觉上稳定3D UI元素的显示状态并且可增强用户对于3D UI元素的关注和识别。
附图说明
通过下面结合附图进行的详细描述,本发明的上述和其它方面、特征和优点将会变得更加清楚,其中:
图1和图17是解释现有技术中的问题的示图;
图2是示出根据本发明的实施例的3D图像提供系统的示图;
图3是示出根据本发明的实施例的显示设备的构造的框图;
图4是示出根据本发明的实施例的左眼图像与右眼图像之间的视差的示图;
图18是示出根据本发明的实施例的视差与深度值之间的关系的示图;
图5、图9和图20是示出应用了根据本发明的实施例的显示方法的情况的示图;
图6、图21、图22以及图7、图23、图24是示出根据本发明的实施例的显示方法的示图;
图8、图25、图26以及图9、图27、图28是示出根据本发明的另一实施例的显示方法的示图;
图10是示出根据本发明的实施例的3D图像显示设备的显示方法的流程图;
图11是示出应用了根据本发明的实施例的显示方法的3D图像的示例的示图;
图12和图29是示出根据本发明的实施例的调整视差信息的方法的示图;
图13和图30是示出根据本发明的实施例的调整深度的方法的流程图;
图14和图31是示出根据本发明的实施例的根据先前存储的成像距离调整左眼图像和右眼图像的集合以及参考表面的方法的示图;
图15、图32、图33是示出应用了根据本发明的实施例的调整深度的方法的示例的示图;
图16、图34、图35是示出应用了根据本发明的实施例的调整深度的方法的其它示例的示图。
具体实施方式
下面,参照附图详细说明本发明的优选实施例。作为参考,在解释本发明中,将不会详细描述公知功能或结构,以避免通过不必要的细节混淆说明。
图2是示出根据本发明的实施例的3D图像提供系统的示图。如图2所示,3D图像提供系统包括用于在显示器上显示3D图像显示设备100以及用于观看3D图像的3D眼镜200。
3D图像显示设备100可被实现为显示3D图像或显示2D图像和3D图像二者。
在3D图像显示设备显示2D图像的情况下,可使用与现有的2D显示设备相同的方法,而在3D图像显示设备100显示3D图像的情况下,接收的2D图像可被转换为3D图像,并且转换的3D图像可显示在屏幕上。根据环境,从成像装置(诸如,相机)接收的3D图像或通过相机捕获、在广播站被编辑/处理并从广播站发送的3D图像可被接收和处理,以被显示在屏幕上。
具体地讲,3D图像显示设备100可通过参考3D图像的格式来处理左眼图像和右眼图像,并使处理的左眼图像和右眼图像被时间划分和交替显示。用户可通过使用3D眼镜200利用左眼和右眼交替观看显示在显示设备100上的左眼图像和右眼图像,来观看3D图像。
通常,由于观察者的左眼和右眼在细微不同的位置观察一个3D对象,所以观察者通过左眼和右眼识别细微不同的图像信息。观察者通过组合细微不同的图像信息来获得关于3D对象的深度信息,并感受3D效果。
根据本发明的3D图像显示设备100通过将当观察者实际观察3D对象时观察者的左眼和右眼能够看到的图像提供给观察者来使观察者感受3D图像。在这种情况下,观察者的左眼和右眼看到的图像之差被称作视差。如果这样的视差具有正值,则观察者感受如3D对象朝观察者的方向接近预定参考表面一样,而如果视差具有负值,则观察者感受如3D对象朝与观察者相反方向远离一样。
3D眼镜200可通过主动式快门眼镜被实现。快门眼镜类型对应于使用双眼的视差的显示方法,其中,所述方法使观察者从图像识别出由大脑作用引起的空间感,其中,通过显示设备的图像提供和3D眼镜的左眼和右眼二者的开/关操作的同步来观察所述图像。
快门眼镜类型的原理在于使在3D图像显示设备100中再现的左眼图像帧和右眼图像帧与安装在3D眼镜200上的快门同步。即,随着3D眼镜的左眼镜和右眼镜根据3D图像显示设备100的左图像同步信号和右图像同步信号被选择性地开启和关闭,3D立体图像被提供。
另一方面,3D图像显示设备100可在屏幕上与3D图像一起显示3D显示元素(例如,3D UI(具体地讲,GUI))。这里,GUI是用于通过选择显示在显示器上的图标或菜单来输入用户命令的手段。例如,用户可参照通过GUI显示在显示器上的菜单、列表、图标等来移动指针,并选择所述指针所位于的项目。
由于3D图像显示设备100可通过仅调整用于3D效果的左眼图像与右眼图像之间的视差来实现3D图像,所以3D图像显示设备100可无需经过单独图像处理(缩放、纹理和透视效果处理)而提供3D GUI。
图3是示出根据本发明的实施例的显示设备的构造的框图。
参照图3,根据本发明的实施例的3D图像显示设备100包括图像接收单元110、图像处理单元120、显示单元130、控制单元140、存储单元150、用户接口单元160、UI处理单元170和同步信号处理单元180。
另一方面,虽然图2示出3D图像显示设备100是3D电视(TV),但是这仅是示例性的,并且根据本发明的实施例的3D图像显示设备100可通过可显示3D UI元素的所有装置(诸如,数字电视、移动通信终端、移动电话、个人数字助理(PDA)、智能电话、数字多媒体广播(DMB)电话、MPEG音频层III(MP3)播放器、音频电器、便携式TV和数码相机)被实现。
图像接收单元110接收并解调从广播站或卫星有线或无线地接收的2D或3D图像信号。此外,图像接收单元110可连接到诸如相机的外部电器,以从该外部电器接收3D图像。外部电器可被无线地连接或经由诸如S-Video、分量、复合、D-Sub、数字视觉接口(DVI)和高清晰度多媒体接口(HDMI)被有线连接。由于2D图像处理方法是本领域技术人员公知的,所以下面将围绕3D图像处理方法进行解释。
如上所述,3D图像是包括至少一个帧的图像。一个帧可包括左眼图像和右眼图像,或者每个帧可由左眼帧或右眼帧构成。即,3D图像是根据不同的3D格式之一产生的图像。
因此,图像接收单元110中接收的3D图像可以是各种格式,并且具体可以是,根据一般上下类型、左右类型、水平交织类型、垂直交织类型或跳棋盘(checker board)类型以及顺序帧中的一个的格式。
图像接收单元110将接收的2D图像或3D图像传送到图像处理单元120。
图像处理单元120对于在图像接收单元110中接收的2D图像或3D图像执行信号处理(诸如,视频解码、格式分析以及视频缩放)以及GUI添加的任务等。
具体地讲,图像处理单元120使用输入到图像接收单元110的2D图像或3D图像的格式产生对应于一个屏幕的大小(例如,1920*1080)的左眼图像和右眼图像。
例如,如果3D图像的格式是根据上下类型、左右类型、水平交织类型、垂直交织类型或跳棋盘类型或顺序帧的格式,则图像处理单元120通过从每个图像帧提取左眼图像部分和右眼图像部分并执行提取的左眼图像和右眼图像的放大或插入,来产生将被提供给用户的左眼图像和右眼图像。
此外,如果3D图像的格式是一般帧顺序类型,则图像处理单元220从每个帧提取左眼图像或右眼图像,并准备将提取的图像提供给用户。
另一方面,关于输入的3D图像的格式的信息可被包括在3D图像信号或可不被包括在3D图像信号中。
例如,如果关于输入的3D图像的格式的信息包括在3D图像信号中,则图像处理单元120通过分析3D图像来提取关于格式的信息,并根据提取的信息处理接收的3D图像。相反,如果关于输入的3D图像的格式的信息没有包括在3D图像信号中,则图像处理单元120根据从用户输入的格式处理接收的3D图像,或根据预设格式处理接收的3D图像。
图像处理单元120执行提取的左眼图像和右眼图像的时间划分,并将时间划分的左眼图像和右眼图像交替地传送至显示单元130。即,图像处理单元120以“左眼图像(L1)?右眼图像(R1)?左眼图像(L2)?右眼图像(R2)?…”的时间顺序将左眼图像和右眼图像传送至显示单元130。
此外,图像处理单元120可将由屏幕显示(OSD)处理单元150产生的OSD图像插入黑色图像,或处理并提供OSD图像自身作为为一个图像。
显示单元130将从图像处理单元120输出的左眼图像和右眼图像交替地输出给用户。
控制单元140根据从用户接口单元170传送的用户命令或预设选项,控制显示设备100的全部操作。
具体地讲,控制单元140控制图像接收单元110和图像处理单元120接收3D图像,将接收的3D图像分离为左眼图像和右眼图像,通过分离的左眼图像和右眼图像可在一个屏幕上显示的大小执行分离的左眼图像和右眼图像的缩放或插入。
此外,控制单元140控制切换显示单元130,使得通过显示单元130提供的图像的偏振方向与左眼图像或右眼图像一致。
此外,控制单元140可控制稍后描述的UI处理单元170的操作。
UI处理单元150可产生被显示以与输出到显示单元130的2D图像或3D图像重叠的显示元素并将产生的显示元素插入到3D图像中。
此外,UI处理单元150可设置和产生根据显示元素(例如,UI元素及其属性等)的执行顺序而不同的深度值。这里,深度值表示表示在3D图像中所感受到的深度的程度的数字值。3D图像可表现深度感受,其中,所述深度感受不仅对应于在屏幕上的上、下、左、右方向的位置,还对应于作为观众的眼睛的方向的向前方向和向后方向的位置。在这种情况下,深度感受由左眼图像与右眼图像之间的视差确定。因此,3D内容列表GUI的深度值对应于左眼GUI与右眼GUI之间的视差。稍后将参照图5和图6更详细地描述深度值与视差之间的关系。
这里,UI元素可被显示为与显示图像重叠,作为在显示屏幕上显示菜单屏幕、警告表达、时间和频道号的字符或图形的屏幕。
例如,警告表达可根据预设选项或事件以OSD形式被显示为UI元素。
另一方面,当用户操作输入装置(诸如,操作面板和遥控器)来从菜单选择期望的功能时,主菜单、子菜单等可作为UI元素以OSD形式显示在显示屏幕上。
这样的菜单可包括可在显示设备中选择的选项项目或可调整显示设备的功能的项目。
此外,UI处理单元150可在控制单元140的控制下执行UI元素的2D/3D转换、透明度、颜色、大小、形状和位置调整、高亮显示、动画效果等的操作。
控制单元140可计算第二显示元素对第一显示元素的相对深度的值,可从对应于不同深度值的多个预先存储的左眼和右眼图像的集合检测与所述计算的相对深度值对应的左眼图像和右眼图像的集合,并且可将第二显示元素的左眼图像和右眼图像替换为检测的集合的左眼图像和右眼图像。
此外,控制单元140可将第二显示元素的左眼图像和右眼图像中的一个替换为另一图像。
此外,控制单元140可根据第一显示元素的左眼图像和右眼图像的距离调整屏幕上的第二显示元素的左眼图像和右眼图像之间的距离,并且可显示距离被调整的左眼图像和右眼图像。
第一显示元素可以是背景元素,并且第二显示元素可以是在背景元素上的内容元素。
存储单元160是存储了操作3D图像显示设备所需的各种类型的程序的存储介质,并且可通过存储器、硬盘驱动器(HDD)等实现。例如,存储单元可包括存储用于执行控制单元140的操作的程序的只读存储器(ROM)、用于临时存储根据控制单元140的操作执行的数据的随机存取存储器(RAM)等。存储单元160还可包括用于存储各种类型的参考数据的电可擦除可编程ROM(EEPROM)。
用户接口单元170将从输入装置(诸如,遥控器、输入面板等)接收的用户命令传送至控制单元140。
这里,输入面板可以是触摸垫、包括各种类型的功能键、数字键、专用键、字符键等的键区或触摸屏。
同步信号处理单元180产生用于交替地开启3D眼镜200的左眼快门眼镜和右眼快门眼镜以匹配左眼图像和右眼图像的显示时序的同步信号,并将同步信号传送给3D眼镜200。因此,3D眼镜200被交替开启和关闭,使得左眼图像在3D眼镜200的左眼开启时序显示在显示单元130上,右眼图像在3D眼镜200的右眼图像开启时序显示在显示单元130上。这里,可以以红外线的形式发送同步信号。
控制单元140根据从用户接口单元170传送的用户操作,控制3D图像显示设备100的全部操作。
具体地讲,控制单元140控制图像接收单元110和图像处理单元120接收3D图像,将接收的3D图像分离为左眼图像和右眼图像,利用可被显示在一个屏幕上的分离的左眼图像和右眼图像大小执行分离的左眼图像和右眼图像的缩放或插入。
此外,控制单元140控制OSD处理单元150产生与从用户接口单元170传送的用户操作对应的OSD,并控制同步信号处理单元产生并发送与左眼图像和右眼图像的输出时序同步的同步信号。
此外,如果在具有第一深度值的第一UI元素显示的状态下,具有第二深度值的第二UI元素被执行以与第一UI元素重叠显示,则控制单元140可操作以使用第一UI元素的深度值调整第一UI元素和第二UI元素的深度值中的至少一个。
详细地讲,控制单元140可考虑第一UI元素和第二UI元素中的每一个的深度值来调整第一UI元素与第二UI元素之间的深度值之差。
详细地讲,控制单元140可将第二UI元素的第二深度值改变为预设深度值,然后与第二UI元素已改变的深度值一样大地改变第一UI元素的第一深度值。这里,预设深度值可以是小于第二深度值的值。此外,预设深度值可包括显示屏幕的深度值。
此外,如果在多个具有相应的深度值的UI元素已被执行为显示的状态下,新的UI元素被执行以与所述多个UI元素重叠显示,则控制单元140可将已被执行为显示的所述多个UI元素的深度值调整为相同深度值。这里,调整的深度值可小于新执行的UI元素的深度值。
此外,如果第一UI元素和第二UI元素的重叠显示被取消,则控制单元140可将第一UI元素和第二UI元素的调整的深度值调整为原始深度值。
另一方面,被执行以与已被执行为显示的UI元素重叠显示的UI可以是具有反馈属性(其中,所述反馈属性包括与已执行的UI元素相关的事件内容)的UI元素或具有包括与已执行的UI元素不相关的事件内容的闹铃、警告和弹出的至少一个属性的UI元素。
3D眼镜200通过根据从3D图像显示设备100接收的同步信号交替地开启和关闭左眼快门眼镜和右眼快门眼镜,来使用户分别通过左眼和右眼观看左眼图像和右眼图像。
另一方面,显示单元130可包括诸如面板驱动单元(未示出)、显示面板单元(未示出)、背光驱动单元(未示出)、背光发射单元(未示出)的具体构造,将省略对其的详细解释。
在这种情况下,通过左眼图像与右眼图像之间的视差确定深度值,这将参照图4A和图4B详细描述。
图4是示出根据本发明的实施例的左眼图像与右眼图像之间的视差的示图。
图4示出左眼图像的对象410与右眼图像的对象420相互重叠。但是,在屏幕上的实际显示的情况下,左眼图像的对象410和右眼图像的对象420被交替显示。
如图4所示,左眼图像的对象410与右眼图像的对象420的不匹配的程度被称作视差。
图18示出根据本发明的实施例的视差和深度值之间的关系。
图18示出在TV屏幕和用户的眼睛之间发生的视差。用户的眼睛具有根据两眼之间的距离的视差。
此外,如图18所示,可以确认,更接近用户的对象具有更大视差。具体地讲,在显示位于TV屏幕的表面(即,深度值为“0”)上的对象的情况下,左眼图像和右眼图像显示在一个位置,而没有视差。相反,在显示位于稍微接近观众的位置并因此深度值为“-1”的对象的情况下,需要左眼图像440和右眼图像445显示在相互分离视差“1”的位置。此外,在显示位于更为接近观众的位置并因此深度值为“-2”的对象的情况下,需要左眼图像440和右眼图像显示在相互分离视差“2”的位置。
如上所述,可以确认,深度值是对应于视差的值。因此,3D TV100可无需单独图像处理而使用左眼GUI和右眼GUI之间的视差设置3D GUI的深度值。
以下,参照图5A至图9C,将描述调整UI元素的深度值的方法。虽然图5A至图9C示出2D状态下的UI,但是需要注意的是,它们实际表示通过交替地显示左眼GUI和右眼GUI而实现的立体3D GUI。
图5、图19、图20示出应用了根据本发明的实施例的显示方法的情况的示图。
如图5A所示,在可再现立体3D的屏幕上,UI“A”和UI“B”被布置为具有等于或至少大于通过像素视差沿Z轴方向的显示屏幕的深度值的深度值。详细地讲,从左眼像素投射的左眼图像形成为与右眼图像具有预定视差的图像,从右眼像素投射的右眼图像形成为与左眼图像具有预定视差的图像。因此,当观察者的左眼和右眼识别从左眼像素投射的左眼图像和从右眼投射的右眼图像时,观察者可通过获得与在观察者通过左眼和右眼观看实际3D对象的情况下的深度信息相同的深度信息,来感受3D效果。
在这种情况下,由于当前选择的UI“B”晚于UI“A”而执行,所以UI“B”可位于显示屏幕的上端。
然后,如图19所示,通过用户对于选择的UI“B”的输入而执行的UI“B1”可位于显示屏幕的上端并具有沿Z轴方向的大于UI“A”或UI“B”的深度值的深度值。这里,UI“B1”是一种与UI“B”相关的UI事件,并且可以是具有作为根据用户的输入的执行结果的诸如反馈的特性的UI元素。
此外,如图20所示,附加执行的UI“C”可位于显示屏幕的上端并具有沿Z轴方向大于UI“A”或UI“B”的深度值的深度值。这里,UI“C”可以是作为与UI“A”或UI“B”无关的单独的UI事件而通过产生新窗口(诸如,警报或警告消息窗口或弹出形式)而执行的新的UI元素。
图6、图21、图22、图7、图23和图24是示出根据本发明的实施例的显示方法的示图。
图6、图21、图22、图7、图23和图24涉及在UI执行屏幕从图5A所示的UI执行屏幕改变为图5B所示出的UI执行屏幕的情况下的显示方法。
这里,图6、图21和图22示出立体3D屏幕的前视图,图7、图23和图24示出上视图。图6A至图6C示出的状态对应于图7、图23和图24示出的UI执行状态。
如图6所示,在执行具有不同深度值的UI元素A610、UI元素B620和UI元素630的屏幕上,如图6B所示的具有预定深度值的UI元素1-1611-1可根据用户的命令或预设选项被重叠执行。现在,将重叠执行的UI元素1-1611-1是与已执行的UI元素A(例如,具有对于UI元素A-1611的反馈特性的UI元素)相关的UI元素的情况作为示例而进行描述。
当如图21所示,具有预定深度值的UI元素1-1611-1重叠执行时,已执行的UI元素A、B和C以及将被新执行的UI元素1-1611-1的深度值可如图22所示被调整和显示。
将参照图7、图23和图24描述调整新执行的UI元素1-1611-1的深度值的详细方法。
图7所示的各个UI元素对应于图6所示的各个UI元素,并且可以确认:示出的UI元素A610(具体地讲,UI元素A-1611)正被执行。
图23所示的各个UI元素对应于图21所示的各个UI元素,并且可以确认:具有预定深度值的UI元素1-1611-1正与UI元素A-1611重叠地执行。
图24所示的各个UI元素对应于图22所示的各个UI元素,并且示出的重叠执行的UI元素1-1611-1可移动如预定深度值Z(*)一样大,然后已执行的UI元素可移动如UI元素1-1611-1已移动的深度值(即,Z(1-1)-Z(*))一样大。
即使在这种情况下,由用户最后输入的UI元素1-1611-1维持具有在当前的显示屏幕的最上端的深度值的特性。
图8、图25、图26、图9、图27和图28是示出根据本发明的另一实施例的显示方法的示图。
图8、图25、图26、图9、图27和图28涉及UI执行显示屏幕从图5所示的UI执行显示屏幕改变到图20所示的UI执行显示屏幕的情况下的显示方法。
这里,图8、图25和图26示出立体3D屏幕的前视图,图9、图27和图28示出上视图。图8A至图8C示出的状态对应于图9、图27和图28示出的UI执行状态。
如图8所示,在执行具有不同深度值的UI元素A810、UI元素B820和UI元素C830的屏幕上,如图25所示的具有预定深度值的UI元素840可根据用户的命令或预设选项被重叠执行。现在,将以重叠执行的UI元素840是与已执行的UI元素A810、UI元素B820和UI元素C830不相关的UI元素的情况为示例进行描述。例如,UI元素D可以是作为与已执行的UI元素A、B和C无关的单独的UI事件而通过产生新窗口(诸如,警报或警告消息窗口或弹出形式)而执行的新的UI元素。
在如图8B所示,具有预定深度值的UI元素840被重叠执行的情况下,如图26所示,已执行的UI元素A810、UI元素B820和UI元素C830和将被新执行的UI元素840的深度值可被调整和显示。
将参照图9、图27和图28描述调整新执行的UI元素840的深度值的详细方法。
图9示出的各个UI元素对应于图8示出的各个UI元素,并且可以确认:示出的UI元素A810正被执行。
图27示出的各个UI元素对应于图25示出的各个UI元素,并且可以确认:示出的具有预定深度值的UI元素840与UI元素A810、UI元素B820和UI元素C830重叠地执行。
图28示出的各个UI元素对应于图28示出的各个UI元素,并且除示出的重叠执行的UI元素840之外的已执行的UI元素A810、UI元素B820和UI元素C830可被移动为具有相同深度值Z(#)。
即使在这种情况下,除Z(#)为0的情况之外,通过相同深度值Z(#)合并的UI元素A810、UI元素B820和UI元素C830维持具有预定深度值的3D UI特性。
另一方面,在图6、图21、图22、图7、图22、图23、图24、图8、图25、图26、图9、图27和图28示出的实施例中,为了便于解释,举例了UI元素沿+Z轴方向重叠执行的情况。但是,这仅是示例性的,相同原理可应用于UI元素沿-Z轴方向执行的情况和UI元素沿+Z轴方向和-Z轴方向混合执行的情况。
此外,在图6、图21、图22、图7、图22、图23、图24、图8、图25、图26、图9、图27和图28示出的实施例中,举例了:在UI与当前执行的元素相关的情况下如图6、图21、图22、图7、图22、图23所示的方法调整深度值,而在UI与当前执行的元素不相关的情况下如图8、图25、图26、图9、图27和图28所示的方法调整深度值。但是,这仅是示例性的,可以不考虑UI元素的特性而应用图6、图21、图22、图7、图22、图23所示的显示方法和图8、图25、图26、图9、图27和图28所示的显示方法。
图10是示出根据本发明的实施例的3D图像显示设备的显示方法的流程图。
参照图10,根据3D图像显示设备的显示方法,具有第一深度值的第一UI元素被显示(S1010),具有第二深度值的第二UI元素被执行为与第一UI元素重叠显示(S1020)。这里,深度值可对应于左眼UI与右眼UI之间的视差。
然后,使用第一UI元素的深度值调整第一UI元素和第二UI元素的至少一个深度值(S1030)。
然后,显示第一UI元素和第二UI元素中的在步骤S1030已调整深度值的至少一个(S1040)。
这里,在步骤S1030,可考虑第一UI元素和第二UI元素的每一个深度值来调整第一UI元素与第二UI元素之间的深度值之差。
此外,在步骤S1030,第二UI元素的深度值可改变为预设深度值,然后第一UI元素的第一深度值可改变如第二UI元素已经改变的深度值一样大。
这里,预设深度值可以是小于第二UI元素的第二深度值的值。
此外,预设深度值可包括显示屏幕的深度值。
此外,在执行第二UI元素之前,可显示具有第三深度值的第三UI元素。在这种情况下,如果具有第二深度值的第二UI元素被执行为与第一UI元素和第三UI元素重叠显示,则深度值调整步骤可将第一UI元素的第一深度值和第三UI元素的第三深度值调整为相同深度值。
这里,第一UI元素和第三UI元素的调整的相同深度值可以是小于第二UI元素的第二深度值的值。
此外,如果第一UI元素和第二UI元素的重叠显示的执行被取消,则第一UI元素和第二UI元素的调整的深度值可被调整为原始深度值。
另一方面,第二UI元素可以是具有包括与第一UI元素相关的事件内容的反馈属性的UI元素,且可以是具有包括与第一UI元素不相关的事件内容的警报、警告和弹出中的至少一个属性的UI元素。
图11是示出应用了根据本发明的实施例的显示方法的3D图像的示例的示图。
参照图11,当具有深度的内容B或包括内容B的3D图像显示在具有深度的背景UI A之上时,可应用根据本发明的实施例的显示方法。
图12和图29是示出根据本发明的实施例的调整视差信息的方法的示图。
参照图12,当具有深度的内容1212或包括内容1212的3D图像1213显示在具有深度的背景UI1211之上时,内容1212或3D图像1213可以与意图不相同地被表现。例如,内容1212或3D图像1213可被显示为凹进背景UI1211或远离背景UI1211。
在此示例中,参照图29,3D图像1213的左眼图像1214和右眼图像1215可分别被替换为用于调整视差的左眼图像1214-1和右眼图像1215-1。
左眼图像1214-1和右眼图像1215-1可以是考虑背景UI1211的深度和3D图像1213的深度而创建的图像。
例如,当背景UI1211的深度在Z轴上是+1并且3D图像1213的深度在Z轴上是+z时,左眼图像1214-1和右眼图像1215-1可以是深度为(z+1)的3D图像的左眼图像和右眼图像。
因此,当深度为+1的背景UI1211被设置为参考表面时,替换3D图像1213的3D图像1213-1的左眼图像和右眼图像可表现为凸出背景UI1211如+z一样多。
图13和图30是示出根据本发明的实施例的调整深度的方法的流程图。
参照图13,在步骤S1310,可发生用于在具有Z轴深度值的背景UI上显示3D图像(当前3D图像)的事件。在示例中,3D照片可以显示在具有Z轴深度值的帧之上。
在步骤S1320,可调用与从对象开始的不同距离对应的对象的左眼图像和右眼图像的多个集合。左眼图像和右眼图像的多个集合可以是通过3D相机在与从对象开始的不同距离处捕获的左眼图像和右眼图像的集合。
在步骤S1330,可从左眼图像和右眼图像的多个集合搜索对于背景UI具有沿Z轴的相对深度的左眼图像和右眼图像的集合。例如,当背景UI的Z轴深度为+1时,可从左眼图像和右眼图像的多个集合搜索在+1的距离处捕获的对象的左眼图像和右眼图像的集合。在该示例中,如果当前3D图像具有+z的深度,则可从左眼图像和右眼图像的多个集合搜索深度为(z+1)的左眼图像和右眼图像的集合。
为了达到上述目的,如图14所示,可预先存储与不同的成像距离对应的多个左眼图像和右眼图像。
在步骤S1340,可将当前3D图像的左眼图像和右眼图像分别替换为在步骤S1330返回的左眼图像和右眼图像。
在步骤S1350,可根据背景UI的左眼图像与右眼图像的距离调整返回的左眼图像与右眼图像在屏幕上的距离,并且可显示距离被调整的左眼图像和右眼图像。因此,用于返回的左眼图像和右眼图像的参考表面可被调整为对应于背景UI。
例如,参照图31,当背景UI的左眼图像与右眼图像之间的距离为+1并且当前3D图像的左眼图像与右眼图像之间的距离为+d时,获得的左眼图像与右眼图像之间的距离被调整+1,使得它们被显示为相互分离(d+1)距离。
参照图30,响应于步骤S1311的用于在具有Z轴深度值的背景UI上显示3D图像(当前3D图像)的事件,在步骤S1321,当前3D图像的左眼图像和右眼图像中的一个可被另一图像替换。因此,3D图像的深度可被去除。
在步骤S1331,可根据背景UI的左眼图像与右眼图像在屏幕上的距离调整替换的左眼图像和右眼图像之间的距离,并且距离被调整的左眼图像和右眼图像可被显示。因此,替换的左眼图像和右眼图像的参考表面可被调整为对应于背景UI。
图14和图31是示出根据本发明的实施例的根据预先存储的成像距离调整左眼图像和右眼图像的集合和参考表面的方法的示图。
图15、图32和图33是示出应用了根据本发明的实施例的调整深度的方法的示例的示图。
图15示出在显示屏幕1510上具有深度的对象1512重叠显示在被显示为具有深度的背景缩略图1511之上的示例。
图32和图33示出根据本发明的实施例的调整深度的方法应用于图15中示出的示例。
更详细地讲,图32示出图13所示的方法应用于图15中示出的示例。
参照图15和图32,可调整对于背景UI1511的对象1512的深度,并且可显示深度被调整的对象1512-1。
图33示出图13B示出的方法应用于图15示出的示例。
在图33中,与图32相似,可调整对于背景UI1511的对象1512的深度,并且可显示3D深度被调整的对象1512-2。
图16、图34和图35是示出应用了根据本发明的实施例的调整深度的方法的其它示例的示图。
图16示出背景UI1611从在显示屏幕1610上的一个点(x,y)至另一点(x,y)具有不同的Z轴深度以及具有深度的对象1612显示在背景UI1611上的示例。
例如,参照图16,对象1612从点(x1,y1)移动至点(x2,y2)。
图34和图35示出根据本发明的实施例的调整深度的方法应用于图16所示的示例。
更详细地讲,图34示出图13所示的方法应用于图16A所示的示例。
参照图16和图34,可调整对于背景UI1611的对象1612的深度,并且可显示深度被调整的对象1612-1。
图35示出图13B所示的方法应用于图16所示的示例。
在图35中,与图34相似,可调整对于背景UI1511的对象1612的深度,并且可显示3D深度被调整的对象1612-2。
此外,本发明可包括包含用于执行如上所述的3D图像显示设备的显示方法的程序的计算机可读记录介质。计算机可读记录介质包括存储有可被计算机系统读取的数据的所有类型的记录装置。计算机可读记录介质的示例可包括例如ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置等。此外,计算机可读记录介质可分布于通过网络连接的计算机系统,并且可存储和执行可由计算机以分布式方式读取的代码。
因此,通过布置3D UI元素的深度值,可在视觉上稳定3D UI元素的显示状态。
此外,可增强用户对于3D UI元素的关注和识别。
此外,当3D图像显示在具有深度的背景UI之上时,可通过背景UI一样大的深度自然地显示3D图像中的对象。
此外,可以去除3D图像的深度,因此防止3D图像的对象的视差信息与背景UI的深度之间的不一致性。
虽然参照本发明的特定实施例示出和描述了本发明,但本领域技术人员应该理解,在不脱离由权利要求及其等同物限定其范围的本发明的原理和精神的情况下,可以对本发明进行形式和细节的各种修改。

Claims (15)

1.一种三维(3D)图像显示设备的显示方法,所述方法包括如下步骤:
显示具有第一深度值的第一显示元素;
调整第一显示元素和具有第二深度值的第二显示元素中的至少一个的深度值,其中,第二显示元素在显示具有第一深度值的第一显示元素的状态下与第一显示元素重叠显示或显示在第一显示元素之上;
显示已调整深度值的第一显示元素和与第一显示元素重叠显示或显示在第一显示元素之上的第二显示元素,
其中,通过调整的深度值显示第一显示元素和第二显示元素中的所述至少一个显示元素。
2.根据权利要求1所述的显示方法,其中,调整至少一个深度值的步骤包括:考虑第一显示元素和第二显示元素中的每一个的深度值,来调整第一显示元素和第二显示元素之间的深度值之差。
3.根据权利要求1所述的显示方法,其中,调整至少一个深度值的步骤包括:将第二显示元素的第二深度值改变为预设深度值,将第一元素的第一深度值改变为第二显示元素已改变的深度值。
4.根据权利要求3所述的显示方法,其中,所述预设深度值小于第二显示元素的第二深度值或显示屏幕的深度值。
5.根据权利要求1所述的显示方法,还包括如下步骤:
在显示第二显示元素之前,显示具有第三深度值的第三显示元素;
当第二显示元素与第一显示元素和第三显示元素重叠显示时,将第三显示元素的深度值调整为与第一显示元素相同的深度值。
6.根据权利要求1所述的显示方法,还包括如下步骤:
如果第一显示元素和第二显示元素的重叠显示被取消,则将第一显示元素和第二显示元素的调整的深度值调整为原始深度值。
7.根据权利要求1所述的显示方法,其中,第二显示元素包括具有包括与第一显示元素相关的事件内容的反馈属性的显示元素和具有包括与第一显示元素不相关的事件内容的警报、警告和弹出中的至少一个属性的显示元素。
8.根据权利要求1所述的显示方法,其中,第一深度值对应于第一显示元素的左眼图像和右眼图像之间的视差,第二深度值对应于第二显示元素的左眼图像和右眼图像之间的视差。
9.根据权利要求1所述的显示方法,其中,调整至少一个深度值的步骤包括:
计算对于第一显示元素的第二显示元素的相对深度的值;
从对应于不同深度值的左眼图像和右眼图像的预先存储的集合的多个集合中,检测与计算的相对深度的值对应的左眼图像和右眼图像的集合;
将第二显示元素的左眼图像和右眼图像的分别替换为检测的集合的左眼图像和右眼图像。
10.根据权利要求1所述的显示方法,其中,调整至少一个深度值的步骤包括:
将第二显示元素的左眼图像和右眼图像中的一个图像替换为另一个图像。
11.根据权利要求10所述的显示方法,还包括如下步骤:
根据第一显示元素的左眼图像和右眼图像之间的距离调整检测的左眼图像和右眼图像之间的距离,并显示距离被调整的左眼图像和右眼图像。
12.根据权利要求11所述的显示方法,还包括如下步骤:
根据第一显示元素的左眼图像和右眼图像之间的距离调整替换的左眼图像和右眼图像之间的距离,并显示距离被调整的左眼图像和右眼图像。
13.根据权利要求10所述的显示方法,其中,第一显示元素是背景元素,第二显示元素是在背景元素之上的内容元素。
14.根据权利要求10所述的显示方法,其中,第一显示元素包括背景元素,第二显示元素包括在背景元素之上的内容元素。
15.一种三维(3D)图像显示设备,所述设备包括:
显示处理单元,用于产生具有第一深度值的第一显示元素和具有第二深度值的第二显示元素;
显示单元,用于显示产生的第一显示元素和第二显示元素;
控制单元,用于调整和显示第一显示元素和具有第二深度值的第二显示元素中的至少一个的深度值,其中,第二显示元素在显示具有第一深度值的第一显示元素的状态下与第一显示元素重叠显示或显示在第一显示元素之上,
其中,通过调整的深度值显示第一显示元素和第二显示元素中的所述至少一个显示元素。
CN201180049444.9A 2010-10-12 2011-10-12 3d图像显示设备及其显示方法 Expired - Fee Related CN103155579B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
KR20100099323 2010-10-12
KR10-2010-0099323 2010-10-12
KR10-2011-0001127 2011-01-05
KR1020110001127A KR20120037858A (ko) 2010-10-12 2011-01-05 입체영상표시장치 및 그 ui 제공 방법
KR10-2011-0102629 2011-10-07
KR1020110102629A KR20120037350A (ko) 2010-10-11 2011-10-07 입체영상표시장치 및 그 디스플레이 방법
PCT/KR2011/007595 WO2012050366A2 (en) 2010-10-12 2011-10-12 3d image display apparatus and display method thereof

Publications (2)

Publication Number Publication Date
CN103155579A true CN103155579A (zh) 2013-06-12
CN103155579B CN103155579B (zh) 2016-11-16

Family

ID=46138875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180049444.9A Expired - Fee Related CN103155579B (zh) 2010-10-12 2011-10-12 3d图像显示设备及其显示方法

Country Status (9)

Country Link
US (1) US20120086714A1 (zh)
EP (1) EP2628304A4 (zh)
JP (1) JP2014500642A (zh)
KR (2) KR20120037858A (zh)
CN (1) CN103155579B (zh)
AU (1) AU2011314521B2 (zh)
BR (1) BR112013008559A2 (zh)
RU (1) RU2598989C2 (zh)
WO (1) WO2012050366A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106610833A (zh) * 2015-10-27 2017-05-03 北京国双科技有限公司 一种触发重叠html元素鼠标事件的方法及装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508651B (zh) * 2011-09-29 2015-04-15 深圳超多维光电子有限公司 用户界面的实现方法及系统、电子设备
US9381431B2 (en) * 2011-12-06 2016-07-05 Autodesk, Inc. Property alteration of a three dimensional stereoscopic system
KR101691839B1 (ko) * 2012-09-14 2017-01-02 엘지전자 주식회사 3d 디스플레이 상에서 컨텐트 제어 방법 및 장치
DE102013000880A1 (de) 2013-01-10 2014-07-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zu Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
WO2014157749A1 (ko) * 2013-03-28 2014-10-02 케이디씨 주식회사 다중 디스플레이 장치 및 이를 이용한 표시 방법
KR20140144056A (ko) 2013-06-10 2014-12-18 삼성전자주식회사 객체 편집 방법 및 그 전자 장치
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR102335209B1 (ko) * 2015-11-30 2021-12-03 최해용 가상현실 영상 이동 장치
KR20210063118A (ko) * 2019-11-22 2021-06-01 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208040A1 (en) * 2009-02-19 2010-08-19 Jean-Pierre Guillou Preventing interference between primary and secondary content in a stereoscopic display
WO2010095835A2 (ko) * 2009-02-17 2010-08-26 삼성전자 주식회사 영상 처리 방법 및 장치

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2005223495A (ja) * 2004-02-04 2005-08-18 Sharp Corp 立体映像表示装置及び方法
KR100649523B1 (ko) * 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
RU2313191C2 (ru) * 2005-07-13 2007-12-20 Евгений Борисович Гаскевич Способ и система формирования стереоизображения
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
US8384769B1 (en) * 2007-05-23 2013-02-26 Kwangwoon University Research Institute For Industry Cooperation 3D image display method and system thereof
WO2009020277A1 (en) * 2007-08-06 2009-02-12 Samsung Electronics Co., Ltd. Method and apparatus for reproducing stereoscopic image using depth control
US8228327B2 (en) * 2008-02-29 2012-07-24 Disney Enterprises, Inc. Non-linear depth rendering of stereoscopic animated images
JP4925354B2 (ja) * 2008-03-31 2012-04-25 富士フイルム株式会社 画像処理装置、画像表示装置、撮像装置及び画像処理方法
CN102113324B (zh) * 2008-07-31 2013-09-25 三菱电机株式会社 视频编码装置、视频编码方法、视频再现装置、视频再现方法
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US9013551B2 (en) * 2008-12-01 2015-04-21 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
KR20100077270A (ko) * 2008-12-29 2010-07-08 엘지전자 주식회사 Dtv 및 이를 이용한 gui 제공 방법
JP2010250562A (ja) * 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
CN101938670A (zh) * 2009-06-26 2011-01-05 Lg电子株式会社 图像显示装置及其操作方法
KR20120039703A (ko) * 2009-07-07 2012-04-25 엘지전자 주식회사 3차원 사용자 인터페이스 출력 방법
JP2011081453A (ja) * 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010095835A2 (ko) * 2009-02-17 2010-08-26 삼성전자 주식회사 영상 처리 방법 및 장치
US20100208040A1 (en) * 2009-02-19 2010-08-19 Jean-Pierre Guillou Preventing interference between primary and secondary content in a stereoscopic display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106610833A (zh) * 2015-10-27 2017-05-03 北京国双科技有限公司 一种触发重叠html元素鼠标事件的方法及装置

Also Published As

Publication number Publication date
RU2598989C2 (ru) 2016-10-10
WO2012050366A2 (en) 2012-04-19
BR112013008559A2 (pt) 2016-07-12
JP2014500642A (ja) 2014-01-09
AU2011314521B2 (en) 2014-12-11
CN103155579B (zh) 2016-11-16
EP2628304A2 (en) 2013-08-21
EP2628304A4 (en) 2014-07-02
WO2012050366A3 (en) 2012-06-21
RU2013121611A (ru) 2014-11-20
US20120086714A1 (en) 2012-04-12
KR20120037350A (ko) 2012-04-19
AU2011314521A1 (en) 2013-04-11
KR20120037858A (ko) 2012-04-20

Similar Documents

Publication Publication Date Title
CN103155579B (zh) 3d图像显示设备及其显示方法
EP2346263B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
JP5745822B2 (ja) 再生モード切替方法、出力モード切替方法及びこれを用いたディスプレイ装置と3d映像提供システム
US20150350626A1 (en) Method for providing three-dimensional (3d) image, method for converting 3d message, graphical user interface (gui) providing method related to 3d image, and 3d display apparatus and system for providing 3d image
US20110126160A1 (en) Method of providing 3d image and 3d display apparatus using the same
US8749617B2 (en) Display apparatus, method for providing 3D image applied to the same, and system for providing 3D image
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
CN102387394B (zh) 显示装置及其图像生成方法
US20120154558A1 (en) Display apparatus and method for processing image thereof
KR101648864B1 (ko) 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치 및 3d 영상 제공 시스템
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
US9253477B2 (en) Display apparatus and method for processing image thereof
US9547933B2 (en) Display apparatus and display method thereof
KR101620969B1 (ko) 디스플레이 장치 및 이에 적용되는 3d 영상 미리보기 제공 방법, 그리고 3d 영상 제공 시스템
KR101713786B1 (ko) 디스플레이 장치 및 이에 적용되는 gui 제공 방법
KR101615695B1 (ko) 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
KR20110057950A (ko) 디스플레이 장치 및 이에 적용되는 3d 영상 변환 방법, 그리고 3d 영상 제공 시스템
CN106231281A (zh) 一种显示转换方法和装置
KR20110056773A (ko) Gui 제공방법 및 이를 이용한 디스플레이 장치와 3d 영상 제공 시스템
KR20110057948A (ko) 디스플레이 장치, 3d 영상 제공 방법 및 3d 영상 제공 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161116

Termination date: 20181012

CF01 Termination of patent right due to non-payment of annual fee