CN102598677A - 图像显示设备及其图像显示方法 - Google Patents
图像显示设备及其图像显示方法 Download PDFInfo
- Publication number
- CN102598677A CN102598677A CN2010800514185A CN201080051418A CN102598677A CN 102598677 A CN102598677 A CN 102598677A CN 2010800514185 A CN2010800514185 A CN 2010800514185A CN 201080051418 A CN201080051418 A CN 201080051418A CN 102598677 A CN102598677 A CN 102598677A
- Authority
- CN
- China
- Prior art keywords
- image
- screen
- signal
- image display
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/378—Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/38—Image reproducers using viewer tracking for tracking vertical translational head movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Marketing (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Geometry (AREA)
- Library & Information Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
一种图像显示设备和一种图像显示方法,其中,根据一个实施例的图像显示设备显示主屏幕和具有与主屏幕不同的深度或斜度的子屏幕,以便建立深度和距离的幻觉。
Description
技术领域
在此描述的一个或多个实施例涉及一种图像显示设备及其图像显示方法,并且更具体地涉及能够显示立体图像的图像显示设备和该图像显示设备的图像显示方法。
背景技术
图像显示设备显示用户能够观看的各种视频数据。
另外,图像显示设备允许用户从由广播站发送的多个视频广播信号中选择一些视频广播信号,然后显示所选择的视频广播信号。
广播业正处于在世界范围内从模拟转向数字广播的进程中。
数字广播的特征在于发送数字视频和音频信号。数字广播可以相对于模拟广播提供各种优点,诸如相对于噪声的强壮性、没有或有很少的数据损失、容易纠错和高分辨率高清晰度屏幕的提供。数字广播的开始已经使能能够提供各种交互服务。
同时,已经对于立体图像进行研究。
结果,立体视觉现今正在被应用到包括数字广播的领域的各种工业领域。为此,现在正在进行用于有效地发送用于数字广播目的的立体图像的技术和能够再现这样的立体图像的装置的开发。
发明内容
技术问题
在此描述的一个或多个实施例提供了一种图像显示设备及其操作方法,它们提高了用户便利性。
在此描述的一个或多个实施例也提供了用于显示与向具有3D幻觉的外部装置发送和从其接收的数据相对应的对象的设备和方法。
技术解决方案
根据本发明的一个方面,提供了一种图像显示设备的图像显示方法,所述图像显示方法包括:显示第一屏幕;产生与第二屏幕相对应的图像信号;处理所述图像信号以便所述第二屏幕与所述第一屏幕在深度和斜度中的至少一个上不同;以及,基于所述处理的图像信号来显示所述第二屏幕。
根据本发明的另一个方面,提供了一种图像显示设备,包括:控制单元,其处理与第二屏幕相对应的图像信号,以便所述第二屏幕具有与第一屏幕不同的深度或斜度;以及,显示单元,其基于所述处理的图像信号来显示所述第二屏幕。
有益效果
本发明提供了一种图像显示设备及其图像显示方法,它们可以使用立体图像向用户提供多种信息。
本发明也提供了一种图像显示设备及其图像显示方法,它们可以同时或实时地提供关于当前由用户正在使用的内容的多种信息。
附图说明
图1图示根据本发明的一个示例性实施例的图像显示设备的框图;
图2图示了可以连接到在图1中所示的图像显示设备的各种类型的外部装置;
图3(a)和3(b)图示在图1中所示的控制单元的框图;
图4(a)至4(g)图示在图3中所示的格式器如何分离二维(2D)图像信号和三维(3D)图像信号;
图5(a)至5(e)图示由在图3中所示的格式器提供的各种3D图像格式;
图6(a)至6(c)图示在图3中所示的格式器如何缩放3D图像;
图7至9图示可以被在图1中所示的图像显示设备显示的各种图像;
图10是图示根据本发明的另一个示例性实施例的图像显示设备的框图;
图11图示根据本发明的另一个示例性实施例的图像显示设备的控制单元的框图;
图12图示根据本发明的示例性实施例的图像显示方法的流程图;
图13图示如何根据控制信息来改变第二屏幕的显示状态;
图14图示根据本发明的另一个示例性实施例的图像显示方法的流程图;
图15图示根据本发明的另一个示例性实施例的图像显示方法的流程图;以及
图16至18图示如何显示第一和第二屏幕的各种示例。
具体实施方式
以下将参考附图详细描述本发明,在附图中,示出本发明的示例性实施例。在本公开中,可以可交换地使用术语“模块”和“单元”。
图1图示根据本发明的示例性实施例的图像显示设备100的框图。参考图1,图像显示设备100可以包括:调谐器单元110、解调单元120、外部信号输入/输出(I/O)单元130、存储单元140、接口150、感测单元(未示出)、控制单元170、显示单元180和音频输出单元185。
调谐器单元110可以从经由天线接收的多个RF广播信号选择与由用户选择的频道相对应的射频(RF)广播信号或与先前存储的频道相对应的RF广播信号,并且可以将所选择的RF广播信号转换为中频(IF)信号或基带音频/视频(A/V)信号。更具体地,如果所选择的RF广播信号是数字广播信号,则调谐器单元110可以将所选择的RF广播信号转换为数字IF信号DIF。另一方面,如果所选择的RF广播信号是模拟广播信号,则调谐器单元110可以将所选择的RF广播信号转换为模拟基带A/V信号CVBS/SIF。即,调谐器单元110可以处理数字广播信号和模拟广播信号。模拟基带A/V信号CVBS/SIF可以直接地被发送到控制单元170。
调谐器单元110可以能够从高级电视系统委员会(ATSC)单载波系统或从数字视频广播(DVB)多载波系统接收RF广播信号。
调谐器单元110可以从通过天线接收的多个RF信号中,依序选择分别与通过频道增加功能向图像显示设备100先前增加的多个频道相对应的多个RF广播信号,并且可以将所选择的RF广播信号转换为IF信号或基带A/V信号,以便在显示单元180上显示包括多个缩略图图案的缩略图列表。因此,调谐器单元110可以不仅从选择的频道而且从先前存储的频道中依序或周期地接收RF广播信号。
解调单元120可以从调谐器单元110接收数字IF信号(DIF),并且可以解调数字IF信号DIF。
更具体地,如果数字IF信号(DIF)例如是ATSC信号,则解调单元120可以对于数字IF信号DIF执行8残余边带(VSB)解调。解调单元120可以执行频道解码。为此,解调单元120可以包括网格解码器(未示出)、解交织器(未示出)和李德-所罗门解码器(未示出),并且因此能够执行网格解码、解交织和李德-所罗门解码。
另一方面,如果数字IF信号(DIF)是例如DVB信号,则解调单元120可以对于数字IF信号DIF执行编码的正交频分调制(COFDMA)解调。解调单元120可以执行频道解码。为此,解调单元120可以包括卷积解码器(未示出)、解交织器(未示出)和李德-所罗门解码器(未示出),并且因此能够执行卷积解码、解交织和李德-所罗门解码。
解调单元120可以对于数字IF信号DIF执行解调和频道解码,由此提供在其中视频信号、音频信号和/或数据信号被复用的流信号TS。流信号TS可以是在其中MPEG-2视频信号和杜比AC-3音频信号被复用的MPEG-2传送流。MPEG-2传送流可以包括4字节报头和184字节的有效载荷。
解调单元120可以包括:ATSC解码器,用于解调ATSC信号;以及,DVB解调器,用于解调DVB信号。
流信号TS可以被发送到控制单元170。控制单元170可以对于流信号TS执行解复用和信号处理,由此分别向显示单元180和音频输出单元185输出视频数据和音频数据。
外部信号I/O单元130可以将图像显示设备100连接到外部装置。为此,外部信号I/O单元130可以包括A/V I/O模块或无线通信模块。
外部信号I/O单元130可以非无线地或无线地连接到外部装置,所述外部装置诸如数字通用盘(DVD)、蓝光盘、游戏装置、照像机、便携式摄像机或计算机(例如,膝上型计算机)。然后,外部信号I/O单元130可以从外部装置接收各种视频、音频和数据信号,并且可以向控制单元170发送所接收的信号。另外,外部信号I/O单元130可以向外部装置输出由控制单元170处理的各种视频、音频和数据信号。
为了从外部装置向图像显示设备100发送A/V信号,外部信号I/O单元130的A/V I/O模块可以包括以太网端口、通用串行总线(USB)端口、复合视频消隐同步(CVBS)端口、分量端口、超视频(S-video)(模拟)端口、数字可视接口(DVI)端口、高清晰度多媒体接口(HDMI)端口、红-绿-蓝(RGB)端口和D-sub端口。
外部信号I/O单元130的无线通信模块可以无线地接入因特网,即,可以允许图像显示设备100接入无线因特网连接。为此,无线通信模块可以使用各种通信标准,诸如无线局域网(WLAN)(即,Wi-Fi)、无线宽带(Wibro)、全球微波接入互操作性(Wimax)或高速下行链路分组接入(HSDPA)。
另外,无线通信模块可以与其他电子装置执行短距离无线通信。图像显示设备100可以使用诸如蓝牙、射频标识(RFID)、红外线数据协会(IrDA)、超宽带(UWB)或ZigBee的各种通信标准来与其他电子装置联网。
外部信号I/O单元130可以通过以太网端口、USB端口、CVBS端口、分量端口、S-video端口、DVI端口、HDMI端口、RGB端口、D-sub端口、IEEE 1394端口、S/PDIF端口、和liquidHD端口中的至少一个来连接到各种机顶盒,并且可以因此从各种机顶盒接收数据或向其发送数据。例如,当连接到因特网协议电视(IPTV)机顶盒时,外部信号I/O单元130可以向控制单元170发送由IPTV机顶盒处理的视频、音频和数据信号,并且可以向IPTV机顶盒发送由控制单元170提供的各种信号。另外,由IPTV机顶盒处理的视频、音频和数据信号可以被频道浏览处理器170处理,然后被控制单元170处理。
在此使用的术语“IPTV”可以涵盖宽范围的服务,诸如ADSL-TV、VDSL-TV、FTTH-TV、通过DSL的TV、通过DSL的视频、通过IP的TV(TVIP)、宽带TV(BTV)、和因特网TV与全能浏览TV(full-browsing TV),它们能够提供因特网接入服务。
外部信号I/O单元130可以连接到通信网络,以便被提供有视频或语音呼叫服务。通信网络的示例包括广播通信网络(诸如局域网(LAN))、公共交换电话网络(PTSN)和移动通信网络。
存储单元140可以存储控制单元170用于处理和控制信号所需的各种程序。存储单元140也可以存储由控制单元170处理的视频、音频和/或数据信号。
存储单元140可以暂时存储由外部信号I/O单元130接收的视频、音频和/或数据信号。另外,存储单元140可以借助于频道增加功能来存储关于广播频道的信息。
存储单元140可以包括快闪存储器类型的存储介质、硬盘型存储介质、多媒体卡微型存储介质、卡型存储器(诸如安全数字(SD)或极限数字(XD)存储器)、随机存取存储器(RAM)和只读存储器(ROM)(例如,电子可擦除可编程ROM(EEPROM))中的至少一个。图像显示设备100可以为用户播放在存储单元140中的各种文件(例如,移动图像文件、静止图像文件、音乐文件或文档文件)。
在图1中将存储单元140图示为与控制单元170分离,但是本发明不限于此。即,存储单元140可以被包括在控制单元170中。
接口150可以向控制单元170发送由用户向其输入的信号,或者向用户发送由控制单元170提供的信号。例如,接口150可以从遥控装置200接收诸如通电/断电信号、频道选择信号和频道设置信号的各种用户输入信号,或者可以向遥控装置200发送由控制单元170提供的信号。感测单元可以允许用户向图像显示设备100输入各种用户命令,而不必使用遥控装置200。下面更详细地描述感测单元的结构。
控制单元170可以将经由调谐器单元110和解调单元120,或经由外部信号I/O单元130向其提供的输入流解复用为多个信号,并且可以处理由该解复用获得的信号,以便输出A/V数据。控制单元170可以控制图像显示设备100的一般操作。
控制单元170可以根据经由接口150或感测单元而向其输入的用户命令或在图像显示设备100中存在的程序来控制图像显示设备100。
控制单元170可以包括解复用器(未示出)、视频处理器(未示出)和音频处理器(未示出)。控制单元170可以控制调谐器单元110来进行调谐,从而选择与由用户选择的频道或预先存储的频道相对应的RF广播节目。
控制单元170可以包括解复用器(未示出)、视频处理器(未示出)、音频处理器(未示出)和用户输入处理器(未示出)。
控制单元170可以将诸如MPEG-2TS信号的输入流信号解复用为视频信号、音频信号和数据信号。输入流信号可以是由调谐器单元110、解调单元120或外部信号I/O单元130输出的流信号。控制单元170可以处理该视频信号。更具体地,控制单元170可以根据视频信号是包括二维(2D)图像信号和三维(3D)图像信号、仅包括2D图像信号、或者是仅包括3D图信号来使用不同的编码解码器来解码视频信号。下面参考图3更详细地描述控制单元170如何处理2D图像信号或3D图像信号。控制单元170可以调整视频信号的亮度、色调和颜色。
由控制单元170提供的处理的视频信号可以被发送到显示单元180,并且因此可以被显示单元180显示。然后,显示单元180可以显示与由控制单元170提供的处理的视频信号相对应的图像。由控制单元170提供的处理的视频信号也可以经由外部信号I/O单元130而被发送到外部输出装置。
控制单元170可以处理通过解复用输入流信号而获得的音频信号。例如,如果音频信号是编码信号,则控制单元170可以解码音频信号。更具体地,如果音频信号是MPEG-2编码信号,则控制单元170可以通过执行MPEG-2解码来解码音频信号。另一方面,如果音频信号是MPEG-4比特分片算术编译(BSAC)编码的陆地DMB信号,则控制单元170可以通过执行MPEG-4解码来解码音频信号。另一方面,如果音频信号是MPEG-2高级音频编译(AAC)编码的DMB或DVB-H信号,则显示单元180可以通过执行AAC解码来解码音频信号。另外,控制单元170可以调整音频信号的低音、高音或音量。
由控制单元170提供的处理的音频信号可以被发送到音频输出单元185。由控制单元170提供的处理的音频信号也可以经由外部信号I/O单元130而被发送到外部输出装置。
控制单元170可以处理通过解复用输入流信号而获得的数据信号。例如,如果数据信号是诸如作为对于计划的广播TV或无线电节目的指南的电子节目指南(EPG)的编码信号,则控制单元170可以解码数据信号。EPG的示例包括ATSC节目和系统信息协议(PSIP)信息、和DVB服务信息(SI)。ATSC-PSIP信息或DVB-SI信息可以被包括在TS的报头,即,MPEG-2TS的4字节报头中。
控制单元170可以执行在屏显示(OSD)处理。更具体地,控制单元170可以基于由遥控装置200提供的用户输入信号或处理的视频信号和处理的数据信号中的至少一个来产生用于在显示单元180上将各种信息显示为图形或文本数据的OSD信号。OSD信号可以与处理的视频信号和处理的数据信号一起被发送到显示单元180。
OSD信号可以包括各种数据,诸如用于图像显示设备100的用户界面(UI)屏幕和各种菜单屏幕、窗口小部件和图标。
控制单元170可以产生作为2D图像信号或3D图像信号的OSD信号,并且下面参考图3来更详细地描述这一点。
控制单元170可以从调谐器单元110或外部信号I/O单元130接收模拟基带A/V信号CVBS/SIF。由控制单元170处理的模拟基带视频信号可以被发送到显示单元180,并且可以然后被显示单元180显示。另一方面,由控制单元170处理的模拟基带音频信号可以被发送到音频输出单元185(例如,扬声器),并且可以然后通过音频输出单元185被输出。
图像显示设备100也可以包括产生与频道信号或外部输入信号相对应的缩略图图像的频道浏览处理单元(未示出)。该频道浏览处理单元可以从解调单元120或外部信号I/O单元130接收流信号TS,可以从流信号TS提取图像,并且可以基于所提取的图像来产生缩略图图像。由频道浏览处理单元产生的缩略图图像可以被原样发送到控制单元170而不被编码。可替选地,由频道浏览处理单元产生的缩略图图像可以被编码,并且编码的缩略图图像可以被发送到控制单元170。控制单元170可以在显示单元180上显示包括向其输入的多个缩略图图像的缩略图列表。
控制单元170可以经由接口150从遥控装置200接收信号。前后,控制单元170可以基于所接收的信号识别由用户向遥控装置200输入的命令,并且可以根据所识别的命令来控制图像显示设备100。例如,如果用户输入用于选择预定频道的命令,则控制单元170可以控制调谐器单元110从该预定频道接收视频信号、音频信号和/或数据信号,并且可以处理由调谐器单元110接收的信号。其后,控制单元170可以与被处理的信号一起控制关于要通过显示单元180或音频输出单元185而输出的预定频道的频道信息。
用户可以向图像显示设备100输入用于显示各种类型的A/V信号的命令。如果用户希望观看由外部信号I/O单元130接收的照像机或便携式摄像机图像信号而不是广播信号,则控制单元170可以控制视频信号或音频信号,以经由显示单元180或音频输出单元185输出。
控制单元170可以识别经由在感测单元中包括的多个本地按键而向图像显示设备100输入的用户命令,并且可以根据所识别的用户命令来控制图像显示设备100。例如,用户可以使用本地按键向图像显示设备100输入各种命令,诸如用于接通或关断图像显示设备100的命令、用于转换频道的命令、或用于改变音量的命令。本地按键可以包括在图像显示设备100上设置的按钮或按键。控制单元170可以确定用户如何操纵本地按键,并且可以根据确定的结果来控制图像显示设备100。
显示单元180可以将由控制单元170提供的处理的视频信号、处理的数据信号和OSD信号,或由外部信号I/O单元130提供的视频信号和数据信号转换为RGB信号,由此产生驱动信号。显示单元180可以被实现为各种类型的显示器,诸如等离子体显示板、液晶显示器(LCD)、有机发光二极管(OLED)、柔性显示器、和3D显示器。显示单元180可以被分类为附加显示器或独立显示器。独立显示器是能够在不要求诸如眼镜的附加显示设备的情况下显示3D图像的显示装置。独立显示器的示例包括透镜显示器和视差屏障显示器。另一方面,附加显示器是能够借助于附加的显示设备来显示3D图像的显示装置。附加显示器的示例包括头戴显示器(HMD)和眼镜显示器(诸如偏振眼镜型显示器、快门眼镜显示器、或频谱滤波器型显示器)。
显示单元180也可以被实现为触摸屏,并且因此可以不仅用作输出装置而且用作输入装置。
音频输出单元185可以从控制单元170接收处理的音频信号(例如,立体声信号、3.1频道信号或5.1频道信号),并且可以输出所接收的音频信号。音频输出单元185可以被实现为各种类型的扬声器。
遥控装置200可以向接口150发送用户输入。为此,遥控装置200可以使用各种通信技术,诸如蓝牙、RF、IR、UWB和ZigBee。
图像显示设备100可以从接口单元150接收视频信号、音频信号或数据信号,并且可以输出所接收的信号。
图像显示设备100也可以包括传感器单元。传感器单元可以包括触摸传感器、声音传感器、位置传感器、和移动传感器。
触摸传感器可以是显示单元180的触摸屏。触摸传感器可以感测用户正在触摸屏上的何处和用户正在以何种强度进行触摸。声音传感器可以感测用户的语音,和由用户产生的各种声音。位置传感器可以感测用户的位置。移动传感器可以感测由用户产生的手势。位置传感器或移动传感器可以包括红外线检测传感器或相机,并且可以感测在图像显示设备100和用户之间的距离,和由用户作出的任何手势。
传感器单元可以向感测信号处理单元(未示出)发送由触摸传感器、声音传感器、位置传感器和移动传感器提供的各种感测结果。可替选地,传感器单元可以分析各种感测结果,并且可以基于分析结果来产生感测信号。其后,传感器单元可以向控制单元170提供感测信号。
感测信号处理单元可以处理由感测单元提供的感测信号,并且可以向控制单元170发送处理的感测信号。
图像显示设备100可以是能够接收ATSC(8-VSB)广播节目、DVB-T(COFDM)广播节目和ISDB-T(BST-OFDM)广播节目中的至少一个的固定数字广播接收器,或者可以是能够接收陆地DMB广播节目、卫星DMB广播节目、ATSC-M/H广播节目、DVB-H(COFDM)广播节目和仅媒体前向链路(MediaFLO)广播节目中的至少一个的移动数字广播接收器。可替选地,图像显示设备100可以是能够接收有线广播节目、卫星广播节目、或IPTV节目的数字广播接收器。
图像显示设备100的示例包括TV接收器、移动电话、智能电话、膝上型计算机、数字广播接收器、个人数字助理(PDA)、和便携多媒体播放器(PMP)。
在图1中所示的图像显示设备100的结构是示例性的。图像显示设备100的元件可以被合并到较少的模块内,新元件可以被加到图像显示设备100,或者,可以不提供图像显示设备100的元件的一些。即,可以将两个或更多的图像显示设备100的元件合并到单个模块内,或者一些图像显示设备100的元件中的每个可以被划分为两个或更多的较小单元。图像显示设备100的元件的功能也是示例性的,因此不对于本发明的范围施加任何限制。
图2图示可以连接到图像显示设备100的外部装置的示例。参见图3,图像显示设备100可以经由外部信号I/O单元130而非无线地或无线地连接到外部装置。
图像显示设备100可以连接到的外部装置的示例包括相机211、屏幕型遥控装置212、机顶盒213、游戏装置214、计算机215和移动通信终端216。
当经由外部信号I/O单元130连接到外部装置时,图像显示设备100可以在显示单元180上显示由外部装置提供的图形用户界面(GUI)屏幕。然后,用户可以访问外部装置和图像显示设备100两者,因此能够从图像显示设备100观看被外部装置当前播放的视频数据或在外部装置中存在的视频数据。另外,图像显示设备100可以经由音频输出单元185输出当前被外部装置当前正在播放的音频数据或在外部装置中存在的音频数据。
可以在图像显示设备100的存储单元140中存储在图像显示设备100经由外部信号I/O单元130所连接到的外部装置中存在的各种数据,诸如,静止图像文件、移动图像文件、音乐文件或文本文件。在该情况下,即使在从外部装置断开时,图像显示设备100也可以经由显示单元180或音频输出单元185输出在存储单元140中存储的各种数据。
当经由外部信号I/O单元130连接到移动通信终端216或通信网络时,图像显示设备100可以在显示单元180上显示用于提供视频或语音呼叫服务的屏幕,或者可以经由音频输出单元185输出与该视频或语音呼叫服务的提供相关联的音频数据。因此,可以允许用户使用连接到移动通信终端216或通信网络的图像显示设备100建立或接收视频或语音呼叫。
图3(a)和3(b)图示控制单元170的框图,图4(a)至4(g)图示在图3(a)或3(b)中所示的格式器320如何分离2D图像信号和3D图像信号。图5(a)至5(e)图示由格式器320输出的3D图像的格式的各种示例,并且图6(a)至6(c)图示如何缩放由格式器320输出的3D图像。
参见图3(a),控制单元170可以包括图像处理器310、格式器320、在屏显示(OSD)产生器330和混合器340。
参见图3(a),图像处理器310可以解码输入图像信号、并且可以向格式器320提供解码的图像信号。然后,格式器320可以处理由图像处理器310提供的解码的图像信号,并且可以因此提供多个透视图像信号。混合器340可以混和由格式器320提供的多个透视图像信号和由OSD产生器330提供的图像信号。
更具体地,图像处理器310可以处理由调谐器单元110和解调单元120处理的广播信号和由外部信号I/O单元130提供的外部输入信号两者。
输入图像信号可以是通过解复用流信号而获得的信号。
如果输入图像信号例如是MPEG-2编码的2D图像信号,则MPEG-2解码器可以解码输入图像信号。
另一方面,如果输入图像信号是例如H.264编码的2D DMB或DVB-H图像信号,则H.264解码器可以解码输入图像信号。
另一方面,如果输入图像信号是例如具有视差信息和深度信息的MPEG-C部分3图像,则MPEG-C解码器可以不仅解码输入图像信号而且解码视差信息。
另一方面,如果输入图像信号是例如多视图视频编码(MVC)图像,则MVC解码器可以解码输入图像信号。
另一方面,如果输入图像信号是例如自由视点TV(FTV)图像,则FTV解码器可以解码输入图像信号。
由图像处理器310提供的解码的图像信号可以仅包括2D图像信号,可以包括2D图像信号和3D图像信号、或仅包括3D图像信号。
由图像处理器310提供的解码的图像信号可以是具有各种格式的3D图像信号。例如,由图像处理器310提供的解码的图像信号可以是包括彩色图像和深度图像的3D图像或包括多个透视图像信号的3D图像。该多个透视图像信号可以包括左眼图像信号L和右眼图像信号R。可以以各种格式来布置左眼图像信号L和右眼图像信号R,该各种格式例如是在图5(a)中所示的并排格式、在图5(b)中所示的上下格式、在图5(c)中所示的帧序列格式、在图5(d)中所示的隔行格式或在图5(e)中所示的方格格式。
如果输入图像信号包括与数据广播相关联的字幕数据或图像信号,则图像处理器310可以从输入图像信号分离与数据广播相关联的字幕数据或图像信号,并且可以向OSD产生器330输出与数据广播相关联的字幕数据或图像信号。然后,OSD产生器330可以基于与数据广播相关联的字幕数据或图像信号来产生3D对象。
格式器320可以接收由图像处理器310提供的解码的图像信号,并且可以从所接收的解码的图像信号分离2D图像信号和3D图像信号。格式器320可以将3D图像信号划分为多个视图信号,诸如左眼图像信号和右眼图像信号。
可以基于是否在相应的流的报头中包括3D图像标记、3D图像元数据、或3D图像格式信息来确定由图像处理器310提供的解码的图像信号是否是2D图像信号或3D图像信号。
3D图像标记、3D图像元数据、或3D图像格式信息可以不仅包括关于3D图像的信息,而且包括3D图像的位置信息、区域信息或大小信息。可以解码3D图像标记、3D图像元数据、或3D图像格式信息,并且可以在相应的流的解复用期间向格式器320发送解码的3D图像标记、解码的3D图像元数据、或解码的3D图像格式信息。
格式器320可以基于3D图像标记、3D图像元数据、或3D图像格式信息从由图像处理器310提供的解码的图像信号分离3D图像信号。格式器320可以参考3D图像格式信息将3D图像信号划分为多个透视图像信号。例如,格式器320可以基于3D图像格式信息将3D图像信号划分为左眼图像信号和右眼图像信号。
参见图4(a)至4(g),格式器320可以从由图像处理器310提供的解码的图像信号分离2D图像信号和3D图像信号,并且可以然后将3D图像信号划分为左眼图像信号和右眼图像信号。
更具体地,参考图4(a),如果第一图像信号410是2D图像信号并且第二图像信号420是3D图像信号,则格式器320可以将第一和第二图像信号410和420彼此分离,并且可以将第二图像信号420划分为左眼图像信号423和右眼图像信号426。第一图像信号410可以显示在作为主屏幕的显示单元180上,并且第二图像信号420可以显示在显示单元180上来作为画中画(PIP)屏幕。
参见图4(b),如果第一和第二图像信号410和420都是3D图像信号,则格式器320可以彼此分离第一和第二图像信号410和420,可以将第一图像信号410划分为左眼图像信号413和右眼图像信号416,并且可以将第二图像信号420划分为左眼图像信号423和右眼图像信号426。
参见图4(c),如果第一图像信号410是3D图像信号并且第二图像信号420是2D图像信号,则格式器320可以将第一图像信号划分为左眼图像信号413和右眼图像信号416。
参见图4(d)和4(e),如果第一和第二图像信号410和420之一是3D图像信号并且另一个图像信号是2D图像信号,则格式器320可以响应于例如用户输入,将第一和第二图像信号410和420中的作为2D图像信号的那个转换为3D图像信号。更具体地,格式器320可以通过下述方式将2D图像信号转换为3D图像信号:使用3D图像建立算法从2D图像信号检测边缘,从2D图像信号提取具有所检测的边缘的对象,并且基于所提取的对象来产生3D图像信号。可替选地,格式器320可以通过下述方式来将2D图像信号转换为3D图像信号:使用3D图像产生算法从2D图像信号中检测对象(如果存在对象的话),并且基于所检测的对象来产生3D图像信号。一旦将2D图像信号转换为3D图像信号,则格式器320可以将3D图像信号划分为左眼图像信号和右眼图像信号。可以将除了要被重建为3D图像信号的对象之外的2D图像信号输出为2D图像信号。
参见图4(f),如果第一和第二图像信号410和420都是2D图像信号,则格式器320可以使用3D图像产生算法,仅将第一和第二图像信号410和420之一转换为3D图像信号。可替选地,参考图4G,格式器320可以使用3D图像产生算法,将第一和第二图像信号410和420两者转换为3D图像信号。
如果存在可获得的3D图像标记、3D图像元数据、或3D图像格式信息,则格式器320可以参考3D图像标记、3D图像元数据、或3D图像格式信息来确定由图像处理器310提供的解码的图像信号是否是3D图像信号。另一方面,如果不存在可获得3D图像标记、3D图像元数据、或3D图像格式信息,则格式器320可以通过使用3D图像产生算法来确定由图像处理器310提供的解码的图像信号是否是3D图像信号。
由图像处理器310提供的3D图像信号可以被格式器320划分为左眼图像信号和右眼图像信号。其后,可以以在图5(a)至5(e)中所示的格式之一来输出左眼图像信号和右眼图像信号。然而,由图像处理器310提供的2D图像信号可以被原样输出而不必被处理,或者可以被变换并且因此输出为3D图像信号。
如上所述,格式器320可以以各种格式来输出3D图像信号。更具体地,参见图5(a)至5(e),格式器320可以以并排格式、上下格式、帧序列格式、隔行格式、或方格格式输出3D图像信号,在隔行格式中,在逐行的基础上混和左眼图像信号和右眼图像信号,在方格格式中,在逐个框的基础上混和左眼图像信号和右眼图像信号。
用户可以将在图5(a)至5(e)中所示的格式之一选择为用于3D图像信号的输出格式。例如,如果用户选择上下格式,则格式器320可以重新配置向其输入的3D图像信号,将输入的3D图像信号划分为左眼图像信号和右眼图像信号,并且以上下格式输出左眼图像信号和右眼图像信号,而与输入3D图像信号的原始格式无关。
向格式器320输入的3D图像信号可以是广播图像信号、外部输入的信号、或具有预定深度级的3D图像信号。格式器320可以将3D图像信号划分为左眼图像信号和右眼图像信号。
从具有不同深度的3D图像信号提取的左眼图像信号或右眼图像信号可以彼此不同。即,从3D图像信号提取的左眼图像信号或右眼图像信号,或在所提取的左眼图像信号和所提取的右眼图像信号之间的差异可以根据3D图像信号的深度改变。
如果根据用户输入或用户设置来改变3D图像信号的深度,则格式器320可以考虑到所改变的深度,将3D图像信号划分为左眼图像信号和右眼图像信号。
格式器320可以以各种方式缩放3D图像信号,特别是在3D图像信号中的3D对象。
更具体地,参考图6(a),格式器320可以一般地放大或缩小3D图像信号或在3D图像信号中的3D对象。可替选地,参考图6(b),格式器320可以将3D图像或3D对象部分地放大或缩小为梯形。可替选地,参考图6(c),格式器320可以旋转3D图像信号或3D对象,并且因此将3D图像信号或3D对象变换为平行四边形。以这种方式,格式器320可以向3D图像信号或3D对象加上三维的感觉,并且可以因此强调3D效果。3D图像信号可以是第二图像信号420的左眼图像信号或右眼图像信号。可替选地,3D图像信号可以是PIP图像的左眼图像信号或右眼图像信号。
简而言之,格式器320可以接收由图像处理器310提供的解码的图像信号,可以从所接收的图像信号分离2D图像信号或3D图像信号,并且可以将3D图像信号划分为左眼图像信号和右眼图像信号。其后,格式器320可以缩放左眼图像信号和右眼图像信号,并且可以然后以在图5(a)至5(e)中所示的格式之一输出缩放的结果。可替选地,格式器320可以以在图5(a)至5(e)中所示的格式之一来重新布置左眼图像信号和右眼图像信号,并且可以缩放重新布置的结果。
参见图3(a),OSD产生器330可以响应于用户输入或在没有用户输入的情况下产生OSD信号。OSD信号可以包括2D OSD对象或3DOSD对象。
可以基于用户输入、对象的大小、或OSD信号的OSD对象是否是可以选择的对象来确定OSD信号是否包括2D OSD对象或3D OSD对象。
OSD产生器330可以产生2D OSD对象或3D OSD对象,并且输出所产生的OSD对象,而格式器320仅处理由图像处理器310提供的解码的图像信号。可以以各种方式缩放3D OSD对象,如图6(a)至6(c)中所示。3D OSD对象的类型或形状可以根据显示3D OSD的深度来改变。
可以以在图5(a)至5(e)中所示的格式之一来输出OSD信号。更具体地,可以以与由格式器320输出的图像信号的格式相同的格式来输出OSD信号。例如,如果用户将上下格式选择为用于格式器320的输出格式,则可以将上下格式自动地确定为用于OSD产生器330的输出格式。
OSD产生器330可以从图像处理器310接收字幕或数据广播相关的图像信号,并且可以输出字幕或数据广播相关的OSD信号。该字幕或数据广播相关的OSD信号可以包括2D OSD对象或3D OSD对象。
混合器340可以将由格式器320输出的图像信号与由OSD产生器330输出的OSD信号混和,并且可以输出通过混和获得的图像信号。由混合器340输出的图像信号可以被发送到显示单元180。
控制单元170可以具有在图3(b)中所示的结构。参见图3(b),控制单元170可以包括图像处理器310、格式器320、OSD产生器330和混合器340。图像处理器310、格式器320、OSD产生器330和混合器340几乎与在图3(a)中所示的它们的各个对应方相同,因此以下将主要聚焦在与在图3(a)中所示的它们的各个对应方的差别来进行描述。
参见图3(b),混合器340可以将使用图像处理器310提供的解码的图像信号与由OSD产生器330提供的OSD信号混和,然后,格式器320可以处理通过由混合器340执行的混和而获得的图像信号。因此,不像在图3(a)中所示的OSD产生器330那样,在图3(b)中所示的OSD产生器330不必产生3D对象。相反,OSD产生器330可以仅产生与任何给定的3D对象相对应的OSD信号。
参见图3(b),格式器320可以接收由混合器340提供的图像信号,可以从所接收的图像信号分离3D图像信号,并且可以将3D图像信号分割为多个透视图像信号。例如,格式器320可以将3D图像信号划分为左眼图像信号和右眼图像信号,可以缩放左眼图像信号和右眼图像信号,并且可以以在图5(a)至5(e)中所示的格式之一来输出缩放的左眼图像信号和缩放的右眼图像信号。
在图3(a)或3(b)中所示的控制单元170的结构是示例性的。控制单元170的元件可以被包含到较少的模块内,可以向控制单元170增加新元件,或者,可以不提供控制单元170的元件的一些。即,可以将控制单元170的元件中的两个或更多包含到单个模块内,或者一些控制单元170的元件中的每个可以被划分为两个或更多的较小单位。控制单元170的元件的功能也是示例性的,并且因此不对于本发明的范围施加任何限制。
图7至9图示由图像显示设备100可以显示的各种图像。参考图7至9,图像显示设备100可以以诸如上下格式的、在图5(a)至5(e)中所示的格式之一来显示3D图像。
更具体地,参考图7,当结束视频数据的播放时,图像显示设备100可以以上下格式显示两个透视图像351和352,使得可以在显示单元180上垂直地并排布置两个透视图像351和352。
图像显示设备100可以使用需要使用偏振眼镜来恰当地观看3D图像的方法来在显示单元180上显示3D图像。在该情况下,当在没有偏振眼镜的情况下观看时,3D图像和在3D图像中的3D对象可能被显现为没有对焦,如附图标号353和353A至353C所示。
另一方面,当使用偏振眼镜观看时,不仅3D图像而且在3D图像中的3D对象可以显现得焦点对准,如附图标号354和354A至354C所示。在3D图像中的3D对象可以被显示使得看起来向3D图像之外突出。
如果图像显示设备100使用不需要使用偏振眼镜来恰当地观看3D图像的方法来显示3D图像,则3D图像和在3D图像中的3D对象即使当在没有偏振眼镜的情况下观看时也可以全部显现得焦点对准,如图9中所示。
在此使用的术语“对象”包括关于图像显示设备100的各种信息,诸如音频输出级信息、频道信息、或由图像显示设备100显示的当前时间信息和图像或文本。
例如,可以将可以在图像显示设备100的显示单元180上显示的音量控制按钮、频道按钮、控制菜单、图标、导航标签、滚动条、渐进条、文本框和窗口分类为对象。
用户可以从由图像显示设备100显示的各个对象获取关于图像显示设备100的信息或关于由图像显示设备100显示的图像的信息。另外,用户可以通过由图像显示设备100显示的各种对象来向图像显示设备100输入各种命令。
当3D对象具有正深度级时,它可以被显示使得看起来向在显示单元180之外的用户突出。在显示单元180上的深度或在显示单元180上显示的2D图像或3D图像的深度可以被设置为0。当3D对象具有负深度级时,它可以被显示使得看起来向显示单元180内凹进。结果,3D对象的深度越大,则3D对象更看起来向用户突出。
在此使用的术语“3D对象”包括通过例如已经参考图6(a)至6(c)描述的缩放操作而产生的各种对象,以使得产生三维的感觉或深度的幻觉。
图9图示作为3D对象的示例的PIP图像,但是本发明不限于此。即,电子节目指南(EPG)数据、由图像显示设备100提供的各个菜单、窗口小部件、或图标也可以被分类为3D对象。
图10图示根据本发明的一个示例性实施例的图像显示设备的框图。参见图10,图像显示设备可以包括接收单元810、用户输入单元160、控制单元170和显示单元180。图像显示设备也可以包括存储单元(未示出)和音频输出单元(未示出)。图10的示例性实施例类似于图1的示例性实施例,因此以下将主要聚焦在与图1的示例性实施例的差别来进行描述。
参见图10,接收单元810可以接收要在显示单元180上显示的图像。更具体地,接收单元810可以是可以非无线地或无线地连接到所有可能的路径的功能单元,通过该所有可能的路径,可以接收要在显示单元180上显示的图像数据。
接收单元810可以非无线地或无线地接收数据。例如,接收单元810可以从图像显示设备经由电缆而非无线地连接到的外部输入装置(例如,DVD播放器、膝上型计算机或PMP)接收要在显示单元180上显示的图像数据。可替选地,接收单元810可以从图像显示设备经由例如蓝牙或红外线通信而无线地连接到的外部输入装置接收要在显示单元180上显示的图像数据。可替选地,接收单元810可以经由调制解调器从无线通信网络接收RF信号,或可以经由天线从无线通信网络接收广播信号。然后,接收单元810可以基于所接收的RF或广播信号来产生要在显示单元180上显示的图像。当用户希望使用图像显示设备观看TV、建立或接收视频呼叫、或在万维网上冲浪时,接收单元810可以执行在图1中所示的外部信号I/O单元130的功能。接收单元810也可以接收TV广播。在该情况下,接收单元810可以执行调谐器单元110的功能。
控制单元170可以产生对应于第一或第二屏幕的图像信号,并且可以向显示单元180发送图像信号。第一和第二屏幕中的至少一个可以是立体屏幕,其是具有深度和斜度的幻觉的屏幕,并且包括一个或多个3D对象。
图像的深度可以在图像和用户之间产生距离的幻觉。具有深度的图像可以被显示使得看起来突出到显示单元180之外或凹陷到显示单元180内。在作为主屏幕的显示单元180上显示的二维(2D)图像可以具有0的深度,被显示使得看起来在主屏幕之外突出的2D图像可以具有正深度值,并且被显示使得看起来凹进主屏幕内的2D图像可以具有负深度值。即,图像的深度越大,则图像看起来越向用户突出。图像的深度可以被格式器调整。
在此使用的表达“屏幕的斜度”可以指示屏幕因为立体效果而看起来在特定方向上倾斜的程度。屏幕的斜度越大,则屏幕看起来向前、向后或向侧面倾斜得越多。例如,如果矩形屏幕看起来在形状上是梯形的或平行四边形的,并且突出在显示单元180之外,则可以将屏幕确定为已经被应用立体效果以便具有斜度的屏幕。
在形状上原来是矩形的图像的斜度越大,则图像越看起来在形状上像是梯形或平行四边形,并且在梯形图像的底边的长度之间的差或在平行四边形图像的两个相邻的内角之间的差越大。
控制单元170可以基于由接收单元810接收的图像或在图像显示设备中存在的图像来产生第一或第二屏幕或与第一或第二屏幕相对应的图像信号。
图像显示设备可以同时显示第一和第二屏幕。第一和第二屏幕可以同时被显示在显示单元180上。第一和第二屏幕可以作为分离的屏幕独立地被显示。在第二屏幕上显示的内容项目可以或可以不与在第一屏幕上显示的内容项目相关联。第一和第二屏幕可以被单独地接通或关断。即,第二屏幕可以不必然被第一屏幕影响。第一屏幕可以是2D或3D屏幕。控制单元170可以基于从外部来源接收的数据信号或从所接收的数据信号提取的信息来产生对应于第二屏幕的图像信号,并且可以通过反映深度信息和斜度信息来处理图像信号。更具体地,控制单元170可以通过例如下述方式来处理与第二屏幕相对应的图像信号:即,确定第二屏幕应当被显示的形状(例如,矩形、平行四边形或梯形),并且调整在左眼图像和右眼图像之间的差异。其后,控制单元170可以向显示单元180提供所处理的图像信号。然后,显示单元180可以基于由控制单元170提供的处理的图像信号来显示第二屏幕。
第二屏幕可以具有与第一屏幕不同的深度或斜度。即,第二屏幕可以看起来比第一屏幕更近用户或比第一屏幕离用户更远。第二屏幕可以被显示使得看起来向在显示单元180之外的用户突出。即,可以在第二屏幕上显示立体图像或3D图像。控制单元170可以执行图像信号处理,使得第一和第二屏幕可以具有相对于用户的不同深度。如果与第一屏幕一起显示多余一个的第二屏幕,则控制单元170可以执行图像信号处理,使得第二屏幕可以与用户隔开不同的距离。如果提供了多于一个的第二屏幕,则控制单元170可以执行图像信号处理,使得用户可以感觉到好象第二屏幕与用户隔开不同的距离。
为了产生立体图像,控制单元170可以包括细分模块,例如,图像处理器(未示出)。图像处理器可以产生对应于第二屏幕的3D图像,并且可以通过改变在3D图像的左眼图像和右眼图像之间的差异或距离,或向3D图像应用控制信息来处理3D图像的图像信号。结果,第二屏幕可以被显示使得具有与第一屏幕不同的深度。即,如果必要的话,控制单元170可以根据用户的视线来控制对应于第二屏幕的3D图像的距离或角度,使得第二屏幕可以向用户倾斜或旋转。控制单元170可以也控制第二屏幕倾斜或旋转的方向和程度。
可以考虑到用户的状态或根据由用户发出的命令来确定第二屏幕的位置和深度。为此,图像显示设备也可以包括用户输入单元160。用户输入单元160可以包括接口(未示出)和/或各种传感器(未示出)。为了根据用户的位置来改变第二屏幕的显示位置,用户输入单元160可以使用位置传感器来确定用户的位置,并且可以向控制单元170提供确定的结果。然后,控制单元170可以执行图像信号处理,使得在用户和图像显示设备之间的距离越大,则第二屏幕看起来越向在显示单元180之外的用户突出。
可以响应于由用户输入的信号或由用户作出的手势来接通或关断第二屏幕,或者来改变第二屏幕。为此,用户输入单元160可以检测由用户输入的信号(如果有的话)或由用户作出的手势(如果有的话),可以基于检测结果来产生命令信号,并且向控制单元170发送命令信号。更具体地,用户输入单元160可以执行在图1中所示的接口150的功能。此外,用户输入单元160可以使用各种传感器感测用户的位置、用户的语音或由用户作出的手势,并且可以向控制单元170发送感测的结果。可替选地,用户输入单元160可以产生与感测结果相对应的命令信号,并且可以向控制单元170发送命令信号。
用户输入单元160可以包括一个或多个传感器,用于感测由用户作出的手势或在用户的视线上的改变,或用于确定用户的位置或姿态。例如,如果在对应于第二屏幕的位置处检测到由用户作出的手势,则控制单元170可以接通或关断第二屏幕,或者可以将在第二屏幕上当前显示的图像替换为另一个图像。更具体地,用户输入单元160可以感测由用户作出的手势或在用户的位置上的改变,并且控制单元170可以基于由用户输入单元160执行的感测的结果来产生控制信号。例如,如果当正在第二屏幕上显示TV广播时检测到由用户作出的手势,则可以将所检测的手势解释为对应于用于转换TV频道或用于接通或关断第二屏幕的信号。另一方面,如果当打开在存储单元中存在的文件时检测到由用户作出的手势,则所检测的手势可以被解释为对应于用于选择另一个文件的信号。
用户输入单元160可以借助于声音传感器来识别用户的语音或由用户产生的各种声音,并且可以向控制单元170提供作为用户信号的识别的结果。由用户输入单元160获取的诸如移动数据、位置数据或音频数据的各种感测数据向能够被控制单元170识别的信号的转换对于本发明所属的领域内的普通技术人员是显而易见的,因此,将省略其详细说明。
控制单元170可以根据经由用户输入单元160向其输入的命令信号或由用户输入单元160感测的用户的手势或语音来调整第二屏幕的大小、斜度和位置。例如,如果用户使用两个手指或两只手来指在第二屏幕的任何一端,并且然后将它们移开,则控制器170可以确定已经发出了放大第二屏幕的命令,并且可以因此放大第二屏幕。可替选地,如果用户使用一只手来指在第二屏幕,并且然后旋转或移动该手,则控制单元170可以因此改变第二屏幕的斜度或位置。
为了控制第二屏幕的斜度或深度,可以要求参考点的识别。参考点可以是用户、用户的身体的一部分、或附接到用户身体上的可检测对象。例如,用户的面部或眼睛可以被用作参考点。在该情况下,可以根据诸如用户的眼睛的位置或用户的眼睛高度的参考点来确定第二屏幕的位置和斜度。因为用户的眼睛高度根据用户的姿态而改变,所以有可能根据用户的身体的形状和用户的姿态来控制第二屏幕的斜度。
为了感测参考点,可以使用形状识别传感器或位置传感器。
例如,如果用户的眼睛高度因为他的或她的高度或姿态而被检测为较低,则可以将参考点确定为在位置上为低,并且因此,可以在接近地的位置处显示第二屏幕。在该情况下,可以向用户略微倾斜或旋转第二屏幕。结果,在用户的视线和相对于第二屏幕的垂直线之间的角度可以减小,因此,用户可以恰当地观看第二屏幕。
如果参考点位于图像显示设备的一侧上,则第二屏幕可以倾斜或旋转以便恰当地面对用户。即,第二屏幕可以在使得在用户的视线和相对于第二屏幕的垂直线之间的角度可以减小的方向上倾斜或旋转。第二屏幕可以被显示为梯形或平行四边形,以便看起来好象倾斜或旋转。控制单元170可以确定第二屏幕要显示的形状。其后,如果确定第二屏幕被显示为梯形或平行四边形,则控制单元170可以通过调整在梯形的底边的长度之间的差或在平行四边形的两个相邻内角之间的差来确定第二屏幕看起来倾斜或旋转的程度。简而言之,控制单元170可以不仅确定第一屏幕的距离、斜度或倾角,而且确定第二屏幕的距离、斜度和倾角。
如果第二屏幕倾斜或旋转,则可以因此倾斜或旋转第一屏幕。因为显示单元180的空间限制,所以可能不能在显示单元180上恰当地一起显示第一和第二屏幕。为此,当与第二屏幕一起显示时,可以略微倾斜或旋转第一屏幕。以这种方式,用户有可能恰当地观看第一和第二屏幕两者,而第二屏幕不被第一屏幕干扰。另外,有可能通过第一和第二屏幕同时显示多个内容项目。可替选地,当与第一屏幕一起显示时,第二屏幕可能略微倾斜或旋转。以这种方式,有可能通过第二屏幕向用户提供关于第一屏幕的各种附加信息,而不干扰第一屏幕的用户的观看。
例如,可以将第二屏幕默认地设置为在第一屏幕的一侧上倾斜地显示。在该情况下,控制单元170可以根据用户向其输入的命令或考虑到用户的姿态、位置和移动状态来确定第二屏幕的倾斜方向、斜度或旋转角度。
如上所述,在第二屏幕上显示的图像可以与在第一屏幕上显示的图像相关联。如果在可以在第二屏幕上显示关于在第一屏幕上显示的内容项目的附加信息,则以下将在第二屏幕上显示的信息或图像称为附加信息或附加图像。例如,当在第一屏幕上显示体育赛事的广播时,可以在第二屏幕上显示附加信息,诸如关于体育赛事的一般信息和关于运动员的信息。该附加信息可以被包括在由图像显示设备作为OSD数据而接收的数据信号中。
与在第一屏幕上显示的图像相关联或与其一起接收的附加图像可以显示在第二屏幕上。例如,如果接收到由不同的相机拍摄的体育赛事的多个视点图像,则可以将多个视点图像之一选择为主图像,并且可以因此将其显示在第一屏幕上,并且,可以将其他未选择的图像分类为附加图像。
可替选地,当在第一屏幕上显示新屏幕,并且因此用户正在观看来自第一屏幕的新闻节目时,可以与作为第二屏幕的新闻屏幕相关联地显示各种图像。在该情况下,可以将各种图像分类为附加图像。
以这种方式,可以在图像显示设备的显示单元180上一起显示第一和第二屏幕。
可以在第一或第二屏幕上显示的图像可以通过各种路径被输入到图像显示设备,并且可以然后存储在图像显示设备中。例如,图像显示设备可以在第一屏幕上显示经由USB端口接收的电影,并且可以在第二屏幕上显示用于建立或接收视频呼叫的呼叫屏幕。可替选地,图像显示设备可以显示多个因特网窗口,并且可以允许用户在通过多个因特网窗口在因特网上冲浪的同时从其观看TV广播。仍然可替选地,图像显示设备可以在显示单元180上同时显示多个广播信号。
即,接收单元810可以经由各种路径,从各种来源(诸如,广播频道、有线或无线通信系统或内部或外部存储介质)接收可以在第一或第二屏幕上显示的各种图像。例如,接收单元810可以同时从不同的广播频道接收多个图像信号,或者可以从预定的广播频道接收一个图像信号,并且同时从有线或无线通信系统接收另一个图像信号。
在此使用的术语“广播频道”包括从其可以接收到广播信号的几乎所有类型的频道,诸如陆地、有线、因特网和卫星频道。在此使用的术语“有线或无线通信系统”包括几乎所有类型的通信系统,并且从有线或无线通信系统接收的图像信号的示例包括与视频呼叫相关联的图像信号、从IP网络接收的图像信号、和用于显示因特网窗口的图像信号。在此使用的术语“存储介质”包括在图像显示设备中包括的内部存储介质,和连接到图像显示设备的外部存储介质。
简而言之,图像显示设备可以经由不同的路径从不同的来源接收要在第一屏幕上显示的图像和要在第二屏幕上显示的图像。如果提供了多于一个的第二屏幕,则图像显示设备可以经由不同的路径接收要在第二屏幕之一上显示的图像和要在另一个第二屏幕上显示的图像。
如果在第一屏幕上在TV节目的显示期间接收到广告图像,则第二屏幕可以自动地在显示单元180上弹出,并且控制单元170可以在第二屏幕上显示广告图像。可替选地,可以提供一个或多个第二屏幕,并且,可以在第二屏幕上显示除了当前正在第一屏幕上显示的TV节目之外的各种TV节目。如果在第一屏幕上显示广告图像,则可以在第二屏幕上显示响应于用户输入而选择的预定义图像,例如从预存频道接收的TV广播、或在图像显示设备中或连接到图像显示设备的外部存储介质中存储的图像。为此,图像显示设备可以永久地或暂时地存储由用户优选或近来观看的多个频道。然后,每当接收到广告图像时,图像显示设备可以从存储的频道之一接收图像信号,并且可以在第二屏幕上显示所接收的图像。
可替选地,如果通过接收单元810接收到作为要在第一屏幕上显示的图像的广告图像,则控制单元170可以在第一屏幕上显示当前正在第二屏幕上显示的图像,并且可以在第二屏幕上显示广告图像。在该情况下,如果提供了多个第二屏幕,则可以默认地或通过用户设置来选择当前在第二屏幕上显示的图像之一,并且可以在第一屏幕上显示所选择的图像。
图11图示根据本发明的另一个示例性实施例的图像显示设备的控制单元820的框图。参见图11,控制单元820可以包括图像处理器910、信号处理器920、子屏幕产生器930和子屏幕控制器940。在这个示例性实施例中,图像显示设备可以同时显示多个屏幕,并且可以将屏幕中的每个分类为主屏幕(或第一屏幕)或子屏幕(或第二屏幕)。
图像处理器910可以读取由图像显示设备接收的数据,或在图像显示设备的存储单元中存在的数据,并且可以基于所读取的数据来产生要被显示为2D图像或3D图像的图像信号。子屏幕产生器930可以基于由图像处理器910产生的图像信号来产生一个或多个子屏幕,并且可以向图像显示设备的显示单元输出子屏幕。用于指定应如何显示子屏幕的控制信息(诸如子屏幕应当倾斜或旋转的方向和角度,以及子屏幕应当显示的深度)可以被反映到相应的子屏幕图像信号内。可替选地,子屏幕产生器930可以分离地产生子屏幕图像信号和关于子屏幕图像信号的控制信息,并且可以向显示单元提供子屏幕图像信号和控制信息两者。在该情况下,显示单元可以根据控制信息来处理子屏幕图像信号,并且可以基于处理的结果来显示其深度或斜度被确定的子屏幕。
如果当在显示单元上显示子屏幕时检测到由用户作出的手势或用户向图像显示设备输入的命令(诸如用于接通或关断子屏幕、改变子屏幕的大小或转换频道的命令),则信号处理器920可以分析所检测的手势或命令,可以基于分析结果产生控制信号,并且可以向子屏幕控制器940或子屏幕产生器930输出控制信号。子屏幕控制器940可以根据控制信号来控制当前在显示单元上正在显示的子屏幕。子屏幕产生器930可以根据控制信号来重新处理与当前在显示单元上正在显示的子屏幕相对应的图像信号。
图12图示根据本发明的一个示例性实施例的图像显示方法的流程图。参见图12,图像显示设备可以显示第一屏幕(1010)。第一屏幕的产生对于本发明所属的领域内的普通技术人员是显然的,因此,将省略其详细说明。其后,图像显示设备可以产生对应于第二屏幕的图像信号(1020)。第二屏幕可以是包括一个或多个3D对象的2D屏幕或者3D屏幕,该对象是可以在图像显示设备和用户之间的空间中三维地显示的对象,以便产生深度和距离的幻觉。同样,第一屏幕可以是包括多个3D对象的2D屏幕或者3D屏幕。
与第二屏幕相对应的图像信号可以是可以容易地显示为3D图像的3D图像信号或2D图像信号。如果与第二屏幕相对应的图像信号是2D图像信号,则图像显示设备的信号处理器单元或格式器可以将与第二屏幕相对应的图像信号转换为3D图像信号。为此,可以需要3D图像转换引擎或3D图像转换软件。与第二屏幕相对应的图像信号可以是静止图像信号或移动图像信号,或者可以是从文本数据重建的图像信号。更具体地,如果接收到文本数据,则图像显示设备(具体地说,图像显示设备的信号处理单元或控制单元)可以从接收的文本数据重建包括文本的图像,并且可以在第二屏幕上显示重建的图像。简而言之,以便产生可以在2D屏幕上三维地显示的图像信号的各种类型的数据的处理落在本发明的范围内。
与第二屏幕相对应的图像信号可以包括关于第二屏幕的显示状态的控制信息。可替选地,可以从对应于第二屏幕的图像信号独立地产生和提供控制信息。控制信息可以指定第二屏幕的面向方向、斜度、大小和深度,以及在第二屏幕和用户之间的距离。下面参考图13进一步描述控制信息。
其后,图像显示设备可以根据控制信息来处理与第二屏幕相对应的图像信号,并且可以显示所处理的图像信号,以便第二屏幕可以具有与第一屏幕不同的深度,或者可以向用户倾斜或旋转(1030)。
其后,图像显示设备可以基于在操作1030中处理的图像信号来显示第二屏幕。三维的第二屏幕可以被控制信息确定。第二屏幕可以看起来向第一屏幕外突出或凹进第一屏幕内。即,第二屏幕可以看起来比第一屏幕更接近或原理用户。
第一和第二屏幕可以被显示使得面向不同的方向。第二屏幕可以倾斜或旋转,并且可以因此面向与第一屏幕面向的方向不同的方向。如参考图10上述,第二屏幕可以被显示在第一屏幕的一侧上,并且可以向用户倾斜或旋转,以便不干扰用户观看第一屏幕。在该情况下,用户可以容易地恰当地观看第一和第二屏幕两者。
图13图示如何根据控制信息改变第二屏幕的显示状态。参见图13,假定相对于用户的视线的垂直平面(即,包括图像显示设备的显示单元的表面的平面)的水平轴是x轴,相对于用户的视线的垂直平面的垂直方向是y轴,并且,相对于图像显示设备的显示单元的表面的垂直线表示z轴。可以使用x和y轴表示第二屏幕相对于第一屏幕的相对位置,并且,可以使用z轴来表示在第二屏幕和用户之间的距离。
参见图13(a),可以围绕x轴倾斜或旋转第二屏幕。用户的眼睛高度可以根据他的或她的姿态或高度来改变。如果用户的眼睛高度被确定为较高,则第二屏幕可以围绕x轴逆时针地略微旋转,以便便利用户观看第二屏幕。另一方面,如果用户的眼睛的高度被确定为较低,则第二屏幕可以围绕x轴顺时针地略微旋转,以便便利用户观看第二屏幕。
为了控制第二屏幕的旋转角度或斜度,用户可以使用诸如遥控装置的附加装置向图像显示设备直接地输入控制信号,或可以作出手势或发出声音。然后,图像显示设备的控制单元可以借助于图像显示设备的传感器来检测用户输入的控制信号,或用户作出的手势或发出的声音,并且可以根据检测结果来控制第二屏幕的旋转角或斜度。
图13(b)图示如何控制在x-y平面上的第二屏幕的位置。参见图13(b),第二屏幕的位置可以是可变的而不是固定的。第二屏幕的位置可以根据第二屏幕的旋转或倾斜来改变。可以根据用户输入的信号或用户作出的手势或发出的声音来控制第二屏幕的位置。可替选地,可以使用图像显示设备的传感器来确定用户的位置,并且可以基于确定结果来确定第二屏幕的位置。
例如,如果用户将他的或她的手放在第二屏幕上方超过预定义数量的时间,则图像显示设备可以确定用户的手的位置,并且可以确定已经发出了用于改变第二屏幕的位置的命令。另一方面,如果用户作出用于拖放第二屏幕的手势,则图像显示设备可以检测由用户作出的手势,并且可以然后根据检测结果来移动第二屏幕。
图13(c)图示如何控制在z轴上的第二屏幕的位置,即,第二屏幕的深度。参见图13(c),具有不同的z坐标值的两个第二屏幕可以看起来具有相对于用户的不同距离或不同深度。两个第二屏幕可以都看起来向在第一屏幕外的用户突出。即,两个第二屏幕可以都看起来具有大于第一屏幕的深度。可以通过在z轴上的相应的第二屏幕的位置来确定两个第二屏幕中的每个看起来突出到第一屏幕之外或凹进第一屏幕内的程度,或两个第二屏幕中的每个相对于用户的距离。
可以以各种方式来确定在z轴上的第二屏幕的位置。例如,可以通过用户的位置来确定第二屏幕的位置。可替选地,可以通过在第二屏幕上显示的图像或者信息的重要度来确定第二屏幕的位置。例如,第二屏幕可以当显示重要信息(诸如由用户请求的信息)时比当显示不太重要的信息(诸如设置数据)时看起来更接近用户。仍然可替选地,可以通过第二屏幕的建立日期、第二屏幕的请求日期、或第二屏幕的重要度来确定在z轴上的第二屏幕的位置。在该情况下,如果存在同时显示多于一个的第二屏幕的需要,则第二屏幕可以以第二屏幕的建立日期、第二屏幕的请求日期、或第二屏幕的重要度的顺序沿着z轴来排列。
如果存在其中的每一个请求第二屏幕的两个或更多的用户,则可以通过它们各自的用户来确定第二屏幕的位置。
可以根据用户命令,或由用户作出的手势或发出的声音来控制在z轴上的第二屏幕的位置。
可以同时但是独立地执行第二屏幕的旋转或倾斜、在x-y平面上的第二屏幕的位置的改变、和在z轴上的第二屏幕的位置中的改变的至少两个。
图14图示根据本发明的另一个示例性实施例的图像显示方法的流程图。参见图14,图像显示设备可以接收附加图像、附加信息或广告图像(S1210)。附加信息可以是关于当前在第一屏幕上显示的图像的信息,并且附加图像可以是与当前在第一屏幕上正在显示的图像一起接收的图像。如果在第一屏幕上显示体育赛事的广播,则可以将关于运动员的信息分类为附加信息,并且可以将与当前在第一屏幕上正在显示的主广播图像一起接收但是当前未在第一屏幕上显示的广播图像分类为附加图像。广告图像的示例包括公共服务声明和商业广告。可以假定广告图像显示在第一屏幕上。可以经由不同的路径来接收附加图像或信息和广告图像。
其后,图像显示设备可以产生第二屏幕,而与是否存在用于产生第二屏幕的请求无关(1220)。更具体地,如果在操作1210中接收到附加图像或信息,则图像显示设备可以产生用于提供该附加图像或信息的第二屏幕。另一方面,如果在操作1210中接收到广告图像,则图像显示设备可以产生第二屏幕,用于在第一屏幕上的广告图像的显示期间提供除了广告图像之外的图像。其后,图像显示设备可以显示在操作1220中产生的第二屏幕(1230)。
当开始在第一屏幕上显示广告图像时,图像显示设备可以在第二屏幕上显示从与广告图像或其中预存的图像的频道不同的频道接收的广播节目。可替选地,当广告图像开始显示在第一屏幕上时,图像显示设备可以暂时转换在第二屏幕上当前正在显示的图像和广告图像。如果当前在第二屏幕上正在显示的图像是广告,则可以在第一或第二屏幕上显示默认图像或由用户选择的图像,而不是广告图像。更具体地,可以响应于由用户输入的信号而实时地确定要取代广告图像而显示的图像。可替选地,可以预先将预定图像设置为默认显示,而不是广告图像。例如,由用户登记为优选频道的频道、用户频繁选择的频道、和用户最近选择的频道可以永久地或暂时地存储在图像显示设备中。然后,当接收到广告图像时,可以选择在图像显示设备中存储的频道之一,并且可以在第一或第二屏幕上上显示从所选择的频道接收的图像而不是广告图像。可以在第一或第二屏幕上显示在图像显示设备的存储单元中存在的图像或从连接到图像显示设备的外部存储介质中存在的图像,而不是广告图像。
图15图示根据本发明的另一个示例性实施例的图像显示设备的流程图。参见图15,图像显示设备可以从用户接收第一用户信号,用于请求第二屏幕(1310)。更具体地,用户可以通过使用遥控装置或在图像显示设备上的按钮向图像显示设备发出对于第二屏幕的请求。然后,图像显示设备的控制单元可以经由图像显示设备的接口单元接收由用户发出的请求,并且可以分析所接收的请求。
可替选地,用户可以通过作出预定义的手势或发出声音来向图像显示设备发出对于第二屏幕的请求。在该情况下,图像显示设备可以感测和分析由用户作出的手势或发出的声音,并且可以基于分析结果识别已经从用户接收到对于第二屏幕的请求。仍然可替选地,如果接收到要在第一屏幕上显示的广告图像,则图像显示设备可以确定已经发出了对于第二屏幕的请求。
其后,图像显示设备可以响应于第一用户信号来产生第二屏幕(1320)。第二屏幕可以是包括多个3D对象的2D屏幕或者3D屏幕。第二屏幕可以具有与第一屏幕不同的深度,并且可以因此看起来向第一屏幕外部突出或向第一屏幕内凹进。用于指定例如第二屏幕的位置、斜度和/或旋转角的控制信息可以被包括在对应于第二屏幕的图像信号中。对应于第二屏幕的图像信号可以是从广播站或服务器接收的3D图像信号,或者可以是从2D图像信号重建的3D图像信号。
其后,图像显示设备可以显示第二屏幕(1330)。可以默认地或通过用户设置来确定第二屏幕的显示状态。
此后,图像显示设备可以接收第二用户信号,用于改变第二屏幕的显示状态(1340)。第二用户信号可以包括关于如何改变第二屏幕的显示状态的用户请求。
例如,如果正在第一屏幕上播放电影,则用户可以输入第一用户信号,并且可以因此允许在第二屏幕上显示关于电影的附加信息,诸如在电影中出演的角色的简况和关于电影导演的信息。可替选地,用户可以打开在第二屏幕上的因特网搜索窗口,并且可以通过因特网搜索窗口搜索关于电影的信息。
第二用户信号可以作为用于改变第二屏幕的显示状态的控制信号。因此,图像显示设备可以响应于第二用户信号而改变第二屏幕的显示状态。例如,图像显示设备可以响应于第二用户信号,而改变在x-y平面上或在z轴上的第二屏幕的位置和/或第二屏幕的大小。
在操作1340中,用户也可以在操作1340中向图像显示设备输入用于缩小或放大第二屏幕的用户信号,或用于根据他的或她的位置或姿态而控制第二屏幕的斜度或旋转角的用户信号。
图像显示设备可以使用传感器检测用户作出的手势、姿态或声音,并且可以因此将检测结果识别为用户信号。已经在先前的示例性实施例中详细描述了基于感测结果的用户状态的感测和控制信号的产生,因此,将省略其详细描述。
其后,图像显示设备可以根据第二用户信号来改变第二屏幕的显示状态(1350)。例如,如果第二用户信号对应于对于转换到新频道的请求,则图像显示设备可以在第二屏幕上显示从用户期望的频道接收的图像,或可以提供用于显示从用户期望的频道接收的图像的另一个第二屏幕。可替选地,如果第二用户信号对应于对于旋转或移动第二屏幕的请求,则图像显示设备可以产生用于旋转或移动第二屏幕的控制信息,或可以修改对应于第二屏幕的图像信号,以便旋转或移动第二屏幕。
图16至18图示来如何显示第一和第二屏幕的各种示例。参见图16,可以在第一屏幕1410上将垒球比赛的广播显示为3D或立体图像。然后,当击球手击中本垒打时,由击球手击中的球可以被显示为使得看起来好象飞出第二屏幕1410之外而向用户飞去。然后,可以在第一屏幕1410上显示用于指示击球手已经击中本垒打的第二屏幕1420。
可以由第二屏幕1420提供关于垒球比赛的附加信息,诸如关于击球手和每队的分数的信息。可替选地,当在第一屏幕1410上显示击球手击中本垒打的图像时,可以在第二屏幕1420上显示各种附加图像,诸如在棒球场中的其他运动员、教练员和观众的附加图像。
根据本发明的图像显示设备和根据本发明的图像显示设备的图像显示方法不限于在此给出的示例性实施例。因此,在此给出的示例性实施例的变化和组合可以落在本发明的范围内。
本发明可以被实现为可以被移动终端中包括的处理器(诸如移动台调制解调器(MSM))读取并且可以在计算机可读记录介质上写入的代码。计算机可读记录介质可以是其中以计算机可读方式存储数据的任何类型的记录装置。计算机可读记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、和光学数据存储器。计算机可读记录介质可以被分布在连接到网络的多个计算机系统上,使得以分散的方式向其写入计算机可读代码并且从其执行计算机可读代码。用于实现本发明所需的功能程序、代码和代码段可以被本领域内的普通技术人员之一容易地解释。
如上所述,根据本发明,有可能使用立体图像向用户提供多种信息。另外,可以同时向用户提供图像和关于图像的附加信息。而且,当使用多个屏幕同时提供各种多媒体内容项目时,有可能适当地确定多个屏幕的位置和角度,并且因此允许用户适当地观看每一个多媒体内容项目,并且多个屏幕不彼此干扰。而且,有可能通过考虑到用户的位置和姿态来配置立体图像,从而提供适合于用户的环境的立体图像。
虽然已经参考本发明的示例性实施例具体示出和描述了本发明,但是本领域内的普通技术人员可以明白,在不偏离由所附的权利要求限定的本发明的精神和范围的情况下,可以在其中进行在形式和细节上的各种改变。
Claims (28)
1.一种图像显示设备的图像显示方法,所述图像显示方法包括:
通过所述图像显示设备来检测在所述图像显示设备之外的对象的位置;以及
通过所述图像显示装置显示与所述图像显示设备的屏幕相距一定距离的3D对象,
其中,所述显示步骤包括基于所述检测的位置来设置所述3D对象的斜度,以及
其中,所述斜度是相对于所述屏幕的表面的显示角度。
2.根据权利要求1所述的方法,其中,所述设置斜度的步骤包括设置所述3D对象的视差参数。
3.根据权利要求1所述的方法,
其中,所述3D对象包括两个3D对象,以及
其中,所述设置步骤包括独立地设置所述3D对象中的每个相对于所述检测的位置的斜度。
4.根据权利要求1所述的方法,进一步包括:
检测在所述图像显示装置之外的所述对象的位置改变;以及
基于所述检测的改变来改变所述距离和所述斜度之一。
5.根据权利要求1所述的方法,进一步包括:
响应于用户输入来改变所述斜度。
6.根据权利要求5所述的方法,其中,改变所述斜度的步骤包括:
检测相对于所述屏幕的用户移动;以及
响应于所述检测的用户移动来改变所述斜度。
7.根据权利要求1所述的方法,其中,所述3D对象是3D画中画显示。
8.根据权利要求1所述的方法,其中,所述显示步骤包括:
基于所述检测的位置来设置所述距离。
9.根据权利要求8所述的方法,进一步包括:
检测相对于所述屏幕的用户移动;以及
响应于所述检测的用户移动来改变所述距离。
10.一种图像显示设备的图像显示方法,所述图像显示方法包括:
在所述图像显示设备的屏幕上显示运动图片;以及
基于与所述运动图片相关联的元数据来显示与所述运动图片相关的3D图像。
11.根据权利要求10所述的方法,其中,所述运动图片是3D运动图片。
12.根据权利要求10所述的方法,进一步包括:
基于所述元数据来改变所述3D图像的深度和大小。
13.根据权利要求12所述的方法,其中,所述改变的步骤包括:
通过所述图像显示设备来检测在所述图像显示设备之外的对象的位置;以及
基于所述检测的位置来改变所述3D图像的深度和大小。
14.根据权利要求10所述的方法,其中,所述显示3D图像的步骤包括:
通过所述图像显示装置检测在所述图像显示装置之外的对象的位置;以及
基于所述检测的位置,在与所述屏幕相距一定距离处并且以一定斜度来显示所述3D对象,
其中,所述斜度是相对于所述屏幕的表面的显示角度。
15.一种图像显示设备,包括:
检测器,所述检测器被配置成检测在所述图像显示设备之外的对象的位置;
显示器,所述显示器具有屏幕,并且被配置成显示2D和3D图像;以及
控制器,所述控制器可操作地连接到所述检测器和显示器,所述控制器被配置成在与所述屏幕相距一定距离处显示3D对象,以及基于所述检测的位置来设置所述3D对象的斜度,
其中,所述斜度是相对于所述屏幕的表面的显示角度。
16.根据权利要求15所述的图像显示设备,其中,所述控制器被配置成设置所述3D对象的视差参数。
17.根据权利要求15所述的图像显示设备,
其中,所述3D对象包括两个3D对象,以及
其中,所述控制器被配置成独立地设置所述3D对象中的每个相对于所述检测的位置的所述斜度。
18.根据权利要求15所述的图像显示设备,其中,所述控制器被配置成检测在所述图像显示设备之外的所述对象的位置改变,以及基于所述检测的改变来改变所述距离和所述斜度之一。
19.根据权利要求15所述的图像显示设备,其中,所述控制器被配置成响应于用户输入来改变所述斜度。
20.根据权利要求19所述的图像显示设备,其中,所述控制器被配置成检测相对于所述屏幕的用户移动,以及响应于所述检测的用户移动来改变所述斜度。
21.根据权利要求15所述的图像显示设备,其中,所述3D对象是3D画中画显示。
22.根据权利要求15所述的图像显示设备,其中,所述控制器被配置成基于所述检测的位置来设置所述距离。
23.根据权利要求22所述的图像显示设备,其中,所述控制器被配置成检测相对于所述屏幕的用户移动,以及响应于所述检测的用户移动来改变所述距离。
24.一种图像显示设备,包括:
显示器,所述显示器具有屏幕并且被配置成显示2D和3D图像;以及
控制器,所述控制器可操作地连接到所述显示器,并且被配置成在所述屏幕上显示运动图片,以及基于与所述运动图片相关联的元数据来显示与所述运动图片相关的3D对象。
25.根据权利要求24所述的图像显示设备,其中,所述运动图片是3D运动图片。
26.根据权利要求24所述的图像显示设备,其中,所述控制器被配置成基于所述元数据来改变所述3D图像的深度和大小。
27.根据权利要求26所述的图像显示设备,进一步包括:
检测器,所述检测器可操作地连接到所述控制器,以及被配置成检测在所述图像显示设备之外的对象的位置,
其中,所述控制器被配置成基于所述检测的位置来改变所述3D图像的所述深度和大小。
28.根据权利要求24所述的图像显示设备,其中,所述显示3D图像的步骤包括:
通过所述图像显示设备来检测在所述图像显示设备之外的对象的位置;以及
基于所述检测的位置来在与所述屏幕相距一定距离处并且以一定斜度来显示所述3D对象,
其中,所述斜度是相对于所述屏幕的表面的显示角度。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090109290A KR101627214B1 (ko) | 2009-11-12 | 2009-11-12 | 영상표시장치 및 그 동작방법 |
| KR10-2009-0109290 | 2009-11-12 | ||
| PCT/KR2010/007996 WO2011059260A2 (en) | 2009-11-12 | 2010-11-12 | Image display apparatus and image display method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN102598677A true CN102598677A (zh) | 2012-07-18 |
Family
ID=43973831
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN2010800514185A Pending CN102598677A (zh) | 2009-11-12 | 2010-11-12 | 图像显示设备及其图像显示方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US8803873B2 (zh) |
| EP (1) | EP2499819B1 (zh) |
| KR (1) | KR101627214B1 (zh) |
| CN (1) | CN102598677A (zh) |
| WO (1) | WO2011059260A2 (zh) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014100959A1 (en) * | 2012-12-24 | 2014-07-03 | Thomson Licensing | Apparatus and method for displaying stereoscopic images |
| CN105247881A (zh) * | 2013-05-30 | 2016-01-13 | 索尼公司 | 信息处理设备、显示控制方法以及程序 |
| US20160026242A1 (en) | 2014-07-25 | 2016-01-28 | Aaron Burns | Gaze-based object placement within a virtual reality environment |
| CN106687886A (zh) * | 2014-07-25 | 2017-05-17 | 微软技术许可有限责任公司 | 三维混合现实视口 |
| US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
| US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
| US10649212B2 (en) | 2014-07-25 | 2020-05-12 | Microsoft Technology Licensing Llc | Ground plane adjustment in a virtual reality environment |
Families Citing this family (58)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5302285B2 (ja) * | 2010-10-28 | 2013-10-02 | シャープ株式会社 | 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置 |
| US8913107B2 (en) * | 2010-12-23 | 2014-12-16 | Marvell World Trade Ltd. | Systems and methods for converting a 2D image to a 3D image |
| US9078030B2 (en) * | 2011-03-15 | 2015-07-07 | Sony Corporation | Graphical user interface (GUI) control by internet protocol television (IPTV) remote internet access devices |
| WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
| TW201306556A (zh) * | 2011-07-20 | 2013-02-01 | Delta Electronics Inc | 影像控制器及包含該影像控制器之影像播放系統 |
| KR20130026236A (ko) * | 2011-09-05 | 2013-03-13 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
| CN103105926A (zh) | 2011-10-17 | 2013-05-15 | 微软公司 | 多传感器姿势识别 |
| EP2610855A1 (en) * | 2011-12-28 | 2013-07-03 | Samsung Electronics Co., Ltd | Display apparatus |
| US9201569B2 (en) * | 2011-12-29 | 2015-12-01 | Alticast Corporation | Method and recorded medium for providing 3D information service |
| CN104520785B (zh) * | 2012-04-26 | 2017-08-08 | 高通股份有限公司 | 基于检测到的输入来更改在显示区域的一部分中提供的内容的属性 |
| JP2014006674A (ja) * | 2012-06-22 | 2014-01-16 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
| US20140009464A1 (en) * | 2012-07-05 | 2014-01-09 | Kabushiki Kaisha Toshiba | Electronic apparatus and desktop image display method |
| US20140115484A1 (en) * | 2012-10-19 | 2014-04-24 | Electronics And Telecommunications Research Institute | Apparatus and method for providing n-screen service using depth-based visual object groupings |
| CN103197889B (zh) * | 2013-04-03 | 2017-02-08 | 锤子科技(北京)有限公司 | 一种亮度调整方法、装置及一种电子设备 |
| TWI637348B (zh) * | 2013-04-11 | 2018-10-01 | 緯創資通股份有限公司 | 影像顯示裝置和影像顯示方法 |
| US20150145977A1 (en) * | 2013-11-22 | 2015-05-28 | Samsung Display Co., Ltd. | Compensation technique for viewer position in autostereoscopic displays |
| US9910505B2 (en) * | 2014-06-17 | 2018-03-06 | Amazon Technologies, Inc. | Motion control for managing content |
| KR102358548B1 (ko) * | 2014-10-15 | 2022-02-04 | 삼성전자주식회사 | 디바이스를 이용한 화면 처리 방법 및 장치 |
| KR101724843B1 (ko) * | 2015-05-14 | 2017-04-10 | 금오공과대학교 산학협력단 | 선수 측위를 이용한 관심 선수 화면 제공 시스템 |
| EP3452991A4 (en) | 2016-05-02 | 2020-01-08 | Warner Bros. Entertainment Inc. | Geometry matching in virtual reality and augmented reality |
| WO2017205841A1 (en) * | 2016-05-27 | 2017-11-30 | Craig Peterson | Combining vr or ar with autostereoscopic usage in the same display device |
| CN108693970B (zh) * | 2017-04-11 | 2022-02-18 | 杜比实验室特许公司 | 用于调适可穿戴装置的视频图像的方法和设备 |
| US10503456B2 (en) * | 2017-05-05 | 2019-12-10 | Nvidia Corporation | Method and apparatus for rendering perspective-correct images for a tilted multi-display environment |
| TWI679555B (zh) * | 2017-10-12 | 2019-12-11 | 華碩電腦股份有限公司 | 擴增實境系統以及提供擴增實境之方法 |
| KR102309397B1 (ko) * | 2017-12-20 | 2021-10-06 | 레이아 인코포레이티드 | 크로스-렌더 멀티뷰 카메라, 시스템 및 방법 |
| CN109491561B (zh) * | 2018-09-27 | 2021-02-12 | 维沃移动通信有限公司 | 一种图像显示方法及终端 |
| US11836410B2 (en) * | 2019-08-06 | 2023-12-05 | Universal City Studios Llc | Interactive headgear |
| US11150470B2 (en) | 2020-01-07 | 2021-10-19 | Microsoft Technology Licensing, Llc | Inertial measurement unit signal based image reprojection |
| CN119440253A (zh) | 2020-09-25 | 2025-02-14 | 苹果公司 | 用于操纵环境中的对象的方法 |
| WO2022067302A1 (en) | 2020-09-25 | 2022-03-31 | Apple Inc. | Methods for navigating user interfaces |
| EP4697149A2 (en) | 2020-09-25 | 2026-02-18 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
| CN116719452A (zh) | 2020-09-25 | 2023-09-08 | 苹果公司 | 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法 |
| WO2022146936A1 (en) | 2020-12-31 | 2022-07-07 | Sterling Labs Llc | Method of grouping user interfaces in an environment |
| US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
| KR20230169331A (ko) | 2021-04-13 | 2023-12-15 | 애플 인크. | 환경에 몰입형 경험을 제공하기 위한 방법 |
| WO2023049705A1 (en) | 2021-09-23 | 2023-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for content applications |
| CN118215903A (zh) | 2021-09-25 | 2024-06-18 | 苹果公司 | 用于在虚拟环境中呈现虚拟对象的设备、方法和图形用户界面 |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| US12524977B2 (en) | 2022-01-12 | 2026-01-13 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
| CN119473001A (zh) | 2022-01-19 | 2025-02-18 | 苹果公司 | 用于显示和重新定位环境中的对象的方法 |
| US12541280B2 (en) | 2022-02-28 | 2026-02-03 | Apple Inc. | System and method of three-dimensional placement and refinement in multi-user communication sessions |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| WO2023196258A1 (en) | 2022-04-04 | 2023-10-12 | Apple Inc. | Methods for quick message response and dictation in a three-dimensional environment |
| WO2023205457A1 (en) | 2022-04-21 | 2023-10-26 | Apple Inc. | Representations of messages in a three-dimensional environment |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| US12148078B2 (en) | 2022-09-16 | 2024-11-19 | Apple Inc. | System and method of spatial groups in multi-user communication sessions |
| US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
| US12405704B1 (en) | 2022-09-23 | 2025-09-02 | Apple Inc. | Interpreting user movement as direct touch user interface interactions |
| EP4591133A1 (en) | 2022-09-24 | 2025-07-30 | Apple Inc. | Methods for controlling and interacting with a three-dimensional environment |
| EP4591145A1 (en) | 2022-09-24 | 2025-07-30 | Apple Inc. | Methods for time of day adjustments for environments and environment presentation during communication sessions |
| EP4659088A1 (en) | 2023-01-30 | 2025-12-10 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying sets of controls in response to gaze and/or gesture inputs |
| US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
| US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| US12099695B1 (en) | 2023-06-04 | 2024-09-24 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
| WO2024254096A1 (en) | 2023-06-04 | 2024-12-12 | Apple Inc. | Methods for managing overlapping windows and applying visual effects |
| US20250080790A1 (en) * | 2023-08-31 | 2025-03-06 | Tzuyang Huang | Remote environment presentation system |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001094900A (ja) * | 1999-09-21 | 2001-04-06 | Matsushita Electric Ind Co Ltd | 画面表示方法 |
| US7002623B1 (en) * | 1998-09-08 | 2006-02-21 | Olympus Optical Co., Ltd. | Image processing apparatus for correcting a color and texture of an image and displaying the corrected image |
| US20070176914A1 (en) * | 2006-01-27 | 2007-08-02 | Samsung Electronics Co., Ltd. | Apparatus, method and medium displaying image according to position of user |
| US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
| CN201156806Y (zh) * | 2008-02-02 | 2008-11-26 | 北京超多维科技有限公司 | 具有画外画/画中画功能的立体电视 |
| JP2009087026A (ja) * | 2007-09-28 | 2009-04-23 | Panasonic Corp | 映像表示装置 |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2317771A (en) | 1996-09-27 | 1998-04-01 | Sharp Kk | Observer tracking directional display |
| US5781229A (en) * | 1997-02-18 | 1998-07-14 | Mcdonnell Douglas Corporation | Multi-viewer three dimensional (3-D) virtual display system and operating method therefor |
| US6621509B1 (en) | 1999-01-08 | 2003-09-16 | Ati International Srl | Method and apparatus for providing a three dimensional graphical user interface |
| US6674484B1 (en) | 2000-01-10 | 2004-01-06 | Koninklijke Philips Electronics N.V. | Video sample rate conversion to achieve 3-D effects |
| SE523636C2 (sv) | 2001-07-22 | 2004-05-04 | Tomer Shalit Ab | Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt |
| US20050046645A1 (en) * | 2003-07-24 | 2005-03-03 | Breton Pierre Felix | Autoscaling |
| US8300043B2 (en) * | 2004-06-24 | 2012-10-30 | Sony Ericsson Mobile Communications AG | Proximity assisted 3D rendering |
| US7956819B2 (en) | 2004-09-30 | 2011-06-07 | Pioneer Corporation | Stereoscopic two-dimensional image display device |
| KR100677569B1 (ko) * | 2004-12-13 | 2007-02-02 | 삼성전자주식회사 | 입체영상장치 |
| KR100659888B1 (ko) | 2005-01-07 | 2006-12-20 | 엘지전자 주식회사 | 이동 단말기의 3차원 영상 처리방법 |
| US8237809B2 (en) | 2005-08-26 | 2012-08-07 | Koninklijke Philips Electronics N.V. | Imaging camera processing unit and method |
| US8269822B2 (en) * | 2007-04-03 | 2012-09-18 | Sony Computer Entertainment America, LLC | Display viewing system and methods for optimizing display view based on active tracking |
| WO2008132724A1 (en) | 2007-04-26 | 2008-11-06 | Mantisvision Ltd. | A method and apparatus for three dimensional interaction with autosteroscopic displays |
| US8331023B2 (en) * | 2008-09-07 | 2012-12-11 | Mediatek Inc. | Adjustable parallax barrier 3D display |
| KR20100040563A (ko) * | 2008-10-10 | 2010-04-20 | 삼성전자주식회사 | 방송 표시장치 및 그의 2차원 영상 표시 방법 |
| TWI462585B (zh) * | 2008-10-27 | 2014-11-21 | Wistron Corp | 具有立體顯示功能的子母畫面顯示裝置及子母畫面顯示方法 |
| KR101296900B1 (ko) * | 2009-01-07 | 2013-08-14 | 엘지디스플레이 주식회사 | 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치 |
| KR101324440B1 (ko) * | 2009-02-11 | 2013-10-31 | 엘지디스플레이 주식회사 | 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치 |
| US8477175B2 (en) * | 2009-03-09 | 2013-07-02 | Cisco Technology, Inc. | System and method for providing three dimensional imaging in a network environment |
-
2009
- 2009-11-12 KR KR1020090109290A patent/KR101627214B1/ko active Active
-
2010
- 2010-10-15 US US12/905,632 patent/US8803873B2/en active Active
- 2010-11-12 WO PCT/KR2010/007996 patent/WO2011059260A2/en not_active Ceased
- 2010-11-12 EP EP10830192.0A patent/EP2499819B1/en not_active Not-in-force
- 2010-11-12 CN CN2010800514185A patent/CN102598677A/zh active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7002623B1 (en) * | 1998-09-08 | 2006-02-21 | Olympus Optical Co., Ltd. | Image processing apparatus for correcting a color and texture of an image and displaying the corrected image |
| JP2001094900A (ja) * | 1999-09-21 | 2001-04-06 | Matsushita Electric Ind Co Ltd | 画面表示方法 |
| US20070176914A1 (en) * | 2006-01-27 | 2007-08-02 | Samsung Electronics Co., Ltd. | Apparatus, method and medium displaying image according to position of user |
| US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
| JP2009087026A (ja) * | 2007-09-28 | 2009-04-23 | Panasonic Corp | 映像表示装置 |
| CN201156806Y (zh) * | 2008-02-02 | 2008-11-26 | 北京超多维科技有限公司 | 具有画外画/画中画功能的立体电视 |
Non-Patent Citations (1)
| Title |
|---|
| HYUN LEE ET AL.: "a structure for 2d/3d mixed service based on terrestrial DMB system", 《3DTV CONFERENCE, 2007, IEEE》 * |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10091495B2 (en) | 2012-12-24 | 2018-10-02 | Thomson Licensing | Apparatus and method for displaying stereoscopic images |
| CN104871533A (zh) * | 2012-12-24 | 2015-08-26 | 汤姆逊许可公司 | 用于显示立体影像的装置和方法 |
| WO2014100959A1 (en) * | 2012-12-24 | 2014-07-03 | Thomson Licensing | Apparatus and method for displaying stereoscopic images |
| CN105247881A (zh) * | 2013-05-30 | 2016-01-13 | 索尼公司 | 信息处理设备、显示控制方法以及程序 |
| CN105247881B (zh) * | 2013-05-30 | 2020-02-14 | 索尼公司 | 信息处理设备、显示控制方法以及程序 |
| US10038874B2 (en) | 2013-05-30 | 2018-07-31 | Sony Corporation | Information processing apparatus, display control method, and program |
| US20160026242A1 (en) | 2014-07-25 | 2016-01-28 | Aaron Burns | Gaze-based object placement within a virtual reality environment |
| US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
| US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
| CN106687886B (zh) * | 2014-07-25 | 2019-09-17 | 微软技术许可有限责任公司 | 三维混合现实视口 |
| US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
| CN106687886A (zh) * | 2014-07-25 | 2017-05-17 | 微软技术许可有限责任公司 | 三维混合现实视口 |
| US10649212B2 (en) | 2014-07-25 | 2020-05-12 | Microsoft Technology Licensing Llc | Ground plane adjustment in a virtual reality environment |
Also Published As
| Publication number | Publication date |
|---|---|
| EP2499819B1 (en) | 2017-09-13 |
| WO2011059260A2 (en) | 2011-05-19 |
| WO2011059260A3 (en) | 2011-11-17 |
| KR101627214B1 (ko) | 2016-06-03 |
| KR20110052307A (ko) | 2011-05-18 |
| US8803873B2 (en) | 2014-08-12 |
| US20110109619A1 (en) | 2011-05-12 |
| EP2499819A2 (en) | 2012-09-19 |
| EP2499819A4 (en) | 2014-04-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8803873B2 (en) | Image display apparatus and image display method thereof | |
| US9609381B2 (en) | Method for playing contents | |
| US8896672B2 (en) | Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same | |
| US8593510B2 (en) | Image display apparatus and operating method thereof | |
| US9036012B2 (en) | 3D viewing device, image display apparatus, and method for operating the same | |
| CN102668573B (zh) | 图像显示装置及其操作方法 | |
| US20110273540A1 (en) | Method for operating an image display apparatus and an image display apparatus | |
| EP2424264A2 (en) | Method for operating image display apparatus | |
| US20110227911A1 (en) | Image display device and method for operating the same | |
| US20110254837A1 (en) | Image display apparatus and method for controlling the same | |
| US20120062551A1 (en) | Image display apparatus and method for operating image display apparatus | |
| US8760503B2 (en) | Image display apparatus and operation method therefor | |
| US20120056875A1 (en) | Method for operating image display apparatus | |
| KR101635567B1 (ko) | 영상표시장치 및 그 동작방법 | |
| KR101702949B1 (ko) | 영상표시장치의 동작 방법 | |
| US20130291017A1 (en) | Image display apparatus and method for operating the same | |
| KR101655804B1 (ko) | 3d 썸네일을 표시하는 영상표시장치 및 그 동작 제어방법 | |
| KR101657564B1 (ko) | 영상표시장치 및 그 동작방법 | |
| KR101176500B1 (ko) | 영상표시장치 및 그 동작방법 | |
| KR101691801B1 (ko) | 멀티비전 시스템 | |
| KR101737367B1 (ko) | 영상표시장치 및 그 동작방법 | |
| KR20110093445A (ko) | 영상표시장치 및 그 동작방법 | |
| KR20110093447A (ko) | 영상표시장치 및 그 동작방법 | |
| KR20120054323A (ko) | 영상표시장치의 동작 방법 | |
| KR20120034995A (ko) | 영상표시장치 및 그 동작방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120718 |
|
| WD01 | Invention patent application deemed withdrawn after publication |