KR20110052307A - 영상표시장치 및 그 동작방법 - Google Patents
영상표시장치 및 그 동작방법 Download PDFInfo
- Publication number
- KR20110052307A KR20110052307A KR1020090109290A KR20090109290A KR20110052307A KR 20110052307 A KR20110052307 A KR 20110052307A KR 1020090109290 A KR1020090109290 A KR 1020090109290A KR 20090109290 A KR20090109290 A KR 20090109290A KR 20110052307 A KR20110052307 A KR 20110052307A
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- image
- signal
- displayed
- video
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/378—Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/38—Image reproducers using viewer tracking for tracking vertical translational head movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Marketing (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시방법에 따르면, 영상표시장치는 메인 화면과 서브 화면을 표시하되, 메인 화면과 서브 화면 중 하나 이상이 깊이 또는 기울기를 가져서 입체적으로 표시되도록 한다. 따라서 본 발명의 실시예에 따르면 사용자의 몰입을 방해하지 않으면서 다양한 정보를 동시에 제공할 수 있다.
입체 영상, 컨텐츠, 회전
Description
본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명은 더욱 상세하게는 입체 영상을 표시하는 영상표시장치 또는 영상표시방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환되고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 오부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. 또한 상술한 디지털 방송에서도 입체 영상을 송신할 수 있으며, 이를 재생하기 위한 장치에 대한 개발 역시 진행 중에 있다.
따라서, 본 발명의 목적은 입체적인 영상을 이용하여 사용자에게 보다 다양하고 다채로운 정보를 제공함에 있다. 본 발명의 또 다른 목적은 사용자가 이용하고 있는 하나의 컨텐츠와 관련하여, 그와 관련된 풍부한 정보나 다른 영상을 제공하고, 실시간으로 또는 동시다발적으로 제공할 수 있게 한다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 제1 화면을 표시하는 단계, 제2 화면으로 표시할 영상 신호를 생성하는 단계, 상기 제2 화면이 상기 제1 화면에 비하여 깊이(depth) 또는 기울기(slope) 중 하나 이상이 다르게 표시되도록 상기 생성된 영상 신호를 처리하는 단계 및 상기 처리된 영상 신호를 이용하여 상기 제2 화면을 표시하는 단계를 포함한다.
또한 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는 제1 화면에 비하여 제2 화면이 다른 깊이를 가지거나 다른 기울기를 가지도록 상기 제2 화면으로 표시할 영상 신호를 처리하는 제어부 및 상기 처리된 영상 신호를 이용하여 상기 제2 화면을 표시하는 디스플레이를 포함한다.
본 발명에 따르면, 사용자에게 입체적인 영상을 통해 보다 다양한 정보를 제 공할 수 있다. 특히, 하나의 영상이 재생되는 동안 그에 관련된 다른 영상이나 그 영상에 관련된 부가적인 정보를 실시간으로 또는 동시에 사용자에게 제공할 수 있다. 또한 티브이 시청이나 인터넷 연결 등을 통해 사용자가 각종 멀티미디어 컨텐츠를 제공받을 때, 보다 역동적인 화면을 구성할 수 있되, 각 화면 간에 사용자의 몰입이 방해하지 않도록 화면의 각도나 위치를 조절할 수 있다. 또한 사용자의 위치나 자세 등을 화면 구성에 고려하여, 사용자의 환경에 적합한 입체 영상을 제공할 수 있다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부신호입출력부(130), 저장부(140), 인터페이스부(150), 센싱부(미도시), 제어부(170), 디스플레이(180), 음향출력부(185)를 포함할 수 있다.
튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선 택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)는 신호처리부(180)로 직접 입력될 수 있다.
또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. 이는, 디스플레이(180)에 방송 채널에 해당하는 복수의 썸네일 영상을 포함하는 썸네일 리스트를 도시하기 위한 것이다. 이에 따라, 튜너(110)는, 선택 채널 또는 기저장된 모든 채널의 RF 방송 신호를 순차적/주기적으로 수신하는 것이 가능하다.
복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복 조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어 부(170)는 역다중화 및 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 음향출력부(185)로 음성을 출력한다.
외부신호입출력부(130)는 외부 장치와 영상표시장치(100)을 연결할 수 있다. 이를 위해, 외부신호입출력부(130)는, A/V 입출력부 또는 무선 통신부를 포함할 수 있다.
외부신호입출력부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 연결된다. 외부신호입출력부(130)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, 이더넷(Ethernet)단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는 무선 인터넷 접속을 수행할 수 있다. 영상표시장치(100)는 무선 통신부를 통해 무선 인터넷 접속될 수 있다. 무선 인터넷 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
또한, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부신호입출력부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
예를 들어, 셋탑 박스가 IP(internet Protocol) TV용 셋탑 박스인 경우, 양방향 통신이 가능하도록, IP TV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IP TV용 셋탑 박스로 전달할 수 있다.
한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.
또한, 외부신호입출력부(130)는 영상 또는 음성 통화를 할 수 있는 통신망과 연결될 수 있다. 통신망은 LAN을 통하여 연결되는 방송형 통신망, 공중전화망, 이동통신망 등을 포함하는 의미일 수 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다.
또한, 저장부(140)는 외부신호입출력부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다.
인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. 예를 들어, 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. 센싱부(미도시)는, 원격제어장치(200)를 사용하지 않는 사용자가 영상표시장치(100)로 사용자 명령을 입력할 수 있도록 한다. 센싱부(미도시)의 구체적인 구성은 후술한다.
제어부(170)는, 튜너(110)와 복조부(120) 또는 외부신호입출력부(130)를 통하여 입력되는 스트림을 역다중화하고 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. 그 외 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 제어부(170)는 인터페이스부(150) 또는 센싱부(미도시)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부, 음성처리부 등을 포함할 수 있다.
제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
제어부(170)는 수신되는 스트림 신호, 일예로 MPEG-2 TS를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 제어부(170)에 입력되는 스트림 신호는 튜너(110), 복조부(120) 또는 외부신호입출력부(130)에서 출력되는 스트림 신호일 수 있다.
또한, 제어부(170)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 예를 들어, 역다중화된 영상 신호가 부호화된 영상 신호인 경우, 영상 복호화를 수행할 수 있다. 특히, 영상 복호화시, 역다중화된 영상 신호가, 2D 영상 및 3D 영상이 혼합된 신호인 경우, 또는 2D 영상 신호 또는 3D 영상 신호만으로 이루어진 경우, 이 해당 코덱(codec)에 따라 2D 영상 복호화 또는 3D 영상 복호화를 수행할 수 있다. 제어부(170)의 2D 영상 또는 3D 영상의 신호 처리 동작에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다.
또한, 제어부(170)는 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다.
또한, 제어부(170)는 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다.
또한, 제어부(170)는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170)에서 처리된 음성 신호는 음향출력부(185)로 음향 출력될 수 있 다. 또한, 제어부(170)에서 처리된 음성 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다.
또한, 제어부(170)는 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, TSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(4 byte)에 포함되는 정보일 수 있다.
또한, 제어부(170)는 OSD(On Screen Display) 처리를 수행할 수 있다. 구체적으로 제어부(170)는, 영상 처리된 영상 신호와, 데이터 처리된 데이터 신호 중 적어도 하나 또는 원격제어장치(200)를 통하여 입력되는 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성된 OSD 신호는 영상 처리된 영상 신호 및 데이터 처리된 데이터 신호와 함께, 디스플레이(180)에 입력될 수 있다.
상술한, 그래픽 또는 텍스트 디스플레이를 위하여 생성된 신호는 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.
한편, 제어부(170)는, OSD 신호 생성시, 해당 OSD 신호를 2D 영상 신호 또는 3D 영상 신호로 구현할수 있다. 이에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다.
또한, 제어부(170)는, 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)를 입력받아, 신호 처리를 수행한다. 여기서, 제어부(170)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(110) 또는 외부신호입출력부(130)에서 출력된 아날로그 베이스 밴드 영상/음성신호일 수 있다. 신호 처리된 영상 신호는 디스플레이(180)로 입력되어 영상 표시되며, 신호 처리된 음성 신호는 음향출력부(185), 예를 들어 스피커로 입력되어 음성 출력되게 된다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성한는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부신호입출력부(130)에서 출력한 스트림 신호 등을 입력 받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다.
제어부(170)는 인터페이스부(150)를 통하여 원격제어장치(200)가 전송한 신호를 수신할 수 있다. 제어부(170)는 수신한 신호를 통하여 사용자가 원격제어장치(200)로 입력한 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어한 다. 일예로, 사용자가 소정 채널 선택명령을 입력하면, 제어부(170)는 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 또한, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 음향출력부(185)를 통하여 출력될 수 있도록 한다.
또 다른 예로, 사용자는 원격제어장치(200)를 통하여 다른 종류의 영상 또는 음성 출력 명령을 입력할 수 있다. 사용자는 방송 신호 대신 외부신호입출력부(130)를 통하여 입력되는 카메라 또는 캠코더 영상 신호를 시청하기를 원할 수 있다. 이 경우 제어부(170)는 외부신호입출력부(130)를 통하여 입력되는 영상 신호 또는 음성 신호가 디스플레이(180) 또는 음향출력부(185)를 통해 출력되도록 할 수 있다.
제어부(170)는 영상표시장치(100) 내에 구비되는 센싱부(미도시) 중 하나인 로컬 키(미도시)로 입력된 사용자 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어할 수 있다. 일예로, 사용자는 로컬 키를 통하여 영상표시장치(100) 온/오프 명령, 채널 변경 명령, 볼륨 변경 명령 등을 입력할 수 있다. 로컬 키는 영상표시장치(100)에 형성된 버튼이나 키로 이루어질 수 있다. 제어부(170)는 로컬 키의 조작 여부를 판별하고 그에 따라 영상표시장치(100)를 제어할 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부신호입출력부(130)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다.
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다.
이를 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.
단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다.
한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 추가 디스플레이를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입, 셔터 글래스(ShutterGlass) 타입, 스펙트럼 필터 타입 등이 적용될 수 있다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
음향출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
원격제어장치(200)는, 사용자 입력을 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적 외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 도면에서는 도시하지 않았지만, 본 발명의 실시에에 따른 영상표시장치(100)는, 센싱부(미도시)를 더 포함할 수 있다. 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
터치 센서는 디스플레이(180)를 구성하는 터치스크린일 수 있다. 터치 센서는 사용자가 터치스크린을 터치하는 위치 또는 세기 등을 센싱할 수 있다. 음성 센서는 사용자 음성 또는 사용자가 발생시키는 다양한 소리를 센싱할 수 있다. 위치 센서는 사용자의 위치를 센싱할 수 있다. 동작 센서는 사용자의 제스처 동작 등을 센싱할 수 있다. 위치 센서 또는 동작 센서는 적외선 감지 센서 또는 카메라로 구성될 수 있으며, 영상표시장치(100)와 사용자 사이의 거리, 사용자의 움직임 유무, 사용자의 손동작 등을 센싱할 수 있다.
상술한 각 센서는 사용자의 음성, 터치, 위치, 동작들을 센싱한 결과를 별도의 센싱신호 처리부(미도시)로 전달하거나, 또는 센싱 결과를 1차적으로 해석하고 그에 상응하는 센싱 신호를 생성하여 제어부(170)로 입력할 수 있다.
센싱신호 처리부(미도시)는 센싱부(미도시)에서 생성된 신호를 처리하여, 제어부(170)로 전달할 수 있다.
상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.
한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.
한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다. 도시된 바와 같이, 본 발명에 의한 영상표시장치(100)는 외부신호입출력 부(130)를 통하여 외부 장치와 유/무선으로 접속될 수 있다.
본 실시예에서 영상표시장치(100)와 연결될 수 있는 외부 장치는, 예를 들어, 카메라(211), 스크린형 원격제어장치(212), 셋톱박스(213), 게임기기(214), 컴퓨터(215), 이동통신 단말기(216) 등이 있을 수 있다.
영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치의 그래픽 유저 인터페이스 화면을 디스플레이(180)에 표시할 수 있다. 사용자는 외부 장치와 영상표시장치(100)를 접속하고, 외부 장치에서 재생 중인 영상 또는 저장된 영상을 영상표시장치(100)를 통하여 시청할 수 있다.
또한, 영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치에서 재생 중인 음성 또는 저장된 음성을 음향출력부(185)를 통하여 출력할 수 있다.
영상표시장치(100)와 외부신호입출력부(130)를 통하여 연결된 외부 장치의 데이터, 예를 들어, 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일은, 영상표시장치(100) 내부의 저장부(140)에 저장될 수 있다.
영상표시장치(100)는 저장부(140)에 저장된 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일을 외부 장치와의 연결이 해제된 뒤에도 디스플레이(180)에 표시하거나, 음향출력부(185)를 통해 출력할 수 있다.
영상표시장치(100)는 외부신호입출력부(130)를 통하여 이동통신 단말기(216) 혹은 통신망과 연결되면, 영상 또는 음성통화를 위한 화면을 디스플레이(180)에 표시할 수 있다. 또한 영상표시장치(100)는 영상 또는 음성통화를 위한 음성을 음향 출력부(185)를 통해 출력할 수 있다. 사용자는 이동통신 단말기(216) 혹은 통신망과 연결된 영상표시장치(100)를 이용하여 영상 또는 음성 통화를 할 수 있다.
도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이며, 도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이고, 도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이고, 도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다.
본 발명의 일실시예에 의한 제어부(170)는, 영상처리부(310), 포맷터(320), OSD 생성부 (330), 및 믹서(340)를 포함할 수 있다.
먼저, 도 3(a)에 도시된 바와 같이, 제어부(170)는, 영상처리부(310)에서 복호화된 영상 신호에 기초하여 포맷터(320)에서 복수 시점의 영상으로 분리하여 처리할 수 있으며, 믹서(340)는 OSD 생성부 (330)에서 별도로 생성된 복수 시점 영상 신호와, 포맷터(320)에서 출력되는 복수 시점의 영상 신호를 믹싱할 수 있다.
영상 처리부(310)는, 튜너(110)와 복조부(120)를 거친 방송 신호 또는 외부신호입출력부(130)를 거친 외부입력신호 중 영상 신호를 처리할 수 있다.
한편, 영상 처리부(310)에 입력되는 신호는 상술한 바와 같이, 스트림 신호가 역다중화된 신호일수 있다.
예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 2D 영상 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 2D 영상 신호가, DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호인 경우, H.264 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가, MPEC-C part 3 의 깊이(depth) 영상인 경우, MPEC-C 디코더에 의해 복호화될 수 있다. 또한, 시차(disparity) 정보가 복호화될 수도 있다.
또한, 예를 들어, 역다중화된 영상 신호가 MVC (Multi-view Video Coding)에 따른 멀티 시점 영상인 경우 MVC 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가 FTV(Free-viewpoint TV)에 따른 자유 시점 영상인 경우, FTV 디코더에 의해 복호화될 수 있다.
한편, 영상 처리부(310)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다.
한편, 영상 처리부(310)에서 복호화된 영상 신호는, 상술한 바와 같이, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다.
여기서, 3D 영상 신호의 포맷은, 도 5와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 5a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 5b), 시분할로 배치하는 프레임 시 퀀셜(Frame Sequential) 포맷(도 5c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 5d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 5e) 등일 수 있다.
한편, 영상 처리부(310)는, 복호화된 영상 신호에 캡션 또는 데이터 방송 등과 관련된 영상 신호가 포함된 경우, 이를 분리하여, OSD 생성부(330)로 출력할 수 있다. 캡션 또는 데이터 방송 등과 관련된 영상 신호는, OSD 생성부(330)에서 3D 오브젝트로 생성될 수 있다.
포맷터(320)는, 복호화된 영상 신호를 입력 받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다. 그리고, 3D 영상 신호를 복수 시점의 영상 신호로 분리할 수 있다. 예를 들어, 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
복호화된 영상 신호가 2D 영상 신호인지 또는 3D 영상 신호인지 여부는, 해당 영상 신호가 3D 영상임을 나타내는 스트림의 헤더(header) 내의 3D 영상 플래그(flag) 또는 3D 영상 메타 데이터(meta data) 또는 3D 영상의 포맷 정보(format information) 등을 참조하여 판단할 수 있다.
이러한 3D 영상 플래그, 3D 영상 메타 데이터는, 또는 3D 영상의 포맷 정보는, 3D 영상 정보 외에, 3D 영상의 위치 정보, 영역 정보 또는 크기 정보를 포함할 수도 있다.
한편, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보는, 스트림 역다중화시에 복호화되어 포맷터(320)에 입력될 수 있다.
포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보를 이용하여, 복호화된 영상 신호로부터 3D 영상 신호를 분리할 수 있다.
그리고, 포맷터(320)는, 3D 영상의 포맷 정보를 기반으로, 소정 포맷의 3D 영상 신호를 재조합하여, 복수 시점의 3D 영상 신호를 생성할 수 있다. 예를 들어, 좌완 영상 신호와 우안 영상 신호로 분리할 수 있다.
도 4는, 영상처리부(310)에서 수신되는 복호화된 영상 신호로부터 2D 영상 신호와 3D 영상 신호가 분리되고, 포맷터(320)에서 3D 영상 신호가 재조합되어 좌완 영상 신호와 우안 영상 신호로로 분리되는 것을 보여준다.
먼저 도 4(a)와 같이, 제1 영상 신호(410)가 2D 영상 신호이고, 제2 영상 신호(420)가 3D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)와 제2 영상 신호(420)를 분리하며, 다시 제2 영상 신호를 좌안 영상 신호(423)와 우안 영상 신호(426)로 분리할 수 있다. 한편, 제1 영상 신호(410)는, 디스플레이(180)에 표시되는 메인 영상에 대응할 수 있으며, 제2 영상 신호(420)는, 디스플레이(180)에 표시되는 PIP 영상에 대응할 수 있다.
다음, 도 4(b)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 3D 영상 신호인 경우, 포맷터(320)는 이를 각각 분리하고, 제1 영상 신호(410) 및 제2 영상 신호(420) 각각을 좌안 영상 신호(413,423)와 우안 영상 신호(416,426)로 분리할 수 있다.
다음, 도 4(c)와 같이, 제1 영상 신호(410)가 3D 영상 신호이고, 제2 영상 신호(420)가 2D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)을 좌안 영상 신호(413)와 우안 영상 신호(416)로 분리할 수 있다.
다음, 도 4(d) 및 도 4(e)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 중 어느 하나가 3D 영상 신호이고, 다른 하나가 2D 영상 신호인 경우, 2D 영상 신호는 3D 영상 신호로 전환될 수 있다. 이러한 전환은 사용자의 입력에 따라 수행될 수 있다.
예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서 에지(edge)를 검출하고, 검출된 에지(edge)에 따른 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 또한, 예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서, 선택 가능한 오브젝트를 검출하고, 해당 오브젝트를 3D 영상 신호로 분리하여 생성하는 것도 가능하다. 이때, 생성된 3D 영상 신호는 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리될 수 있다. 한편, 2D 영상 신호 중 3D 영상 신호로 생성된 오브젝트 영역을 제외한 부분은 새로운 2D 영상 신호로 출력될 수 있다.
한편, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 2D 영상 신호인 경우, 도 4(f)와 같이 어느 하나의 2D 영상 신호만 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수 있다. 또는 도 4(g)와 같이 모든 2D 영상 신호가 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수도 있다.
한편, 포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보가 있는 경우, 이를 이용하여 3D 영상 신호 인지 등을 판별하며, 3D 영상 플래그, 3D 영상 메타 데이터 및 3D 영상의 포맷 정보가 없는 경우, 상술한 바와 같이 3D 영상 생성 알고리즘을 이용하여 3D 영상 신호 인지 등을 판별할 수 있다.
한편, 포맷터(320)에서 출력되는 3D 영상 신호는 좌안 영상 신호(413 또는 423)와 우안 영상(416 또는 426) 신호로 분리되고, 도 5에 예시된 포맷 중 어느 하나의 포맷으로 출력될 수 있다. 이때, 2D 영상 신호는, 포맷터(320)에서 별도의 신호처리 없이 그대로 출력되거나 또는 3D 영상 신호의 포맷에 따라 해당 포맷으로 변형되어 출력될 수도 있다.
도 5는 본 실시예의 포맷터(320)를 통하여 생성될 수 있는 3D 영상 신호 포맷에 관한 설명에 참조되는 도이다. 본 실시예의 포맷터(320)는 좌안 영상 신호(L)과 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(e) 등 다양한 포맷의 3D 영상 신호를 출력할 수 있다.
한편, 사용자는 도 5에 예시된 포맷 중 어느 하나를 출력 포맷으로 선택할 수도 있다. 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, 포맷터(320)는 입력되는 다른 포맷, 예를 들어 사이드 바이 사이드(Side by Side) 포맷의 3D 영상 신호를 재조합하여, 좌안 영상 신호와 우안 영상 신호로 분리한 후, 탑 다운(Top / Down) 포맷으로 변형하여 출력할 수 있다.
한편, 포맷터(320)에 입력되는 3D 영상 신호는 방송 영상 신호 또는 외부 입력 신호일수 있으며, 그 자체로 소정 깊이(depth)를 갖는 3D 영상 신호일 수 있다. 이에 따라, 포맷터(320)는, 해당 깊이를 갖는 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
한편, 서로 다른 깊이를 가지는 3D 영상 신호는 깊이 차이로 인하여 서로 다른 좌안 영상 신호와 우안 영상 신호로 분리될 수 있다. 즉, 3D 영상 신호의 깊이에 따라 좌안 영상 신호와 우안 영상 신호는 변경될 수 있다.
한편, 사용자의 입력 또는 설정에 따라, 3D 영상 신호의 깊이를 변경하는 경우, 포맷터(320)는, 변경된 깊이에 따라 각각 해당하는 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
또한, 포맷터(320)는, 3D 영상 신호를 스케일링할 수 있다. 구체적으로는 3D 영상 신호 내의 3D 오브젝트를 스케일링할 수 있다.
도 6을 참조하면, 포맷터(320)는 3D 영상 신호를 다양한 방식으로 스케일링할 수 있다.
도 6(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트를 일정 비율로 전체적으로 확대 또는 축소할 수 있으며, 또한 도 6(b)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형태)할 수도 있다. 또한, 도 6(c)와 같이, 3D 오브젝트를 적어도 일부를 회전(평행 사변형 형태)시킬 수도 있다. 이러한 스케일링을 통해, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트에 입체감 즉, 3D 효과(effect)를 강조할 수 있게 된다.
한편, 도 6의 3D 영상 신호는 도 4(a)의 제2 영상 신호에 대응하는 좌안 영상 신호 또는 우안 영상 신호일 수 있다. 즉, PIP 영상에 대응하는 좌안 영상 신 호또는 우안 영상 신호일 수 있다.
결국, 포맷터(320)는, 복호화된 영상 신호를 수신하여, 2D 영상 신호 또는 3D 영상 신호를 분리하며, 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호으로 다시 분리할 수 있다. 그리고, 좌안 영상 신호와 우안 영상 신호를 스케일링하여, 도 5와 같은 소정 포맷으로 출력할 수 있다. 한편, 스케일링은 출력 포맷 형성 후 수행되는 것도 가능하다.
OSD 생성부(330)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 생성되는 OSD 신호는, 2D OSD 오브젝트 또는 3D OSD 오브젝트를 포함할 수 있다.
2D OSD 오브젝트 또는 3D OSD 오브젝트 인지 여부는, 사용자 입력에 따라 또는 오브젝트의 크기 또는 선택 가능한 오브젝트인지 여부 등에 따라 결정될 수 있다.
OSD 생성부(330)는, 복호화된 영상 신호를 입력받아 처리하는 포맷터(320)와 달리, 바로 2D OSD 오브젝트 또는 3D OSD 오브젝트를 생성하여 출력할 수 있다. 한편, 3D OSD 오브젝트는 도 6과 같이, 다양한 방식으로 스케일링되어 출력될 수 있다. 또한, 깊이에 따라 출력되는 3D OSD 오브젝트는 가변할 수 있다.
출력시의 포맷은, 도 5에 도시된 바와 같이, 좌안용과 우안용이 결합된 다양한 포맷 중 어느 하나일 수 있다. 이때 출력 포맷은 포맷터(320)의 출력 포맷과 동일하게 된다. 예를 들어, 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, OSD 생성부(330)의 출력 포맷은 탑 다운(Top / Down) 포 맷으로 결정된다.
한편, OSD 생성부(330)는, 영상 처리부(310)로부터, 캡션 또는 데이터 방송 등과 관련된 영상 신호를 입력받아, 캡션 또는 데이터 방송 등과 관련된 OSD 신호를 출력할 수도 있다. 이때의 OSD 신호는, 상술한 바와 같이, 2D OSD 오브젝트 또는 3D OSD 오브젝트일 수 있다.
믹서(340)는, 포맷터(340)에서 출력되는 영상 신호와 OSD 생성부에서 출력되는 OSD 신호를 믹싱하여 출력한다. 출력되는 영상 신호는 디스플레이(180)에 입력된다.
한편, 제어부(170) 내부의 내부 블록도는 도 3(b)와 같이 구성될 수도 있다. 도 3(b)의 영상처리부(310), 포맷터(320), 및 OSD 생성부(330), 및 믹서(340)는 도 3(a)와 유사하며, 이하에서는 그 차이점을 기술한다.
일단, 믹서(340)는, 영상처리부(310)로부터의 복호화된 영상 신호와 OSD 생성부(330)에서 생성된 OSD 신호를 믹싱한다. 믹서(340)의 출력을 포맷터(320)에서 입력 받아 처리하므로, 3D 오브젝트 자체를 생성하고 해당 포맷에 맞게 출력하는 도 3(a)의 OSD 생성부(330)와 달리, 도 3(b)의 OSD 생성부(330)는 3D 오브젝트에 대응하는 OSD 신호를 생성하면 충분하다.
포맷터(320)는, 이러한 OSD 신호와 복호화된 영상 신호를 입력받아, 상술한 바와 같이, 3D 영상 신호를 분리하고, 3D 영상 신호를 복수 시점 영상 신호로 분리한다. 예를 들어, 3D 영상 신호는 좌안 영상 신호와 우안 영상 신호로 분리될 수 있으며, 분리된 좌안 영상 신호와 우안 영상 신호는 도 6과 같이 스케일링 처리되 어 도 5에 도시된 소정 포맷으로 출력될 수 있다.
한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 7은 도 1의 영상표시장치에 표시되는 영상의 일 예를 도시한 도면이다.
도면을 참조하면, 영상표시장치(100)는 도 5에 도시된 3D 영상 포맷 중 탑 다운 방식에 적합하도록 3D 영상을 표시할 수 있다.
도 7a는, 영상표시장치(100)에서 영상 재생이 중단된 경우, 디스플레이(180)에 표시되는 영상을 도시한다. 탑 다운 포맷은 도시된 바와 같이 상하로 복수시점 영상을 배열한다. 따라서, 영상 재생이 중단된 경우, 도 7a에 도시된 바와 같이, 상하가 분리된 영상(351, 352)이 디스플레이(180)에 표시된다.
한편, 예를 들어, 편광 안경 등 추가 디스플레이 방식에 의하여 3D 영상 등을 표시하는 경우, 사용자가 편광 안경 등을 착용하지 아니하면, 시청하는 영상의 초점이 맞지 아니한다.
즉, 도 7b에 도시된 바와 같이, 편광 안경 등을 착용하지 않고 시청하는 경우, 3D 오브젝트(353a, 353b, 353c)의 초점이 맞지 아니할 수 있다. 디스플레 이(180)에 표시되는 영상(353)도 그러할 수 있다.
도 7c는 도 7b에 도시된 영상표시장치(100)의 화면을 편광 안경 등을 착용하고 시청하는 경우, 사용자에게 보여지는 영상(354) 및 3D 오브젝트(354a, 354b, 354c)의 초점이 맞는 것을 보여준다. 이때, 3D 오브젝트(354a, 354b, 354c)는 사용자를 향하여 돌출되도록 보이게 된다.
한편, 단독 디스플레이 방식에 따라 3D 영상을 표시하는 영상표시장치의 경우, 사용자가 편광 안경 등을 착용하지 않아도 사용자에게 보여지는 영상 및 3D 오브젝트는 도 7c와 같을 수 있다.
한편, 본 명세서에서의 오브젝트는, 오브젝트는 영상표시장치(100)의 음성 출력 레벨, 채널 정보, 현재 시간 등 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 나타내는 이미지 또는 텍스트를 포함할 수 있다.
일예로, 오브젝트는 영상표시장치(100)의 디스플레이(180)에 표시되는 볼륨 조절 버튼, 채널 조절 버튼, 영상표시장치 제어 메뉴, 아이콘, 네비게이션 탭, 스크롤 바, 프로그래시브 바, 텍스트 박스, 윈도우 중 하나일 수 있다.
이러한 오브젝트를 통해, 사용자는 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 인지할 수 있다. 또한 영상표시장치(100)에 표시된 오브젝트를 통하여 영상표시장치(100)로 명령을 입력할 수 있다.
한편, 본 명세서에서는 사용자 방향으로 돌출되는 3D 오브젝트의 깊 이(depth)는 + 로 설정하며, 디스플레이(180) 또는 디스플레이(180)에 표시되는 2D 영상 또는 3D 영상의 깊이(depth)는 0 으로 설정한다. 그 외 디스플레이(180) 내로 오목하게 표현되는 3D 오브젝트의 깊이(depth)는 - 로 설정한다. 결국, 그 시청자 방향으로 돌출될수록 그 깊이(depth)는 더 커지는 것으로 한다.
한편, 본 명세서에서의 3D 오브젝트는, 입체감을 가지도록 처리된 오브젝트로서, 도 6에서 예시된 스케일링에 의해 입체감을 갖는 오브젝트 또는 깊이를 달리 갖는 오브젝트를 포함한다.
한편, 도 7c에서는 3D 오브젝트의 예로, PIP 영상 등을 예시하나, 이에 한정되지 않으며, 방송 프로그램 정보를 나타내는 EPG, 영상표시장치의 다양한 메뉴, 위젯, 아이콘 등이 될 수 있다.
도 8은 본 발명의 다른 실시예에 따른 영상표시장치를 예시한 도면이다.
도 8에 도시된 바에 따르면, 영상표시장치는 수신부(810), 사용자 입력부(160), 제어부(170), 디스플레이(180)를 포함한다. 물론 저장부(도 1의 140 참조)나 음향 출력부(도 1의 185 참조) 등을 더 포함할 수 있으나, 설명과 이해의 편의를 위해 중복되는 설명은 생략하도록 한다.
수신부(810)는 디스플레이(180)를 통해 표시할 영상을 수신하거나 입력받는다. 즉 도 8을 참조하여 설명하는 실시예에서, 영상표시장치의 수신부(810)는 디스플레이(180)를 통해 제1 화면이나 제2 화면으로 표시할 영상에 대응되는 데이터를 수신하거나 입력받을 수 있는 모든 경로와 연결 가능한 기능부라고 할 수 있다.
따라서 여기서의 수신은 유선 수신과 무선 수신을 모두 포함할 수 있다. 수 신부(810)가 표시할 영상에 상응하는 데이터나 신호를 입력받는 경우를 몇 가지의 예를 들어 설명하면 다음과 같다. 일 예로, 영상표시장치와 유선 연결되어 있는 외부 입력 장치로부터 멀티미디어 데이터를 수신하는 경우, 제1 화면이나 제2 화면으로 표시할 영상들은 수신부(810)를 통하여 영상표시장치로 입력될 수 있다. 영상 표시 장치와 케이블로 연결되어 있는 DVD 플레이어, 노트북 컴퓨터, PMP 등으로부터 영상으로 재생할 파일을 입력받는 경우가 이에 해당된다. 다른 예로, 영상표시장치에 무선으로 연결되어 있는 외부 입력 장치로부터 멀티미디어 데이터를 수신하는 경우에도, 디스플레이에 표시될 영상은 수신부(810)를 통해 입력될 수 있다. 블루투스나 적외선 통신을 통해 영상 신호를 입력받는 경우가 이에 해당된다. 또 다른 예로, 수신부(810)는 모뎀 등을 통해 무선 통신망으로부터 RF(radio frequency) 신호를 수신하거나 안테나를 통해 방송 신호 등을 수신할 수 있으며, 이를 통해 수신한 데이터를 이용하여 디스플레이를 통해 표시할 영상을 생성할 수 있다. 영상 표시 장치를 통해 TV를 시청하거나, 영상 통화를 하거나 웹 서핑을 하는 경우 등이 이러한 예에 해당된다. 특히 이러한 경우, 수신부(810)는 도 1을 참조하여 설명한 외부신호 입출력부(도 1의 130 참조)의 기능을 포함하는 기능을 수행하게 된다. 물론, 수신부(810)는 티브이(TV) 방송을 수신할 수 있다. 이 경우 수신부(810)는 튜너부(도 1의 110 참조)의 기능을 수행하게 된다.
제어부(170)는 제1 화면 및/또는 제2 화면을 표시하기 위한 영상 신호를 생성 및 처리하여 디스플레이(180)에 전달한다. 제1 화면과 제2 화면 중 하나 이상은 입체 효과를 가지는 화면일 수 있다. 입체 효과를 가지는 화면이라 함은 화면 또는 화면 상에 표시되는 영상이 깊이(depth)나 기울기(slope)를 가지는 경우, 그리고 화면 내에 표현되는 오브젝트가 3차원적으로 표현되는 경우를 포함한다.
화면의 깊이(depth)는 예컨대 제2 화면이 제1 화면보다 사용자로부터 더 멀리 있는 것처럼 보이거나 더 가까이 있는 것처럼 보이는 효과를 낸다. 화면의 깊이는 사용자가 느끼는 화면까지의 거리감으로 이해될 수 있으며, 소정의 깊이를 가지는 화면은 영상표시장치의 디스플레이보다 사용자로부터 더 멀리 있거나 가까이 있는 것처럼 보이게 된다. 본 발명의 실시예를 설명함에 있어서는, 영상표시장치에 메인 화면으로 2차원 영상이 표시되는 경우에 화면의 깊이를 0으로 하며, 이를 기준으로 사용자에게 가깝게 보일수록 화면의 깊이는 증가하고, 사용자에게 멀리 보일수록 깊이는 감소하는 것으로 화면의 깊이가 정의된다. 이러한 화면의 깊이 조절은 앞서 설명한 포맷터에 의해 수행될 수 있다.
그리고 화면의 기울기(slope)는 화면이 일정 방향으로 기울어진 것처럼 보이게 하는 효과, 또는 기울어진 것처럼 보이는 정도를 의미한다. 화면의 기울기가 크거나 작다는 것은 화면이 상하 또는 좌우로 기울어진 것처럼 보이는 정도가 크거나 작다는 것을 의미한다. 예컨대 화면이 직사각형이 아닌 사다리꼴이나 평행사변형 등의 모양으로 돌출된 것처럼 표시되는 경우, 그 화면은 입체 효과를 가지는 화면일 수 있으며, 일정 기울기를 가지는 것처럼 보이는 입체 효과 화면이 된다. 그리고 예컨대 사다리꼴의 영상의 긴 변과 짧은 변의 차이가 커질수록, 평행사변형의 서로 다른 두 내각의 각도의 차이가 클수록 화면의 기울기가 더 큰 것으로 표현될 수 있다.
제어부(170)가 생성하는 제1 화면이나 제2 화면 또는 이들을 표시하기 위한 영상 신호는 수신부(810)가 수신하거나 입력받은 영상이거나, 영상표시장치 내에 저장되어 있던 영상으로부터 생성될 수 있다.
그리고 본 발명의 실시예에 따른 영상표시장치는 제1 화면과 제2 화면을 모두 표시할 수 있는데, 두 화면은 하나의 디스플레이(180) 상에 동시에 표시될 수 있다. 물론, 제1 화면과 제2 화면은 별개의 화면으로서 독립적으로 표시될 수도 있다. 제2 화면과 제1 화면에 표시되는 컨텐츠는 서로 관련될 수도 있고, 그렇지 않을 수도 있다. 그리고 각 화면의 온/오프는 별개로 결정될 수 있다. 즉 제2 화면은 제1 화면에 의해 반드시 영향을 받을 필요가 없다. 제1 화면은 2차원 영상이거나 3차원 영상일 수 있다.
전술한 바와 같이, 제어부(170)는 제2 화면을 표시하기 위한 영상 신호를 생성한다. 제어부(170)가 제2 화면으로 표시하기 위해 생성하는 영상은 외부로부터 수신한 데이터 신호 또는 그로부터 추출한 정보를 이용하여 생성한 영상일 수 있는데, 여기에 깊이 정보와 기울기 정보를 반영하여 영상 신호를 처리한다. 화면의 크기나 화면이 표시될 모양(직사각형, 평행사변형 또는 사다리꼴 등), 영상 신호 처리 시 좌안 영상과 우안 영상의 시차 조절 등을 통해 영상이 입체적으로 보일 수 있도록 영상 신호를 처리하여, 처리된 영상 신호를 디스플레이(180)로 출력한다.
그리고 디스플레이(180)는 처리된 영상 신호에 따라 제2 화면을 표시한다.
여기서 제2 화면은 제1 화면과 다른 깊이나 기울기로 표시될 수 있다. 즉 제1 화면에 비하여 제2 화면은 사용자와 가깝거나 멀어 보이도록 표시될 수 있다. 또 한 사용자의 위치에 따라 돌출된 것처럼 보이도록 표시될 수도 있다. 즉, 제2 화면으로 표시되는 영상은 입체 영상 또는 3차원 영상에 해당된다. 사용자가 제2 화면을 볼 때, 제1 화면과 제2 화면은 서로 다른 거리감을 가지도록 영상 신호가 처리되며, 제2 화면들 간에도 각각의 사용자가 느끼는 거리감은 제어부(170)가 영상 신호를 처리하는 과정에서 서로 다르게 설정될 수 있다.
제어부(170)는 입체 영상을 형성하기 위해 영상 처리부와 같은 하위 모듈을 구비할 수 있는데, 영상 처리부는 제2 화면으로 표시하기 위한 삼차원 영상을 생성하고, 각각의 삼차원 영상을 표시하기 위한 좌안 영상과 우안 영상의 시차나 거리를 늘리거나 줄임으로써, 또는 영상 신호의 값을 다르게 하거나 다른 제어 정보를 반영함으로써 제2 화면이 사용자로부터 멀거나 가까워 보이게 표시되도록 영상 신호를 처리할 수 있다. 즉 제어부(170)는 3차원 입체 영상을 형성하는 과정에서, 사용자의 시점을 기준으로 각각의 입체 영상의 원근감이나 거리감, 각도를 제어한다. 또는 사용자의 상태에 따라 제2 화면은 상하 또는 좌우로 기울어져 표시될 수 있는데, 그 기울어진 방향이나 기울기의 정도 역시 제어부(170)에 의해 제어될 수 있다.
제2 화면이 표시되는 위치와 제2 화면의 깊이는 사용자의 상태나 사용자의 명령에 따라서도 결정될 수 있다. 이를 위해 영상표시장치는 사용자 입력부(160)를 더 포함한다. 사용자 입력부(160)는 앞서 도 1을 참조하여 설명한 인터페이스부(도 1의 150 참조) 및/또는 각종 센서를 포함할 수 있다. 예컨대, 사용자의 위치에 따라 제2 화면이 표시되는 위치를 달리하는 경우, 사용자 입력부(160)는 위치 센서를 이용하여 사용자의 위치를 파악하고, 제어부(170)는 사용자 입력부(160)의 인식 결과에 따라 사용자가 영상표시장치에서 멀리 떨어져 있을수록 제2 화면을 돌출된 것처럼 보이게 처리할 수 있다.
제2 화면의 온/오프, 영상 변경 등은 사용자의 신호 입력 또는 사용자 신호로 해석되는 사용자의 일정 제스처 등에 의해 제어될 수 있다. 이를 위해 사용자 입력부(160)가 소정의 명령 신호를 생성 또는 처리하여 제어부(170)로 입력한다. 사용자 입력부(160)는 앞서 인터페이스부(도 1의 150 참조)의 역할을 수행하거나, 각종 센서를 구비하여 사용자의 제스처나 위치, 음성 등을 센싱하여 그 센싱 결과를 제어부(170)로 전송하거나, 미리 설정된 바에 따라 각 제스처나 위치, 음성에 상응하는 명령 신호를 제어부(170)로 전달할 수 있다.
우선 사용자 입력부(160)는 사용자의 동작이나 시선 등의 제스처나 위치, 자세 등을 인식하기 위한 하나 이상의 센서를 구비할 수 있다. 예컨대 사용자가 제2 화면에 대응되는 위치에 일정한 제스처를 취하는 경우, 영상표시장치의 제어부(170)는 제2 화면의 온/오프 상태를 변경하거나, 표시되는 영상을 변경할 수 있다. 즉 사용자가 미리 설정된 제스처를 취하거나 특정 위치로 이동하게 되면 사용자 입력부(160)가 이를 감지하고, 감지된 사용자의 제스처나 위치를 명령으로 인식하여 제어부가 그에 따른 제어 신호를 생성하게 된다. 사용자의 제스처는, 해당 제2 화면을 통해 티브이 방송 화면이 표시되고 있었던 경우라면 채널 변경, 화면 온/오프, 저장 장치 내의 파일을 열어 표시하고 있었던 경우라면 다른 파일 선택을 위한 신호로 인식될 수 있다.
또는 사용자 입력부(160)는 사용자의 음성이나 사용자가 발생시키는 다양한 소리를 음성 센서를 통해 인식하고, 제어부(170)는 음성 센서를 통해 인식된 소리 형태의 신호를 사용자 신호로 인식하여 입력받을 수 있다. 여기서 동작, 위치, 음성, 형태 등의 정보를 제어부(170)가 인식 가능한 신호로 변환하는 기술은 본 발명의 기술분야에서 통상을 지식을 가지는 자에게 자명한 사항이므로, 상세한 설명은 생략하도록 한다.
또한 사용자 입력부(160)를 통해 입력되는 사용자의 명령 신호 입력이나 사용자의 동작이나 음성 센싱 등을 통해, 제어부(170)는 제2 화면의 크기나 기울기, 위치 등을 조절할 수 있다. 예컨대 사용자가 제2 화면의 양 끝에 해당되는 부분을 가리킨 후 그 거리를 넓히는 동작을 한 경우, 이러한 동작이 사용자 입력부(160)에 의해 인식되면 제어부(170)는 이러한 동작을 제2 화면의 크기를 크게 하라는 명령 신호로 해석할 수 있다. 다른 예로, 제2 화면이 표시되는 위치에 상응하는 지점에서 사용자의 손의 회전 방향이나 손의 이동 방향에 따라 제어부(170)가 제2 화면의 기울기나 위치를 변경할 수 있다.
특히 제2 화면의 기울기나 깊이 제어를 위해 기준점이 사용될 수 있다. 제2 화면의 기울기나 깊이 는 영상표시장치가 기준점을 인식함으로써 제어될 수 있다. 기준점에 대해 보다 구체적으로 설명하면, 기준점이란 사용자나 사용자의 신체의 일부, 또는 사용자가 주로 위치하는 것으로 인식된 지점, 센싱이 가능한 사물 등을 의미한다. 센싱이 가능한 사물은 사용자의 신체에 장착 또는 접촉될 수 있다. 사용자의 위치를 기준점이라고 지칭하는 경우, 사용자의 얼굴이나 눈의 위치나 시선도 기준점이 될 수 있다. 기준점이 영상표시장치의 전면에 있을 경우, 영상표시장치에 의해 위치가 센싱된 기준점, 즉 사용자의 위치, 눈높이 등에 따라 제2 화면의 위치는 물론 기울기가 결정된다. 사용자의 자세에 따라 사용자의 눈높이가 달리지므로 사용자의 전체적인 형상을 인식하여, 사용자의 자세에 따라 제2 화면의 기울기를 제어하는 것도 가능하다.
즉 기준점을 센싱하기 위해 형상 인식 센서나 위치 센서 등이 이용될 수 있다. 예컨대 사용자의 키가 아주 작거나 사용자가 바닥에 앉아있는 경우 등, 영상표시장치에 비해 사용자의 눈높이가 낮은 경우는 기준점이 낮게 위치하게 된다. 이 경우 제2 화면은 지면과 가까운 곳에 표시될 수도 있으나, 사용자가 아래 방향에서 위로 올려다보기 쉬운 각도로 제2 화면이 기울어지거나 다소 회전될 수도 있다. 즉 제2 화면이 기준점에 따라 일정 방향, 일정 각도로 기울어짐으로써, 제2 화면과 기준점 또는 사용자가 이루는 시청 각도가 줄어들게 되고, 따라서 시청이 용이해진다. 여기서 시청 각도는 제1 화면이나 제2 화면 등의 화면이 향하는 방향, 즉 특정 화면에 수직인 직선과 사용자의 시선 간의 각도를 지칭하도록 한다.
그리고 다른 예로, 기준점이 영상표시장치의 양 옆에 위치하는 경우, 제2 화면의 방향이 사용자를 향하도록 제2 화면이 굽어지거나 기울어져 표시될 수 있다.
즉, 화면이 향하는 방향과 사용자의 시선 간의 각도를 줄일 수 있는 방향으로 제2 화면이 회전한다. 그리고 제2 화면이 기울어지거나 회전한 것처럼 보이게 하는 것은 제어부의 제2 화면을 위한 영상 신호 처리 시 제2 화면을 사다리꼴로 표시되도록 할 것인지 여부 그리고 사다리꼴의 각 변의 길이 차이나 비율로써 조절할 수 있다. 제2 화면의 모양을 결정함으로써 기울기가 표현되도록 하는 것 역시 제어부(170)의 동작에 포함된다. 즉 제2 화면과 제1 화면의 원근이나 거리감, 기울기, 각도는 앞서 제어부(170)에 의해 제어될 수도 있다.
또한 제2 화면이 기울어지거나 회전되어 표시되면, 제1 화면도 그에 상응하여 기울어지게 표시할 수도 있다. 하나의 디스플레이 상에 제1 화면과 제2 화면을 모두 표시하기 위해서는 면적 상의 제약이 있을 수도 있으므로, 제2 화면이 표시되는 동안에 제1 화면도 소정 각도 기울어지거나 회전되도록 처리될 수 있다. 그러면 사용자는 더욱 제1 화면이 제2 화면에 의해 가려지거나 제1 화면과 혼동을 일으키지 않고, 편안한 시청 각도로 양 화면을 모두 감상할 수 있다, 또한 영상표시장치 역시 제1 화면과 제2 화면을 통해 제공되는 컨텐츠를 사용자에게 각각 제공하기에 유리하고, 각각의 화면을 통해 여러 컨텐츠를 무리없이 동시에 표시할 수 있게 된다. 즉 제2 화면을 일정 각도 기울어지게 표시하면 제1 화면에 대한 사용자의 몰입을 방해하지 않으면서 부가적인 정보나 다양한 컨텐츠를 사용자에게 제공할 수 있다.
일 예에 따르면 제2 화면은 제1 화면의 양 옆에 기울어져 표시되도록 디폴트로 설정되어 있을 수도 있으며, 제어부(170)는 제2 화면의 기울어진 방향이나 기울기 또는 회전각을 결정하는 데에 사용자의 명령이나 사용자의 위치, 자세, 이동 상태 등을 파악하여 그에 대한 정보를 이용할 수 있다.
제2 화면을 통해 표시되는 영상은, 제1 화면을 통해 표시되는 영상에 포함되는 컨텐츠와 관련이 있을 수 있음은 이미 설명하였다. 제1 화면과 관련된 내용으로 서 제2 화면을 통해 표시되는 컨텐츠를 부가 정보 또는 부가 영상이라고 지칭하도록 한다. 본 발명의 실시예에서 부가 정보는 제1 화면을 통해 표시되는 영상에 포함되는 컨텐츠에 대한 부가적인 정보를 의미한다. 예컨대 제1 화면을 통해 운동 경기가 중계되고 있는 경우, 출전 선수들에 대한 정보, 경기에 관련된 정보가 부가 정보에 해당된다. 이러한 부가 정보는 영상표시장치가 OSD(on screen display)의 형태로 수신하는 데이터 신호에 포함되어 전송될 수 있다.
그리고 제1 화면에 표시되는 영상과 관련된 영상 또는 함께 전송되는 영상 등은 부가 영상이라고 지칭할 수 있다. 제2 화면에는 부가 영상이 표시될 수 있다.
예를 들면, 운동 경기의 중계 방송 중에 여러 대의 카메라를 통해 생성된 영상들이 한꺼번에 또는 순차적으로 전송되는 경우, 제1 화면을 통해 표시되는 영상을 제외한 영상들이 부가 영상에 해당된다. 만약 사용자가 야구 경기 중계 방송을 제1 화면으로 시청하는 경우 투수가 1루 주자를 견제하는 상황에서, 2대의 카메라가 투수와 1루 주자를 모두 촬영하고 이들 영상을 영상표시장치가 모두 수신한 경우 두 영상 중 어느 하나가 제1 화면을 통해 재생될 때 나머지 영상이 부가 영상이 된다.
또 다른 예로 사용자가 제1 화면을 통해 뉴스를 시청할 때, 특정 기사에 대해서는 여러 종류의 관련 영상이 존재할 수 있다. 이 경우, 제1 화면을 통해 표시되는 뉴스 화면 이외의 영상들이 부가 영상일 수 있다. 이러한 경우를 포함하여, 제2 화면은 제1 화면과 동시에 표시될 수 있다.
제1 화면에 표시되는 영상과 제2 화면에 표시되는 영상은 다양한 경로를 통 해 영상표시장치에 입력, 수신 또는 저장될 수 있다. 예컨대 제1 화면에는 유에스비(USB) 단자를 통해 입력되는 영화를 표시하면서, 제2 화면에는 영상표시장치를 이용한 화상 통화 시 통화 화면을 표시할 수 있다. 또는 인터넷 연결 후 여러 개의 인터넷 창을 제1 화면과 제2 화면을 통해 표시하고, 이와 동시에 티브이 방송을 시청할 수도 있다. 이 뿐만 아니라, 영상표시장치를 이용하여 티브이를 시청하는 경우, 복수의 채널로부터 송신되는 방송 신호를 동시에 수신하여 표시할 수도 있음은 물론이다.
즉 다양한 경로에 의해 수신부(810)가 제1 화면과 제2 화면에 표시할 영상을 수신하거나 입력받을 수 있는데, 이러한 다양한 영상의 입력 경로 또는 수신 경로를 '영상 신호 수신 경로'라고 지칭할 수 있다. 영상 신호 수신 경로에는 방송 신호 수신용 채널, 유·무선 통신 시스템 등이 있을 수 있다. 즉 같은 방송 신호 수신용 채널이 서로 상이한 경우가 영상 신호 수신 경로가 상이한 것에 해당되는 것은 물론이고, 하나의 영상 신호는 방송 수신용 채널을 통해 들어오고 다른 하나의 영상 신호는 유·무선 통신 시스템을 통해 들어오는 경우도 영상 신호 수신 경로가 다른 경우라고 설명될 수 있다.
이 중 방송 신호 수신용 채널은 예컨대 티브이 방송 신호를 수신하기 위한 채널로서 공중파·지상파·인터넷 방송 및 위성 방송, 케이블 방송 신호 등의 모든 방송 신호를 포함할 수 있는 개념이다. 그리고 유·무선 통신 시스템으로부터 수신되는 신호란, 예컨대 화상 통화 연결 시 수신되는 영상 신호는 물론, IP(internet protocol) 망을 통해 수신되는 영상 신호로서 인터넷 창을 띄우기 위한 영상 신호 등 통신 시스템을 통해 들어오는 모든 영상 신호를 포함한다. 또한, 본 발명의 실시예에 따른 영상 표시 장치와 연결된 외부입력장치로부터 입력되는 영상 신호, 영상 표시 장치 내부의 저장 매체로부터 읽어들이는 영상 신호, 상기 영상 표시 장치의 내·외부에 장착되는 저장 매체로부터 읽어들이는 영상 신호들 역시 서로 다른 영상 신호 수신 경로를 통해 들어오는 영상 신호일 수 있다.
위에서 설명한 경우는 제1 화면과 제2 화면 간, 제2 화면과 제2 화면 간 영상 신호 수신 경로가 상이한 경우에 해당된다. 특히, 제1 화면을 통해 티브이 방송을 시청하는 도중에 광고 영상이 수신부(810)에 수신되면 제어부(170)는 제2 화면이 표시되지 않던 상황이라도 자동으로 제2 화면을 생성하여 표시되게 할 수 있다.
이 경우 제2 화면은 디스플레이 상에 자동으로 팝업되는 것처럼 나타난다. 또는 다른 채널의 방송을 더 수신하고, 더 많은 제2 화면을 생성하여 다른 채널을 통해 방송되는 영상을 표시할 수 있다. 광고 수신 시 제2 화면을 통해 표시할 영상은 사용자 입력에 의해 미리 설정된 영상일 수 있으며, 예컨대 미리 지정된 채널을 통해 수신되는 티브이 방송 영상, 영상표시장치나 그에 장착된 메모리에 저장되어 있는 영상 등일 수 있다. 즉 영상 표시 장치에는 사용자의 선호 채널이나 최근 시청 채널 등이 일시적 또는 영구적으로 저장 또는 등록되고, 광고가 수신될 때마다 제2 화면을 통해 미리 등록 또는 저장된 채널의 영상을 수신하여 표시할 수 있다.
이 외에도, 다른 실시예에 따르면 수신부(810)에 제1 화면을 통해 표시될 광고 영상이 수신되는 경우, 제어부(170)는 제2 화면들 중 하나에 표시되는 영상과 제1 화면에 표시되는 광고 영상을 서로 바꾸어서 표시할 수도 있다. 제2 화면이 2 이상인 경우, 제2 화면에 표시되는 영상들 중에서 광고가 종료될 때까지 임시로 제1 화면에 표시될 영상은 사용자의 선택 신호 입력에 의해 선택되거나, 미리 설정된 바에 따라 결정될 수 있다.
도 9는 본 발명의 또 다른 실시예에 따른 영상표시장치의 제어부(170)를 나타낸 도면이다. 도 9를 참조하면 영상표시장치의 제어부(170)는 영상처리부(910), 신호처리부(920) 외에, 별도의 서브화면 생성부(930)와 서브화면 제어부(940)를 포함한다. 도 9를 참조하여 설명하는 실시예에서는, 디스플레이에 표시되는 복수의 화면을 메인 화면과 서브 화면으로 구분하여 설명하도록 한다. 제1 화면이 메인 화면, 제2 화면이 서브 화면에 해당된다.
도 9를 참조하여 설명하는 영상처리부(910)는 영상표시장치로 수신 또는 입력되거나 영상표시장치의 저장부 내에 저장되어 있는 데이터를 읽어서 2D 영상 또는 3D 영상으로 표시할 수 있는 영상 신호를 생성한다. 그러면 서브 화면 생성부(930)가 이 중 서브 화면으로 표시할 내용에 해당되는 영상 신호만을 이용하여 하나 또는 복수의 서브 화면을 구성하여 디스플레이로 출력한다. 서브 화면으로 표시할 영상 신호는 서브 화면이 어떠한 상태로 표시될 것인지, 예를 들면 서브 화면의 기울어진 방향이나 각도나 회전된 각도, 거리감 등에 대한 정보가 반영된 상태로 서브 화면 생성부에 의해 생성되어 디스플레이로 출력될 수 있다. 또는 서브 화면 생성부는 영상 처리부로부터 읽어들인 서브 화면에 표시되어야 할 내용에 해당되는 영상 신호와 함께 해당 서브 화면이 어떤 형태로 표시될 것인지에 대한 제어 정보를 생성하여 영상 신호와 함께 디스플레이로 출력할 수도 있다. 이 경우 영상 신호에는 서브 화면의 각도나 위치에 대한 정보가 반영되어 있지 않으므로, 디스플레이부는 서브 화면 생성부(930)로부터 받은 영상 신호를 그대로 출력만 하는 것이 아니라, 서브 화면의 표시에 관한 제어 정보를 별도로 읽어서 그에 따라 서브 화면의 거리감이나 기울기 등을 조절하여 표시하게 된다.
이후, 사용자의 동작을 센싱하거나, 사용자가 영상표시장치에 소정의 명령 신호를 입력하는 경우, 서브 화면의 표시 상태를 변경해야 할 경우가 발생할 수 있다. 이러한 경우 사용자가 입력한 신호나 사용자로부터 입력된 것으로 해석되는 신호는 신호 처리부(920)에 의해 서브 화면 제어부(940)로 전달된다. 앞에서 이미 설명한 서브 화면의 온/오프 제어, 서브 화면의 크기 제어, 채널 변경과 같은 영상의 내용 변경 등에 대한 명령이 입력되면, 신호 처리부(920)가 해당 명령의 내용에 따라 제어 신호를 생성하여 서브 화면 제어부(940)로 출력한다. 그러면 서브 화면 제어부(940)는 디스플레이로 출력될 영상 신호들을 제어 신호에 따라 수정 처리하여 디스플레이로 출력할 수 있다. 또는 이러한 제어 신호를 서브 화면 생성부(930)가 입력받으면, 서브 화면 생성부(930)가 제어 신호의 입력 시점 이후에 출력할 영상 신호를 다시 처리할 수도 있다.
도 10은 본 발명의 일 실시예에 따른 영상표시방법을 나타낸 도면이다.
우선 영상표시장치는 제1 화면을 생성하여 표시한다(S1010). 제1 화면에 표시되는 영상의 생성이나 처리에 관한 사항은 본 발명이 속하는 기술분야에서 통상의 지식을 가지는 자에게 자명한 사항이므로 상세한 설명은 생략하도록 한다. 그리고 영상표시장치는 제2 화면으로 표시할 영상 신호를 생성한다(S1020). 제2 화면으 로 표시될 영상은 영상 내에 포함되는 피사체들이 입체적으로 보여지는 3차원 영상일 수도 있고, 제2 화면 내에 표시되는 내용은 텍스트 정보와 같은 2차원 영상일지라도 제2 화면이 영상표시장치와 사용자 사이의 공간에 표시되는 것처럼 보이는 3차원 영상 또는 입체 영상일 수 있다. 제1 화면을 통해 표시되는 영상 역시 2차원 영상 또는 3차원 영상일 수 있다.
제2 화면을 표시하기 위한 영상 신호는 수신 당시에 이미 3차원 영상을 디스플레이할 수 있는 3차원 영상 신호의 상태일 수도 있으나, 2차원 영상을 위한 영상 신호로 수신된 후 영상 표시 장치에서 3차원 영상을 위한 영상 신호로 변환될 수 있다. 이는 앞서 도 3을 참조하여 설명한 영상처리부(도 3의 310 참조)나 포맷터(도 3의 320 참조)의 동작이기도 하다. 즉 영상 표시 장치는 2차원 영상으로 수신된 영상을 3차원 영상으로 변환하여 표시될 수 있다. 이 과정에서 2차원 영상을 3차원 영상으로 전환하는 3차원 영상 변환 엔진이나 영상 변환 소프트웨어가 사용될 수 있다. 또한 제2 화면으로 표시되기 위한 영상 신호는 정지 영상 또는 동영상의 형태로 수신될 수도 있으나, 영상표시장치가 텍스트 형태의 데이터를 이용하여 영상으로 구성한 영상 신호일 수도 있다. 즉 텍스트 형태의 정보를 수신하면, 영상표시장치 또는 영상표시장치의 신호 처리부나 제어부가 텍스트가 포함된 영상을 만들어서 디스플레이를 통해 그 영상을 제2 화면을 통해 보여줄 수 있다. 즉 어떤 형태의 데이터이든 이를 이용하여 제2 화면을 통해 3차원적으로 표시되는 영상 신호를 생성하는 경우, 이는 모두 제2 화면을 위한 영상 신호의 생성 또는 처리 과정에 포함된다.
제2 화면에 표시될 영상 신호에는 표시되는 컨텐츠에 대한 사항 뿐만 아니라, 제2 화면의 표시 상태에 대한 제어 정보도 함께 포함될 수 있다. 앞서도 설명하였지만, 영상 신호와 상술한 제어 정보가 별개의 신호로 전송될 수도 있고, 영상 신호 생성 시에 상술한 제어 정보를 반영하여 영상 신호를 생성할 수도 있다. 여기서 제2 화면의 표시 상태에 대한 제어 정보란 제2 화면이 향하는 방향이나 제2 화면의 기울기, 제2 화면의 크기, 제2 화면의 깊이와 같은 제2 화면이 보여지는 위치나 사용자 또는 영상표시장치로부터 제2 화면이 가지는 거리감 등을 나타내는 정보일 수 있다. 제어 정보에 관하여는 이후 도 9를 참조하여 보다 상세하게 설명하도록 한다. 그리고 영상표시장치는 제2 화면이 제1 화면보다 가깝거나 멀리 보이도록, 또는 기울어져 보이도록, 상술한 제어 정보에서 지시하는 바에 따라 생성한 영상 신호를 처리한다(S1030).
이 후 디스플레이는 처리된 영상 신호를 입력받아, 제2 화면을 표시할 수 있다(S1040). 여기서 제2 화면의 입체감은 물론 제어 정보에 따라 생겨나고, 입체감의 정도 역시 제어 정보에 의해 결정된다. 즉 제2 화면은 영상표시장치 또는 제1 화면에 비하여 사용자가 위치한 방향을 향하여 돌출되게 표시되거나, 메인화면보다 사용자에게서 멀어지는 방향으로 후퇴하여 표시될 수 있다. 즉 제1 화면에 비해 가깝거나 멀리 보이게 하는 거리감이 제2 화면에 표현된다.
또한 제2 화면은 제1 화면과 서로 다른 방향을 향하고 있을 수 있다. 제2 화면의 회전 또는 기울어짐에 의해 제1 화면이 향하는 방향과 제2 화면이 향하는 방향이 달라지게 된다. 앞의 도 4에서도 도시한 예에서도 살펴보았지만, 제2 화면은 제1 화면을 가리거나 제1 화면으로의 몰입을 방해하지 않고, 화면 간의 혼동을 피하기 위해 제1 화면의 양 옆에 사용자를 향하여 기울어진 각도로 표시될 수 있다. 이 경우, 제2 화면이 제1 화면의 시청에 방해가 되지 않음은 물론, 제2 화면이 제1 화면의 양 끝에 위치할지라도 제2 화면과 사용자가 이루는 시청각도는 적정선으로 유지되어 제2 화면의 시청이 용이해질 수 있다.
도 11은 본 발명의 실시예에 따른 영상표시방법 중, 제어 정보에 따라 제2 화면의 표시상태가 달라지는 모습을 도시한 도면이다.
여기서는 편의상 사용자의 시선 방향에 수직한 평면, 즉 영상표시장치의 디스플레이가 포함되는 평면 또는 그에 평행한 평면을 수평 방향의 x축과 수직 방향의 y축으로 나누어 설명하도록 한다. 그리고 제1 화면에 수직인 방향으로서 제1 화면에서 사용자에 이르는 방향의 축을 z 축으로 가정한다. 사용자의 입장에서 제2 화면이 상하/좌우 중 어느 위치에 위치하는지는 x축과 y축을 이용하여 설명할 수 있고, 제2 화면이 사용자로부터 얼마나 멀리 있는 것처럼 표시되는지 여부는 z축을 이용하여 설명할 수 있다.
도 11의 (a)는 제2 화면이 x축을 중심으로 기울어지거나 소정의 각도만큼 회전하는 모습을 예시한다. 사용자가 서 있는 경우, 제2 화면이 x축을 중심으로 반시계 방향으로 소정의 각도만큼 회전하면 제2 화면의 위치에 비하여 눈높이가 위에 있는 사용자가 시청하기에 용이하도록 제2 화면의 회전 각도나 기울기가 조절된다. 이와 반대로, 사용자가 바닥에 앉아있거나 키가 작아 제2 화면이 사용자의 눈높이보다 높은 곳에 위치하는 경우에는 제2 화면은 x축을 중심으로 시계 방향으로 소정 각도만큼 회전할 수 있다.
여기서, 제2 화면의 회전 각도나 기울기를 조절하는 것은 사용자가 원격제어장치 등의 소정의 장치를 이용하여 직접 영상표시장치로 제어 신호를 입력하거나, 영상표시장치의 센서를 이용하여 사용자의 눈높이를 인식하거나 또는 사용자가 미리 설정된 바에 따른 제스처를 취하거나 음성을 발생시키면 영상표시장치가 이를 사용자 신호로 인식하여 제2 화면의 각도를 제어할 수 있다.
도 11의 (b)는 제2 화면이 xy 평면상에서의 위치가 제어되는 모습을 예시한다. 제2 화면은 반드시 정해진 위치에 도시될 필요가 없으며, 제2 화면이 표시되는 도중에도 그 표시되는 위치는 변동될 수 있다. 또한 x축 또는 y축을 중심으로 회전 또는 기울어짐과 동시에 xy 평면상에서의 위치가 달라질 수도 있다. 여기서도 제2 화면의 위치는 사용자의 직접적인 신호 입력, 제스처나 음성을 통한 신호 센싱 등의 과정을 통해 제어될 수 있다. 또는 영상표시장치에 탑재된 센서를 이용하여 사용자의 위치를 추적하고, 사용자의 위치에 가깝거나 보기 편한 위치에 제2 화면을 표시하도록 제어할 수 있다.
일 예로, 제2 화면이 표시된 위치에 사용자가 일정 시간 이상 손을 위치시키면, 영상표시장치는 사용자의 동작이나 손의 위치를 센싱하여 제2 화면의 위치를 변경하려는 사용자의 명령이 입력될 수 있음을 감지할 수 있다. 그 상태에서 사용자가 드래그 앤 그롭과 유사한 동작을 취하는 경우, 영상표시장치는 손의 방향이나 최종 위치를 다시 한 번 감지하여, 사용자의 제스처에 따라 제2 화면을 이동시키게 된다.
도 11의 (c)는 z축 상에서 제2 화면이 표시되는 위치가 제어되는 모습을 예시한 도면이다. 도 9c에 도시된 두 제2 화면은 z 축 상 좌표가 서로 상이하다. 즉, 하나는 사용자로부터 가까이 보이도록, 다른 하나는 그보다 멀리 보이도록 표시되되, 제2 화면 및 제3 화면 모두 제1 화면보다는 돌출되어 사용자에게 가까이 보이도록 표시되어 있다. 즉 제2 화면이나 제3 화면이 제1 화면보다 큰 깊이값을 가진다. 그리고 제2 화면이나 제3 화면의 돌출 정도, 후퇴 정도, 제2 화면이 사용자로부터 멀리 또는 가까이 표시되는지의 여부, 제2 화면의 거리감, 원근감, 사용자로부터의 거리 등은 모두 'z축' 상에서 제2 화면이 표시되는 위치가 어디인지에 따라 결정된다. 제2 화면의 z축 상의 위치는 다양한 요인과 다양한 방법으로 결정될 수 있다.
예컨대 제2 화면의 z축 상의 위치는 사용자의 위치 추적을 통해 제어될 수 있다. 다른 예로, 사용자가 요청한 정보를 나타내는 제2 화면은 사용자에게 가까이 표시되고, 영상표시장치의 설정이나 일괄적으로 방송되는 정보를 나타내는 제2 화면은 사용자로부터 멀리 표시될 수 있다. 이 외에도 제2 화면은 제2 화면의 생성 시간순 또는 요청 시간순, 중요도 순 등에 따라 화면의 깊이가 달라지도록 표시될 수 있다. 즉 화면들이 소정의 규칙에 따라 z축 상에서 정렬된 것처럼 보여진다.
이 밖에도 해당 제2 화면을 요청한 사용자의 위치에 따라, 사용자가 2인 이상인 경우 각 제2 화면의 위치는 대응되는 사용자의 위치에 따라 달라진다. 또한 사용자는 사용자 신호를 영상표시장치에 입력하거나, 미리 설정된 바에 따른 제스처나 음성을 발생시켜서 제2 화면의 z축 상의 위치를 조절할 수 있다.
한편, 이미 언급하였지만 x축, y축, z축을 중심으로 하는 제2 화면의 회전이나 기울기 및 z축 상에서의 위치 조절, xy 평면상에서의 제2 화면의 위치 조절은 이들 중 2 이상의 동작이 동시에 수행될 수 있으며, 서로 영향을 끼치지 않는다.
도 12는 본 발명의 다른 실시예에 따른 영상표시방법을 나타낸 도면이다.
영상표시장치는 부가 영상, 부가 정보 또는 광고 영상을 수신한다(S1210). 부가 정보와 부가 영상에 대해서는 앞에서 이미 설명한 바와 같이, 제1 화면을 통해 표시되는 영상에 관련된 것으로써 사용자 또는 시청자에게 부가적으로 제공되는 정보를 의미하며, 부가 영상은 제1 화면에 표시되는 컨텐츠에 관련된 영상으로서 제1 화면에 표시되는 영상과 함께 또는 순차적으로 전송되는 영상을 의미한다. 운동 경기를 중계하는 방송을 예로 들었을 때, 등장하는 선수를 설명하기 위한 정보가 부가 정보, 다른 카메라로 포착되어 함께 전송되는 영상은 부가 영상에 해당된다. 그리고 광고 영상은 상업 광고나 공익 광고는 물론, 사용자나 시청자의 의지와 무관하게 표시되는 영상을 포함할 수 있다. 여기서 광고 영상은 특히 제1 화면에 표시되기 위해 전송되는 경우를 예시하여 설명한다. 따라서 부가 영상이나 부가 정보가 수신되는 경로와 광고 영상이 수신되는 영상 신호 수신 경로는 서로 상이할 수 있다.
영상표시장치는 광고 영상이나 부가 영상이 수신되면 제2 화면에 대한 요청이 있는지 여부에 무관하게, 제2 화면을 생성할 수 있다(S1220). 부가 영상이나 부가 정보를 수신하는 경우, 이들 내용을 포함하는 제2 화면을 생성한다. 그리고 광고 영상이 수신되는 경우에도 광고가 아닌 다른 영상을 표시하기 위한 제2 화면을 생성한다. 영상표시장치는 제1 화면을 통해 광고가 송출되는 동안, 영상표시장치는 생성된 제2 화면을 표시한다. 또는 부가 정보 또는 부가 영상이 포함된 제2 화면을 표시한다(S1230).
제1 화면을 통해 광고 영상이 표시되는 경우, 영상표시장치는 제2 화면으로 다른 채널의 방송을 수신하여 보여주거나, 영상표시장치 내에 저장되어 있거나 미리 설정된 영상을 제2 화면을 통해 표시할 수 있다. 다른 예로, 제1 화면에 광고 영상이 시작되면, 제2 화면을 통해 표시되는 영상과 제1 화면에 표시되는 광고 영상이 일시적으로 맞바뀔(switched) 수 있다. 물론 이러한 실시예에서, 제2 화면을 통해서도 광고가 송출되고 있는 경우는 제외된다. 그리고 광고 영상이 수신되고 있는 동안 광고 영상에 갈음하여 다른 영상을 제1 화면 또는 제2 화면에 표시할 수 있다.
이 경우, 광고 영상에 갈음하여 표시할 영상은 사용자의 신호 입력에 의해 실시간으로 지정될 수 있다. 또는 광고가 수신되는 경우에 어떤 영상을 재생할 것인지에 대해 영상 표시 장치 상에 미리 설정된 바가 있을 수 있다. 예컨대 사용자가 선호 채널로 등록 또는 저장한 채널, 사용자가 자주 선택하는 채널, 사용자가 가장 최근에 선택할 채널 등의 목록이 영상 표시 장치 내에 영구적 또는 일시적으로 저장 또는 등록되고, 광고 영상 수신 시 상술한 채널 중 하나 이상의 채널을 선택하여 그 채널로부터 수신되는 영상을 제1 화면 또는 제2 화면에 표시할 수 있다. 물론 다른 채널의 티브이 방송 영상이 아닌, 영상 표시 장치의 저장부나 영상 표시 장치의 외부에 장착된 저장 장치에 저장되어 있는 영상을 재생하여 광고가 수신되 는 동안 제1 화면이나 제2 화면으로 표시할 수도 있다.
도 13은 본 발명의 또 다른 실시예에 따른 영상표시방법을 나타낸 흐름도이다.
영상표시장치는 제1 사용자 신호를 입력받는다(S1310). 제1 사용자 신호는 사용자가 제2 화면을 보기 위해 입력하는 사용자 신호로서, 제2 화면 제어 신호 또는 제2 화면 요청 신호로 지칭될 수 있다. 여기서는 편의상 제1 사용자 신호는 제2 화면 요청신호, 이후 설명할 제2 사용자 신호는 제2 화면을 제어하기 위한 제2 화면 제어 신호로 지칭하기로 하나, 신호의 명칭이 발명의 권리 범위 해석에 영향을 끼치지는 아니한다. 제1 사용자 신호는 사용자가 원격제어장치나 영상표시장치의 입력 버튼 등을 통해 제2 화면을 보기 위한 소정의 신호를 입력하면 인터페이스부를 통해 제어부로 그 신호가 전달되고, 이에 따라 영상표시장치는 입력된 사용자의 신호를 제2 화면 요청신호로 인식하게 된다.
또는 미리 설정된 바에 따른 사용자의 제스처나 음성 등을 영상표시장치가 센서를 통해 센싱하고 해석하여, 이러한 사용자의 동작 등을 제2 화면 요청신호로 인식할 수도 있다. 이 경우, 센싱 결과에 따라 영상표시장치가 제2 화면 요청신호를 생성하는 것도 가능하다. 또는, 제1 화면을 통해 표시될 영상으로 광고 영상이 입력되는 경우, 제2 화면 요청신호는 자동으로 생성되거나, 또는 입력된 것으로 간주될 수 있다.
다양한 방법을 통해 제2 화면 요청신호를 입력받으면, 영상표시장치는 제2 화면을 생성한다(S1320). 제2 화면은 입체 영상이며, 제1 화면이나 영상표시장치에 비하여 다른 평면상에 있는 것처럼 표시되거나, 또는 실제로 다른 평면상에 표시될 수 있으며, 제2 화면 내에 있는 물체들이 3차원의 입체 영상으로 표시될 수 있다. 제2 화면이 표시되는 위치나 기울기 또는 회전되는 각도는 별도의 제어 정보로 생성되어 디스플레이부에 전달될 수 있다. 또는, 제2 화면을 위한 영상 신호 생성 시에 반영되어, 영상 신호 내에 제2 화면의 자세나 위치에 대한 제어 정보가 포함되도록 생성될 수도 있다. 그리고 제2 화면으로 표시될 영상을 위한 영상 신호는 3차원 영상 신호인데, 이는 3차원 영상 신호를 방송국이나 서버로부터 수신한 것이거나, 2차원 영상 신호를 3차원 영상 신호로 변환한 것일 수 있다.
영상표시장치는 생성된 제2 화면을 디스플레이를 통해 표시한다(S1330). 이 때, 제2 화면이 표시되는 상태는 디폴트로 설정된 바에 따를 수 있다. 물론 사용자가 신호 입력을 통해 설정한 바에 따라서도 표시될 수 있다.
영상표시장치는 이후, 제2 화면의 표시 상태를 변경하기 위한 제2 사용자 신호를 입력받는다(S1340). 제2 사용자 신호는 제2 화면의 표시 내용을 변경하거나 추가하기 위한 사용자의 요청 사항을 포함하는 신호로서, 편의상 제2 화면 제어 신호로 지칭될 수 있다. 예컨대 제1 화면을 통해 영화가 재생되고 있는 경우, 사용자는 제1 사용자 신호를 입력하여 그 등장 인물의 프로필, 영화 감독에 대한 정보가 제2 화면을 통해 표시되게 할 수 있다. 또는 사용자는 제2 화면을 통해 인터넷 검색창을 열어 직접 제1 화면을 통해 재생되고 있는 영화에 관한 정보를 검색할 수도 있다.
그리고 이후에 더 입력되는 제2 사용자 신호는, 제2 화면의 표시 상태를 바 꾸기 위한 제어 신호로서 기능할 수 있다. 예를 들어 영상표시장치는 제2 사용자 신호 또는 제2 화면 제어 신호에 따라 제2 화면의 표시 상태를 변경할 수 있다. 즉, 영상표시장치는 제2 사용자 신호 또는 제2 화면 제어 신호에 따라 제2 화면의 위치를 xy 평면 또는 z축 상에서 이동시키거나, 제2 화면의 위치 이동과 동시에 크기를 변화시킬 수도 있다. 또한 단계 1340에서 사용자는, 제2 화면에 표시되는 내용에 대한 사용자의 관심도에 따라 제2 화면을 줌인/줌아웃(zoom-in/zoom-out) 시키는 사용자 신호를 입력할 수 있다. 또는 사용자는 사용자의 위치나 자세에 대응하여 제2 화면의 기울기나 회전 각도를 제어하기 위한 사용자 신호를 입력할 수 있다.
물론 사용자의 직접적인 신호 입력 이 외에도, 사용자의 동작이나 자세, 음성을 영상표시장치가 센싱하여 이를 사용자 신호로 인식할 수도 있다. 센서를 통한 사용자의 상태 인식과, 이를 통해 제어 신호의 생성 과정에 대해서는 다른 실시예에서 이미 설명하였으므로 중복된 설명은 생략한다.
영상표시장치는 입력된 사용자 신호에 따라 제2 화면의 내용이나 표시 상태를 변경한다(S1350). 예컨대, 사용자 신호가 다른 채널을 통해 수신되는 영상을 보고자 하는 것이면, 제2 화면을 통해 표시되는 영상의 채널을 변경하거나, 다른 채널의 방송을 보기 위한 추가적인 제2 화면을 더 생성한다. 또는, 사용자 신호가 제2 화면을 회전시키거나 위치를 이동시키기 위한 것 등인 경우, 영상표시장치는 사용자 신호에 상응하여 제2 화면을 다른 위치에 표시되도록 제어 정보를 생성하거나, 사용자 신호가 입력된 이후에 표시될 제2 화면에 대응되는 영상 신호를 수정하 여 디스플레이로 출력함으로써 제2 화면의 표시 상태를 변경한다.
도 14a 내지 도 14c는 본 발명의 실시예에 따라 제1 화면과 제2 화면이 표시되는 상황을 예시한 도면이다.
도 14a는 야구 경기의 중계 방송이 제1 화면(1410)을 통해 표시되고 있는 것을 나타낸다. 그리고 도 14b는 선수가 홈런을 친 경우를 나타내고 있는데, 제1 화면(1410)을 통해 표시되는 영상이 3차원 영상 또는 입체 영상인 경우, 홈런을 보다 현장감 있게 표현하기 위해 제1 화면(1410)의 밖에 공이 표시될 수 있다. 도 14c는 이에 대하여 홈런을 알리는 제2 화면(1420)이 생성되어 제1 화면(1410)과 함께 표시되는 모습을 나타낸다.
여기서 제2 화면(1420) 표시되는 정보는 앞에서 설명한 부가 정보에 해당된다. 이 밖에도, 홈런을 친 선수에 대한 정보, 현재 경기에서 각 팀의 스코어 등이 부가 영상으로서 제2 화면(1420)으로 생성되어 표시될 수 있다. 또한, 홈런을 친 선수가 아닌 다른 선수들이나 감독, 관중석의 모습을 촬영한 영상이 함께 전송되는 경우 이들 영상은 부가 영상에 해당되며, 이러한 부가 영상들 역시 제2 화면(1420)으로 생성되어 제1 화면(1410)과 동시에 표시될 수 있다.
본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세 서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도.
도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면.
도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면.
도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면.
도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면.
도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면.
도 7a 내지 도 7c는 도 1의 영상표시장치에 표시되는 영상의 일 예를 도시한 도면.
도 8은 본 발명의 다른 실시예에 따른 영상표시장치를 예시한 도면.
도 9는 본 발명의 또 다른 실시예에 따른 영상표시장치의 제어부(170)를 나
타낸 도면.
도 10은 본 발명의 일 실시예에 따른 영상표시방법을 나타낸 도면.
도 11은 본 발명의 실시예에 따른 영상표시방법 중, 제어 정보에 따라 제2
화면의 표시상태가 달라지는 모습을 도시한 도면.
도 12는 본 발명의 다른 실시예에 따른 영상표시방법을 나타낸 도면.
도 13은 본 발명의 또 다른 실시예에 따른 영상표시방법을 나타낸 흐름도.
도 14a 내지 도 14c는 본 발명의 실시예에 따라 제1 화면과 제2 화면이 표시되는 상황을 예시한 도면.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 영상표시장치 110 : 튜너부
120 : 외부신호입출력부 150 : 인터페이스부
160 : 사용자 입력부 170 : 제어부
180 : 디스플레이 185 : 음향출력부
Claims (20)
- 영상표시장치의 동작 방법에 있어서,제1 화면을 표시하는 단계;제2 화면으로 표시할 영상 신호를 생성하는 단계;상기 제2 화면이 상기 제1 화면에 비하여 깊이(depth) 또는 기울기(slope) 중 하나 이상이 다르게 표시되도록 상기 생성된 영상 신호를 처리하는 단계; 및상기 처리된 영상 신호를 이용하여 상기 제2 화면을 표시하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법.
- 제1항에 있어서,상기 제2 화면의 깊이 또는 기울기 중 하나 이상을 결정하기 위한 기준이 되는 기준점의 위치를 인식하는 단계를 더 포함하며,상기 인식된 기준점의 위치에 따라 상기 제2 화면의 깊이 또는 기울기 중 하나 이상을 가변하여 상기 영상 신호를 처리하는 것을 특징으로 하는 영상 표시 방법.
- 제1항에 있어서,상기 제2 화면의 깊이 또는 기울기가 가변됨에 따라, 상기 제1 화면의 깊이 또는 기울기 중 하나 이상이 가변하도록 상기 제1 화면에 상응하는 영상 신호를 처 리하는 단계; 및상기 처리된 영상 신호를 이용하여 깊이 또는 기울기 중 하나 이상이 변경된 상기 제1 화면을 표시하는 단계를 더 포함하는 영상 표시 방법.
- 제1항에 있어서,상기 제2 화면에 표시하는 영상은 제1 화면에 표시될 영상의 부가 정보 또는 부가 영상을 포함하는 것을 특징으로 하는 영상 표시 방법.
- 제4항에 있어서,상기 부가 정보는 상기 제1 화면에 표시되는 영상에 관련된 정보이며, 상기 부가 영상은 상기 제1 화면에 표시되는 영상과 함께 전송되는 영상인 것을 특징으로 하는 영상 표시 방법.
- 제4항에 있어서,상기 영상 표시 장치가 상기 부가 정보 또는 상기 부가 영상을 수신하는 경우, 상기 제2 화면을 상기 제1 화면과 동시에 표시하는 것을 특징으로 하는 영상 표시 방법.
- 제1항에 있어서,상기 제1 화면에 표시할 영상과 상기 제2 화면에 표시되는 영상은 방송 신호 수신용 채널, 유·무선 통신 시스템, 상기 영상 표시 장치와 연결된 외부입력장치, 상기 영상 표시 장치 내부의 저장 매체, 상기 영상 표시 장치에 장착되는 저장 매체 중 하나 이상의 영상 신호 수신 경로를 통해 입력되는 것을 특징으로 하는 영상 표시 방법.
- 제7항에 있어서,상기 제1 화면에 표시될 영상으로 광고 영상을 수신하는 단계를 더 포함하며, 상기 광고 영상을 수신하면 상기 제2 화면에 표시되던 영상을 상기 광고 영상 대신 상기 제1 화면에 표시하는 것을 특징으로 하는 영상 표시 방법.
- 제1항에 있어서,제2 화면 제어 신호를 입력받는 단계;상기 제2 화면 제어 신호에 따라 상기 제2 화면을 온/오프(on/off)하거나 상기 제2 화면에 표시되는 영상을 수신하는 영상 신호 수신 경로를 변경하는 단계를 더 포함하는 영상 표시 방법.
- 제1항에 있어서,제2 화면 제어 신호를 입력받는 단계를 더 포함하되,상기 제2 화면 제어 신호에 따라 상기 제2 화면의 기울기 또는 깊이 중 하나 이상을 수정하여 상기 영상 신호를 처리하는 것을 특징으로 하는 영상 표시 방법.
- 제1 화면에 비하여 제2 화면이 다른 깊이를 가지거나 다른 기울기를 가지도록 상기 제2 화면으로 표시할 영상 신호를 처리하는 제어부; 및상기 처리된 영상 신호를 이용하여 상기 제2 화면을 표시하는 디스플레이를 포함하는 영상 표시 장치.
- 제11항에 있어서,상기 제2 화면의 깊이 또는 기울기 중 하나 이상을 결정하기 위한 기준이 되는 기준점의 위치를 인식하는 위치 센서가 구비된 사용자 입력부를 더 포함하며,상기 제어부는 상기 인식된 기준점의 위치에 따라 상기 제2 화면이 상기 제1 화면과 다른 깊이 또는 기울기 중 하나 이상을 가지도록 상기 영상 신호를 처리하는 것을 특징으로 하는 영상 표시 장치.
- 제11항에 있어서,상기 제어부는 상기 제2 화면의 깊이 또는 기울기 중 하나 이상이 가변됨에 따라, 상기 제1 화면의 깊이 또는 기울기 중 하나 이상이 가변하도록 상기 제1 화면을 표시하기 위한 영상 신호를 처리하며,상기 디스플레이는 상기 처리된 영상 신호를 이용하여 상기 제1 화면이 깊이 또는 기울기를 가지도록 표시하는 것을 특징으로 하는 영상 표시 장치.
- 제11항에 있어서,상기 제2 화면에 표시되는 영상은 제1 화면에 표시하는 영상의 부가 정보 또는 부가 영상을 포함하는 것을 특징으로 하는 영상 표시 장치.
- 제15항에 있어서,상기 디스플레이는 상기 부가 정보 또는 상기 부가 영상 중 하나 이상을 포함하는 상기 제2 화면을 상기 제1 화면과 동시에 표시하는 것을 특징으로 하는 영상 표시 장치.
- 제11항에 있어서,상기 제1 화면 또는 상기 제2 화면에 표시할 영상을 수신하는 수신부를 더 포함하며,상기 제어부는 상기 제2 화면이 상기 제1 화면에 비하여 다른 깊이 또는 다른 기울기를 가지도록 상기 수신부가 수신한 영상을 처리하는 것을 특징으로 하는 영상 표시 장치.
- 제11항에 있어서,상기 제1 화면 또는 상기 제2 화면에 표시할 영상을 수신하는 수신부를 더 포함하되,상기 제1 화면에 표시할 영상과 상기 제2 화면에 표시되는 영상은 방송 신호 수신용 채널, 유·무선 통신 시스템, 상기 영상 표시 장치와 연결된 외부입력장치, 상기 영상 표시 장치 내부의 저장 매체, 상기 영상 표시 장치에 장착되는 저장 매체 중 하나 이상의 영상 신호 수신 경로를 통해 입력되는 것을 특징으로 하는 영상 표시 장치.
- 제17항에 있어서,상기 수신부가 상기 제1 화면에 표시될 영상으로 광고 영상을 수신하면 상기 제어부는 상기 제1 화면에 표시될 영상을 수신하는 영상 신호 수신 경로와 상이한 영상 신호 수신 경로를 통하여 수신한 영상을 상기 제2 화면으로 표시하는 것을 특징으로 하는 영상 표시 장치.
- 제11항에 있어서,제2 화면 제어 신호를 입력받는 인터페이스부를 더 포함하되,상기 제2 화면 제어 신호에 따라 상기 제2 화면을 온/오프(on/off)하거나 상기 제2 화면에 표시되는 영상을 수신하는 영상 신호 수신 경로를 변경하는 신호인 것을 특징으로 하는 영상 표시 장치.
- 제11항에 있어서,제2 화면 제어 신호를 입력받는 인터페이스부를 더 포함하되,상기 제어부는 상기 제2 화면 제어 신호에 따라 상기 제2 화면의 깊이 또는 기울기 중 하나 이상을 변경하는 것을 특징으로 하는 영상 표시 장치.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090109290A KR101627214B1 (ko) | 2009-11-12 | 2009-11-12 | 영상표시장치 및 그 동작방법 |
US12/905,632 US8803873B2 (en) | 2009-11-12 | 2010-10-15 | Image display apparatus and image display method thereof |
PCT/KR2010/007996 WO2011059260A2 (en) | 2009-11-12 | 2010-11-12 | Image display apparatus and image display method thereof |
CN2010800514185A CN102598677A (zh) | 2009-11-12 | 2010-11-12 | 图像显示设备及其图像显示方法 |
EP10830192.0A EP2499819B1 (en) | 2009-11-12 | 2010-11-12 | Image display apparatus and image display method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090109290A KR101627214B1 (ko) | 2009-11-12 | 2009-11-12 | 영상표시장치 및 그 동작방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110052307A true KR20110052307A (ko) | 2011-05-18 |
KR101627214B1 KR101627214B1 (ko) | 2016-06-03 |
Family
ID=43973831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090109290A KR101627214B1 (ko) | 2009-11-12 | 2009-11-12 | 영상표시장치 및 그 동작방법 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8803873B2 (ko) |
EP (1) | EP2499819B1 (ko) |
KR (1) | KR101627214B1 (ko) |
CN (1) | CN102598677A (ko) |
WO (1) | WO2011059260A2 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160134078A (ko) * | 2015-05-14 | 2016-11-23 | 금오공과대학교 산학협력단 | 선수 측위를 이용한 관심 선수 화면 제공 시스템 |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5302285B2 (ja) * | 2010-10-28 | 2013-10-02 | シャープ株式会社 | 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置 |
US8913107B2 (en) * | 2010-12-23 | 2014-12-16 | Marvell World Trade Ltd. | Systems and methods for converting a 2D image to a 3D image |
US9078030B2 (en) * | 2011-03-15 | 2015-07-07 | Sony Corporation | Graphical user interface (GUI) control by internet protocol television (IPTV) remote internet access devices |
CN103380625A (zh) * | 2011-06-16 | 2013-10-30 | 松下电器产业株式会社 | 头戴式显示器及其位置偏差调整方法 |
TW201306556A (zh) * | 2011-07-20 | 2013-02-01 | Delta Electronics Inc | 影像控制器及包含該影像控制器之影像播放系統 |
KR20130026236A (ko) * | 2011-09-05 | 2013-03-13 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
CN103105926A (zh) | 2011-10-17 | 2013-05-15 | 微软公司 | 多传感器姿势识别 |
EP2610855A1 (en) * | 2011-12-28 | 2013-07-03 | Samsung Electronics Co., Ltd | Display apparatus |
EP2611184B1 (en) * | 2011-12-29 | 2019-03-13 | Alticast Corporation | Method and recorded medium for providing 3d information service |
CN104520785B (zh) * | 2012-04-26 | 2017-08-08 | 高通股份有限公司 | 基于检测到的输入来更改在显示区域的一部分中提供的内容的属性 |
JP2014006674A (ja) * | 2012-06-22 | 2014-01-16 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
US20140009464A1 (en) * | 2012-07-05 | 2014-01-09 | Kabushiki Kaisha Toshiba | Electronic apparatus and desktop image display method |
US20140115484A1 (en) * | 2012-10-19 | 2014-04-24 | Electronics And Telecommunications Research Institute | Apparatus and method for providing n-screen service using depth-based visual object groupings |
KR20150102014A (ko) * | 2012-12-24 | 2015-09-04 | 톰슨 라이센싱 | 입체 이미지를 디스플레이하는 장치 및 방법 |
CN103197889B (zh) * | 2013-04-03 | 2017-02-08 | 锤子科技(北京)有限公司 | 一种亮度调整方法、装置及一种电子设备 |
TWI637348B (zh) * | 2013-04-11 | 2018-10-01 | 緯創資通股份有限公司 | 影像顯示裝置和影像顯示方法 |
JP6229314B2 (ja) * | 2013-05-30 | 2017-11-15 | ソニー株式会社 | 情報処理装置、表示制御方法及びプログラム |
US20150145977A1 (en) * | 2013-11-22 | 2015-05-28 | Samsung Display Co., Ltd. | Compensation technique for viewer position in autostereoscopic displays |
US9910505B2 (en) * | 2014-06-17 | 2018-03-06 | Amazon Technologies, Inc. | Motion control for managing content |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9858720B2 (en) * | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
KR102358548B1 (ko) * | 2014-10-15 | 2022-02-04 | 삼성전자주식회사 | 디바이스를 이용한 화면 처리 방법 및 장치 |
WO2017192467A1 (en) * | 2016-05-02 | 2017-11-09 | Warner Bros. Entertainment Inc. | Geometry matching in virtual reality and augmented reality |
WO2017205841A1 (en) * | 2016-05-27 | 2017-11-30 | Craig Peterson | Combining vr or ar with autostereoscopic usage in the same display device |
US11882267B2 (en) * | 2017-04-11 | 2024-01-23 | Dolby Laboratories Licensing Corporation | Adapting video images for wearable devices |
US10503457B2 (en) * | 2017-05-05 | 2019-12-10 | Nvidia Corporation | Method and apparatus for rendering perspective-correct images for a tilted multi-display environment |
TWI679555B (zh) * | 2017-10-12 | 2019-12-11 | 華碩電腦股份有限公司 | 擴增實境系統以及提供擴增實境之方法 |
CN111527749A (zh) * | 2017-12-20 | 2020-08-11 | 镭亚股份有限公司 | 交叉渲染多视图摄影机、系统、及方法 |
CN109491561B (zh) * | 2018-09-27 | 2021-02-12 | 维沃移动通信有限公司 | 一种图像显示方法及终端 |
US11836410B2 (en) * | 2019-08-06 | 2023-12-05 | Universal City Studios Llc | Interactive headgear |
US11150470B2 (en) * | 2020-01-07 | 2021-10-19 | Microsoft Technology Licensing, Llc | Inertial measurement unit signal based image reprojection |
CN117555417B (zh) * | 2020-09-25 | 2024-07-19 | 苹果公司 | 用于调节和/或控制与用户界面相关联的沉浸度的方法 |
US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
AU2022258962A1 (en) | 2021-04-13 | 2023-10-19 | Apple Inc. | Methods for providing an immersive experience in an environment |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12099695B1 (en) | 2023-06-04 | 2024-09-24 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050286125A1 (en) * | 2004-06-24 | 2005-12-29 | Henrik Sundstrom | Proximity assisted 3D rendering |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2317771A (en) | 1996-09-27 | 1998-04-01 | Sharp Kk | Observer tracking directional display |
US5781229A (en) * | 1997-02-18 | 1998-07-14 | Mcdonnell Douglas Corporation | Multi-viewer three dimensional (3-D) virtual display system and operating method therefor |
JP2000090233A (ja) | 1998-09-08 | 2000-03-31 | Olympus Optical Co Ltd | 画像処理装置 |
US6621509B1 (en) | 1999-01-08 | 2003-09-16 | Ati International Srl | Method and apparatus for providing a three dimensional graphical user interface |
JP2001094900A (ja) | 1999-09-21 | 2001-04-06 | Matsushita Electric Ind Co Ltd | 画面表示方法 |
US6674484B1 (en) | 2000-01-10 | 2004-01-06 | Koninklijke Philips Electronics N.V. | Video sample rate conversion to achieve 3-D effects |
SE523636C2 (sv) | 2001-07-22 | 2004-05-04 | Tomer Shalit Ab | Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt |
US20050046645A1 (en) * | 2003-07-24 | 2005-03-03 | Breton Pierre Felix | Autoscaling |
WO2006035816A1 (ja) | 2004-09-30 | 2006-04-06 | Pioneer Corporation | 立体的二次元画像表示装置 |
KR100677569B1 (ko) * | 2004-12-13 | 2007-02-02 | 삼성전자주식회사 | 입체영상장치 |
KR100659888B1 (ko) | 2005-01-07 | 2006-12-20 | 엘지전자 주식회사 | 이동 단말기의 3차원 영상 처리방법 |
WO2007023425A2 (en) | 2005-08-26 | 2007-03-01 | Koninklijke Philips Electronics N.V. | Imaging camera processing unit and method |
KR101249988B1 (ko) * | 2006-01-27 | 2013-04-01 | 삼성전자주식회사 | 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법 |
US20080231926A1 (en) | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
US8269822B2 (en) * | 2007-04-03 | 2012-09-18 | Sony Computer Entertainment America, LLC | Display viewing system and methods for optimizing display view based on active tracking |
WO2008132724A1 (en) | 2007-04-26 | 2008-11-06 | Mantisvision Ltd. | A method and apparatus for three dimensional interaction with autosteroscopic displays |
JP4907483B2 (ja) | 2007-09-28 | 2012-03-28 | パナソニック株式会社 | 映像表示装置 |
CN201156806Y (zh) * | 2008-02-02 | 2008-11-26 | 北京超多维科技有限公司 | 具有画外画/画中画功能的立体电视 |
US8331023B2 (en) * | 2008-09-07 | 2012-12-11 | Mediatek Inc. | Adjustable parallax barrier 3D display |
KR20100040563A (ko) * | 2008-10-10 | 2010-04-20 | 삼성전자주식회사 | 방송 표시장치 및 그의 2차원 영상 표시 방법 |
TWI462585B (zh) * | 2008-10-27 | 2014-11-21 | Wistron Corp | 具有立體顯示功能的子母畫面顯示裝置及子母畫面顯示方法 |
KR101296900B1 (ko) * | 2009-01-07 | 2013-08-14 | 엘지디스플레이 주식회사 | 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치 |
KR101324440B1 (ko) * | 2009-02-11 | 2013-10-31 | 엘지디스플레이 주식회사 | 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치 |
US8477175B2 (en) * | 2009-03-09 | 2013-07-02 | Cisco Technology, Inc. | System and method for providing three dimensional imaging in a network environment |
-
2009
- 2009-11-12 KR KR1020090109290A patent/KR101627214B1/ko active IP Right Grant
-
2010
- 2010-10-15 US US12/905,632 patent/US8803873B2/en active Active
- 2010-11-12 WO PCT/KR2010/007996 patent/WO2011059260A2/en active Application Filing
- 2010-11-12 EP EP10830192.0A patent/EP2499819B1/en not_active Not-in-force
- 2010-11-12 CN CN2010800514185A patent/CN102598677A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050286125A1 (en) * | 2004-06-24 | 2005-12-29 | Henrik Sundstrom | Proximity assisted 3D rendering |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160134078A (ko) * | 2015-05-14 | 2016-11-23 | 금오공과대학교 산학협력단 | 선수 측위를 이용한 관심 선수 화면 제공 시스템 |
Also Published As
Publication number | Publication date |
---|---|
EP2499819A4 (en) | 2014-04-16 |
CN102598677A (zh) | 2012-07-18 |
KR101627214B1 (ko) | 2016-06-03 |
US8803873B2 (en) | 2014-08-12 |
EP2499819A2 (en) | 2012-09-19 |
EP2499819B1 (en) | 2017-09-13 |
WO2011059260A2 (en) | 2011-05-19 |
US20110109619A1 (en) | 2011-05-12 |
WO2011059260A3 (en) | 2011-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101627214B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101735610B1 (ko) | 영상표시장치의 동작 방법 | |
US8896672B2 (en) | Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same | |
KR101631451B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101647722B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101349276B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101611263B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR20120011254A (ko) | 영상표시장치의 동작 방법 | |
KR101702949B1 (ko) | 영상표시장치의 동작 방법 | |
KR101635567B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR20110082380A (ko) | 영상표시장치 및 그 동작방법 | |
KR20120034996A (ko) | 영상표시장치 및 그 동작방법 | |
KR101708692B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101655804B1 (ko) | 3d 썸네일을 표시하는 영상표시장치 및 그 동작 제어방법 | |
KR101730424B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101699740B1 (ko) | 2d/3d 변환 가능한 영상표시장치와 그 동작제어방법 | |
KR101626310B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR20120062428A (ko) | 영상표시장치 및 그 동작방법 | |
KR101638536B1 (ko) | 영상표시장치 및 그 제어방법 | |
KR101176500B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101737367B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR101730423B1 (ko) | 영상표시장치 및 그 동작 방법 | |
KR101691801B1 (ko) | 멀티비전 시스템 | |
KR101638541B1 (ko) | 영상표시장치 및 그 동작방법 | |
KR20110134087A (ko) | 영상표시장치 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20190424 Year of fee payment: 4 |