KR20110052771A - Image display device and operating method for the same - Google Patents

Image display device and operating method for the same Download PDF

Info

Publication number
KR20110052771A
KR20110052771A KR1020090109431A KR20090109431A KR20110052771A KR 20110052771 A KR20110052771 A KR 20110052771A KR 1020090109431 A KR1020090109431 A KR 1020090109431A KR 20090109431 A KR20090109431 A KR 20090109431A KR 20110052771 A KR20110052771 A KR 20110052771A
Authority
KR
South Korea
Prior art keywords
signal
user
image
display device
3d object
Prior art date
Application number
KR1020090109431A
Other languages
Korean (ko)
Other versions
KR101647722B1 (en
Inventor
구상준
김운영
유경희
이형남
장세훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090109431A priority Critical patent/KR101647722B1/en
Publication of KR20110052771A publication Critical patent/KR20110052771A/en
Application granted granted Critical
Publication of KR101647722B1 publication Critical patent/KR101647722B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information

Abstract

PURPOSE: An image display device and an operating method for the same are provided to supply a 3D user interface to be applied to an image display apparatus. CONSTITUTION: A control unit(170) receives a signal for discriminating the location of a reference point, and discriminates the location of the reference point from the received signal. In order to correspond to the location of the discriminated reference point, the control unit processes a three-dimensional object image signal. A sensor unit senses the location of the reference point.

Description

영상표시장치 및 그 동작방법 {Image Display Device and Operating Method for the Same} The video display device and its method of operation {Image Display Device and Operating Method for the Same}

본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. The present invention relates to a video display device and its operation method. 본 발명은 더욱 상세하게는 사용자가 입체감을 느낄 수 있도록 입체효과가 적용된 화면을 표시할 수 있는 영상표시장치 및 그 동작방법에 관한 것이다. The present invention relates to a video display device and its operation method capable of displaying more particularly applied to a three-dimensional effect so that the user can feel a three-dimensional screen.

영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. The video display device is a device with the ability to display images that you can watch. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. A user can view the broadcast through the image display device. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. The video display apparatus a user of the broadcast signal sent from a broadcast station display the selected broadcast on the display. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. Current TV is a trend to switch from analog broadcasting to digital broadcasting around the world.

디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. Digital broadcasting refers to a broadcast for transmitting digital video and audio signal. 디지털 방송은 아날로그 방송에 비해, 오부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. Digital broadcast were, the less strong loss of data in the Half noise compared to analog broadcasting, and the glass in error correction, high resolution, and provides a clear picture. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다. In addition, digital broadcasting can be bi-directional services, unlike analog broadcasts.

또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그 래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. Recently, there are various studies on stereoscopic progress, and computer graphics are becoming more and more popular and practical three-dimensional imaging technology in a variety of different environments and technologies as well as in. 또한 상술한 디지털 방송에서도 입체 영상을 송신할 수 있으며, 이를 재생하기 위한 장치에 대한 개발 역시 진행 중에 있다. It can also send a three-dimensional image in the above-described digital broadcasting, and is also in progress and development of an apparatus for reproducing them.

따라서, 본 발명의 목적은 사용자가 입체감을 느낄 수 있도록 입체효과가 적용된 영상을 표시할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다. Accordingly, it is an object of the present invention is to provide an image display apparatus and its operation method capable of displaying a three-dimensional image effect is applied so that the user can feel a three-dimensional appearance. 본 발명의 또 다른 목적은 입체효과 영상을 표시하는 영상표시장치를 사용자가 편리하게 사용할 수 있도록 입체효과 영상을 표시하는 영상표시장치에 적용될 수 있는 유저 인터페이스를 제공함에 있다. Still another object of the present invention is an image display apparatus which displays a three-dimensional video effect to a user interface that may be applied to an image display apparatus which displays a three-dimensional effect of the image to provide to the user and easier use.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서, 기준점의 위치를 판별할 수 있는 신호를 수신하는 단계; The method comprising operating method of an image display device according to an embodiment of the present invention for achieving the above object, in a video display device that can display a 3D object, receiving a signal to determine the location of the reference point; 상기 수신한 신호로부터 기준점의 위치를 판별하는 단계; Determining the position of the reference point from the received signal; 상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 단계; Processing the 3D object image signal to correspond to the position of the determined reference point; 및 상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 단계를 포함하는 것을 특징으로 한다. And on the basis of the image signal obtained by the process it characterized in that it comprises a step of displaying the 3D object.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서, 기준점의 위치를 판별할 수 있는 신호를 수신하고, 상기 수신한 신호로부터 기준점의 위치를 판별하고, 상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 제어부; The video display apparatus according to an embodiment of the present invention for achieving the above object is according to a video display device that can display a 3D object, receiving a signal to determine the location of the reference point and the reference point from the received signal a controller for determining the position, processing the 3D object image signal to correspond to the position of the determined reference point; 및 상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 디스플레이를 포함하는 것을 특징으로 한다. And on the basis of the image signal obtained by the process it characterized in that it comprises a display for displaying the 3D object.

본 발명에 따르면, 영상표시장치는 사용자가 시청 시 입체감을 느낄 수 있도록 입체효과가 적용된 영상을 표시할 수 있다. According to the invention, the image display device may display the image the three-dimensional effect is applied, so that the user can feel a stereoscopic effect when viewing. 또한, 영상표시장치는 사용자의 위치를 센서 등을 사용하여 판별하고 사용자 위치에 대응하도록 3D 오브젝트를 표시할 수 있다. The video display apparatus may determine the user's location by using a sensor or the like, and can display a 3D object, so as to correspond to the user's location. 사용자는 사용자 위치에 대응하도록 표시된 3D 오브젝트를 소정 손 동작 등을 통하여 선택할 수 있다. The user can select certain 3D objects displayed so as to correspond to the user's location via the hand operation and the like. 영상표시장치는 사용자가 3D 오브젝트를 손 동작 등을 통하여 선택하면 그에 대응하는 동작을 수행한다. The image display apparatus when the user selects the 3D object, such as through the hand operation and performs an operation corresponding thereto. 따라서, 영상표시장치의 사용자는 간단한 손 동작 등을 통하여 영상표시장치를 제어할 수 있다. Thus, the user of the image display apparatus may control the video display device, such as via a simple hand operation.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter will be described with reference to the drawings the present invention in more detail.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. Suffixes "module" and "portion" for components used in the following description is given merely as being taken into consideration only the easiness of writing this specification, it does not give a particularly important meaning or role by themselves. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다. Accordingly, the "module" and "unit" may be used interchangeably with each other.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다. 1 is an internal block diagram of a video display device in accordance with one embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부신호입출력부(130), 저장부(140), 인터페이스부(150), 센싱부(미도시), 제어부(170), 디스플레이(180), 음향출력부(185)를 포함할 수 있다. 1, the image display apparatus 100 according to one embodiment of the present invention includes a tuner 110, a demodulator 120, an external signal input unit 130, a storage unit 140, the interface unit (150 ), it may include a sensing unit (not shown), a control unit 170, a display 180, a sound output unit 185.

튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. Tuner 110 selects a RF broadcast signals corresponding to all the channels in the selected channel group or by a user of the RF (Radio Frequency) broadcast signal received through an antenna. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. In addition, and it converts the selected RF broadcast signal into an intermediate frequency signal or a baseband video or audio signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)로 변환한다. For example, if the selected RF broadcast signal is a digital broadcasting signal into a digital IF signal (DIF) and, if the analog broadcast signal is converted into an analog baseband video or audio signal (CVBS SIF). 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. That is, the tuner 110 may process a digital broadcast signal or analog broadcast signal. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)는 신호처리부(180)로 직접 입력될 수 있다. Tuner analog baseband video or audio signal (CVBS SIF) output from 110 may be input directly to the signal processor 180.

또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. In addition, the tuner 110 may receive an RF broadcast signal of multiple carriers according to the ATSC (Advanced Television System Committee) broadcasting of a single RF carrier signal in accordance with the method or DVB (Digital Video Broadcasting) system.

한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. On the other hand, a tuner unit 110, to select the RF broadcast signals of all broadcast channels stored through a channel memory function of the RF broadcast signal received through an antenna in the present invention, in order it to an intermediate frequency signal or a baseband video or audio signal It can be converted. 이는, 디스플레이(180)에 방송 채널에 해당하는 복수의 썸네일 영상을 포함하는 썸네일 리스트를 도시하기 위한 것이다. This is for showing a thumbnail list including a plurality of thumbnail images corresponding to broadcast channels on the display 180. 이에 따라, 튜너(110)는, 선택 채널 또는 기저장된 모든 채널의 RF 방송 신호를 순차적/주기적으로 수신하는 것이 가능 하다. Thus, the tuner 110, it is possible to select a channel or a group receiving the RF broadcast signals of all channels stored sequentially / periodically.

복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal (DIF) converted by the tuner 110 performs a demodulation operation.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. For example, if the digital IF signal output from the tuner (110), the ATSC system, the demodulator 120 performs 8-VSB (8-Vestigal Side Band) demodulation. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. In addition, the demodulator 120 may perform channel decoding. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. Demodulating To this end 120 and provided with such a trellis decoder (Trellis Decoder), a deinterleaver (De-interleaver), and a lead solo distant decoder (Reed Solomon Decoder), trellis decoding, de-interleaving, and Reed far decoding can be performed solo.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. For example, if the digital IF signal output from the tuner (110), the DVB system, the demodulator 120 performs demodulation (Coded Orthogonal Frequency Division Modulation) COFDMA. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. In addition, the demodulator 120 may perform channel decoding. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For this purpose, the demodulation unit 120, a convolution decoder (convolution decoder), a deinterleaver, and a lead-in having a solo distant decoder, etc., may perform convolutional decoding, de-interleaving, and Reed solo distant decoding.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. The demodulator 120 may output the stream signal (TS) after performing a demodulation and channel decoding. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. The stream signal may be a signal with a video signal, audio signal or a data signal multiplexed. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. As an example, the stream signal is a video signal, Dolby (Dolby) AC-3 standard audio signal including the multiplexed MPEG-2 TS (Transport Stream) of the number of days in the MPEG-2 standard. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload) 를 포함할 수 있다. Specifically, MPEG-2 TS may include a payload (payload) of the header and 184 bytes of the four bytes (byte).

한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. On the other hand, the above-described demodulator 120, according to the ATSC system, DVB system, it is possible to be provided separately. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다. That is, it is possible that the portion provided with ATSC demodulator and, DVB demodulator.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. A stream signal outputted from the demodulator 120 may be input to the controller 170. 제어부(170)는 역다중화 및 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 음향출력부(185)로 음성을 출력한다. Control unit 170 after performing signal processing such as inverse multiplexing, and outputs the image to the display unit 180, and outputs the voice to the sound output unit 185.

외부신호입출력부(130)는 외부 장치와 영상표시장치(100)을 연결할 수 있다. External signal input unit 130 may connect an external device and the image display device 100. 이를 위해, 외부신호입출력부(130)는, A/V 입출력부 또는 무선 통신부를 포함할 수 있다. To this end, the external signal input unit 130, may include an A / V output unit or the wireless communication.

외부신호입출력부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 연결된다. External signal input unit 130, (Digital Versatile Disk), DVD, Blu-ray (Blu ray), a game machine, a camera, a camcorder, and is connected to the external device and the wire / wireless, such as a computer (laptop). 외부신호입출력부(130)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. External signal input unit 130 transmits the video, audio or data signal input from the outside via the external device connected to the control unit 170 of the image display device 100. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. Further, it is possible to output the video, audio or data signal processed by the controller 170 to the external device is connected.

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, 이더넷(Ethernet)단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. A / V input unit includes a video and audio signal to the external device to be input to the image display apparatus 100, Ethernet (Ethernet) terminal, a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, S- video terminal (analog), and the like DVI (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminals, RGB terminals, D-SUB terminal.

무선 통신부는 무선 인터넷 접속을 수행할 수 있다. A wireless communication unit may perform wireless Internet access. 영상표시장치(100)는 무선 통신부를 통해 무선 인터넷 접속될 수 있다. The video display device 100 may be a wireless Internet access through the wireless communication. 무선 인터넷 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. For wireless Internet access, it includes WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed ​​Downlink Packet Access) communication standards may be used.

또한, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. In addition, the wireless communication unit, may perform other electronic devices and short-range wireless communication. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. The video display apparatus 100 is a Bluetooth (Bluetooth), RFID (Radio Frequency Identification), infrared data association (IrDA, infrared Data Association), UWB another electronic device to the network according to a communication standard such as (Ultra Wideband), ZigBee (ZigBee) It can be connected.

또한, 외부신호입출력부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. The external signal input unit 130 is connected through a variety of set-top box and at least one of the above-described various kinds of terminals, it is also possible to perform the set-top box and the input / output operation.

예를 들어, 셋탑 박스가 IP(internet Protocol) TV용 셋탑 박스인 경우, 양방향 통신이 가능하도록, IP TV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IP TV용 셋탑 박스로 전달할 수 있다. For example, and set-top box that can pass when the IP (internet Protocol) TV set-top boxes, the two-way communication is processed by the set top box for, IP TV to enable video, audio or data signal to the controller 170, the controller It may transfer the signals processed by the unit 170 to the set-top box for IP TV.

한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. On the other hand, the IPTV is, it may be a means to include ADSL-TV, VDSL-TV, FTTH-TV, depending on the type of transport network, TV over DSL, Video over DSL, TV overIP (TVIP) above, Broadband TV ( may be meant to include BTV). 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다. In addition, IPTV may be intended to include the Internet with Internet access TV, full-browsing TV.

또한, 외부신호입출력부(130)는 영상 또는 음성 통화를 할 수 있는 통신망과 연결될 수 있다. The external signal input unit 130 may be connected to the communication network to a video or a voice call. 통신망은 LAN을 통하여 연결되는 방송형 통신망, 공중전화망, 이동통신망 등을 포함하는 의미일 수 있다. Communication network may be a means comprising a broadcast type communication network, public telephone network, cellular networks are connected via a LAN.

저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다. Storage unit 140 may be a program for each of the signal processing and controlling in the controller 170 stores, may store the signal processed video, audio or data signal.

또한, 저장부(140)는 외부신호입출력부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. In addition, the storage unit 140 may perform a function for temporary storage of video, audio or data signal input to the external signal input portion 130. 또한, 저장부(140)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. The storage unit 140 may be through a channel memory function to store information about a predetermined broadcast channel.

저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. Storage unit 140 is a flash memory type (flash memory type), hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), a card type memory (e.g., SD or XD memory, etc.), RAM, ROM (EEPROM, etc.) may comprise of at least one type of storage medium. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다. The video display device 100 may provide to the user to play the file (video files, still image files, music files, document files, etc.) stored in the storage unit 140. The

도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. Figure 1 but shows an embodiment the storage unit (140) provided separately from the controller 170, the scope of the invention is not limited to this. 저장부(140)는 제어부(170) 내에 포함될 수 있다. Storage unit 140 may be included in the controller 170.

인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. Interface unit 150, the transmission signal entered by a user to controller 170 or transmits a signal from the controller 170 to the user. 예를 들어, 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. For example, the interface section 150, RF (Radio Frequency) communication method, an infrared (IR) communication system such as in accordance with various communication schemes, the power on / off from the remote control device 200, channel selection, screen settings, and receiving a user input signal, or may transmit the signal from the controller 170 to the remote control device 200. 센싱부(미도시)는, 원격제어장치(200)를 사용하지 않는 사용자가 영상표시장치(100)로 사용자 명령을 입력할 수 있도록 한다. A sensing unit (not shown) may ensure that the user does not use the remote control device 200 can input the user command to the image display device 100. 센싱부(미도시)의 구체적인 구성은 후술한다. A specific configuration of the sensing unit (not shown) will be described later.

제어부(170)는, 튜너(110)와 복조부(120) 또는 외부신호입출력부(130)를 통하여 입력되는 스트림을 역다중화하고 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. Control unit 170, the tuner 110 and the demodulator 120 or the external signal, demultiplexes the stream which is input via the input unit 130 and processes the demultiplexed signal, generates a signal for the video or audio output and it can be output. 그 외 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. In addition it is possible to control the overall operation in the image display device 100. 제어부(170)는 인터페이스부(150) 또는 센싱부(미도시)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. The controller 170 may control the image display apparatus 100 by a user command or an internal program input through the interface unit 150 or the sensing unit (not shown).

도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부, 음성처리부 등을 포함할 수 있다. Fig. 1 but not shown, the controller 170 may include a demultiplexer, an image processing, audio processing or the like.

제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. The controller 170 may control to select (Tuning) the RF broadcast by controlling the tuner 110, the user and the selected channel or pre-stored channel.

제어부(170)는 수신되는 스트림 신호, 일예로 MPEG-2 TS를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. Controller 170 may by demultiplexing the MPEG-2 TS, separated by a respective video, audio and data signals to the signal stream, an example is received. 여기서, 제어부(170)에 입력되는 스트림 신호는 튜너(110), 복조부(120) 또는 외부신호입출력부(130)에서 출력되는 스트림 신호일 수 있다. Here, the stream signal input to the control unit 170 may be a signal stream output from the tuner 110, the demodulator 120 or the external signal input portion 130.

또한, 제어부(170)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. Further, the control unit 170, may perform image processing of the demultiplexed video signal. 예를 들어, 역다중화된 영상 신호가 부호화된 영상 신호인 경우, 영상 복호화를 수행할 수 있다. For example, if the demultiplexed image signal is a video signal coding, it is possible to perform the image decoding. 특히, 영상 복호화시, 역다중화된 영상 신호가, 2D 영상 및 3D 영상이 혼합된 신호인 경우, 또는 2D 영상 신호 또는 3D 영상 신호만으로 이루어진 경우, 이 해당 코덱(codec)에 따라 2D 영상 복호화 또는 3D 영상 복호화를 수행할 수 있다. In particular, the, the demultiplexed video signal in video decoding, a 2D image and 3D, if the image is a mixed signal, or when made of only a 2D image signal or a 3D image signal, the 2D image decoding according to the codec (codec), or 3D It can perform video decoding. 제어부(170)의 2D 영상 또는 3D 영상의 신호 처리 동작에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다. Or less for a 2D image or a 3D image signal processing operation of the controller 170, see Fig. 3 will be described in detail.

또한, 제어부(170)는 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다. In addition, the controller 170 may process the brightness (brightness), Tint (Tint), and hue (Color) control of a video signal.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. Image processing the image signal from the control unit 170 is input to the display 180, can be displayed in the image corresponding to the image signal. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다. In addition, the image processing a video signal from the control unit 170 may be input to an external output device through the external signal input portion 130.

또한, 제어부(170)는 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. In addition, the controller 170 may perform the speech processing of the speech signal demultiplexed. 예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. For example, if the demultiplexed audio signal is an audio signal coding, it is possible to decrypt it. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. More specifically, if the demultiplexed audio signal is an audio signal encoded in the MPEG-2 standard and can be decoded by the MPEG-2 decoder. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. Further, when the demultiplexed audio signal is an audio signal encoded in the MPEG 4 BSAC (Bit Sliced ​​Arithmetic Coding) standard according to a terrestrial DMB (Digital Multimedia Broadcasting) system, and it can be decoded by the MPEG 4 decoder. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코 더에 의해 복호화될 수 있다. Further, when the demultiplexed audio signal is an audio signal coded in the MPEG 2 AAC (Advanced Audio Codec) standard according to the satellite DMB system, or DVB-H, it can be decoded by the AAC decoder.

또한, 제어부(170)는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. In addition, the controller 170 may process the like base (Base), travel (Treble), volume control.

제어부(170)에서 처리된 음성 신호는 음향출력부(185)로 음향 출력될 수 있다. The audio signal processed by the control unit 170 may be output as sound audio output unit 185. 또한, 제어부(170)에서 처리된 음성 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다. Further, the audio signal processed by the control unit 170 may be input to an external output device through the external signal input portion 130.

또한, 제어부(170)는 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. Further, the control unit 170 may perform data processing of the demultiplexed data signal. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. For example, if the demultiplexed data signal is coded data signal, it is possible to decrypt it. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. The encoded data signal may be, EPG (Electronic Progtam Guide) information including broadcasting information such as a program start time, the end time of the broadcast on each channel. 예를 들어, EPG 정보는, ATSC방식인 경우, TSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. For example, EPG information may include ATSC system in a case, it may be a TSC-PSIP (ATSC-Program and System Information Protocol) information, DVB system in the case, DVB-SI (DVB-Service Information) information . ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(4 byte)에 포함되는 정보일 수 있다. ATSC-PSIP information or DVB-SI information may be information included in the header (4 byte) of the above-mentioned streams, that is MPEG-2 TS.

또한, 제어부(170)는 OSD(On Screen Display) 처리를 수행할 수 있다. In addition, the controller 170 may perform a process (On Screen Display) OSD. 구체적으로 제어부(170)는, 영상 처리된 영상 신호와, 데이터 처리된 데이터 신호 중 적어도 하나 또는 원격제어장치(200)를 통하여 입력되는 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. Specifically, control unit 170, and the video signal image processing, based on a user input signal input through the data processing of data signals, at least one or a remote control device 200 of the various types of information on the screen of the display 180, a may generate a signal for displaying a graphic (graphic) or a text (text). 생성된 OSD 신호는 영상 처리된 영상 신호 및 데이터 처리된 데이터 신호와 함께, 디스플레이(180)에 입력될 수 있다. The generated OSD signal may be input to the video signal with the data and the processed data signal with the image processing, a display unit 180.

상술한, 그래픽 또는 텍스트 디스플레이를 위하여 생성된 신호는 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. Described above, the signal generated for a graphical or text display may include various data such as a user interface screen, various menu screens, widgets, and icons for image display apparatus 100.

한편, 제어부(170)는, OSD 신호 생성시, 해당 OSD 신호를 2D 영상 신호 또는 3D 영상 신호로 구현할수 있다. On the other hand, control unit 170, can be implemented when generating OSD signal, the OSD signal to the 2D image signal or a 3D image signal. 이에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다. In respect to Figure 3 below will be described in detail.

또한, 제어부(170)는, 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)를 입력받아, 신호 처리를 수행한다. Further, the control unit 170, receives the analog baseband video / audio signal (CVBS / SIF), and performs signal processing. 여기서, 제어부(170)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(110) 또는 외부신호입출력부(130)에서 출력된 아날로그 베이스 밴드 영상/음성신호일 수 있다. Here, the analog baseband video / audio signal (CVBS / SIF) input to the control unit 170 may be an analog signal baseband video / audio output from tuner 110 or external signal input unit 130. 신호 처리된 영상 신호는 디스플레이(180)로 입력되어 영상 표시되며, 신호 처리된 음성 신호는 음향출력부(185), 예를 들어 스피커로 입력되어 음성 출력되게 된다. Signal processed video signal is input to the display 180, the image is displayed, the signal processed audio signal is input to a speaker for audio output unit 185, for example, is to be an audio output.

한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성한는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. On the other hand, although not shown in the figure, it is also possible that the channel signal or in addition further comprise a channel browsing processing an an create a thumbnail image corresponding to an external input signal. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부신호입출력부(130)에서 출력한 스트림 신호 등을 입력 받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. Channel browsing processing unit for receiving the like the stream signal output from the stream signal (TS) or an external signal input unit 130, output from demodulator 120, and extracts the image from the stream signal input to generate a thumbnail image can. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. The generated thumbnail image may be encoded as it is or be input to the controller 170. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. In addition, the generated thumbnail images are coded in the stream format can be input to the controller 170. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스 플레이(180)에 표시할 수 있다. The controller 170 may display a thumbnail list including a plurality of thumbnail images on the display 180 using the input thumbnail image.

제어부(170)는 인터페이스부(150)를 통하여 원격제어장치(200)가 전송한 신호를 수신할 수 있다. The controller 170 can receive a signal by the remote control apparatus 200 is transmitted through the interface unit 150. 제어부(170)는 수신한 신호를 통하여 사용자가 원격제어장치(200)로 입력한 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어한다. Control unit 170 through the received signal to determine the command entered by the user to the remote control device 200 controls the image display device 100 so as to correspond thereto. 일예로, 사용자가 소정 채널 선택명령을 입력하면, 제어부(170)는 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. As an example, if a user inputs a predetermined channel selection command, the controller 170 controls the tuner 110 so that the signal of the selected input channel. 또한, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. In addition, the handle video, audio or data signal of the selected channel. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 음향출력부(185)를 통하여 출력될 수 있도록 한다. Control unit 170, so that the user can be output via the display 180 or the audio output unit 185 with the processing a video or audio signal selected channel information and the like.

또 다른 예로, 사용자는 원격제어장치(200)를 통하여 다른 종류의 영상 또는 음성 출력 명령을 입력할 수 있다. As another example, the user may enter another type of video or audio output command through the remote control device 200. 사용자는 방송 신호 대신 외부신호입출력부(130)를 통하여 입력되는 카메라 또는 캠코더 영상 신호를 시청하기를 원할 수 있다. The user may desire to watch a camera or a camcorder, video signals input through the external signal input unit 130, instead of the broadcast signal. 이 경우 제어부(170)는 외부신호입출력부(130)를 통하여 입력되는 영상 신호 또는 음성 신호가 디스플레이(180) 또는 음향출력부(185)를 통해 출력되도록 할 수 있다. In this case, the controller 170 may be a video signal or audio signal inputted through the external signal input unit 130 to be output through the display 180 or the sound output unit 185.

제어부(170)는 영상표시장치(100) 내에 구비되는 센싱부(미도시) 중 하나인 로컬 키(미도시)로 입력된 사용자 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어할 수 있다. The controller 170 is able to determine and control the image display device 100 so as to corresponding to the sensing unit (not shown), the input of a one of a local key (not shown), the user commands that are provided in the image display device 100 have. 일예로, 사용자는 로컬 키를 통하여 영상표시장치(100) 온/오프 명령, 채널 변경 명령, 볼륨 변경 명령 등을 입력할 수 있다. As an example, a user may enter a video display device 100, on / off commands, channel change commands, volume change commands, such as through a local key. 로컬 키는 영상표시장치(100)에 형성된 버튼이나 키로 이루어질 수 있다. Local key may be a key or a button provided on the video display device 100. 제어부(170)는 로컬 키의 조작 여부를 판별하고 그에 따라 영상표시장치(100)를 제어할 수 있다. Controller 170 may determine whether the operation of the local key and control the image display device 100 accordingly.

디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부신호입출력부(130)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다. Display 180, converts the image signal, data signal, OSD signal or the external signal, the video signal, the data signal received at the input-output unit 130 such as processed by the controller 170 to the R, G, B signal each driven and it generates a signal.

디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다. Display 180 may be possible, such as PDP, LCD, OLED, flexible displays (flexible display) and, in particular, in accordance with an embodiment of the invention, it is preferred that a possible three-dimensional display (3D display).

이를 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다. To this end, the display unit 180, can be divided into more single display mode and display mode.

단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. Are a variety of ways such as being alone display mode is to implement a separate second display, such as without glasses, etc., 3D image in the display unit 180 alone. Examples, the lenticular method, para parallax barrier (parallax barrier) It can be applied.

한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 추가 디스플레이를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. Meanwhile, the second display method is, as to implement the 3D image by using the additional display besides the display 180, For example, a head mounted display (HMD) type, a variety of methods such as glasses type can be applied. 또한, 안경 타입은, 편광 안경 타입, 셔터 글래스(ShutterGlass) 타입, 스펙트럼 필터 타입 등이 적용될 수 있다. In addition, the glasses type, can be applied polarized glasses type and shutter glasses (ShutterGlass) type, such as spectral filter type.

한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다. On the other hand, the display unit 180, is composed of a touch screen may be used as an input device in addition to an output device.

음향출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레 오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. The sound output unit 185 is, for a signal, such as speech processing in the controller 170, and outputs the sound receiving a stereo signal, a 3.1 channel signal or a 5.1 channel signal. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다. An audio output unit 185 may be implemented by various types of speakers.

원격제어장치(200)는, 사용자 입력을 인터페이스부(150)로 송신한다. The remote control device 200 transmits the user input to the interface section 150. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. To this end, the remote control apparatus 200 may be a Bluetooth (Bluetooth), RF (Radio Frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee (ZigBee) method or the like. 또한, 원격제어장치(200)는, 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다. In addition, the remote control device 200 is configured to receive the video, audio or data signal or the like output from the interface unit 150 may display or output sound do this on the remote control device 200.

한편, 도면에서는 도시하지 않았지만, 본 발명의 실시에에 따른 영상표시장치(100)는, 센싱부(미도시)를 더 포함할 수 있다. On the other hand, the figure, although not shown, the image display apparatus 100 according to the embodiment of the present invention may further include a sensing unit (not shown). 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. A sensing unit (not shown) may include a touch sensor, a voice sensor, a position sensor, motion sensor, and the like.

터치 센서는 디스플레이(180)를 구성하는 터치스크린일 수 있다. A touch sensor may be a touch screen configured to display (180). 터치 센서는 사용자가 터치스크린을 터치하는 위치 또는 세기 등을 센싱할 수 있다. Touch sensor can sense a user of the location or intensity to touch the touch screen. 음성 센서는 사용자 음성 또는 사용자가 발생시키는 다양한 소리를 센싱할 수 있다. Voice sensor may sense the user's voice or various sounds that user has occurred. 위치 센서는 사용자의 위치를 센싱할 수 있다. Position sensor can sense the user's location. 동작 센서는 사용자의 제스처 동작 등을 센싱할 수 있다. Motion sensor can sense the user, such as the gesture operation. 위치 센서 또는 동작 센서는 적외선 감지 센서 또는 카메라로 구성될 수 있으며, 영상표시장치(100)와 사용자 사이의 거리, 사용자의 움직임 유무, 사용자의 손동작 등을 센싱할 수 있다. A position sensor or motion sensor may sense a distance, the user moves or not, the user's hand gesture, etc. between the infrared sensor, or may be of a camera, the video display device 100 and the user.

상술한 각 센서는 사용자의 음성, 터치, 위치, 동작들을 센싱한 결과를 별도의 센싱신호 처리부(미도시)로 전달하거나, 또는 센싱 결과를 1차적으로 해석하고 그에 상응하는 센싱 신호를 생성하여 제어부(170)로 입력할 수 있다. The above-described each sensor to generate a sensing signal for transmitting a result of the sensing of a user's voice, touch, position, operating in (not shown), a separate sensing signal processor of, or interpreting the sensed result to the primary and equivalent control It may be entered as 170.

센싱신호 처리부(미도시)는 센싱부(미도시)에서 생성된 신호를 처리하여, 제어부(170)로 전달할 수 있다. A sensing signal processor (not shown) can be passed to process the signals generated by the sensing unit (not shown), the control unit 170.

상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. The image display apparatus 100 described above, the digital broadcasting of a fixed ATSC system (8-VSB method), DVB-T method (COFDM method) of the digital broadcasting, ISDB-T system (BST-OFDM system), digital broadcasting, etc. It may be at least one of the received digital broadcast receiver as possible. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. Further, a digital broadcast, MediaFLO (Media Foward Link Only) system for terrestrial as portable DMB system of the digital broadcast, a satellite DMB system of digital broadcasting, ATSC-M / H system of digital broadcasting, DVB-H scheme (COFDM method) It may be at least one received digital broadcast receiver capable of the digital broadcast. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다. Further, the cable may be a satellite communication, a digital broadcast receiver for IPTV.

한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다. On the other hand, when the image display device described herein, TV sets, mobile phones, smart phones (smart phone), a notebook computer (notebook computer), a digital broadcast terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player) It may be included.

한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. On the other hand, a block diagram of the image display device 100 shown in Figure 1 is a block diagram for one embodiment of the present invention. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Each component of the block diagram may be combined, added or omitted according to the specification of the image display apparatus 100 in actual implementation. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. That is, it can be two or more components as required configuration or combined into one component or one component is divided into two or more components. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다. Further, the functions performed by the respective blocks are for explaining an embodiment of the present invention, the specific operation and the apparatus shall not limit the scope of the present invention.

도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다. 2 is a view showing an example of an external apparatus connectable to a video display device of Figure 1; 도시된 바와 같이, 본 발명에 의한 영상표시장치(100)는 외부신호입출력부(130)를 통하여 외부 장치와 유/무선으로 접속될 수 있다. As shown, the image display apparatus 100 according to the present invention can be connected to an external device and the wire / wireless signal through the external input and output unit 130. The

본 실시예에서 영상표시장치(100)와 연결될 수 있는 외부 장치는, 예를 들어, 카메라(211), 스크린형 원격제어장치(212), 셋톱박스(213), 게임기기(214), 컴퓨터(215), 이동통신 단말기(216) 등이 있을 수 있다. An external device that can be connected to the video display device 100 in this embodiment is, for example, a camera 211, a screen type remote control device 212, the set-top box 213, a game machine 214, a computer ( 215), there may be a mobile communication terminal (216).

영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치의 그래픽 유저 인터페이스 화면을 디스플레이(180)에 표시할 수 있다. The video display device 100 may display the graphical user interface screen of an external device connected through the external signal input unit 130 to the display 180. The 사용자는 외부 장치와 영상표시장치(100)를 접속하고, 외부 장치에서 재생 중인 영상 또는 저장된 영상을 영상표시장치(100)를 통하여 시청할 수 있다. The user can access and view a stored picture or image that is reproduced from the external apparatus via the video display device 100, the external apparatus and the image display device 100.

또한, 영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치에서 재생 중인 음성 또는 저장된 음성을 음향출력부(185)를 통하여 출력할 수 있다. The video display device 100 may be output through the sound output unit 185 or stored voice is being played in the external device connected through the external audio signal input and output unit 130.

영상표시장치(100)와 외부신호입출력부(130)를 통하여 연결된 외부 장치의 데이터, 예를 들어, 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일은, 영상표시장치(100) 내부의 저장부(140)에 저장될 수 있다. The video display device data from an external device connected through the 100 and the external signal input unit 130, for example, still image files, video files, music files, or text files, video display device 100, the internal storage unit of It may be stored in the unit 140.

영상표시장치(100)는 저장부(140)에 저장된 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일을 외부 장치와의 연결이 해제된 뒤에도 디스플레이(180)에 표시하거나, 음향출력부(185)를 통해 출력할 수 있다. The video display device 100 is a storage unit for still image files, video files, music files, or text files stored on even after the connection to the external device is turned off shown in the display 180 or the sound output unit 185 (140) a it can be output from.

영상표시장치(100)는 외부신호입출력부(130)를 통하여 이동통신 단말기(216) 혹은 통신망과 연결되면, 영상 또는 음성통화를 위한 화면을 디스플레이(180)에 표시할 수 있다. The video display device 100 when the connection with the mobile communication terminal 216 or the network via an external signal input unit 130, it is possible to display an image or screen for voice communication on the display 180. 또한 영상표시장치(100)는 영상 또는 음성통화를 위한 음성을 음향출력부(185)를 통해 출력할 수 있다. In addition, the video display device 100 may be output through the sound output unit 185 the audio for a video or a voice call. 사용자는 이동통신 단말기(216) 혹은 통신망과 연결된 영상표시장치(100)를 이용하여 영상 또는 음성 통화를 할 수 있다. The user can video or phone call using the video display 100 associated with the mobile terminal 216 or a communication network.

도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이며, 도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이고, 도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이고, 도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다. 3 is a diagram showing an example of an internal block diagram of the control unit of Figure 1, Figure 4 is a diagram showing the separation of the 2D image signal and a 3D image signal from the formatter of Figure 3, Figure 5 is output from the formatter of FIG. 3 a diagram showing various formats of a 3D image is, Figure 6 is a view for explaining scaling of a 3D image is output from the formatter of FIG.

본 발명의 일실시예에 의한 제어부(170)는, 영상처리부(310), 포맷터(320), OSD 생성부 (330), 및 믹서(340)를 포함할 수 있다. Controller 170 according to one embodiment of the present invention may include an image processing unit 310, the formatter (320), OSD generator 330, and mixer 340.

먼저, 도 3(a)에 도시된 바와 같이, 제어부(170)는, 영상처리부(310)에서 복호화된 영상 신호에 기초하여 포맷터(320)에서 복수 시점의 영상으로 분리하여 처리할 수 있으며, 믹서(340)는 OSD 생성부 (330)에서 별도로 생성된 복수 시점 영상 신호와, 포맷터(320)에서 출력되는 복수 시점의 영상 신호를 믹싱할 수 있다. First, as shown in Figure 3 (a), control unit 170, on the basis of the video signal decoded by the image processing unit 310 can process separately from the formatter 320 to the images of the plurality of viewpoints, a mixer 340 may mix the video signal of a plurality of viewpoints that are output from the plurality of viewpoints and the image signal, the formatter 320 is generated separately from the OSD generator 330.

영상 처리부(310)는, 튜너(110)와 복조부(120)를 거친 방송 신호 또는 외부 신호입출력부(130)를 거친 외부입력신호 중 영상 신호를 처리할 수 있다. Image processing unit 310 may process a video signal of an external input signal via the tuner 110 and the demodulator 120 via the broadcast signal or the external signal input portion 130.

한편, 영상 처리부(310)에 입력되는 신호는 상술한 바와 같이, 스트림 신호가 역다중화된 신호일수 있다. On the other hand, the signal input to the image processing unit 310, the number of days a stream signal is demultiplexed signal as described above.

예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 2D 영상 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. For example, if the demultiplexed image signal is a 2D image signal encoded in the MPEG-2 standard and can be decoded by the MPEG-2 decoder.

또한, 예를 들어, 역다중화된 2D 영상 신호가, DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호인 경우, H.264 디코더에 의해 복호화될 수 있다. Also for example, if the demultiplexed 2D image signal, the image signal encoded in the H.264 standard according to DMB (Digital Multimedia Broadcasting) system, or DVB-H, can be decoded by a H.264 decoder.

또한, 예를 들어, 역다중화된 영상 신호가, MPEC-C part 3 의 깊이(depth) 영상인 경우, MPEC-C 디코더에 의해 복호화될 수 있다. Also for example, if the demultiplexed video signal, MPEC-C part of the depth 3 (depth) image can be decoded by the MPEC-C decoder. 또한, 시차(disparity) 정보가 복호화될 수도 있다. Further, the time difference (disparity) may be the information is decoded.

또한, 예를 들어, 역다중화된 영상 신호가 MVC (Multi-view Video Coding)에 따른 멀티 시점 영상인 경우 MVC 디코더에 의해 복호화될 수 있다. Also for example, if the demultiplexed image signal is a multi-viewpoint image according to the MVC (Multi-view Video Coding) it can be decoded by the MVC decoder.

또한, 예를 들어, 역다중화된 영상 신호가 FTV(Free-viewpoint TV)에 따른 자유 시점 영상인 경우, FTV 디코더에 의해 복호화될 수 있다. Also for example, if the demultiplexed image signal is a free-viewpoint image according to the FTV (Free-viewpoint TV), it may be decoded by the FTV decoder.

한편, 영상 처리부(310)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다. On the other hand, the video signal decoded by the image processing unit 310, if there is only a 2D image signal, the 2D image signal and a 3D video signal mixed, and a distinction can be made between the case that only the 3D video signal.

한편, 영상 처리부(310)에서 복호화된 영상 신호는, 상술한 바와 같이, 다양한 포맷의 3D 영상 신호일 수 있다. On the other hand, the image processing unit the video signal decoded at 310, can be a signal, 3D images in various formats, as described above. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. For example, the color-difference image (color image) and the depth image may be a 3D image signal consisting of a (depth image), or may be a 3D image signal comprised of a plurality of viewpoints image signal. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. Multi-time video signal, for example, may include a left-eye image signal and a right eye image signal.

여기서, 3D 영상 신호의 포맷은, 도 5와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 5a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 5b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 5c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 5d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 5e) 등일 수 있다. Here, 3D format of the video signal, as shown in Figure 5, the left-eye image signal (L) and right-eye image signal (R) to the left or right side-by-side (Side by Side) format (Fig. 5a), which arrangement, the up and down placing a top-down (Top / down) format (Fig. 5b), the frame sequential placed in a time (frame sequential) format (Fig. 5c), interlace mixed by line a left eye image signal and a right-eye image signal (interlaced) format (Fig. 5d), checker boxes (box checker) format (Fig. 5e) by mixing box the left-eye image signal and a right-eye image signal or the like.

한편, 영상 처리부(310)는, 복호화된 영상 신호에 캡션 또는 데이터 방송 등과 관련된 영상 신호가 포함된 경우, 이를 분리하여, OSD 생성부(330)로 출력할 수 있다. On the other hand, the image processing unit 310, if the decoded video signal including a video signal related to a caption or data broadcast, to separate them, can be outputted to the OSD generator 330. 캡션 또는 데이터 방송 등과 관련된 영상 신호는, OSD 생성부(330)에서 3D 오브젝트로 생성될 수 있다. Caption or a video signal related to data broadcasting, can be created as a 3D object in the OSD generator 330.

포맷터(320)는, 복호화된 영상 신호를 입력 받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다. Formatter 320, receives the decoded video signal, it is possible to separate a 2D image signal and a 3D image signal. 그리고, 3D 영상 신호를 복수 시점의 영상 신호로 분리할 수 있다. And, it is possible to separate the 3D image signal into a video signal of a plurality of viewpoints. 예를 들어, 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다. For example, it may be separated into left-eye image signal and a right eye image signal.

복호화된 영상 신호가 2D 영상 신호인지 또는 3D 영상 신호인지 여부는, 해당 영상 신호가 3D 영상임을 나타내는 스트림의 헤더(header) 내의 3D 영상 플래그(flag) 또는 3D 영상 메타 데이터(meta data) 또는 3D 영상의 포맷 정보(format information) 등을 참조하여 판단할 수 있다. Whether or not the decoded picture signal or the 2D image signal or a 3D video signal, the video signal is a 3D video 3D image flag (flag) in the header (header) of the stream indicates that the or 3D image metadata (meta data) or 3D images the format information (format information) can be determined with reference to such.

이러한 3D 영상 플래그, 3D 영상 메타 데이터는, 또는 3D 영상의 포맷 정보는, 3D 영상 정보 외에, 3D 영상의 위치 정보, 영역 정보 또는 크기 정보를 포함할 수도 있다. This 3D image flag, 3D image metadata, or format information of 3D image will, in addition to the 3D image information may also include position information, the area information or the size information of the 3D image.

한편, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보는, 스트림 역다중화시에 복호화되어 포맷터(320)에 입력될 수 있다. On the other hand, the format information of the 3D image flag, 3D image metadata or 3D image is, is decoded at the time of stream demultiplexing may be input to the formatter 320.

포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보를 이용하여, 복호화된 영상 신호로부터 3D 영상 신호를 분리할 수 있다. Formatter 320, it is possible to use the format information of the 3D image flag, 3D image metadata or 3D image, and separate the 3D image signal from the decoded video signal.

그리고, 포맷터(320)는, 3D 영상의 포맷 정보를 기반으로, 소정 포맷의 3D 영상 신호를 재조합하여, 복수 시점의 3D 영상 신호를 생성할 수 있다. Then, the formatter 320, based on the format information of the 3D image, the 3D image signal by recombination in a predetermined format, it is possible to generate the 3D video signal of a plurality of viewpoints. 예를 들어, 좌완 영상 신호와 우안 영상 신호로 분리할 수 있다. For example, it may be separated into left-handed and right-eye image signal an image signal.

도 4는, 영상처리부(310)에서 수신되는 복호화된 영상 신호로부터 2D 영상 신호와 3D 영상 신호가 분리되고, 포맷터(320)에서 3D 영상 신호가 재조합되어 좌완 영상 신호와 우안 영상 신호로로 분리되는 것을 보여준다. Figure 4 is, from the video signal decoding received at the image processing unit 310 is a 2D image signal and a 3D image signal is separated, is a 3D video signal recombinant from the formatter 320 is divided into a left-handed image signal and a right-eye image signal shows.

먼저 도 4(a)와 같이, 제1 영상 신호(410)가 2D 영상 신호이고, 제2 영상 신호(420)가 3D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)와 제2 영상 신호(420)를 분리하며, 다시 제2 영상 신호를 좌안 영상 신호(423)와 우안 영상 신호(426)로 분리할 수 있다. First, as shown in Fig. 4 (a), the first video signal 410 when the a 2D image signal, the second image signal 420, a 3D video signal, the formatter 320 includes a first video signal 410 and the 2 separate the video signal 420, and can be separated again a second image signal by a left-eye image signal 423 and the right-eye image signal (426). 한편, 제1 영상 신호(410)는, 디스플레이(180)에 표시되는 메인 영상에 대응할 수 있으며, 제2 영상 신호(420)는, 디스플레이(180)에 표시되는 PIP 영상에 대응할 수 있다. On the other hand, the first image signal 410, may correspond to the main image that is displayed on the display 180, the second image signal 420, may correspond to a PIP video image displayed on the display 180. The

다음, 도 4(b)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 3D 영상 신호인 경우, 포맷터(320)는 이를 각각 분리하고, 제1 영상 신호(410) 및 제2 영상 신호(420) 각각을 좌안 영상 신호(413,423)와 우안 영상 신호(416,426)로 분리할 수 있다. As in the following, Fig. 4 (b), the first image signal 410 and the second image signal 420 when all of the 3D image signal, and the formatter 320 is separate it, respectively, a first image signal (410) and a second video signal 420, respectively, may be separated into left-eye image signal (413 423) and the right-eye image signal (416 426).

다음, 도 4(c)와 같이, 제1 영상 신호(410)가 3D 영상 신호이고, 제2 영상 신호(420)가 2D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)을 좌안 영상 신호(413)와 우안 영상 신호(416)로 분리할 수 있다. Next, Fig. 4 (c) and the like, first, the video signal 410 and the 3D image signal, and the second when the video signal 420 is a 2D image signal, the formatter 320 is a first video signal (410) It can be separated into the left eye image signal 413 and the right-eye image signal (416).

다음, 도 4(d) 및 도 4(e)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 중 어느 하나가 3D 영상 신호이고, 다른 하나가 2D 영상 신호인 경우, 2D 영상 신호는 3D 영상 신호로 전환될 수 있다. If then, in Fig. 4 (d) and 4 (e) and the like, any one of the first image signal 410 and the second image signal 420, a 3D video signal, and the other is a 2D image signal, 2D the video signal may be converted into a 3D image signal. 이러한 전환은 사용자의 입력에 따라 수행될 수 있다. These conversions can be carried out according to the user's input.

예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서 에지(edge)를 검출하고, 검출된 에지(edge)에 따른 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. For example, according to a 3D image generation algorithm it can be generated by detecting the edge (edge) in the 2D image signal and to separate the object in accordance with the detected edge (edge) to a 3D video signal. 또한, 예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서, 선택 가능한 오브젝트를 검출하고, 해당 오브젝트를 3D 영상 신호로 분리하여 생성하는 것도 가능하다. Also, for example, according to the 3D image generation algorithm, it is also possible to detect a selectable object in the 2D image signal, and is generated by separating the object into a 3D video signal. 이때, 생성된 3D 영상 신호는 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리될 수 있다. At this time, the generated 3D image signal may be separated into a left eye image signal (L) and right-eye image signal (R) as described above. 한편, 2D 영상 신호 중 3D 영상 신호로 생성된 오브젝트 영역을 제외한 부분은 새로운 2D 영상 신호로 출력될 수 있다. On the other hand, portions other than the object region to generate a 3D image signal in the 2D image signal can be output to a new 2D image signal.

한편, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 2D 영상 신호인 경 우, 도 4(f)와 같이 어느 하나의 2D 영상 신호만 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수 있다. On the other hand, if both the first image signal 410 and the second image signal 420 into a 3D video signal according to any one of the 2D video signal, only a 3D image generation algorithm, as in the case, Fig. 4 (f) the 2D image signal It may be converted. 또는 도 4(g)와 같이 모든 2D 영상 신호가 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수도 있다. Or it may be all the 2D image signal as shown in Fig. 4 (g) to be switched to 3D video signal according to a 3D image generation algorithm.

한편, 포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보가 있는 경우, 이를 이용하여 3D 영상 신호 인지 등을 판별하며, 3D 영상 플래그, 3D 영상 메타 데이터 및 3D 영상의 포맷 정보가 없는 경우, 상술한 바와 같이 3D 영상 생성 알고리즘을 이용하여 3D 영상 신호 인지 등을 판별할 수 있다. On the other hand, the formatter 320, the 3D image flag, the 3D image when the metadata or in the format information of the 3D image, by using this, and determines the following: the 3D video signal, a 3D image flag, 3D image metadata, and a 3D image If there is no format information, it is possible to determine the following: the 3D image signal by the 3D image generation algorithm, as described above.

한편, 포맷터(320)에서 출력되는 3D 영상 신호는 좌안 영상 신호(413 또는 423)와 우안 영상(416 또는 426) 신호로 분리되고, 도 5에 예시된 포맷 중 어느 하나의 포맷으로 출력될 수 있다. On the other hand, 3D video signal output from the formatter 320 may be output in any of the formats of and separated into left-eye image signal (413 or 423) and the right-eye image (416 or 426) signal, the format illustrated in Figure 5 . 이때, 2D 영상 신호는, 포맷터(320)에서 별도의 신호처리 없이 그대로 출력되거나 또는 3D 영상 신호의 포맷에 따라 해당 포맷으로 변형되어 출력될 수도 있다. At this time, 2D image signals are transformed into the format according to the format of a separate signal processing as output or 3D video signal without the formatter 320 may be output.

도 5는 본 실시예의 포맷터(320)를 통하여 생성될 수 있는 3D 영상 신호 포맷에 관한 설명에 참조되는 도이다. 5 is a diagram referred to in description of the 3D video signal format that can be generated through the courtesy formatter 320 of this embodiment. 본 실시예의 포맷터(320)는 좌안 영상 신호(L)과 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(e) 등 다양한 포맷의 3D 영상 신 호를 출력할 수 있다. In this embodiment the formatter 320 is left-eye image signal (L) and the left and the right-eye image signal (R), right disposed side-by-side (Side by Side) format to a), the, top-down (Top / Down placing Haro ) format, (b), the frame sequential (frame sequential) format (c), interlace mixed by line a left eye image signal and a right-eye image signal (interlaced) format (d), left-eye image signals and right-eye image signal placed in a time checker box by mixing box (box checker) format (e), etc. can output the 3D image of the new call variety of formats.

한편, 사용자는 도 5에 예시된 포맷 중 어느 하나를 출력 포맷으로 선택할 수도 있다. On the other hand, the user may select any one of the format illustrated in Figure 5 in an output format. 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, 포맷터(320)는 입력되는 다른 포맷, 예를 들어 사이드 바이 사이드(Side by Side) 포맷의 3D 영상 신호를 재조합하여, 좌안 영상 신호와 우안 영상 신호로 분리한 후, 탑 다운(Top / Down) 포맷으로 변형하여 출력할 수 있다. The user and the top-down (Top / Down), if the selected format to the output format of the formatter 320, the formatter 320 is different formats, which is input for example side-by-side (Side by Side) a 3D video signal format recombinant and it can be output after divided into left-eye image signal and a right eye image signal, by modifying a top-down (Top / down) format.

한편, 포맷터(320)에 입력되는 3D 영상 신호는 방송 영상 신호 또는 외부 입력 신호일수 있으며, 그 자체로 소정 깊이(depth)를 갖는 3D 영상 신호일 수 있다. Meanwhile, the 3D image signal is input to the formatter 320, and broadcast the video signal or an external input signal is the number of days, can be a 3D image signal having a depth (depth) given by itself. 이에 따라, 포맷터(320)는, 해당 깊이를 갖는 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다. Accordingly, the formatter 320, it is possible to separate the 3D image signal with the depth at the left-eye image signal and a right eye image signal.

한편, 서로 다른 깊이를 가지는 3D 영상 신호는 깊이 차이로 인하여 서로 다른 좌안 영상 신호와 우안 영상 신호로 분리될 수 있다. On the other hand, another 3D video signal having a different depth is the depth due to the difference can be separated from one another by different left-eye image signal and a right eye image signal. 즉, 3D 영상 신호의 깊이에 따라 좌안 영상 신호와 우안 영상 신호는 변경될 수 있다. That is, according to the depth of the 3D image signal and a left eye image signal right-eye image signal may be changed.

한편, 사용자의 입력 또는 설정에 따라, 3D 영상 신호의 깊이를 변경하는 경우, 포맷터(320)는, 변경된 깊이에 따라 각각 해당하는 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다. On the other hand, when changing the depth of the 3D video signal according to a user's input or settings, the formatter 320, may be separated into each of the left-eye image signals and right-eye image signal according to the changed depth.

또한, 포맷터(320)는, 3D 영상 신호를 스케일링할 수 있다. Further, the formatter 320, it is possible to scale the 3D image signal. 구체적으로는 3D 영상 신호 내의 3D 오브젝트를 스케일링할 수 있다. Specifically, it is possible to scale the 3D object in the 3D video signal.

도 6을 참조하면, 포맷터(320)는 3D 영상 신호를 다양한 방식으로 스케일링 할 수 있다. 6, the formatter 320 may scale the 3D image signal in a number of ways.

도 6(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트를 일정 비율로 전체적으로 확대 또는 축소할 수 있으며, 또한 도 6(b)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형태)할 수도 있다. As shown in Figure 6 (a), 3D video signal or 3D 3D objects in the video signal can be enlarged or reduced as a whole at a constant rate, also as shown in Figure 6 (b), zoom in or out on the 3D object as in part (trapezoidal )You may. 또한, 도 6(c)와 같이, 3D 오브젝트를 적어도 일부를 회전(평행 사변형 형태)시킬 수도 있다. In addition, it is also possible to FIG. 6 (c), such as, rotating a part at least of the 3D object (a parallelogram shape). 이러한 스케일링을 통해, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트에 입체감 즉, 3D 효과(effect)를 강조할 수 있게 된다. These scaled, three-dimensional appearance to the 3D objects in the 3D image signal or a 3D image signal In other words, it is possible to emphasize the 3D effect (effect).

한편, 도 6의 3D 영상 신호는 도 4(a)의 제2 영상 신호에 대응하는 좌안 영상 신호 또는 우안 영상 신호일 수 있다. On the other hand, 3D video signal of Figure 6 may be an left-eye image signal or a right eye image corresponding to a second video signal of Figure 4 (a). 즉, PIP 영상에 대응하는 좌안 영상 신호또는 우안 영상 신호일 수 있다. That is, the left-eye video signal can be a signal or a right eye image corresponding to the PIP image.

결국, 포맷터(320)는, 복호화된 영상 신호를 수신하여, 2D 영상 신호 또는 3D 영상 신호를 분리하며, 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호으로 다시 분리할 수 있다. After all, the formatter 320 is configured to receive the decoded video signal, and separate a 2D image signal or a 3D video signal, it is possible to re-separate the 3D image signal into left-eye image signal and a right eye image signal. 그리고, 좌안 영상 신호와 우안 영상 신호를 스케일링하여, 도 5와 같은 소정 포맷으로 출력할 수 있다. Then, the scale the left-eye image signals and right-eye image signal may be output in a predetermined format, such as 5. 한편, 스케일링은 출력 포맷 형성 후 수행되는 것도 가능하다. On the other hand, scaling may be performed after forming the output format.

OSD 생성부(330)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. OSD generator 330, or to self-generate the OSD signals in response to user input. 생성되는 OSD 신호는, 2D OSD 오브젝트 또는 3D OSD 오브젝트를 포함할 수 있다. OSD signal produced may include a 2D object or a 3D OSD object OSD.

2D OSD 오브젝트 또는 3D OSD 오브젝트 인지 여부는, 사용자 입력에 따라 또는 오브젝트의 크기 또는 선택 가능한 오브젝트인지 여부 등에 따라 결정될 수 있 다. Whether the 2D OSD object or a 3D OSD object, and can be determined depending on whether or size of an object or a selectable object in response to user input.

OSD 생성부(330)는, 복호화된 영상 신호를 입력받아 처리하는 포맷터(320)와 달리, 바로 2D OSD 오브젝트 또는 3D OSD 오브젝트를 생성하여 출력할 수 있다. OSD generator 330 is, in contrast to the formatter (320) for processing receives the decoded image signal, can be output to generate a 2D OSD object or a 3D OSD object directly. 한편, 3D OSD 오브젝트는 도 6과 같이, 다양한 방식으로 스케일링되어 출력될 수 있다. On the other hand, 3D OSD object may be output is scaled in various ways as shown in FIG. 또한, 깊이에 따라 출력되는 3D OSD 오브젝트는 가변할 수 있다. In addition, 3D OSD objects that are output in accordance with the depth can vary.

출력시의 포맷은, 도 5에 도시된 바와 같이, 좌안용과 우안용이 결합된 다양한 포맷 중 어느 하나일 수 있다. The format of the output may be, as shown, either one of the left eye and one for different formats of right-eye facilitate coupling shown in FIG. 이때 출력 포맷은 포맷터(320)의 출력 포맷과 동일하게 된다. At this time, the output format is the same as the output format of the formatter 320. 예를 들어, 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, OSD 생성부(330)의 출력 포맷은 탑 다운(Top / Down) 포맷으로 결정된다. For example, if the user selects the top-down (Top / Down) format to the output format of the formatter 320, the output format of the OSD generator 330 is determined by the top-down (Top / Down) format.

한편, OSD 생성부(330)는, 영상 처리부(310)로부터, 캡션 또는 데이터 방송 등과 관련된 영상 신호를 입력받아, 캡션 또는 데이터 방송 등과 관련된 OSD 신호를 출력할 수도 있다. On the other hand, OSD generator 330, from the image processing unit 310, receives the image signal related to a caption or data broadcast, it is also possible to output the OSD signal related to the data or the caption broadcasting. 이때의 OSD 신호는, 상술한 바와 같이, 2D OSD 오브젝트 또는 3D OSD 오브젝트일 수 있다. OSD signal at this time, and may be, 2D OSD object or a 3D OSD object, as described above.

믹서(340)는, 포맷터(340)에서 출력되는 영상 신호와 OSD 생성부에서 출력되는 OSD 신호를 믹싱하여 출력한다. Mixer 340, and outputs the mix the OSD signal output from the video signal and the OSD generator to be output from the formatter 340. 출력되는 영상 신호는 디스플레이(180)에 입력된다. Video signal output is input to the display 180. The

한편, 제어부(170) 내부의 내부 블록도는 도 3(b)와 같이 구성될 수도 있다. On the other hand, the internal block of the internal control unit 170 also may be configured as shown in 3 (b) FIG. 도 3(b)의 영상처리부(310), 포맷터(320), 및 OSD 생성부(330), 및 믹서(340)는 도 3(a)와 유사하며, 이하에서는 그 차이점을 기술한다. FIG image processing unit 310, the formatter 320, and the OSD generator 330, and mixer 340 in 3 (b) is similar to a 3 (a) also, the following description describes the differences.

일단, 믹서(340)는, 영상처리부(310)로부터의 복호화된 영상 신호와 OSD 생성부(330)에서 생성된 OSD 신호를 믹싱한다. Once mixer 340, it mixes the OSD signal generated from the video signal and the OSD generator 330 decoded from the video processing unit 310. 믹서(340)의 출력을 포맷터(320)에서 입력 받아 처리하므로, 3D 오브젝트 자체를 생성하고 해당 포맷에 맞게 출력하는 도 3(a)의 OSD 생성부(330)와 달리, 도 3(b)의 OSD 생성부(330)는 3D 오브젝트에 대응하는 OSD 신호를 생성하면 충분하다. It receives the output of the mixer 340 from the formatter 320 is processed, 3D object generation itself, and unlike the OSD generator 330 in 3 (a) also outputs to suit the format of the 3 (b) Fig. OSD generator 330 is sufficient to generate an OSD signal corresponding to the 3D object.

포맷터(320)는, 이러한 OSD 신호와 복호화된 영상 신호를 입력받아, 상술한 바와 같이, 3D 영상 신호를 분리하고, 3D 영상 신호를 복수 시점 영상 신호로 분리한다. Formatter 320, and receives the OSD signal such as decoded video signal, as described above, separate the 3D image signal, and separating the 3D image signal by a plurality of viewpoints image signal. 예를 들어, 3D 영상 신호는 좌안 영상 신호와 우안 영상 신호로 분리될 수 있으며, 분리된 좌안 영상 신호와 우안 영상 신호는 도 6과 같이 스케일링 처리되어 도 5에 도시된 소정 포맷으로 출력될 수 있다. For example, 3D image signal may be separated into a left eye image signal and a right eye image signal, the separated left-eye image signals and right-eye image signal may be outputted with the predetermined format shown in FIG been scaling process as shown in Figure 65 .

한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. On the other hand, a block diagram of the controller 170 shown in FIG. 3 is a block diagram for one embodiment of the present invention. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Each component of the block diagram may be combined, added or omitted according to the specification of the control unit 170 that the actual implementation. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. That is, it can be two or more components as required configuration or combined into one component or one component is divided into two or more components. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다. Further, the functions performed by the respective blocks are for explaining an embodiment of the present invention, the specific operation and the apparatus shall not limit the scope of the present invention.

도 7은 도 1의 영상표시장치에 표시되는 영상의 일예를 도시한 도면이다. 7 is a view showing an example of a video displayed on the video display device of Figure 1;

도면을 참조하면, 영상표시장치(100)는 도 5에 도시된 3D 영상 포맷 중 탑 다운 방식에 적합하도록 3D 영상을 표시할 수 있다. Referring to the drawings, the video display device 100 may display the 3D image to be suitable for top-down of the 3D video format shown in Fig. 도 7a는, 영상표시장치(100)에서 영상 재생이 중단된 경우, 디스플레이(180)에 표시되는 영상을 도시한다. Figure 7a illustrates a video display if the video playing on the device 100 stops, the image displayed on the display 180. 탑 다운 포맷은 도시된 바와 같이 상하로 복수시점 영상을 배열한다. The top-down format is arranged a plurality of viewpoints image up and down, as shown. 따라서, 영상 재생이 중단된 경우, 도 7a에 도시된 바와 같이, 상하가 분리된 영상(351, 352)이 디스플레이(180)에 표시된다. Therefore, when the video playback is stopped and displayed on, the image (351, 352), the display 180, the vertical separation as shown in Figure 7a.

한편, 예를 들어, 편광 안경 등 추가 디스플레이 방식에 의하여 3D 영상 등을 표시하는 경우, 사용자가 편광 안경 등을 착용하지 아니하면, 시청하는 영상의 초점이 맞지 아니한다. On the other hand, for example, the case of displaying the 3D image such as by the additional display methods such as polarization glasses, if a user does not wear the polarization glasses or the like, does not match the focus of the viewing image. 즉, 도 7b에 도시된 바와 같이, 편광 안경 등을 착용하지 않고 시청하는 경우, 3D 오브젝트(353a, 353b, 353c)의 초점이 맞지 아니할 수 있다. In other words, this may not a focus of a, when viewed without wearing the polarized glasses, etc., 3D objects (353a, 353b, 353c) as shown in Fig. 7b, right. 디스플레이(180)에 표시되는 영상(353)도 그러할 수 있다. Image 353 displayed on the display 180 may also be geureohal.

도 7c는 도 7b에 도시된 영상표시장치(100)의 화면을 편광 안경 등을 착용하고 시청하는 경우, 사용자에게 보여지는 영상(354) 및 3D 오브젝트(354a, 354b, 354c)의 초점이 맞는 것을 보여준다. The Figure 7c to fit the focus of a video display if wearing viewing the polarized glasses, such as the screen of the device 100, the image presented to the user 354 and the 3D object (354a, 354b, 354c) shown in Figure 7b show. 이때, 3D 오브젝트(354a, 354b, 354c)는 사용자를 향하여 돌출되도록 보이게 된다. In this case, 3D objects (354a, 354b, 354c) is visible so as to project toward the user.

한편, 단독 디스플레이 방식에 따라 3D 영상을 표시하는 영상표시장치의 경우, 사용자가 편광 안경 등을 착용하지 않아도 사용자에게 보여지는 영상 및 3D 오브젝트는 도 7c와 같을 수 있다. On the other hand, in the case of a video display device for displaying a 3D image, a 3D object image and where the user will be presented to the user do not have to wear polarized glasses, etc. it can be the same as the Figure 7c in accordance with the single display mode.

한편, 본 명세서에서의 오브젝트는, 오브젝트는 영상표시장치(100)의 음성 출력 레벨, 채널 정보, 현재 시간 등 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 나타내는 이미지 또는 텍스트 를 포함할 수 있다. On the other hand, the image that is the object of the present disclosure, the object is displayed on the audio output level, channel information, information or video display device 100 in the image display apparatus 100 such as the current time of the video display device 100, indicating the related information may include images or text.

일예로, 오브젝트는 영상표시장치(100)의 디스플레이(180)에 표시되는 볼륨 조절 버튼, 채널 조절 버튼, 영상표시장치 제어 메뉴, 아이콘, 네비게이션 탭, 스크롤 바, 프로그래시브 바, 텍스트 박스, 윈도우 중 하나일 수 있다. As an example, the object image display volume control button, a channel control on the display 180 of the device 100 button, the image display apparatus control menu, an icon, a navigation tab, a scroll bar, a progressive bar, a text box, a window one can work.

이러한 오브젝트를 통해, 사용자는 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 인지할 수 있다. With these objects, the user can recognize the information about the image that is displayed on the information or the video display device 100 in the image display device 100. 또한 영상표시장치(100)에 표시된 오브젝트를 통하여 영상표시장치(100)로 명령을 입력할 수 있다. In addition, it is possible to input a command to the image display device 100 through the object shown in the image display device 100.

한편, 본 명세서에서는 사용자 방향으로 돌출되는 3D 오브젝트의 깊이(depth)는 + 로 설정하며, 디스플레이(180) 또는 디스플레이(180)에 표시되는 2D 영상 또는 3D 영상의 깊이(depth)는 0 으로 설정한다. On the other hand, the present specification, the depth (depth) of the 3D object is projected to the user the direction and set to +, the depth (depth) of the 2D image or the 3D image displayed on display 180 or display 180 is set to 0 . 그 외 디스플레이(180) 내로 오목하게 표현되는 3D 오브젝트의 깊이(depth)는 - 로 설정한다. Other display depth (depth) of the 3D object representation is concavely into 180-sets in. 결국, 그 시청자 방향으로 돌출될수록 그 깊이(depth)는 더 커지는 것으로 한다. After all, the more projecting in the direction of the viewer, the depth (depth) is to be further increased.

한편, 본 명세서에서의 3D 오브젝트는, 입체감을 가지도록 처리된 오브젝트로서, 도 6에서 예시된 스케일링에 의해 입체감을 갖는 오브젝트 또는 깊이를 달리 갖는 오브젝트를 포함한다. On the other hand, 3D object, in the present specification, as the processed object so as to have a three-dimensional and includes the object having the object or the depth has a three-dimensional by a scaling illustrated in Figure 6. In contrast.

한편, 도 7c에서는 3D 오브젝트의 예로, PIP 영상 등을 예시하나, 이에 한정되지 않으며, 방송 프로그램 정보를 나타내는 EPG, 영상표시장치의 다양한 메뉴, 위젯, 아이콘 등이 될 수 있다. On the other hand, in Figure 7c an example of the 3D object, such as an illustration the PIP image, not limited to this and can be a variety of menus, a widget, an icon, such as a video display unit EPG, showing the program information.

도 8은 본 발명의 제1실시예에 의한 영상표시장치의 동작방법의 설명에 참조되는 순서도이다. 8 is a flowchart referred to in explanation of the operation method of the image display apparatus according to the first embodiment of the present invention. 본 실시예에서 영상표시장치(100)는 3D 오브젝트를 표시해야 하는 이벤트가 발생하면, 기준점의 위치를 판별한다. The video display device 100 in this embodiment is generated when an event that should display a 3D object, and determines the position of the reference point. 3D 오브젝트 표시 이벤트는 사용자가 소정 3D 오브젝트 표시명령을 영상표시장치(100)로 입력하는 경우 발생할 수 있다. 3D object display event may occur when a user inputs a predetermined command to display the 3D object image display device 100. 또한, 3D 오브젝트 표시 이벤트는 영상표시장치(100)로 소정 신호가 입력되거나, 예약 시청 시간이 도달한 경우 등에 발생할 수 있다. In addition, 3D object display event is a video display device or a predetermined signal is input to 100 may occur, for example, when the time reaches the reserved viewing.

본 실시예에서 기준점은 영상표시장치(100)를 시청하고 있는 사용자이다. In this embodiment the reference point is a user who is viewing the image display device 100. 영상표시장치(100)는 판별한 사용자의 위치에 대응하도록 3D 오브젝트를 표시한다. The video display device 100 displays the 3D object to correspond to a determination of user position. 또 다른 예로, 기준점은 사용자의 손 등 신체의 일부이거나, 사용자의 신체의 일부에 장착 가능한 센서 수단일 수 있다. As another example, the reference point may be part of the body such as the user's hand, may be a sensor means mountable on a part of the body of the user. 영상표시장치(100)는 센서부를 통하여 사용자의 신체의 일부나 해당 신체의 일부의 동작 등을 판별할 수 있다. The video display device 100 may be determined, and the like of the body of the user, some or part of the operation of the body by way of a sensor. 또한 영상표시장치(100)는 사용자의 신체의 일부에 장착된 센서 수단을 통하여 사용자의 신체의 일부나 해당 신체의 일부의 동작 등을 판별할 수 있다. In addition, the video display device 100 may be via a sensor means mounted on a portion of the user's body to determine the like of the user's body part or some of the operations of the body. 사용자의 신체의 일부네 장착된 센서 수단은 펜 또는 원격제어장치 등을 포함할 수 있다. Some four sensor means mounted in the body of the user may include a pen, or the remote control device. 영상표시장치(100)는 사용자의 신체의 일부 또는 신체의 일부의 동작 등을 판별하여 상기 기준점의 위치를 판별할 수 있다. The video display device 100 may be able to determine the portion or the like of the body part of the operation of the user's body to determine the position of the reference point.

영상표시장치(100)의 제어부(170)는 3D 오브젝트 표시 이벤트 발생여부를 판별한다(S10). Controller 170 of the image display apparatus 100 determines whether or not generated 3D objects displayed event (S10). 본 실시예의 3D 오브젝트는 영상표시장치(100)에서 표시될 수 있는 정보를 나타내는 오브젝트일 수 있다. Example 3D objects in this embodiment may be an object that represents information that can be displayed by the image display device 100. 일예로 영상표시장치(100)에 오늘의 날씨에 관련된 정보를 표시해야 하는 이벤트가 발생할 수 있다. A video display device (100) as an example can result in the event you need to display information related to the weather of the day. 이 경우 영상표시장 치(100)는 오늘의 날씨에 관련된 정보를 입체효과가 적용된 텍스트 또는 이미지를 사용하여 표시할 수 있다. In this case, the video display device 100 may be displayed using text or images applied to three-dimensional effect of the information related to the weather of the day. 또한, 사용자가 입체감을 느낄 수 있도록 사용자를 향하여 돌출되는 입체효과가 적용된 팝업 윈도우를 사용하여 표시할 수 있다. In addition, the user may be displayed using a pop-up window is three-dimensional effect is applied to project toward the user to feel a stereoscopic effect. 상기 입체효과가 적용된 텍스트 또는 이미지 또는 사용자를 향하여 돌출된 팝업 윈도우는 본 실시예의 3D 오브젝트에 포함될 수 있다. Pop-up window, the protruding towards the text or image or a user and the three-dimensional effect is applied can be included in the 3D object, the present exemplary embodiment.

또한, 3D 오브젝트 표시 이벤트는 사용자의 입력명령에 대응하여 발생하거나 스케줄러에 설정된 시간이 도달하는 경우 발생할 수 있다. In addition, 3D objects displayed events may be caused to occur in response to the input commands of the user or the time set in the scheduler has been reached. 일예로 사용자는 원격표시장치를 이용하여 영상표시장치(100)로 날씨 표시명령을 입력할 수 있다. As an example the user may input a weather display command to the image display apparatus 100 using a remote display device. 이 경우 영상표시장치(100)에서는 날씨 관련 정보를 나타내는 3D 오브젝트 표시 이벤트가 발생할 수 있다. In this case, the image display apparatus 100 may cause the 3D object displayed event indicating the weather information. 또 다른 예로, 스케줄러에 설정된 시간이 도달하면 영상표시장치(100)에서는 날씨 관련 정보를 나타내는 3D 오브젝트 표시 이벤트가 발생할 수 있다. In another example, when the time set in the scheduler reaches the image display device 100 can cause the 3D object displayed event indicating the weather information.

영상표시장치(100)의 제어부(170)는 센서부의 위치 센서를 통하여 사용자 위치를 판별할 수 있다(S15). Control unit 170 of video display device 100 may determine the user's location via a sensor of the position sensor (S15). 본 실시예에서 위치 센서는 사용자 위치를 판별할 수 있는 모든 종류의 수단을 포함할 수 있다. In this embodiment, the position sensor may comprise any kind of means to determine the user's location. 일예로 사용자 위치를 센싱할 수 있는 적외선 센서 또는 사용자 위치를 소정 알고리즘을 통하여 산출할 수 있도록 영상을 획득하는 카메라는 본 실시예의 위치 센서에 포함될 수 있다. Which can sense the user's location as an example an infrared sensor or a camera for obtaining an image to a predetermined calculation the user's location via the algorithm may be included in the example position sensor of the present embodiment. 제어부(170)는 위치 센서를 통하여 센싱된 정보를 바탕으로 영상표시장치(100)와 사용자 사이의 거리 등을 판별할 수 있다. Controller 170 may be based on the sensing information through a position sensor to determine the distance between the image display device 100 and the user.

제어부(170)는 판별한 사용자 위치에 대응하도록 3D 오브젝트를 표시한 다(S20). The controller 170 is to display the 3D object to correspond to the determined user location (S20). 사용자는 영상표시장치(100)로부터 소정 거리에 위치할 수 있다. Users may be located at a distance from the image display device 100. 제어부(170)는 사용자와의 거리를 판별하고 각 사용자 앞에 3D 오브젝트를 표시할 수 있다. Controller 170 may determine the distance between the user and displays the 3D objects in front of each user. 또한 제어부(170)는 사용자의 눈의 위치 또는 키 높이 등을 판별할 수 있다. The controller 170 may determine the position or the like of the user's eye height key. 제어부(170)는 사용자의 키 또는 눈 높이에 대응하도록 3D 오브젝트를 표시할 수 있다. The controller 170 may display a 3D object, so as to correspond to the user's key or eye level.

제어부(170)는 3D 오브젝트를 표시한 후 사용자의 손 동작을 판별할 수 있다(S25). Control unit 170 to display the 3D object may determine the user's hand motion (S25). 제어부(170)는 사용자의 손 동작을 동작 센서를 통하여 판별할 수 있다. Controller 170 may determine the user's hand motion by a motion sensor. 동작 센서는 사용자의 신체의 일부 중 손을 감지하고 손 동작을 촬영하는 카메라를 포함할 수 있다. The motion sensor may comprise a camera for detecting a hand of the part of the user's body and a hand-up operation.

제어부(170)는 사용자의 손 동작이 설정된 손 동작에 대응하는지 여부를 판별할 수 있다(S30). Controller 170 may determine if the behavior is set corresponding to the hand of the user's hand motion (S30). 영상표시장치(100)의 저장부(140)에는 3D 오브젝트의 소정 영역 선택 명령에 대응하는 손 동작에 관한 정보가 저장되어 있을 수 있다. Storage unit 140 of video display device 100 can have the information is stored on the hand operation corresponding to the selected predetermined region of the 3D object command. 제어부(170)는 동작 센서를 통하여 감지한 사용자의 손 동작이 저장부(140)에 저장된 설정 손 동작에 대응하는지 여부를 판별할 수 있다. Controller 170 may determine whether the stored corresponding to the hand setting operation of the user detected by the motion sensor, the hand operation storage unit 140.

만일 사용자 손 동작이 설정된 손 동작에 대응하면, 제어부(170)는 설정된 손 동작에 대응하는 명령에 따라 영상표시장치(100)를 제어할 수 있다(S35). If the user when a hand operation is set corresponding to the hand operation, the controller 170 may control the image display apparatus 100 according to the command set corresponding to a hand operation (S35). 일예로, 사용자 손 동작은 3D 오브젝트 중 소정 영역에 표시된 버튼을 선택하는 명령에 대응할 수 있다. As an example, a user's hand motion may correspond to a command to select the button displayed in a predetermined area of ​​the 3D object. 이 경우 제어부(170)는 선택된 버튼에 대응하는 명령(ex)볼륨 조절, 화면 조정 등)에 따라 영상표시장치(100)의 볼륨을 조절하거나 표시되고 있는 화면을 변경할 수 있다. In this case, the controller 170 may change the command (ex) volume control, screen adjustment, etc.) the image display apparatus 100, the screen that is being adjusted according to the volume or display corresponding to the selected button. 또 다른 예로, 사용자 손 동작은 3D 오브젝트 중 소정 영 역에 표시된 '3D 오브젝트 지우기 버튼'을 선택하는 명령에 대응할 수 있다. In another example, the user's hand motion may correspond to a command to select the "3D Objects Clear 'button displayed on a predetermined area of ​​the 3D object. 이 경우 제어부(170)는 선택된 버튼에 대응하는 명령에 따라 3D 오브젝트를 지울 수 있다. In this case, the control unit 170 may clear the 3D object according to the command corresponding to the selected button.

도 9는 본 발명의 제2실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 9 is a diagram referred to in explanation of an image display device according to a second embodiment of the present invention.

도 9a에 도시된 바와 같이, 사용자가 메인으로 시청하고자 하는 메인 영상으로 이루어지거나 크기가 기준치 이상인 메인 화면(1301)이 디스플레이 표시될 수 있다. As shown in Figure 9a, the user can be made to the main image or display the main screen 1301 is larger than the reference value, the display to the main-view. 3D 오브젝트(1302)는 메인 화면(1301)보다 사용자에게 더 가깝게 느껴지도록 표시된다. 3D object 1302 is displayed to feel closer to you than the main screen (1301). 본 실시예에서는 3D 오브젝트(1302)는 사용자를 향하여 돌출되어 보이도록 영상 신호 처리되었다. In this embodiment, the 3D object 1302 has been processed image signal so as to protrude toward the user is visible. 3D 오브젝트(1302)와 메인 화면(1301)은 다른 깊이를 가진다. 3D object 1302 and the main screen 1301 has a different depth.

영상표시장치(100)의 위치 센서 또는 동작 센서의 일실시예인 카메라(1303)는 영상표시장치(100)의 전면에 설치될 수 있다. The video display device position sensor or camera one embodiment 1303 of the operation of the sensor 100 may be installed on the front of the image display device 100. 카메라(1303)를 통하여 촬영된 사용자(1304) 영상을 통하여 제어부(170)는 사용자의 위치(본 실시예에서는 영상표시장치(100)와 사용자(1304) 사이의 거리 및 사용자(1304)의 눈 위치)를 판별할 수 있다. Camera 1303 to the user 1304, the control unit 170 through the image taking by the user position (eye position, distance, and the user 1304 between the present embodiment, the video display device 100 and the user 1304 ) it can be determined. 사용자 위치를 판별한 영상표시장치(100)의 제어부(170)는 사용자 눈 위치에 대응하도록 3D 오브젝트(1302)를 표시할 수 있다. Control unit 170 of video display device 100 to determine the user's location may display a 3D object 1302, so as to correspond to the user's eye position.

도 9a의 3D 오브젝트(1302)는 영상표시장치(100)에서 표시할 수 있는 정보를 나타내는 오브젝트이다 따라서 제어부(170)는 사용자(1304)의 눈 위치와 대응하는 높이에 3D 오브젝트(1302)가 표시되도록 영상 신호를 처리한다. 3D object 1302 in FIG. 9a is a video display is an object that represents information that can be displayed on the device 100. Therefore, the controller 170 is the 3D object 1302 is displayed at a height corresponding to the eye position of the user 1304 that processes the video signal. 사용자(1304)가 영상표시장치(100)를 시청할 때, 도 9a에 도시된 바와 같이, 3D 오브젝트(1302)가 사용자(1304)를 향하여 돌출된 것처럼 보이게 된다. When the user 1304 is viewing the image display device 100, as shown in Figure 9a, 3D object 1302 is visible as protruding toward the user (1304).

도 9b에 도시된 바와 같이, 제어부(170)는 영상표시장치(100)로 명령을 입력할 수 있는 3D 오브젝트(1305)를 표시할 수 있다. , The control unit 170 as shown in Figure 9b may display the 3D objects 1305 to enter commands to the image display device 100. 도 7B에 도시된 3D 오브젝트(1305)는 영상표시장치(100)로 입력될 수 있는 명령에 대응하는 버튼이나 아이콘으로 이루어지는 팝업 윈도우일 수 있다. The 3D object 1305 shown in Fig. 7B may be a pop-up window, formed of a button or icon corresponding to the command that can be input to the image display device 100.

본 실시예에서 제어부(170)는 사용자의 손 위치에 대응하는 높이에 3D 오브젝트(1305)를 표시한다. Control unit 170 in this embodiment displays a 3D object 1305, to the height corresponding to the user's hand position. 이는 사용자가 손을 이용하여 3D 오브젝트(1305)에 표시된 버튼이나 아이콘을 선택할 수 있도록 하기 위함이다. This is to allow users to use their hands to select a button or icon displayed in the 3D object 1305. 제어부(170)는 3D 오브젝트(1305)에 표시된 버튼이나 아이콘이 선택된 것을 판별하면, 해당 버튼이나 아이콘에 대응하는 명령에 따라 영상표시장치(100)를 제어한다. Control unit 170 determines that if the button or icon displayed on the 3D object 1305 is selected, and controls the image display device 100 according to the command corresponding to the button or the icon.

제어부(170)는 사용자의 손 동작을 판별하여 3D 오브젝트(1305) 중 어떤 버튼이나 아이콘이 선택되었는지 판별할 수 있다. The controller 170 may determine whether to determine the user's hand gestures 3D object 1305 in which a button or icon is selected.

도 10은 본 발명의 제3실시예에 의한 영상표시장치의 설명에 참조되는 도이다. Figure 10 is a diagram referred to in explanation of an image display device according to a third embodiment of the present invention. 도 10에 도시된 바와 같이, 사용자는 3D 오브젝트(1305)의 소정 영역(1306)을 소정 손 동작을 통하여 선택할 수 있다. 10, the user can select a predetermined area 1306 of the 3D object 1305 through a predetermined hand gestures.

제어부(170)는 카메라(1303)를 통하여 촬영한 사용자의 손 동작이 3D 오브젝트(1305)의 소정 영역(1306) 선택명령에 대응하도록 설정된 손 동작에 해당하는지 여부를 판별한다. Control unit 170 determines whether the operation on the hand set to the hands of a user taken by the camera 1303, the operation corresponding to a predetermined area 1306 of the 3D object selection command (1305). 만일 사용자 손 동작이 설정된 손 동작에 대응하면, 제어부(170)는 카메라(1303)를 통하여 촬영된 손의 위치 등을 판별하여 사용자가 선택한 3D 오브젝트(1305)의 소정 영역(1306)을 판별할 수 있다. If the user when a hand operation corresponds to the set hand operation, the control unit 170 can determine the predetermined area 1306 of the 3D object 1305 selected by the user to determine the position of the hand photographed by the camera 1303 have.

3D 오브젝트(1305)의 소정 영역(1306)에는 영상표시장치(100)로 입력할 수 있는 명령에 대응하는 버튼이나 아이콘이 표시될 수 있다. A predetermined area 1306 of the 3D object 1305 has a button or an icon corresponding to a command that can be entered at the video display device 100 may be displayed. 제어부(170)는 사용자가 선택한 소정 영역(1306)에 표시된 버튼이나 아이콘에 대응하는 명령에 따라 영상표시장치(100)를 제어할 수 있다. Control unit 170, the user can control the image display apparatus 100 according to the command corresponding to the selected button or icon displayed in a predetermined area (1306).

사용자가 3D 오브젝트를 선택할 수 있도록 설정된 손 동작에 관한 정보는 저장부(140)에 저장될 수 있다. Information about the hand operation is set to allow the user to select the 3D object may be stored in the storage unit 140. 제어부(170)는 사용자의 손 동작을 센서부를 통해 판별하고, 판별한 손 동작이 저장부(140)에 저장된 손 동작에 대응하는지 여부를 판별한다. Control unit 170 determines whether to determine a user's hand action through the sensor portion, corresponding to the hand operation is stored in one hand determine the operation storage unit 140. 판별한 손 동작이 저장부(140)에 저장된 손 동작에 대응하면, 제어부(170)는 3D 오브젝트 선택명령이 입력된 것으로 판별할 수 있다. If the response to determine a hand operating hand operation is stored in the storage unit 140 a, the controller 170 may determine that the 3D object selection command is input.

도 11은 본 발명의 제4실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 11 is a diagram referred to in explanation of an image display device according to a fourth embodiment of the present invention. 본 실시예에서 제어부(170)는 사용자가 3D 오브젝트를 통하여 입력한 명령에 대응하도록 영상표시장치(100)를 제어할 수 있다. The control unit in the embodiment 170 may control the image display device 100 allows the user to respond to a command input via the 3D object. 본 실시예는 사용자가 입력한 명령에 대응하여 사용자의 눈 높이에 대응하도록 표시된 3D 오브젝트의 표시상태를 변경한다. This embodiment changes the display of the 3D object is displayed in response to user-entered commands so as to correspond to the user's eye level.

도 11a에 도시된 바와 같이, 날씨정보 표시명령 입력에 대응하는 이벤트가 발생하거나 날씨정보를 표시하라는 예약시간 도달 이벤트가 영상표시장치(100)에서 발생할 수 있다. As shown in Figure 11a, there is an event occurs or an event scheduled time is reached you to display the weather information corresponding to the weather information display command input may occur in the image display device 100.

이 경우, 영상표시장치(100)의 제어부(170)는 위치 센서를 통하여 사용자(1314)의 위치를 판별한다. In this case, the control unit 170 of video display device 100 via the position sensor determines the position of the user (1314). 본 실시예에서 영상표시장치(100)의 제어부(170)는 사용자(1314)와 영상표시장치(100)와 사이의 거리, 사용자의 눈 높이를 포함하는 눈 위치, 손 높이를 포함하는 손 위치에 관한 정보를 판별한다. Controller 170 of the image display apparatus 100 in this embodiment is in the eye location, hand location, including a hand height including the user 1314 and the image display device 100 and the distance, eye level between It is determined on information.

영상표시장치(100)의 제어부(170)는 사용자(1314) 눈 높이와 대응하는 높이에 날씨 정보를 나타내는 3D 오브젝트(1311)을 표시한다. Controller 170 of the image display apparatus 100 displays a 3D object 1311, showing the weather information at a height corresponding to the user 1314 at eye level. 3D 오브젝트(1311)은 날씨 정보에 대응하는 이미지로 이루어진다. 3D objects (1311) is composed of an image corresponding to the weather information. 본 실시예에서 영상표시장치(100)를 통하여 사용자(1314)에게 제공되는 날씨에 관한 정보는 흐린 날씨에 관한 정보이다. Through the image display apparatus 100 in this embodiment, information about the weather is presented to the user 1314 is the information on the cloudy weather. 따라서 사용자(1314)의 눈 높이와 대응하는 높이에 표시되는 3D 오브젝트(1311)는, 도시된 바와 같이, 구름을 입체적으로 표시한 이미지로 이루어진 3D 오브젝트이다. Therefore, a 3D object 1311 is displayed at a height corresponding to the eye level of the user 1314 is a 3D object, comprising an image display rolling in three dimensions, as shown.

또한, 영상표시장치(100)의 제어부(170)는 판별한 손 높이와 대응하는 높이에 영상표시장치(100)로 명령을 입력할 수 있는 팝업 윈도우로 이루어진 3D 오브젝트(1312)를 표시한다. Further, the control unit 170 of video display device 100 displays a 3D object 1312 consisting of a command that can be input to the image display apparatus 100 at a height corresponding to the height of the hand to determine the pop-up window. 본 실시예에서 팝업 윈도우는 날씨 정보를 제공받을 수 있는 날짜를 선택할 수 있는 명령을 영상표시장치(100)로 입력할 수 있는 팝업 윈도우이다. In this embodiment, the pop-up window is a pop-up window where you can enter commands that you can choose a date which may be provided with weather information in a video display device (100). 따라서 사용자(315)는 3D 오브젝트(1312)에 표시된 날짜 중 날씨 정보를 제공받기를 원하는 날짜를 선택할 수 있다. Therefore, the user 315 can select the date you want to receive weather information provided from the date shown on the 3D object 1312. 제어부(170)는 카메라(1313)를 통하여 촬영된 손 동작 및 손 위치를 통하여 사용자가 3D 오브젝트(1312)에 표시된 날짜 중 어떤 날짜를 선택하였는지 판별할 수 있다. Controller 170 may determine whether the user selects any date displayed in the date of the 3D object 1312 through a hand-up operation and the hand position through the camera 1313.

본 실시예에서 사용자(1314)는 Sunday에 해당하는 날짜의 날씨정보 표시명령 을 영상표시장치(100)로 입력하였다. User 1314 in this example was type a weather information display command for the date corresponding to the Sunday to the video display 100.

영상표시장치(100)의 제어부(170)는 사용자가 선택한 날짜의 날씨정보를 표시한다. Control unit 170 of video display device 100 displays the weather information of the date selected by the user. 도 9b는 도 9a에서 사용자가 선택한 명령에 대응하여 영상표시장치(100)의 제어부(170)가 표시하는 3D 오브젝트(1315)를 표시한다. Figure 9b shows the 3D object 1315, which the control unit 170 of the image display apparatus 100 displays the user corresponding to the selected command in Fig. 9a.

사용자가 날씨정보를 제공받기를 원하는 Sunday에 해당하는 날짜의 날씨는 밝은 날씨이다. Weather for the date you want to get that on Sunday the weather information provided is bright weather. 따라서 제어부(170)는 태양을 입체적으로 표시한 이미지로 이루어진 3D 오브젝트(1315)를 표시한다. Therefore, the controller 170 displays a 3D object 1315 consisting of a displayed image to a three-dimensional aspect. 제어부(170)는, 도 11b에 도시된 바와 같이, 사용자(1314)가 본인의 눈 높이와 대응하는 높이에서 3D 오브젝트(1315)를 볼 수 있도록 영상 신호를 처리한다. Control unit 170, as shown in Figure 11b, the user 1314 to process the video signal to view the 3D object 1315 at the height corresponding to the height of their eyes.

도 12은 본 발명의 제5실시예에 의한 영상표시장치의 설명에 참조되는 도이다. Figure 12 is a diagram referred to in explanation of an image display apparatus according to a fifth embodiment of the present invention. 영상표시장치(100)를 시청중인 사용자는 적어도 2명일 수 있다. Users who are watching the video display device 100 may be at least 2 myeongil. 본 실시예에서 영상표시장치(100)의 사용자는, 도시된 바와 같이, 3명(1321, 1322, 1323)이다. The user of the image display device 100 in this embodiment is a, 3 (1321, 1322, 1323), as shown.

영상표시장치(100)의 위치 센서는 영상표시장치(100)를 시청중인 사용자의 위치를 각각 센싱할 수 있다. A position sensor of the video display device 100 may each sensing the location of the user that is viewing the image display device 100. 제어부(170)는 위치 센서를 통하여 센싱된 바에 따라 영상표시장치(100)를 시청중인 사용자의 수와 각 사용자와 영상표시장치(100) 사이의 거리를 판별할 수 있다. Controller 170 may determine the distance between the image display device of the user being watched 100 with each user and the image display apparatus 100 according to the sensing bar by a position sensor.

제어부(170)는 3D 오브젝트 발생 이벤트가 발생할 경우, 위치 센서를 통하여 파악한 사용자 수에 해당하는 숫자의 3D 오브젝트를 각 사용자 앞에 표시할 수 있다. Control unit 170 if a 3D object generation event, it is possible to display a 3D object in the number corresponding to the number of users identified by a position sensor in front of each user. 제어부(170)는, 도 12a에 도시된 바와 같이, 사용자(1321, 1322, 1323)가 각 각 본인의 앞에 3D 오브젝트(1324, 1325, 1326)가 위치하는 것처럼 3D 오브젝트를 볼 수 있도록 영상 신호를 처리한다. Control unit 170, as shown in Figure 12a, the user (1321, 1322, 1323) is a video signal to view the 3D object as a 3D object (1324, 1325, 1326) located in front of each I processes.

제어부(170)는 각 사용자(1321, 1322, 1333)와 영상표시장치(100)와의 거리를 판별한다. Controller 170 determines the distance between each user (1321, 1322, 1333) and a video display device (100). 제어부(170)는 판별한 거리를 바탕으로 각 사용자 앞에 3D 오브젝트(1324, 1325, 1326)를 표시할 수 있다. The controller 170 may display the 3D object (1324, 1325, 1326) in front of each user on the basis of the determined distance.

또한, 제어부(170)는 각 사용자(1321, 1322, 1333)의 눈 높이 또는 손 높이를 판별한다. Further, the control unit 170 determines the eye level or hand height of each user (1321, 1322, 1333). 제어부(170)는 판별한 높이를 바탕으로 각 사용자 앞에 표시할 3D 오브젝트(1324, 1325, 1326)의 높이를 정할 수 있다. Control unit 170 may determine the height of the 3D object (1324, 1325, 1326) to be displayed in front of each user on the basis of the determined height.

일예로, 사용자가 영상표시장치(100)로 명령을 입력할 수 있는 버튼 또는 아이콘을 포함하는 팝업 윈도우로 이루어진 3D 오브젝트(1324, 1325)는 대응하는 사용자의 손 높이에 대응하는 높이에 표시된다. As an example, the user and the video display device 3D objects made of a pop-up window containing the button or icon that can be entered a command to 100 (1324, 1325) is displayed at the height corresponding to the hand level of the corresponding user. 이는 사용자가 편리하게 3D 오브젝트(1324, 1325)에 표시된 버튼이나 아이콘을 선택할 수 있도록 하기 위함이다. This is to allow the user to easily select a button or icon displayed in the 3D object (1324, 1325).

또한, 영상표시장치(100)에서 표시될 수 있는 정보를 나타내는 3D 오브젝트(1326)의 경우 대응하는 사용자의 눈 높이에 대응하는 높이에 표시된다. In the case of a video display device in the 3D object 1326 represents information that can be displayed at 100 is displayed at a height corresponding to the eye level of the corresponding user. 이는 사용자가 본인의 눈 앞에 3D 오브젝트가 존재하는 것처럼 3D 오브젝트(1326)를 볼 수 있도록 하기 위함이다. This is to allow the user to view the 3D object 1326 as a 3D object present in front of your eyes.

도 12b는 기준점이 적어도 2개인 경우, 기준점의 순위를 판별하고, 소정 순위를 가지는 기준점에 대응하도록 3D 오브젝트를 표시하는 예가 도시된 도이다. Figure 12b is an example of displaying a 3D object shown in some cases the reference point, at least two individual, and to determine the position of the reference point, so as to correspond to the reference point with the predetermined position.

본 실시예에서, 영상표시장치(100)는 3D 오브젝트를 표시해야 하는 이벤트가 발생하면, 기준점을 판별하기 위한 신호를 수신한다. In this embodiment, the video display device 100 when an event occurs that need to display a 3D object, and receives a signal to determine a reference point. 기준점을 판별하기 위한 신 호는 센서부를 통하여 센싱한 사용자의 위치 정보가 포함된 신호일 수 있다. Signal to determine the reference point may be a signal that includes the location information of the user sensed by a sensor. 본 실시예에서 영상표시장치(100)는 적어도 3명의 기준점의 위치를 판별할 수 있다. The image display apparatus 100 in this embodiment can determine the location of the at least three reference points.

영상표시장치(100)는 위치를 판별한 기준점과의 거리를 통하여 위치를 판별한 기준점의 우선순위를 설정할 수 있다. The video display device 100 may set the priority of a reference point to determine the position by the distance from the reference point by determining the position. 본 실시예에서 영상표시장치(100)와 가장 가까운 기준점은 1322 사용자이다. The closest reference point and the video display device 100 in this embodiment is 1322 user. 영상표시장치(100)는, 도 12에 도시된 바와 같이, 3D 오브젝트(325)가 기준점인 사용자(1322) 앞에 위치하는 것처럼 보이도록 표시한다. The video display device 100, and displays to the, 3D object 325 is located in front of the reference point appear to the user 1322 as shown in Fig.

또 다른 실시예에서, 기준점이 적어도 2개인 경우, 영상표시장치(100)는 기준점의 순위에 따라 순차적으로 3D 오브젝트를 표시할 수 있다. In yet another embodiment, if the reference point is at least 2 individual video display device 100 may display 3D objects sequentially in accordance with the position of the reference point. 즉, 제1순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시한 후, 제1순위 기준점이 사라지면 제2순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시할 수 있다. In other words, the number one disappears to display the 3D object to correspond to the position of the reference point, the first priority control point can display a 3D object, so as to correspond to the position of the secondary anchor point.

또한, 제1순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시한 후, 제1순위 기준점의 위치가 변경하면, 변경된 제1순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시할 수 있다. In addition, the first priority when to display the 3D object to correspond to the position of the reference point, the position of the first order to change the reference point, it is possible to display the 3D object is changed so as to correspond to the first location of the reference point ranking.

도 13은 본 발명의 제6실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 13 is a diagram referred to in explanation of an image display device according to a sixth embodiment of the present invention. 본 실시예에서 영상표시장치(100)는 2명의 사용자의 위치에 대응하는 3D 오브젝트를 표시한다. The video display device 100 in this embodiment displays the 3D object corresponding to the two user positions. 사용자는 본인의 앞에 위치하는 것처럼 보이는 3D 오브젝트를 통하여 영상표시장치를 개별적으로 제어할 수 있다. The user of the image display device through the 3D object appears to be positioned in front of the person can be independently controlled.

도 13a에 도시된 바와 같이, 영상표시장치(100)로 날씨정보 표시명령이 입력 되거나 날씨정보 표시 예약시간이 도달하면 제어부(170)는 날씨정보를 나타내는 3D 오브젝트를 표시해야 한다. As shown in Figure 13a, the video display device 100, when the weather information display command as input, or the weather information display scheduled time is reached the controller 170 must display the 3D object representing the weather information.

제어부(170)는 위치 센서를 통하여 사용자(1331, 1332)의 수와 각 사용자(1331, 1332)의 위치를 판별한다. Control unit 170 determines the location of each user and the number (1331, 1332) of a user (1331, 1332) via a position sensor. 제어부(170)는 판별한 각 사용자의 앞에 위치하도록 3D 오브젝트(1333, 1334, 1335, 1336)를 표시한다. Control unit 170 displays a 3D object (1333, 1334, 1335, 1336) so as to be positioned in front of each of the determined user.

도 13a에 도시된 바와 같이, 제어부(170)는 각 사용자의 눈 높이에 대응하는 높이에 날씨정보를 나타내는 이미지로 이루어진 3D 오브젝트(1333, 1335)를 표시한다. , The control unit 170 as shown in Figure 13a and displays the 3D object (1333, 1335) consisting of a image representing the weather information at a height corresponding to the eye level of each user. 또한, 제어부(170)는 각 사용자의 손 높이에 대응하는 높이에 날씨정보를 제공받기를 원하는 날짜를 선택할 수 있는 명령을 입력할 수 있는 3D 오브젝트(1334, 1336)를 표시한다. In addition, the controller 170 displays a 3D object (1334, 1336) in which you can enter commands that you can select the date you want to receive weather information provided at the height corresponding to the height of the hands of each user. 본 실시예에서 사용자가 날짜를 선택할 수 있는 명령을 입력할 수 있는 3D 오브젝트(1334, 1336)는 팝업 윈도우로 표시된다. 3D object (1334, 1336) to input a command in which the user can select a date in this embodiment is displayed as a pop-up window.

또한, 제어부(170)는 사용자가 시청하는 메인 화면을 도 11a에 도시된 바와 같이 분할하여 표시할 수 있다. Further, the control unit 170 may divide the display as described in Figure 11a the main screen shown to the user is watching. 본 실시예에서 제어부(170)는 2명의 사용자가 시청하기 편리하도록 각 사용자와 대응하는 디스플레이 영역에 날씨정보를 나타내는 영상으로 이루어진 화면(1337, 1338)을 표시한다. Control unit 170 in this embodiment displays an image consisting of indicating the weather information in the display area corresponding to each user, two users for ease of viewing screen (1337, 1338). 제1사용자(1331)에 대응하는 디스플레이 영역에는 제1화면(1337)이 표시된다. In the first one screen (1337) displays a display area corresponding to the first user (1331). 제2사용자(1332)에 대응하는 디스플레이 영역에는 제2화면(1338)이 표시된다. The second, the second screen 1338 displays an area corresponding to the user (1332) is displayed.

제2사용자(1332)는 본인의 앞에 표시된 3D 오브젝트(1336)를 통하여 날씨정보를 확인하기를 원하는 날짜를 선택할 수 있다. The second user (1332) is through a 3D object 1336 is displayed before you can select the date you want to check the weather. 사용자는 3D 오브젝트(1336) 중 날씨정보를 확인하기를 원하는 날짜를 손 동작을 통하여 선택할 수 있다. The user can select the date you want to check the weather information of the 3D object 1336 through hand gestures. 제어 부(170)는 사용자의 손 동작 또는 손 위치를 통하여 사용자가 날씨정보를 확인하기를 원하는 날짜를 판별할 수 있다. The control unit 170, the user can determine the date you want to check the weather information through the user's hand gestures or hand position.

제어부(170)는 제2사용자(1332)가 입력한 명령에 대응하도록 영상표시장치(100)를 제어하는 동작을 수행한다. The controller 170 performs an operation for controlling the image display device 100 so as to correspond to the command from the second user (1332) input. 본 실시예에서, 제어부(170)는 제2사용자(1332)가 입력한 명령에 대응하도록 영상표시장치(100)에 표시되는 3D 오브젝트 또는 화면의 표시상태를 변경한다. In this embodiment, the control unit 170 changes the display state of the 3D objects or screens displayed on the image display device 100 so as to correspond to the command from the second user (1332) input.

도 13b는 제어부(170)가 제2사용자(1332)가 입력한 명령에 대응하도록 표시상태를 변경한 3D 오브젝트(1341) 및 제2화면(1342)을 표시한다. Figure 13b indicates the control unit 170, the second user 3D object 1341 and a second screen 1342, a 1332 to change the displayed state so as to correspond to the entered commands. 본 실시예에서, 제2사용자(1332)가 날씨정보를 확인하고자 하는 날짜인 Sunday의 날씨는 밝은 날씨이다. In this embodiment, the second user 1332 with the weather in the Sunday date to check the weather information is weather light. 따라서 제어부(170)는 제2사용자(1332)의 눈 높이에 대응하는 높이에 태양을 입체적으로 표시한 이미지로 이루어진 3D 오브젝트(1341)를 표시한다. Therefore, the controller 170 displays a 3D object 1341 consisting of a displayed image to a three-dimensional aspect to the height corresponding to the eye level of the second user (1332).

또한, 제어부(170)는 밝은 날씨정보를 나타내는 영상으로 이루어진 제2화면(1342)을 제2사용자(1332)에 대응하는 디스플레이 영역에 표시한다. Further, the control unit 170 displays a display area corresponding to the second screen 1342, consisting of a light image representing the weather information to a second user (1332). 본 실시예에서 영상표시장치(100)는 각 사용자 앞에 대응하는 3D 오브젝트 또는 화면을 개별적으로 변경할 수 있다. The video display device 100 in this embodiment is capable of changing the 3D object or in front of the screen corresponding to each user individually.

날씨 정보를 표시하는 영상표시장치(100)는 유선 또는 무선을 통하여 연결된 외부 장치를 통하여 날씨 정보를 수신하고 그에 대응하도록 화면 또는 3D 오브젝트를 변경할 수 있다. The video display device for displaying weather information 100 may receive the weather information via an external device connected via a wired or wireless, and change screen or the 3D object, so as to correspond thereto.

도 14는 본 발명의 제7실시예에 의한 영상표시장치의 설명에 참조되는 도이 다. Figure 14 is a Doi referenced in the description of the video display apparatus according to the seventh embodiment of the present invention. 본 실시예와 같이 영상표시장치(100)에 게임 컨텐츠가 표시되고 있는 경우, 제어부(170)는, 도 14와 같이, 게임 관련 명령을 입력할 수 있는 3D 오브젝트가 각 사용자 앞에 위치하는 것처럼 보이도록 표시할 수 있다. If the game content is displayed on the image display device 100 as in this embodiment, the control unit 170, as shown in Figure 14, 3D objects that can be input to the game-related commands to appear as if positioned in front of each user It can be displayed.

본 실시예와 같이 자동차 경주 게임 컨텐츠가 실행되면, 영상표시장치(100)의 제어부(170)는 사용자(1351, 1352)의 위치를 위치 센서 또는 동작 센서를 통하여 판별한다. When the car racing game content is executed as in this embodiment, the control unit 170 of video display device 100 may determine the location of the user (1351, 1352) via a position sensor or a motion sensor. 본 실시예에서 영상표시장치(100)는 사용자(1351, 1352)의 키와 손 높이를 판별한다. The video display device 100 in this embodiment determines the keys and hand height of the user (1351, 1352).

영상표시장치(100)의 제어부(170)는 실행되고 있는 게임 컨텐츠 관련 명령을 입력할 수 있는 3D 오브젝트(1353, 1354)를 사용자(1351, 1352)의 각 위치에 대응하도록 표시한다. The controller 170 is the 3D object (1353, 1354) that can be executed is input to the game content-related commands in the video display 100 displays so as to correspond to each position of the user (1351, 1352). 제어부(170)는 제1사용자(1351)의 손 높이에 대응하는 높이에 제1 3D 오브젝트(1353)을 표시한다. Control unit 170 displays the first 3D object (1353) to a height corresponding to the height of a hand of the first user (1351). 또한, 제어부(170)는 제2사용자(1352)의 손 높이에 대응하는 높이에 제2 3D 오브젝트(1354)를 표시한다. Further, the control unit 170 displays the first 3D object 1354 at the height corresponding to the height of a hand of the second user (1352).

제어부(170)는 동작 센서를 통하여 각 사용자(1351, 1352)의 손 동작을 판별할 수 있다. Controller 170 may determine the hand operation of each user (1351, 1352) through a motion sensor. 본 실시예에서 각 사용자(1351, 1352) 앞에 표시되는 3D 오브젝트(1353, 1354)는 입체적으로 표시된 자동차 핸들의 이미지이다. In this embodiment, an image of a 3D object (1353, 1354) are three-dimensionally displayed as the steering wheel is displayed in front of each user (1351, 1352). 영상표시장치(100)의 제어부(170)는 동작 센서를 통하여 판별한 사용자(1351, 1352)의 손 동작에 대응하도록 영상표시장치(100)를 제어한다. The control unit of the image display apparatus 100 (170) controls the image display device 100 so as to correspond to the operation of the hand is determined by the motion sensor, the user (1351, 1352).

일예로, 제어부(170)는 사용자(1351, 1352)의 손 모양이 3D 오브젝트(1353, 1354)를 홀딩하는 모양에 대응하는지 여부를 판별한다. As an example, the controller 170 determines whether the hand of the user (1351, 1352) corresponding to the shape to hold the 3D object (1353, 1354). 사용자(1351, 1352)의 손 모양이 본인 앞에 위치하는 것처럼 보이는 3D 오브젝트(1353, 1354)를 홀딩하는 손 모양에 대응하면 제어부(170)는 사용자가 3D 오브젝트(1353, 1354)를 홀딩하였다고 판별한다. User when corresponding to the hand that holds the 3D object (1353, 1354) the controller 170 looks as if the hand located in front of their own (1351, 1352) determines hayeotdago user holds the 3D object (1353, 1354) .

또한, 제어부(170)는 사용자(1351, 1352)의 손 모양이 3D 오브젝트(1353, 1354)를 회전하는 모양에 대응하는지 여부를 판별한다. Further, the control unit 170 determines whether the hand of the user (1351, 1352) corresponding to the shape to rotate the 3D object (1353, 1354). 사용자(1351, 1352)의 손 모양이 본인 앞에 표시된 3D 오브젝트(1353, 1354)를 회전하는 손 동작에 대응하면 제어부(170)는 사용자가 3D 오브젝트(1353, 1354)를 회전하였다고 판별한다. If the user corresponding to the hand operation to rotate the 3D object (1353, 1354) the controller 170 is shown in front of the hand of the person (1351, 1352) determines hayeotdago user rotates the 3D object (1353, 1354).

즉, 본 실시예의 제어부(170)는 사용자(1351, 1352)의 손 높이, 모양 또는 동작에 따라 3D 오브젝트(1353, 1354)의 어느 영역이 선택되었는지 판별하고 그에 따라 영상표시장치(100)에 표시되는 화면(1355, 1356)을 변경할 수 있다. That is, the display of this embodiment the control unit 170 is a user image display apparatus 100 which area is selected, that the determined and accordingly of the 3D object (1353, 1354) according to the hand height, shape or operation of the (1351, 1352) that can change the display (1355, 1356).

제1사용자(1351)에 대응하는 디스플레이 영역에 표시된 제1화면(1355)는 제1사용자(1351)의 손 높이, 모양 또는 동작에 따라 변경된다. A first screen 1355 on the display area corresponding to the first user (1351) is changed according to the height of a hand, the shape or operation of the first user (1351). 즉, 제어부(170)는 제1사용자(1351)의 손 높이, 모양 또는 동작을 위치 센서 또는 동작 센서를 통하여 판별하고 그에 대응하여 3D 오브젝트(1353)의 어느 영역이 선택되었는지 여부를 판별한다. That is, the control unit 170 determines whether the first user (1351) hand height, shape, or the discrimination operation by a position sensor or a motion sensor and correspond to the selected one region of the 3D object (1353) thereto. 제어부(170)는 3D 오브젝트(1353)의 선택 영역에 대응하는 명령에 따라 제1사용자(1351)에 대응하도록 표시된 제1화면(1355)을 변경한다. The controller 170 changes the first screen 1355 is displayed so as to correspond to the first user (1351) in accordance with the instruction corresponding to the selected portion of the 3D object (1353).

제1사용자(1351)는 제1화면(1355)에 표시된 자동차(1357)가 오른쪽으로 회전하도록 제1 3D 오브젝트(1353)를 홀딩한 후 시계방향으로 회전할 수 있다. A first user (1351) may be rotated in the clockwise direction after the holding the first 3D object (1353) Car (1357) displayed on the first display 1355 to rotate to the right. 제어부(170)는 사용자의 손 동작에 대응하여 선택된 제1 3D 오브젝트(1353)의 영역이 시계방향으로 이동하면 사용자가 제1 3D 오브젝트(1353)를 홀딩한 후 시계방향으로 회전한 것으로 판별한다. Control unit 170 determines the area of ​​the 1 3D object (1353) is selected in response to the user's hand motion when moving in a clockwise direction as the user rotates clockwise and then holding the second 1 3D object (1353). 제어부(170)는 사용자의 손 동작에 대응하도록 제1화 면(1355)에 표시되고 있는 자동차(1357)의 진행방향을 변경한다. The control unit 170 changes the traveling direction of the first screen Car (1357) being displayed on the 1355 to correspond to the user's hand movements.

본 실시예에서, 영상표시장치(100)의 제어부(170)는 제1,2 사용자(1351, 1352)의 손 높이, 모양 또는 동작을 판별하고, 그에 대응하는 제1,2 3D 오브젝트(1353, 1354)의 선택 영역을 판별하고, 그에 따라 제1,2 화면(1355, 1356)의 표시상태를 개별적으로 변경할 수 있다. In this embodiment, the control unit 170 of video display device 100 and to determine the height of a hand, the shape or operation of the first and second user (1351, 1352), the first and second 3D object (1353 corresponding thereto, It determines the selection of 1354), and thereby can change the display state of the first and second screen (1355, 1356) separately.

도 15는 도 14에서 각 사용자에 대응하도록 표시된 메인 영상을 표시하는 또 다른 예를 도시한다. Figure 15 illustrates another example of displaying the main image is displayed so as to correspond to each user in FIG. 도시한 바와 같이, 영상표시장치(100)는 각 사용자(1351. 1352)의 손 동작에 따라 각 사용자(1351, 1352)에 대응하는 메인 영상(1355, 1345)의 표시상태를 변경한다. As shown, video display device 100 may change the display state of the main image (1355, 1345) corresponding to the user (1351, 1352) in accordance with the hand operation of each user (1351. 1352). 본 실시예에서 영상표시장치(100)는 영상표시장치(100)에 표시되는 메인 영상이 시청 방향에 따라 다르게 보이도록 표시할 수 있다. The video display device 100 in this embodiment, the main image displayed on the image display 100 can be displayed to look different according to the viewing direction.

즉, 제1사용자(1351)가 영상표시장치(100)를 볼 경우, 제1사용자(1351)은 제1화면(1355)을 보게 된다. That is, if a first user (1351) views the image display device 100, a first user (1351) is to see the first screen (1355). 또한, 제2사용자(1352)가 영상표시장치(100)를 볼 경우, 제2사용자(1352)는 제2화면(1356)을 보게 된다. Further, when the second user 1352 views the image display device 100, the second user 1352 sees is the second screen (1356). 제1,2화면(1355, 1356)은 제1,2화면(1355,1356)을 바라보는 사용자의 게임 진행 상황에 대응하도록 변경된다. First and second screen (1355, 1356) is changed so as to correspond to the progress of the game users watching the first and second screen (1355,1356) conditions.

도 16은 사용자의 손 동작에 대응하여 3D 오브젝트의 표시상태를 변경하는 예를 도시한다. 16 shows an example of changing the display state of the 3D objects in correspondence with the user's hand movements. 도 16a에 도시된 바와 같이, 영상표시장치(100)는 카메라(1363)를 이용하여 사용자(1364)의 위치를 판별하고, 사용자(1364)의 앞에 위치하는 것처럼 보이도록 3D 오브젝트(1361, 1362)를 표시할 수 있다. As shown in Figure 16a, the video display apparatus 100 is the 3D object (1361, 1362) to appear as if positioned in front of the user to determine the location of the (1364), the user (1364) using a camera (1363) the can be displayed.

본 실시예에서, 사용자는 3D 오브젝트(1361, 1362) 표시상태 변경명령을 손 동작을 이용하여 영상표시장치(100)로 입력할 수 있다. In this embodiment, the user may input a 3D object (1361, 1362) to change the display state to the command image display apparatus 100 by using the hand operation. 도 16a에 도시된 바와 같이, 영상표시장치(100)는 카메라(1363)를 통하여 사용자의 손 동작을 촬영한다. As shown in Figure 16a, the video display device 100 may take a hand operation of a user via a camera (1363). 영상표시장치(100)는 카메라(1363)을 통하여 촬영한 사용자(1364)의 손 동작이 3D 오브젝트(1361, 1362) 근접 표시명령에 대응하는 것으로 판별한다. The video display device 100 may determine that a hand operation of a user (1364) taken through the camera (1363) corresponding to the 3D object (1361, 1362), Close-up display command.

영상표시장치(100)는 사용자의 근접 표시명령에 따라 3D 오브젝트(1361, 1362)가 사용자에게 좀 더 가깝게 위치하는 것처럼 보이도록 영상 신호를 처리할 수 있다. The video display device 100 may process the video signal to appear to be more closely located to the user and the 3D object (1361, 1362) based on the user's display-up command. 영상표시장치(100)에서 처리된 영상 신호에 따라 사용자에게 보여지는 3D 오브젝트(1361, 1362)는 도 16b에 도시된 바와 같다. 3D object presented to the user based on the video signal processed by the video display apparatus 100 (1361, 1362) is shown in Figure 16b. 제어부(170)는 3D 오브젝트의 깊이를 포맷터(320)를 통하여 처리되는 좌안 영상 및 우안 영상의 간격을 조절하여 변경할 수 있다. Controller 170 may be changed by controlling the left-eye image and the distance of the right-eye image to be processed the depth of the 3D object by the formatter 320. 제어부(170)는 사용자 입력 명령에 대응하여 3D 오브젝트의 깊이가 변경될 수 있도록 영상 신호를 처리한다. The control unit 170 processes the video signal to allow the depth of the 3D object to change in response to a user input command.

사용자는 3D 오브젝트 관련 명령을 손 동작 등을 통하여 영상표시장치(100)로 입력할 수 있다. A user may enter a command related to a 3D object in the image display apparatus 100 through the operation such as a hand. 이 경우 영상표시장치(100)는 센서부를 통하여 사용자의 손 동작이나 사용자의 신체의 일부에 장착된 센서 수단을 통하여 사용자의 손 동작 등을 판별할 수 있다. In this case, the video display device 100 may determine the user's hand action such as through a sensor means attached to a portion of a user's hand action and a user's body by way of a sensor. 또한 사용자는 원격제어장치(200) 등을 통하여 3D 오브젝트 관련 명령을 영상표시장치(100)로 입력할 수 있다. In addition, the user can enter the 3D object-related commands via a remote control device 200 such as a video display device (100).

그리고, 본 발명에 따른 영상표시장치 및 그 동작 또는 제어방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. Then, the image display apparatus and its operation or the control process according to the invention is not specific to the composition and method of the embodiments described as above can be applied to only the embodiments, each embodiment so that various modifications may be made all of or may be a part is optionally combined in configuration.

한편, 본 발명은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. On the other hand, the invention can also be embodied as processor readable code on a recording medium on which the processor provided in the image display device can be read. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. The recording medium having processor-readable any type of recording device in which data readable by a processor storage. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. Examples of the recording medium on which a processor-readable and a ROM, RAM, CD-ROM, magnetic tapes, floppy disks, optical data storage, and it is implemented in the form of carrier waves such as data transmission through the Internet. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다. In addition, the processor-readable recording medium is distributed over network coupled computer systems so that the processor can read the code stored and executed in a distributed fashion.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다. In addition, more than the been shown and described a preferred embodiment of the invention, the invention is not limited to the embodiment of the above-described particular, technology pertaining the art without departing from the subject matter of the present invention invention claimed in the claims field in the embodiment and various modifications are possible as well as by those of ordinary skill, this modified embodiment would not restricted to individually understood from the technical spirit or prospect of the present invention.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다. 1 is an internal block diagram of a video display device in accordance with one embodiment of the present invention.

도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다. 2 is a view showing an example of an external apparatus connectable to a video display device of Figure 1;

도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이다. 3 is a view showing an example of an internal block diagram of the controller of Figure 1;

도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이다. 4 is a diagram showing the separation of the 2D image signal and a 3D image signal from the formatter of FIG.

도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이다. 5 is a view showing various formats of a 3D image is output from the formatter of FIG.

도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다. 6 is a view for explaining scaling of a 3D image is output from the formatter of FIG.

도 7은 도 1의 영상표시장치에 표시되는 영상의 일예를 도시한 도면이다. 7 is a view showing an example of a video displayed on the video display device of Figure 1;

도 8 내지 16은 본 발명의 일 실시예에 따른 영상표시장치의 설명에 참조되는 도면이다. Figures 8 to 16 are diagrams referred to in description of a video display device in accordance with one embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 * * Description of the Related Art *

100 : 영상표시장치 110 : 튜너부 100: image display device 110: tuner section

120 : 외부신호입출력부 150 : 인터페이스부 120: an external signal input and output unit 150: interface unit

170 : 제어부 180 : 디스플레이 170: control unit 180: Display

185 : 음향출력부 185: audio output unit

Claims (21)

  1. 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서, A video display device that can display a 3D object,
    기준점의 위치를 판별할 수 있는 신호를 수신하는 단계; Receiving a signal to determine the location of the reference point;
    상기 수신한 신호로부터 기준점의 위치를 판별하는 단계; Determining the position of the reference point from the received signal;
    상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 단계; Processing the 3D object image signal to correspond to the position of the determined reference point; And
    상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 단계를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법. Method of operating a video display device comprising the step of displaying the 3D object based on the processed video signal.
  2. 제1항에 있어서, According to claim 1,
    상기 수신단계에서 수신하는 신호는 상기 기준점의 위치를 센싱하는 센서에서 출력되는 신호인 것을 특징으로 하는 영상표시장치의 동작방법. Signals received at the receiving step method of operating a video display device, it characterized in that the signal output from the sensor for sensing the position of the reference point.
  3. 제1항에 있어서, According to claim 1,
    상기 기준점은 상기 영상표시장치 사용자의 신체의 일부 또는 상기 영상표시장치가 상기 기준점 위치를 판별할 수 있도록 상기 신체의 일부에 접촉(탈부착) 가능한 수단인 것을 특징으로 하는 영상표시장치의 동작방법. The reference point is method of operating a video display device, characterized in that part or the video display device of the user of the image display device body is contactable (removable) a part of said body means to determine the reference point position.
  4. 제1항에 있어서, According to claim 1,
    상기 기준점의 순위를 판별하는 단계를 더 포함하며; Further comprising the step of determining the position of the reference point;
    상기 3D 오브젝트 표시단계는 상기 위치를 판별한 기준점 중 높은 순위를 가지는 기준점의 위치에 대응하도록 상기 3D 오브젝트를 표시하는 것을 특징으로 하는 영상표시장치의 동작방법. The 3D object display step method of operating a video display device, characterized in that for displaying the 3D object to correspond to the position of a reference point having a high ranking among the reference point determines the position.
  5. 제1항에 있어서, According to claim 1,
    상기 3D 오브젝트는 상기 영상표시장치에 표시되는 영상 또는 다른 오브젝트와 깊이가 다르도록 영상 신호가 처리된 이미지인 것을 특징으로 하는 영상표시장치 동작방법. The 3D object image display apparatus method of operation which is characterized in that the image display device image or other object, and a depth of the image signal to the image displayed in the different treatment.
  6. 제1항에 있어서, According to claim 1,
    상기 3D 오브젝트는 다시점 영상으로 분리되어 제작된 영상인 것을 특징으로 하는 영상표시장치 동작방법. The 3D object image display apparatus method of operation, characterized in that the back is divided into dot image production image.
  7. 제1항에 있어서, According to claim 1,
    상기 3D 오브젝트는 소정 정보를 나타내거나 상기 영상표시장치로 명령을 입력할 수 있는 오브젝트인 것을 특징으로 하는 영상표시장치 동작방법. The 3D object image display apparatus method of operation which is characterized in that the object that can indicate the desired information or commands input to the video display device.
  8. 제7항에 있어서, The method of claim 7,
    상기 3D 오브젝트는 상기 영상표시장치에서 표시되는 컨텐츠와 관련된 명령 을 입력할 수 있는 오브젝트인 것을 특징으로 하는 영상표시장치 동작방법. The 3D object image display apparatus method of operation which is characterized in that the object can enter a command related to the content displayed in the image display device.
  9. 제1항에 있어서, According to claim 1,
    상기 기준점이 사용자인 경우; When the reference point of a user;
    상기 사용자의 제스처를 판별할 수 있는 신호를 수신하는 단계; Receiving a signal to determine the gesture of the user;
    상기 수신한 신호를 통하여 상기 사용자의 제스처를 판별하는 단계; Determining a gesture of the user through the received signal;
    상기 판별한 사용자 제스처가 상기 3D 오브젝트의 소정 영역을 선택하도록 설정된 제스처에 대응하는지 여부를 판별하는 단계; Determining whether a response to the above-described user gesture determines the set to select a predetermined area of ​​the 3D object gesture;
    상기 사용자 제스처가 상기 설정된 제스처에 대응하는 것으로 판별한 경우, 상기 선택된 소정 영역에 대응하는 명령에 따라 동작을 수행하는 단계를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법. If it is determined to correspond to the gesture, the gesture is set the user, the image display apparatus method of operation according to claim 1, further comprising the step of performing the operation according to the command corresponding to the selected predetermined region.
  10. 제9항에 있어서, 10. The method of claim 9,
    상기 사용자 제스처 판별신호 수신단계에서 수신하는 신호는 상기 사용자 제스처를 센싱하는 센서에서 출력되는 신호인 것을 특징으로 하는 영상표시장치 동작방법 Signal received from the user gesture determines the signal reception step is operating the video display device, characterized in that the signal output from the sensor for sensing the user gesture
  11. 제1항에 있어서, According to claim 1,
    3D 오브젝트 표시명령을 입력받는 단계를 더 포함하며, Further comprising: receiving a 3D object display command,
    상기 3D 오브젝트 표시명령이 입력되면 상기 기준점 위치 판별단계 및 상기 3D 오브젝트 표시단계를 수행하는 것을 특징으로 하는 영상표시장치 동작방법. If the 3D object display command is input the image display apparatus method of operation, characterized in that performing the location reference point determining step and the 3D object display step.
  12. 제1항에 있어서, According to claim 1,
    상기 기준점 위치 판별단계에서 적어도 2개의 기준점 위치를 판별한 경우, If it is determined at least two reference points located on the reference point position determination step,
    상기 3D 오브젝트 표시단계는 상기 판별한 기준점 위치에 각각 대응하는 적어도 2개의 3D 오브젝트를 표시하는 것을 특징으로 하는 영상표시장치 동작방법. The 3D object display step is a video display device in operation, characterized in that displaying the at least two 3D objects, each corresponding to a reference point to determine the position.
  13. 제12항에 있어서, 13. The method of claim 12,
    상기 제1기준점에서 출력된 명령을 판별할 수 있는 신호를 수신하는 단계; Receiving a signal to determine the command output from the first reference point;
    상기 수신한 신호에 대응하는 명령을 판별하는 단계; Determining a command corresponding to the received signal; And
    상기 판별한 명령에 대응하는 동작을 수행하는 단계; Performing an operation corresponding to a said determination command;
  14. 제12항에 있어서, 13. The method of claim 12,
    상기 기준점 중 제1기준점이 상기 영상표시장치의 제1사용자인 경우, If the first reference point of the reference point is the first user of the image display device,
    상기 제1사용자의 제스처를 판별할 수 있는 신호를 수신하는 단계; Receiving a signal to determine the gesture of the first user;
    상기 수신한 신호를 통하여 상기 제1사용자의 제스처를 판별하는 단계; Determining a gesture of the first user through the received signal;
    상기 판별한 제1사용자의 제스처가 상기 제1사용자에 대응되도록 표시한 3D 오브젝트의 소정 영역을 선택하도록 설정된 제스처에 대응하는지 여부를 판별하는 단계; Determining whether the gesture is a gesture corresponding to the set of the above-described determined first user to select a predetermined area of ​​a 3D object to be displayed corresponding to the first user;
    상기 제1사용자 제스처가 상기 설정된 제스처에 대응하는 것으로 판별한 경 우, 상기 선택된 소정 영역에 대응하는 명령에 따라 동작을 수행하는 단계를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법. Case, the image display apparatus method of operation according to claim 1, further comprising the step of performing the operation according to the command corresponding to the selected predetermined region it is determined that a gesture corresponding to the first set user gesture is the.
  15. 제14항에 있어서, 15. The method of claim 14,
    상기 제1사용자에 대응하는 화면을 상기 수행 동작에 대응하도록 변경하는 단계를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법. The image display apparatus method of operation of the screen corresponding to the first user, characterized in that said method further comprises changing so as to correspond to the performed operation.
  16. 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서, A video display device that can display a 3D object,
    기준점의 위치를 판별할 수 있는 신호를 수신하고, 상기 수신한 신호로부터 기준점의 위치를 판별하고, 상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 제어부; Receiving a signal to determine the location of the reference point, and the control unit to determine the position of the reference point from the received signal, and processing the 3D object image signal to correspond to the position of the determined reference point; And
    상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 디스플레이를 포함하는 것을 특징으로 하는 영상표시장치. On the basis of the processed video signal the video display device comprises a display for displaying the 3D object.
  17. 제16항에 있어서, 17. The method of claim 16,
    상기 기준점의 위치를 센싱하는 센서부를 더 포함하는 것을 특징으로 하는 영상표시장치. The video display device according to claim 1, further comprising a sensor for sensing the position of the reference point.
  18. 제16항에 있어서, 17. The method of claim 16,
    상기 기준점은 상기 영상표시장치 사용자의 신체의 일부 또는 상기 영상표시 장치가 상기 기준점 위치를 판별할 수 있도록 상기 신체의 일부에 탈부착 가능한 수단인 것을 특징으로 하는 영상표시장치. The reference point is a video display device, characterized in that part or the video display device of the user of the image display device body is a detachable means to a portion of the body to determine the reference point position.
  19. 제16항에 있어서, 17. The method of claim 16,
    상기 3D 오브젝트는 상기 영상표시장치에 표시되는 영상 또는 다른 오브젝트와 깊이가 다르도록 영상 신호가 처리된 이미지인 것을 특징으로 하는 영상표시장치. The 3D object is a video display device, characterized in that with a video signal to the image or other object to the depth to be displayed on the image display device different from the image processing.
  20. 제16항에 있어서, 17. The method of claim 16,
    상기 3D 오브젝트는 다시점 영상으로 분리되어 제작된 영상인 것을 특징으로 하는 영상표시장치. The 3D object is a video display device, characterized in that the back is divided into dot image production image.
  21. 제16항에 있어서, 17. The method of claim 16,
    상기 기준점이 사용자인 경우; When the reference point of a user;
    상기 제어부는 상기 사용자의 제스처를 판별할 수 있는 신호를 수신하고, The control unit receives the signal to determine the gesture of the user,
    상기 수신한 신호를 통하여 상기 사용자의 제스처를 판별하고, Determining a gesture of the user through the received signal,
    상기 판별한 사용자 제스처가 상기 3D 오브젝트의 소정 영역을 선택하도록 설정된 제스처에 대응하는지 여부를 판별하고, Determine whether the response to the above-described user gesture determines the set to select a predetermined area of ​​the 3D object, and gesture,
    상기 사용자 제스처가 상기 설정된 제스처에 대응하는 것으로 판별한 경우, 상기 선택된 소정 영역에 대응하는 명령에 따라 동작을 수행하는 것을 특징으로 하 는 영상표시장치. The user if the gesture is determined as corresponding to the gesture is set, the selected image display device and characterized in that it performs an operation according to the command corresponding to the predetermined area.
KR1020090109431A 2009-11-13 2009-11-13 Image Display Device and Operating Method for the Same KR101647722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090109431A KR101647722B1 (en) 2009-11-13 2009-11-13 Image Display Device and Operating Method for the Same

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020090109431A KR101647722B1 (en) 2009-11-13 2009-11-13 Image Display Device and Operating Method for the Same
US12/905,814 US8593510B2 (en) 2009-11-13 2010-10-15 Image display apparatus and operating method thereof
CN2010800514715A CN102598679A (en) 2009-11-13 2010-11-12 Image display apparatus and operating method thereof
EP10830193.8A EP2499834A4 (en) 2009-11-13 2010-11-12 Image display apparatus and operating method thereof
PCT/KR2010/007998 WO2011059261A2 (en) 2009-11-13 2010-11-12 Image display apparatus and operating method thereof

Publications (2)

Publication Number Publication Date
KR20110052771A true KR20110052771A (en) 2011-05-19
KR101647722B1 KR101647722B1 (en) 2016-08-23

Family

ID=43992236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090109431A KR101647722B1 (en) 2009-11-13 2009-11-13 Image Display Device and Operating Method for the Same

Country Status (5)

Country Link
US (1) US8593510B2 (en)
EP (1) EP2499834A4 (en)
KR (1) KR101647722B1 (en)
CN (1) CN102598679A (en)
WO (1) WO2011059261A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150046197A (en) * 2012-09-14 2015-04-29 엘지전자 주식회사 Method and apparatus of controlling a content on 3-dimensional display

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9113190B2 (en) 2010-06-04 2015-08-18 Microsoft Technology Licensing, Llc Controlling power levels of electronic devices through user interaction
KR101763263B1 (en) * 2010-12-24 2017-07-31 삼성전자주식회사 3d display terminal apparatus and operating method
US20120226981A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20120311503A1 (en) * 2011-06-06 2012-12-06 Microsoft Corporation Gesture to trigger application-pertinent information
US8964008B2 (en) * 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
JP5915651B2 (en) * 2011-07-04 2016-05-11 日本電気株式会社 Image processing apparatus, image processing method, and program
KR20130013248A (en) * 2011-07-27 2013-02-06 삼성전자주식회사 A 3d image playing apparatus and method for controlling 3d image of the same
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
KR101507206B1 (en) * 2012-02-13 2015-03-30 엘지디스플레이 주식회사 Flexible Display Device
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
EP2867757A4 (en) * 2012-06-30 2015-12-23 Intel Corp 3d graphical user interface
US8781237B2 (en) * 2012-08-14 2014-07-15 Sintai Optical (Shenzhen) Co., Ltd. 3D image processing methods and systems that decompose 3D image into left and right images and add information thereto
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment
KR20140063272A (en) * 2012-11-16 2014-05-27 엘지전자 주식회사 Image display apparatus and method for operating the same
CN103530061B (en) * 2013-10-31 2017-01-18 京东方科技集团股份有限公司 And a control method of a display apparatus
CN103530060B (en) * 2013-10-31 2016-06-22 京东方科技集团股份有限公司 Display apparatus and a control method, a gesture recognition method
KR20160138806A (en) * 2015-05-26 2016-12-06 엘지전자 주식회사 Glass type terminal and method for controlling the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69736622T2 (en) * 1996-07-03 2007-09-13 Hitachi, Ltd. System for motion detection
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
AUPR080600A0 (en) * 2000-10-17 2000-11-09 Aristocrat Technologies Australia Pty Limited Game feature for a gaming machine
US6950123B2 (en) * 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
DE602004006190T8 (en) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. The device, method and program for gesture recognition
US7358962B2 (en) 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
JP4449723B2 (en) * 2004-12-08 2010-04-14 ソニー株式会社 Image processing apparatus, image processing method, and program
US20070075968A1 (en) * 2005-09-30 2007-04-05 Hall Bernard J System and method for sensing the position of a pointing object
CN101379461A (en) * 2005-12-30 2009-03-04 苹果公司 Portable electronic device with multi-touch input
WO2008153599A1 (en) * 2006-12-07 2008-12-18 Adapx, Inc. Systems and methods for data annotation, recordation, and communication
US20090238378A1 (en) 2008-03-18 2009-09-24 Invism, Inc. Enhanced Immersive Soundscapes Production

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150046197A (en) * 2012-09-14 2015-04-29 엘지전자 주식회사 Method and apparatus of controlling a content on 3-dimensional display

Also Published As

Publication number Publication date
US8593510B2 (en) 2013-11-26
WO2011059261A2 (en) 2011-05-19
CN102598679A (en) 2012-07-18
KR101647722B1 (en) 2016-08-23
US20110115887A1 (en) 2011-05-19
EP2499834A4 (en) 2013-09-11
EP2499834A2 (en) 2012-09-19
WO2011059261A3 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
KR101657565B1 (en) Augmented Remote Controller and Method of Operating the Same
JP5433862B2 (en) Receiving apparatus and a display control method
US8872900B2 (en) Image display apparatus and method for operating the same
EP2446639B1 (en) Image display apparatus, 3d glasses, and method for operating the image display apparatus
KR20110118421A (en) Augmented remote controller, augmented remote controller controlling method and the system for the same
CN102163413B (en) Image display device and method for operating the same
US9544568B2 (en) Image display apparatus and method for operating the same
US9609381B2 (en) Method for playing contents
KR20120116613A (en) Image display device and method of managing contents using the same
EP2497275B1 (en) Image display apparatus, method for controlling the image display apparatus, and image display system
US9036012B2 (en) 3D viewing device, image display apparatus, and method for operating the same
US8803954B2 (en) Image display device, viewing device and methods for operating the same
US20110115880A1 (en) Image display apparatus and operating method thereof
US8896672B2 (en) Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same
KR20110069563A (en) Apparatus for displaying image and method for operating the same
KR101711828B1 (en) Image display apparatus, and method for operating the same
CN102196286B (en) Image display device and method for operating the same
EP2363802B1 (en) An electronic device and method for providing user interface thereof
US8803873B2 (en) Image display apparatus and image display method thereof
KR101735610B1 (en) Method for operating an apparatus for displaying image
US8593510B2 (en) Image display apparatus and operating method thereof
US8665321B2 (en) Image display apparatus and method for operating the same
KR20120112978A (en) Image display device and method of displaying text in the same
US20110292190A1 (en) Image display apparatus and method for operating the same
US20110227911A1 (en) Image display device and method for operating the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
GRNT Written decision to grant