KR101702967B1 - Apparatus for displaying image and method for operating the same - Google Patents

Apparatus for displaying image and method for operating the same Download PDF

Info

Publication number
KR101702967B1
KR101702967B1 KR1020100089611A KR20100089611A KR101702967B1 KR 101702967 B1 KR101702967 B1 KR 101702967B1 KR 1020100089611 A KR1020100089611 A KR 1020100089611A KR 20100089611 A KR20100089611 A KR 20100089611A KR 101702967 B1 KR101702967 B1 KR 101702967B1
Authority
KR
South Korea
Prior art keywords
image
depth
gradation
level
predetermined value
Prior art date
Application number
KR1020100089611A
Other languages
Korean (ko)
Other versions
KR20120027820A (en
Inventor
김혜림
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100089611A priority Critical patent/KR101702967B1/en
Priority to EP11007239.4A priority patent/EP2429199B1/en
Priority to US13/229,929 priority patent/US9007361B2/en
Priority to CN201110269875.8A priority patent/CN102413343B/en
Publication of KR20120027820A publication Critical patent/KR20120027820A/en
Application granted granted Critical
Publication of KR101702967B1 publication Critical patent/KR101702967B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 3D 영상을 수신하는 단계와, 3D 영상의 평균 화상 레벨을 연산하는 단계와, 연산된 평균 화상 레벨에 따라, 3D 영상의 깊이를 가변하는 단계를 포함한다. 이에 의해, 크로스 토크를 저감할 수 있게 된다.The present invention relates to an image display apparatus and an operation method thereof. A method of operating an image display apparatus according to an embodiment of the present invention includes receiving a 3D image, calculating an average image level of the 3D image, and varying the depth of the 3D image according to the calculated average image level . Thereby, the crosstalk can be reduced.

Description

영상표시장치 및 그 동작방법{Apparatus for displaying image and method for operating the same}TECHNICAL FIELD [0001] The present invention relates to an image display apparatus and a method of operating the same,

본 발명은 영상표시장치 그 동작방법에 관한 것이며, 더욱 상세하게는 크로스 토크를 저감할 수 있는 영상표시장치 또는 영상표시방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display apparatus, and more particularly, to an image display apparatus or image display method capable of reducing crosstalk.

영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. A video display device is a device having a function of displaying an image that a user can view. The user can view the broadcast through the video display device. A video display device displays a broadcast selected by a user among broadcast signals transmitted from a broadcast station on a display. Currently, broadcasting is changing from analog broadcasting to digital broadcasting around the world.

디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다. Digital broadcasting refers to broadcasting in which digital video and audio signals are transmitted. Compared to analog broadcasting, digital broadcasting is strong against external noise and has a small data loss, is advantageous for error correction, has a high resolution, and provides a clear screen. Also, unlike analog broadcasting, digital broadcasting is capable of bidirectional service.

또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. In addition, various studies on stereoscopic images have been conducted recently, and stereoscopic image technology has become more common and practical in various other environments and technologies as well as computer graphics.

본 발명의 목적은, 크로스 토크를 저감할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.It is an object of the present invention to provide an image display apparatus and an operation method thereof capable of reducing crosstalk.

또한, 본 발명의 다른 목적은, 3D 영상 또는 2D 영상에 따라 계조를 가변할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.It is another object of the present invention to provide an image display apparatus and an operation method thereof capable of varying gradation according to a 3D image or a 2D image.

또한, 본 발명의 다른 목적은, 온도에 따라 계조를 가변할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.It is another object of the present invention to provide an image display apparatus and a method of operating the same that can change the gradation according to the temperature.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은, 3D 영상을 수신하는 단계와, 3D 영상의 평균 화상 레벨을 연산하는 단계와, 연산된 평균 화상 레벨에 따라, 3D 영상의 깊이를 가변하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of operating a video display device, the method comprising: receiving a 3D image; calculating an average image level of the 3D image; And varying the depth of the image.

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은, 3D 영상을 수신하는 단계와, 3D 영상의 평균 화상 레벨을 연산하는 단계와, 연산된 평균 화상 레벨에 따라, 3D 영상의 깊이를 가변하는 단계와, 깊이 가변된 3D 영상의 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 현재 프레임 영상의 계조를 가변하는 단계와, 계조 가변된 현재 프레임 영상을 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating a video display device, the method comprising: receiving a 3D image; computing an average image level of the 3D image; Varying the depth of the 3D image, varying the gradation of the current frame image according to the gradation difference between the current frame image of the depth-varied 3D image and the previous frame image, and displaying the gradation- .

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 입력되는 3D 영상의 평균 화상 레벨을 연산하는 평균 화상 레벨 연산부와, 연산된 평균 화상 레벨에 따라, 3D 영상의 깊이를 가변하는 포맷터와, 깊이 가변된 3D 영상을 표시하는 디스플레이를 포함한다.According to another aspect of the present invention, there is provided an image display apparatus including: an average image level calculator for calculating an average image level of an input 3D image; A variable formatter, and a display for displaying a 3D image with a variable depth.

본 발명의 실시예에 따르면, 3D 영상의 APL에 따라, 깊이를 가변함으로써, 크로스 토크를 저감할 수 있다.According to the embodiment of the present invention, crosstalk can be reduced by varying the depth according to the APL of the 3D image.

또한, 오버 드라이빙을 이용함으로써, 계조를 적응적으로 가변할 수 있게 되며, 블러링을 방지할 수 있게 된다.Further, by using the overdriving, the gradation can be adaptively changed, and blurring can be prevented.

한편, 영상표시장치가 홀드 타입의 액정 패널을 사용하는 경우, 3D 영상 표시시, 프레임 레이트를 증가시켜, 좌안 영상 프레임과 우안 영상 프레임을 교호하게 정렬시킴으로써, 크로스 토크를 저감할 수 있게 된다.On the other hand, when the image display apparatus uses a hold-type liquid crystal panel, the crosstalk can be reduced by increasing the frame rate and aligning the left eye image frame and the right eye image frame alternately in 3D image display.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2는 도 1의 전원공급부와 디스플레이의 내부의 일예를 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 계조 가변부를 예시하는 도면이다.
도 4는 도 1의 제어부의 내부 블록도이다.
도 5는 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 6은 도 5의 포맷에 따라 3D 시청장치의 동작을 보여주는 도면이다.
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이다.
도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다.
도 10 내지 도 22는 도 9의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
1 is an internal block diagram of an image display apparatus according to an embodiment of the present invention.
FIG. 2 is a view showing an example of the inside of the power supply unit and the display of FIG. 1. FIG.
3 is a diagram illustrating a gradation level varying unit according to an embodiment of the present invention.
4 is an internal block diagram of the control unit of FIG.
5 is a view showing various formats of a 3D image.
FIG. 6 is a diagram illustrating the operation of the 3D viewing apparatus according to the format of FIG.
Fig. 7 is a view for explaining how images are formed by the left eye image and the right eye image.
8 is a view for explaining the depth of the 3D image according to the interval between the left eye image and the right eye image.
9 is a flowchart illustrating an operation method of an image display apparatus according to an embodiment of the present invention.
FIGS. 10 to 22 are views referred to explain various examples of the operation method of the video display device of FIG.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다. 1 is an internal block diagram of an image display apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 디스플레이(180), 오디오 출력부(185), 전원공급부(190), 및 3D 시청장치(195)를 포함할 수 있다.1, an image display apparatus 100 according to an exemplary embodiment of the present invention includes a tuner 110, a demodulator 120, an external device interface 130, a network interface 135, A user input interface unit 150, a control unit 170, a display 180, an audio output unit 185, a power supply unit 190, and a 3D viewing device 195.

튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner 110 selects a channel selected by the user or an RF broadcast signal corresponding to all previously stored channels among RF (Radio Frequency) broadcast signals received through the antenna. Also, the selected RF broadcast signal is converted into an intermediate frequency signal, a baseband image, or a voice signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the tuner 110 can process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal (CVBS / SIF) output from the tuner 110 can be directly input to the controller 170.

또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. Also, the tuner 110 can receive RF carrier signals of a single carrier according to an Advanced Television System Committee (ATSC) scheme or RF carriers of a plurality of carriers according to a DVB (Digital Video Broadcasting) scheme.

한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. In the present invention, the tuner 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna, and outputs the selected RF broadcast signals as an intermediate frequency signal, a baseband image, or a voice signal Can be converted.

복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.For example, when the digital IF signal output from the tuner 110 is the ATSC scheme, the demodulator 120 performs an 8-VSB (8-Vestigal Side Band) demodulation. Also, the demodulation unit 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, and a reed solomon decoder to perform trellis decoding, deinterleaving, Solomon decoding can be performed.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the tuner 110 is a DVB scheme, the demodulator 120 performs COFDMA (Coded Orthogonal Frequency Division Modulation) demodulation. Also, the demodulation unit 120 may perform channel decoding. For this, the demodulator 120 may include a convolution decoder, a deinterleaver, and a reed-solomon decoder to perform convolutional decoding, deinterleaving, and reed solomon decoding.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. At this time, the stream signal may be a signal in which a video signal, a voice signal, or a data signal is multiplexed. For example, the stream signal may be an MPEG-2 TS (Transport Stream) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, or the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.Meanwhile, the demodulating unit 120 may be separately provided according to the ATSC scheme and the DVB scheme. That is, it can be provided as an ATSC demodulation unit and a DVB demodulation unit.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the demodulation unit 120 may be input to the controller 170. The control unit 170 performs demultiplexing, video / audio signal processing, and the like, and then outputs an image to the display 180 and outputs audio to the audio output unit 185.

외부장치 인터페이스부(130)는 외부 장치와 영상표시장치(100)를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 can connect the external device and the video display device 100. [ To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 can be connected to an external device such as a DVD (Digital Versatile Disk), a Blu ray, a game device, a camera, a camcorder, a computer (notebook) The external device interface unit 130 transmits external video, audio or data signals to the controller 170 of the video display device 100 through the connected external device. Also, the control unit 170 can output the processed video, audio, or data signal to the connected external device. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. The A / V input / output unit includes a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), a DVI (Digital Visual Interface) terminal, an HDMI (High Definition Multimedia Interface) terminal, an RGB terminal, a D-SUB terminal, and the like.

무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. The wireless communication unit can perform short-range wireless communication with other electronic devices. The video display device 100 is connected to other electronic devices in accordance with communication standards such as Bluetooth, Radio Frequency Identification (RFID), IrDA (Infrared Data Association), UWB (Ultra Wideband), ZigBee, Can be connected.

또한, 외부장치 인터페이스부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. Also, the external device interface unit 130 may be connected to various set-top boxes via at least one of the various terminals described above to perform input / output operations with the set-top box.

한편, 외부장치 인터페이스부(130)는, 3D 시청장치(195)와 데이터를 송수신할 수 있다. On the other hand, the external device interface unit 130 can transmit and receive data to and from the 3D viewing device 195.

네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(135)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. The network interface unit 135 provides an interface for connecting the video display device 100 to a wired / wireless network including the Internet network. The network interface unit 135 may include an Ethernet terminal and the like for connection with a wired network and may be a WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless) broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access) communication standards.

네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. The network interface unit 135 can receive, via the network, contents or data provided by the Internet or a content provider or a network operator. That is, it can receive contents such as movies, advertisements, games, VOD, broadcasting signals, and the like, provided from a contents provider through a network. In addition, the update information and the update file of the firmware provided by the network operator can be received. It may also transmit data to the Internet or a content provider or network operator.

또한, 네트워크 인터페이스부(135)는, 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다.The network interface unit 135 is connected to, for example, an IP (Internet Protocol) TV and receives the processed video, audio or data signals from the settop box for IPTV to enable bidirectional communication, And can transmit the signals processed by the controller 170 to the IPTV set-top box.

한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.Meanwhile, the IPTV may include ADSL-TV, VDSL-TV, FTTH-TV and the like depending on the type of the transmission network. The IPTV may include a TV over DSL, a video over DSL, a TV over IP BTV), and the like. In addition, IPTV may also mean an Internet TV capable of accessing the Internet, or a full browsing TV.

저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage unit 140 may store a program for each signal processing and control in the control unit 170 or may store the processed video, audio, or data signals.

또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage unit 140 may perform a function for temporarily storing video, audio, or data signals input to the external device interface unit 130. [ In addition, the storage unit 140 may store information on a predetermined broadcast channel through a channel memory function such as a channel map.

저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.The storage unit 140 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) RAM, ROM (EEPROM, etc.), and the like. The image display apparatus 100 can reproduce files (moving picture files, still picture files, music files, document files, etc.) stored in the storage unit 140 and provide them to users.

도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다. 1 shows an embodiment in which the storage unit 140 is provided separately from the control unit 170, the scope of the present invention is not limited thereto. The storage unit 140 may be included in the controller 170.

사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.

예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. For example, the user input interface unit 150 may be configured to turn on / off the power, select the channel, and display the screen from the remote control device 200 according to various communication methods such as a radio frequency (RF) communication method and an infrared Or transmit a signal from the control unit 170 to the remote control device 200. The remote control device 200 may be connected to the remote control device 200 via a network.

또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다.For example, the user input interface unit 150 may transmit a user input signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.

또한, 예를 들어, 사용자입력 인터페이스부(150)는, 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. For example, the user input interface unit 150 may transmit a user input signal input from a sensing unit (not shown) that senses the gesture of the user to the control unit 170 or a signal from the control unit 170 (Not shown). Here, the sensing unit (not shown) may include a touch sensor, an audio sensor, a position sensor, an operation sensor, and the like.

제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The control unit 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner 110 or the demodulation unit 120 or the external device interface unit 130 to generate a signal for video or audio output Can be generated and output.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The video signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the video signal. Also, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The audio signal processed by the control unit 170 may be output to the audio output unit 185 as an audio signal. The audio signal processed by the controller 170 may be input to the external output device through the external device interface unit 130. [

도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 4를 참조하여 후술한다.Although not shown in FIG. 1, the controller 170 may include a demultiplexer, an image processor, and the like. This will be described later with reference to FIG.

그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the control unit 170 can control the overall operation in the video display device 100. [ For example, the controller 170 controls the tuner 110 to control the tuner 110 to select an RF broadcast corresponding to a channel selected by the user or a previously stored channel.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the controller 170 may control the image display apparatus 100 according to a user command or an internal program input through the user input interface unit 150.

예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다. For example, the controller 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 150. Then, video, audio, or data signals of the selected channel are processed. The control unit 170 may output the video or audio signal processed by the user through the display 180 or the audio output unit 185 together with the channel information selected by the user.

다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(130)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 디스플레이(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다. The control unit 170 may be connected to the external device interface unit 130 through an external device such as a camera or a camcorder through the external device interface unit 130 in accordance with the external device video playback command received through the user input interface unit 150. [ So that the video signal or the audio signal of the display unit 180 or the audio output unit 185 can be outputted.

한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(130)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(135)를 통해 입력되는 영상 또는 저장부(140)에 저장된 영상을 디스플레이(180)에 표시하도록 제어할 수 있다. Meanwhile, the control unit 170 may control the display 180 to display an image. For example, the broadcast image input through the tuner 110, the external input image input through the external device interface unit 130, the image input through the network interface unit 135, or the image stored in the storage unit 140 To be displayed on the display 180 can be controlled.

이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.At this time, the image displayed on the display 180 may be a still image or a moving image, and may be a 2D image or a 3D image.

한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 한다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. On the other hand, the controller 170 generates a 3D object for a predetermined object among the images displayed on the display 180, and displays the 3D object. For example, the object may be at least one of a connected web screen (newspaper, magazine, etc.), EPG (Electronic Program Guide), various menus, widgets, icons, still images, moving images, and text.

이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. Such a 3D object may be processed to have a different depth than the image displayed on the display 180. [ Preferably, the 3D object may be processed to be projected relative to the image displayed on the display 180.

한편, 제어부(170)는, 촬영부(미도시)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식한다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 영상표시장치(100) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.On the other hand, the control unit 170 recognizes the position of the user based on the image photographed from the photographing unit (not shown). For example, the distance (z-axis coordinate) between the user and the image display apparatus 100 can be grasped. In addition, the x-axis coordinate and the y-axis coordinate in the video display device 100 corresponding to the user position can be grasped.

한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. 이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다.Although not shown in the drawing, a channel browsing processing unit for generating a channel signal or a thumbnail image corresponding to an external input signal may be further provided. The channel browsing processing unit receives the stream signal TS output from the demodulation unit 120 or the stream signal output from the external device interface unit 130 and extracts an image from an input stream signal to generate a thumbnail image . The generated thumbnail image may be directly or encoded and input to the controller 170. In addition, the generated thumbnail image may be encoded in a stream format and input to the controller 170. The control unit 170 may display a thumbnail list having a plurality of thumbnail images on the display 180 using the input thumbnail image. At this time, the thumbnail list may be displayed in a simple view mode displayed on a partial area in a state where a predetermined image is displayed on the display 180, or in a full viewing mode displayed in most areas of the display 180.

디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The display 180 converts a video signal, a data signal, an OSD signal, a control signal processed by the control unit 170, a video signal, a data signal, a control signal, and the like received from the external device interface unit 130, .

디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다. The display 180 may be a PDP, an LCD, an OLED, a flexible display, or the like. In particular, according to an embodiment of the present invention, a three-dimensional display (3D display) is preferable.

3차원 영상 시청을 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.The display 180 for viewing three-dimensional images can be divided into an additional display method and a single display method.

단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. The single display method can realize a 3D image by the display 180 alone without a separate additional display, for example, glasses or the like. For example, various methods such as a lenticular method, a parallax barrier, Can be applied.

한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 추가 디스플레이를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 한편, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.Meanwhile, the additional display method can implement a 3D image using an additional display in addition to the display 180. For example, various methods such as a head mount display (HMD) type and a glasses type can be applied. In addition, the glasses type can be further divided into a passive type such as a polarizing glasses type and an active type such as a shutter glass type. On the other hand, head-mounted display type can be divided into a passive type and an active type.

본 발명의 실시예에서는, 3D 영상 시청을 위해, 3D 시청장치(195)가 구비된다. 3D 시청장치(195)는, 상술한 다양한 타입 중 액티브 방식의 추가 디스플레이인 것으로 한다. 이하에서는 셔터 글래스인 것을 중심으로 기술한다. In the embodiment of the present invention, a 3D viewing apparatus 195 is provided for viewing 3D images. It is assumed that the 3D viewing device 195 is an additional display of the active type among various types described above. Hereinafter, the shutter glass will be mainly described.

한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.Meanwhile, the display 180 may be configured as a touch screen and used as an input device in addition to the output device.

오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.The audio output unit 185 receives a signal processed by the control unit 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs it as a voice. The voice output unit 185 may be implemented by various types of speakers.

한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시장치(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(150)를 통해 제어부(170)로 전달된다. In order to detect a user's gesture, a sensing unit (not shown) having at least one of a touch sensor, a voice sensor, a position sensor, and an operation sensor may be further provided in the image display apparatus 100 have. A signal sensed by a sensing unit (not shown) is transmitted to the controller 170 through the user input interface unit 150.

제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다. The control unit 170 can sense the gesture of the user by combining the images captured from the photographing unit (not shown) or the sensed signals from the sensing unit (not shown), respectively.

전원 공급부(190)는, 영상표시장치(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이(180), 및 오디오 출력을 위한 오디오 출력부(185)에 전원을 공급할 수 있다. The power supply unit 190 supplies power to the entire image display apparatus 100. Particularly, it is possible to supply power to a control unit 170 that can be implemented in the form of a system on chip (SOC), a display 180 for displaying an image, and an audio output unit 185 for audio output have.

원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.The remote control apparatus 200 transmits the user input to the user input interface unit 150. [ To this end, the remote control apparatus 200 can use Bluetooth, RF (radio frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee, or the like. Also, the remote control apparatus 200 can receive the video, audio, or data signal output from the user input interface unit 150 and display it or output it by the remote control apparatus 200.

상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.The video display apparatus 100 described above can be applied to a digital broadcasting of ATSC system (8-VSB system), digital broadcasting of DVB-T system (COFDM system), digital broadcasting of ISDB-T system (BST-OFDM system) And a digital broadcasting receiver capable of receiving at least one of the digital broadcasting signals. In addition, as a portable type, digital terrestrial DMB broadcasting, satellite DMB broadcasting, ATSC-M / H broadcasting, DVB-H broadcasting (COFDM broadcasting), MediaFoward Link Only And a digital broadcasting receiver capable of receiving at least one of digital broadcasting and the like. It may also be a digital broadcast receiver for cable, satellite communications, or IPTV.

한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.Meanwhile, the video display device described in the present specification can be applied to a TV set, a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) .

한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagram of the image display apparatus 100 shown in FIG. 1 is a block diagram for an embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specifications of the image display apparatus 100 actually implemented. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.

이하에서는, 본 발명의 실시에의 영상표시장치(100)는 3차원 디스플레이가 가능한 것으로 하며, 또한, 별도의 백라이트 유닛이 필요한 액정 표시 패널(LCD 패널) 기반의 디스플레이인 것을 중심으로 기술한다. Hereinafter, the image display apparatus 100 according to the embodiment of the present invention will be described mainly focusing on a liquid crystal display panel (LCD panel) -based display that is capable of three-dimensional display and requires a separate backlight unit.

도 2는 도 1의 전원공급부와 디스플레이의 내부의 일예를 도시한 도면이다.FIG. 2 is a view showing an example of the inside of the power supply unit and the display of FIG. 1. FIG.

도면을 참조하면, 액정 표시 패널(LCD 패널) 기반의 디스플레이(180)는, 액정패널(210), 구동회로부(230), 백라이트 유닛(250)를 포함한다.A display 180 based on a liquid crystal display panel (LCD panel) includes a liquid crystal panel 210, a driving circuit unit 230, and a backlight unit 250.

액정패널(210)은, 영상을 표시하기 위해, 다수개의 게이트라인(GL) 및 데이터라인(DL)이 매트릭스 형태로 교차하여 배치되고, 교차하는 영역에 박막 트랜지스터 및 이와 접속되는 화소 전극이 형성되는 제1 기판과, 공통 전극이 구비되는 제2 기판과, 제1 기판과 제2 기판 사이에 형성되는 액정층을 포함한다. The liquid crystal panel 210 includes a plurality of gate lines GL and data lines DL arranged in a matrix in order to display an image and a thin film transistor and a pixel electrode connected thereto are formed in an intersecting region A second substrate provided with a common electrode, and a liquid crystal layer formed between the first substrate and the second substrate.

구동 회로부(230)는, 도 1의 제어부(170)로부터 공급되는 제어신호 및 데이터신호를 통해 액정 패널(210)을 구동한다. 이를 위해, 구동 회로부(230)는, 타이밍 컨트롤러(232), 게이트 드라이버(234), 데이터 드라이버(236)를 포함한다.The driving circuit unit 230 drives the liquid crystal panel 210 through a control signal and a data signal supplied from the control unit 170 shown in Fig. To this end, the driving circuit unit 230 includes a timing controller 232, a gate driver 234, and a data driver 236.

타이밍 컨트롤러(232)는, 제어부(170)로부터의 제어 신호 및 R,G,B 데이터 신호, 수직동기신호(Vsync) 등을 입력받아, 제어 신호에 대응하여 게이트 드라이버(234)와 데이터 드라이버(236)를 제어하고, R,G,B 데이터 신호를 재배치하여, 데이터 드라이브(236)에 제공한다.The timing controller 232 receives the control signal from the controller 170 and the R, G, and B data signals and the vertical synchronization signal Vsync and outputs a control signal to the gate driver 234 and the data driver 236 ), Rearranges the R, G, and B data signals, and provides the R, G, and B data signals to the data drive 236.

한편, 타이밍 컨트롤러(232)는, 입력되는 영상의 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 현재 프레임 영상의 계조를 가변하는 계조 가변부(300)를 구비할 수 있다. 예를 들어, 현재 프레임 영상의 R,G,B 데이터 신호의 계조와, 이전 프레임 영상의 R,G,B 데이터 신호의 계조 차이에 따라, 현재 프레임 영상의 R,G,B 데이터 신호의 계조를 가변할 수 있다. 이에 대해서는 도 3 등을 참조하여 후술한다.Meanwhile, the timing controller 232 may include a gradation changing unit 300 for changing the gradation of the current frame image according to the gradation difference between the current frame image of the input image and the previous frame image. For example, the gradation of the R, G and B data signals of the current frame image and the gradation of the R, G and B data signals of the previous frame image are used as the gradation of the R, Can be varied. This will be described later with reference to FIG. 3 and the like.

한편, 게이트 드라이버(234)와 데이터 드라이버(236), 타이밍 컨트롤러(232)의 제어에 따라, 게이트 라인(GL) 및 데이터 라인(DL)을 통해 주사 신호 및 영상 신호를 액정 패널(210)에 공급한다.The scanning signal and the video signal are supplied to the liquid crystal panel 210 through the gate line GL and the data line DL under the control of the gate driver 234, the data driver 236 and the timing controller 232 do.

백라이트 유닛(250)은, 액정 패널(210)에 빛을 공급한다. 이를 위해, 백라이트 유닛(250)은, 광원인 다수개의 백라이트 램프(252)와, 백라이트 램프(252)의 스캐닝 구동을 제어하는 스캔 구동부(254)와, 백라이트 램프(252)를 온(On)/오프(Off)하는 램프 구동부(256)를 포함할 수 있다. The backlight unit 250 supplies light to the liquid crystal panel 210. To this end, the backlight unit 250 includes a plurality of backlight lamps 252 as a light source, a scan driver 254 for controlling the scanning drive of the backlight lamp 252, And a ramp driver 256 which is turned off.

다수의 백라이트 램프(미도시)가 턴 온되면, 램프로부터의 광을 확산시키는 확산판(미도시), 광을 반사시키는 반사판(미도시), 광을 편광, 점광, 확산시키는 광학 시트(미도시) 등에 의해, 액정패널(210)의 전면에 광이 조사되게 된다. When a plurality of backlight lamps (not shown) are turned on, a diffusion plate (not shown) for diffusing light from the lamp, a reflection plate (not shown) for reflecting light, an optical sheet for polarizing, Or the like, light is irradiated onto the entire surface of the liquid crystal panel 210.

다수의 백라이트 램프(미도시)는, 액정패널(210)의 배면에 배치되며, 특히, 순차적으로 배치될 수 있다. 이를 직하형 타입 이라 한다. 한편, 다수의 백라이트 램프(미도시)는, 액정패널(210)의 배면에, 특히, 액정패널(210)의 상측, 및 하측에 배치될 수도 있다. 이를 에지 타입(edge type) 이라 한다.A plurality of backlight lamps (not shown) may be disposed on the back surface of the liquid crystal panel 210, in particular, sequentially. This is called direct type. On the other hand, a plurality of backlight lamps (not shown) may be disposed on the back surface of the liquid crystal panel 210, particularly above and below the liquid crystal panel 210. This is called an edge type.

한편, 다수의 백라이트 램프(미도시)는, 동시에 턴 온되거나, 블록별로 순차 구동이 가능하다. 또한, 다수의 백라이트 램프들(미도시)은, LED((light emitting diode) 타입의 백라이트 램프일 수 있다.On the other hand, a plurality of backlight lamps (not shown) can be simultaneously turned on or sequentially driven on a block-by-block basis. Also, a plurality of backlight lamps (not shown) may be a backlight lamp of the LED (light emitting diode) type.

액정패널(210)의 화소전극과 공통전극 사이에 형성되는 전계에 의해 액정층의 광 투과율이 조절된 상태에서, 백라이트 유닛(250)으로부터 출사된 빛을 이용하여 소정 영상을 표시한다. A predetermined image is displayed using the light emitted from the backlight unit 250 in a state in which the light transmittance of the liquid crystal layer is adjusted by the electric field formed between the pixel electrode of the liquid crystal panel 210 and the common electrode.

전원공급부(190)는, 액정패널(210)에 공통전극 전압(Vcom)을 공급하며, 데이터 드라이버(236)에 감마전압을 공급할 수 있다. 또한, 백라이트 유닛(250)에 백라이트 램프(252)를 구동하기 위한 구동 전원을 공급한다.The power supply unit 190 supplies the common electrode voltage Vcom to the liquid crystal panel 210 and supplies the gamma voltage to the data driver 236. [ Further, a driving power source for driving the backlight lamp 252 is supplied to the backlight unit 250.

도 3은 본 발명의 실시예에 따른 계조 가변부를 예시하는 도면이다.3 is a diagram illustrating a gradation level varying unit according to an embodiment of the present invention.

도면을 참조하여 설명하면, 본 발명의 실시예에 따른 계조 가변부(300)는, 타이밍 컨트롤러(232) 내에 구비될 수 있으나, 이에 한정되지 않고, 타이밍 컨트롤러(232) 전단에 구비될 수도 있다. 이하에서는 타이밍 컨트롤러(232) 내에 구비되는 것을 전제로 기술한다.The gray scale controller 300 according to the embodiment of the present invention may be provided in the timing controller 232 but is not limited thereto and may be provided in front of the timing controller 232. [ In the following description, it is assumed that the timing controller 232 is provided.

계조 가변부(300)는, 입력되는 영상의 계조를 가변한다. 이를 위하여, 계조 가변부(300)는, 룩업 테이블(310), 프레임 버퍼(320), 및 계조 설정부(330)를 포함한다.The gradation level varying unit 300 varies the gradation of the input image. To this end, the gray level varying section 300 includes a lookup table 310, a frame buffer 320, and a gray level setting section 330.

룩업 테이블(310)은, 현재 프레임 영상의 계조와 이전 프레임 영상의 계조에 기초하여 설정된 계조(OD data)를 저장한다. 예를 들어, 현재 프레임 영상의 계조와 이전 프레임 영상의 계조가 동일한 경우, 설정된 계조도 동일한 계조의 레벨을 갖는다. 다른 예로, 현재 프레임 영상의 계조가 이전 프레임 영상의 계조 보다 더 큰 경우, 설정된 계조는 현재 프레임 영상의 계조 보다 더 클 수 있다. 이에 대해서는 도 19를 참조하여 후술한다.The lookup table 310 stores the set gradation (OD data) based on the gradation of the current frame image and the gradation of the previous frame image. For example, if the gradation of the current frame image and the gradation of the previous frame image are the same, the set gradation also has the same gradation level. As another example, when the gray level of the current frame image is larger than the gray level of the previous frame image, the set gray level may be larger than the gray level of the current frame image. This will be described later with reference to FIG.

한편, 룩업 테이블(310) 내의 설정된 계조(OD data)는, 제어부(170) 또는 저장부(140)에 별도로 저장된 설정 계조가, 제어부(170) 또는 저장부(140)로부터 전송되어, 계조 가변부(300) 내의 룩업 테이블(310)에 수신된 것일 수 있다.The set gradation stored separately in the control unit 170 or the storage unit 140 is transferred from the control unit 170 or the storage unit 140 to the gradation variable unit May be received in look-up table 310 in mobile station 300.

한편, 룩업 테이블(310) 내의 설정 계조 데이터(LUT)는 계조 설정부에 입력되어, 계조 설정시 활용될 수 있다.On the other hand, the setting gradation data (LUT) in the lookup table 310 is input to the gradation setting section and can be utilized in gradation setting.

프레임 버퍼(320)는 제어부(170)에서 수신되는 현재 프레임 영상(frame_c)을 저장한다. 또한, 이전 프레임 영상(frame_b)도 저장한다. 그리고, 프레임 버퍼(320)는, 계조 설정부(330)로 이전 프레임 영상(frame_b)을 제공한다. The frame buffer 320 stores the current frame image frame_c received from the controller 170. [ It also stores the previous frame image frame_b. The frame buffer 320 provides the previous frame image frame_b to the gray-level setting unit 330.

예를 들어, 입력 영상이 3D 영상인 경우, 프레임 버퍼(320)는, 제어부(170) 내의 포맷터(460)에서 정렬된 좌안 영상과 우안 영상을 각각 저장할 수 있다.For example, when the input image is a 3D image, the frame buffer 320 may store the left eye image and the right eye image sorted by the formatter 460 in the controller 170, respectively.

계조 설정부(330)는, 현재 프레임 영상(frame_c), 이전 프레임 영상(frame_b), 및 룩업 테이블(310) 내의 설정 계조 데이터(LUT)를 이용하여, 현재 프레임 영상의 계조를 가변할 수 있다.The gradation setting unit 330 can vary the gradation of the current frame image using the current frame image frame_c, the previous frame image frame_b, and the setting gradation data LUT in the lookup table 310. [

한편, 계조 설정부(330)는, 현재 프레임 영상(frame_c)의 프레임 레이트에 따라, 현재 프레임 영상의 계조를 다르게 가변할 수 있다. 예를 들어, 현재 프레임 영상(frame_c)이 프레임 레이트가 증가할수록, 가변된 계조의 계조 변화량의 크기가 더 클 수 있다. On the other hand, the gray-level setting unit 330 may vary the gray level of the current frame image according to the frame rate of the current frame image frame_c. For example, the larger the frame rate of the current frame image (frame_c), the greater the magnitude of the gradation change amount of the variable gradation.

한편, 계조 설정부(330)는, 영상표시장치(100) 내의 온도 또는 주변의 온도에 따라, 현재 프레임 영상의 계조를 다르게 가변할 수 있다. 예를 들어, 온도가 낮을수록 가변된 계조의 계조 변화량의 크기가 더 클 수 있다. On the other hand, the gray-level setting unit 330 may vary the gray level of the current frame image according to the temperature in the image display apparatus 100 or the surrounding temperature. For example, the lower the temperature, the greater the magnitude of the gradation variation in the gradation that is varied.

한편, 가변된 계조를 갖는 현재 프레임 영상(frame_v)은, 타이밍 컨트롤러(232) 내에서, 재배치될 수 있다. 즉, 가변된 계조를 갖는 현재 프레임 영상(frame_v)의 R,G,B 데이터 신호가 재배치되어, 데이터 드라이브(236)에 제공될 수 있다.On the other hand, the current frame image frame_v having a variable gradation can be rearranged in the timing controller 232. [ That is, the R, G, and B data signals of the current frame image frame_v having the variable gradation can be rearranged and provided to the data drive 236. [

도 4는 도 1의 제어부의 내부 블록도이고, 도 5는 3D 영상의 다양한 포맷을 보여주는 도면이며, 도 6은 도 5의 포맷에 따라 3D 시청장치의 동작을 보여주는 도면이다.FIG. 4 is an internal block diagram of the control unit of FIG. 1, FIG. 5 is a diagram illustrating various formats of a 3D image, and FIG. 6 is a diagram illustrating an operation of a 3D viewing apparatus according to the format of FIG.

도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(410), 영상 처리부(420), OSD 생성부(440), 믹서(445), 프레임 레이트 변환부(450), APL 연산부(455), 및 포맷터(460)를 포함할 수 있다. 그 외 음성 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.The control unit 170 includes a demultiplexing unit 410, an image processing unit 420, an OSD generating unit 440, a mixer 445, a frame rate converting unit 420, An APL calculation unit 455, and a formatter 460. The APL calculation unit 455 and the formatter 460 may be the same. A voice processing unit (not shown), and a data processing unit (not shown).

역다중화부(410)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(410)에 입력되는 스트림 신호는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.The demultiplexer 410 demultiplexes the input stream. For example, when an MPEG-2 TS is input, it can be demultiplexed into video, audio, and data signals, respectively. The stream signal input to the demultiplexer 410 may be a stream signal output from the tuner 110 or the demodulator 120 or the external device interface 130.

영상 처리부(420)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(420)는, 영상 디코더(425), 및 스케일러(435)를 구비할 수 있다. The image processing unit 420 may perform image processing of the demultiplexed image signal. To this end, the image processing unit 420 may include an image decoder 425 and a scaler 435.

영상 디코더(425)는, 역다중화된 영상신호를 복호화하며, 스케일러(435)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.The video decoder 425 decodes the demultiplexed video signal, and the scaler 435 performs scaling so that the resolution of the decoded video signal can be output from the display 180.

영상 디코더(425)는 다양한 규격의 디코더를 구비하는 것이 가능하다. The video decoder 425 can be equipped with a decoder of various standards.

예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 2D 영상 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. For example, if the demultiplexed video signal is an MPEG-2 standard encoded 2D video signal, it can be decoded by an MPEG-2 decoder.

또한, 예를 들어, 역다중화된 2D 영상 신호가, DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호이거나, MPEC-C part 3 의 깊이(depth) 영상이거나, MVC (Multi-view Video Coding)에 따른 멀티 시점 영상이거나, TV(Free-viewpoint TV)에 따른 자유 시점 영상인 경우, 각각 H.264 디코더, MPEC-C 디코더, MVC 디코더 또는 FTV 디코더에 의해 복호화될 수 있다.For example, if the demultiplexed 2D video signal is a video signal of the H.264 standard according to a DMB (Digital Multimedia Broadcasting) scheme or DVB-H, a depth video of MPEC-C part 3 Viewpoint video according to MVC (Multi-view Video Coding) or free-view video according to a TV (Free-viewpoint TV), it is decoded by an H.264 decoder, MPEC-C decoder, MVC decoder or FTV decoder, .

한편, 영상 처리부(420)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다.On the other hand, the image signal decoded by the image processing unit 420 can be divided into a case where there is only a 2D image signal, a case where a 2D image signal and a 3D image signal are mixed, and a case where there is only a 3D image signal.

한편, 영상 처리부(420)는 역다중화된 영상 신호가 2D 영상 신호인지 또는 3D 영상 신호인지 검출할 수 있다. 3D 영상 신호인지 여부는, 튜너(110)로부터 수신되는 방송 신호, 또는 외부장치로부터의 외부 입력 신호, 또는 네트워크를 통해 수신되는 외부 입력 신호를 기반으로 검출될 수 있다. 특히, 3D 영상 신호인지 여부는, 3D 영상임을 나타내는, 스트림의 헤더(header) 내의 3D 영상 플래그(flag) 또는 3D 영상 메타 데이터(meta data) 또는 3D 영상의 포맷 정보(format information) 등을 참조하여 판단할 수 있다.Meanwhile, the image processor 420 can detect whether the demultiplexed image signal is a 2D image signal or a 3D image signal. Whether or not the 3D video signal is a 3D video signal can be detected based on a broadcast signal received from the tuner 110, an external input signal from an external device, or an external input signal received through a network. In particular, whether the 3D image signal is a 3D image signal is determined by referring to a 3D image flag, 3D image meta data, or format information of a 3D image in a header of a stream, It can be judged.

한편, 영상 처리부(420)에서 복호화된 영상 신호는, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. Meanwhile, the image signal decoded by the image processing unit 420 may be a 3D image signal of various formats. For example, a 3D image signal composed of a color image and a depth image, or a 3D image signal composed of a plurality of view image signals. The plurality of viewpoint image signals may include, for example, a left eye image signal and a right eye image signal.

여기서, 3D 영상 신호의 포맷은, 도 5와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 5a), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 5b), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 5c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 5d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 5e) 등일 수 있다.Here, the format of the 3D video signal includes a side-by-side format (FIG. 5A) in which the left-eye video signal L and the right-eye video signal R are arranged left and right as shown in FIG. 5, A top / down format (FIG. 5C) in which the left and right eye image signals and the right eye image signal are arranged in an interlace format (FIG. 5B) 5d), a checker box format (FIG. 5e) in which the left eye image signal and the right eye image signal are mixed box by box, and the like.

OSD 생성부(440)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다. The OSD generation unit 440 generates an OSD signal according to a user input or by itself. For example, based on a user input signal, a signal for displaying various information in a graphic or text form on the screen of the display 180 can be generated. The generated OSD signal may include various data such as a user interface screen of the video display device 100, various menu screens, a widget, and an icon. In addition, the generated OSD signal may include a 2D object or a 3D object.

믹서(445)는, OSD 생성부(440)에서 생성된 OSD 신호와 영상 처리부(420)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(450)에 제공된다.The mixer 445 may mix the OSD signal generated by the OSD generator 440 and the decoded video signal processed by the image processor 420. At this time, the OSD signal and the decoded video signal may include at least one of a 2D signal and a 3D signal. The mixed video signal is supplied to a frame rate converter 450.

프레임 레이트 변환부(Frame Rate Conveter, FRC)(450)는, 입력되는 영상의 프레임 레이트를 변환한다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz로 변환한다. 60Hz의 프레임 레이트를 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에, 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 240Hz로 변환하는 경우, 동일한 프레임을 3개 더 삽입하거나, 예측된 프레임을 3개 삽입하는 것이 가능하다.A frame rate converter (FRC) 450 converts the frame rate of an input image. For example, a frame rate of 60 Hz is converted to 120 Hz or 240 Hz. When converting the frame rate of 60 Hz to 120 Hz, it is possible to insert the same first frame between the first frame and the second frame, or insert the third frame predicted from the first frame and the second frame. When converting a frame rate of 60 Hz to 240 Hz, it is possible to insert three more identical frames or insert three predicted frames.

평균 화상 레벨 연산부(APL 연산부)(455)는, 입력 영상의 평균 화상 레벨(Average Pixel Level: APL)을 연산한다. 특히 본 발명의 실시예에 관련하여, 3D 영상의 평균 화상 레벨을 연산한다. APL이 높으면, 평균 화상 레벨이 커지는 것을 의미하며, APL이 낮으면 평균 화상 레벨이 낮은 것을 의미한다. 이때의 화상 레벨은 휘도를 나타내는 데이터일 수 있다. 또한, APL은 단위 프레임당의 평균 화상 레벨일 수 있다. 따라서, APL이 높으면, 단위 프레임당 평균 휘도가 높은 것을 의미할 수 있다. An average picture level calculation unit (APL calculation unit) 455 calculates an average picture level (APL) of an input picture. Particularly, according to the embodiment of the present invention, the average image level of the 3D image is calculated. The higher the APL, the larger the average picture level, and the lower the APL, the lower the average picture level. The image level at this time may be data representing luminance. Also, the APL may be an average picture level per unit frame. Therefore, if the APL is high, it can mean that the average luminance per unit frame is high.

포맷터(Formatter)(460)는, 믹서(445)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다.The formatter 460 receives the mixed signal, that is, the OSD signal and the decoded video signal in the mixer 445, and can separate the 2D video signal and the 3D video signal.

한편, 본 명세서에서는, 3D 영상 신호는 3D 오브젝트를 포함하는 것을 의미하며, 이러한 오브젝트의 예로는 PIP(picuture in picture) 영상(정지 영상 또는 동영상), 방송 프로그램 정보를 나타내는 EPG, 다양한 메뉴, 위젯, 아이콘, 텍스트, 영상 내의 사물, 인물, 배경, 웹 화면(신문, 잡지 등) 등이 있을 수 있다.In the present specification, the 3D video signal includes a 3D object. Examples of the 3D object include a picuture in picture (PIP) image (still image or moving picture), an EPG indicating broadcasting program information, various menus, widgets, Icons, texts, objects in images, people, backgrounds, web screens (newspapers, magazines, etc.).

한편, 포맷터(460)는, 3D 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 입력되는 3D 영상 신호의 포맷과 관계 없이, 도 5에 예시된 다양한 포맷 중 어느 하나의 포맷으로 변경할 수 있다. 이에 따라, 해당 포맷에 따라, 도 6과 같이, 3D시청장치의 동작이 수행될 수 있다. On the other hand, the formatter 460 can change the format of the 3D video signal. For example, regardless of the format of the inputted 3D video signal, it can be changed to any one of the various formats illustrated in FIG. Accordingly, according to the format, the operation of the 3D viewing apparatus can be performed as shown in FIG.

먼저, 도 6(a)는, 포맷터(460)가 도 5의 포맷 중 프레임 시퀀셜 포맷으로 출력하는 경우, 셔터 글래스(195)의 동작을 예시한다.First, FIG. 6A illustrates the operation of the shutter glass 195 when the formatter 460 outputs the frame sequential format of the format of FIG.

즉, 디스플레이(180)에 좌안 영상(L)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 개방, 우안 글래스가 닫히는 것을 예시하며, 도 6(b)는, 셔터 글래스(195)의 좌안 글래스가 닫히고, 우안 글래스가 개방되는 것을 예시한다.6 (b) is a view showing that the left eye glass of the shutter glass 195 is opened and the right eye glass is closed when the left eye image L is displayed on the display 180, Is closed, and the right eye glass is opened.

한편, 도 6(b)는, 포맷터(460)가 도 5의 포맷 중 사이드 바이 사이드 포맷으로 출력하는 경우, 편광 글래스(195)의 동작을 예시한다. 편광 글래스(195)는 수동형으로서, 좌안 글래스와 우안 글래스 모두가 개방된 상태를 유지하게 된다. On the other hand, Fig. 6B illustrates the operation of the polarizing glass 195 when the formatter 460 outputs the side-by-side format of the format of Fig. The polarizing glass 195 is passive, and both the left eye glass and the right eye glass remain open.

한편, 포맷터(460)는, 2D 영상 신호를 3D 영상 신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상 신호는, 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리될 수 있다. Meanwhile, the formatter 460 may convert the 2D video signal to a 3D video signal. For example, according to a 3D image generation algorithm, an edge or a selectable object is detected in a 2D image signal, and an object or a selectable object according to the detected edge is separated into a 3D image signal and is generated . At this time, the generated 3D image signal can be separated into the left eye image signal L and the right eye image signal R as described above.

한편, 포맷터(460)는, APL 연산부(455)에서 연산된 APL에 따라 깊이(depth)를 가변할 수 있다. 이를 위해, 좌안 영상과 우안 영상 사이의 시차(거리)를 조정할 수 있다. 특히, APL이 제1 소정치(Low_th) 이하인 경우, 깊이(depth)가 작아지도록 설정한다. 또한, APL이 제2 소정치(High_th) 이상인 경우, 깊이(depth)가 작아지도록 설정한다. 이에 대해서는 도 9 이하를 참조하여 후술한다.
On the other hand, the formatter 460 can vary the depth according to the APL computed by the APL computing unit 455. [ To this end, the parallax (distance) between the left eye image and the right eye image can be adjusted. In particular, when the APL is equal to or less than the first predetermined value (Low_th), the depth is set to be small. Further, when the APL is equal to or greater than the second predetermined value (High_th), the depth is set to be small. This will be described later with reference to FIG.

한편, 제어부(170) 내의 음성 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 음성 처리부(미도시)는 다양한 디코더를 구비할 수 있다.On the other hand, the audio processing unit (not shown) in the control unit 170 can perform the audio processing of the demultiplexed audio signal. To this end, the voice processing unit (not shown) may include various decoders.

예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 돌비(Dolby) AC-3 규격의 부호화된 음성 신호인 경우, AC-3 디코더에 의해 복호화될 수 있다.For example, if the demultiplexed speech signal is a coded speech signal, it can be decoded. Specifically, when the demultiplexed speech signal is an MPEG-2 standard encoded speech signal, it can be decoded by an MPEG-2 decoder. In addition, if the demultiplexed speech signal is a coded voice signal of the MPEG 4 BSAC (Bit Sliced Arithmetic Coding) standard according to a terrestrial DMB (Digital Multimedia Broadcasting) scheme, it can be decoded by an MPEG 4 decoder. Also, if the demultiplexed speech signal is an encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H, it can be decoded by the AAC decoder. If the demultiplexed speech signal is a Dolby AC-3 standard encoded audio signal, it can be decoded by an AC-3 decoder.

또한, 제어부(170) 내의 음성 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. In addition, the audio processing unit (not shown) in the control unit 170 can process a base, a treble, a volume control, and the like.

제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, ATSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(4 byte)에 포함되는 정보일 수 있다.The data processing unit (not shown) in the control unit 170 can perform data processing of the demultiplexed data signal. For example, if the demultiplexed data signal is a coded data signal, it can be decoded. The encoded data signal may be EPG (Electronic Program Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcasted on each channel. For example, the EPG information may be ATSC-PSIP (ATSC-Program and System Information Protocol) information in the case of the ATSC scheme and may include DVB-SI information in the DVB scheme . The ATSC-PSIP information or DVB-SI information may be information included in the above-described stream, i.e., the header (4 bytes) of the MPEG-2 TS.

한편, 도 4에서는 OSD 생성부(440)와 영상 처리부(420)으로부터의 신호를 믹서(445)에서 믹싱한 후, 포맷터(460)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(420)의 출력을 포맷터(460)에서 3D 처리하고, OSD 생성부(440)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(445)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다.4 shows that the signals from the OSD generating unit 440 and the image processing unit 420 are mixed in the mixer 445 and then 3D processed in the formatter 460. However, May be located behind the formatter. That is, the output of the image processing unit 420 is 3D-processed by the formatter 460, and the OSD generating unit 440 performs 3D processing together with the OSD generation, and then the 3D signals processed by the mixer 445 are mixed It is also possible to do.

한편, 도 4에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, the block diagram of the controller 170 shown in FIG. 4 is a block diagram for an embodiment of the present invention. Each component of the block diagram can be integrated, added, or omitted according to the specifications of the control unit 170 actually implemented.

특히, 프레임 레이트 변환부(450), 및 포맷터(460)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다.In particular, the frame rate converter 450 and the formatter 460 are not provided in the controller 170, but may be separately provided.

도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이며, 도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다. FIG. 7 is a view for explaining how images are formed by a left eye image and a right eye image, and FIG. 8 is a view for explaining depths of a 3D image according to an interval between a left eye image and a right eye image.

먼저, 도 7을 참조하면, 복수의 영상 또는 복수의 오브젝트들(715,725,735,745)이 예시된다. First, referring to FIG. 7, a plurality of images or a plurality of objects 715, 725, 735, and 745 are illustrated.

먼저, 제1 오브젝트(715)는, 제1 좌안 영상신호에 기초하는 제1 좌안 영상(711,L)과 제1 우안 영상신호에 기초하는 제1 우안 영상(713,R)를 포함하며, 제1 좌안 영상(711,L)과 제1 우안 영상(713,R)의 간격은 디스플레이(180) 상에서 d1 인 것이 예시된다. 이때, 사용자는 좌안(701)과 제1 좌안 영상(711)을 연결하는 연장선, 및 우안(703)과 제1 우안 영상(703)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(715)가 디스플레이(180) 보다 뒤에 위치하는 것으로 인식한다. First, the first object 715 includes a first left eye image 711, L based on the first left eye image signal and a first right eye image 713, R based on the first right eye image signal, It is exemplified that the interval between the first left eye image 711, L and the first right eye image 713, R is d1 on the display 180. At this time, the user recognizes that an image is formed at an intersection of an extension line connecting the left eye 701 and the first left eye image 711 and an extension line connecting the right eye 703 and the first right eye image 703. Accordingly, the user recognizes that the first object 715 is positioned behind the display 180. [

다음, 제2 오브젝트(725)는, 제2 좌안 영상(721,L)과 제2 우안 영상(723,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 사용자는 제2 오브젝트(725)가 디스플레이(180) 상에 위치 것으로 인식한다. Next, since the second object 725 includes the second left eye image 721, L and the second right eye image 723, R, and overlaps with each other and is displayed on the display 180, do. Accordingly, the user recognizes that the second object 725 is located on the display 180. [

다움, 제3 오브젝트(735)와 제4 오브젝트(745)는, 각각 제3 좌안 영상(731,L)과 제2 우안 영상(733,R), 제4 좌안 영상(741,L)과 제4 우안 영상(743,R)를 포함하며, 그 간격이 각각 d3, d4 인 것이 예시된다. The third object 735 and the fourth object 745 are arranged in the order of the third left eye image 731, L and the second right eye image 733, R, the fourth left eye image 741, Right eye image 743 (R), and their intervals are d3 and d4, respectively.

상술한 방식에 따라, 사용자는 상이 맺히는 위치에, 각각 제3 오브젝트(735)와 제4 오브젝트(745)가 위치하는 것으로 인식하며, 도면에서는, 각각 디스플레이(180) 보다 앞에 위치하는 것으로 인식한다. According to the above-described method, the user recognizes that the third object 735 and the fourth object 745 are located at positions where images are formed, respectively, and recognizes that they are located before the display 180 in the drawing.

이때, 제4 오브젝트(745)가 제3 오브젝트(735) 보다 더 앞에, 즉 더 돌출되는 것으로 인식되며, 이는 제4 좌안 영상(741,L)과 제4 우안 영상(743,R)의 간격(d4)이, 제3 좌안 영상(731,L)과 제3 우안 영상(733,R)의 간격(d3) 보다 더 큰 것에 기인한다.At this time, it is recognized that the fourth object 745 is ahead of or more protruded than the third object 735. This means that the interval between the fourth left eye image 741, L and the fourth right eye image 743, R d4 is larger than the interval d3 between the third left eye image 731, L and the third right eye image 733, R.

한편, 본 발명의 실시예에서는, 디스플레이(180)와 사용자에게 인식되는 오브젝트(715,725,735,745) 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 디스플레이(180)보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 디스플레이(180)보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(+)을 가지는 것으로 한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 깊이의 크기는 더 커지게 된다.Meanwhile, in the embodiment of the present invention, the distance between the display 180 and the objects (715, 725, 735, 745) recognized by the user is represented by a depth. Accordingly, it is assumed that the depth when the user is recognized as being positioned behind the display 180 has a negative value (-), and the depth when the user is recognized as being positioned before the display 180 (depth) has a negative value (+). That is, the greater the degree of protrusion in the user direction, the greater the depth.

도 8을 보면, 도 8(a)의 좌안 영상(801)과 우안 영상(802) 간의 간격(a)이, 도 8(b)에 도시된 좌안 영상(801)과 우안 영상(802) 간의 간격(b)이 더 작은 경우, 도 8(a)의 3D 오브젝트의 깊이(a') 보다, 도 8(b)의 3D 오브젝트의 깊이(b') 보다 더 작은 것을 알 수 있다. 8, the interval a between the left eye image 801 and the right eye image 802 in FIG. 8 (a) is smaller than the interval (a) between the left eye image 801 and the right eye image 802 shown in FIG. 8 (b) (b ') is smaller than the depth (a') of the 3D object in FIG. 8 (a) and the depth (b ') in the 3D object in FIG. 8 (b).

이와 같이, 3D 영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 3D 영상 또는 3D 오브젝트의 깊이를 조절할 수 있게 된다.In this way, when the 3D image is exemplified as the left eye image and the right eye image, the positions recognized as images are different depending on the interval between the left eye image and the right eye image. Accordingly, by adjusting the display intervals of the left eye image and the right eye image, the depth of the 3D image or the 3D object composed of the left eye image and the right eye image can be adjusted.

도 9는 본 발명의 일 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이고, 도 10 내지 도 22는 도 9의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.FIG. 9 is a flowchart illustrating an operation method of an image display apparatus according to an embodiment of the present invention, and FIGS. 10 to 22 are referred to for explaining various examples of an operation method of the image display apparatus of FIG.

도 9를 참조하면, 먼저, 3D 영상을 수신한다(S910). 영상표시장치(100)에 입력되는 영상은, 예를 들어, 튜너(110)에서 수신되는 방송 신호로부터의 방송 영상, 외부장치로부터의 외부 입력 영상, 저장부(140)에 저장된 영상 또는 네트워크를 통해 컨텐츠 제공자로부터 입력된 영상일 수 있다. Referring to FIG. 9, first, a 3D image is received (S910). The image input to the image display apparatus 100 may be a broadcast image from a broadcast signal received from the tuner 110, an external input image from an external apparatus, an image stored in the storage unit 140, And may be an image input from a content provider.

한편, 제어부(170)는, 영상을 포함하는 스트림 내에, 3D 영상인 지 여부를 나타내는 정보 또는 플래그가 구비되는 경우, 상술한 역다중화시 또는 복호화시 이러한 정보 또는 플래그를 획득하여, 입력되는 영상이 3D 영상인 지 여부를 판단할 수 있다.On the other hand, when the information including the 3D image or the flag is included in the stream including the image, the control unit 170 obtains the information or flag at the time of demultiplexing or decoding, It is possible to judge whether or not it is a 3D image.

한편, 제어부(170)는, 입력되는 영상이 복수 시점 영상인 경우, 특히 좌안 영상과 우안 영상을 구비하는 지 여부를 확인하여, 입력되는 영상이 3D 영상인 지 여부를 판단할 수 있다.Meanwhile, when the input image is a multiple view image, the controller 170 may determine whether the input image is a 3D image by checking whether the input image includes a left eye image and a right eye image.

다음, 3D 영상의 평균 화상 레벨을 연산한다(S915). 제어부(170)는, 입력되는 3D 영상의 평균 화상 레벨(Average Pixel Level: APL)을 연산한다, 구체적으로는, 제어부(170) 내의 APL 연산부(455)가 3D 영상의 평균 화상 레벨을 연산할 수 있다.Next, the average image level of the 3D image is calculated (S915). The control unit 170 calculates the average image level (APL) of the input 3D image. Specifically, the APL arithmetic unit 455 in the control unit 170 calculates the average image level of the 3D image have.

APL이 높으면, 평균 화상 레벨이 커지는 것을 의미하며, APL이 낮으면 평균 화상 레벨이 낮은 것을 의미한다. 이때의 화상 레벨은 휘도를 나타내는 데이터일 수 있다. 또한, APL은 단위 프레임당의 평균 화상 레벨일 수 있다. 따라서, APL이 높으면, 단위 프레임당 평균 휘도가 높은 것을 의미할 수 있다.The higher the APL, the larger the average picture level, and the lower the APL, the lower the average picture level. The image level at this time may be data representing luminance. Also, the APL may be an average picture level per unit frame. Therefore, if the APL is high, it can mean that the average luminance per unit frame is high.

한편, APL에 따른 화면의 밝기는, 도 12, 도 14, 및 도 16에서 각각 예시하며, 이에 대해서는 후술한다.On the other hand, the brightness of the screen according to the APL is illustrated in FIGS. 12, 14 and 16, respectively, which will be described later.

다음, 3D 영상의 프레임 레이트를 변환한다(S920). 그리고, 연산된 평균 화상 레벨에 따라 3D 영상의 깊이를 가변한다(S925). 그리고 깊이 가변된 3D 영상을 좌안 영상과 우안 영상으로 교호하게 정렬한다(S930). 그리고, 입력되는 3D 영상의 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 현재 프레임 영상의 계조를 가변한다(S935). 그리고, 가변된 계조의 현재 프레임 영상을 표시한다(S940).Next, the frame rate of the 3D image is converted (S920). Then, the depth of the 3D image is varied according to the calculated average image level (S925). Then, the depth-varying 3D image is alternately aligned with the left eye image and the right eye image (S930). Then, the gradation of the current frame image is varied according to the gradation difference between the current frame image of the input 3D image and the previous frame image (S935). Then, the variable-gradation current frame image is displayed (S940).

도 10(a)는, 영상 처리부(420)에서 영상 처리된 3D 영상의 영상 프레임들을 예시한다. 이때, 3D 영상 프레임(1010)의 포맷은 탑 다운(Top / Down) 포맷(도 5(b) 참조)임을 알 수 있다. 10 (a) illustrates image frames of a 3D image imaged by the image processing unit 420. FIG. At this time, it can be seen that the format of the 3D image frame 1010 is a top / down format (see FIG. 5 (b)).

다음, 제920 단계(S920)와 관련하여, 프레임 레이트 변환부(450)는, 3D 영상의 프레임 레이트를 변환한다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz 등으로 변환한다. Next, with respect to operation 920 (S920), the frame rate conversion unit 450 converts the frame rate of the 3D image. For example, a frame rate of 60 Hz is converted to 120 Hz or 240 Hz.

도 10(b)는, 프레임 레이트 변환부(450)에서 3D 영상의 프레임 레이트를 증가시키는 것을 예시한다. 프레임 레이트 변환부(450)는 3D 영상 프레임(1020)을 반복하여 삽입함으로써 프레임 레이트를 증가시킬 수 있다. 이때 3D 영상의 포맷은 탑 다운 포맷으로 그대로 유지된다.10 (b) illustrates an example in which the frame rate converter 450 increases the frame rate of the 3D image. The frame rate conversion unit 450 may increase the frame rate by repeatedly inserting the 3D image frame 1020. [ At this time, the 3D image format is maintained in the top down format.

도 10(b)는, 프레임 레이트가 4배 증가한 것을 예시하나 이에 한정되지 않으며, 2배 등 다양한 설정에 의해 증가될 수 있다. 한편, 프레임 레이트 변환은 선택적으로 수행되는 것도 가능하다.10 (b) illustrates that the frame rate is increased four times, but not limited thereto, and may be increased by various settings such as twice. On the other hand, the frame rate conversion can be selectively performed.

다음, 925 단계(S925)와 관련하여, 포맷터(460)는, APL 연산부(420)에서 연산된 APL에 따라 3D 영상의 깊이를 가변한다. Next, with respect to step 925 (S925), the formatter 460 varies the depth of the 3D image according to the APL computed by the APL computing unit 420. [

도 11은, 연산된 APL과 설정 깊이(depth)에 대한 그래프를 예시한다. Figure 11 illustrates a graph of the calculated APL and set depth.

예를 들어, 포맷터(460)는, APL이 제1 소정치(Low_th) 이하이거나, 제1 소정치(Low_th) 보다 큰 제2 소정치(HIgh_th) 이상인 경우, 3D 영상의 깊이(depth)가 작아지도록 신호 처리를 수행할 수 있다. For example, when the APL is equal to or smaller than the first predetermined value Low_th or equal to or greater than a second predetermined value HIgh_th greater than the first predetermined value Low_th, the depth of the 3D image is small Signal processing can be performed.

특히, 포맷터(460)는, 깊이 가변시, 연산된 APL이 제1 소정치(Low_th) 이하인 경우, 하한치(예를 들어, 0)로 갈수록 3D 영상의 깊이(depth)가 작아지도록 설정할 수 있다. In particular, the formatter 460 can be set so that the depth of the 3D image becomes smaller as the APL is lowered to a lower limit (for example, 0) when the computed APL is equal to or less than the first predetermined value (Low_th).

또한, 포맷터(460)는, 깊이 가변시, 연산된 APL이 제2 소정치(HIgh_th) 이상인 경우, 상한치로 갈수록 3D 영상의 깊이(depth)가 작아지도록 설정할 수 있다.In addition, the formatter 460 can be set so that the depth of the 3D image becomes smaller as the upper limit is reached, when the calculated APL is equal to or greater than the second predetermined value HIgh_th.

이러한 연산된 APL에 따른 3D 영상의 깊이 가변의 수행은, 도 18등을 참조하여 후술하는 액정 패널의 오버 드라이빙(over driving)과 관련이 있다. The depth variable of the 3D image according to the calculated APL is related to the over driving of the liquid crystal panel, which will be described later with reference to FIG. 18 and the like.

간략히 설명하면, 액정 패널의 응답속도 개선을 위해, 도 18(b)와 같이 추가 전압 또는 추가 게조를 인가하는 오버 드라이빙 구동이 수행되는 상태에서, 도 19와 같이, 고계조(예를 들어, 256 계조) 또는 저계조(예를 들어, 0 계조)의 경우, 오버 드라이빙이 수행되지 못하고, 그대로, 256 계조 또는 0 계조로 데이터가 표시되는 한계가 발생할 수 있다. 이러한 현상은 2D 영상 표시시 또는 3D 영상 표시시 모두에 발생가능하다. In order to improve the response speed of the liquid crystal panel, in a state in which overdriving drive for applying an additional voltage or additional tones is performed as shown in Fig. 18 (b), a high gray level Overdriving can not be performed in the case of a low gray level (e.g., 0 gray level) or a low gray level (e.g., 0 gray level). This phenomenon can occur in both 2D image display and 3D image display.

특히, 3D 영상 표시시, 액정 패널의 느린 응답속도로 인해, 좌안 영상과 우안 영상의 겹칩 현상인 크로스 토크 현상이 발생 가능성이 높으며, 따라서, 입체효과가 반감되게 된다. Particularly, when a 3D image is displayed, a crosstalk phenomenon, which is a folding phenomenon of a left eye image and a right eye image, is likely to occur due to a slow response speed of the liquid crystal panel, and thus the stereoscopic effect is halved.

본 발명의 실시예에서는, 이를 최소화하기 위해, APL 연산부(455)에서 연산된 APL에 따라, 깊이(depth)를 가변하는 것을 제안한다.In the embodiment of the present invention, it is proposed to vary the depth according to the APL calculated in the APL arithmetic unit 455 in order to minimize this.

특히, 도 11에서 상술한 바와 같이, 오버 드라이빙이 적절히 수행되기 힘들어, 크로스 토크 특성이 좋지 않은, APL이 제1 소정치(Low_th) 이하이 또는 제2 소정치(HIgh_th) 이상인 경우, 3D 영상의 깊이(depth)를 가변하는 것이 바람직하다. 특히, 설정된 3D 영상의 깊이(depth)를 감소시켜, 작아지도록 신호 처리를 수행하는 것이 바람직하다. 이에 따라, 3D 영상 표시시 크로스 토크 특성이 개선되게 된다. 11, when the APL is not less than the first predetermined value (Low_th) or is not less than the second predetermined value (HIgh_th) because the overdriving is difficult to perform adequately and the crosstalk characteristic is poor, it is preferable to vary the depth. Particularly, it is preferable to reduce the depth of the set 3D image and perform signal processing so as to be smaller. As a result, the crosstalk characteristics are improved in 3D image display.

한편, 이러한, 3D 영상의 깊이 가변 신호 처리는 도 12 내지 도 17을 참조하여 상세히 후술한다.The depth variable signal processing of the 3D image will be described later in detail with reference to FIGS. 12 to 17. FIG.

다음, 제930 단계(S930)와 관련하여, 포맷터(460)는, 3D 영상을 좌안 영상과 우안 영상으로 교호하게 정렬한다. 즉, 도 5(c)에 예시된 프레임 시퀀셜 포맷으로 변환한다. Next, with respect to step 930 (S930), the formatter 460 alternately aligns the 3D image with the left eye image and the right eye image. In other words, it is converted into the frame sequential format exemplified in Fig. 5 (c).

도 10(c), 및 도 10(d)은, 포맷터(460)에서, 프레임 레이트 변환부(450)에서 프레임 레이트 변환된 3D 영상 프레임의 포맷을 프레임 시퀀셜 포맷의 3D 영상 프레임으로 변환하는 것을 예시한다. 10C and 10D illustrate that the formatter 460 converts the format of the 3D image frame converted from the frame rate by the frame rate converter 450 into the 3D image frame of the frame sequential format do.

도 10(c)는, 도면과 같이, 제1 좌안 영상 프레임(L1)(1030), 제1 좌안 영상 프레임(L1), 제1 우안 영상 프레임(R1), 제1 우안 영상 프레임(R1), 제2 좌안 영상 프레임(L2) 등의 순서로 배열하는 것을 보여준다. 즉, 동일한 좌안 영상 프레임이 연속하여 배열되고, 그 이후 동일한 우안 영상 프레임이 연속하여 배열된다.10 (c) shows a first left eye image frame L1, a first left eye image frame L1, a first right eye image frame R1, a first right eye image frame R1, The second left eye image frame L2, and the like. That is, the same left eye image frames are successively arranged, and thereafter the same right eye image frames are successively arranged.

한편, 도 10(d)는, 도면과 같이, 제1 좌안 영상 프레임(L1)(1030), 블랙 프레임(1040), 제1 우안 영상 프레임(R1), 블랙 프레임, 제2 좌안 영상 프레임(L2) 등의 순서로 배열하는 것을 보여준다. 즉, 좌안 영상 프레임과 우안 영상 프레임 사이에 블랙 프레임이 배열된다.10D shows a first left eye image frame (L1) 1030, a black frame 1040, a first right eye image frame R1, a black frame, a second left eye image frame L2 ), And so on. That is, a black frame is arranged between the left eye image frame and the right eye image frame.

이와 같이, 포맷터(460)에서 좌안 영상 프레임과 우안 영상 프레임이 교호하게 배열되면, 각 프레임들은 디스플레이(180)에 입력되게 된다.As such, when the left eye image frame and the right eye image frame are arranged alternately in the formatter 460, the respective frames are inputted to the display 180.

다음, 도 12 내지 도 17은 APL에 따라 깊이를 가변하는 다양한 예를 예시한다.Next, Figs. 12 to 17 illustrate various examples of varying the depth according to APL.

먼저, 도 12는 좌안 영상(1210)과 우안 영상(1220)의 APL값이, 도 11에서 도시한 바와 같이, 제1 소정치(Low_th) 이하인 것을 예시한다. First, FIG. 12 illustrates that the APL values of the left eye image 1210 and the right eye image 1220 are equal to or less than a first predetermined value (Low_th), as shown in FIG.

일단, 좌안 영상(1210)과 우안 영상(1225)은 각각 3D 오브젝트(1215, 1225)를 포함한다. 좌안 영상(1210) 내의 3D 오브젝트(1215)와, 우안 영상(1220) 내의 3D 오브젝트(1225)의 시차(L1)에 대응하여, 3D 시청장치 착용시, 도 13(a)와 같이, 디스플레이(180)에 영상(1310) 및 소정 깊이(d1)의 3D 오브젝트(1315)가 표시되게 된다.First, the left eye image 1210 and the right eye image 1225 include 3D objects 1215 and 1225, respectively. 13A, when the 3D viewing device is worn, corresponding to the parallax L1 between the 3D object 1215 in the left eye image 1210 and the 3D object 1225 in the right eye image 1220, And a 3D object 1315 having a predetermined depth d1 are displayed on the screen 1310. [

상술한 바와 같이, 포맷터(460)는, 깊이(depth)를 가변한다. 즉, 도 12에 도시한 바와 같이, 좌안 영상(1210) 내의 3D 오브젝트(1235)와, 우안 영상(1220) 내의 3D 오브젝트(1245)의 시차(L2)를 감소시킨다.As described above, the formatter 460 varies the depth. That is, as shown in Fig. 12, the parallax L2 between the 3D object 1235 in the left eye image 1210 and the 3D object 1245 in the right eye image 1220 is reduced.

따라서, 3D 시청장치 착용시, 도 13(b)와 같이, 디스플레이(180)에 영상(1310) 및 감소된 깊이(d2)의 3D 오브젝트(1325)가 표시되게 된다.Therefore, when the 3D viewing apparatus is worn, the 3D object 1325 of the image 1310 and the reduced depth d2 is displayed on the display 180 as shown in FIG. 13 (b).

한편, 좌안 영상(1210)과 우안 영상(1220)의 APL값이, 제1 소정치(Low_th) 이하이며, 하한치(예를 들어, 0)로 갈수록, 포맷터(460)는, 좌안 영상(1210) 내의 3D 오브젝트(1235)와, 우안 영상(1220) 내의 3D 오브젝트(1245)의 시차를 점점 감소시킬 수 있다. 이에 따라, 표시되는 3D 오브젝트의 깊이는 점점 작아지게 된다.On the other hand, when the APL value of the left eye image 1210 and the right eye image 1220 is less than or equal to the first predetermined value Low_th and the formatter 460 moves from the left eye image 1210 to the lower limit value (for example, The parallax between the 3D object 1235 in the right eye image 1220 and the 3D object 1245 in the right eye image 1220 can be gradually reduced. As a result, the depth of the displayed 3D object becomes smaller.

다음, 도 14는 좌안 영상(1410)과 우안 영상(1420)의 APL값이, 도 11에서 도시한 바와 같이, 제1 소정치(Low_th) 보다 크고, 제2 소정치(High_th) 보다 작은 것을 예시한다. 14 shows an example in which the APL value of the left eye image 1410 and the right eye image 1420 is smaller than the first predetermined value Low_th and smaller than the second predetermined value High_th as shown in FIG. do.

일단, 좌안 영상(1410)과 우안 영상(1425)은 각각 3D 오브젝트(1415, 1425)를 포함한다. 좌안 영상(1410) 내의 3D 오브젝트(1415)와, 우안 영상(1420) 내의 3D 오브젝트(1425)의 시차(L3)에 대응하여, 3D 시청장치 착용시, 도 15(a)와 같이, 디스플레이(180)에 영상(1510) 및 소정 깊이(d3)의 3D 오브젝트(1515)가 표시되게 된다.First, the left eye image 1410 and the right eye image 1425 include 3D objects 1415 and 1425, respectively. Corresponding to the parallax L3 between the 3D object 1415 in the left eye image 1410 and the 3D object 1425 in the right eye image 1420, The 3D object 1515 of the image 1510 and the 3D object 1515 of the predetermined depth d3 are displayed.

상술한 바와 같이, 포맷터(460)는, 깊이(depth)를 가변한다. 즉, 도 14에 도시한 바와 같이, 좌안 영상(1410) 내의 3D 오브젝트(1435)와, 우안 영상(1420) 내의 3D 오브젝트(1445)의 시차(L4)를 감소시킨다.As described above, the formatter 460 varies the depth. That is, as shown in Fig. 14, the parallax L4 between the 3D object 1435 in the left eye image 1410 and the 3D object 1445 in the right eye image 1420 is reduced.

따라서, 3D 시청장치 착용시, 도 15(b)와 같이, 디스플레이(180)에 영상(1510) 및 감소된 깊이(d4)의 3D 오브젝트(1525)가 표시되게 된다.Accordingly, when the 3D viewing apparatus is worn, the 3D object 1525 of the image 1510 and the reduced depth d4 is displayed on the display 180 as shown in FIG. 15 (b).

한편, 도 13(b)의 3D 오브젝트(1525)와 비교하면, 그 깊이(d4)가 더 큰 것을 알 수 있다. On the other hand, it can be seen that the depth d4 is larger than the 3D object 1525 of Fig. 13 (b).

한편, 도면과 달리, 좌안 영상(1410)과 우안 영상(1420)의 APL값이, 도 11에서 도시한 바와 같이, 제1 소정치(Low_th) 보다 크고, 제2 소정치(High_th) 보다 작은 경우, 별도의 깊이 가변 단계 없이, 설정된 깊이가 그대로 표시되는 것도 가능하다. 즉, 도 15(a)와 같이, 디스플레이(180)에 영상(1510) 및 소정 깊이(d3)의 3D 오브젝트(1515)가 그대로 표시될 수도 있다.11, when the APL value of the left eye image 1410 and the right eye image 1420 is larger than the first predetermined value (Low_th) and smaller than the second predetermined value (High_th) as shown in FIG. 11 , It is also possible that the set depth is displayed as it is without a separate depth changing step. That is, as shown in FIG. 15 (a), the display 180 may display the image 1510 and the 3D object 1515 having the predetermined depth d3 as it is.

다음,, 도 16은 좌안 영상(1610)과 우안 영상(1620)의 APL값이, 도 11에서 도시한 바와 같이, 제2 소정치(High_th) 이상인 것을 예시한다. Next, FIG. 16 illustrates that the APL values of the left eye image 1610 and the right eye image 1620 are equal to or greater than a second predetermined value (High_th), as shown in FIG.

일단, 좌안 영상(1610)과 우안 영상(1625)은 각각 3D 오브젝트(1615, 1625)를 포함한다. 좌안 영상(1610) 내의 3D 오브젝트(1615)와, 우안 영상(1620) 내의 3D 오브젝트(1625)의 시차(L5)에 대응하여, 3D 시청장치 착용시, 도 17(a)와 같이, 디스플레이(180)에 영상(1710) 및 소정 깊이(d5)의 3D 오브젝트(1715)가 표시되게 된다.First, the left eye image 1610 and the right eye image 1625 include 3D objects 1615 and 1625, respectively. Corresponding to the parallax L5 between the 3D object 1615 in the left eye image 1610 and the 3D object 1625 in the right eye image 1620, And a 3D object 1715 having a predetermined depth d5 are displayed on the screen 1710. [

상술한 바와 같이, 포맷터(460)는, 깊이(depth)를 가변한다. 즉, 도 16에 도시한 바와 같이, 좌안 영상(1610) 내의 3D 오브젝트(1635)와, 우안 영상(1620) 내의 3D 오브젝트(1645)의 시차(L6)를 감소시킨다.As described above, the formatter 460 varies the depth. That is, as shown in Fig. 16, the parallax L6 between the 3D object 1635 in the left eye image 1610 and the 3D object 1645 in the right eye image 1620 is reduced.

따라서, 3D 시청장치 착용시, 도 17(b)와 같이, 디스플레이(180)에 영상(1710) 및 감소된 깊이(d6)의 3D 오브젝트(1725)가 표시되게 된다.Accordingly, when the 3D viewing apparatus is worn, the 3D object 1725 of the image 1710 and the reduced depth d6 is displayed on the display 180 as shown in FIG. 17 (b).

한편, 좌안 영상(1610)과 우안 영상(1620)의 APL값이, 제2 소정치(High_th) 이상이며, 상한치로 갈수록, 포맷터(460)는, 좌안 영상(1610) 내의 3D 오브젝트(1635)와, 우안 영상(1620) 내의 3D 오브젝트(1645)의 시차를 점점 감소시킬 수 있다. 이에 따라, 표시되는 3D 오브젝트의 깊이는 점점 작아지게 된다.On the other hand, when the APL value of the left eye image 1610 and the right eye image 1620 is equal to or greater than the second predetermined value (High_th) and the formatter 460 moves from the 3D object 1635 in the left eye image 1610 , The parallax of the 3D object 1645 in the right eye image 1620 can be gradually reduced. As a result, the depth of the displayed 3D object becomes smaller.

한편, 도 18은 액정 패널 구동시 사용되는 오버 드라이빙의 설명에 참조되는 도면이다.On the other hand, Fig. 18 is a diagram referred to for explaining overdriving used in driving the liquid crystal panel.

상술한 바와 같이, 액정패널(210)은, 액정의 응답 속도와 홀드 타입(Hold type)의 특성을 가지므로, 액정패널(210)의 상부와 하부의 표시 시점이 지체되면서 크로스 토크 현상이 발생한다. As described above, since the liquid crystal panel 210 has the characteristics of response speed and hold type of the liquid crystal, the display time of the upper and lower portions of the liquid crystal panel 210 is delayed and a crosstalk phenomenon occurs .

도 18(a)는 액정 패널의 정상 드라이빙(normal driving)을 예시하며, 도 18(b)는 오버 드라이빙(over driving)을 예시한다.Fig. 18 (a) illustrates normal driving of the liquid crystal panel, and Fig. 18 (b) illustrates over driving.

도 18(a)는 액정 패널에 인가되는 전압(V)에 따른 액정 응답속도(L)를 보여준다. 즉, 소정 프레임 동안 제1 전압(V1)이 인가되다가, 순간적으로 제1 전압(V1) 보다 높은 제2 전압(V2)이 인가되는 경우, 액정의 느린 응답속도에 따라, 제2 전압(V2)에 바로 반응하지 못한 채, 도면과 같이 제1 기간(T1)과 같은 트랜지션(transition) 기간을 갖게 된다. 이러한 트랜지션 기간은, 제1 전압(V1)과 제2 전압(V2)의 차이(Vd1)가 클수록 더 길어지게 된다. 이에 따라, 동영상에서 화면이 흐릿하게 표시되는 모션 블러링(Motion Burring) 현상 등이 발생하게 된다. 또한, 3D 영상을 구현하는 경우, 좌안 영상과 우안 영상 사이의 영상 겹침 현상인 크로스 토크 현상이 발생하게 된다.18 (a) shows the liquid crystal response speed L according to the voltage V applied to the liquid crystal panel. That is, when the first voltage V1 is applied during a predetermined frame and the second voltage V2 higher than the first voltage V1 is momentarily applied, the second voltage V2 is changed according to the slow response speed of the liquid crystal, And has the same transition period as the first period T1 as shown in the figure. This transition period becomes longer as the difference (Vd1) between the first voltage (V1) and the second voltage (V2) is larger. As a result, a motion blurring phenomenon in which a picture is blurred in the moving picture occurs. In addition, when a 3D image is implemented, a crosstalk phenomenon occurs, which is an image overlapping phenomenon between a left eye image and a right eye image.

이를 방지 하기 위해, 본 발명의 실시예는 도 18(b)와 같이, 오버 드라이빙을 적용한다.In order to prevent this, the embodiment of the present invention applies overdriving as shown in Fig. 18 (b).

도 18(b)는 액정 패널에 인가되는 전압(V)에 따른 액정 응답속도(L)를 보여준다. 즉, 소정 프레임 동안 제1 전압(V1)이 인가되다가, 순간적으로 제1 전압(V1) 보다 높은 제2 전압(V2)이 인가되기 전에, 제2 전압(V2) 보다 높은 제3 전압(V3)을 순간적으로 인가하여, 액정의 느린 응답속도를 개선하는 것이다. 18 (b) shows the liquid crystal response speed L according to the voltage V applied to the liquid crystal panel. That is, a third voltage V3 higher than the second voltage V2 is applied before the second voltage V2, which is higher than the first voltage V1, is applied momentarily while the first voltage V1 is applied for a predetermined frame, So that the slow response speed of the liquid crystal is improved.

도면에서는, 트랜지션 기간이, 도 18(a)의 제1 기간(T1)에 비해, 상당히 감소된 제2 기간(T2)임을 알 수 있다. 이러한 트랜지션 기간의 단축을 위해서는, 제3 전압(V3)의 레벨을 더 높이는 것이 바람직하다. 즉, 제2 전압(V2)과 제3 전압(V3)의 차이(Vd2)가 클수록 트랜지션 기간은 더 짧아지게 된다. In the figure, it can be seen that the transition period is the second period T2 which is considerably reduced compared to the first period T1 of FIG. 18 (a). In order to shorten the transition period, it is desirable to further raise the level of the third voltage V3. That is, the larger the difference (Vd2) between the second voltage (V2) and the third voltage (V3) is, the shorter the transition period becomes.

한편, 도 18에서의 인가 전압은, 프레임(frame) 영상의 계조(gray level)에 비례하여 인가되므로, 이하에서는 인가 전압 대신에, 계조를 위주로 기술한다. 즉, 본 발명의 실시예에서는 오버 드라이빙을 위해, 프레임 영상의 계조를 가변한다. 이에 대해서는 도 19를 참조하여 후술한다.On the other hand, since the applied voltage in FIG. 18 is applied in proportion to the gray level of the frame image, the gradation will be described below instead of the applied voltage. That is, in the embodiment of the present invention, the gradation of the frame image is varied for overdriving. This will be described later with reference to FIG.

다음, 제935 단계(S935)와 관련하여, 3D 영상의 좌안 영상과 우안 영상을 교호하게 정렬한(S930) 후에, 제어부(170) 또는 저장부(140)는, 타이밍 컨트롤러(232) 내의 계조 가변부(300)로, 3D 영상에 대응하는 계조 데이터(OD data)를 송신할 수 있다. 도 3의 설명에서 상술한 바와 같이, 룩업 테이블(310)에는 현재 프레임 영상의 계조와 이전 프레임 영상의 계조에 기초하여, 소정 계조 데이터(OD data)가 저장된다. The control unit 170 or the storage unit 140 stores the gray level variable in the timing controller 232 in step S930 after the left eye image and the right eye image of the 3D image are alternately aligned (OD data) corresponding to the 3D image can be transmitted to the display unit 300. [ 3, the look-up table 310 stores predetermined gradation data (OD data) based on the gradation of the current frame image and the gradation of the previous frame image.

그리고, 계조 가변부(300) 내의 계조 설정부(330)는, 입력되는 영상의 현재 프레임 영상(frame_c)과, 프레임 버퍼(320)에 저장된 이전 프레임 영상(frame_b) 사이의 계조 차이에 따라, 현재 프레임 영상의 계조를 가변한다. The gray level setting unit 330 in the gray level varying unit 300 sets the gray level of the current frame image frame_c in accordance with the difference in gray level between the current frame image frame_c of the input image and the previous frame image frame_b stored in the frame buffer 320 The gradation of the frame image is varied.

예를 들어, 도 19를 참조하면, 이전 프레임 영상의 계조가 64이고, 현재 프레임 영상의 계조가 128인 경우, 설정되는 계조는 128 계조 보다 큰 139일 수 있다. 이와 같이, 계조 변화량을 크기를 증가시켜, 오버 드라이빙을 함으로써, 3D 영상 표시시, 발생할 수 있는 크로스 토크 현상을 방지할 수 있게 된다. For example, referring to FIG. 19, when the gray level of the previous frame image is 64 and the gray level of the current frame image is 128, the gray level to be set may be 139, which is larger than 128 gray levels. As described above, by increasing the gradation change amount and performing overdriving, it is possible to prevent a crosstalk phenomenon that may occur during 3D image display.

다른 예로, 도 19를 참조하면, 이전 프레임 영상의 계조가 128이고, 현재 프레임 영상의 계조가 64인 경우, 설정되는 계조는 64 계조 보다 작은 53일 수 있다. 19, when the gray level of the previous frame image is 128 and the gray level of the current frame image is 64, the set gray level may be 53 smaller than 64 gray levels.

한편, 상술한 바와 같이, 현재 프레임 영상의 계조가 최대 계조인 256인 경우, 이전 프레임 영상의 계조와 관게없이, 256으로 설정되고, 현재 프레임 영상의 계조가 최저 계조인 0인 경우, 이전 프레임 영상의 계조와 관게없이, 0으로 설정되는 것을 알 수 있다.On the other hand, as described above, when the gray level of the current frame image is 256, which is the maximum gray level, it is set to 256 without regard to the gray level of the previous frame image. When the gray level of the current frame image is 0, 0 ", regardless of the grayscale of the pixel.

도 20은 오버 드라이빙시의 입력 영상의 계조(Ga)의 일예를 보여준다. 즉, 소정 프레임 동안 제1 계조(G1)가 인가되다가, 제1 계조(G1) 보다 높은 제2 계조(G2)가 설정되는 경우, 오버 드라이빙을 위해, 제2 계조(G2) 보다 높은 제3 계조(G3)를 설정할 수 있다. 즉, 제2 계조(G2)와 제3 계조(G3) 사이의 계조 변화량(Gd2)이 커지도록 설정한다.20 shows an example of the gradation Ga of the input image at the time of over driving. That is, when the first gradation G1 is applied during a predetermined frame and the second gradation G2 higher than the first gradation G1 is set, the third gradation G2, which is higher than the second gradation G2, (G3) can be set. That is, the gradation change amount Gd2 between the second gradation G2 and the third gradation G3 is set to be larger.

한편, 제1 계조(G1)와 제2 계조(G2) 사이의 계조 차이(GD1)가 커질수록, 도 20(a)의 제3 계조(G3)를 더 크게 설정할 수 있다. 이에 의해 오버 드라이빙이 더 효율적으로 수행될 수 있다. 이와 같이, 계조 변화량을 크기를 증가시켜, 오버 드라이빙 함으로써, 3D 영상 표시시의 크로스 토크 현상을 방지할 수 있게 된다. On the other hand, the larger the gradation difference GD1 between the first gradation G1 and the second gradation G2, the larger the third gradation G3 in Fig. 20A can be set. Whereby overdriving can be performed more efficiently. As described above, by increasing the gradation change amount and over driving, it is possible to prevent the crosstalk phenomenon in 3D image display.

도 21은 오버 드라이빙시의 입력 영상의 계조(Gb)의 다른 예를 보여준다. 즉, 소정 프레임 동안 제5 계조(G5)가 인가되다가, 제5 계조(G5) 보다 낮은 제6 계조(G6)가 설정되는 경우, 오버 드라이빙을 위해, 제6 계조(G6) 보다 더 낮은 제7 계조(G7)를 설정할 수 있다. 즉, 제6 계조(G6)와 제7 계조(G7) 사이의 계조 변화량(Gd5)이 커지도록 설정한다.Fig. 21 shows another example of the gradation Gb of the input image at the time of overdriving. That is, when the fifth gradation G5 is applied during a predetermined frame, and the sixth gradation G6 lower than the fifth gradation G5 is set, for overdriving, the seventh gradation G6, which is lower than the sixth gradation G6, The gradation G7 can be set. That is, the gradation change amount Gd5 between the sixth gradation G6 and the seventh gradation G7 is set to be large.

한편, 제5 계조(G5)와 제6 계조(G6) 사이의 계조 차이(GD4)가 커질수록, 도 21(a)의 제7 계조(G7)를 더 작게 설정할 수 있다. 이에 의해 오버 드라이빙이 더 효율적으로 수행될 수 있다. On the other hand, the larger the gradation difference GD4 between the fifth gradation G5 and the sixth gradation G6, the smaller the seventh gradation G7 in Fig. 21A can be set. Whereby overdriving can be performed more efficiently.

한편, 계조 설정부(330)는, 현재 프레임 영상(frame_c)의 프레임 레이트에 따라, 현재 프레임 영상의 계조를 다르게 가변할 수 있다. 예를 들어, 현재 프레임 영상(frame_c)이 프레임 레이트가 증가할수록, 가변된 계조의 계조 변화량의 크기가 더 클 수 있다. On the other hand, the gray-level setting unit 330 may vary the gray level of the current frame image according to the frame rate of the current frame image frame_c. For example, the larger the frame rate of the current frame image (frame_c), the greater the magnitude of the gradation change amount of the variable gradation.

한편, 제940 단계(S940)와 관련하여, 가변된 계조의 현재 프레임 영상을 표시한다. 예를 들어, ASL에 따라 깊이 가변된 3D 영상인 경우, 프레임 시퀀셜 포맷에 따라, 좌안 영상을 먼저 표시하고, 우안 영상을 그 이후에 표시한다. 이를 위해, 백라이트 램프(252)를 순차적으로 정렬된 좌안 영상과 우안 영상에 각각 동기시켜 턴 온 시킨다. 또한, 상술한 계조 가변이 수행된 경우, 계조 가변 수행된 좌안 영상을 먼저 표시하고, 우안 영상을 그 이후에 표시한다.On the other hand, in step 940 (S940), the current frame image of the variable gradation is displayed. For example, in the case of a 3D image having a variable depth according to the ASL, the left eye image is displayed first and the right eye image is displayed thereafter in accordance with the frame sequential format. For this, the backlight lamp 252 is turned on in synchronization with the sequentially arranged left eye image and right eye image, respectively. When the above-described gradation change is performed, the gradation-varied left eye image is displayed first, and the right eye image is displayed thereafter.

도 22를 참조하면, 도 10(c)에 도시된 바와 같이, 포맷터(460)에서 좌안 영상 프레임과 우안 영상 프레임으로 정렬된 상태에서, 좌안 영상 프레임과 우안 영상 프레임에 각각 동기시켜 백라이트 램프(252)를 턴 온 시킨다. 22, in a state in which the left eye image frame and the right eye image frame are aligned in the formatter 460, as shown in FIG. 10C, a backlight lamp 252 ).

도 22(a)는 각 프레임의 표시 시점을 알려주는 수직 동기 주파수(Vsync)를 보여주며, 도 22(b)는 각 프레임이 액정패널(210)에 입력된 상태에서, 백라이트 램프(252)가 좌안 영상 프레임 및 우안 영상 프레임에에 동기되어 턴 온되는 것을 보여준다. 22 (a) shows a vertical synchronizing frequency (Vsync) for indicating the display time of each frame, FIG. 22 (b) shows a case where the backlight lamp 252 is in a state in which each frame is inputted to the liquid crystal panel 210 The left eye image frame and the right eye image frame are turned on in synchronization with each other.

도 22(b)는, 연속하여 배치되는 좌안 영상 프레임의 일부 기간 동안 또는 연속하여 배치되는 우안 영상 프레임의 일부 기간 동안, 액정패널(210)의 상측에 배치되는 백라이트 램프(252)와 액정패널(210)의 하측에 배치되는 백라이트 램프(252)를 턴 온 하는 것을 예시한다. 이러한 구동에 의해, 3D 영상 표시시 인접 영상(좌안 영상과 우안 영상)이 겹쳐져 인식되는 크로스 토크 현상이 감소하게 된다. 또한, 상술한, ASL 따른 깊이 가변 또는 계조 가변 구동에 의해, 크로스 토크 현상이 감소하게 된다. 22 (b) is a view showing a state in which the backlight lamp 252 and the liquid crystal panel (not shown) disposed above the liquid crystal panel 210 during a partial period of a continuously arranged left eye image frame or a part of a continuous right eye image frame The backlight lamp 252 disposed on the lower side of the display panel 210 is turned on. By this driving, the crosstalk phenomenon in which the adjacent images (the left eye image and the right eye image) overlap each other when the 3D image is displayed is reduced. In addition, the crosstalk phenomenon is reduced by the depth variable or gradation variable driving according to the ASL described above.

한편, 도 22(b)는, 패널의 상측에 배치되는 백라이트 램프(252)를 먼저 턴 온하고, 패널의 하측에 배치되는 백라이트 램프(252)를 이후에 턴 온하는 것을 예시한다. 22 (b) illustrates that the backlight lamp 252 disposed on the upper side of the panel is first turned on and the backlight lamp 252 disposed on the lower side of the panel is turned on later.

도면을 보면, 패널의 상측에 배치되는 백라이트 램프(252)가 턴온되는 경우, 패널의 상측에서 중앙부분까지 광이 전달되어 표시되는 것을 보여주며, 패널의 하측에 배치되는 백라이트 램프(252)가 턴온되는 경우, 패널의 하측에서 중앙부분까지 광이 전달되어 표시되는 것을 보여준다.When the backlight lamp 252 disposed on the upper side of the panel is turned on, light is transmitted from the upper side to the center side of the panel, and the backlight lamp 252 disposed on the lower side of the panel is turned on The light is transmitted from the lower side to the central portion of the panel and is displayed.

한편, 도 22(c)는 백라이트 램프(252)의 턴 온/ 턴 오프 타이밍을 보여준다. 도면에서는 하이(high) 레벨에서 백라이트 램프(252)가 턴 온되는 것으로 한다. On the other hand, FIG. 22 (c) shows the turn-on / turn-off timing of the backlight lamp 252. FIG. In the drawing, it is assumed that the backlight lamp 252 is turned on at a high level.

한편, 도 22(d)는 셔터 글래스(195)의 동작 신호 타이밍을 보여준다. 셔터 글래스(195)의 동작 신호 타이밍에 따라, 좌안 영상 프레임(L1,L2,L3) 표시시에는 좌안 글래스만이 개방되고, 우안 영상 프레임(R1,R2,R3) 표시시에는 우안 글래스만이 개방된다.On the other hand, FIG. 22 (d) shows the timing of the operation signal of the shutter glass 195. Only the left eye glass is opened when the left eye image frames L1, L2 and L3 are displayed and only the right eye glass is opened when the right eye image frames R1, R2 and R3 are displayed according to the operation signal timing of the shutter glass 195 do.

한편, 3D 영상 표시시, 각 좌안 영상 프레임과 우안 영상 프레임 내에서 백라이트를 표시함으로써, 크로스 토크를 저감할 수 있게 된다.On the other hand, in the 3D image display, by displaying the backlight in each of the left eye image frame and the right eye image frame, the crosstalk can be reduced.

본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The image display apparatus and the operation method thereof according to the present invention are not limited to the configuration and method of the embodiments described above but the embodiments can be applied to all or some of the embodiments May be selectively combined.

한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the operation method of the image display apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the image display apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

Claims (17)

3D 영상을 수신하는 단계;
상기 3D 영상의 평균 화상 레벨을 연산하는 단계; 및
상기 연산된 평균 화상 레벨에 따라, 상기 3D 영상의 깊이를 가변하는 단계;
상기 깊이 가변된 3D 영상의 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 현재 프레임 영상의 계조를 가변하는 단계; 를 포함하며,
상기 깊이 가변 단계는,
상기 연산된 평균 화상 레벨이 제1 소정치 이하이거나, 상기 연산된 평균 화상 레벨이 상기 제1 소정치 보다 큰 제2 소정치 이상인 경우, 상기 3D 영상의 깊이가 작아지도록 설정하고,
상기 계조 가변 단계는,
영상표시장치의 온도가 낮을수록, 가변되는 계조의 계조 변화량의 크기가 커지도록 제어하는 것을 특징을 하는 영상표시장치의 동작방법.
Receiving a 3D image;
Calculating an average image level of the 3D image; And
Varying a depth of the 3D image according to the calculated average picture level;
Varying a gradation of a current frame image according to a gradation difference between a current frame image of the depth-variable 3D image and a previous frame image; / RTI >
Wherein the step of varying the depth comprises:
Setting the depth of the 3D image to be smaller when the calculated average image level is equal to or less than a first predetermined value or the calculated average image level is equal to or greater than a second predetermined value larger than the first predetermined value,
Wherein the gradation-
Wherein the control is performed so that the gradation change amount of the variable gradation becomes larger as the temperature of the video display device becomes lower.
삭제delete 제1항에 있어서,
상기 깊이 가변 단계는,
상기 연산된 평균 화상 레벨이 제1 소정치 이하인 경우, 하한치로 갈수록 상기 3D 영상의 깊이가 작아지도록 설정하는 것을 특징을 하는 영상표시장치의 동작방법.
The method according to claim 1,
Wherein the step of varying the depth comprises:
Wherein when the calculated average picture level is equal to or less than a first predetermined value, the depth of the 3D image is set to become smaller toward a lower limit value.
제1항에 있어서,
상기 깊이 가변 단계는,
상기 연산된 평균 화상 레벨이 제2 소정치 이상인 경우, 상한치로 갈수록 상기 3D 영상의 깊이가 작아지도록 설정하는 것을 특징을 하는 영상표시장치의 동작방법.
The method according to claim 1,
Wherein the step of varying the depth comprises:
And when the calculated average picture level is equal to or greater than the second predetermined value, the depth of the 3D image is set to become smaller toward the upper limit value.
제1항에 있어서
상기 깊이 가변된 3D 영상을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1, wherein
And displaying the 3D image with the variable depth.
제1항에 있어서,
상기 수신된 3D 영상의 프레임 레이트를 변환하는 단계;를 더 포함하며,
상기 깊이 가변 단계는,
상기 프레임 레이트 변환된 3D 영상을 기반으로 수행되는 것을 특징으로 하는 영상표시장치의 동작방법.
The method according to claim 1,
And converting the frame rate of the received 3D image,
Wherein the step of varying the depth comprises:
Wherein the frame rate conversion is performed based on the frame rate converted 3D image.
삭제delete 제1항에 있어서,
상기 계조 가변 단계는,
상기 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 설정된 계조 데이터를 구비하는 룩업 테이블을 이용하여, 상기 현재 프레임 영상의 계조를 가변하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method according to claim 1,
Wherein the gradation-
Wherein the grayscale of the current frame image is varied by using a lookup table having set grayscale data according to a grayscale difference between the current frame image and the previous frame image.
3D 영상을 수신하는 단계;
상기 3D 영상의 평균 화상 레벨을 연산하는 단계; 및
상기 연산된 평균 화상 레벨에 따라, 상기 3D 영상의 깊이를 가변하는 단계;
상기 깊이 가변된 3D 영상의 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 현재 프레임 영상의 계조를 가변하는 단계; 및
상기 계조 가변된 현재 프레임 영상을 표시하는 단계;를 포함하며,
상기 깊이 가변 단계는,
상기 연산된 평균 화상 레벨이 제1 소정치 이하이거나, 상기 연산된 평균 화상 레벨이 상기 제1 소정치 보다 큰 제2 소정치 이상인 경우, 상기 3D 영상의 깊이가 작아지도록 설정하고,
상기 계조 가변 단계는,
영상표시장치의 온도가 낮을수록, 가변되는 계조의 계조 변화량의 크기가 커지도록 제어하는 것을 특징으로 하는 영상표시장치의 동작방법.
Receiving a 3D image;
Calculating an average image level of the 3D image; And
Varying a depth of the 3D image according to the calculated average picture level;
Varying a gradation of a current frame image according to a gradation difference between a current frame image of the depth-variable 3D image and a previous frame image; And
And displaying the gradation-changed current frame image,
Wherein the step of varying the depth comprises:
Setting the depth of the 3D image to be smaller when the calculated average image level is equal to or less than a first predetermined value or the calculated average image level is equal to or greater than a second predetermined value larger than the first predetermined value,
Wherein the gradation-
Wherein the control is performed so that the gradation change amount of the variable gradation becomes larger as the temperature of the video display device becomes lower.
제9항에 있어서,
복호화된 3D 영상의 프레임 레이트를 변환하는 단계;를 더 포함하며,
상기 깊이 가변 단계는,
상기 프레임 레이트 변환된 3D 영상을 기반으로 수행되는 것을 특징으로 하는 영상표시장치의 동작방법.
10. The method of claim 9,
And converting the frame rate of the decoded 3D image,
Wherein the step of varying the depth comprises:
Wherein the frame rate conversion is performed based on the frame rate converted 3D image.
입력되는 3D 영상의 평균 화상 레벨을 연산하는 평균 화상 레벨 연산부;
상기 연산된 평균 화상 레벨에 따라, 상기 3D 영상의 깊이를 가변하는 포맷터;
입력되는 영상의 현재 프레임 영상과 이전 프레임 영상 사이의 계조 차이에 따라, 상기 현재 프레임 영상의 계조를 가변하는 계조 가변부; 및
상기 깊이 가변되고, 계조 가변된 3D 영상을 표시하는 디스플레이;를 포함하며,
상기 연산된 평균 화상 레벨이 제1 소정치 이하이거나, 상기 연산된 평균 화상 레벨이 상기 제1 소정치 보다 큰 제2 소정치 이상인 경우, 상기 3D 영상의 깊이가 작아지도록 설정하고,
상기 계조 가변부는,
영상표시장치의 온도가 낮을수록, 가변되는 계조의 계조 변화량의 크기가 커지도록 제어하는 것을 특징으로 하는 영상표시장치.
An average image level calculating unit for calculating an average image level of the input 3D image;
A formatter for varying the depth of the 3D image according to the calculated average picture level;
A gray level varying unit for changing a gray level of the current frame image according to a gray level difference between a current frame image of the input image and a previous frame image; And
And a display for displaying the depth-varied and gradated 3D image,
Setting the depth of the 3D image to be smaller when the calculated average image level is equal to or less than a first predetermined value or the calculated average image level is equal to or greater than a second predetermined value larger than the first predetermined value,
Wherein the gradation-
And controls so that the gradation change amount of the variable gradation becomes larger as the temperature of the image display apparatus becomes lower.
제11항에 있어서,
상기 포맷터는,
상기 연산된 평균 화상 레벨이 제1 소정치 이하이거나, 상기 연산된 평균 화상 레벨이 상기 제1 소정치 보다 큰 제2 소정치 이상인 경우, 상기 3D 영상의 깊이가 작아지도록 설정하는 것을 특징으로 하는 영상표시장치.
12. The method of claim 11,
The formatter comprising:
And sets the depth of the 3D image to be smaller when the calculated average image level is equal to or smaller than a first predetermined value or the calculated average image level is equal to or larger than a second predetermined value larger than the first predetermined value Display device.
제11항에 있어서,
상기 포맷터는,
상기 연산된 평균 화상 레벨이 제1 소정치 이하인 경우, 하한치로 갈수록 상기 3D 영상의 깊이가 작아지도록 설정하는 것을 특징으로 하는 영상표시장치.
12. The method of claim 11,
The formatter comprising:
And sets the depth of the 3D image to be smaller as the calculated average image level is lower than the first predetermined value.
제11항에 있어서,
상기 연산된 평균 화상 레벨이 제2 소정치 이상인 경우, 상한치로 갈수록 상기 3D 영상의 깊이가 작아지도록 설정하는 것을 특징으로 하는 영상표시장치.
12. The method of claim 11,
And sets the depth of the 3D image to be smaller as the calculated average picture level becomes the upper limit value when the calculated average picture level is equal to or greater than the second predetermined value.
제11항에 있어서,
상기 입력된 3D 영상의 프레임 레이트를 변환하는 프레임 레이트를 변환부;를 더 포함하고,
상기 포맷터는,
상기 연산된 평균 화상 레벨에 따라, 상기 프레임 레이트 변환된 3D 영상을 의 깊이를 가변하는 것을 특징으로 하는 영상표시장치.
12. The method of claim 11,
And a frame rate conversion unit for converting a frame rate of the input 3D image,
The formatter comprising:
And the depth of the 3D-converted image is varied according to the calculated average image level.
삭제delete 제11항에 있어서,
상기 디스플레이는, 표시 패널 배면에 배치되어 상기 패널로 광을 공급하는 복수의 백라이트 램프들을 구비하고,
상기 램프는, 상기 깊이 가변된 3D 영상의 좌안 영상과 우안 영상에 동기하여 턴 온하는 것을 특징으로 하는 영상표시장치.
12. The method of claim 11,
The display includes a plurality of backlight lamps disposed on a back surface of a display panel to supply light to the panel,
Wherein the lamp is turned on in synchronization with the left eye image and the right eye image of the depth-varying 3D image.
KR1020100089611A 2010-09-13 2010-09-13 Apparatus for displaying image and method for operating the same KR101702967B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100089611A KR101702967B1 (en) 2010-09-13 2010-09-13 Apparatus for displaying image and method for operating the same
EP11007239.4A EP2429199B1 (en) 2010-09-13 2011-09-06 Image display apparatus and method for operating the same
US13/229,929 US9007361B2 (en) 2010-09-13 2011-09-12 Image display apparatus and method for operating the same
CN201110269875.8A CN102413343B (en) 2010-09-13 2011-09-13 Image display apparatus and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100089611A KR101702967B1 (en) 2010-09-13 2010-09-13 Apparatus for displaying image and method for operating the same

Publications (2)

Publication Number Publication Date
KR20120027820A KR20120027820A (en) 2012-03-22
KR101702967B1 true KR101702967B1 (en) 2017-02-06

Family

ID=46132897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100089611A KR101702967B1 (en) 2010-09-13 2010-09-13 Apparatus for displaying image and method for operating the same

Country Status (1)

Country Link
KR (1) KR101702967B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981530B1 (en) * 2013-03-29 2019-05-23 엘지디스플레이 주식회사 Stereoscopic image display device and method for driving the same
KR102453950B1 (en) * 2015-09-30 2022-10-17 엘지디스플레이 주식회사 Display Device and Method of Driving the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101311896B1 (en) * 2006-11-14 2013-10-14 삼성전자주식회사 Method for shifting disparity of three dimentions and the three dimentions image apparatus thereof
KR101457893B1 (en) * 2007-10-10 2014-11-04 삼성전자주식회사 Method and apparatus for reducing fatigue resulting from three dimensional display, and method and apparatus for generating data stream for low-fatigue three dimensional images

Also Published As

Publication number Publication date
KR20120027820A (en) 2012-03-22

Similar Documents

Publication Publication Date Title
US9143771B2 (en) Image display device and method for operating the same
US9124884B2 (en) Image display device and method for operating the same
KR101729524B1 (en) Apparatus for displaying image and method for operating the same
EP2429199B1 (en) Image display apparatus and method for operating the same
US9219908B2 (en) Image display apparatus and method for operating the same
US20110012896A1 (en) Image display apparatus, 3d glasses, and method for operating the image display apparatus
KR101702967B1 (en) Apparatus for displaying image and method for operating the same
KR101668250B1 (en) Apparatus for displaying image and method for operating the same
KR101243960B1 (en) Apparatus for displaying image and method for operating the same
KR101680031B1 (en) Apparatus for displaying image and method for operating the same
KR101640403B1 (en) Apparatus for displaying image and method for operating the same
KR101796044B1 (en) Apparatus for displaying image
KR101203582B1 (en) Apparatus for displaying image and method for operating the same
KR101730323B1 (en) Apparatus for viewing image image display apparatus and method for operating the same
KR20120105235A (en) Apparatus for displaying image and method for operating the same
KR101961372B1 (en) Apparatus for displaying image and method for operating the same
KR20110114295A (en) Apparatus for viewing 3d image and method for operating the same
KR20130068963A (en) Image display apparatus, and method for operating the same
KR20120011251A (en) Multi vision system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right