KR102268047B1 - Video processing apparatus and method thereof - Google Patents

Video processing apparatus and method thereof Download PDF

Info

Publication number
KR102268047B1
KR102268047B1 KR1020140128569A KR20140128569A KR102268047B1 KR 102268047 B1 KR102268047 B1 KR 102268047B1 KR 1020140128569 A KR1020140128569 A KR 1020140128569A KR 20140128569 A KR20140128569 A KR 20140128569A KR 102268047 B1 KR102268047 B1 KR 102268047B1
Authority
KR
South Korea
Prior art keywords
sub
pulses
signal
pulse
frame
Prior art date
Application number
KR1020140128569A
Other languages
Korean (ko)
Other versions
KR20160036385A (en
Inventor
윤여민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140128569A priority Critical patent/KR102268047B1/en
Publication of KR20160036385A publication Critical patent/KR20160036385A/en
Application granted granted Critical
Publication of KR102268047B1 publication Critical patent/KR102268047B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/06Details of flat display driving waveforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 명세서는 영상 표시기기의 플리커 현상을 감소시킬 수 있는 영상 처리 장치 및 그 방법에 관한 것으로서, 본 명세서의 실시예에 따른 영상 처리 장치는, 하나의 픽셀 내에 포함된 다수의 서브 픽셀 각각에 대응하는 한 프레임의 펄스를 각 서브 픽셀에 출력하는 영상 처리 장치에 있어서, 상기 한 프레임의 펄스를 다수의 서브 펄스로 변경하고, 상기 다수의 서브 펄스의 면적을 동일하게 하면서 펄스 진폭과 펄스 폭은 서로 다르게 변환하고, 상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력하는 데이터 변환부를 더 포함할 수 있다.The present specification relates to an image processing apparatus capable of reducing a flicker phenomenon of an image display device and a method therefor, and the image processing apparatus according to an embodiment of the present specification provides an image processing apparatus corresponding to each of a plurality of sub-pixels included in one pixel. In the image processing apparatus for outputting a pulse of one frame to each sub-pixel, the pulse of one frame is changed to a plurality of sub-pulses, the area of the plurality of sub-pulses is the same, and the pulse amplitude and the pulse width are different from each other The method may further include a data converter configured to convert the plurality of sub-pulses and output the converted plurality of sub-pulses as pulses of one frame to a corresponding pixel.

Description

영상 처리 장치 및 그 방법{VIDEO PROCESSING APPARATUS AND METHOD THEREOF}Image processing apparatus and method thereof {VIDEO PROCESSING APPARATUS AND METHOD THEREOF}

본 발명은 영상 처리 장치 및 그 방법에 관한 것이다.The present invention relates to an image processing apparatus and a method therefor.

영상 표시기기는 방송을 수신하여 표시하거나, 동영상을 기록 및 재생하는 장치와 오디오를 기록 및 재생하는 장치를 모두 포함한다. 상기 영상표시기기는 예를 들어, 텔레비전, 컴퓨터 모니터, 프로젝터, 테블릿 등을 포함한다. 이와 같은 영상표시기기는 기능이 다양화됨에 따라, 방송이나, 음악이나 동영상 파일의 재생 기능 외에도, 사진이나 동영상의 촬영, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가, 최근에는 영상표시기기가 스마트 기기(예를 들어, 스마트 텔레비전)로서 구현되고 있다. The video display device includes both an apparatus for receiving and displaying a broadcast or recording and reproducing a video and an apparatus for recording and reproducing audio. The image display device includes, for example, a television, a computer monitor, a projector, and a tablet. As the functions of such video display devices are diversified, in addition to broadcasting and playback of music or video files, these video display devices are in the form of multimedia devices equipped with complex functions such as taking pictures or videos, playing games, and receiving broadcasts. is being implemented with Furthermore, recently, an image display device has been implemented as a smart device (eg, a smart television).

한국특허 출원 번호 제10-2011-0052965호Korean Patent Application No. 10-2011-0052965

본 발명의 목적은, 영상 표시기기의 플리커 현상을 감소시킬 수 있는 영상 처리 장치 및 그 방법을 제공하는 데 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus and method capable of reducing a flicker phenomenon of an image display device.

본 명세서의 실시예에 따른 영상 처리 장치는, 하나의 픽셀 내에 포함된 다수의 서브 픽셀 각각에 대응하는 한 프레임의 펄스를 각 서브 픽셀에 출력하는 영상 처리 장치에 있어서, 상기 한 프레임의 펄스를 다수의 서브 펄스로 변경하고, 상기 다수의 서브 펄스의 면적을 동일하게 하면서 펄스 진폭과 펄스 폭은 서로 다르게 변환하고, 상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력하는 데이터 변환부를 더 포함할 수 있다.An image processing apparatus according to an embodiment of the present specification outputs a pulse of one frame corresponding to each of a plurality of sub-pixels included in one pixel to each sub-pixel, wherein the plurality of pulses of one frame is output to each sub-pixel. data conversion that converts the plurality of sub-pulses to a sub-pulse of , equalizes the area of the plurality of sub-pulses, converts the pulse amplitudes and pulse widths differently, and outputs the converted plurality of sub-pulses as pulses of one frame to the corresponding pixel It may include more wealth.

본 발명과 관련된 일 예로서, 상기 데이터 변환부는, 상기 한 프레임의 펄스를 제1 내지 제3 서브 펄스로 변경하고, 상기 제1 내지 제3 서브 펄스의 각 면적을 동일하게 하면서 상기 제1 내지 제3 펄스의 각 진폭과 각 펄스 폭은 서로 다르게 변환할 수 있다.As an example related to the present invention, the data conversion unit may change the pulses of the one frame into first to third sub-pulses, and make the first to third sub-pulses the same area as the first to third sub-pulses. Each amplitude of 3 pulses and each pulse width can be converted differently.

본 발명과 관련된 일 예로서, 상기 해당 픽셀은 LED(Light Emitting Diode)일 수 있다.As an example related to the present invention, the corresponding pixel may be a light emitting diode (LED).

본 발명과 관련된 일 예로서, 상기 데이터 변환부는, 상기 LED의 출력 광량이 동일하도록 상기 제1 내지 제3 서브 펄스의 각 면적을 동일하게 하면서 상기 제1 내지 제3 펄스의 각 진폭과 각 펄스 폭은 서로 다르게 변환할 수 있다.As an example related to the present invention, the data conversion unit may include each amplitude and each pulse width of the first to third pulses while making the areas of the first to third sub-pulses the same so that the output light amount of the LED is the same. can be converted differently.

본 명세서의 실시예에 따른 영상 처리 방법은, 하나의 픽셀 내에 포함된 다수의 서브 픽셀 각각에 대응하는 한 프레임의 펄스를 각 서브 픽셀에 출력하는 영상 처리 방법에 있어서, 상기 한 프레임의 펄스를 다수의 서브 펄스로 변경하는 단계와; 상기 다수의 서브 펄스의 면적을 동일하게 하면서 펄스 진폭과 펄스 폭은 서로 다르게 변환하는 단계와; 상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력하는 단계를 포함할 수 있다.An image processing method according to an embodiment of the present specification is an image processing method of outputting a pulse of one frame corresponding to each of a plurality of sub-pixels included in one pixel to each sub-pixel, wherein a plurality of pulses of one frame changing to a sub-pulse of ; converting the pulse amplitudes and pulse widths to be different from each other while making the areas of the plurality of sub-pulses the same; and outputting the converted plurality of sub-pulses as pulses of one frame to a corresponding pixel.

본 발명의 실시예에 따른 영상 처리 장치 및 그 방법은, 한 프레임의 펄스를 다수의 서브 펄스로 변경하고, 상기 다수의 서브 펄스의 면적을 동일하게 하면서 펄스 진폭과 펄스 폭은 서로 다르게 변환하고, 상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력함으로써, 영상 표시기기의 플리커 현상을 감소시킬 수 있다.An image processing apparatus and method according to an embodiment of the present invention include converting a pulse of one frame into a plurality of sub-pulses, making the area of the plurality of sub-pulses the same, and converting a pulse amplitude and a pulse width to be different, By outputting the converted plurality of sub-pulses as pulses of one frame to a corresponding pixel, it is possible to reduce a flicker phenomenon of an image display device.

도 1은 본 발명과 관련된 영상표시기기 및 외부 입력 장치를 보여주는 블록도이다.
도 2는 본 발명의 실시예에 따른 영상 처리 장치가 적용된 발광 다이오드(Light Emitting Diode) 표시장치를 나타낸 구성도이다.
도 3은 PWM 방식으로 계조 표현시 발생하는 플리커(inter Flicker)를 나타낸 예시도 이다.
도 4는 펄스 면적이 동일한 펄스 신호를 나타낸 예시도 이다.
도 5는 본 발명의 실시예에 따른 한 프레임의 펄스를 나타낸 예시도 이다.
도 6a-6b는 본 발명의 실시예에 따른 한 프레임의 펄스를 나타낸 다른 예시도 이다.
1 is a block diagram showing an image display device and an external input device related to the present invention.
2 is a block diagram illustrating a light emitting diode display to which an image processing apparatus according to an embodiment of the present invention is applied.
3 is an exemplary diagram illustrating flicker (inter flicker) generated when grayscale is expressed in a PWM method.
4 is an exemplary diagram illustrating a pulse signal having the same pulse area.
5 is an exemplary diagram illustrating a pulse of one frame according to an embodiment of the present invention.
6A-6B are other exemplary views illustrating a pulse of one frame according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다. It should be noted that technical terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in this specification should be interpreted in the meaning generally understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise defined in this specification, and excessively inclusive. It should not be construed in the meaning of a human being or in an excessively reduced meaning. In addition, when the technical terms used in the present specification are incorrect technical terms that do not accurately express the spirit of the present invention, they should be understood by being replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to the context before and after, and should not be interpreted in an excessively reduced meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. Also, as used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or various steps described in the specification, some of which components or some steps are It should be construed that it may not include, or may further include additional components or steps.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Also, terms including ordinal numbers such as first, second, etc. used herein may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in the description of the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

본 명세서에서, 영상표시기기는 방송을 수신하여 표시하거나, 동영상을 기록 및 재생하는 장치와 오디오를 기록 및 재생하는 장치를 모두 포함한다. 이하, 이러한 예로서, 텔레비전을 예를 들어 설명한다.In the present specification, the video display device includes both an apparatus for receiving and displaying a broadcast, recording and reproducing a moving picture, and an apparatus for recording and reproducing audio. Hereinafter, as such an example, a television is demonstrated as an example.

도 1은 본 발명과 관련된 영상표시기기(100) 및 외부 입력 장치(200)를 보여주는 블록도이다. 영상표시기기(100)는, 튜너(110), 복조부(120), 신호 입출력부(130), 인터페이스부(140), 제어부(150), 저장부(160), 디스플레이부(170) 및 오디오 출력부(180)를 포함한다. 다만, 외부 입력 장치(200)는 영상표시기기(100)와 별도의 장치이나, 영상표시기기(100)의 일 구성요소로 포함될 수도 있다.1 is a block diagram showing an image display device 100 and an external input device 200 related to the present invention. The image display device 100 includes a tuner 110 , a demodulator 120 , a signal input/output unit 130 , an interface unit 140 , a control unit 150 , a storage unit 160 , a display unit 170 , and an audio unit. and an output unit 180 . However, the external input device 200 is a device separate from the image display device 100 , but may be included as a component of the image display device 100 .

도 1을 참조하면, 튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 대응하는 RF 방송 신호를 선택하고, RF 방송 신호를 중간 주파수 신호 또는 베이스 밴드 영상/음성 신호로 변환한다. 예를 들어, RF 방송 신호가 디지털 방송 신호이면, 튜너(110)는 RF 방송 신호를 디지털 IF 신호(DIF)로 변환한다. 반면, RF 방송 신호가 아날로그 방송 신호이면, 튜너(110)는 RF 방송 신호를 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)로 변환된다. 이와 같이, 튜너(110)는 디지털 방송 신호와 아날로그 방송 신호를 처리할 수 있는 하이브리드 튜너일 수 있다.Referring to FIG. 1 , the tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user from among radio frequency (RF) broadcast signals received through an antenna, and converts the RF broadcast signal to an intermediate frequency signal or a baseband image. /convert to audio signal For example, if the RF broadcast signal is a digital broadcast signal, the tuner 110 converts the RF broadcast signal into a digital IF signal (DIF). On the other hand, if the RF broadcast signal is an analog broadcast signal, the tuner 110 converts the RF broadcast signal into an analog baseband video/audio signal (CVBS/SIF). As such, the tuner 110 may be a hybrid tuner capable of processing a digital broadcast signal and an analog broadcast signal.

튜너(110)에서 출력되는 디지털 IF 신호(DIF)는 복조부(120)로 입력되고, 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 제어부(160)로 입력될 수 있다. 튜너(120)는 ATSC(Advanced Television Systems Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.The digital IF signal DIF output from the tuner 110 is input to the demodulator 120 , and the analog baseband video/audio signal CVBS/SIF output from the tuner 110 is input to the controller 160 . can The tuner 120 may receive a single-carrier RF broadcast signal according to an Advanced Television Systems Committee (ATSC) method or a multi-carrier RF broadcast signal according to a Digital Video Broadcasting (DVB) method.

비록 도면에는 하나의 튜너(110)가 도시되나, 이에 한정되지 않고, 영상표시기기(100)는 다수의 튜너, 예를 들어, 제 1 및 제 2 튜너를 구비할 수 있다. 이런 경우, 제 1 튜너는 사용자가 선택한 방송 채널에 대응하는 제 1 RF 방송 신호를 수신하고, 제 2 튜너는 기저장된 방송 채널에 대응하는 제 2 RF 방송 신호를 순차적으로 또는 주기적으로 수신할 수 있다. 제 2 튜너는 제 1 튜너와 마찬가지 방식으로 RF 방송 신호를 디지털 IF 신호(DIF) 또는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)로 변환할 수 있다.Although one tuner 110 is shown in the drawings, the present invention is not limited thereto, and the image display device 100 may include a plurality of tuners, for example, first and second tuners. In this case, the first tuner may receive the first RF broadcast signal corresponding to the broadcast channel selected by the user, and the second tuner may sequentially or periodically receive the second RF broadcast signal corresponding to the pre-stored broadcast channel. . The second tuner may convert the RF broadcast signal into a digital IF signal (DIF) or an analog baseband video/audio signal (CVBS/SIF) in the same manner as the first tuner.

복조부(120)는 튜너(110)에서 변환되는 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호(DIF)가 ATSC 방식이면, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 이때, 복조부(120)는 트렐리스 복호화, 디인터리빙(de-interleaving), 리드 솔로몬 복호화 등의 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는 트렐리스 디코더(Trellis decoder), 디인터리버(de-interleaver) 및 리드 솔로몬 디코더(Reed Solomon decoder) 등을 구비할 수 있다.The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation. For example, if the digital IF signal DIF output from the tuner 110 is ATSC, the demodulator 120 performs 8-Vestigal Side Band (8-VSB) demodulation. In this case, the demodulator 120 may perform channel decoding such as trellis decoding, de-interleaving, and Reed-Solomon decoding. To this end, the demodulator 120 may include a Trellis decoder, a de-interleaver, a Reed Solomon decoder, and the like.

다른 예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호(DIF)가 DVB 방식이면, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 이때, 복조부(120)는 컨벌루션 복호화, 디인터리빙, 리드 솔로몬 복호화 등의 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는 컨벌루션 디코더(convolution decoder), 디인터리버 및 리드-솔로몬 디코더 등을 구비할 수 있다.For another example, if the digital IF signal DIF output from the tuner 110 is DVB, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation. In this case, the demodulator 120 may perform channel decoding such as convolutional decoding, deinterleaving, and Reed-Solomon decoding. To this end, the demodulator 120 may include a convolution decoder, a deinterleaver, and a Reed-Solomon decoder.

신호 입출력부(130)는 외부 기기와 연결되어 신호 입력 및 출력 동작을 수행하고, 이를 위해, A/V 입출력부 및 무선 통신부를 포함할 수 있다.The signal input/output unit 130 may be connected to an external device to perform signal input and output operations, and to this end, may include an A/V input/output unit and a wireless communication unit.

A/V 입출력부는 이더넷(Ethernet) 단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, MHL (Mobile High-definition Link) 단자, RGB 단자, D-SUB 단자, IEEE 1394 단자, SPDIF 단자, 리퀴드(Liquid) HD 단자 등을 포함할 수 있다. 이러한 단자들을 통해 입력되는 디지털 신호는 제어부(150)에 전달될 수 있다. 이때, CVBS 단자 및 S-비디오 단자를 통해 입력되는 아날로그 신호는 아날로그-디지털 변환부(미도시)를 통해 디지털 신호로 변환되어 제어부(150)로 전달될 수 있다.A/V input/output unit is Ethernet (Ethernet) terminal, USB terminal, CVBS (Composite Video Banking Sync) terminal, component terminal, S-video terminal (analog), DVI (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminal , a Mobile High-definition Link (MHL) terminal, an RGB terminal, a D-SUB terminal, an IEEE 1394 terminal, an SPDIF terminal, a Liquid HD terminal, and the like. A digital signal input through these terminals may be transmitted to the controller 150 . In this case, the analog signal input through the CVBS terminal and the S-video terminal may be converted into a digital signal through an analog-to-digital converter (not shown) and transmitted to the controller 150 .

무선 통신부는 무선 인터넷 접속을 수행할 수 있다. 예를 들어, 무선 통신부는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등을 이용하여 무선 인터넷 접속을 수행할 수 있다. 또한, 무선 통신부는 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 예를 들어, 무선 통신부는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등을 이용하여 근거리 무선 통신을 수행할 수 있다.The wireless communication unit may perform wireless Internet access. For example, the wireless communication unit performs wireless Internet access using Wireless LAN (WLAN) (Wi-Fi), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), etc. can do. In addition, the wireless communication unit may perform short-range wireless communication with other electronic devices. For example, the wireless communication unit may perform short-range wireless communication using Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, etc. have.

신호 입출력부(130)는 DVD(Digital Versatile Disk) 플레이어, 블루레이(Blu-ray) 플레이어, 게임기기, 캠코더, 컴퓨터(노트북), 휴대기기, 스마트 폰 등과 같은 외부 기기로부터 제공되는 영상 신호, 음성 신호 및 데이터 신호를 제어부(150)로 전달할 수 있다. 또한, 메모리장치, 하드디스크 등과 같은 외부 저장 장치에 저장된 다양한 미디어 파일의 영상 신호, 음성 신호 및 데이터 신호를 제어부(150)로 전달할 수 있다. 또한, 제어부(150)에 의해 처리된 영상 신호, 음성 신호 및 데이터 신호를 다른 외부 기기로 출력할 수 있다.The signal input/output unit 130 provides a video signal and audio provided from an external device such as a DVD (Digital Versatile Disk) player, a Blu-ray player, a game device, a camcorder, a computer (laptop), a mobile device, a smart phone, etc. Signals and data signals may be transmitted to the controller 150 . In addition, image signals, audio signals, and data signals of various media files stored in an external storage device such as a memory device or a hard disk may be transmitted to the controller 150 . In addition, the image signal, the audio signal, and the data signal processed by the controller 150 may be output to another external device.

신호 입출력부(130)는 상술한 각종 단자 중 적어도 하나를 통해 셋톱 박스, 예를 들어, IPTV(Internet Protocol TV)용 셋톱 박스와 연결되어 신호 입력 및 출력 동작을 수행할 수 있다. 예를 들어, 신호 입출력부(130)는 양방향 통신이 가능하도록 IPTV용 셋톱 박스에 의해 처리된 영상 신호, 음성 신호 및 데이터 신호를 제어부(150)로 전달할 수 있고, 제어부(150)에 의해 처리된 신호들을 IPTV용 셋톱 박스로 전달할 수도 있다. 여기서, IPTV는 전송 네트워크에 따라 구분되는 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함할 수 있다.The signal input/output unit 130 may be connected to a set-top box, for example, a set-top box for Internet Protocol TV (IPTV), through at least one of the above-described various terminals to perform signal input and output operations. For example, the signal input/output unit 130 may transmit a video signal, an audio signal, and a data signal processed by the IPTV set-top box to the control unit 150 to enable two-way communication, and the signal input/output unit 130 may be processed by the control unit 150 Signals can also be forwarded to a set-top box for IPTV. Here, the IPTV may include ADSL-TV, VDSL-TV, FTTH-TV, etc. classified according to the transmission network.

복조부(120) 및 신호 출력부(130)에서 출력되는 디지털 신호는 스트림 신호(TS)를 포함할 수 있다. 스트림 신호(TS)는 영상 신호, 음성 신호 및 데이터 신호가 다중화된 신호일 수 있다. 예를 들어, 스트림 신호(TS)는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transprt Stream)일 수 있다. 여기서, MPEG-2 TS는 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The digital signal output from the demodulator 120 and the signal output unit 130 may include a stream signal TS. The stream signal TS may be a signal in which an image signal, an audio signal, and a data signal are multiplexed. For example, the stream signal TS may be an MPEG-2 TS (Transprt Stream) in which an MPEG-2 standard video signal, a Dolby AC-3 audio signal, etc. are multiplexed. Here, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

인터페이스부(140)는 외부 입력 장치(200)로부터 전원 제어, 채널 선택, 화면 설정 등을 위한 입력 신호를 수신하거나, 제어부(160)에 의해 처리된 신호를 외부 입력 장치(200)로 전송할 수 있다. 인터페이스부(140)와 외부 입력 장치(200)는 유선 또는 무선으로 연결될 수 있다.The interface unit 140 may receive an input signal for power control, channel selection, screen setting, etc. from the external input device 200 , or transmit a signal processed by the control unit 160 to the external input device 200 . . The interface unit 140 and the external input device 200 may be connected by wire or wirelessly.

상기 인터페이스부(140)의 일 예로서, 센서부가 구비될 수 있으며, 센서부는 원격조정기, 예를 들어 리모컨으로부터 상기 입력 신호를 감지하도록 이루어진다. As an example of the interface unit 140 , a sensor unit may be provided, and the sensor unit is configured to detect the input signal from a remote controller, for example, a remote controller.

네트워크 인터페이스부(미도시)는, 영상표시기기(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(230)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. The network interface unit (not shown) provides an interface for connecting the video display device 100 to a wired/wireless network including an Internet network. The network interface unit 230 may include an Ethernet terminal or the like for connection with a wired network, and for connection with a wireless network, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless) broadband), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet Access (HSDPA) communication standards may be used.

네트워크 인터페이스부(미도시)는, 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 콘텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.The network interface unit (not shown) may access a predetermined web page through a network. That is, by accessing a predetermined web page through a network, it is possible to transmit or receive data with a corresponding server. In addition, content or data provided by a content provider or network operator may be received. That is, it is possible to receive content such as a movie, advertisement, game, VOD, and broadcast signal and information related thereto provided from the content provider or the network provider through the network. In addition, it is possible to receive firmware update information and an update file provided by a network operator. It may also transmit data to the Internet or to a content provider or network operator.

또한, 네트워크 인터페이스부(미도시)는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다. Also, the network interface unit (not shown) may select and receive a desired application from among applications open to the public through a network.

제어부(150)는 영상표시기기(100)의 전반적인 동작을 제어할 수 있다. 보다 구체적으로, 제어부(150)는 영상의 생성 및 출력을 제어하도록 형성된다. 예를 들어, 제어부(150)는 사용자가 선택한 채널 또는 기저장된 채널에 대응하는 RF 방송 신호를 튜닝(tuning)하도록 튜너(110)를 제어할 수 있다. 비록 도면에는 도시되지 않았으나, 제어부(150)는 역다중화부, 영상 처리부, 음성 처리부, 데이터 처리부, OSD(On Screen Display) 생성부 등을 포함할 수 있다. 또한, 제어부(150)는 하드웨어적으로 CPU 나 주변기기 등을 포함할 수 있다.The controller 150 may control the overall operation of the image display device 100 . More specifically, the controller 150 is configured to control image generation and output. For example, the controller 150 may control the tuner 110 to tune an RF broadcast signal corresponding to a channel selected by the user or a pre-stored channel. Although not shown in the drawings, the controller 150 may include a demultiplexer, an image processor, an audio processor, a data processor, an OSD (On Screen Display) generator, and the like. In addition, the controller 150 may include a CPU or a peripheral device in hardware.

제어부(150)는 스트림 신호(TS), 예를 들어, MPEG-2 TS를 역다중화하여 영상 신호, 음성 신호 및 데이터 신호로 분리할 수 있다.The controller 150 may demultiplex the stream signal TS, for example, the MPEG-2 TS, and separate it into an image signal, an audio signal, and a data signal.

제어부(150)는 역다중화된 영상 신호에 대한 영상 처리, 예를 들어, 복호화를 수행할 수 있다. 좀더 상세하게, 제어부(150)는 MPEG-2 디코더를 이용하여 MPEG-2 규격의 부호화된 영상 신호를 복호화하고, H.264 디코더를 이용하여 DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호를 복호화할 수 있다. 또한, 제어부(150)는 영상 신호의 밝기(brightness), 틴트(tint) 및 색조(color) 등이 조절되도록 영상 처리할 수 있다. 제어부(150)에 의해 영상 처리된 영상 신호는 디스플레이부(170)로 전달되거나, 외부 출력 단자를 통해 외부 출력 장치(미도시)로 전달될 수 있다.The controller 150 may perform image processing, for example, decoding, on the demultiplexed image signal. In more detail, the control unit 150 decodes a video signal encoded in the MPEG-2 standard using an MPEG-2 decoder, and uses an H.264 decoder to perform an H according to a Digital Multimedia Broadcasting (DMB) scheme or DVB-H. It is possible to decode a video signal encoded in the .264 standard. Also, the controller 150 may process the image to adjust brightness, tint, and color of the image signal. The image signal processed by the control unit 150 may be transmitted to the display unit 170 or may be transmitted to an external output device (not shown) through an external output terminal.

제어부(150)는 역다중화된 음성 신호에 대한 음성 처리, 예를 들어, 복호화를 수행할 수 있다. 좀더 상세하게, 제어부(150)는 MPEG-2 디코더를 이용하여 MPEG-2 규격의 부호화된 음성 신호를 복호화하고, MPEG 4 디코더를 이용하여 DMB 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호를 복호화하며, AAC 디코더를 이용하여 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호를 복호화할 수 있다. 또한, 제어부(150)는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. 제어부(150)에서 처리된 음성 신호는 오디오 출력부(180), 예를 들어, 스피커로 전달되거나, 외부 출력 장치로 전달될 수 있다.The controller 150 may perform voice processing, eg, decoding, on the demultiplexed voice signal. In more detail, the control unit 150 decodes the encoded audio signal of the MPEG-2 standard using the MPEG-2 decoder, and uses the MPEG 4 decoder of the MPEG 4 BSAC (Bit Sliced Arithmetic Coding) standard according to the DMB method. The coded voice signal is decoded, and the coded voice signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H can be decoded using the AAC decoder. In addition, the control unit 150 may process a base (Base), a treble (Treble), volume control, and the like. The audio signal processed by the controller 150 may be transmitted to the audio output unit 180, for example, a speaker, or may be transmitted to an external output device.

제어부(150)는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)에 대한 신호 처리를 수행할 수 있다. 여기서, 제어부(150)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(110) 또는 신호 입출력부(130)에서 출력된 아날로그 베이스 밴드 영상/음성신호일 수 있다. 신호 처리된 영상 신호는 디스플레이부(170)를 통해 표시되고, 신호 처리된 음성 신호는 오디오 출력부(180)를 통해 출력된다.The controller 150 may perform signal processing on an analog baseband video/audio signal (CVBS/SIF). Here, the analog baseband video/audio signal (CVBS/SIF) input to the controller 150 may be an analog baseband video/audio signal output from the tuner 110 or the signal input/output unit 130 . The signal-processed image signal is displayed through the display unit 170 , and the signal-processed audio signal is output through the audio output unit 180 .

제어부(150)는 역다중화된 데이터 신호에 대한 데이터 처리, 예를 들어, 복호화를 수행할 수 있다. 여기서, 데이터 신호는 각각의 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Program Guide) 정보를 포함할 수 있다. EPG 정보는, 예를 들어, ATSC 방식에서는 TSC-PSIP(ATSC-Program and System Information Protocol) 정보를 포함하고, DVB 방식에서는 DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는 MPEG-2 TS의 헤더(4 byte)에 포함될 수 있다.The controller 150 may perform data processing, eg, decoding, on the demultiplexed data signal. Here, the data signal may include EPG (Electronic Program Guide) information including broadcast information such as start time and end time of a broadcast program aired on each channel. The EPG information may include, for example, ATSC-Program and System Information Protocol (TSC-PSIP) information in the ATSC scheme and DVB-Service Information (DVB-SI) information in the DVB scheme. ATSC-PSIP information or DVB-SI information may be included in a header (4 bytes) of MPEG-2 TS.

제어부(150)는 OSD 처리를 위한 제어 동작을 수행할 수 있다. 좀더 상세하게, 제어부(150)는 영상 신호 및 데이터 신호 중 적어도 하나 또는 외부 입력 장치(200)로부터 수신되는 입력 신호에 근거하여 각종 정보를 그래픽(Graphic)이나 텍스트(Text) 형태로 표시하기 위한 OSD 신호를 생성할 수 있다. OSD 신호는 영상표시기기(100)의 사용자 인터페이스 화면, 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.The controller 150 may perform a control operation for OSD processing. In more detail, the controller 150 is an OSD for displaying various information in the form of graphics or text based on at least one of an image signal and a data signal or an input signal received from the external input device 200 . signal can be generated. The OSD signal may include various data such as a user interface screen, a menu screen, a widget, and an icon of the image display device 100 .

저장부(160)는 제어부(150)의 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상 신호, 음성 신호 및 데이터 신호를 저장할 수도 있다. 저장부(160)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다.The storage unit 160 may store a program for signal processing and control of the controller 150 , and may store signal-processed image signals, audio signals, and data signals. The storage unit 160 includes a flash memory, a hard disk, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, optical disk It may include at least one storage medium.

디스플레이부(170)는 제어부(150)에 의해 처리된 영상 신호, 데이터 신호, OSD 신호 등을 RGB 신호로 변환하여 구동 신호를 생성할 수 있다. 이를 통하여, 디스플레이부(170)는 영상을 출력하게 된다. 디스플레이부(170)는 플라즈마 디스플레이 패널(Plasma Display Panel: PDP), 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT- LCD), 유기 발광 다이오드(Organic Light Emitting Diode: OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 등의 다양한 형태로 구현될 수 있다. 또한, 디스플레이(180)는 터치 스크린으로 구현되어 입력 장치의 기능도 수행할 수 있다.The display unit 170 may generate a driving signal by converting an image signal, a data signal, an OSD signal, etc. processed by the control unit 150 into an RGB signal. Through this, the display unit 170 outputs an image. The display unit 170 includes a plasma display panel (PDP), a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT-LCD), an organic light emitting diode (OLED) Light Emitting Diode: OLED), flexible display (flexible display), three-dimensional display (3D display), can be implemented in various forms such as an e-ink display (e-ink display). Also, the display 180 may be implemented as a touch screen to perform a function of an input device.

오디오 출력부(180)는 제어부(150)에 의해 처리된 음성 신호, 예를 들어, 스테레오 신호 또는 5.1 채 신호를 출력한다. 오디오 출력부(180)는 다양한 형태의 스피커로 구현될 수 있다.The audio output unit 180 outputs the audio signal processed by the control unit 150, for example, a stereo signal or a 5.1 signal. The audio output unit 180 may be implemented with various types of speakers.

한편, 사용자를 촬영하는 촬영부(미도시)를 더 구비할 수 있다. 촬영부(미도시)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(270)에 입력된다.Meanwhile, a photographing unit (not shown) for photographing the user may be further provided. The photographing unit (not shown) may be implemented with one camera, but is not limited thereto, and may be implemented with a plurality of cameras. Image information captured by the photographing unit (not shown) is input to the control unit 270 .

한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시기기(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(140)를 통해 제어부(150)로 전달될 수 있다. Meanwhile, in order to detect the user's gesture, as described above, a sensing unit (not shown) including at least one of a touch sensor, a voice sensor, a position sensor, and a motion sensor may be further provided in the image display device 100 . have. The signal sensed by the sensing unit (not shown) may be transmitted to the control unit 150 through the user input interface unit 140 .

제어부(150)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수도 있다. The controller 150 may detect a user's gesture by individually or in combination with an image captured by a photographing unit (not shown) or a signal sensed from a sensing unit (not shown).

전원 공급부(미도시)는, 영상표시기기(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip, SOC)의 형태로 구현될 수 있는 제어부(150)와, 영상 표시를 위한 디스플레이부(170), 및 오디오 출력을 위한 오디오 출력부(180)에 전원을 공급할 수 있다. The power supply unit (not shown) supplies the corresponding power throughout the image display device 100 . In particular, to supply power to the control unit 150 that can be implemented in the form of a system on chip (SOC), the display unit 170 for image display, and the audio output unit 180 for audio output. can

이를 위해, 전원 공급부(미도시)는, 교류 전원을 직류 전원으로 변환하는 컨버터(미도시)를 구비할 수 있다. 한편, 예를 들어, 디스플레이부(170)가 다수의 백라이트 램프를 구비하는 액정패널로서 구현되는 경우, 휘도 가변 또는 디밍(dimming) 구동을 위해, PWM 동작이 가능한 인버터(미도시)를 더 구비할 수도 있다.To this end, the power supply unit (not shown) may include a converter (not shown) for converting AC power into DC power. On the other hand, for example, when the display unit 170 is implemented as a liquid crystal panel having a plurality of backlight lamps, an inverter (not shown) capable of PWM operation may be further provided for luminance variable or dimming driving. may be

외부 입력 장치(200)는 유선 또는 무선으로 인터페이스부(140)와 연결되며,사용자 입력에 따라 생성되는 입력 신호를 인터페이스부(140)로 전송한다. 외부 입력 장치(200)는 원격조정기, 마우스, 키보드 등을 포함할 수 있다. 원격조정기는 블루투스(Bluetooth), RF 통신, 적외선 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 통해 입력 신호를 인터페이스부(140)로 전송할 수 있다. 원격조정기는 공간 원격 제어 장치로서 구현될 수 있다. 공간 원격 제어 장치는 공간에서 본체의 동작을 감지하여 입력 신호를 생성할 수 있다.The external input device 200 is connected to the interface unit 140 by wire or wirelessly, and transmits an input signal generated according to a user input to the interface unit 140 . The external input device 200 may include a remote controller, a mouse, a keyboard, and the like. The remote controller may transmit an input signal to the interface unit 140 through Bluetooth, RF communication, infrared communication, Ultra Wideband (UWB), ZigBee, or the like. The remote controller may be implemented as a spatial remote control device. The space remote control device may generate an input signal by sensing the motion of the main body in space.

영상표시기기(100)는 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 고정형 디지털 방송 수신기로 구현될 수 있다. 또한, 영상표시기기(100)는 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 이동형 디지털 방송 수신기로 구현될 수 있다. 또한, 영상표시기기(100)는 케이블, 위성통신, IPTV용 디지털 방송 수신기로 구현될 수 있다.The video display device 100 receives at least one of ATSC method (8-VSB method) digital broadcast, DVB-T method (COFDM method) digital broadcast, ISDB-T method (BST-OFDM method) digital broadcast, etc. It can be implemented as a possible fixed digital broadcast receiver. In addition, the image display device 100 is a digital broadcast of the terrestrial DMB method, the digital broadcast of the satellite DMB method, the digital broadcast of the ATSC-M/H method, the digital broadcast of the DVB-H method (COFDM method), and the media flow (Media Forward). Link Only) type digital broadcasting, etc. may be implemented as a mobile digital broadcasting receiver capable of receiving at least one. In addition, the image display device 100 may be implemented as a digital broadcast receiver for cable, satellite communication, and IPTV.

또한, 상기에서 설명된 영상 표시 장치는 이동 단말기에도 적용될 수 있다. 상기 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook) 등이 포함될 수 있다. Also, the video display device described above may be applied to a mobile terminal. The mobile terminal includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a slate PC, a tablet PC ( tablet PC), ultrabooks, and the like.

영상 표시 장치가 이동 단말기로서 사용되는 경우에는 무선 통신부가 추가될 수 있다.When the video display device is used as a mobile terminal, a wireless communication unit may be added.

무선 통신부는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기와 이동 단말기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부는 방송 수신 모듈, 이동통신 모듈 무선 인터넷 모듈, 근거리 통신 모듈 및 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The wireless communication unit may include one or more modules that enable wireless communication between the mobile terminal 100 and a wireless communication system or between the mobile terminal and a network in which the mobile terminal is located. For example, the wireless communication unit may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.

방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast reception module receives a broadcast signal and/or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and/or broadcast-related information or a server that receives and transmits a previously generated broadcast signal and/or broadcast-related information to a terminal. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, as well as a TV broadcast signal or a broadcast signal in which a data broadcast signal is combined with a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information may be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112 .

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, it may exist in the form of an Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or an Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast reception module, for example, DMB-T (Digital Multimedia Broadcasting-Terrestrial), DMB-S (Digital Multimedia Broadcasting-Satellite), MediaFLO (Media Forward Link Only), DVB-H (Digital Video Broadcast-Handheld) , a digital broadcast signal may be received using a digital broadcast system such as Integrated Services Digital Broadcast-Terrestrial (ISDB-T). Of course, the broadcast reception module may be configured to be suitable for other broadcast systems as well as the aforementioned digital broadcast system.

방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리에 저장될 수 있다.A broadcast signal and/or broadcast-related information received through the broadcast reception module may be stored in a memory.

이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module transmits/receives wireless signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.

상기 이동통신 모듈은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.The mobile communication module is configured to implement a video call mode and a voice call mode. The video call mode refers to a state in which a call is made while viewing the video of the other party, and the voice call mode refers to a state in which a call is made without viewing the video of the other party. In order to implement the video call mode and the voice call mode, the mobile communication module is configured to transmit/receive at least one of voice and video.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and may be built-in or external to the mobile terminal 100 . Wireless Internet technologies include WLAN (Wireless LAN), WiFi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), etc. This can be used.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), 와이-파이 다이렉트 등이 이용될 수 있다.The short-distance communication module refers to a module for short-distance communication. Short range communication technologies such as Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi Direct or the like may be used.

위치정보 모듈은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The location information module is a module for acquiring a location of a mobile terminal, and a representative example thereof includes a Global Position System (GPS) module or a Wireless Fidelity (WiFi) module.

한편, 디스플레이부와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.On the other hand, when the display unit and the sensor for sensing a touch operation (hereinafter, referred to as a 'touch sensor') form a layer structure (hereinafter referred to as a 'touch screen'), the display unit may be used as an input device in addition to the output device can The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부의 특정 부위에 가해진 압력 또는 디스플레이부의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.The touch sensor may be configured to convert a change in pressure applied to a specific part of the display unit or capacitance generated in a specific part of the display unit into an electrical input signal. The touch sensor may be configured to detect not only the position and area where the touch object is touched on the touch sensor, but also the pressure at the time of the touch. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부로 전송한다. 이로써, 제어부는 디스플레이부의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, a signal(s) corresponding thereto is sent to the touch controller. The touch controller processes the signal(s) and then sends the corresponding data to the controller. Accordingly, the control unit can know which area of the display unit has been touched, and the like.

이하에서는, 상기 디스플레이부(170)가 발광 다이오드(Light Emitting Diode) 또는 OLED) 표시장치인 경우에 대해 도 1 및 도 2를 참조하여 설명한다.Hereinafter, a case in which the display unit 170 is a light emitting diode (OLED) display device will be described with reference to FIGS. 1 and 2 .

도 2는 본 발명의 실시예에 따른 영상 처리 장치가 적용된 발광 다이오드(Light Emitting Diode) 표시장치를 나타낸 구성도이다. 2 is a block diagram illustrating a light emitting diode display to which an image processing apparatus according to an embodiment of the present invention is applied.

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 LED 표시장치는 영상처리부(210), 타이밍제어부(220), 데이터구동부(230), 스캔구동부(240) 및 표시패널(250)을 포함한다.As shown in FIG. 2 , the LED display device according to an embodiment of the present invention includes an image processing unit 210 , a timing control unit 220 , a data driving unit 230 , a scan driving unit 240 , and a display panel 250 . do.

상기 영상 처리부(210)는 외부로부터 수직 동기신호, 수평 동기신호, 데이터 인에이블 신호, 클럭신호 및 적색, 녹색 및 청색 신호(RGB)(이하 RGB로 표기)를 수신한다. 상기 영상처리부(210)는 RGB 신호(RGB)를 적색, 녹색, 청색 및 백색 신호(RGBW)(이하 RGBW로 표기)로 변환하여 타이밍 제어부(220)에 출력한다. 상기 영상 처리부(210)는 외부로부터 공급된 하나의 프레임 데이터에 포함된 RGB 신호(RGB)를 이용하여 평균화상레벨에 따라 피크휘도를 구현하도록 감마 전압을 가변한다. 상기 영상 처리부(210)는 이 밖에 외부로부터 수신되는 프레임 데이터를 다양하게 처리하는데, 이에 대한 구체적인 설명은 이미 공지된 기술이므로 생략한다.The image processing unit 210 receives a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, a clock signal, and red, green, and blue signals RGB (hereinafter referred to as RGB) from the outside. The image processing unit 210 converts the RGB signals RGB into red, green, blue, and white signals RGBW (hereinafter referred to as RGBW) and outputs the converted RGB signals to the timing control unit 220 . The image processing unit 210 varies the gamma voltage to realize the peak luminance according to the average image level by using the RGB signal (RGB) included in one frame data supplied from the outside. The image processing unit 210 variously processes frame data received from the outside, and a detailed description thereof will be omitted since it is a known technique.

상기 타이밍 제어부(220)는 영상 처리부(210)로부터 수직 동기신호, 수평 동기신호, 데이터 인에이블 신호, 클럭신호 및 RGBW 신호(RGBW)를 수신한다.The timing controller 220 receives a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, a clock signal, and an RGBW signal RGBW from the image processing unit 210 .

상기 타이밍 제어부(220)는 수직 동기신호, 수평 동기신호, 데이터 인에이블 신호, 클럭신호 등의 타이밍신호를 이용하여 데이터 구동부(230)와 스캔구동부(240)의 동작 타이밍을 제어한다. 상기 타이밍 제어부(220)는 1 수평기간의 데이터 인에이블 신호를 카운트하여 프레임기간을 판단할 수 있으므로 외부로부터 공급되는 수직 동기신호와 수평 동기신호는 생략될 수 있다. 타이밍 제어부(220)에서 생성되는 제어신호들에는 스캔 구동부(240)의 동작 타이밍을 제어하기 위한 게이트 타이밍제어신호(GDC)와 데이터 구동부(230)의 동작 타이밍을 제어하기 위한 데이터 타이밍 제어신호(DDC)가 포함된다. 게이트 타이밍 제어신호(GDC)에는 게이트 스타트 펄스, 게이트 시프트 클럭, 게이트 출력 인에이블신호 등이 포함된다. 데이터 타이밍 제어신호(DDC)에는 소스 스타트 펄스, 소스 샘플링 클럭, 소스 출력 인에이블신호 등이 포함된다.The timing controller 220 controls the operation timings of the data driver 230 and the scan driver 240 using timing signals such as a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, and a clock signal. Since the timing controller 220 may determine the frame period by counting the data enable signal of one horizontal period, the vertical synchronization signal and the horizontal synchronization signal supplied from the outside may be omitted. The control signals generated by the timing controller 220 include a gate timing control signal GDC for controlling the operation timing of the scan driver 240 and a data timing control signal DDC for controlling the operation timing of the data driver 230 . ) is included. The gate timing control signal GDC includes a gate start pulse, a gate shift clock, and a gate output enable signal. The data timing control signal DDC includes a source start pulse, a source sampling clock, and a source output enable signal.

데이터 구동부(230)는 타이밍 제어부(220)로부터 수신된 데이터 타이밍 제어신호(DDC)에 응답하여 타이밍 제어부(220)로부터 공급되는 RGBW 신호(RGBW)를 샘플링하고 래치하여 병렬 데이터 체계의 데이터로 변환한다. 데이터 구동부(230)는 병렬 데이터 체계의 데이터로 변환할 때, RGBW 신호(RGBW)를 감마 전압에 따라 디지털 데이터를 아날로그 데이터로 변환한다. 이때, 디지털 데이터를 아날로그 데이터로 변환하는 것은 데이터 구동부(230)에 포함된 디지털 아날로그 변환기(Digital to Anlog Converter; DAC)에 의해 이루어진다. 데이터 구동부(230)는 데이터라인들(DL1~DLn)을 통해 변환된 영상 신호(DATA)를 표시패널(150)에 포함된 서브 픽셀들(SPr, SPg, SPb,SPw)에 공급한다.The data driver 230 samples and latches the RGBW signal RGBW supplied from the timing controller 220 in response to the data timing control signal DDC received from the timing controller 220 to convert it into data of a parallel data system. . When converting the data of the parallel data system, the data driver 230 converts the RGBW signal RGBW into digital data according to the gamma voltage into analog data. In this case, the digital data to analog data is converted by a digital to analog converter (DAC) included in the data driver 230 . The data driver 230 supplies the converted image signal DATA through the data lines DL1 to DLn to the sub-pixels SPr, SPg, SPb, and SPw included in the display panel 150 .

상기 스캔 구동부(240)는 타이밍 제어부(220)로부터 공급된 게이트 타이밍 제어신호(GDC)에 응답하여 표시패널(250)에 포함된 서브 픽셀들(SPr, SPg, SPb, SPw)의 트랜지스터들이 동작 가능한 게이트 구동전압의 스윙폭으로 신호의 레벨을 시프트시키면서 스캔신호를 순차적으로 생성한다. 스캔 구동부(240)는 스캔라인들(SL1~SLm)을 통해 생성된 스캔신호를 표시패널(250)에 포함된 서브 픽셀들(SPr, SPg, SPb, SPw)에 공급한다.The scan driver 240 enables transistors of the sub-pixels SPr, SPg, SPb, and SPw included in the display panel 250 to operate in response to the gate timing control signal GDC supplied from the timing controller 220 . The scan signal is sequentially generated while shifting the signal level with the swing width of the gate driving voltage. The scan driver 240 supplies the scan signal generated through the scan lines SL1 to SLm to the sub-pixels SPr, SPg, SPb, and SPw included in the display panel 250 .

표시패널(250)은 매트릭스형태로 배치된 서브 픽셀들(SPr, SPg, SPb, SPw)을 포함하는 유기전계발광표시패널로 형성된다. 서브 픽셀들(SPr, SPg, SPb, SPw)에는 적색 서브 픽셀(SPr), 녹색 서브 픽셀(SPg), 청색 서브 픽셀(SPb) 및 백색 서브 픽셀(SPw)이 포함되며 이들은 하나의 픽셀(P)이 된다. The display panel 250 is formed of an organic light emitting display panel including sub-pixels SPr, SPg, SPb, and SPw arranged in a matrix form. The sub-pixels SPr, SPg, SPb, and SPw include a red sub-pixel SPr, a green sub-pixel SPg, a blue sub-pixel SPb, and a white sub-pixel SPw, which are one pixel (P). becomes this

일반적으로, LED 어레이(array)를 디스플레이로 구동하기 위해서는 PM(Passive Matrix) 방식과 AM(Active Matrix) 방식을 사용한다. AM 방식은 한 프레임이 끝날 때까지 각 픽셀들의 값을 기억해 광이 유지되지만 PM 방식은 라인(Line) 단위로 순차적으로 빠르게 점등하여 시각적 잔상효과(약 1/10초 동안 지속)를 이용해 하나의 영상처럼 보이게 한다. 만약 낮은 프레임율(Frame Rate)을 적용한다면 시각적 잔상 효과가 약해져 꺼져있는 라인이 보이게 되어 플리커(Flicker)가 발생할 확률이 높아진다. 이처럼 한 프레임 내에서 발생하는 플리커를 "Intra Flicker"라고 한다. In general, in order to drive an LED array as a display, a PM (Passive Matrix) method and an AM (Active Matrix) method are used. In the AM method, the light is maintained by memorizing the values of each pixel until the end of one frame, but in the PM method, the light is quickly turned on in line units and a visual afterimage effect (lasting about 1/10 second) is used to create one image. make it look like If a low frame rate is applied, the visual afterimage effect is weakened and the off line becomes visible, increasing the probability of occurrence of flicker. This flicker that occurs within one frame is called "Intra Flicker".

또한, 영상 계조를 표현하기 위해 LED의 빛의 세기를 조절하게 되는데 이를 위해 PAM(Pulse Amplitude Modulation) 방식과 PWM(Pulse Width Modulation) 방식 또는 PAM과 PWM을 혼합하여 사용하게 된다. 하지만 PWM방식은 저계조로 갈수록 좁은 폭의 펄스 구간만 턴-온(Turn-on) 하는데 이로 인해 블랙(Blank)구간이 길어져서 프레임들 간 눈의 잔상이 유지되는 시간을 벗어나 플리커(Inter Flicker)가 생기게 되며, 이를 도 3을 참조하여 설명한다.In addition, the light intensity of the LED is adjusted to express the image grayscale. For this purpose, a PAM (Pulse Amplitude Modulation) method and a PWM (Pulse Width Modulation) method or a mixture of PAM and PWM is used. However, the PWM method turns on only the narrow pulse section as it goes to the lower gray scale, which causes the black section to become longer, which causes the flicker (Inter Flicker) to exceed the time that the afterimage of the eye is maintained between frames. , which will be described with reference to FIG. 3 .

도 3은 PWM 방식으로 계조 표현시 발생하는 플리커(inter Flicker)를 나타낸 예시도 이다.3 is an exemplary diagram illustrating flicker (inter flicker) generated when grayscale is expressed in a PWM method.

도 3에 도시한 바와 같이, PWM방식은 저계조로 갈수록 좁은 폭의 펄스 구간만 턴-온(Turn-on) 하기 때문에 이로 인해 블랙(Blank)구간이 길어져서 프레임들 간 눈의 잔상이 유지되는 시간을 벗어나 플리커(Inter Flicker)가 생기게 된다.As shown in FIG. 3, the PWM method turns on only the narrow pulse section toward the lower gray scale, so that the black section becomes longer and the afterimage of the eye is maintained between frames. Flickr (Inter Flicker) is created out of time.

상기 플리커 현상을 감소시키기 위해 단순히 주파수를 높이면 턴-오프(turn-off) 구간은 그대로이기 때문에 플리커 현상이 크게 개선되지 않는다. 이를 해결하기 위해 같은 양의 빛을 낼 수 있는 n개의 다른 신호로 표현하여 여러 번 반복하여 한 개의 데이터(한 프레임)를 표현한다. 이것이 가능한 이유는 도 4와 같이 LED는 전류의 크기(전류 값)와 펄스 폭이 만들어낸 턴-온(turn-on) 구간의 면적이 동일하면 전류 크기와 펄스 폭이 달라도 동일한 양의 빛을 낼 수 있기 때문이다.If the frequency is simply increased to reduce the flicker phenomenon, the turn-off period remains the same, so the flicker phenomenon is not significantly improved. In order to solve this problem, one data (one frame) is expressed by expressing n different signals that can emit the same amount of light and repeating it several times. The reason this is possible is that the LED emits the same amount of light even if the current magnitude and pulse width are different if the area of the turn-on section created by the magnitude (current value) and the pulse width is the same as shown in FIG. because it can

도 4는 펄스 면적이 동일한 펄스 신호를 나타낸 예시도 이다.4 is an exemplary diagram illustrating a pulse signal having the same pulse area.

도 4에 도시한 바와 같이, LED는 전류의 크기(전류 값, 진폭)와 펄스 폭이 서로 다른 제1 및 제2 펄스라 하여도 제1 및 제2 펄스의 면적이 서로 동일하면 동일한 빛의 양을 출력한다. 예를 들면, 제1 펄스의 전류 값(높이)이 2I이고, 제1 펄스의 폭이 1P이며, 제2 펄스의 전류 값(높이)이 1I이고, 제2 펄스의 폭이 2P라고 가정할 때, 제1 및 제2 펄스의 전류 값(높이)과 펄스 폭은 서로 다르지만 펄스 면적은 서로 동일하므로 동일한 빛의 양을 출력한다.As shown in FIG. 4 , in the LED, even if the first and second pulses have different current magnitudes (current values, amplitudes) and pulse widths, if the areas of the first and second pulses are the same, the same amount of light is emitted. to output For example, when it is assumed that the current value (height) of the first pulse is 2I, the width of the first pulse is 1P, the current value (height) of the second pulse is 1I, and the width of the second pulse is 2P , The current value (height) and pulse width of the first and second pulses are different from each other, but the pulse area is the same, so that the same amount of light is output.

도 5는 본 발명의 실시예에 따른 한 프레임의 펄스를 나타낸 예시도 이다.5 is an exemplary diagram illustrating a pulse of one frame according to an embodiment of the present invention.

도 5에 도시한 바와 같이, 하나의 픽셀 내에 포함된 다수의 서브 픽셀 각각에 대응하는 한 프레임의 펄스를 각 서브 픽셀에 출력하는 영상 처리 장치에 있어서, 상기 영상 처리부(210)는, 상기 한 프레임의 펄스를 다수의 서브 펄스로 변경하고, 상기 다수의 서브 펄스의 면적은 동일하게 하면서 높이 및 폭은 서로 다르게 변환하고, 상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력하는 데이터 변환부(도시하지 않음)를 더 포함할 수 있다.As shown in FIG. 5 , in the image processing apparatus outputting a pulse of one frame corresponding to each of a plurality of sub-pixels included in one pixel to each sub-pixel, the image processing unit 210 is configured to: to change the pulses of , into a plurality of sub-pulses, convert the height and width of the plurality of sub-pulses to be the same while maintaining the same area, and output the converted plurality of sub-pulses as pulses of one frame to the corresponding pixel It may further include a data conversion unit (not shown).

예를 들면, 상기 영상 처리부(210)는 상기 한 프레임의 펄스를 제1 내지 제3 서브 펄스(Frame 1/3, Frame 2/3, Frame 3/3)로 변경하고, 상기 제1 내지 제3 서브 펄스의 면적(펄스 진폭*펄스 폭)은 동일하게 하면서 높이 및 폭은 서로 다르게 변환하고, 상기 변환된 제1 내지 제3 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력한다. 상기 영상 처리부(210)는 제1 서브 펄스의 진폭을 3배, 제2 서브 펄스의 진폭을 2배, 제3 서브 펄스의 진폭을 1배로 설정했다고 가정할 때, 상기 제1 내지 제3 펄스의 면적이 동일하도록 제1 서브 펄스의 폭을 1배, 제2 서브 펄스의 폭을 1.5배, 제3 서브 펄스의 폭을 3배로 변경한다. 즉, 상기 영상 처리부(210)는 주파수를 n배 늘려 각 픽셀 값(Gray Level)을 서로 다른 크기의 전류값(진폭)과 서로 다른 폭의 펄스를 조합하여 동일한 빛을 출력하는 n개의 서로 다른 신호를 n개의 프레임에 나누어 출력시킨다. 이에 따라, n프레임은 짧은 Duty, 중간 Duty, 긴 Duty 모두를 항상 가지게 되어 기존의 짧은 펄스에서 발생할 수 있었던 플리커를 줄일 수 있다. For example, the image processing unit 210 converts the pulses of one frame into first to third sub-pulses (Frame 1/3, Frame 2/3, and Frame 3/3), and changes the first to third sub-pulses (Frame 1/3, Frame 2/3, Frame 3/3). The area (pulse amplitude * pulse width) of the sub-pulses is the same, but the height and width are converted to be different from each other, and the converted first to third sub-pulses are output to the corresponding pixel as pulses of one frame. Assuming that the image processing unit 210 sets the amplitude of the first sub-pulse to 3 times, the amplitude of the second sub-pulse to 2 times, and the amplitude of the third sub-pulse to 1 time, The width of the first sub-pulse is changed by one time, the width of the second sub-pulse by 1.5 times, and the width of the third sub-pulse by three times so that the area is the same. That is, the image processing unit 210 multiplies the frequency n times and combines each pixel value (gray level) with current values (amplitudes) of different magnitudes and pulses of different widths to output the same n different signals. is divided into n frames and output. Accordingly, n frames always have short duty, medium duty, and long duty, thereby reducing flicker that may have occurred in the conventional short pulse.

또한, 상기 서브 펄스의 순서는 도 6a-6b와 같이 다양하게 변경될 수 있다.Also, the order of the sub-pulses may be variously changed as shown in FIGS. 6A-6B .

도 6a-6b는 본 발명의 실시예에 따른 한 프레임의 펄스를 나타낸 다른 예시도 이다.6A-6B are other exemplary views illustrating a pulse of one frame according to an embodiment of the present invention.

도 6a에 도시한 바와 같이, 상기 영상 처리부(210)는 상기 한 프레임의 펄스를 제1 내지 제3 서브 펄스(Frame 1/3, Frame 2/3, Frame 3/3)로 변경하고, 상기 제1 내지 제3 서브 펄스의 면적(펄스 진폭*펄스 폭)은 동일하게 하면서 높이 및 폭은 서로 다르게 변환하고, 상기 변환된 제1 내지 제3 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력한다. 예를 들면, 상기 영상 처리부(210)는 제1 서브 펄스의 진폭을 1배, 제2 서브 펄스의 진폭을 2배, 제3 서브 펄스의 진폭을 3배로 설정했다고 가정할 때, 상기 제1 내지 제3 펄스의 면적이 동일하도록 제1 서브 펄스의 폭을 3배, 제2 서브 펄스의 폭을 1.5배, 제3 서브 펄스의 폭을 1배로 변경한다.As shown in FIG. 6A , the image processing unit 210 converts the pulses of one frame into first to third sub-pulses (Frame 1/3, Frame 2/3, Frame 3/3), and The area (pulse amplitude * pulse width) of the first to third sub-pulses is the same, the height and width are converted to be different from each other, and the converted first to third sub-pulses are output to the corresponding pixel as the pulses of the one frame . For example, assuming that the image processing unit 210 sets the amplitude of the first sub-pulse to be 1, the amplitude of the second sub-pulse is doubled, and the amplitude of the third sub-pulse is set to 3 times, the first to The width of the first sub-pulse is changed by three times, the width of the second sub-pulse by 1.5 times, and the width of the third sub-pulse by one time so that the area of the third pulse is the same.

도 6b에 도시한 바와 같이, 상기 영상 처리부(210)는 제1 서브 펄스의 진폭을 1배, 제3 서브 펄스의 진폭을 3배, 제3 서브 펄스의 진폭을 2배로 설정했다고 가정할 때, 상기 제1 내지 제3 펄스의 면적이 동일하도록 제1 서브 펄스의 폭을 3배, 제2 서브 펄스의 폭을 1배, 제3 서브 펄스의 폭을 1.5배로 변경한다.6B, assuming that the image processing unit 210 sets the amplitude of the first sub-pulse to 1, the amplitude of the third sub-pulse to 3 times, and the amplitude of the third sub-pulse to 2 times, The width of the first sub-pulse is changed by 3 times, the width of the second sub-pulse by 1 time, and the width of the third sub-pulse is changed by 1.5 times so that the areas of the first to third pulses are the same.

여기서, 낮은 "Gray Level"일수록 전류를 낮추고 펄스를 늘이기가 어렵기 때문에 기본 전류 크기 설정은 가장 낮은 "Gray Level"의 n배로 높여 설정할 수 있으며, 상기 n은 할당할 프레임 수일 수 있다.Here, the lower the "Gray Level", the more difficult it is to lower the current and increase the pulse, so the basic current size can be set to be n times higher than the lowest "Gray Level", where n may be the number of frames to be allocated.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

210: 영상 처리부 210: image processing unit

Claims (5)

하나의 픽셀 내에 포함된 다수의 서브 픽셀 각각에 대응하는 한 프레임의 펄스를 각 서브 픽셀에 출력하는 영상 처리 장치에 있어서,
상기 한 프레임의 펄스를 다수의 서브 펄스로 변경하고, 상기 다수의 서브 펄스의 면적을 동일하게 하면서 펄스 진폭과 펄스 폭은 서로 다르게 변환하고, 상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력하는 데이터 변환부를 더 포함하며,
상기 한 프레임은 상기 변경된 다수의 서브 펄스에 대응하는 서브 프레임들로 분할되고, 각각의 서브 프레임은 상이한 듀티 사이클을 갖는 것을 특징으로 하는 영상 처리 장치.
An image processing apparatus for outputting a pulse of one frame corresponding to each of a plurality of sub-pixels included in one pixel to each sub-pixel, the image processing apparatus comprising:
The pulses of the one frame are changed into a plurality of sub-pulses, the area of the plurality of sub-pulses is the same, the pulse amplitude and the pulse width are different from each other, and the converted plurality of sub-pulses are converted to the pulses of the one frame. It further includes a data conversion unit to output to the pixel,
The one frame is divided into sub-frames corresponding to the plurality of changed sub-pulses, and each sub-frame has a different duty cycle.
제1항에 있어서, 상기 데이터 변환부는,
상기 한 프레임의 펄스를 제1 내지 제3 서브 펄스로 변경하고, 상기 제1 내지 제3 서브 펄스의 각 면적을 동일하게 하면서 상기 제1 내지 제3 펄스의 각 진폭과 각 펄스 폭은 서로 다르게 변환하는 것을 특징으로 하는 영상 처리 장치.
According to claim 1, wherein the data conversion unit,
The pulses of the one frame are changed to first to third sub-pulses, and the respective amplitudes and the respective pulse widths of the first to third pulses are converted to be different while the respective areas of the first to third sub-pulses are the same. An image processing apparatus, characterized in that.
제2항에 있어서, 상기 해당 픽셀은 LED(Light Emitting Diode)인 것을 특징으로 하는 영상 처리 장치.The image processing apparatus according to claim 2, wherein the corresponding pixel is a light emitting diode (LED). 제3항에 있어서, 상기 데이터 변환부는,
상기 LED의 출력 광량이 동일하도록 상기 제1 내지 제3 서브 펄스의 각 면적을 동일하게 하면서 상기 제1 내지 제3 펄스의 각 진폭과 각 펄스 폭은 서로 다르게 변환하는 것을 특징으로 하는 영상 처리 장치.
The method of claim 3, wherein the data conversion unit,
The image processing apparatus according to claim 1, wherein the respective amplitudes and the respective pulse widths of the first to third pulses are converted to be different from each other while making the respective areas of the first to third sub-pulses the same so that the output light amount of the LED is the same.
하나의 픽셀 내에 포함된 다수의 서브 픽셀 각각에 대응하는 한 프레임의 펄스를 각 서브 픽셀에 출력하는 영상 처리 방법에 있어서,
상기 한 프레임의 펄스를 다수의 서브 펄스로 변경하는 단계와;
상기 다수의 서브 펄스의 면적을 동일하게 하면서 펄스 진폭과 펄스 폭은 서로 다르게 변환하는 단계와;
상기 변환된 다수의 서브 펄스를 상기 한 프레임의 펄스로서 해당 픽셀에 출력하는 단계를 포함하며,
상기 한 프레임은 상기 변경된 다수의 서브 펄스에 대응하는 서브 프레임들로 분할되고, 각각의 서브 프레임은 상이한 듀티 사이클을 갖는 것을 특징으로 하는 영상 처리 방법.
An image processing method of outputting a pulse of one frame corresponding to each of a plurality of sub-pixels included in one pixel to each sub-pixel, the image processing method comprising:
changing the pulses of the one frame into a plurality of sub-pulses;
converting pulse amplitudes and pulse widths to be different from each other while making the areas of the plurality of sub-pulses the same;
and outputting the converted plurality of sub-pulses as pulses of one frame to a corresponding pixel,
The one frame is divided into sub-frames corresponding to the plurality of changed sub-pulses, and each sub-frame has a different duty cycle.
KR1020140128569A 2014-09-25 2014-09-25 Video processing apparatus and method thereof KR102268047B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140128569A KR102268047B1 (en) 2014-09-25 2014-09-25 Video processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140128569A KR102268047B1 (en) 2014-09-25 2014-09-25 Video processing apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20160036385A KR20160036385A (en) 2016-04-04
KR102268047B1 true KR102268047B1 (en) 2021-06-22

Family

ID=55799708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140128569A KR102268047B1 (en) 2014-09-25 2014-09-25 Video processing apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR102268047B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180050125A (en) * 2016-11-04 2018-05-14 삼성전자주식회사 LED display device, and method for operating the same

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102551136B1 (en) * 2018-01-02 2023-07-05 삼성전자주식회사 Display apparatus and control method thereof
KR102588780B1 (en) * 2018-12-27 2023-10-16 엘지전자 주식회사 Organic light emitting diode display device
WO2020204487A1 (en) 2019-03-29 2020-10-08 Samsung Electronics Co., Ltd. Display panel and driving method of the display panel
CN116386514A (en) * 2021-12-30 2023-07-04 矽创电子股份有限公司 Driving structure of display panel

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056727A (en) 1998-06-05 2000-02-25 Matsushita Electric Ind Co Ltd Gradation driving device for display panel

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101133572B1 (en) * 2005-06-21 2012-04-05 삼성전자주식회사 Color gamut reproducing apparatus having wide color gamut and color signal processing method the same
KR100780321B1 (en) * 2006-05-08 2007-11-28 단국대학교 산학협력단 Organic Electroluminescence Display Driver for PWM and PAM Complex Gradation Exposing of Organic Electroluminescence Display Panel
KR20110030780A (en) * 2009-09-18 2011-03-24 엘지이노텍 주식회사 Drive ic and display device using thereof
KR20110052965A (en) 2009-11-13 2011-05-19 주식회사 케어스마일 Deodorization device for disposal equipment of excretion
KR20120006171A (en) * 2010-07-12 2012-01-18 엘지이노텍 주식회사 Backlight unit and method for driving light emitting device package array
KR101994107B1 (en) * 2011-11-14 2019-09-10 엘지디스플레이 주식회사 Apparatus and method for driving of light emitting diode array, and liquid crystal display device using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056727A (en) 1998-06-05 2000-02-25 Matsushita Electric Ind Co Ltd Gradation driving device for display panel

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180050125A (en) * 2016-11-04 2018-05-14 삼성전자주식회사 LED display device, and method for operating the same
KR102568899B1 (en) 2016-11-04 2023-08-21 삼성전자주식회사 LED display device, and method for operating the same
US11735097B2 (en) 2016-11-04 2023-08-22 Samsung Electronics Co., Ltd. Light-emitting diode display device and method of operating the same

Also Published As

Publication number Publication date
KR20160036385A (en) 2016-04-04

Similar Documents

Publication Publication Date Title
US10235946B2 (en) Apparatus and method for controlling liquid crystal display brightness, and liquid crystal display device
US9865193B2 (en) Image display apparatus and image display method for reducing power consumption
KR102268047B1 (en) Video processing apparatus and method thereof
KR20120019728A (en) Apparatus for displaying image and method for operating the same
CN103985349B (en) Display device and its control method
CN102413343A (en) Image display apparatus and method for operating the same
KR20210142761A (en) Display device and method of operation thereof
KR102348402B1 (en) A display device and operating method thereof
EP3703354B1 (en) Display device and control method therefor
US11783771B2 (en) Display apparatus and method for controlling same
KR20140122119A (en) Video processing apparatus and method thereof
KR101702967B1 (en) Apparatus for displaying image and method for operating the same
KR20130036677A (en) Two way display device and method for displaying thereof
KR102010486B1 (en) Apparatus for displaying image and method for operating the same
US20240013700A1 (en) Image display device and operating method therefor
JP2012185293A (en) Display control device, display control method, and program
US20240064267A1 (en) Display device and method for controlling same
KR101961372B1 (en) Apparatus for displaying image and method for operating the same
KR20240084796A (en) Image display apparatus
KR101243960B1 (en) Apparatus for displaying image and method for operating the same
KR20240003966A (en) Image display apparatus
KR20120105235A (en) Apparatus for displaying image and method for operating the same
KR20240058148A (en) Transparent display with variable light blocking panel, video display device including the same, and method for controlling the same
KR20240043007A (en) Display apparatus and method for controlling thereof
KR20230164381A (en) Image display apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant