KR20200064867A - Display driver circuit sharing frame buffer and mobile device and operating method thereof - Google Patents

Display driver circuit sharing frame buffer and mobile device and operating method thereof Download PDF

Info

Publication number
KR20200064867A
KR20200064867A KR1020190039070A KR20190039070A KR20200064867A KR 20200064867 A KR20200064867 A KR 20200064867A KR 1020190039070 A KR1020190039070 A KR 1020190039070A KR 20190039070 A KR20190039070 A KR 20190039070A KR 20200064867 A KR20200064867 A KR 20200064867A
Authority
KR
South Korea
Prior art keywords
frame
image
processor
frame buffer
still image
Prior art date
Application number
KR1020190039070A
Other languages
Korean (ko)
Inventor
김태우
권홍기
김재훈
박진용
이재열
임현욱
장우혁
정호준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/584,228 priority Critical patent/US11087721B2/en
Priority to CN201911189742.2A priority patent/CN111246146B/en
Publication of KR20200064867A publication Critical patent/KR20200064867A/en
Priority to US17/393,691 priority patent/US11810535B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/003Deblurring; Sharpening
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

The present invention relates to a display driver circuit sharing a frame buffer, to use the frame buffer in reproduction of both a moving picture and a still picture, a mobile device, and an operation method thereof. According to an embodiment of the present invention, the display driver circuit comprises: a receiver receiving the moving or still picture from the outside; the frame buffer storing the still picture transferred from the receiver in a still picture mode; an image processor performing an image quality improvement operation for the moving picture transferred from the receiver or the still picture transferred from the frame buffer; and a motion processor using, in a moving picture mode, the current frame outputted from the image processor and the previous frame stored in the frame buffer to compensate motion, wherein the previous frame is the data processed by the image processor in the moving picture mode before the current frame to be stored in the frame buffer, and is outputted from the frame buffer to the motion processor in synchronization with the current frame.

Description

프레임 버퍼를 공유하는 디스플레이 구동 회로, 모바일 장치 및 그것의 동작 방법{DISPLAY DRIVER CIRCUIT SHARING FRAME BUFFER AND MOBILE DEVICE AND OPERATING METHOD THEREOF}DISPLAY DRIVER CIRCUIT SHARING FRAME BUFFER AND MOBILE DEVICE AND OPERATING METHOD THEREOF}

본 발명은 전자 장치에 관한 것으로, 좀 더 상세하게는 프레임 버퍼를 공유하는 디스플레이 구동 회로, 그것을 포함하는 모바일 장치 및 그것의 동작 방법에 관한 것이다.The present invention relates to an electronic device, and more particularly, to a display driving circuit sharing a frame buffer, a mobile device including the same, and a method of operating the same.

최근의 모바일 장치에서 사용되는 액정 표시 장치(LCD)나 유기발광 다이오드(OLED) 디스플레이의 경우, 동영상의 재생 품질을 높이기 위해 모션 검출이나 모션 블러 보상(Motion Blur Compensation)과 같은 기술이 적용된다. 모션 검출이나 모션 블러 보상 등을 위해서는 현재 프레임(Current frame)과 이전 프레임(Previous frame)의 비교가 전제되어야 한다. 이 경우, 프레임 데이터를 저장하기 위한 프레임 버퍼의 메모리 용량이 확보되어야 한다. In the case of a liquid crystal display (LCD) or an organic light emitting diode (OLED) display used in recent mobile devices, techniques such as motion detection or motion blur compensation are applied to improve the reproduction quality of a video. For motion detection or motion blur compensation, a comparison between the current frame and the previous frame is required. In this case, the memory capacity of the frame buffer for storing frame data must be secured.

프레임 버퍼의 메모리 용량의 증가는 디스플레이 구동 회로(Display Driving IC: DDI)의 소모 전력의 증가는 물론 칩 사이즈의 증가를 동반하게 된다. 따라서, 재생되는 이미지의 품질 요구를 충족하면서 비용 증가를 최소화할 수 있는 디스플레이 구동 회로에 대한 요구가 절실한 실정이다.The increase in the memory capacity of the frame buffer is accompanied by an increase in power consumption of a display driving IC (DDI) as well as an increase in chip size. Therefore, there is an urgent need for a display driving circuit capable of minimizing cost increase while meeting the quality demand of the reproduced image.

본 발명은 상술한 기술적 문제점을 해결하기 위해 제안된 것으로, 본 발명의 목적은 프레임 버퍼를 동영상 및 정지 영상의 재생시에 모두 사용할 수 있는 디스플레이 구동 회로, 모바일 장치 및 그것의 동작 방법을 제공하는 데 있다.The present invention has been proposed to solve the above-described technical problems, and an object of the present invention is to provide a display driving circuit, a mobile device and a method of operating the frame buffer which can be used for both video and still image playback. .

본 발명의 실시 예에 따른 디스플레이 구동 회로는, 외부로부터 정지 영상 또는 동영상을 수신하는 수신기, 정지 영상 모드시, 상기 수신기가 전달하는 상기 정지 영상을 저장하는 프레임 버퍼, 상기 수신기로부터 전달되는 상기 동영상 또는 상기 프레임 버퍼로부터 전달되는 상기 정지 영상에 대한 화질 개선 동작을 수행하는 이미지 프로세서, 그리고 동영상 모드시, 상기 이미지 프로세서로부터 출력되는 현재 프레임과 상기 프레임 버퍼에 저장된 이전 프레임을 사용하여 모션 보상을 수행하는 모션 프로세서를 포함하되, 상기 이전 프레임은, 상기 동영상 모드시에 상기 현재 프레임 이전에 상기 이미지 프로세서에서 처리되어 상기 프레임 버퍼에 저장된 데이터이며, 상기 현재 프레임에 동기하여 상기 프레임 버퍼로부터 상기 모션 프로세서로 출력된다.Display driving circuit according to an embodiment of the present invention, a receiver for receiving a still image or video from the outside, in the still image mode, the frame buffer for storing the still image transmitted by the receiver, the video or transmitted from the receiver An image processor that performs an image quality improvement operation on the still image transmitted from the frame buffer, and a motion for performing motion compensation using a current frame output from the image processor and a previous frame stored in the frame buffer in the video mode. Including a processor, the previous frame is data stored in the frame buffer processed by the image processor before the current frame in the video mode, and is output from the frame buffer to the motion processor in synchronization with the current frame. .

본 발명의 실시 예에 따른 정지 영상을 저장하는 프레임 버퍼, 화질 개선 동작을 수행하는 이미지 프로세서, 그리고 모션 보상 동작을 수행하는 모션 프로세서를 포함하는 디스플레이 구동 회로의 동작 방법은, 수신된 영상 데이터의 모드를 식별하는 단계, 상기 영상 데이터가 동영상에 대응하는 경우, 상기 이미지 프로세서가 수신된 현재 프레임에 대한 상기 화질 개선 동작을 수행하는 단계, 상기 모션 프로세서가 상기 화질 개선된 상기 현재 프레임에 대한 모션 보상 동작을 수행하는 단계, 그리고 상기 화질 개선된 상기 현재 프레임을 상기 프레임 버퍼에 저장하는 단계를 포함한다. A method of operating a display driving circuit including a frame buffer for storing a still image according to an embodiment of the present invention, an image processor for performing an image quality improvement operation, and a motion processor for performing a motion compensation operation is a mode of received image data Identifying, when the image data corresponds to a video, the image processor performing the image quality improvement operation on the received current frame, and the motion processor performing a motion compensation operation on the image quality improved image frame And storing the current frame with the improved image quality in the frame buffer.

본 발명의 실시 예에 따른 모바일 장치는, 동영상 또는 정지 영상을 생성하는 응용 프로세서, 상기 동영상 또는 상기 정지 영상을 수신하여 구동 신호로 출력하며, 상기 동영상의 제 1 프레임을 화질 개선 처리후에 프레임 버퍼에 저장하고, 상기 제 1 프레임에 후속되는 제 2 프레임이 수신되면 상기 프레임 버퍼에 저장된 상기 제 1 프레임을 기초로 상기 제 2 프레임의 모션 보상을 수행하여 상기 구동 신호로 생성하는 디스플레이 구동 회로, 그리고 상기 구동 신호에 따라 상기 동영상 또는 상기 정지 영상을 표시하는 디스플레이를 포함한다.The mobile device according to an embodiment of the present invention, an application processor for generating a moving image or a still image, receives the moving image or the still image and outputs it as a driving signal, and after processing the first frame of the moving image in the frame buffer after improving the image quality A display driving circuit that stores and generates motion compensation of the second frame based on the first frame stored in the frame buffer when the second frame subsequent to the first frame is received, and generates the driving signal; and And a display displaying the moving image or the still image according to a driving signal.

본 발명의 실시 예에 따른 디스플레이 구동 회로에 따르면, 프레임 버퍼의 용량 증가없이 높은 동영상의 재생 품질을 제공할 수 있다. 따라서, 저비용으로 모바일 장치의 디스플레이를 구동하기 위한 저전력 디스플레이 구동 회로가 구현될 수 있다. According to the display driving circuit according to the embodiment of the present invention, it is possible to provide a high video playback quality without increasing the capacity of the frame buffer. Accordingly, a low-power display driving circuit for driving the display of the mobile device at low cost can be implemented.

도 1은 본 발명의 실시 예에 따른 디스플레이 구동 회로를 간략히 보여주는 블록도이다.
도 2는 도 1의 디스플레이 구동 회로의 동작 방법을 간략히 보여주는 순서도이다.
도 3은 도 2에서 설명된 정지 영상(SI)의 처리 경로를 간략히 보여주는 블록도이다.
도 4는 도 2에서 설명된 동영상의 처리 경로를 간략히 보여주는 블록도이다.
도 5는 본 발명의 실시 예에 따른 모바일 장치를 간략히 보여주는 블록도이다.
도 6은 도 5에 도시된 디스플레이 구동 회로의 일 실시 예를 보여주는 블록도이다.
도 7은 도 6의 디스플레이 구동 회로의 동작을 보여주는 순서도이다.
도 8은 도 5에 도시된 디스플레이 구동 회로의 다른 실시 예를 보여주는 블록도이다.
도 9는 도 8의 디스플레이 구동 회로의 동작을 보여주는 순서도이다.
도 10은 도 5에 도시된 디스플레이 구동 회로의 또 다른 실시 예를 보여주는 블록도이다.
도 11은 도 10의 디스플레이 구동 회로의 동작을 보여주는 순서도이다.
도 12a 내지 도 12d는 도 10의 디스플레이 구동 회로에서 수행되는 정지 영상 및 동영상의 처리 절차를 도시한 블록도들이다.
도 13은 본 발명의 실시 예에 따른 이미지 센서를 포함하는 전자 시스템을 보여주는 블록도이다.
1 is a block diagram briefly showing a display driving circuit according to an exemplary embodiment of the present invention.
FIG. 2 is a flowchart briefly showing an operation method of the display driving circuit of FIG. 1.
3 is a block diagram briefly showing a processing path of the still image SI described in FIG. 2.
FIG. 4 is a block diagram briefly showing a processing path of the video illustrated in FIG. 2.
5 is a block diagram briefly showing a mobile device according to an embodiment of the present invention.
6 is a block diagram illustrating an embodiment of the display driving circuit shown in FIG. 5.
7 is a flowchart illustrating the operation of the display driving circuit of FIG. 6.
8 is a block diagram illustrating another embodiment of the display driving circuit shown in FIG. 5.
9 is a flowchart illustrating the operation of the display driving circuit of FIG. 8.
10 is a block diagram illustrating another embodiment of the display driving circuit shown in FIG. 5.
11 is a flowchart illustrating the operation of the display driving circuit of FIG. 10.
12A to 12D are block diagrams illustrating a process of processing a still image and a video performed in the display driving circuit of FIG. 10.
13 is a block diagram illustrating an electronic system including an image sensor according to an embodiment of the present invention.

이하에서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시 예를 첨부된 도면을 참조하여 설명하기로 한다. 이하 본 명세서에서 '영상(Image)'이라 함은 사진과 같은 정지 영상뿐 아니라 비디오와 같은 동영상을 포함하는 포괄적인 의미를 갖는다. 또한, 동영상의 연속된 프레임들은 이전 프레임(Previous frame), 현재 프레임(Current frame), 그리고 다음 프레임(Next frame)이라 칭하기로 한다. 이전 프레임은 현재 프레임의 앞서 제공된 프레임이고, 다음 프레임은 현재 프레임에 후속되는 프레임을 지칭한다. 더불어, 본 발명의 이점을 설명하기 위해 압축 이미지의 압축율을 예시적으로 2배 또는 3배로 설명할 것이다. 하지만, 본 발명의 압축율은 여기의 개시에만 국한되지 않는다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail that a person skilled in the art to which the present invention pertains can easily implement the technical spirit of the present invention. . Hereinafter, in this specification, the term'image' has a comprehensive meaning including a still image such as a photograph as well as a video such as a video. In addition, successive frames of a video are referred to as a previous frame, a current frame, and a next frame. The previous frame is the previously provided frame of the current frame, and the next frame refers to the frame following the current frame. In addition, in order to illustrate the advantages of the present invention, the compression ratio of the compressed image will be described as two or three times. However, the compression ratio of the present invention is not limited to the disclosure herein.

도 1은 본 발명의 실시 예에 따른 디스플레이 구동 회로를 간략히 보여주는 블록도이다. 도 1을 참조하면, 디스플레이 구동 회로(100)는 수신기(110), 프레임 버퍼(120), 이미지 프로세서(130), 모션 프로세서(140), 드라이버(150), 그리고 컨트롤러(160)를 포함할 수 있다. 1 is a block diagram briefly showing a display driving circuit according to an exemplary embodiment of the present invention. Referring to FIG. 1, the display driving circuit 100 may include a receiver 110, a frame buffer 120, an image processor 130, a motion processor 140, a driver 150, and a controller 160 have.

수신기(110)는 호스트(Host, 미도시)로부터 영상 데이터(IMG_in)를 수신한다. 수신기(110)는 호스트에서 제공되는 영상 데이터(IMG_in)가 동영상 모드인지 또는 정지 영상 모드인지를 판단할 수 있다. 예를 들면, 수신기(110)는 호스트에서 영상 데이터(IMG_in)와 함께 제공되는 명령어나 제어 신호를 사용하여 영상 데이터(IMG_in)의 모드(Mode)를 판단할 수 있다. 다른 실시 예에서, 수신기(110)는 명령어나 제어 신호 없이 영상 데이터(IMG_in)의 패턴이나 프레임율과 같은 정보를 검출하여 동영상 또는 정지 영상인지 모드(Mode)를 판단할 수 있을 것이다. 수신기(110)는 검출된 모드(Mode)를 컨트롤러(160)에 전달한다.The receiver 110 receives image data IMG_in from a host (not shown). The receiver 110 may determine whether the image data IMG_in provided from the host is a video mode or a still image mode. For example, the receiver 110 may determine a mode of the image data IMG_in using a command or a control signal provided with the image data IMG_in at the host. In another embodiment, the receiver 110 may detect a mode such as a video or still image by detecting information such as a pattern or frame rate of the image data IMG_in without a command or a control signal. The receiver 110 transmits the detected mode to the controller 160.

수신기(110)는 검출된 모드(Mode)에 따라 입력된 영상 데이터(IMG_in)를 프레임 버퍼(120) 또는 이미지 프로세서(130)로 전달한다. 예를 들면, 수신기(110)는 동영상 모드로 전달되는 영상 데이터(IMG_in)를 동영상(MI_n)으로 인식하여 이미지 프로세서(130)로 전송한다. 반면, 수신기(110)는 정지 영상 모드로 전달되는 영상 데이터(IMG_in)를 정지 영상(SI)으로 인식하여 프레임 버퍼(120)로 전달한다. The receiver 110 transmits the input image data IMG_in according to the detected mode to the frame buffer 120 or the image processor 130. For example, the receiver 110 recognizes the image data IMG_in delivered in the video mode as the video MI_n and transmits it to the image processor 130. On the other hand, the receiver 110 recognizes the image data IMG_in delivered in the still image mode as the still image SI and transmits it to the frame buffer 120.

프레임 버퍼(120)는 입력되는 영상 데이터(IMG_in)를 저장하고, 저장된 영상 데이터(IMG_in)를 이미지 프로세서(130)에 전달하거나 모션 프로세서(140)에 제공할 수 있다. 일반적으로, 프레임 버퍼(120)는 정지 영상(SI)을 저장한다. 프레임 버퍼(120)에 저장된 정지 영상(SI)은 미리 정의된 프레임 주파수(Frame Frequency: FF)에 대응하는 횟수로 이미지 프로세서(130)에 전송된다. 예를 들면, 프레임 버퍼(120)에 저장된 정지 영상(SI)은 30Hz나 60Hz와 같은 프레임 주파수에 대응하는 횟수로 이미지 프로세서(130)에 공급될 수 있다. 그리고 이미지 프로세서(130)에 의해서 처리된 정지 영상(SI)은 드라이버(160)를 통해서 디스플레이를 구동하기 위한 구동 신호(IMG_out)로 출력될 것이다.The frame buffer 120 may store the input image data IMG_in and transfer the stored image data IMG_in to the image processor 130 or provide it to the motion processor 140. In general, the frame buffer 120 stores a still image SI. The still image SI stored in the frame buffer 120 is transmitted to the image processor 130 a number of times corresponding to a predefined frame frequency (FF). For example, the still image SI stored in the frame buffer 120 may be supplied to the image processor 130 at a number corresponding to a frame frequency such as 30 Hz or 60 Hz. In addition, the still image SI processed by the image processor 130 will be output as a driving signal IMG_out for driving the display through the driver 160.

특히, 본 발명의 프레임 버퍼(120)는 동영상 모드에서 이전 프레임(MI_n-1)의 동영상을 저장하는 용도로 사용될 수 있다. 예를 들면, 현재 프레임(MI_n)의 동영상이 이미지 프로세서(130)에서 처리된 후에는 모션 프로세서(140)에 전달된다. 이 경우, 프레임 버퍼(120)는 동영상의 이전 프레임(MI_n-1)을 저장하고 있다가, 현재 프레임(MI_n)에 동기하여 모션 프로세서(140)에 제공할 수 있다. 이러한 이전 프레임(MI_n-1)의 전달 경로는 점선으로 도시하였다. 이와 같은 모션 프로세서(140)에 공급되는 이전 프레임(MI_n-1)을 공급하기 위해, 프레임 버퍼(120)는 이미지 프로세서(130)에서 출력되는 현재 프레임(MI_n)을 저장한다. 그리고 프레임 버퍼(120)는 다음 프레임(MI_n+1)이 이미지 프로세서(130)에서 모션 프로세서(140)로 출력되는 사이클에 동기하여 현재 프레임(MI_n)을 모션 프로세서(140)에 공급할 것이다.In particular, the frame buffer 120 of the present invention may be used for storing a video of the previous frame MI_n-1 in the video mode. For example, after the video of the current frame MI_n is processed by the image processor 130, it is transmitted to the motion processor 140. In this case, the frame buffer 120 may store the previous frame MI_n-1 of the video, and then provide the motion processor 140 in synchronization with the current frame MI_n. The transmission path of this previous frame (MI_n-1) is shown by a dotted line. To supply the previous frame MI_n-1 supplied to the motion processor 140, the frame buffer 120 stores the current frame MI_n output from the image processor 130. In addition, the frame buffer 120 may supply the current frame MI_n to the motion processor 140 in synchronization with a cycle in which the next frame MI_n+1 is output from the image processor 130 to the motion processor 140.

이미지 프로세서(130)는 동영상이나 정지 영상의 화질을 개선하기 위한 동작을 수행한다. 이미지 프로세서(130)는 동영상이나 정지 영상의 프레임 데이터에 포함된 픽셀들 각각에 대한 화질 개선을 위한 처리를 수행한다. 이미지 프로세서(130)는 픽셀 데이터를 처리하기 위한 다양한 화질 개선 동작을 파이프라인 방식으로 처리할 수 있다. 예를 들면, 이미지 프로세서(130)는 픽셀 데이터 프로세싱 회로(Pixel data processing circuit)나 전처리 회로(Pre-processing circuit), 게이팅 회로(Gating circuit) 등을 포함할 수 있다.The image processor 130 performs an operation for improving the image quality of a video or still image. The image processor 130 performs processing for improving the quality of each pixel included in frame data of a moving picture or a still image. The image processor 130 may process various image quality improvement operations for processing pixel data in a pipelined manner. For example, the image processor 130 may include a pixel data processing circuit, a pre-processing circuit, a gating circuit, and the like.

모션 프로세서(140)는 동영상에서 발생하는 LCD나 OLED 디스플레이에서 발생하는 동영상의 잔상이나 또는 모션 블러(Motion Blur)와 같은 노이즈를 제거하기 위한 프로세서 또는 기능 블록(IP: Intellectual Property)일 수 있다. 예를 들면, 모션 프로세서(140)는 프레임이 전환될 때, 사람의 눈에서 이전 프레임(MI_n-1)의 이미지가 현재 프레임(MI_n)의 이미지와 겹쳐서 발생하는 모션 블러를 보상할 수 있다. 모션 블러를 보상하기 위해, 현재 프레임(MI_n)과 이전 프레임(MI_n-1)의 차이값을 계산하고, 계산된 차이값을 기본으로 생성된 보간 프레임이 추가될 수 있을 것이다. 모션 프로세서(140)는 모션 블러뿐만 아니라 다양한 모션 보상 동작을 수행할 수 있다. 하지만, 동영상 모드에서 모션 보상을 수행하기 위해서는 현재 프레임(MI_n)과 이전 프레임(MI_n-1)이 필요하다. 본 발명에 따르면, 이미지 프로세서(130)에 의해서 처리된 이전 프레임(MI_n-1)이 프레임 버퍼(120)에 저장될 수 있다.The motion processor 140 may be a processor or a function block (IP: Intellectual Property) for removing noise such as an afterimage of a video generated from an LCD or an OLED display generated from a video or motion blur. For example, when the frame is switched, the motion processor 140 may compensate for motion blur caused by the image of the previous frame MI_n-1 overlapping the image of the current frame MI_n in the human eye. In order to compensate for motion blur, a difference value between the current frame MI_n and the previous frame MI_n-1 may be calculated, and an interpolation frame generated based on the calculated difference value may be added. The motion processor 140 may perform various motion compensation operations as well as motion blur. However, in order to perform motion compensation in the video mode, the current frame MI_n and the previous frame MI_n-1 are required. According to the present invention, the previous frame MI_n-1 processed by the image processor 130 may be stored in the frame buffer 120.

드라이버(150)는 모션 프로세서(140)로부터 제공되는 동영상 이미지 또는 이미지 프로세서(130)로부터 제공되는 정지 영상 이미지를 디스플레이(Display, 미도시)에 표시하기 위한 구동 신호로 변환한다. 예를 들면, 드라이버(150)는 동영상 이미지 또는 정지 영상 이미지를 디스플레이의 소스 라인들을 구동하기 위한 소스 구동 신호로 변환하여 출력할 수 있다. 또는, 드라이버(150)는 동영상 이미지 또는 정지 영상 이미지를 디스플레이의 게이트 라인들을 구동하기 위한 게이트 구동 신호로 변환하여 출력할 수 있다. 더불어, 드라이버(150)는 동영상 이미지 또는 정지 영상 이미지의 데이터 포맷을 변환하여 소스 드라이버나 게이트 드라이버에 전달하는 타이밍 컨트롤러를 더 포함할 수도 있을 것이다. 하지만, 드라이버(150)의 구성은 다양한 조합에 따라 장치 특성에 맞게 변경될 수 있음은 잘 이해될 것이다.The driver 150 converts a video image provided from the motion processor 140 or a still image image provided from the image processor 130 into a driving signal for displaying on a display (not shown). For example, the driver 150 may convert a video image or a still image image into a source driving signal for driving the source lines of the display and output the converted image. Alternatively, the driver 150 may convert a video image or a still image image into a gate driving signal for driving the gate lines of the display and output the converted image. In addition, the driver 150 may further include a timing controller that converts a data format of a video image or a still image image and delivers it to a source driver or a gate driver. However, it will be understood that the configuration of the driver 150 may be changed according to device characteristics according to various combinations.

컨트롤러(160)는 수신기(110)로부터 제공되는 영상 데이터의 모드(Mode)에 따라 프레임 버퍼(120), 이미지 프로세서(130), 그리고 모션 프로세서(140)를 제어한다. 컨트롤러(160)는 정지 영상에 대응하는 모드(Mode)를 수신하면, 수신기(110)가 출력하는 정지 영상(SI)을 저장하도록 프레임 버퍼(120)를 제어한다. 그리고 컨트롤러(160)는 저장된 정지 영상을 이미지 프로세서(130), 드라이버(150)에 프레임 주파수로 출력하도록 프레임 버퍼(120)를 제어할 수 있다. The controller 160 controls the frame buffer 120, the image processor 130, and the motion processor 140 according to a mode of image data provided from the receiver 110. When the controller 160 receives a mode corresponding to the still image, the controller 160 controls the frame buffer 120 to store the still image SI output by the receiver 110. In addition, the controller 160 may control the frame buffer 120 to output the stored still image to the image processor 130 and the driver 150 at a frame frequency.

반면, 컨트롤러(160)는 동영상에 대응하는 모드(Mode)를 수신하면, 수신기(110)가 출력하는 동영상의 현재 프레임(MI_n)을 수신하여 처리하도록 이미지 프로세서(130)를 제어한다. 컨트롤러(160)는 모션 프로세서(140)로 제공되는 현재 프레임(MI_n)에 동기하여 이전 프레임(MI_n-1)이 모션 프로세서(140)에 제공되도록 프레임 버퍼(120)를 제어할 수 있다. 즉, 이미지 프로세서(130)에서 처리된 현재 프레임(MI_n)이 모션 프로세서(140)에 전달되는 사이클에 동기하여, 이전 프레임(MI_n-1)도 모션 프로세서(140)에 출력하도록 프레임 버퍼(120)를 제어한다. 더불어, 이전 프레임(MI_n-1)이 모션 프로세서(140)로 전달된 후, 컨트롤러(160)는 프레임 버퍼(120)에 저장된 이전 프레임(MI_n-1)에 현재 프레임(MI_n)을 덮어쓰기한다.On the other hand, when the controller 160 receives a mode corresponding to the video, the controller 160 controls the image processor 130 to receive and process the current frame MI_n of the video output by the receiver 110. The controller 160 may control the frame buffer 120 such that the previous frame MI_n-1 is provided to the motion processor 140 in synchronization with the current frame MI_n provided to the motion processor 140. That is, the frame buffer 120 to output the previous frame MI_n-1 to the motion processor 140 in synchronization with a cycle in which the current frame MI_n processed by the image processor 130 is transmitted to the motion processor 140. To control. In addition, after the previous frame MI_n-1 is transmitted to the motion processor 140, the controller 160 overwrites the current frame MI_n in the previous frame MI_n-1 stored in the frame buffer 120.

이상에서 설명된 본 발명의 디스플레이 구동 회로(100)는, 동영상 모드에서 이미지 프로세서(130)에서 출력되는 이전 프레임(MI_n-1)을 저장하는 프레임 버퍼(120)를 포함한다. 물론, 프레임 버퍼(120)는 정지 영상 모드에서는 수신기(110)에서 전달되는 정지 영상(SI)을 저장한다. 결국, 동영상 모드에서 모션 보상을 위한 이전 프레임(MI_n-1)의 저장 용도로 사용 가능한 프레임 버퍼(120)에 의해서, 별도의 메모리 자원의 추가없이 동영상의 재생 품질을 높일 수 있는 디스플레이 구동 회로(100)가 구현될 수 있다.The display driving circuit 100 of the present invention described above includes a frame buffer 120 that stores the previous frame MI_n-1 output from the image processor 130 in the video mode. Of course, the frame buffer 120 stores the still image SI transmitted from the receiver 110 in the still image mode. As a result, a display driving circuit 100 capable of increasing the playback quality of a video without adding a separate memory resource by using the frame buffer 120 that can be used for storing the previous frame (MI_n-1) for motion compensation in the video mode. ) Can be implemented.

도 2는 도 1의 디스플레이 구동 회로의 동작 방법을 간략히 보여주는 순서도이다. 도 2를 참조하면, 프레임 버퍼(120, 도 1 참조)는 영상의 모드(Mode)에 따라 정지 영상(SI)을 저장하거나, 이미지 프로세서(130)에 의해서 처리된 이전 프레임(MI_n-1)을 저장하는 용도로 사용될 수 있다.FIG. 2 is a flowchart briefly showing an operation method of the display driving circuit of FIG. 1. Referring to FIG. 2, the frame buffer 120 (refer to FIG. 1) stores a still image SI according to a mode of an image, or stores a previous frame MI_n-1 processed by the image processor 130. Can be used for storage purposes.

S110 단계에서, 수신기(110)는 호스트(Host)로부터 제공되는 영상 데이터(IMG_in)의 모드(Mode)를 검출할 것이다. 모드(Mode)는 영상 데이터(IMG_in)가 동영상인지 또는 정지 영상인지를 나타낸다. 수신기(110)는 호스트로부터의 명령어나 제어 신호에 의해서 입력되는 영상 데이터(IMG_in)의 모드(Mode)를 제공받을 수도 있다. 수신기(110)는 모드(Mode)가 검출되면 검출된 결과를 컨트롤러(160)에 전달할 것이다.In step S110, the receiver 110 will detect a mode (Mode) of the image data (IMG_in) provided from the host (Host). The mode (Mode) indicates whether the image data (IMG_in) is a video or a still image. The receiver 110 may be provided with a mode of image data IMG_in input by a command or a control signal from the host. The receiver 110 will transmit the detected result to the controller 160 when a mode is detected.

S120 단계에서, 컨트롤러(160)는 수신기(110)로부터 제공된 모드(Mode)에 따라 영상 데이터(IMG_in)의 전달 경로를 결정한다. 만일, 영상 데이터(IMG_in)의 모드(Mode)가 정지 영상 모드에 대응하는 경우, 절차는 정지 영상(SI)을 프레임 버퍼(120)에 저장하기 위한 S130 단계로 이동한다. 반면, 영상 데이터(IMG_in)의 모드(Mode)가 동영상에 대응하는 경우, 절차는 동영상을 처리하기 위한 S160 단계로 이동할 것이다. In step S120, the controller 160 determines a transmission path of the image data IMG_in according to a mode provided from the receiver 110. If the mode (Mode) of the image data (IMG_in) corresponds to the still image mode, the procedure moves to step S130 for storing the still image (SI) in the frame buffer 120. On the other hand, if the mode (Mode) of the image data (IMG_in) corresponds to the video, the procedure will move to step S160 for processing the video.

S130 단계에서, 컨트롤러(160)는 수신기(110)를 통해서 입력된 현재 정지 영상(SI)을 프레임 버퍼(120)에 저장한다. In step S130, the controller 160 stores the current still image SI input through the receiver 110 in the frame buffer 120.

S140 단계에서, 컨트롤러(160)는 프레임 버퍼(120)에 저장된 정지 영상(SI)에 대한 화질 개선 동작을 수행하도록 이미지 프로세서(130)를 제어한다. 예를 들면, 이미지 프로세서(130)는 프레임 버퍼(120)에 저장된 정지 영상(SI)을 제공받아 칼라 보정, 감마 보정, 에지 개선, 색공간 변환, 화이트 밸런싱 등을 수행할 수 있을 것이다. 화질 개선 동작의 예는 상술한 예에만 국한되지 않으며 다양한 화소 개선 처리가 추가되거나 또는 스킵될 수 있을 것이다.In step S140, the controller 160 controls the image processor 130 to perform an image quality improvement operation on the still image SI stored in the frame buffer 120. For example, the image processor 130 may receive a still image SI stored in the frame buffer 120 to perform color correction, gamma correction, edge enhancement, color space conversion, white balancing, and the like. Examples of the image quality improvement operation are not limited to the above-described examples, and various pixel improvement processes may be added or skipped.

S145 단계에서, 컨트롤러(160)는 이미지 프로세서(130)에 의해서 처리된 정지 영상(SI_En)을 드라이버(150)로 출력하도록 이미지 프로세서(130)를 제어할 것이다. 그러면, 드라이버(150)에 의해서 화질이 개선된 정지 영상(SI_En)이 디스플레이를 구동하기 위한 구동 신호(IMG_out)으로 출력될 수 있다. In step S145, the controller 160 will control the image processor 130 to output the still image SI_En processed by the image processor 130 to the driver 150. Then, the still image SI_En with improved image quality may be output by the driver 150 as a driving signal IMG_out for driving the display.

S150 단계에서, 컨트롤러(160)는 프레임 버퍼(120)에 저장된 현재 정지 영상(SI)이 디스플레이에 표시된 횟수(CNT)가 미리 정의된 프레임 주파수(FF)에 도달했는지 판단할 것이다. 만일, 화질이 개선된 정지 영상(SI_En)이 디스플레이에 표시된 횟수(CNT)가 프레임 주파수(FF)에 도달하지 않은 경우(No 방향), 절차는 S155 단계로 이동한다. S155 단계에서, 정지 영상(SI_En)의 표시 횟수(CNT)가 증가된다. 이어서, 절차는 S140 단계로 복귀한다. 반면, 화질이 개선된 정지 영상(SI_En)이 디스플레이에 표시된 횟수(CNT)가 프레임 주파수(FF)에 도달한 경우(Yes 방향), 정지 영상(SI)에 대한 디스플레이 구동 회로(100)의 처리는 종료된다. 이후, 새로운 정지 영상(SI)이 프레임 버퍼(120)에 입력될 수 있을 것이다.In step S150, the controller 160 determines whether the number of times CNT displayed on the display of the current still image SI stored in the frame buffer 120 reaches a predefined frame frequency FF. If the number of times CNT of the still image SI_En with improved image quality is not displayed on the display (No direction), the procedure moves to step S155. In step S155, the number of display CNTs of the still image SI_En is increased. Subsequently, the procedure returns to step S140. On the other hand, when the number of times (CNT) the still image (SI_En) with improved image quality is displayed on the display reaches the frame frequency (FF) (Yes direction), the processing of the display driving circuit 100 for the still image (SI) Ends. Thereafter, a new still image SI may be input to the frame buffer 120.

S160 단계에서, 컨트롤러(160)는 수신기(110)를 통해서 입력된 동영상의 현재 프레임(MI_n)에 대한 화질 개선 동작을 수행하도록 이미지 프로세서(130)를 제어한다. 예를 들면, 이미지 프로세서(130)는 프레임 버퍼(120)를 경유하지 않고 수신기(110)로부터 제공되는 동영상의 현재 프레임(MI_n)을 제공받아 칼라 보정, 감마 보정, 에지 개선, 화이트 밸런싱 등을 수행할 수 있을 것이다. In step S160, the controller 160 controls the image processor 130 to perform an image quality improvement operation on the current frame MI_n of the video input through the receiver 110. For example, the image processor 130 receives the current frame MI_n of the video provided from the receiver 110 without passing through the frame buffer 120 and performs color correction, gamma correction, edge enhancement, white balancing, etc. You will be able to.

S170 단계에서, 이미지 프로세서(130)에서 처리된 후 출력되는 동영상의 현재 프레임(MI_n)은 모션 프로세서(140) 및 프레임 버퍼(120)에 전달될 것이다. In step S170, the current frame MI_n of the video output after being processed by the image processor 130 will be transmitted to the motion processor 140 and the frame buffer 120.

S180 단계에서, 동영상 모드에서 이전 프레임(MI_n-1)이 프레임 버퍼(120)에 존재하는지의 여부에 따라 모션 보상 동작의 실행 여부가 결정될 수 있다. 즉, 입력된 현재 프레임(MI_n)의 이전 프레임(MI_n-1)이 프레임 버퍼(120)에 존재하는 경우(Yes 방향), 절차는 S190 단계로 이동한다. 반면, 이전 프레임(MI_n-1)이 프레임 버퍼(120)에 저장되어 있지 않은 경우(No 방향), 절차는 S195 단계로 이동한다. 이런 경우는 현재 프레임(MI_n)이 동영상 모드에서 최초로 입력되는 프레임 데이터인 경우에 해당한다.In step S180, whether the motion compensation operation is performed may be determined according to whether the previous frame MI_n-1 exists in the frame buffer 120 in the video mode. That is, when the previous frame MI_n-1 of the input current frame MI_n exists in the frame buffer 120 (Yes direction), the procedure moves to step S190. On the other hand, if the previous frame MI_n-1 is not stored in the frame buffer 120 (No direction), the procedure moves to step S195. This case corresponds to the case where the current frame MI_n is the first frame data input in the video mode.

S190 단계에서, 모션 프로세서(140)는 프레임 버퍼(120)로부터 제공되는 이전 프레임(MI_n-1)과 이미지 프로세서(130)에서 출력되는 현재 프레임(MI_n)을 사용하여 모션 보상 처리를 수행할 것이다. 모션 프로세서(140)에 의해서 처리된 동영상 데이터는 드라이버(150)에 의해서 디스플레이를 구동하기 위한 구동 신호(IMG_out)로 출력된다.In step S190, the motion processor 140 will perform motion compensation processing using the previous frame MI_n-1 provided from the frame buffer 120 and the current frame MI_n output from the image processor 130. The video data processed by the motion processor 140 is output as a driving signal IMG_out for driving the display by the driver 150.

S195 단계에서, 이전 프레임(MI_n-1)이 존재하지 않기 때문에 모션 프로세서(140)에 의한 모션 보상 처리는 스킵(Skip)될 수 있다. 즉, 모션 보상 처리없이 현재 프레임(MI_n)이 구동 신호(IMG_out)로 변환되어 출력될 것이다.In step S195, since the previous frame MI_n-1 does not exist, motion compensation processing by the motion processor 140 may be skipped. That is, the current frame MI_n is converted into a driving signal IMG_out and output without motion compensation processing.

이상에서는 동영상 모드에서도 모션 보상을 위한 레퍼런스 프레임을 저장하기 위해 사용되는 프레임 버퍼(120)의 기능이 간략히 설명되었다. 프레임 버퍼(120)는 동영상 모드에서는 이미지 프로세서(130)에서 처리되어 백업된 이전 프레임(MI_n-1)을 저장하는 메모리 기능을 제공할 수 있다. 따라서, 본 발명의 처리 방식에 따르면 동영상 데이터의 모션 보상 처리를 수행하기 위한 별도의 추가 메모리없이 디스플레이 구동 회로를 구성할 수 있다.In the above, the function of the frame buffer 120 used to store the reference frame for motion compensation even in the video mode has been briefly described. The frame buffer 120 may provide a memory function for storing the previous frame MI_n-1 processed and backed up by the image processor 130 in the video mode. Therefore, according to the processing method of the present invention, a display driving circuit can be configured without a separate additional memory for performing motion compensation processing of video data.

도 3은 도 2에서 설명된 정지 영상(SI)의 처리 경로를 간략히 보여주는 블록도이다. 도 3을 참조하면, 정지 영상(SI)은 프레임 버퍼(120)를 경유하여 이미지 프로세서(130)로 전달되고, 다시 이미지 프로세서(130)에서 드라이버(150)로 전달된다.3 is a block diagram briefly showing a processing path of the still image SI described in FIG. 2. Referring to FIG. 3, the still image SI is transmitted to the image processor 130 via the frame buffer 120, and then transferred from the image processor 130 to the driver 150.

정지 영상(SI)에 대응하는 영상 데이터(IMG_in)가 수신기(110)에 전달되면, 수신기(110)로부터 출력되는 정지 영상(SI)은 프레임 버퍼(120)에 일차적으로 저장된다. 이러한 데이터 경로는 화살표 ①로 도시되어 있다. When the image data IMG_in corresponding to the still image SI is transmitted to the receiver 110, the still image SI output from the receiver 110 is primarily stored in the frame buffer 120. This data path is shown by arrow ①.

이어서, 프레임 버퍼(120)에 저장된 정지 영상(SI)에 대한 처리 경로는 화살표 ②로 도시되어 있다. 즉, 프레임 버퍼(120)에 저장된 정지 영상(SI)은 디스플레이에 미리 정의된 프레임 주파수(FF)에 대응하는 횟수만큼 처리 경로(②)를 따라 반복적으로 전달될 수 있다. 먼저, 프레임 버퍼(120)에 저장된 정지 영상(SI)은 이미지 프로세서(130)에 의해서 수행되는 화질 개선 동작에 따라 처리된다. 이미지 프로세서(130)에서 출력되는 화질 개선된 정지 영상(SI_En)은 드라이버(150)에 제공되어 디스플레이를 구동하기 위한 구동 신호(IMG_out)로 출력될 것이다. 처리 경로(②) 상에는 모션 프로세서(140)를 경유하는 경로는 존재하지 않을 것이다. 이러한 처리 경로(②)는 프레임 주파수(FF)에 대응하는 횟수만큼 반복될 수 있다. Subsequently, a processing path for the still image SI stored in the frame buffer 120 is illustrated by arrow ②. That is, the still image SI stored in the frame buffer 120 may be repeatedly transmitted along the processing path ② a number of times corresponding to a predefined frame frequency FF on the display. First, the still image SI stored in the frame buffer 120 is processed according to an image quality improvement operation performed by the image processor 130. The still image enhanced image SI_En output from the image processor 130 is provided to the driver 150 and will be output as a driving signal IMG_out for driving the display. There will not be a path via the motion processor 140 on the processing path ②. The processing path ② may be repeated a number of times corresponding to the frame frequency FF.

이상의 본 발명의 디스플레이 구동 회로(100)에 의한 정지 영상(SI)의 처리를 위해서는 입력된 정지 영상(SI)이 프레임 버퍼(120)에 반드시 저장되어야 실행될 수 있다. 따라서, 정지 영상(SI)의 표시를 위한 제반 디스플레이 구동 회로(100)는 하나의 정지 영상(SI) 프레임에 대응하는 프레임 버퍼(120)를 구비하게 될 것이다. In order to process the still image SI by the display driving circuit 100 of the present invention, the input still image SI must be stored in the frame buffer 120 to be executed. Accordingly, the overall display driving circuit 100 for displaying a still image SI will be provided with a frame buffer 120 corresponding to one still image SI frame.

도 4는 도 2에서 설명된 동영상의 처리 경로를 간략히 보여주는 블록도이다. 도 4를 참조하면, 동영상의 현재 프레임(MI_n)이 수신기(110), 이미지 프로세서(140)를 경유하여 모션 프로세서(140)에 전달되며, 이에 동기하여 프레임 버퍼(120)에 저장되어 있던 이전 프레임(MI_n-1)도 모션 프로세서(140)에 전달된다. 여기서, 이전 프레임(MI_n-1)은 이미 프레임 버퍼(120)에 저장되어 있는 것으로 가정하기로 한다. FIG. 4 is a block diagram briefly showing a processing path of the video illustrated in FIG. 2. Referring to FIG. 4, the current frame MI_n of the video is transmitted to the motion processor 140 via the receiver 110 and the image processor 140, and the previous frame stored in the frame buffer 120 in synchronization with this (MI_n-1) is also transmitted to the motion processor 140. Here, it is assumed that the previous frame MI_n-1 is already stored in the frame buffer 120.

동영상(MI)에 대응하는 영상 데이터(IMG_in)가 수신기(110)에 전달되면, 수신기(110)는 현재 프레임(MI_n)을 이미지 프로세서(130)에 먼저 전달한다. 이미지 프로세서(130)는 현재 프레임(MI_n)에 대한 화질 개선 동작을 적용한다. 그리고 이미지 프로세서(130)에서 출력되는 현재 프레임(MI_n)에 대응하는 데이터는 모션 프로세서(140)에 전달된다. 이러한 현재 프레임(MI_n)의 데이터 경로는 화살표(ⓐ)로 도시되어 있다. When the image data IMG_in corresponding to the video MI is delivered to the receiver 110, the receiver 110 first delivers the current frame MI_n to the image processor 130. The image processor 130 applies an image quality improvement operation to the current frame MI_n. In addition, data corresponding to the current frame MI_n output from the image processor 130 is transmitted to the motion processor 140. The data path of the current frame MI_n is illustrated by an arrow ⓐ.

더불어, 현재 프레임(MI_n)의 모션 프로세서(140)로의 도달에 동기하여 프레임 버퍼(120)에 저장되어 있던 이전 프레임(MI_n-1)이 모션 프로세서(140)에 전달된다. 이러한 이전 프레임(MI_n-1)의 데이터 경로는 화살표(ⓑ)로 도시되어 있다. In addition, the previous frame MI_n-1 stored in the frame buffer 120 is transmitted to the motion processor 140 in synchronization with the arrival of the current frame MI_n to the motion processor 140. The data path of the previous frame MI_n-1 is illustrated by an arrow ⓑ.

그리고 이미지 프로세서(130)에서 출력되는 현재 프레임(MI_n)은 추후에 진행될 다음 프레임(MI_n+1)의 모션 보상을 위해 프레임 버퍼(120)에 저장될 것이다. 물론, 이 과정에서 압축 인코딩이 동반될 수도 있을 것이다. 이러한 현재 프레임(MI_n)의 프레임 버퍼(120)로의 데이터 경로는 화살표(ⓒ)로 도시되어 있다. In addition, the current frame MI_n output from the image processor 130 will be stored in the frame buffer 120 for motion compensation of the next frame MI_n+1 to be processed later. Of course, this may be accompanied by compression encoding. The data path of the current frame MI_n to the frame buffer 120 is illustrated by an arrow ⓒ.

동영상 모드에서 입력되는 현재 프레임(MI_n)이 정지 영상에서 동영상으로의 모드 전환후 최초로 입력되는 데이터인 경우, 프레임 버퍼(120)에는 정지 영상이 저장되어 있거나 이전 프레임(MI_n-1)이 존재하지 않을 수 있다. 이 경우, 동영상 모드에서 최초로 입력되는 현재 프레임(MI_n)은 모션 보상 처리 없이 디스플레이에 표시될 수도 있을 것이다. 최초로 입력되는 현재 프레임(MI_n)은 프레임 버퍼(120)에 저장된 후 후속하여 입력되는 다음 프레임(MI_n+1)의 모션 보상 처리시 사용될 것이다.When the current frame (MI_n) input in the video mode is data input for the first time after switching the mode from the still image to the video, the still image is stored in the frame buffer 120 or the previous frame (MI_n-1) does not exist Can be. In this case, the current frame MI_n first input in the video mode may be displayed on the display without motion compensation processing. The first input current frame MI_n is stored in the frame buffer 120 and then used in motion compensation processing of the next input frame MI_n+1.

동영상 모드시, 본 발명의 디스플레이 구동 회로(100)는 이전 프레임(MI_n-1)을 모션 보상을 위한 레퍼런스 프레임으로 제공하기 위해 프레임 버퍼(120)를 활용한다. 따라서, 모션 보상을 위해 이전 프레임(MI_n-1)을 저장하기 위한 메모리로 정지 영상(SI)을 위해 기본적으로 제공되는 프레임 버퍼(120)를 사용함으로써 높은 메모리 자원 활용도를 달성할 수 있다. In the video mode, the display driving circuit 100 of the present invention utilizes the frame buffer 120 to provide the previous frame MI_n-1 as a reference frame for motion compensation. Therefore, it is possible to achieve high memory resource utilization by using the frame buffer 120 basically provided for a still image SI as a memory for storing the previous frame MI_n-1 for motion compensation.

도 5는 본 발명의 실시 예에 따른 모바일 장치를 간략히 보여주는 블록도이다. 도 5를 참조하면, 모바일 장치(10)는 응용 프로세서(20)와 디스플레이(30), 그리고 디스플레이 구동 회로(200)을 포함할 수 있다.5 is a block diagram briefly showing a mobile device according to an embodiment of the present invention. Referring to FIG. 5, the mobile device 10 may include an application processor 20, a display 30, and a display driving circuit 200.

응용 프로세서(20)는 디스플레이(30)에 표시될 영상 데이터를 생성한다. 응용 프로세서(20)는 정지 영상이나 동영상과 같은 영상 데이터를 생성하여 디스플레이 구동 회로(200)에 전달할 것이다. 이때, 정지 영상이나 동영상과 같은 영상의 모드가 함께 제공될 수도 있을 것이다. The application processor 20 generates image data to be displayed on the display 30. The application processor 20 will generate image data such as a still image or a video and transmit it to the display driving circuit 200. At this time, a mode of an image such as a still image or a video may also be provided.

응용 프로세서(20)는 디스플레이(30)에 표시될 동영상 또는 정지 영상에 대응하는 영상 데이터(IMG_in)를 디스플레이 구동 회로(200)에 전달한다. 응용 프로세서(20)는 MIPI(Mobile Industry Processor Interface)와 같은 고속 직렬 인터페이스(HiSSI; High Speed Serial Interface)를 통해 영상 데이터를 디스플레이 구동 회로(200)에 전달할 수 있다. 응용 프로세서(20)는 SPI(Serial Peripheral Interface), I2C(Inter-Integrated Circuit)와 같은 저속 직렬 인터페이스(LoSSI; Low Speed Serial Interface)를 통해 제어 정보를 디스플레이 구동 회로(200)에 제공할 수 있다. The application processor 20 transmits image data IMG_in corresponding to a moving image or a still image to be displayed on the display 30 to the display driving circuit 200. The application processor 20 may transmit image data to the display driving circuit 200 through a High Speed Serial Interface (HiSSI) such as a Mobile Industry Processor Interface (MIPI). The application processor 20 may provide control information to the display driving circuit 200 through a low-speed serial interface (LoSSI) such as a Serial Peripheral Interface (SPI) and an Inter-Integrated Circuit (I 2 C). have.

디스플레이 구동 회로(200)는 응용 프로세서(20)가 입력하는 영상 데이터(IMG_in)를 처리하여 디스플레이(30)에 전달한다. 디스플레이 구동 회로(200)는 입력되는 영상 데이터(IMG_in)가 동영상인 경우 현재 프레임(MI_n)과 프레임 버퍼(220)에 저장된 이전 프레임(MI_n-1)을 사용하는 모션 보상 동작을 수행할 수 있다. 반면, 입력되는 영상 데이터(IMG_in)가 정지 영상(SI)에 대응하는 경우, 디스플레이 구동 회로(200)는 프레임 버퍼(220)에 정지 영상(SI)을 저장한다. 이후, 디스플레이 구동 회로(200)는 프레임 버퍼(220)에 저장된 정지 영상(SI)을 이미지 프로세서(230)에 의한 화질 개선 동작을 적용한 후에 디스플레이(30)로 출력할 수 있다. 즉, 디스플레이 구동 회로(200)는 프레임 버퍼(220)를 정지 영상(SI)의 버퍼 메모리로 사용한다. The display driving circuit 200 processes the image data IMG_in input by the application processor 20 and transmits it to the display 30. When the input image data IMG_in is a video, the display driving circuit 200 may perform a motion compensation operation using the current frame MI_n and the previous frame MI_n-1 stored in the frame buffer 220. On the other hand, when the input image data IMG_in corresponds to the still image SI, the display driving circuit 200 stores the still image SI in the frame buffer 220. Thereafter, the display driving circuit 200 may output the still image SI stored in the frame buffer 220 to the display 30 after applying an image quality improvement operation by the image processor 230. That is, the display driving circuit 200 uses the frame buffer 220 as a buffer memory of the still image SI.

더불어, 프레임 버퍼(220)는 동영상 모드에서는 모션 프로세서(240)에서 수행되는 모션 보상을 위해 이전 프레임(MI_n-1)을 저장하기 위한 메모리로도 활용될 수 있다. 프레임 버퍼(220)에 저장된 이전 프레임(MI_n-1)은 현재 프레임(MI_n)이 모션 프로세서(240)에 도달하는 사이클에 동기하여 모션 프로세서(240)에 제공될 수 있다. 이러한 특징에 따라, 동영상의 모션 보상을 위해서 별도의 추가적인 메모리가 없이도 동영상의 재생 품질을 보장할 수 있다.In addition, the frame buffer 220 may be used as a memory for storing the previous frame MI_n-1 for motion compensation performed by the motion processor 240 in the video mode. The previous frame MI_n-1 stored in the frame buffer 220 may be provided to the motion processor 240 in synchronization with a cycle in which the current frame MI_n reaches the motion processor 240. According to these features, for the motion compensation of the video, the playback quality of the video can be guaranteed without additional memory.

디스플레이(30)는 디스플레이 구동 회로(200)에서 제공되는 출력 영상 데이터(IMG_out)에 의해서 영상을 화면에 표시한다. 일반적으로 LCD나 OLEDSMS 모션 블러와 같은 노이즈에 취약하다. 본 발명의 디스플레이 구동 회로(200)의 경우, 프레임 메모리의 증가없이 모션 보상을 수행할 수 있어 저전력 및 저비용의 모바일 장치(10)를 구현할 수 있다.The display 30 displays an image on the screen by output image data IMG_out provided by the display driving circuit 200. In general, it is vulnerable to noise such as LCD or OLEDSMS motion blur. In the case of the display driving circuit 200 of the present invention, motion compensation can be performed without increasing the frame memory, thereby realizing a low power and low cost mobile device 10.

도 6은 도 5에 도시된 디스플레이 구동 회로의 일 실시 예를 보여주는 블록도이다. 도 6을 참조하면, 디스플레이 구동 회로(200a)는 수신기(210), 프레임 버퍼(220), 이미지 프로세서(230), 모션 프로세서(240), 드라이버(250), 컨트롤러(260), 그리고 멀티플렉서들(215, 225)을 포함할 수 있다. 여기서, 이미지 프로세서(230), 모션 프로세서(240), 그리고 드라이버(250)는 도 1의 그것들과 실질적으로 동일한 기능을 제공하므로, 이것들에 대한 자세한 설명은 생략하기로 한다.6 is a block diagram illustrating an embodiment of the display driving circuit shown in FIG. 5. Referring to FIG. 6, the display driving circuit 200a includes a receiver 210, a frame buffer 220, an image processor 230, a motion processor 240, a driver 250, a controller 260, and multiplexers ( 215, 225). Here, since the image processor 230, the motion processor 240, and the driver 250 provide substantially the same functions as those in FIG. 1, detailed descriptions thereof will be omitted.

수신기(210)는 응용 프로세서(20, 도 5 참조)로부터 영상 데이터(IMG_in) 및 영상 데이터의 모드(CMD/VDO)를 수신한다. 예를 들면, 수신기(210)는 응용 프로세서(20)로부터 영상 데이터(IMG_in)에 대응하는 명령어 모드(CMD) 또는 비디오 모드(VDO)를 제공받을 수 있다. 수신기(210)는 응용 프로세서(20)로부터 제공된 모드(CMD/VDO)에 관련된 정보를 컨트롤러(260)에 전달한다.The receiver 210 receives the image data IMG_in and the mode (CMD/VDO) of the image data from the application processor 20 (see FIG. 5 ). For example, the receiver 210 may be provided with a command mode (CMD) or video mode (VDO) corresponding to the image data IMG_in from the application processor 20. The receiver 210 transmits information related to a mode (CMD/VDO) provided from the application processor 20 to the controller 260.

더불어, 수신기(210)는 모드(CMD/VDO)에 따라 입력된 영상 데이터(IMG_in)를 프레임 버퍼(220) 또는 이미지 프로세서(230)로 전달한다. 수신기(210)는 비디오 모드(VDO)로 전달되는 영상 데이터(IMG_in)는 동영상(MI_n)으로 인지하여 이미지 프로세서(230)로 전송한다. 반면, 수신기(210)는 명령어 모드(CMD)로 전달되는 영상 데이터(IMG_in)는 정지 영상(SI)으로 인지하여 프레임 버퍼(220)로 전달한다. 컨트롤러(260)는 모드(CMD/VDO)를 기초로 멀티플렉서(215)를 제어할 수 있다. 즉, 명령어 모드(CMD)에서는 멀티플렉서들(215, 225) 각각이 정지 영상(SI)을 프레임 버퍼(220)와 이미지 프로세서(230)에 전달하도록 제어할 것이다. In addition, the receiver 210 transmits the input image data IMG_in according to the mode (CMD/VDO) to the frame buffer 220 or the image processor 230. The receiver 210 recognizes the image data IMG_in delivered in the video mode VDO as a video MI_n and transmits it to the image processor 230. On the other hand, the receiver 210 recognizes the image data IMG_in delivered in the command mode CMD as a still image SI and transmits it to the frame buffer 220. The controller 260 may control the multiplexer 215 based on the mode (CMD/VDO). That is, in the command mode (CMD), each of the multiplexers 215 and 225 will be controlled to transmit the still image SI to the frame buffer 220 and the image processor 230.

프레임 버퍼(220)는 비디오 모드(VDO)에서는 이미지 프로세서(230)에 의해서 처리된 이전 프레임(MI_n-1)을 저장한다. 그리고 프레임 버퍼(220)는 현재 프레임(MI_n)이 모션 프로세서(240)에 전달되는 시점에, 모션 보상을 위한 레퍼런스로서 이전 프레임(MI_n-1)을 모션 프로세서(240)에 제공할 수 있다. In the video mode VDO, the frame buffer 220 stores the previous frame MI_n-1 processed by the image processor 230. In addition, the frame buffer 220 may provide the previous frame MI_n-1 to the motion processor 240 as a reference for motion compensation when the current frame MI_n is delivered to the motion processor 240.

컨트롤러(260)는 입력되는 영상 데이터(IMG_in)의 모드에 따라 멀티플렉서들(215, 225)과 프레임 버퍼(220), 이미지 프로세서(230), 모션 프로세서(240)의 동작을 제어할 수 있다. 예를 들면, 컨트롤러(260)는 비디오 모드(VDO)에서는 정지 영상(SI)이 아닌 이미지 프로세서(230)에서 처리된 동영상 프레임을 선택하도록 제 1 멀티플렉서(215)를 제어한다. 또한, 컨트롤러(260)는 비디오 모드(VDO)에서 프레임 버퍼(220)에서 출력되는 정지 영상(SI)이 아닌 수신기(210)에서 전달되는 동영상 프레임(MI_n)을 선택하도록 제 2 멀티플렉서(225)를 제어한다. The controller 260 may control operations of the multiplexers 215, 225, the frame buffer 220, the image processor 230, and the motion processor 240 according to the mode of the input image data IMG_in. For example, the controller 260 controls the first multiplexer 215 to select the video frame processed by the image processor 230 rather than the still image SI in the video mode VDO. In addition, the controller 260 selects the second multiplexer 225 to select the video frame MI_n transmitted from the receiver 210 instead of the still image SI output from the frame buffer 220 in the video mode VDO. Control.

반면, 컨트롤러(260)는 명령어 모드(CMD)에서는 이미지 프로세서(230)에서 처리된 동영상 프레임이 아닌 수신기(210)에서 전달되는 정지 영상(SI)을 선택하도록 제 1 멀티플렉서(215)를 제어할 것이다. 컨트롤러(260)는 명령어 모드(CMD)에서 수신기(210)에서 전달되는 동영상 프레임(MI_n)이 아닌 프레임 버퍼(220)에서 출력되는 정지 영상(SI)을 선택하도록 제 2 멀티플렉서(225)를 제어한다. On the other hand, the controller 260 will control the first multiplexer 215 to select a still image SI transmitted from the receiver 210 rather than a video frame processed by the image processor 230 in the command mode (CMD). . The controller 260 controls the second multiplexer 225 to select a still image SI output from the frame buffer 220 rather than the video frame MI_n transmitted from the receiver 210 in the command mode CMD. .

컨트롤러(260)는 비디오 모드(VDO)에서는 현재 프레임(MI_n)이 모션 프로세서(240)에 도달하는 시점과 이전 프레임(MI_n-1)이 프레임 버퍼(220)에서 모션 프로세서(240)로 출력되는 시점을 제어할 수 있다. 필요하다면, 모션 프로세서(240)에서 현재 프레임(MI_n)과 이전 프레임(MI_n-1)이 동시에 전달되도록 다양한 형태의 지연 수단이 사용될 수 있음은 잘 이해될 것이다.In the video mode (VDO), the controller 260 displays the time when the current frame MI_n reaches the motion processor 240 and the time when the previous frame MI_n-1 is output from the frame buffer 220 to the motion processor 240. Can be controlled. It will be appreciated that various types of delay means may be used so that the current frame MI_n and the previous frame MI_n-1 are simultaneously transmitted in the motion processor 240, if necessary.

본 발명의 디스플레이 구동 회로(200a)는 제한된 크기의 프레임 버퍼(220)를 동영상의 모션 보상을 위해 이전 프레임을 저장하는 메모리로 사용할 수 있다. 따라서, 본 발명에 따르면 한정된 메모리 자원을 효율적으로 사용하여 동영상 재생 품질을 보장하면서도 저비용, 저전력의 디스플레이 구동 회로(200a)가 구현될 수 있다.The display driving circuit 200a of the present invention may use the frame buffer 220 of a limited size as a memory for storing a previous frame for motion compensation of a video. Accordingly, according to the present invention, a low-cost, low-power display driving circuit 200a may be implemented while efficiently guaranteeing video playback quality by using limited memory resources efficiently.

도 7은 도 6의 디스플레이 구동 회로의 동작을 보여주는 순서도이다. 도 7을 참조하면, 프레임 버퍼(220, 도 6 참조)는 동영상 모드와 정지 영상 모드 각각에서 프레임 데이터를 저장할 수 있다.7 is a flowchart illustrating the operation of the display driving circuit of FIG. 6. Referring to FIG. 7, the frame buffer 220 (see FIG. 6) may store frame data in a video mode and a still image mode, respectively.

S210 단계에서, 수신기(210)는 응용 프로세서(20)로부터 영상 데이터(IMG_in)와 모드(CMD/VDO)를 제공받을 것이다. 모드(CMD/VDO)는 영상 데이터(IMG_in)가 동영상(VDO)인지 또는 정지 영상(CMD)인지를 나타낸다. 수신기(210)는 응용 프로세서(20)로부터의 명령어나 제어 신호에 의해서 영상 데이터(IMG_in)의 모드(Mode)를 제공받을 수 있다. 수신기(210)는 모드(CMD/VDO)가 검출되면 검출된 결과를 컨트롤러(260)에 전달할 것이다.In step S210, the receiver 210 will be provided with image data (IMG_in) and mode (CMD/VDO) from the application processor 20. The mode (CMD/VDO) indicates whether the image data IMG_in is a video (VDO) or a still image (CMD). The receiver 210 may be provided with a mode of image data IMG_in by a command or a control signal from the application processor 20. The receiver 210 will transmit the detected result to the controller 260 when the mode (CMD/VDO) is detected.

S220 단계에서, 컨트롤러(260)는 수신기(210)로부터 제공된 모드(CMD/VDO)에 따라 영상 데이터(IMG_in)의 전달 경로를 결정한다. 만일, 영상 데이터(IMG_in)의 모드(CMD/VDO)가 명령어 모드(CMD)에 대응하는 경우, 절차는 정지 영상(SI)을 프레임 버퍼(220)에 저장하기 위한 S230 단계로 이동한다. 반면, 영상 데이터(IMG_in)의 모드(CMD/VDO)가 동영상(VDO)에 대응하는 경우, 절차는 동영상을 처리하기 위한 S260 단계로 이동할 것이다.In step S220, the controller 260 determines a transmission path of the image data IMG_in according to a mode (CMD/VDO) provided from the receiver 210. If the mode (CMD/VDO) of the image data IMG_in corresponds to the command mode CMD, the procedure moves to step S230 for storing the still image SI in the frame buffer 220. On the other hand, if the mode (CMD/VDO) of the image data IMG_in corresponds to the video VDO, the procedure will move to step S260 for processing the video.

S230 단계에서, 컨트롤러(260)는 수신기(210)를 통해서 입력된 정지 영상(SI)을 프레임 버퍼(220)에 저장한다. 프레임 버퍼(220)의 사이즈는 하나의 프레임 영상 또는 압축된 프레임 영상을 저장할 수 있으면 충분하다. In step S230, the controller 260 stores the still image SI input through the receiver 210 in the frame buffer 220. The size of the frame buffer 220 is sufficient if one frame image or a compressed frame image can be stored.

S240 단계에서, 컨트롤러(260)는 프레임 버퍼(220)에 저장된 정지 영상(SI)에 대한 화질 개선 동작을 수행하도록 이미지 프로세서(230)를 제어한다. 예를 들면, 이미지 프로세서(230)는 프레임 버퍼(220)에 저장된 정지 영상(SI)을 제공받아 칼라 보정, 감마 보정, 에지 개선, 색공간 변환, 화이트 밸런싱 등을 수행할 수 있을 것이다. 화질 개선 동작의 예는 상술한 예에만 국한되지 않으며 다양한 화질 개선 처리가 추가되거나 또는 스킵될 수 있을 것이다.In step S240, the controller 260 controls the image processor 230 to perform an image quality improvement operation on the still image SI stored in the frame buffer 220. For example, the image processor 230 may receive a still image SI stored in the frame buffer 220 to perform color correction, gamma correction, edge enhancement, color space conversion, white balancing, and the like. The example of the image quality improvement operation is not limited to the above example, and various image quality improvement processes may be added or skipped.

S250 단계에서, 컨트롤러(260)는 이미지 프로세서(230)에 의해서 처리된 정지 영상(SI_En)을 드라이버(250)로 출력하도록 이미지 프로세서(230)를 제어할 것이다. 그러면, 드라이버(250)에 의해서 화질이 개선된 정지 영상(SI_En)이 표시될 수 있다. 여기서, 프레임 버퍼(220)에 저장된 정지 영상(SI)이 프레임 주파수(FF)에 대응하는 횟수만큼 이미지 프로세서(230)에서 처리될 수 있음이 도 2에서 설명되었다. 따라서, 정지 영상(SI)의 이러한 처리 절차는 이하에서는 생략하기로 한다.In step S250, the controller 260 will control the image processor 230 to output the still image SI_En processed by the image processor 230 to the driver 250. Then, a still image SI_En with improved image quality may be displayed by the driver 250. Here, it has been described in FIG. 2 that the still image SI stored in the frame buffer 220 can be processed by the image processor 230 as many times as the frame frequency FF. Therefore, the processing procedure of the still image SI will be omitted below.

S260 단계에서, 컨트롤러(260)는 수신기(210)를 통해서 입력된 동영상의 현재 프레임(MI_n)에 대한 화질 개선 동작을 수행하도록 이미지 프로세서(230)를 제어한다. 예를 들면, 이미지 프로세서(230)는 프레임 버퍼(220)를 경유하지 않고 수신기로(210)부터 제공되는 동영상의 현재 프레임(MI_n)을 제공받아 칼라 보정, 감마 보정, 에지 개선, 화이트 밸런싱 등을 수행할 수 있을 것이다. In step S260, the controller 260 controls the image processor 230 to perform an image quality improvement operation on the current frame MI_n of the video input through the receiver 210. For example, the image processor 230 receives the current frame MI_n of the video provided from the receiver 210 without passing through the frame buffer 220 to perform color correction, gamma correction, edge enhancement, white balancing, and the like. You can do it.

S270 단계에서, 이미지 프로세서(230)에서 처리된 후 출력되는 동영상의 현재 프레임(MI_n)은 모션 프로세서(240)와 프레임 버퍼(220)에 전달될 것이다.In step S270, the current frame MI_n of the video output after being processed by the image processor 230 will be transmitted to the motion processor 240 and the frame buffer 220.

S280 단계에서, 동영상의 현재 프레임(MI_n)의 이전 프레임(MI_n-1)이 이미 프레임 버퍼(220)에 존재하는지의 여부에 따라 모션 보상 동작의 실행 여부가 결정될 수 있다. 즉, 현재 프레임(MI_n)의 이전 프레임(MI_n-1)이 프레임 버퍼(220)에 존재하는 경우(Yes 방향), 절차는 S290 단계로 이동한다. 반면, 현재 프레임(MI_n)의 이전 프레임(MI_n-1)이 프레임 버퍼(220)에 저장되어 있지 않은 경우(No 방향), 절차는 S295 단계로 이동한다.In step S280, whether the motion compensation operation is performed may be determined according to whether the previous frame MI_n-1 of the current frame MI_n of the video already exists in the frame buffer 220. That is, when the previous frame MI_n-1 of the current frame MI_n exists in the frame buffer 220 (Yes direction), the procedure moves to step S290. On the other hand, if the previous frame MI_n-1 of the current frame MI_n is not stored in the frame buffer 220 (No direction), the procedure moves to step S295.

S290 단계에서, 모션 프로세서(240)는 프레임 버퍼(220)로부터 제공되는 이전 프레임(MI_n-1)과 이미지 프로세서(230)에서 출력되는 현재 프레임(MI_n)을 사용하여 모션 보상을 수행할 것이다. 모션 프로세서(240)에 의해서 처리된 동영상 데이터는 드라이버(250)에 의해서 디스플레이에 표시될 것이다.In operation S290, the motion processor 240 performs motion compensation using the previous frame MI_n-1 provided from the frame buffer 220 and the current frame MI_n output from the image processor 230. The video data processed by the motion processor 240 will be displayed on the display by the driver 250.

S295 단계에서, 이전 프레임(MI_n-1)이 존재하지 않기 때문에 모션 프로세서(240)에 의한 모션 보상은 스킵될 수 있다. 즉, 모션 보상 처리없이 현재 프레임(MI_n)이 디스플레이에 표시될 것이다.In step S295, since the previous frame MI_n-1 does not exist, motion compensation by the motion processor 240 may be skipped. That is, the current frame MI_n will be displayed on the display without motion compensation processing.

이상에서 설명된 본 발명의 디스플레이 구동 회로(200a)는, 동영상 모드 또는 비디오 모드(VDO)에서는 이전 프레임(MI_n-1)을 저장하고, 정지 영상 모드 또는 명령어 모드(CMD)에서는 정지 영상(SI)을 저장하는 프레임 버퍼(220)를 포함한다. 정지 영상 모드와 동영상 모드에서 모두 사용되는 프레임 버퍼(220)에 의해서, 별도의 외부 메모리나 내부 메모리 자원의 추가없이도 동영상과 정지 영상을 구동할 수 있는 디스플레이 구동 회로(200a)가 구현될 수 있다.The display driving circuit 200a of the present invention described above stores the previous frame MI_n-1 in the video mode or video mode (VDO), and the still image SI in the still image mode or the command mode (CMD). It includes a frame buffer 220 for storing. By using the frame buffer 220 used in both the still image mode and the moving image mode, a display driving circuit 200a capable of driving the moving image and the still image can be implemented without adding a separate external memory or internal memory resource.

도 8은 도 5에 도시된 디스플레이 구동 회로의 다른 실시 예를 보여주는 블록도이다. 도 8을 참조하면, 디스플레이 구동 회로(200b)는 수신기(210), 프레임 버퍼(220), 이미지 프로세서(230), 모션 프로세서(240), 드라이버(250), 컨트롤러(260), 멀티플렉서들(215, 225), 표준 디코더(270), 내부 디코더(272), 그리고 내부 인코더(274)를 포함할 수 있다. 여기서, 이미지 프로세서(230), 모션 프로세서(240), 그리고 드라이버(250)는 도 1 또는 도 6의 그것들과 실질적으로 동일한 기능을 제공하므로, 이것들에 대한 자세한 설명은 생략하기로 한다.8 is a block diagram illustrating another embodiment of the display driving circuit shown in FIG. 5. Referring to FIG. 8, the display driving circuit 200b includes a receiver 210, a frame buffer 220, an image processor 230, a motion processor 240, a driver 250, a controller 260, and multiplexers 215 , 225), a standard decoder 270, an internal decoder 272, and an internal encoder 274. Here, since the image processor 230, the motion processor 240, and the driver 250 provide substantially the same functions as those in FIGS. 1 or 6, detailed descriptions thereof will be omitted.

수신기(210)는 응용 프로세서(20, 도 5 참조)로부터 영상 데이터(IMG_in) 및 영상 데이터의 모드(CMD/VDO)를 수신한다. 수신기(210)는 응용 프로세서(20)로부터 영상 데이터(IMG_in)에 대응하는 명령어 모드(CMD) 또는 비디오 모드(VDO)를 제공받는다. 수신기(210)는 응용 프로세서(20)로부터 제공된 모드(CMD/VDO)를 컨트롤러(260)에 전달한다. 특히, 응용 프로세서(20)는 압축된 영상 데이터(IMG_in)를 전송할 수 있다. 예를 들면, 응용 프로세서(20)는 1/2 배율로 압축 인코딩된 영상 데이터(IMG_in)를 디스플레이 구동 회로(200b)에 제공하는 것으로 가정하기 한다. 디스플레이 구동 회로(200b)의 동작을 정지 영상 모드와 동영상 모드 각각에 대해서 이하에서 설명될 것이다.The receiver 210 receives the image data IMG_in and the mode (CMD/VDO) of the image data from the application processor 20 (see FIG. 5 ). The receiver 210 is provided with an instruction mode (CMD) or a video mode (VDO) corresponding to the image data IMG_in from the application processor 20. The receiver 210 transmits a mode (CMD/VDO) provided from the application processor 20 to the controller 260. In particular, the application processor 20 may transmit compressed image data (IMG_in). For example, it is assumed that the application processor 20 provides image data IMG_in compression-encoded at 1/2 magnification to the display driving circuit 200b. The operation of the display driving circuit 200b will be described below for each of the still image mode and the video mode.

먼저, 명령어 모드(CMD, 또는 정지 영상 모드)에서 1/2배로 압축된 영상 데이터(IMG_in)가 수신기(210)에 전달되는 경우, 멀티플렉서들(215, 225)은 각각 정지 영상(SI)들을 선택한다. 그러면, 1/2배로 압축된 정지 영상(SI)은 제 1 멀티플렉서(215)에 의해 프레임 버퍼(220)에 전달되고, 이후 제 2 멀티플렉서(225)를 통해서 표준 디코더(270)에 전달된다. 표준 디코더(270)는 응용 프로세서(20)에서 1/2배로 압축된 정지 영상(SI)의 압축을 해제한다. 그러면 압축 해제된 정지 영상(SI)은 이미지 프로세서(230)에 전달된다. 이미지 프로세서(230)는 압축 해제된 정지 영상(SI)에 대한 화질 개선 동작을 수행하여 개선된 정지 영상(SI_En)으로 출력하게 될 것이다. 그리고 드라이버(250)는 개선된 정지 영상(SI_En)에 기초하여 디스플레이를 구동하기 위한 구동 신호(IMG_out)로 출력할 것이다.First, when image data (IMG_in) compressed by 1/2 in command mode (CMD, or still image mode) is delivered to the receiver 210, the multiplexers 215 and 225 respectively select still images SI do. Then, the still image (SI) compressed by 1/2 is transmitted to the frame buffer 220 by the first multiplexer 215 and then transmitted to the standard decoder 270 through the second multiplexer 225. The standard decoder 270 decompresses the still image SI compressed 1/2 times by the application processor 20. Then, the decompressed still image SI is transmitted to the image processor 230. The image processor 230 will perform an image quality improvement operation on the decompressed still image SI and output the improved still image SI_En. Then, the driver 250 will output as a driving signal IMG_out for driving the display based on the improved still image SI_En.

반면, 비디오 모드(또는 동영상 모드)로 1/2배로 압축된 영상 데이터(IMG_in)가 수신기(210)에 전달되는 경우를 고려하기로 하자. 이때, 제 2 멀티플렉서(225)는 동영상의 현재 프레임(MI_n)을 선택하고, 제 1 멀티플렉서(215)는 내부 인코더(274)에서 출력되는 피드백된 동영상을 선택하도록 설정된다. 이러한 조건에서, 입력된 현재 프레임(MI_n)은 제 2 멀티플렉서(225)에 의해서 표준 디코더(270)에 전달된다. 표준 디코더(270)는 압축된 현재 프레임(MI_n)을 압축 해제하여 이미지 프로세서(230)에 전달한다. 그리고 이미지 프로세서(230)는 압축 해제된 현재 프레임(MI_n)의 화질을 개선하기 위한 연산을 수행한다. 이미지 프로세서(230)에 의해서 출력되는 압축 해제된 현재 프레임(MI_n)은 모션 프로세서(240)와 내부 인코더(274)에 전달된다. On the other hand, consider a case in which video data (IMG_in) compressed by 1/2 in video mode (or video mode) is transmitted to the receiver 210. At this time, the second multiplexer 225 is set to select the current frame MI_n of the video, and the first multiplexer 215 is set to select the feedbacked video output from the internal encoder 274. In this condition, the input current frame MI_n is transmitted to the standard decoder 270 by the second multiplexer 225. The standard decoder 270 decompresses the compressed current frame MI_n and delivers it to the image processor 230. In addition, the image processor 230 performs an operation for improving the image quality of the decompressed current frame MI_n. The decompressed current frame MI_n output by the image processor 230 is transmitted to the motion processor 240 and the internal encoder 274.

내부 인코더(274)는 이미지 프로세서(230)에서 출력되는 압축 해제된 현재 프레임(MI_n)에 대한 1/2배 압축 인코딩을 수행하여 제 1 멀티플렉서(215)에 전달한다. 제 1 멀티플렉서(215)에 의해서 압축된 현재 프레임(MI_n)은 프레임 버퍼(220)에 다시 저장된다. The internal encoder 274 performs 1/2-fold compression encoding on the decompressed current frame MI_n output from the image processor 230 and transmits it to the first multiplexer 215. The current frame MI_n compressed by the first multiplexer 215 is stored in the frame buffer 220 again.

더불어, 동영상의 모션 보상을 위해서는 현재 프레임(MI_n)이 모션 프로세서(240)에 전달되는 시점에 동기하여, 이전 프레임(MI_n-1)도 모션 프로세서(240)에 전달되어야 한다. 이전 프레임(MI_n-1)은 프레임 버퍼(220)에 압축된 상태로 저장되어 있다. 따라서, 이전 프레임(MI_n-1)이 프레임 버퍼(220)에서 출력되면, 내부 디코더(272)에 의해서 압축 해제된 후에 모션 프로세서(240)에 전달된다. In addition, in order to compensate for motion of a video, in synchronization with a time when the current frame MI_n is delivered to the motion processor 240, the previous frame MI_n-1 must also be delivered to the motion processor 240. The previous frame MI_n-1 is stored in a compressed state in the frame buffer 220. Accordingly, when the previous frame MI_n-1 is output from the frame buffer 220, it is decompressed by the internal decoder 272 and then transmitted to the motion processor 240.

도 9는 도 8의 디스플레이 구동 회로의 동작을 보여주는 순서도이다. 도 9를 참조하면, 프레임 버퍼(220, 도 8 참조)는 동영상 모드 및 정지 영상 모드에서 압축된 영상 데이터를 저장할 수 있다. 이하, 도 8의 구성들을 참조하여 본 발명의 동작 방법이 설명될 것이다.9 is a flowchart illustrating the operation of the display driving circuit of FIG. 8. Referring to FIG. 9, the frame buffer 220 (see FIG. 8) may store compressed image data in a video mode and a still image mode. Hereinafter, the operation method of the present invention will be described with reference to the configurations of FIG. 8.

S310 단계에서, 수신기(210)는 응용 프로세서(20)로부터 영상 데이터(IMG_in)와 모드(CMD/VDO)를 제공받을 것이다.In step S310, the receiver 210 will be provided with image data (IMG_in) and mode (CMD/VDO) from the application processor 20.

S320 단계에서, 컨트롤러(260)는 수신기(210)로부터 제공된 모드(CMD/VDO)에 따라 영상 데이터(IMG_in)의 전달 경로를 결정한다. 만일, 영상 데이터(IMG_in)의 모드(CMD/VDO)가 명령어 모드(CMD)에 대응하는 경우, 절차는 정지 영상(SI)을 프레임 버퍼(220)에 저장하기 위한 S330 단계로 이동한다. 반면, 영상 데이터(IMG_in)의 모드(CMD/VDO)가 동영상(VDO)에 대응하는 경우, 절차는 동영상을 처리하기 위한 S360 단계로 이동할 것이다.In step S320, the controller 260 determines a transmission path of the image data IMG_in according to the mode (CMD/VDO) provided from the receiver 210. If the mode (CMD/VDO) of the image data IMG_in corresponds to the command mode CMD, the procedure moves to step S330 for storing the still image SI in the frame buffer 220. On the other hand, when the mode (CMD/VDO) of the image data IMG_in corresponds to the video VDO, the procedure will move to step S360 for processing the video.

S330 단계에서, 컨트롤러(260)는 수신기(210)를 통해서 입력된 정지 영상(SI)을 프레임 버퍼(220)에 저장하도록 제 1 멀티플렉서(215) 및 프레임 버퍼(220)를 제어한다. 정지 영상(SI)은 응용 프로세서(20)에서 압축(/2)된 포맷으로 제공될 것이다. 따라서, 프레임 버퍼(220)의 메모리는 압축된 하나의 프레임 데이터에 대응하는 메모리 사이즈만 구비되면 충분하다. In step S330, the controller 260 controls the first multiplexer 215 and the frame buffer 220 to store the still image SI input through the receiver 210 in the frame buffer 220. The still image SI will be provided in a compressed (/2) format by the application processor 20. Therefore, it is sufficient if the memory of the frame buffer 220 is provided only with a memory size corresponding to one compressed frame data.

S335 단계에서, 프레임 버퍼(220)에 저장된 압축(/2)된 정지 영상(SI)은 표준 디코더(270)에 전달된다. 표준 디코더(270)는 응용 프로세서(20)에서 사용된 압축 인코딩 방식에 대응하는 방식으로 정지 영상(SI)을 디코딩할 것이다. 그러면, 표준 디코더(270)에 의해서 압축된 정지 영상(SI)은 압축 해제된다. In step S335, the compressed (/2) still image SI stored in the frame buffer 220 is transmitted to the standard decoder 270. The standard decoder 270 will decode the still image SI in a manner corresponding to the compression encoding method used in the application processor 20. Then, the still image SI compressed by the standard decoder 270 is decompressed.

S340 단계에서, 이미지 프로세서(230)에 의해서, 압축 해제된 정지 영상(SI)에 대한 화질 개선 동작이 수행된다. 예를 들면, 이미지 프로세서(230)는 압축 해제된 정지 영상(SI)을 제공받아 칼라 보정, 감마 보정, 에지 개선, 색공간 변환, 화이트 밸런싱 등을 수행할 수 있을 것이다. In step S340, an image quality improvement operation is performed on the decompressed still image SI by the image processor 230. For example, the image processor 230 may receive the decompressed still image SI and perform color correction, gamma correction, edge enhancement, color space conversion, white balancing, and the like.

S350 단계에서, 컨트롤러(260)는 이미지 프로세서(230)에 의해서 처리된 정지 영상(SI_En)을 드라이버(250)로 출력하도록 이미지 프로세서(230)를 제어할 것이다. In step S350, the controller 260 will control the image processor 230 to output the still image SI_En processed by the image processor 230 to the driver 250.

S360 단계에서, 압축된 상태로 입력된 동영상의 현재 프레임(MI_n)에 대한 압축 해제가 수행된다. 즉, 응용 프로세서(20)에 의해서 압축(/2)된 상태로 입력된 현재 프레임(MI_n)은 표준 디코더(270)에 의해서 압축 해제된다. In step S360, decompression of the current frame MI_n of the video input in the compressed state is performed. That is, the current frame MI_n input in the compressed (/2) state by the application processor 20 is decompressed by the standard decoder 270.

S365 단계에서, 이미지 프로세서(230)는 압축 해제된 동영상의 현재 프레임(MI_n)에 대한 화질 개선 동작을 수행한다. 예를 들면, 이미지 프로세서(230)는 압축 해제된 현재 프레임(MI_n)에 대한 칼라 보정, 감마 보정, 에지 개선, 화이트 밸런싱 중에서 적어도 하나의 처리를 적용할 수 있을 것이다. In step S365, the image processor 230 performs an image quality improvement operation on the current frame MI_n of the decompressed video. For example, the image processor 230 may apply at least one of color correction, gamma correction, edge enhancement, and white balancing to the decompressed current frame MI_n.

S370 단계에서, 이미지 프로세서(230)에서 처리된 현재 프레임(MI_n)은 모션 프로세서(240) 및 내부 인코더(274)에 전달된다. 동영상 모드에서, 압축이 해제된 상태인 현재 프레임(MI_n)은 2개의 데이터 경로를 따라 처리된다. 현재 프레임(MI_n)이 전달되는 제 1 경로는 후속 프레임(MI_n+1)과의 모션 보상을 위한 레퍼런스로 제공되기 위해 프레임 버퍼(220)에 저장되는 경로이다. 그리고 현재 프레임(MI_n)이 전달되는 제 2 경로는 이전 프레임(MI_n-1)을 사용하여 모션 보상을 수행하기 위해 모션 프로세서(240)에 전달되는 경로이다. 제 1 경로는 S380 단계 및 S385 단계에 대응하고, 제 2 경로는 S390 단계, S392 단계, 그리고 S394 단계에 대응한다.In step S370, the current frame MI_n processed by the image processor 230 is transmitted to the motion processor 240 and the internal encoder 274. In the video mode, the current frame MI_n in the decompressed state is processed along two data paths. The first path through which the current frame MI_n is transmitted is a path stored in the frame buffer 220 to serve as a reference for motion compensation with the subsequent frame MI_n+1. In addition, the second path through which the current frame MI_n is transmitted is a path transmitted to the motion processor 240 to perform motion compensation using the previous frame MI_n-1. The first path corresponds to steps S380 and S385, and the second path corresponds to steps S390, S392, and S394.

S380 단계에서, 내부 인코더(274)는 압축 해제된 현재 프레임(MI_n)을 프레임 버퍼(220)에 저장하기 위해 재압축한다. In step S380, the internal encoder 274 recompresses the decompressed current frame MI_n to be stored in the frame buffer 220.

S385 단계에서, 압축된 현재 프레임(MI_n)은 제 1 멀티플렉서(215)를 경유하여 프레임 버퍼(220)에 저장된다. 이후 프레임 버퍼(220)에 저장된 현재 프레임(MI_n)은 후속되는 다음 프레임(MI_n+1)의 모션 보상을 위해 내부 디코더(272)에 의해서 압축 해제되어 모션 프로세서(240)에 제공될 것이다.In step S385, the compressed current frame MI_n is stored in the frame buffer 220 via the first multiplexer 215. Thereafter, the current frame MI_n stored in the frame buffer 220 will be decompressed by the internal decoder 272 for motion compensation of the next frame MI_n+1, and then provided to the motion processor 240.

S390 단계에서, 동영상 모드에서 이전 프레임(MI_n-1)의 존재 여부에 따른 모션 프로세서(240)에서의 동작 분기가 진행된다. 만일, 현재 프레임(MI_n)의 모션 보상을 위한 이전 프레임(MI_n-1)이 프레임 버퍼(220)에 존재하는지 식별되어야 한다. 현재 프레임(MI_n)이 정지 영상 모드에서 동영상 모드로 전환된 후 최초로 입력되는 프레임 데이터일 수 있다. 이런 경우, 프레임 버퍼(220)에는 현재 프레임(MI_n)에 대응하는 이전 프레임(MI_n-1)은 존재하지 않을 것이다. 이 경우, 절차는 S394 단계로 이동한다. 반면, 현재 프레임(MI_n)에 대응하는 이전 프레임(MI_n-1)이 존재하는 경우, 절차는 S392 단계로 이동한다.In step S390, an operation branch in the motion processor 240 according to the existence of the previous frame MI_n-1 in the video mode is performed. If the previous frame MI_n-1 for motion compensation of the current frame MI_n exists in the frame buffer 220, it should be identified. The current frame MI_n may be frame data that is first input after switching from a still image mode to a video mode. In this case, the previous frame MI_n-1 corresponding to the current frame MI_n will not exist in the frame buffer 220. In this case, the procedure goes to step S394. On the other hand, if the previous frame MI_n-1 corresponding to the current frame MI_n exists, the procedure moves to step S392.

S392 단계에서, 모션 프로세서(240)는 현재 프레임(MI_n)과 이전 프레임(MI_n-1)을 사용하여 모션 보상 동작을 수행한다. 모션 보상이 완료된 데이터는 드라이버(250)에 전달된 후에 디스플레이를 구동하기 위한 구동 신호(IMG_out)로 변환될 것이다.In step S392, the motion processor 240 performs a motion compensation operation using the current frame MI_n and the previous frame MI_n-1. After the motion compensation is completed, the data is transferred to the driver 250 and then converted into a driving signal IMG_out for driving the display.

S394 단계에서, 모션 프로세서(240)는 모션 보상을 위한 이전 프레임(MI_n-1)이 존재하지 않으므로, 현재 프레임(MI_n)에 대한 모션 보상 동작을 생략할 수 있다. 모션 보상 동작은 적어도 동영상의 연속된 2개의 프레임이 확보되는 후속 프레임(MI_n+1)부터 적용될 수 있을 것이다.In step S394, since the previous frame MI_n-1 for motion compensation does not exist in the motion processor 240, the motion compensation operation for the current frame MI_n may be omitted. The motion compensation operation may be applied from a subsequent frame (MI_n+1) in which at least two consecutive frames of a video are secured.

도 10은 도 5에 도시된 디스플레이 구동 회로의 또 다른 실시 예를 보여주는 블록도이다. 도 10을 참조하면, 디스플레이 구동 회로(200c)는 응용 프로세서(20)로부터의 모드 정보 없이도 동영상 모드와 정지 영상 모드를 식별하여 프레임 버퍼(220)를 해당하는 모드에서의 용도로 사용할 수 있다. 디스플레이 구동 회로(200c)는 프레임 분석기(212), 프레임 버퍼(220), 이미지 프로세서(230), 모션 프로세서(240), 드라이버(250), 컨트롤러(260), 멀티플렉서들(215, 225), 표준 디코더(271), 내부 디코더(273), 그리고 내부 인코더(275)을 포함할 수 있다. 10 is a block diagram illustrating another embodiment of the display driving circuit shown in FIG. 5. Referring to FIG. 10, the display driving circuit 200c may identify a video mode and a still image mode without using mode information from the application processor 20 and use the frame buffer 220 for use in a corresponding mode. The display driving circuit 200c includes a frame analyzer 212, a frame buffer 220, an image processor 230, a motion processor 240, a driver 250, a controller 260, multiplexers 215, 225, and a standard. It may include a decoder 271, an internal decoder 273, and an internal encoder 275.

여기서, 프레임 분석기(212) 및 컨트롤러(260)의 일부 동작을 제외하면 디스플레이 구동 회로(200c)의 기능 및 동작은 도 8의 디스플레이 구동 회로(200b)와 유사하다. 따라서, 프레임 분석기(212)와 컨트롤러(260) 이외의 구성이나 동작은 이하에서는 생략하기로 한다.Here, except for some operations of the frame analyzer 212 and the controller 260, functions and operations of the display driving circuit 200c are similar to the display driving circuit 200b of FIG. Therefore, configurations and operations other than the frame analyzer 212 and the controller 260 will be omitted below.

프레임 분석기(212)는 응용 프로세서(20)로부터 제공되는 영상 데이터(IMG_in)의 패턴을 분석한다. 프레임 분석기(212)는 패턴 분석 결과에 따라 영상 데이터(IMG_in)의 모드(Mode)를 판단할 것이다. 프레임 분석기(212)는 패턴 분석의 결과에 의해서 검출된 입력되는 영상 데이터(IMG_in)의 모드(Mode)를 컨트롤러(260)에 전달할 수 있다. The frame analyzer 212 analyzes the pattern of the image data IMG_in provided from the application processor 20. The frame analyzer 212 will determine the mode of the image data IMG_in according to the pattern analysis result. The frame analyzer 212 may transmit a mode of input image data IMG_in detected by the result of the pattern analysis to the controller 260.

컨트롤러(260)는 이후 입력되는 영상 데이터(IMG_in)를 모드(Mode)에 따라 동영상 처리 절차 또는 정지 영상 처리 절차에 따라 처리할 것이다. 예를 들면, 프레임 분석기(212)가 입력되는 영상 데이터(IMG_in)가 정지 영상인 것으로 판단한 경우, 1/3배로 압축된 정지 영상(SI)이 프레임 버퍼(220)에 저장되고, 이후 제 2 멀티플렉서(225)를 통해서 표준 디코더(271)에 전달된다. 표준 디코더(271)는 응용 프로세서(20)에서 1/3배로 압축된 정지 영상(SI)의 압축을 해제한다. 그러면 압축 해제된 정지 영상(SI)은 이미지 프로세서(230)에 전달된다. 이미지 프로세서(230)는 압축 해제된 정지 영상(SI)에 대한 화질 개선 동작을 수행하여 개선된 정지 영상(SI_En)으로 출력하게 될 것이다. 그리고 드라이버(250)는 개선된 정지 영상(SI_En)에 기초하여 디스플레이 이미지 신호를 전송할 것이다.The controller 260 will then process the input image data (IMG_in) according to a mode according to a video processing procedure or a still image processing procedure. For example, when the frame analyzer 212 determines that the input image data (IMG_in) is a still image, the still image (SI) compressed by a factor of 1/3 is stored in the frame buffer 220, and then the second multiplexer It is transmitted to the standard decoder 271 through 225. The standard decoder 271 decompresses the still image SI compressed by 1/3 in the application processor 20. Then, the decompressed still image SI is transmitted to the image processor 230. The image processor 230 will perform an image quality improvement operation on the decompressed still image SI and output the improved still image SI_En. Then, the driver 250 will transmit the display image signal based on the improved still image SI_En.

반면, 동영상 모드로 1/3배로 압축된 영상 데이터(IMG_in)가 프레임 분석기(212)에 전달되는 경우를 고려하기로 하자. 이때, 제 2 멀티플렉서(225)는 동영상의 현재 프레임(MI_n)을 선택하고, 제 1 멀티플렉서(215)는 내부 인코더(275)에서 출력되는 피드백된 동영상을 선택하도록 설정된다. 이러한 조건에서, 입력된 현재 프레임(MI_n)은 제 2 멀티플렉서(225)에 의해서 표준 디코더(271)에 전달된다. 표준 디코더(271)는 압축된 현재 프레임(MI_n)을 압축 해제하여 이미지 프로세서(230)에 전달한다. 그리고 이미지 프로세서(230)는 압축 해제된 현재 프레임(MI_n)의 화질을 개선하기 위한 연산을 수행한다. 이미지 프로세서(230)에 의해서 출력되는 압축 해제된 현재 프레임(MI_n)은 모션 프로세서(240)와 내부 인코더(275)에 전달된다. On the other hand, let us consider the case where the image data (IMG_in) compressed by 1/3 in the video mode is transmitted to the frame analyzer 212. At this time, the second multiplexer 225 is set to select the current frame MI_n of the video, and the first multiplexer 215 is set to select the feedbacked video output from the internal encoder 275. In this condition, the input current frame MI_n is transmitted to the standard decoder 271 by the second multiplexer 225. The standard decoder 271 decompresses the compressed current frame MI_n and transmits it to the image processor 230. In addition, the image processor 230 performs an operation for improving the image quality of the decompressed current frame MI_n. The decompressed current frame MI_n output by the image processor 230 is transmitted to the motion processor 240 and the internal encoder 275.

내부 인코더(275)는 이미지 프로세서(230)에서 출력되는 압축 해제된 현재 프레임(MI_n)에 대한 1/3배 압축 인코딩을 수행하여 제 1 멀티플렉서(215)에 전달한다. 제 1 멀티플렉서(215)에 의해서 압축된 현재 프레임(MI_n)은 프레임 버퍼(220)에 다시 저장된다. The internal encoder 275 performs 1/3-fold compression encoding on the decompressed current frame MI_n output from the image processor 230 and transmits it to the first multiplexer 215. The current frame MI_n compressed by the first multiplexer 215 is stored in the frame buffer 220 again.

더불어, 동영상의 모션 보상을 위해서는 현재 프레임(MI_n)이 모션 프로세서(240)에 전달되는 시점에 동기하여, 이전 프레임(MI_n-1)도 모션 프로세서(240)에 전달되어야 한다. 이전 프레임(MI_n-1)은 프레임 버퍼(220)에 압축된 상태로 저장되어 있다. 따라서, 이전 프레임(MI_n-1)이 프레임 버퍼(220)에서 출력되면, 내부 디코더(273)에 의해서 압축 해제된 후에 모션 프로세서(240)에 전달된다. In addition, in order to compensate for motion of a video, in synchronization with a time when the current frame MI_n is delivered to the motion processor 240, the previous frame MI_n-1 must also be delivered to the motion processor 240. The previous frame MI_n-1 is stored in a compressed state in the frame buffer 220. Therefore, when the previous frame MI_n-1 is output from the frame buffer 220, it is decompressed by the internal decoder 273 and then transmitted to the motion processor 240.

도 11은 도 10의 디스플레이 구동 회로의 동작을 보여주는 순서도이다. 도 11을 참조하면, 프레임 버퍼(220, 도 10 참조)는 동영상 모드 및 정지 영상 모드에서 압축된 영상 데이터를 저장할 수 있다. 이하, 도 10의 구성들을 참조하여 본 발명의 동작 방법이 설명될 것이다.11 is a flowchart illustrating the operation of the display driving circuit of FIG. 10. Referring to FIG. 11, the frame buffer 220 (see FIG. 10) may store compressed image data in a video mode and a still image mode. Hereinafter, the operation method of the present invention will be described with reference to the configurations of FIG. 10.

S410 단계에서, 프레임 분석기(212)는 응용 프로세서(20)로부터 전달된 영상 데이터(IMG_in)의 패턴을 분석하여 동영상 모드 및 정지 영상 모드를 검출한다. 검출된 모드 정보(Mode)는 컨트롤러(260)에 제공된다.In step S410, the frame analyzer 212 analyzes the pattern of the image data IMG_in transmitted from the application processor 20 to detect a video mode and a still image mode. The detected mode information (Mode) is provided to the controller 260.

S420 단계에서, 컨트롤러(260)는 수신기(210)로부터 제공된 모드(Mode)에 따라 영상 데이터(IMG_in)의 전달 경로를 결정한다. 만일, 영상 데이터(IMG_in)의 모드(Mode)가 정지 영상 모드(SI)에 대응하는 경우, 절차는 정지 영상(SI)을 프레임 버퍼(220)에 저장하기 위한 S430 단계로 이동한다. 반면, 영상 데이터(IMG_in)의 모드(Mode)가 동영상(MI)에 대응하는 경우, 절차는 동영상을 처리하기 위한 S460 단계로 이동할 것이다.In step S420, the controller 260 determines a transmission path of the image data IMG_in according to a mode provided from the receiver 210. If the mode of the image data IMG_in corresponds to the still image mode SI, the procedure moves to step S430 for storing the still image SI in the frame buffer 220. On the other hand, if the mode (Mode) of the image data (IMG_in) corresponds to the video (MI), the procedure will move to step S460 for processing the video.

S430 단계에서, 컨트롤러(260)는 수신기(210)를 통해서 입력된 정지 영상(SI)을 프레임 버퍼(220)에 저장하도록 제 1 멀티플렉서(215) 및 프레임 버퍼(220)를 제어한다. 정지 영상(SI)은 응용 프로세서(20)에서 압축된 상태로 제공될 것이다. 따라서, 프레임 버퍼(220)의 메모리 사이즈는 하나의 프레임 데이터가 압축된 사이즈의 메모리 자원만 구비되면 충분하다. In step S430, the controller 260 controls the first multiplexer 215 and the frame buffer 220 to store the still image SI input through the receiver 210 in the frame buffer 220. The still image SI will be provided in a compressed state by the application processor 20. Therefore, the memory size of the frame buffer 220 is sufficient if only one frame data is provided with a memory resource of a compressed size.

S435 단계에서, 프레임 버퍼(220)에 저장된 압축된 정지 영상(SI)은 표준 디코더(271)에 전달된다. 표준 디코더(271)는 응용 프로세서(20)에서 사용된 압축 인코딩 방식에 대응하는 방식으로 정지 영상(SI)을 디코딩할 것이다. 그러면, 표준 디코더(271)에 의해서 압축된 정지 영상(SI)은 압축 해제된다. In step S435, the compressed still image SI stored in the frame buffer 220 is transmitted to the standard decoder 271. The standard decoder 271 will decode the still image SI in a manner corresponding to the compression encoding method used in the application processor 20. Then, the still image SI compressed by the standard decoder 271 is decompressed.

S440 단계에서, 이미지 프로세서(230)에 의해서, 압축 해제된 정지 영상(SI)에 대한 화질 개선 동작이 수행된다. 예를 들면, 이미지 프로세서(230)는 압축 해제된 정지 영상(SI)을 제공받아 칼라 보정, 감마 보정, 에지 개선, 색공간 변환, 화이트 밸런싱 등을 수행할 수 있을 것이다. In operation S440, an image quality improvement operation is performed on the decompressed still image SI by the image processor 230. For example, the image processor 230 may receive the decompressed still image SI and perform color correction, gamma correction, edge enhancement, color space conversion, white balancing, and the like.

S450 단계에서, 컨트롤러(260)는 이미지 프로세서(230)에 의해서 처리된 정지 영상(SI_En)을 드라이버(250)로 출력하도록 이미지 프로세서(230)를 제어할 것이다. 그러면, 드라이버(250)에 의해서 화질이 개선된 정지 영상(SI_En)이 표시될 수 있다. In step S450, the controller 260 will control the image processor 230 to output the still image SI_En processed by the image processor 230 to the driver 250. Then, a still image SI_En with improved image quality may be displayed by the driver 250.

S460 단계에서, 압축된 상태로 입력된 동영상의 현재 프레임(MI_n)에 대한 압축 해제 디코딩을 수행한다. 즉, 응용 프로세서(20)에 의해서 압축된 상태로 입력된 현재 프레임(MI_n)은 표준 디코더(271)에 의해서 압축 해제된다. In step S460, decompression decoding on the current frame MI_n of the video input in the compressed state is performed. That is, the current frame MI_n input in the compressed state by the application processor 20 is decompressed by the standard decoder 271.

S465 단계에서, 이미지 프로세서(230)는 압축 해제된 동영상의 현재 프레임(MI_n)에 대한 화질 개선 동작을 수행한다. 예를 들면, 이미지 프로세서(230)는 압축 해제된 현재 프레임(MI_n)에 대한 칼라 보정, 감마 보정, 에지 개선, 화이트 밸런싱 중에서 적어도 하나의 처리를 적용할 수 있을 것이다. In step S465, the image processor 230 performs an image quality improvement operation on the current frame MI_n of the decompressed video. For example, the image processor 230 may apply at least one of color correction, gamma correction, edge enhancement, and white balancing to the decompressed current frame MI_n.

S470 단계 내지 S494 단계는 앞서 설명된 도 9의 S370 내지 S394 단계와 동일하다. 따라서, S470 단계 내지 S494 단계에 대한 동작 및 절차들에 대한 설명은 이하에서 생략하기로 한다.Steps S470 to S494 are the same as steps S370 to S394 of FIG. 9 described above. Therefore, descriptions of operations and procedures for steps S470 to S494 will be omitted below.

도 12a 내지 도 12d는 도 10의 디스플레이 구동 회로에서 수행되는 정지 영상 및 동영상의 처리 절차를 도시한 블록도들이다. 도 12a는 정지 영상의 처리 과정을 보여주고, 도 12b 내지 도 12d는 정지 영상에 후속되는 동영상 프레임의 처리 과정을 순차적으로 보여준다. 여기서, 압축 및 압축 해제 과정은 설명의 편의를 위해 생략하였다.12A to 12D are block diagrams illustrating a process of processing a still image and a video performed in the display driving circuit of FIG. 10. 12A shows a process of processing a still image, and FIGS. 12B to 12D sequentially show a process of processing a video frame subsequent to a still image. Here, the compression and decompression processes are omitted for convenience of description.

도 12a를 참조하면, 정지 영상 모드(SI)에서 입력된 정지 영상 프레임(SI_n-2)이 프레임 버퍼(220)에 저장된다. 프레임 버퍼(220)에 저장된 정지 영상 프레임(SI_n-2)은 이미지 프로세서(230)에 전달된다. 이미지 프로세서(230)는 정지 영상 프레임(SI_n-2)에 대한 화질 개선 동작을 수행한다. 이미지 프로세서(230)에 의해서 처리된 정지 영상 프레임(SI_n-2)은 드라이버(250)에 전달되고, 디스플레이를 구동하기 위한 구동 신호로 출력될 것이다.Referring to FIG. 12A, a still image frame SI_n-2 input in the still image mode SI is stored in the frame buffer 220. The still image frame SI_n-2 stored in the frame buffer 220 is transmitted to the image processor 230. The image processor 230 performs an image quality improvement operation on the still image frame SI_n-2. The still image frame SI_n-2 processed by the image processor 230 is transmitted to the driver 250 and output as a driving signal for driving the display.

도 12b를 참조하면, 정지 영상 프레임(SI_n-2)이 프레임 버퍼(220)에 저장된 상태에서 동영상 모드(MI)로 전환될 수 있다. 그러면, 응용 프로세서(20)에서 정지 영상 프레임(SI_n-2)에 후속하여 동영상 프레임(MI_n-1)이 입력된다. 동영상 프레임(MI_n-1)은 프레임 버퍼(220)에 저장되지 않고 이미지 프로세서(230)에 전달된다. 이미지 프로세서(230)는 동영상 프레임(MI_n-1)에 대한 화질 개선 동작을 수행할 것이다. Referring to FIG. 12B, the still image frame SI_n-2 may be switched to the video mode MI while stored in the frame buffer 220. Then, the video frame MI_n-1 is input to the application processor 20 following the still image frame SI_n-2. The video frame MI_n-1 is not stored in the frame buffer 220 but is transmitted to the image processor 230. The image processor 230 will perform an image quality improvement operation on the video frame MI_n-1.

도 12c를 참조하면, 이미지 프로세서(230)는 화질이 개선된 동영상 프레임(MI_n-1)을 출력한다. 이때, 화질이 개선된 동영상 프레임(MI_n-1)은 모션 프로세서(240)에 제공되는 동시에 프레임 버퍼(220)에 전달된다. 프레임 버퍼(220)는 기존에 저장되어 있던 정지 영상 프레임(SI_n-2)을 무효화시키고, 동영상 프레임(MI_n-1)을 덮어쓰기할 것이다. 더불어, 모션 프로세서(240)에는 입력된 동영상 프레임(MI_n-1)에 대응하는 이전 프레임이 존재하지 않기 때문에 모션 보상 동작없이 동영상 프레임(MI_n-1)을 출력할 수 있을 것이다. 그러면 동영상 프레임(MI_n-1)은 드라이버(250)에 전달되고, 디스플레이를 구동하기 위한 구동 신호로 출력될 것이다.12C, the image processor 230 outputs a video frame MI_n-1 with improved image quality. At this time, the video frame MI_n-1 with improved image quality is provided to the motion processor 240 and transmitted to the frame buffer 220. The frame buffer 220 will invalidate the previously stored still image frame SI_n-2 and overwrite the video frame MI_n-1. In addition, since the previous frame corresponding to the input video frame MI_n-1 does not exist in the motion processor 240, the video frame MI_n-1 may be output without a motion compensation operation. Then, the video frame MI_n-1 is transmitted to the driver 250 and will be output as a driving signal for driving the display.

도 12d를 참조하면, 후속하는 동영상 프레임(MI_n)이 입력된다. 여기서, 설명의 편의를 위해 동영상 프레임(MI_n-1)을 이전 프레임, 후속되는 동영상 프레임(MI_n)을 현재 프레임이라 칭하기로 한다. 현재 프레임(MI_n)이 이미지 프로세서(230)에 전달되면, 이미지 프로세서(230)는 현재 프레임(MI_n)에 대한 화질 개선 동작을 수행할 것이다. 이어서, 화질이 개선된 현재 프레임(MI_n)이 모션 프로세서(240)에 제공되는 시점에, 프레임 버퍼(220)에서 저장되어 있던 이전 프레임(MI_n-1)이 모션 프로세서(240)에 전달된다. 그러면, 모션 프로세서(240)는 연속된 두 동영상 프레임들(MI_n-1, MI_n)을 사용하여 모션 보상 연산을 수행한다. 모션 보상이 완료된 동영상 프레임은 드라이버(250)에 전달되고 디스플레이(30)를 구동하기 위한 영상 신호로 출력될 것이다.Referring to FIG. 12D, a subsequent video frame MI_n is input. Here, for convenience of description, the video frame MI_n-1 will be referred to as a previous frame and a subsequent video frame MI_n as a current frame. When the current frame MI_n is delivered to the image processor 230, the image processor 230 will perform an image quality improvement operation on the current frame MI_n. Subsequently, when the current frame MI_n with improved image quality is provided to the motion processor 240, the previous frame MI_n-1 stored in the frame buffer 220 is transmitted to the motion processor 240. Then, the motion processor 240 performs motion compensation calculation using two consecutive video frames MI_n-1 and MI_n. The motion compensation completed video frame will be delivered to the driver 250 and output as an image signal for driving the display 30.

여기서, 현재 프레임(MI_n)이 모션 프로세서(240)에 전달되는 과정만이 도시되어 있으나, 현재 프레임(MI_n)은 동시에 프레임 버퍼(220)에도 전달된다. 프레임 버퍼(220)에 전달된 현재 프레임(MI_n)이 기존에 저장된 이전 프레임(MI_n-1)을 갱신하게 될 것이다.Here, only the process in which the current frame MI_n is transmitted to the motion processor 240 is illustrated, but the current frame MI_n is also transmitted to the frame buffer 220 at the same time. The current frame MI_n transferred to the frame buffer 220 will update the previously stored previous frame MI_n-1.

이상에서 설명된 본 발명의 디스플레이 구동 회로(200)는, 동영상 모드에서는 이전 프레임(MI_n-1)을 저장하고, 정지 영상 모드에서는 정지 영상(SI)을 저장하는 프레임 버퍼(220)를 포함한다. 정지 영상 모드와 동영상 모드에서 모두 사용되는 프레임 버퍼(220)에 의해서, 별도의 외부 메모리나 내부 메모리 자원의 추가없이도 동영상과 정지 영상을 구동할 수 있는 디스플레이 구동 회로(200)가 구현될 수 있다.The display driving circuit 200 of the present invention described above includes a frame buffer 220 that stores the previous frame MI_n-1 in the moving picture mode and a still picture SI in the still picture mode. By using the frame buffer 220 used in both the still image mode and the moving image mode, a display driving circuit 200 capable of driving the moving image and the still image can be implemented without adding a separate external memory or internal memory resource.

도 13은 본 발명의 실시 예에 따른 이미지 센서를 포함하는 전자 시스템을 보여주는 블록도이다. 도 11을 참조하면, 전자 시스템(1000)은 MIPI 인터페이스를 사용 또는 지원할 수 있는 데이터 처리 장치, 예컨대 이동 전화기, PDA, PMP, 또는 스마트 폰으로 구현될 수 있다. 전자 시스템(1000)은 애플리케이션 프로세서(1010), 이미지 센서(1040), 및 디스플레이(1050)를 포함한다.13 is a block diagram showing an electronic system including an image sensor according to an embodiment of the present invention. Referring to FIG. 11, the electronic system 1000 may be implemented as a data processing device capable of using or supporting a MIPI interface, such as a mobile phone, PDA, PMP, or smart phone. The electronic system 1000 includes an application processor 1010, an image sensor 1040, and a display 1050.

애플리케이션 프로세서(1010)에 구현된 CSI 호스트(1012)는 카메라 시리얼 인터페이스(Camera Serial Interface: CSI)를 통하여 이미지 센서(1040)의 CSI 장치(1041)와 시리얼 통신할 수 있다. 이때, CSI 호스트(1012)에는 광 디시리얼라이저(Optical Deserializer)가 구현될 수 있고, CSI 장치(1041)에는 광 시리얼라이저(Optical Serializer)가 구현될 수 있다. 더불어, 애플리케이션 프로세서(1010)는 본 발명의 자동 화이트 밸런싱을 수행하는 이미지 신호 프로세서(ISP)를 포함할 수 있다.The CSI host 1012 implemented in the application processor 1010 may serially communicate with the CSI device 1041 of the image sensor 1040 through a camera serial interface (CSI). In this case, an optical deserializer may be implemented in the CSI host 1012, and an optical serializer may be implemented in the CSI device 1041. In addition, the application processor 1010 may include an image signal processor (ISP) that performs automatic white balancing of the present invention.

애플리케이션 프로세서(1010)에 구현된 DSI 호스트(1011)는 디스플레이 시리얼 인터페이스(Display Serial Interface: DSI)를 통하여 디스플레이(1050)의 DSI 장치(1051)와 시리얼 통신할 수 있다. 이때, 예컨대, DSI 호스트(1011)에는 광 시리얼라이저가 구현될 수 있고, DSI 장치(1051)에는 광 디시리얼라이저가 구현될 수 있다.The DSI host 1011 implemented in the application processor 1010 may serially communicate with the DSI device 1051 of the display 1050 through a display serial interface (DSI). At this time, for example, an optical serializer may be implemented in the DSI host 1011, and an optical deserializer may be implemented in the DSI device 1051.

전자 시스템(1000)은 애플리케이션 프로세서(1010)와 통신할 수 있는 RF 칩(1060)을 포함할 수 있다. 전자 시스템(1000)의 PHY(1013)와 RF 칩(1060)의 PHY(1061)는 MIPI DigRF 인터페이스에 따라 데이터를 주고받을 수 있다.The electronic system 1000 can include an RF chip 1060 that can communicate with the application processor 1010. The PHY 1013 of the electronic system 1000 and the PHY 1061 of the RF chip 1060 may exchange data according to the MIPI DigRF interface.

전자 시스템(1000)은 GPS(1020), 스토리지(1070), 마이크(1080), DRAM(1085) 및 스피커(1090)를 더 포함할 수 있으며, 상기 전자 시스템(1000)은 Wimax(1030), WLAN(1033) 및 UWB(1035) 등을 이용하여 통신할 수 있다.The electronic system 1000 may further include a GPS 1020, a storage 1070, a microphone 1080, a DRAM 1085, and a speaker 1090, and the electronic system 1000 includes a Wimax 1030, WLAN 1033 and UWB 1035.

한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 상술한 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but it is needless to say that various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the above-described embodiments, and should be determined not only by the claims described below but also by the claims and equivalents of the present invention.

Claims (20)

정지 영상 또는 동영상을 수신하는 수신기;
정지 영상 모드시, 상기 수신기가 전달하는 상기 정지 영상을 저장하는 프레임 버퍼;
상기 수신기로부터 전달되는 상기 동영상 또는 상기 프레임 버퍼로부터 전달되는 상기 정지 영상에 대한 화질 개선 동작을 수행하는 이미지 프로세서; 그리고
동영상 모드시, 상기 이미지 프로세서로부터 출력되는 현재 프레임과 상기 프레임 버퍼에 저장된 이전 프레임을 사용하여 모션 보상을 수행하는 모션 프로세서를 포함하되,
상기 이전 프레임은 상기 동영상 모드시에 상기 현재 프레임 이전에 상기 이미지 프로세서에서 처리되어 상기 프레임 버퍼에 저장된 데이터이며, 상기 현재 프레임에 동기하여 상기 이전 프레임이 상기 프레임 버퍼로부터 상기 모션 프로세서로 출력되는 디스플레이 구동 회로.
A receiver that receives a still image or video;
In the still image mode, a frame buffer for storing the still image transmitted by the receiver;
An image processor performing an image quality improvement operation on the moving image transmitted from the receiver or the still image transmitted from the frame buffer; And
In the video mode, a motion processor for performing motion compensation using a current frame output from the image processor and a previous frame stored in the frame buffer,
The previous frame is data stored in the frame buffer processed by the image processor before the current frame in the video mode, and a display driving in which the previous frame is output from the frame buffer to the motion processor in synchronization with the current frame Circuit.
제 1 항에 있어서,
상기 모션 보상이 수행된 후, 상기 프레임 버퍼에 저장된 상기 이전 프레임은 상기 이미지 프로세서에서 출력되는 상기 현재 프레임으로 업데이트되는 디스플레이 구동 회로.
According to claim 1,
After the motion compensation is performed, the previous frame stored in the frame buffer is updated with the current frame output from the image processor.
제 1 항에 있어서,
상기 모션 프로세서는, 상기 현재 프레임과 상기 이전 프레임을 사용하여 모션 블루 보상 및 모션 벡터 추정 중 적어도 하나를 수행하는 디스플레이 구동 회로.
According to claim 1,
And the motion processor performs at least one of motion blue compensation and motion vector estimation using the current frame and the previous frame.
제 1 항에 있어서,
상기 수신기는 상기 외부로부터 제공되는 명령어 또는 제어 신호를 참조하여 상기 동영상 모드 또는 상기 정지 영상 모드를 식별하는 디스플레이 구동 회로.
According to claim 1,
The receiver is a display driving circuit for identifying the video mode or the still image mode with reference to a command or control signal provided from the outside.
제 1 항에 있어서,
상기 수신기는 상기 외부로부터 입력되는 영상 데이터의 패턴을 검출하여 상기 동영상 모드 또는 상기 정지 영상 모드를 식별하는 디스플레이 구동 회로.
According to claim 1,
The receiver detects a pattern of image data input from the outside, and displays a display driving circuit to identify the video mode or the still image mode.
제 5 항에 있어서,
상기 정지 영상 모드시, 상기 수신기에서 출력되는 상기 정지 영상을 상기 프레임 버퍼에 전달하고, 상기 동영상 모드시에는 상기 이미지 프로세서에서 출력되는 상기 현재 프레임을 상기 프레임 버퍼에 전달하는 제 1 멀티플렉서; 그리고
상기 정지 영상 모드시, 상기 프레임 버퍼에서 출력되는 상기 정지 영상을 상기 이미지 프로세서에 전달하고, 상기 동영상 모드시에는 상기 수신기에서 출력되는 상기 동영상을 상기 이미지 프로세서에 전달하는 제 2 멀티플렉서를 더 포함하는 디스플레이 구동 회로.
The method of claim 5,
A first multiplexer for transmitting the still image output from the receiver to the frame buffer in the still image mode and transferring the current frame output from the image processor to the frame buffer in the video mode; And
In the still image mode, the display further comprises a second multiplexer that delivers the still image output from the frame buffer to the image processor and, in the video mode, transmits the movie output from the receiver to the image processor. Driving circuit.
제 6 항에 있어서,
상기 영상 데이터가 압축된 영상 데이터인 경우,
상기 제 2 멀티플렉서에서 출력되는 상기 정지 영상 또는 상기 동영상의 압축을 해제하여 상기 이미지 프로세서에 제공하는 표준 디코더;
상기 이미지 프로세서에서 출력되는 상기 현재 프레임을 압축하여 상기 제 1 멀티플렉서로 전달하는 내부 인코더; 그리고
상기 프레임 버퍼에 저장된 상기 이전 프레임을 압축 해제하여 상기 모션 프로세서로 제공하는 내부 디코더를 더 포함하는 디스플레이 구동 회로.
The method of claim 6,
When the image data is compressed image data,
A standard decoder for decompressing the still image or the video output from the second multiplexer and providing the image to the image processor;
An internal encoder that compresses the current frame output from the image processor and delivers it to the first multiplexer; And
And an internal decoder that decompresses the previous frame stored in the frame buffer and provides it to the motion processor.
제 6 항에 있어서,
상기 동영상 모드 또는 상기 정지 영상 모드에 따라 상기 제 1 멀티플렉서 및 상기 제 2 멀티플렉서를 제어하는 컨트롤러를 더 포함하는 디스플레이 구동 회로.
The method of claim 6,
And a controller controlling the first multiplexer and the second multiplexer according to the video mode or the still image mode.
정지 영상을 저장하는 프레임 버퍼, 화질 개선 동작을 수행하는 이미지 프로세서, 그리고 모션 보상 동작을 수행하는 모션 프로세서를 포함하는 디스플레이 구동 회로의 동작 방법에 있어서:
영상 데이터의 모드를 식별하는 단계;
상기 영상 데이터의 상기 모드가 동영상 모드에 대응하는 경우, 상기 이미지 프로세서가 현재 프레임에 대한 상기 화질 개선 동작을 수행하는 단계;
상기 모션 프로세서가 상기 화질 개선된 현재 프레임에 대한 상기 모션 보상 동작을 수행하는 단계; 그리고
상기 화질 개선된 현재 프레임을 상기 프레임 버퍼에 저장하는 단계를 포함하는 동작 방법.
A method of operating a display driving circuit including a frame buffer for storing a still image, an image processor performing an image quality improvement operation, and a motion processor performing a motion compensation operation:
Identifying a mode of image data;
If the mode of the image data corresponds to a video mode, the image processor performing the image quality improvement operation for the current frame;
The motion processor performing the motion compensation operation on the current frame with improved image quality; And
And storing the current frame with the improved image quality in the frame buffer.
제 9 항에 있어서:
상기 모션 보상 동작시, 상기 모션 프로세서는 상기 현재 프레임과, 상기 프레임 버퍼에 저장된 이전 프레임을 제공받는 동작 방법.
The method of claim 9:
In the motion compensation operation, the motion processor receives the current frame and the previous frame stored in the frame buffer.
제 10 항에 있어서,
상기 모션 보상 동작은 상기 현재 프레임과 상기 이전 프레임의 비교 동작에 기반한 모션 블루 보상 및 모션 벡터 추정 중 적어도 하나를 포함하는 동작 방법.
The method of claim 10,
The motion compensation operation method includes at least one of motion blue compensation and motion vector estimation based on a comparison operation between the current frame and the previous frame.
제 10 항에 있어서,
상기 영상 데이터는 압축된 포맷으로 제공되며, 상기 화질 개선 동작이 적용되기 전에 상기 현재 프레임에 대한 압축 해제를 수행하는 단계를 더 포함하는 동작 방법.
The method of claim 10,
The image data is provided in a compressed format, and further comprising performing decompression on the current frame before the image quality improvement operation is applied.
제 12 항에 있어서,
상기 프레임 버퍼에 저장된 상기 이전 프레임에 대한 압축 해제를 수행하여 상기 모션 프로세서로 제공하는 단계를 더 포함하는 동작 방법.
The method of claim 12,
And performing decompression on the previous frame stored in the frame buffer and providing it to the motion processor.
제 12 항에 있어서,
상기 프레임 버퍼에 상기 화질 개선된 현재 프레임을 저장하기 전에 상기 현재 프레임을 압축하는 단계를 더 포함하는 동작 방법.
The method of claim 12,
And compressing the current frame before storing the current frame with the improved image quality in the frame buffer.
제 9 항에 있어서,
상기 현재 프레임이 상기 동영상 모드시에 입력된 최초 프레임에 대응하는 경우에는 상기 모션 보상 동작을 스킵하는 단계를 더 포함하는 동작 방법.
The method of claim 9,
And if the current frame corresponds to the first frame input in the video mode, skipping the motion compensation operation.
동영상 또는 정지 영상을 생성하는 응용 프로세서;
상기 동영상 또는 상기 정지 영상을 수신하여 구동 신호로 출력하며, 상기 동영상의 제 1 프레임을 화질 개선 처리 후에 프레임 버퍼에 저장하고, 상기 제 1 프레임에 후속되는 제 2 프레임이 수신되면 상기 프레임 버퍼에 저장된 상기 제 1 프레임을 기초로 상기 제 2 프레임의 모션 보상을 수행하여 상기 구동 신호로 생성하는 디스플레이 구동 회로; 그리고
상기 구동 신호에 따라 상기 동영상 또는 상기 정지 영상을 표시하는 디스플레이를 포함하는 모바일 장치.
An application processor for generating a video or still image;
The video or the still image is received and output as a driving signal, the first frame of the video is stored in a frame buffer after image quality improvement processing, and a second frame subsequent to the first frame is stored in the frame buffer A display driving circuit that performs motion compensation of the second frame based on the first frame to generate the driving signal; And
And a display displaying the moving image or the still image according to the driving signal.
제 16 항에 있어서,
상기 디스플레이 구동 회로는:
상기 동영상 또는 상기 정지 영상을 수신하고 식별하는 수신기;
상기 제 1 프레임 및 상기 제 2 프레임에 대한 상기 화질 개선 처리를 수행하는 이미지 프로세서; 그리고
상기 제 1 프레임 및 상기 제 2 프레임을 사용하여 상기 모션 보상을 수행하는 모션 프로세서를 포함하는 모바일 장치.
The method of claim 16,
The display driving circuit:
A receiver that receives and identifies the video or the still image;
An image processor performing the image quality improvement processing on the first frame and the second frame; And
And a motion processor that performs the motion compensation using the first frame and the second frame.
제 17 항에 있어서,
상기 디스플레이 구동 회로는:
정지 영상 모드시, 상기 수신기에서 출력되는 상기 정지 영상을 상기 프레임 버퍼에 전달하고, 동영상 모드시에는 상기 이미지 프로세서에서 출력되는 상기 제 1 프레임 또는 상기 제 2 프레임을 상기 프레임 버퍼에 전달하는 제 1 멀티플렉서; 그리고
상기 정지 영상 모드시, 상기 프레임 버퍼에서 출력되는 상기 정지 영상을 상기 이미지 프로세서에 전달하고, 상기 동영상 모드시에는 상기 수신기에서 출력되는 상기 제 2 프레임을 상기 이미지 프로세서에 전달하는 제 2 멀티플렉서를 더 포함하는 모바일 장치.
The method of claim 17,
The display driving circuit:
In the still image mode, a first multiplexer transferring the still image output from the receiver to the frame buffer, and in the video mode, transferring the first frame or the second frame output from the image processor to the frame buffer ; And
In the still image mode, a second multiplexer for transmitting the still image output from the frame buffer to the image processor and the second frame output from the receiver to the image processor in the video mode is further included. Mobile device.
제 18 항에 있어서,
상기 응용 프로세서는, 상기 동영상 또는 상기 정지 영상을 압축된 포맷으로 전송하며,
상기 디스플레이 구동 회로는:
상기 제 2 멀티플렉서에서 출력되는 상기 정지 영상 또는 상기 제 2 프레임을 압축 해제하여 상기 이미지 프로세서에 제공하는 표준 디코더;
상기 이미지 프로세서에서 출력되는 상기 제 1 프레임을 압축하여 상기 제 1 멀티플렉서로 전달하는 내부 인코더; 그리고
상기 프레임 버퍼에 저장된 상기 제 1 프레임을 압축 해제하여 상기 모션 프로세서로 제공하는 내부 디코더를 더 포함하는 모바일 장치.
The method of claim 18,
The application processor transmits the video or the still image in a compressed format,
The display driving circuit:
A standard decoder for decompressing the still image or the second frame output from the second multiplexer and providing the image to the image processor;
An internal encoder compressing the first frame output from the image processor and transmitting the compressed image to the first multiplexer; And
And an internal decoder which decompresses the first frame stored in the frame buffer and provides it to the motion processor.
제 18 항에 있어서,
상기 디스플레이 구동 회로는:
상기 동영상 모드 또는 상기 정지 영상 모드에 따라 상기 제 1 멀티플렉서 및 상기 제 2 멀티플렉서를 제어하는 컨트롤러를 더 포함하는 모바일 장치.
The method of claim 18,
The display driving circuit:
And a controller that controls the first multiplexer and the second multiplexer according to the video mode or the still image mode.
KR1020190039070A 2018-11-28 2019-04-03 Display driver circuit sharing frame buffer and mobile device and operating method thereof KR20200064867A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/584,228 US11087721B2 (en) 2018-11-28 2019-09-26 Display driver, circuit sharing frame buffer, mobile device, and operating method thereof
CN201911189742.2A CN111246146B (en) 2018-11-28 2019-11-27 Display driving circuit for sharing frame buffer, mobile device and operation method thereof
US17/393,691 US11810535B2 (en) 2018-11-28 2021-08-04 Display driver, circuit sharing frame buffer, mobile device, and operating method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180149200 2018-11-28
KR20180149200 2018-11-28

Publications (1)

Publication Number Publication Date
KR20200064867A true KR20200064867A (en) 2020-06-08

Family

ID=71089370

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190039070A KR20200064867A (en) 2018-11-28 2019-04-03 Display driver circuit sharing frame buffer and mobile device and operating method thereof

Country Status (1)

Country Link
KR (1) KR20200064867A (en)

Similar Documents

Publication Publication Date Title
CN111246146B (en) Display driving circuit for sharing frame buffer, mobile device and operation method thereof
US20220360736A1 (en) Method for frame interpolation and related products
KR101861723B1 (en) Devices and method of adjusting synchronization signal preventing tearing and flicker
TWI593275B (en) Adaptive linear luma domain video pipeline architecture, system and machine readable medium
JP2008506295A (en) Method and system for displaying a series of image frames
US9083975B2 (en) Moving image coding device
US10841460B2 (en) Frame synchronization method for image data, image signal processing apparatus, and terminal
US11006044B1 (en) Power-efficient dynamic electronic image stabilization
US9131158B2 (en) Moving-image capturing apparatus and electronic zoom method for moving image
CN107077313B (en) Improved latency and efficiency for remote display of non-media content
TWI749756B (en) Method and apparatus for generating a series of frames with aid of synthesizer
US20070188513A1 (en) Method and system for providing accelerated video processing in a communication device
US10424274B2 (en) Method and apparatus for providing temporal image processing using multi-stream field information
US8433149B2 (en) Image transmitter and image receiver, for transmitting/receiving image data to/from a device connected by a signal data line
CN110187858B (en) Image display method and system
US20140133781A1 (en) Image processing device and image processing method
CN114268707A (en) Image processing method and device and electronic equipment
KR20200064867A (en) Display driver circuit sharing frame buffer and mobile device and operating method thereof
KR20130018899A (en) Single pipeline stereo image capture
US9135036B2 (en) Method and system for reducing communication during video processing utilizing merge buffering
US9412147B2 (en) Display pipe line buffer sharing
US9087393B2 (en) Network display support in an integrated circuit
KR20050080900A (en) Method and apparatus for driving display of mobile communication terminal
US8237859B2 (en) Method for video conversion of video stream and apparatus thereof
US20180286006A1 (en) Tile reuse in imaging

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal