KR20200079871A - Image processing method and display device using the same - Google Patents

Image processing method and display device using the same Download PDF

Info

Publication number
KR20200079871A
KR20200079871A KR1020180169523A KR20180169523A KR20200079871A KR 20200079871 A KR20200079871 A KR 20200079871A KR 1020180169523 A KR1020180169523 A KR 1020180169523A KR 20180169523 A KR20180169523 A KR 20180169523A KR 20200079871 A KR20200079871 A KR 20200079871A
Authority
KR
South Korea
Prior art keywords
image
img1
value
img2
frame
Prior art date
Application number
KR1020180169523A
Other languages
Korean (ko)
Other versions
KR102547085B1 (en
Inventor
홍종주
이웅원
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020180169523A priority Critical patent/KR102547085B1/en
Publication of KR20200079871A publication Critical patent/KR20200079871A/en
Application granted granted Critical
Publication of KR102547085B1 publication Critical patent/KR102547085B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/103Detection of image changes, e.g. determination of an index representative of the image change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)

Abstract

The present invention relates to an image processing method for improving accuracy in an occlusion area, and a display device using the same. The image processing method synthesizes at least one of an IMG1 which is a first image in an n^th frame, an MC1 which is a forward motion compensation image using the IMG1, an IMG2 which is a second image in an (n+1)^th frame, and an MC2 which is a backward motion compensation image using the IMG2, to generate an interpolated image in an interpolation frame.

Description

영상 처리 방법 및 이를 이용한 표시 장치{Image processing method and display device using the same}Image processing method and display device using the same}

본 발명은 영상 처리 방법 및 이를 이용한 표시 장치에 관한 것이다.The present invention relates to an image processing method and a display device using the same.

액정표시장치는 홀드 타입 디스플레이로 구동된다. 이러한 홀드 타입 디스플레이는 구동 특성으로 인하여 동영상에서 모션 블러가 관찰되어 화질이 떨어지는 문제가 발생할 수 있다. The liquid crystal display is driven by a hold type display. Due to the driving characteristics of such a hold type display, motion blur may be observed in a video, resulting in a problem that image quality deteriorates.

모션 블러 문제를 개선하기 위하여, 스캐닝 백라이트(Scanning Backlight)와 블랙 삽입(Black Insertion) 기법이 있다. 이 방법은 1프레임을 표현하는 시간 동안 백라이트를 잠깐 꺼줘 블랙이미지를 표현한다. 직전의 이미지를 기억하는 사람의 눈이 다음 화면을 봤을 때, 이전의 기억된 이미지가 블랙 영상이라 잔상으로 나타나지 않는다. 이 방식은 매우 효과적이고 구현하기 쉬운 방식이지만, 단기간에 더 높은 빛을 내야 하기 때문에 파워 효율이 상대적으로 나빠지는 단점이 있다.To improve the motion blur problem, there are a scanning backlight and a black insertion technique. This method expresses a black image by temporarily turning off the backlight for a period of 1 frame. When the eye of the person who remembers the previous image looks at the next screen, the previously memorized image is a black image and does not appear as an afterimage. This method is very effective and easy to implement, but has a disadvantage in that power efficiency is relatively deteriorated due to the need to emit higher light in a short period of time.

모션 블러 문제를 개선하기 위한 다른 방법으로, 프레임 레이트 업 컨버젼(Frame rate up-conversion, FRUC) 기법이 각광받고 있다. FRUC는 입력 원 영상(Original image)의 프레임들 사이에 프레임을 추가로 삽입하는 기법이다.As another method for improving the motion blur problem, a frame rate up-conversion (FRUC) technique is in the spotlight. FRUC is a technique of additionally inserting frames between frames of an input original image.

FRUC의 알고리즘들은 크게 2 가지로 분류될 수 있는데, 하나는 객체의 모션을 고려하지 않은 방법이고, 다른 하나는 객체의 모션을 고려한 방법이다. 전자의 경우는 프레임 선형 보간(frame linear interpolation)이나 프레임 반복(frame repetition)과 같은 방법으로 구현이 단순하지만, 모션을 갖는 객체에 대해서는 블러링(blurring)이나 모션 저키니스(motion jerkiness)와 같은 단점이 발생한다. The algorithms of FRUC can be broadly classified into two types, one that does not consider the motion of an object, and the other that considers the motion of an object. In the former case, it is simple to implement in the same way as frame linear interpolation or frame repetition, but it has disadvantages such as blurring and motion jerkiness for objects with motion. This happens.

반면에, 모션 보상 FRUC(Motion Compensated Frame Rate Up-Conversion, MC-FRUC)이라 불리는 후자의 경우에는, 이미지 내의 객체들의 모션을 고려하여 보간 프레임(interpolated frame)을 생성하기 때문에 블러링(blurring)이나 모션 저키니스(jerkiness) 없이 FRUC를 수행할 수 있다. 이 방식은 영상을 압축할 때처럼, 실영상(비압축)의 가장자리를 추출하여 벡터로 인식해야 하고 프레임 데이터를 저장하고 새로운 프레임을 만들어 높은 주파수로 보내줘야 하기 때문에, 높은 연산과 많은 프레임 메모리를 사용하는 IC(Integrated Circuit, 직접회로)가 필요하다. 따라서 이 방식은 구현이 어렵고 IC 가격이 높다는 단점이 있지만, 화면의 밝기가 균일하기 때문에 백라이트의 파워 효율이 매우 높다는 장점이 있다.On the other hand, in the latter case called motion compensation FRUC (Motion Compensated Frame Rate Up-Conversion, MC-FRUC), blurring or blurring occurs because interpolated frames are generated in consideration of the motion of objects in the image. FRUC can be performed without motion jerkiness. This method uses a lot of computation and a lot of frame memory because, like when compressing an image, the edges of the real image (uncompressed) must be extracted and recognized as a vector, and frame data must be stored and new frames created and sent at a high frequency. IC (Integrated Circuit) is required. Therefore, this method has the disadvantage that it is difficult to implement and the IC price is high, but the power efficiency of the backlight is very high because the brightness of the screen is uniform.

모션 보상 FRUC(MC-FRUC)는 크게 모션 판단(Motion estimation, ME)과 모션 보상(motion compensated, MC)으로 나누어질 수 있다. 모션 판단(ME)은 연속되는 프레임들 사이에 객체의 모션을 계산하여 모션의 변화에 해당되는 모션 벡터(motion vector, MV)를 얻는 과정이고, 모션 보상(MC)은 모션 판단(ME)을 통해서 얻은 모션 벡터(MV)에 기초하여 보간(interpolation)을 위한 새로운 프레임 이미지를 생성하는 과정이다.The motion compensation FRUC (MC-FRUC) can be largely divided into motion estimation (ME) and motion compensated (MC). Motion determination (ME) is a process of calculating the motion of an object between successive frames to obtain a motion vector (MV) corresponding to a change in motion, and motion compensation (MC) is performed through motion determination (ME) This is a process of generating a new frame image for interpolation based on the obtained motion vector (MV).

모션 판단(ME)은 Pel-recusive algorithm, Phase correlation algorithm, Block matching method과 같은 여러 가지의 알고리즘이 알려져 있지만, 구현의 편리성 때문에 블럭 매칭 알고리즘(Block matching algorithm, BMA)이 일반적으로 많이 사용되고 있다.Although various algorithms such as a Pel-recusive algorithm, a phase correlation algorithm, and a block matching method are known as the motion determination (ME), a block matching algorithm (BMA) is generally used due to convenience of implementation.

모션 보상(MC)은 모션 벡터(MV)와 하나의 원본 이미지를 이용하여 모션 보상 영상(MCI)을 생성하는 단방향 모션 보상 방식(uni-D MC)과, 모션 벡터(MV)와 2개 이상의 원본 이미지를 모션 보상 영상(MCI)을 생성하는 양방향 모션 보상 방식(bi-D MC)이 있다. 양방향 모션 보상 방식은 배경 영역의 화질에 있어서 단방향 보상 방식보다 우수하다는 장점이 있다. 단방향 보상 방식을 통해서는 가려진 배경 영상 정보를 획득하는데 어려움이 있기 때문이다. Motion compensation (MC) is a one-way motion compensation method (uni-D MC) that generates a motion compensation image (MCI) using a motion vector (MV) and one original image, and a motion vector (MV) and two or more originals There is a two-way motion compensation method (bi-D MC) that generates an image motion compensation image (MCI). The bidirectional motion compensation method has an advantage in that the quality of the background region is superior to the unidirectional compensation method. This is because it is difficult to obtain hidden background image information through a one-way compensation method.

모션 보상(MC)에서 생성된 모션 보상 이미지(MCI)가 언제나 정확한 것은 아니다. 경우에 따라서는 부정확한 모션 보상 이미지(MCI)가 생성될 수 있다. 이와 같이 부정확한 모션 보상 이미지(MCI)가 생성된 경우에는 오히려 프레임 반복에 의해 보간 영상 이미지를 생성하는 FRUC방식이 더 좋은 화질의 영상을 생성할 수 있다. 이러한 문제를 해결하기 위하여, 모션 보상 FRUC(MC-FRUC)는 모션 보상 이미지(MCI)의 정확도를 판단하고, 정확도에 따라 모션 보상과 입력 영상의 원본 이미지의 합성 방법을 결정하여 보간 프레임의 영상을 출력하게 된다.The motion compensation image (MCI) generated by the motion compensation (MC) is not always accurate. In some cases, an inaccurate motion compensation image (MCI) may be generated. When an inaccurate motion compensation image (MCI) is generated as described above, the FRUC method that generates an interpolated image image by repetition of a frame may generate a better image quality. To solve this problem, the motion compensation FRUC (MC-FRUC) determines the accuracy of the motion compensation image (MCI), and determines the method of synthesizing the motion compensation and the original image of the input image according to the accuracy to obtain an image of the interpolated frame. Will print.

모션 보상과 입력 영상의 원본 이미지의 합성 방법을 결정하는 방식에 따라, 모션 벡터(MV)기반 방식과 Data 기반 방식으로 분류된다. Data기반 방식은 높은 해상도의 Data를 이용하기 때문에 cost 측면에서 불리할 뿐만 아니라 높은 기술력이 요구되는 단점을 가진다. 그러나 높은 해상도로 인하여 정확도를 확보할 경우 우수한 성능을 기대할 수 있는 장점을 가진다. According to a method of determining a motion compensation and a method of synthesizing the original image of the input image, it is classified into a motion vector (MV) based method and a data based method. Since the data-based method uses high resolution data, it is disadvantageous in terms of cost and requires high technology. However, it has the advantage of expecting excellent performance when securing accuracy due to high resolution.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-mentioned background technology is technical information acquired by the inventor for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a known technology disclosed to the general public prior to the filing of the present invention.

본 발명은 모션 보상과 입력 영상의 원본 이미지의 상관 관계를 이용하여 보간 영상을 생성함으로써 occlusion 영역에서의 정확도를 향상시키고, 최종적으로는 해당 영역에서의 화질을 향상시키는 것을 기술적 과제로 한다.An object of the present invention is to improve the accuracy in the occlusion region by generating an interpolation image using the correlation between the motion compensation and the original image of the input image, and finally, to improve the image quality in the region.

전술한 과제를 해결하기 위한 수단으로, 본 발명은 다음과 같은 특징이 있는 실시예를 가진다.As a means for solving the above-described problems, the present invention has an embodiment with the following features.

본 발명은, n프레임 내의 제1 이미지인 IMG1과, 상기 IMG1을 이용한 포워드 모션 보상 이미지인 MC1과, 상기 n+1프레임 내의 제2 이미지인 IMG2와, 상기 IMG2를 이용한 백워드 모션 보상 이미지인 MC2 중 적어도 어느 하나를 합성하여 상기 보간 프레임 내에 보간 영상을 생성하는 것을 특징으로 한다.The present invention includes IMG1 as the first image in the n frame, MC1 as the forward motion compensation image using the IMG1, IMG2 as the second image in the n+1 frame, and MC2 as the backward motion compensation image using the IMG2. It is characterized by generating at least one of the interpolated image in the interpolation frame.

상기 영상 처리 방법은, 상기 MC1과 상기 MC2를 합성하여 MC 합성 값 MC_S를 산출하는 MC 합성 단계; 상기 IMG1과 상기 IMG2를 합성하여 원본 이미지 합성 값 IMG_S를 산출하는 원본 이미지 합성 단계; 및 상기 MC 합성 값 MC_S와, 상기 원본 이미지 합성 값 IMG_S를 합성하여 보간 영상 IMG_out을 생성하는 최종 합성 단계; 를 포함하는 것을 특징으로 한다.The image processing method includes: an MC synthesis step of synthesizing the MC1 and the MC2 to calculate an MC synthesis value MC_S; An original image synthesis step of synthesizing the IMG1 and the IMG2 to calculate an original image synthesis value IMG_S; And a final synthesis step of synthesizing the MC composite value MC_S and the original image composite value IMG_S to generate an interpolated image IMG_out. It characterized in that it comprises.

상기 MC 합성 단계는, 수학식

Figure pat00001
을 통하여 MC 합성 값 MC_S를 산출하는 것을 특징으로 한다.The MC synthesis step, Equation
Figure pat00001
It is characterized by calculating the MC composite value MC_S through.

상기 포워드 모션 보상 이미지 MC1이, 상기 IMG1에서는 전경과 배경의 겹침으로 인하여 배경이 전경에 가려지고, 상기 IMG2에서는 전경 또는 배경의 이동에 의하여 상기 IMG1에서 전경에 의하여 가려졌던 배경이 드러나는 uncover영역을 포함하는 경우, 상기 wc는 0의 값을 가지는 것을 특징으로 한다.The forward motion compensation image MC1 includes the uncovered area in which the background obscured by the foreground in the IMG1 is revealed by the movement of the foreground or background in the IMG2 due to the overlapping of the background and the background in the IMG1. If it is, the wc is characterized by having a value of 0.

상기 포워드 모션 보상 이미지 MC1이, 상기 IMG1에서는 전경과 배경의 겹침이 없었으나, 상기 IMG2에서는 전경 또는 배경의 이동에 의하여 전경과 배경의 겹침이 발생하고 배경이 전경에 가려지는 cover영역을 포함하는 경우, 상기 wc는 1의 값을 가지는 것을 특징으로 한다.When the forward motion compensation image MC1 has no overlap between the foreground and the background in the IMG1, but the overlap between the foreground and the background occurs in the IMG2 due to the movement of the foreground or the background, and the background includes a cover area that is obscured by the foreground. , Wc has a value of 1.

상기 원본 이미지 합성 단계는, The original image synthesis step,

수학식

Figure pat00002
을 통하여 원본 이미지 합성 값 IMG_S를 산출하는 것을 특징으로 한다.Equation
Figure pat00002
It is characterized by calculating the original image synthesis value IMG_S through.

상기 wi는 입력 영상의 주파수를 보간 프레임 생성으로 인하여 프레임이 증가된 출력 영상의 주파수로 나눈 값인 것을 특징으로 한다.The wi is characterized by dividing the frequency of the input image by the frequency of the output image in which the frame is increased due to the generation of an interpolation frame.

상기 최종 합성 단계는, 수학식

Figure pat00003
을 통하여 보간 영상 IMG_out을 생성하는 것을 특징으로 한다.The final synthesis step, Equation
Figure pat00003
It is characterized by generating the interpolation image IMG_out through.

상기 wf는, MC1과 MC2의 차이가 클수록 증가하고; IMG1과 IMG2의 차이가 작을수록 증가하며; 상기 IMG1과 상기 IMG2가, 상기 IMG1 또는 상기 IMG2 내에서 전경 또는 배경의 상대적인 움직임으로 인하여 상기 전경과 배경의 겹침의 변화가 있는 occlusion 영역을 포함하는 정도를 나타내는 wocc가 작을수록 증가; 하는 것을 특징으로 한다.The wf increases as the difference between MC1 and MC2 increases; Smaller differences between IMG1 and IMG2 increase; A smaller wocc indicating the degree to which the IMG1 and the IMG2 include occlusion regions having a change in overlap between the foreground and the background due to the relative movement of the foreground or background within the IMG1 or the IMG2; It is characterized by.

Occlusion 영역 포함 정도는, MC1, MC2, IMG1, IMG2의 평균 값인 mu를 산출하고; 상기 mu와 상기 MC1, MC2, IMG1, IMG2 각각의 차이 값인 D_mu를 산출하고; MC1, MC2, IMG1, IMG2 중에서 상기 D_mu가 최대인 영상을 D_max로, 나머지 영상을 D_else로 분류하고; D_else로 분류된 영상의 평균 값인 mu_else를 산출하고; 상기 mu와 D_max로 분류된 영상의 차이 값인 D_alone을 산출하고; 상기 mu와 mu_else의 차이 값인 D_else를 산출하여 계산하며; 상기 wocc는, 상기 D_alone와 D_else의 차이 값인 것을 특징으로 한다.The degree of inclusion of the occlusion region calculates mu, which is an average value of MC1, MC2, IMG1, and IMG2; D_mu, which is a difference value of each of the mu and the MC1, MC2, IMG1, and IMG2 is calculated; The images of which D_mu is the largest among MC1, MC2, IMG1, and IMG2 are classified as D_max, and the remaining images are classified as D_else; Calculate mu_else, which is an average value of the images classified as D_else; Calculating a difference value D_alone between the images classified as mu and D_max; Calculate by calculating D_else, which is a difference value between mu and mu_else; The wocc is characterized by being a difference value between the D_alone and D_else.

또한, 본 발명은, 상기 n프레임 내의 제1 이미지인 IMG1과, 상기 IMG1을 이용한 포워드 모션 보상 이미지인 MC1과, 상기 n+1프레임 내의 제2 이미지인 IMG2와, 상기 IMG2를 이용한 백워드 모션 보상 이미지인 MC2 중 적어도 어느 하나를 합성하여 상기 보간 프레임 내에 보간 영상을 생성하는 영상 처리부; 및 상기 영상 처리부로부터 출력된 영상을 기반으로 영상을 표시하는 표시패널을 포함하는 것을 특징으로 한다.In addition, the present invention, IMG1 as the first image in the n frame, MC1 as the forward motion compensation image using the IMG1, IMG2 as the second image in the n+1 frame, and backward motion compensation using the IMG2 An image processor configured to generate an interpolated image in the interpolation frame by synthesizing at least one of the images MC2; And it characterized in that it comprises a display panel for displaying an image based on the image output from the image processing unit.

상기 영상 처리부는, 상기 MC1과 상기 MC2를 합성하여 MC 합성 값 MC_S를 산출하는 MC 합성기; 상기 IMG1과 상기 IMG2를 합성하여 원본 이미지 합성 값 IMG_S를 산출하는 원본 이미지 합성기; 및 상기 MC 합성 값 MC_S와, 상기 원본 이미지 합성 값 IMG_S를 합성하여 보간 영상 IMG_out을 생성하는 최종 합성기; 를 포함하는 것을 특징으로 한다.The image processing unit includes: an MC synthesizer that synthesizes the MC1 and the MC2 to calculate an MC composite value MC_S; An original image synthesizer which synthesizes the IMG1 and the IMG2 to calculate an original image synthesis value IMG_S; And a final synthesizer combining the MC composite value MC_S and the original image composite value IMG_S to generate an interpolated image IMG_out. It characterized in that it comprises.

본 발명은 모션 보상과 입력 영상의 원본 이미지의 상관 관계를 이용하여 보간 영상을 생성함에 있어서, 모션 보상의 합성을 결정하고, 원본 이미지의 합성을 결정하고, 최종적으로 모션 보상과 원본 이미지의 합성을 결정하여, 보간 영상 생성을 단계적으로 수행함으로써 cost 증가를 최소화하면서 정확도 높은 보간 영상을 생성하는 효과가 있다.In the present invention, in generating an interpolation image by using a correlation between the motion compensation and the original image of the input image, motion synthesis is determined, synthesis of the original image is determined, and finally motion compensation and synthesis of the original image are determined. By determining and performing the interpolation image step by step, there is an effect of generating an interpolation image with high accuracy while minimizing cost increase.

또한, 본 발명은 occlusion 영역의 영향력을 고려하기 위하여 포워드 모션 보상과 백워드 모션 보상 이미지, 원본 영상 이미지 2개, 총 4개 이미지의 상관 관계를 이용하여 보간 영상을 생성함으로써, occlusion 영역에서의 보간 영상 정확도가 높은 효과가 있다.In addition, the present invention generates interpolation in the occlusion area by generating an interpolation image using correlation between forward motion compensation and backward motion compensation images, two original video images, and a total of four images in order to consider the influence of the occlusion area. It has the effect of high image accuracy.

도 1은 표시장치의 개략적인 블록도
도 2는 서브 픽셀의 개략적인 회로 구성도
도 3은 FRUC의 개념을 설명하기 위한 도면
도 4는 모션 벡터를 구하는 개념도
도 5은 단방향 모션 보상 방식을 설명하기 위한 도면
도 6는 양방향 모션 보상 방식을 설명하기 위한 도면
도 7은 중간 모션 벡터 필드를 설명하기 위한 도면
도 8은 본 발명의 일 실시예에 따른 영상 처리부의 블록도
도 9는 본 발명의 일 실시예에 따른 영상 합성 모듈의 블록도
도 10은 영상 합성의 개념을 설명하기 위한 도면
도 11은 MC 합성 방법에서 전경 영역의 wc 값을 결정하는 것에 관한 도면
도 12는 MC 합성 방법에서 uncover 영역의 wc 값을 결정하는 것에 관한 도면
도 13은 MC 합성 방법에서 cover 영역의 wc 값을 결정하는 것에 관한 도면
도 14는 Occlusion영역에서 wocc를 결정하는 요소를 설명하기 위한 도면
도 15는 wocc를 산출하는 방법에 관한 순서도
1 is a schematic block diagram of a display device
2 is a schematic circuit diagram of a sub-pixel
3 is a view for explaining the concept of FRUC
4 is a conceptual diagram for obtaining a motion vector
5 is a view for explaining a unidirectional motion compensation method
6 is a view for explaining a bi-directional motion compensation method
7 is a diagram for describing an intermediate motion vector field
8 is a block diagram of an image processing unit according to an embodiment of the present invention
9 is a block diagram of an image synthesis module according to an embodiment of the present invention
10 is a view for explaining the concept of image synthesis
11 is a diagram for determining a wc value of a foreground region in an MC synthesis method.
12 is a diagram for determining a wc value of an uncover region in the MC synthesis method
13 is a diagram for determining a wc value of a cover region in the MC synthesis method
14 is a view for explaining an element for determining wocc in the occlusion region.
15 is a flowchart of a method for calculating wocc

이하, 첨부되는 도면을 참고하여 본 발명의 실시예들에 대해 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 표시장치의 개략적인 블록도이고, 도 2는 서브 픽셀의 개략적인 회로 구성도이다. 1 is a schematic block diagram of a display device, and FIG. 2 is a schematic circuit diagram of a sub-pixel.

본 발명의 실시예에 따른 표시장치는, 표시 패널(100), 게이트 드라이버(200), 소스 드라이버(300), 타이밍 컨트롤러(400), 영상 처리부(500)를 포함한다.The display device according to an exemplary embodiment of the present invention includes a display panel 100, a gate driver 200, a source driver 300, a timing controller 400, and an image processing unit 500.

상기 표시 패널(100)은 소스 드라이버(300) 및 게이트 드라이버(200)로부터 공급된 데이터신호(DATA) 및 스캔신호에 대응하여 영상을 표시한다. 표시 패널(100)은 영상을 표시할 수 있도록 동작하는 서브 픽셀들(SP)을 포함한다.The display panel 100 displays an image corresponding to the data signal DATA and the scan signal supplied from the source driver 300 and the gate driver 200. The display panel 100 includes sub-pixels SP that operate to display an image.

상기 서브 픽셀들(SP)은 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀을 포함하거나 백색 서브 픽셀, 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀을 포함한다. 표시 패널(100)은 서브 픽셀들(SP)에 포함된 픽셀회로(PC)의 구성에 따라 액정표시패널, 유기발광표시패널, 전기영동표시패널 등으로 구분될 수 있다.The sub-pixels SP include a red sub-pixel, a green sub-pixel and a blue sub-pixel, or a white sub-pixel, a red sub-pixel, a green sub-pixel and a blue sub-pixel. The display panel 100 may be divided into a liquid crystal display panel, an organic light emitting display panel, and an electrophoretic display panel according to the configuration of the pixel circuit PC included in the subpixels SP.

도 2에 도시된 바와 같이, 하나의 서브 픽셀(SP)에는 스캔 라인(GL1)과 데이터 라인(DL1)에 연결된 스위칭 트랜지스터(SW)와 스위칭 트랜지스터(SW)를 통해 공급된 스캔신호에 대응하여 공급된 데이터신호에 대응하여 동작하는 픽셀회로(PC)가 포함된다. 표시 패널이 유기발광표시패널로 선택된 경우, 서브 픽셀(SP)의 픽셀회로(PC)는 구동 트랜지스터, 스토리지 커패시터 및 유기 발광다이오드와 더불어 다양한 형태의 보상회로가 더 추가되도록 구성될 수 있다.As shown in FIG. 2, one sub-pixel SP is supplied corresponding to the scan signal supplied through the switching transistor SW and the switching transistor SW connected to the scan line GL1 and the data line DL1. It includes a pixel circuit (PC) that operates in response to the data signal. When the display panel is selected as the organic light emitting display panel, the pixel circuit PC of the sub-pixel SP may be configured such that various types of compensation circuits are further added together with a driving transistor, a storage capacitor, and an organic light emitting diode.

상기 게이트 드라이버(200)는 타이밍 컨트롤러(400)로부터 공급된 게이트 타이밍 제어신호(GCS)에 응답하여 게이트전압의 레벨을 시프트시키면서 스캔신호를 출력한다. 게이트 드라이버(200)는 스캔라인들(GL1 ~ GLm)을 통해 스캔신호를 출력한다. 게이트 드라이버(200)는 IC(Integrated Circuit) 형태로 형성되거나 표시 패널(100)에 게이트인패널(Gate In Panel) 방식으로 형성될 수 있다.The gate driver 200 outputs a scan signal while shifting the level of the gate voltage in response to the gate timing control signal GCS supplied from the timing controller 400. The gate driver 200 outputs a scan signal through scan lines GL1 to GLm. The gate driver 200 may be formed in the form of an integrated circuit (IC) or a gate in panel method on the display panel 100.

상기 소스 드라이버(300)는 타이밍 컨트롤러(400)로부터 공급된 데이터 타이밍 제어신호(DCS)에 응답하여 타이밍 컨트롤러(400)로부터 공급되는 데이터신호(DATA)를 샘플링하고 래치하여 감마 기준전압으로 변환하여 출력한다. 소스 드라이버(300)는 데이터라인들(DL1 ~ DLn)을 통해 데이터신호(DATA)를 출력한다. 소스 드라이버(300)는 IC(Integrated Circuit) 형태로 형성될 수 있다.The source driver 300 samples and latches the data signal DATA supplied from the timing controller 400 in response to the data timing control signal DCS supplied from the timing controller 400, converts it into a gamma reference voltage, and outputs it. do. The source driver 300 outputs the data signal DATA through the data lines DL1 to DLn. The source driver 300 may be formed in the form of an integrated circuit (IC).

타이밍 컨트롤러(400)는 영상 처리부(500)로부터 데이터 인에이블 신호(DE) 또는 수직 동기신호(Vsync), 수평 동기신호(Hsync) 및 클럭(CLK)신호 등을 포함하는 구동신호와 더불어 데이터신호(DATA)를 공급받는다. 타이밍 컨트롤러(400)는 구동신호에 기초하여 게이트 드라이버(200)의 동작 타이밍을 제어하기 위한 게이트 타이밍 제어신호(GCS)와 소스 드라이버(300)의 동작 타이밍을 제어하기 위한 데이터 타이밍 제어신호(DCS)를 출력한다.The timing controller 400 includes a data signal (including a driving signal including a data enable signal DE or a vertical synchronization signal Vsync, a horizontal synchronization signal Hsync and a clock CLK signal) from the image processing unit 500. DATA). The timing controller 400 includes a gate timing control signal GCS for controlling the operation timing of the gate driver 200 based on a driving signal and a data timing control signal DCS for controlling the operation timing of the source driver 300. Output

상기 영상 처리부(500)는 외부로부터 공급된 데이터신호(DATA)와 더불어 데이터 인에이블 신호(DE) 등을 출력한다. 영상 처리부(500)는 데이터 인에이블 신호(DE) 외에도 수직 동기신호, 수평 동기신호 및 클럭신호 중 하나 이상을 출력할 수 있다. 또한 상기 영상 처리부(500)는 입력되는 영상에 대한 정보를 기초로 화질 향상을 위한 FRUC 가능한 모듈을 포함한다. The image processing unit 500 outputs a data enable signal DE and the like as well as a data signal DATA supplied from the outside. The image processing unit 500 may output one or more of a vertical synchronization signal, a horizontal synchronization signal, and a clock signal in addition to the data enable signal DE. In addition, the image processing unit 500 includes a FRUC-capable module for improving image quality based on information about an input image.

모션 블러 문제를 개선하기 위한 방법으로, 프레임 레이트 업 컨버젼(Frame rate up-conversion, FRUC) 기법이 있다. As a method to improve the motion blur problem, there is a frame rate up-conversion (FRUC) technique.

FRUC의 알고리즘들은 크게 2 가지로 분류될 수 있는데, 하나는 객체의 모션을 고려하지 않은 방법이다. 이 방법은, 프레임 선형 보간(frame linear interpolation)이나 프레임 반복(frame repetition)과 같은 방법으로 구현이 단순하지만, 모션을 갖는 객체에 대해서는 블러링(blurring)이 발생한다는 단점을 가진다.FRUC's algorithms can be broadly classified into two types, one that does not consider the motion of an object. This method is simple to implement in a method such as frame linear interpolation or frame repetition, but has a disadvantage that blurring occurs for an object having motion.

도 3은 FRUC의 개념을 설명하기 위한 도면이다.3 is a diagram for explaining the concept of FRUC.

다른 방법은, 모션 보상 FRUC로서, 이미지 내의 객체들의 모션을 고려하여 보간 프레임(interpolated frame)을 생성한다. 객체 들의 모션을 블록 단위로 고려하는 것이 일반적이다. 도 4에 도시된 바와 같이, n번째 프레임(frame [n])에 포함된 제1 블록(B_n)과 상기 제1 블록(B_n)과 매칭되는 블록인 제2 블록(B_n+1)을 n+1번째 프레임(frame [n+1])에서 찾음으로써 상기 블록의 모션을 파악할 수 있다. Another method is motion compensation FRUC, which generates an interpolated frame in consideration of the motion of objects in an image. It is common to consider the motion of objects in block units. As illustrated in FIG. 4, n+ is the first block B_n included in the n-th frame (frame [n]) and the second block B_n+1 which is a block matching the first block B_n. By searching in the first frame (frame [n+1]), the motion of the block can be grasped.

이와 같이 연속되는 프레임들 사이에 객체의 모션을 계산하여 모션의 변화에 해당되는 모션 벡터(MV)를 얻는 과정을 모션 판단(ME)라고 한다. 그리고 모션 판단(ME)을 통해서 얻은 모션 벡터(MV)에 기초하여 보간(interpolation)을 위한 새로운 프레임 이미지를 생성하는 과정을 모션 보상(MC)라고 한다. 이 방식은 영상을 압축할 때처럼, 실영상(비압축)의 가장자리를 추출하여 벡터로 인식해야 하고 프레임 데이터를 저장하고 새로운 프레임을 만들어 높은 주파수로 보내는 방식이다. 이 방식은 블러링(blurring)이나 모션 저키니스(jerkiness) 없이 FRUC를 수행할 수 있다는 장점을 가진다.The process of calculating the motion of an object between successive frames to obtain a motion vector (MV) corresponding to a change in motion is called motion determination (ME). Also, a process of generating a new frame image for interpolation based on a motion vector (MV) obtained through motion determination (ME) is called motion compensation (MC). As in the case of compressing an image, this method requires extracting the edge of a real image (uncompressed) and recognize it as a vector. It is a method of storing frame data and creating a new frame and sending it at a high frequency. This method has the advantage that FRUC can be performed without blurring or motion jerkiness.

본 발명의 영상 처리부(500)는 모션 보상 방식으로 FRUC를 수행한다. 이하에서는 모션 보상 FRUC를 간단하게 FRUC로 칭하기로 한다.The image processing unit 500 of the present invention performs FRUC in a motion compensation manner. Hereinafter, the motion compensation FRUC will be simply referred to as FRUC.

도 4는 모션 벡터를 구하는 개념도이다. 도 5를 참조하여 모션 벡터(MV)를 얻는 과정을 모션 판단(ME)에 대하여 구체적으로 설명한다. 4 is a conceptual diagram for obtaining a motion vector. The process of obtaining the motion vector MV will be described in detail with reference to FIG. 5.

모션 판단(ME)은 일반적으로 일반적으로 블록 매칭(block matching) 방법, 3-D recursive search 방법, hierarchical search 방법, MAP 적용 방법 등 다양한 방법이 있다. 본 발명에서는 블록 매칭에 기반한 방법을 이용하여 실시 예를 구성하였으나, 이를 한정하지는 않는다. 블록 매칭에서 사용한 방법은 m x n pixel을 하나의 모션 벡터 블록 단위로 할 수 있다. frame [n]에서 움직임을 측정하고자 하는 개채를 포함한 블록이 B_n이고, frame [n+1]에서 B_n과 매칭되는 블록이 B_n+1이다. 각각의 블록에서는 frame [n]에서 frame [n+1]으로의 영상의 움직임을 수평, 수직 방향의 값의 형태로 모션 벡터를 저장한다. 즉 모션 벡터는 MV=(mv_x, mv_y)와 같은 형태로 표현할 수 있다.Motion determination (ME) generally has various methods such as a block matching method, a 3-D recursive search method, a hierarchical search method, and a MAP application method. In the present invention, an embodiment is constructed using a method based on block matching, but is not limited thereto. The method used in the block matching can be m x n pixel as one motion vector block unit. In frame [n], the block containing the individual object to measure motion is B_n, and in frame [n+1], the block matching B_n is B_n+1. In each block, motion vectors are stored in the form of horizontal and vertical values of the motion of the image from frame [n] to frame [n+1]. That is, the motion vector can be expressed in the form of MV=(mv_x, mv_y).

블록 매칭은 frame [n]에서의 영상 정보(휘도, RGB 등)와 cost가 가장 낮은 값을 가지는 위치에서의 frame [n+1]에서의 영상 정보를 구하는 과정이며, Cost는 일반적으로 sum of absolute difference (SAD) 등을 가장 널리 사용한다. SAD 값은, 블록내 포함하는 모든 화소(pixel)의 영상 정보 차이의 절대값의 합을 말한다.Block matching is a process of obtaining image information in frame [n] (brightness, RGB, etc.) and image information in frame [n+1] at the location with the lowest cost. Cost is generally sum of absolute Difference (SAD) is the most widely used. The SAD value refers to the sum of absolute values of the difference in image information of all pixels included in a block.

블록 매칭을 frame [n]을 기준으로 구한 값을 MV1, frame [n+1]을 기준으로 구한 값을 MV2 등으로 표현할 수 있다. MV1과 MV2는 크기는 같고, 반대의 방향 또는 반대의 부호를 가진다. 모션 판단(ME)은 일반적으로 frame [n], [n+1]을 포함하여 복수의 frame을 기준으로 구한 모션 벡터(MV)를 모두 포함할 수 있다.A block matching value based on frame [n] can be expressed as MV1, and a value obtained based on frame [n+1] as MV2. MV1 and MV2 have the same size and have opposite directions or opposite signs. In general, the motion determination ME may include all motion vectors MV obtained based on a plurality of frames, including frame [n] and [n+1].

도 5는 단방향 모션 보상 방식을 설명하기 위한 도면이고, 도 6은 양방향 모션 보상 방식을 설명하기 위한 도면이고, 도 7은 중간 모션 벡터 필드를 설명하기 위한 도면이다.5 is a diagram for explaining a unidirectional motion compensation method, FIG. 6 is a diagram for explaining a bidirectional motion compensation method, and FIG. 7 is a diagram for explaining an intermediate motion vector field.

모션 보상(MC)에 대하여 상세히 설명하면, 모션 보상(MC)는 모션 판단 정보와 더불어 제n프레임(frame [n])의 제1영상(IMG1)이나 제n+1프레임(frame [n+1])의 제2영상(IMG2) 또는 이를 포함하는 복수의 영상 정보를 이용하여 제N.X프레임(frame [n.x])(이하 보간 프레임)을 생성하는 과정이다. 그리고 이때의 보상 동작에 의해 제N.X프레임(frame [n.x])(이하 보간 프레임) 내에 생성된 사각형 박스 영상을 모션 보상 영상(Motion Compensated Image; MCI)이라고 한다.When the motion compensation (MC) is described in detail, the motion compensation (MC) is the first image IMG1 or the n+1 frame (frame [n+1) of the nth frame (frame [n]) together with the motion determination information. ]) is the process of generating the NX frame (frame [nx]) (hereinafter interpolated frame) using the second image IMG2 or a plurality of image information including the same. In addition, the rectangular box image generated in the N.X frame (n.x) (hereinafter interpolated frame) by the compensation operation at this time is referred to as a motion compensated image (MCI).

도 5에 도시된 바와 같이, 단방향 모션 보상 방식은 제1영상(IMG1) 또는 제2영상(IMG2) 중 하나의 영상만 이용하여 모션 보상을 수행한다. 단방향의 영상만 이용하므로 "uni-directional MC"라고 한다. As illustrated in FIG. 5, in the unidirectional motion compensation method, motion compensation is performed using only one of the first image IMG1 or the second image IMG2. It is called "uni-directional MC" because only one-way video is used.

도 6에 도시된 바와 같이, 양방향 모션 보상 방식은 제1영상(IMG1)과 제2영상(IMG2)을 포함하는 복수의 영상을 이용하여 모션 보상을 수행한다. 양방향의 영상을 모두 이용하므로 "bi-directional MC"라고 한다.As illustrated in FIG. 6, the bi-directional motion compensation method performs motion compensation using a plurality of images including a first image IMG1 and a second image IMG2. It is called "bi-directional MC" because it uses both images.

제1영상(IMG1)을 이용하여 모션 보상을 하는 과정을 포워드 모션 보상(forward MC; FW-MC)이라 하고, 제2영상(IMG2)을 이용하여 모션 보상을 하는 과정을 백워드 모션 보상(backward MC; BW-MC)이라 할 수 있다.The process of making motion compensation using the first image (IMG1) is called forward motion compensation (FW-MC), and the process of making motion compensation using the second picture (IMG2) is backward motion compensation (backward) MC; BW-MC).

도 7에 도시된 바와 같이, 단방향 및 양방향 모션 보상 방식은 포워드 모션 보상(FW-MC) 및 백워드 모션 보상(BW-MC) 중 하나 이상을 수행하기 위해, 보간 프레임(frame [n.x])에 해당하는 모션 벡터의 방향을 정방향(+) 또는 역방향(-)으로 정렬한다. 이때, 보간 프레임(frame [n.x])의 크기를 스케일링 (scaling)한 모션 벡터의 집합을 중간 모션 벡터 필드(intermediate motion vector field, IMVF)라고 한다. As illustrated in FIG. 7, the unidirectional and bidirectional motion compensation schemes perform interpolation frame (frame [nx]) to perform one or more of forward motion compensation (FW-MC) and backward motion compensation (BW-MC). The direction of the corresponding motion vector is aligned in the forward (+) or reverse (-) direction. At this time, a set of motion vectors obtained by scaling the size of an interpolation frame (frame [n.x]) is called an intermediate motion vector field (IMVF).

단방향 모션 보상 방식(Uni-D MC)은 제1영상(IMG1) 또는 제2영상(IMG2) 중 선택된 하나의 영상만 사용하기 때문에 버퍼 메모리 할당 시 자유도가 높다. 그러나 이 방식은 동영상 구현 시 모션 아티팩트(Motion Artifact) 등의 화질 열화로부터 자유롭지 못하다.Since the uni-directional motion compensation method (Uni-D MC) uses only one image selected from the first image IMG1 or the second image IMG2, the degree of freedom in allocating the buffer memory is high. However, this method is not free from image quality deterioration such as motion artifacts when implementing a video.

양방향 모션 보상 방식(Bi-D MC)은 제1영상(IMG1) 및 제2영상(IMG2) 이상 두 개의 영상을 모두 사용하기 때문에 모션 아티팩트(MotionArtifact) 등의 화질 열화로부터 비교적 자유롭다. 그러나 이 방식은 단방향 모션보상 방식에 비해 2배 이상의 버퍼 메모리가 필요하다.The two-way motion compensation method (Bi-D MC) is relatively free from deterioration of image quality such as MotionArtifact because both images of the first image IMG1 and the second image IMG2 are used. However, this method requires twice as much buffer memory as the one-way motion compensation method.

도 8은 본 발명의 일 실시예에 따른 영상 처리부의 블록도이다. 8 is a block diagram of an image processing unit according to an embodiment of the present invention.

본 발명의 영상 처리부(500)는 모션 보상 방식으로 FRUC를 수행한다. 상기 영상 처리부(500)는 모션 벡터 산출 모듈(510), 보상 영상 생성 모듈(520), 영상 합성 모듈(530)을 포함한다. The image processing unit 500 of the present invention performs FRUC in a motion compensation manner. The image processing unit 500 includes a motion vector calculation module 510, a compensation image generation module 520, and an image synthesis module 530.

상기 모션 벡터 산출 모듈(510)은 복수의 이미지를 포함하는 영상 입력으로부터 모션 벡터(MV)를 산출한다. 입력 영상의 연속되는 프레임들 사이에서 객체의 모션을 계산하여 모션의 변화에 해당되는 모션 벡터(MV)를 얻는 과정을 모션 판단(ME)이라고 한다. 상기 모션 벡터(MV)는 보상 영상을 생성하는데 사용된다.The motion vector calculation module 510 calculates a motion vector (MV) from an image input including a plurality of images. The process of calculating the motion of an object between successive frames of an input image to obtain a motion vector (MV) corresponding to a change in motion is called motion determination (ME). The motion vector (MV) is used to generate a compensation image.

상기 보상 영상 생성 모듈(520)은 상기 모션 판단 정보인 모션 벡터(MV)와 더불어 제n프레임(frame [n])의 제1영상(IMG1)이나 제n+1프레임(frame [n+1])의 제2영상(IMG2) 또는 이를 포함하는 복수의 영상 정보를 이용하여 보간 프레임의 영상인 MCI를 생성한다.The compensation image generation module 520 may include the first image IMG1 or the n+1 frame (frame [n+1]) of the n-th frame (frame [n]) together with the motion vector MV that is the motion determination information. ), MCI, which is an image of an interpolation frame, is generated using the second image IMG2 or a plurality of image information including the same.

상기 영상 합성 모듈(530)은 상기 MCI의 정확도를 판단하고, 그 정확도에 따라 MCI와 상기 영상 처리부(500)에 입력된 원본 영상을 합성하여 보간 프레임의 최종 영상을 출력한다. 상기 합성 방식은 모션 벡터 산출 모듈(510)에서 산출된 모션 벡터(MV)에 기반한 것과, 원본 영상 이미지와 MCI의 상관 관계를 이용한 것 두가지의 방식이 있다.The image synthesis module 530 determines the accuracy of the MCI, synthesizes the original image input to the MCI and the image processing unit 500 according to the accuracy, and outputs the final image of the interpolation frame. The synthesis method is based on a motion vector (MV) calculated by the motion vector calculation module 510, and a method of using a correlation between an original video image and MCI.

도 9는 본 발명의 일 실시예에 따른 영상 합성 모듈의 블록도이고, 도 10은 영상 합성의 개념을 설명하기 위한 도면이다. 도 9 내지 도 10을 참조하여 영상 합성 모듈(530)을 설명하면, 9 is a block diagram of an image synthesis module according to an embodiment of the present invention, and FIG. 10 is a diagram for explaining the concept of image synthesis. If the image synthesis module 530 is described with reference to FIGS. 9 to 10,

상기 영상 합성 모듈(530)은 n프레임 내의 제1 이미지인 IMG1과, 상기 IMG1을 이용한 포워드 모션 보상 이미지인 MC1과, n+1프레임 내의 제2 이미지인 IMG2와, 상기 IMG2를 이용한 백워드 모션 보상 이미지인 MC2 중 적어도 어느 하나를 합성하여 상기 보간 프레임 내에 보간 영상을 생성한다. The video synthesis module 530 includes IMG1 as a first image in n frames, MC1 as a forward motion compensation image using the IMG1, IMG2 as a second image in an n+1 frame, and backward motion compensation using the IMG2 At least one of the images MC2 is synthesized to generate an interpolated image in the interpolation frame.

도 10에서 IMG1은 t 프레임에서의 원본 이미지, IMG2는 t+1 프레임에서의 원본 이미지, F_i는 보간 프레임이다. In FIG. 10, IMG1 is an original image in a t frame, IMG2 is an original image in a t+1 frame, and F_i is an interpolation frame.

본 발명은, 보간 프레임의 영상을 만들기 위해서 t 프레임에서의 원본 이미지 IMG1, t+1 프레임에서의 이미지 IMG2, 포워드 모션 보상 이미지인 MC1, 백워드 모션 보상 이미지인 MC2를 합성하여 보간 프레임의 영상 IMG_out을 생성한다.The present invention combines the original image IMG1 in the t frame, the image IMG2 in the t+1 frame, the MC1 which is the forward motion compensation image, and the MC2 which is the backward motion compensation image to make the image of the interpolation frame. Produces

상기 영상 합성 모듈(530)이 생성하는 보간 영상 IMG_out은 아래 수학식 1로 표현될 수 있다.The interpolation image IMG_out generated by the image synthesis module 530 may be expressed by Equation 1 below.

Figure pat00004
Figure pat00004

각 영상에 대한 가중치 파라미터 w의 특성은 wc1+wc2+wi1+wi2=1과 같다.The characteristic of the weight parameter w for each image is equal to wc1+wc2+wi1+wi2=1.

네 개의 가중치 파라미터 w값을 동시에 구할 경우 복잡도가 올라가므로 이를 단계적으로 구하기 위하여 수학식 1을 다시 정리하면, 아래 수학식 2로 표현할 수 있다.Since the complexity increases when the four weighting parameters w are calculated at the same time, if Equation 1 is rearranged in order to obtain this step by step, it can be expressed as Equation 2 below.

Figure pat00005
Figure pat00005

다시 수학식 2를 항목별로 분류하여 정리하면, 수학식 3 내지 5로 분리하여 표현할 수 있다. If Equation 2 is categorized and sorted by item again, it can be expressed as Equations 3 to 5.

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

상기 영상 합성 모듈(530)은 MC 합성기(531), 원본 이미지 합성기(532), 최종 합성기(533)를 포함한다. 상기 영상 합성 모듈(530)은 보간 영상 생성을 단계적으로 수행함으로써 cost 증가를 최소화하면서 정확도 높은 보간 영상을 생성할 수 있다.The image synthesis module 530 includes an MC synthesizer 531, an original image synthesizer 532, and a final synthesizer 533. The image synthesis module 530 may generate an interpolation image with high accuracy while minimizing cost increase by performing the interpolation image generation step by step.

상기 MC 합성기(531)은 수학식 4를 통하여 MC 합성 값 MC_S를 산출한다. The MC synthesizer 531 calculates the MC composite value MC_S through Equation (4).

도 11은 MC 합성 방법에서 전경 영역의 wc 값을 결정하는 것에 관한 도면이다. 도 11을 참조하여 영상의 정보가 전경(FG)이거나 순수한 배경(BG)일 경우 wc를 결정하는 방법을 설명하면, 11 is a diagram for determining a wc value of a foreground region in the MC synthesis method. Referring to FIG. 11, a method of determining wc when the information of the image is the foreground (FG) or the pure background (BG) will be described.

wc를 결정하는 방법은 영상의 정보가 전경(FG)이거나 순수한 배경(BG)일 경우 0부터 1의 값 중 어느 하나를 선택하여도 무방하다.The method of determining wc may be any one of values from 0 to 1 when the information of the image is the foreground (FG) or the pure background (BG).

도 11에서 t frame(F_t)에서의 회색의 영상이 t+1 frame(F_t+1)에서 우측으로 이동할 경우, 모션 벡터(MV)를 이용하여 t+1 frame(F_t+1)의 원본 영상을 참조하거나, 반대로 t frame(F_t)의 원본 영상을 참조하여 MC 영상을 만들 수 있다. t+1 frame(F_t+1)의 원본 영상을 참조하여 MC1 영상을 만드는 과정을 포워드 MC(FW-MC), 반대로 t frame(F_t)의 원본 영상을 참조하여 MC2 영상을 만드는 과정을 백워드 MC(BW-MC)라 한다. 모션 벡터(MV)가 정확할 경우 전경(FG)에서는 MC1, MC2 어떤 영상을 참조하여도 보간 영상 프레임(F_i)에서 생성되는 합성 MC 영상 MC_S는 동일하다In FIG. 11, when the gray image in the t frame (F_t) moves to the right from the t+1 frame (F_t+1), the original image of the t+1 frame (F_t+1) is used by using a motion vector (MV). Alternatively, the MC image may be created by referring to the original image of the t frame (F_t). Forward MC (FW-MC) refers to the process of creating an MC1 video with reference to the original video of t+1 frame (F_t+1), and backward MC refers to the process of creating an MC2 video with reference to the original video of t frame (F_t). It is called (BW-MC). When the motion vector MV is correct, the composite MC image MC_S generated in the interpolation image frame F_i is the same in the foreground FG with reference to any image of MC1 and MC2.

또한 순수한 배경(BG)일 경우도 전경(FG)과 동일하게 설명이 가능하다. 따라서, 이론적으로는 영상의 정보가 전경(FG)이거나 순수한 배경(BG) 일 경우 wc의 값은 0부터 1의 값 어느 값을 사용하여도 결과는 동일하다.Also, in the case of a pure background (BG), it can be described in the same way as the foreground (FG). Therefore, in theory, when the information of the image is the foreground (FG) or the pure background (BG), the value of wc is the same regardless of the value from 0 to 1.

이때 순수한 배경이라고 하는 것은 frame이 t에서 t+1로 변화하여도 전경에 의해 가려지거나(cover) 드러나지(uncover) 않고 배경으로 유지되는 경우를 말한다.In this case, the pure background refers to a case where the frame is changed from t to t+1 and remains covered or uncovered by the foreground.

도 12는 MC 합성 방법에서 uncover 영역의 wc 값을 결정하는 것에 관한 도면이고, 도 13은 MC 합성 방법에서 cover 영역의 wc 값을 결정하는 것에 관한 도면이다.12 is a diagram for determining a wc value of an uncover region in the MC synthesis method, and FIG. 13 is a diagram for determining a wc value of a cover region in the MC synthesis method.

순수한 배경이 아닌, 즉 가려진 배경을 cover, 드러나는 배경을 uncover라고 한다. (cover와 uncover를 합쳐서 occlusion이라고 한다.) uncover 영역에서의 wc는 0, cover 영역에서의 wc는 1을 적용한다. 본 발명에서는 wc를 결정할 때의 uncover/cover 영역은 모션 벡터(MV)를 이용한 filtering 방법을 적용하였고, 본 발명의 주요 내용은 아니므로 생략한다.The cover is not a pure background, that is, a hidden background is called an uncover. (The sum of cover and uncover is called occlusion.) In the uncover region, wc is 0, and in the cover region, wc is 1. In the present invention, a filtering method using a motion vector (MV) is applied to the uncover/cover region when determining wc, and is omitted because it is not the main content of the present invention.

도 12에서, 배경(BG) 영상은 정지된 상태이고, 전경(FG) 영상은 우측으로 이동하는 상태이다. 전경(FG) 영상의 이동으로 인하여 드러나는 배경 영역인 uncover 영역이 생성된다. uncover 영역에서 MC1은 배경(BG)이 전경(FG)에 의하여 가려진 상태이므로 정확한 영상정보를 얻을 수 없다. 따라서 이 경우에는 wc 값을 0으로 하고, MC의 합성에서 MC1 영상은 배제하는 것이 바람직하다. In FIG. 12, the background (BG) image is in a stationary state, and the foreground (FG) image is in a state of moving to the right. An uncover region, which is a background region exposed due to the movement of the foreground (FG) image, is generated. In the uncover area, MC1 cannot obtain accurate image information because the background (BG) is covered by the foreground (FG). Therefore, in this case, it is desirable to set the wc value to 0 and exclude the MC1 image from the synthesis of MC.

즉, 포워드 모션 보상 이미지 MC1이, 상기 IMG1에서는 전경과 배경의 겹침으로 인하여 배경이 전경에 가려지고, 상기 IMG2에서는 전경 또는 배경의 이동에 의하여 상기 IMG1에서 전경에 의하여 가려졌던 배경이 드러나는 uncover영역을 포함하는 경우, wc는 0의 값을 가진다.That is, in the forward motion compensation image MC1, the background is obscured by the overlapping of the foreground and background in the IMG1, and in the IMG2, an uncover region in which the background obscured by the foreground in the IMG1 is revealed by the movement of the foreground or background. When included, wc has a value of 0.

도 13에서, 배경(BG) 영상은 정지된 상태이고, 전경(FG) 영상은 좌측으로 이동하는 상태이다. 전경(FG) 영상의 이동으로 인하여 가려지는 배경 영역인 cover 영역이 생성된다. cover 영역에서 MC2는 배경(BG)이 전경(FG)에 의하여 가려진 상태이므로 정확한 영상정보를 얻을 수 없다. 따라서 이 경우에는 wc 값을 1로 하고, MC의 합성에서 MC2 영상은 배제하는 것이 바람직하다.In FIG. 13, the background (BG) image is in a stationary state, and the foreground (FG) image is in a state of moving to the left. A cover area, which is a background area obscured by the movement of the foreground (FG) image, is generated. In the cover area, MC2 cannot obtain accurate image information because the background (BG) is covered by the foreground (FG). Therefore, in this case, it is desirable to set the wc value to 1 and exclude the MC2 image from the synthesis of MC.

즉, 포워드 모션 보상 이미지 MC1이, 상기 IMG1에서는 전경과 배경의 겹침이 없었으나, 상기 IMG2에서는 전경 또는 배경의 이동에 의하여 전경과 배경의 겹침이 발생하고 배경이 전경에 가려지는 cover영역을 포함하는 경우, wc는 1의 값을 가진다.That is, in the forward motion compensation image MC1, there was no overlap between the foreground and the background in the IMG1, but in the IMG2, the overlap between the foreground and the background occurs due to the movement of the foreground or the background, and the cover region covers the foreground. In case, wc has a value of 1.

상기 원본 이미지 합성기(532)는 수학식 5를 통하여 IMG 합성 값 IMG_S를 산출한다. The original image synthesizer 532 calculates the IMG synthesis value IMG_S through Equation 5.

wi를 결정하는 방법은 영역 특성에 따라 달리 결정하거나, 입출력 주파수에 따라 결정할 수 있다. 본 발명에서는 입출력 주파수에 따라 결정하는 방식을 적용하였다. 즉, wi는 입력 영상의 주파수를 보간 프레임 생성으로 인하여 프레임이 증가된 출력 영상의 주파수로 나눈 값으로 결정할 수 있다.The method of determining wi may be determined differently according to the region characteristics or may be determined according to input/output frequencies. In the present invention, a method of determining according to the input/output frequency was applied. That is, wi may be determined by dividing the frequency of the input image by the frequency of the output image in which the frame is increased due to the generation of the interpolation frame.

예를 들어 30Hz 입력 60Hz 출력일 경우, 생성해야 하는 보간 프레임은 0.5 time-step에 해당한다. 이 경우 wi는 항상 0.5로 동일하다.For example, in the case of 30 Hz input and 60 Hz output, the interpolation frame to be generated corresponds to 0.5 time-step. In this case, wi is always equal to 0.5.

생성 프레임 이 2개 이상의 복수로 나타날 경우, 생성 프레임의 time-step에 따라 0과 1 사이의 값으로 달라질 수 있다.When two or more generation frames appear, it may be changed to a value between 0 and 1 according to the time-step of the generation frame.

상기 최종 합성기(533)는 수학식 3을 통하여 MC 합성 값 MC_S와, 원본 이미지 합성 값 IMG_S를 합성하여 보간 영상 IMG_out을 생성한다. wf는 0부터 1의 값을 가진다.The final synthesizer 533 synthesizes the MC synthesized value MC_S and the original image synthesized value IMG_S through Equation 3 to generate an interpolated image IMG_out. wf has a value from 0 to 1.

wf를 결정하는 방법은 다음과 같다.The method for determining wf is as follows.

첫째, wf는 MC1과 MC2의 차이가 클수록 증가한다. 왜냐하면, MC1과 MC2의 차이가 크면 MC 영상의 정확도가 낮기 때문에, MC_S의 비중을 낮추어 합성하기 위함이다.First, wf increases as the difference between MC1 and MC2 increases. Because, if the difference between MC1 and MC2 is large, the accuracy of the MC image is low, so the specific gravity of MC_S is lowered to synthesize.

둘째, wf는 IMG1과 IMG2의 차이가 작을수록 증가한다. 왜냐하면, IMG1과 IMG2의 차이가 작으면 MC 또한 원본 영상과 유사할 확률이 높기 때문에, 원본 영상의 이미지인 IMG_S의 비중을 높여서 합성하더라도 무방하기 때문이다.Second, wf increases as the difference between IMG1 and IMG2 is small. This is because if the difference between IMG1 and IMG2 is small, the MC also has a higher probability of being similar to the original video, so it is okay to synthesize it by increasing the weight of IMG_S, which is an image of the original video.

셋째, wf는 상기 IMG1과 상기 IMG2가, 상기 IMG1 또는 상기 IMG2 내에서 전경 또는 배경의 상대적인 움직임으로 인하여 상기 전경과 배경의 겹침의 변화가 있는 occlusion 영역을 포함하는 정도를 나타내는 wocc가 작을수록 증가한다. 왜냐하면, occlusion 영역에서는 MC1과 MC2가 차이가 커지기 때문에 이에 대한 효과를 상쇄하기 위함이다.Third, wf increases as the wocc indicating the degree to which the IMG1 and the IMG2 include occlusion regions having a change in overlap between the foreground and the background due to the relative movement of the foreground or background within the IMG1 or the IMG2 is increased as the wocc is smaller. . This is because the difference between MC1 and MC2 increases in the occlusion area, so that the effect on this is offset.

전술한 wf의 결정 방법을 반영하여 수식으로 표현하면, 수학식 6과 같이 표현할 수 있다. If the expression of wf is reflected by the above-described determination method, it can be expressed as in Equation (6).

Figure pat00009
Figure pat00009

c1, c2, c3, c4는 상수이며, 부호는 음수와 양수 모두 될 수 있다. 예를 들면, c1, c2, c3, c4는 순서대로 1, -1, -1, 0의 값을 가질 수 있다.c1, c2, c3, and c4 are constants, and the sign can be both negative and positive. For example, c1, c2, c3, and c4 may have values of 1, -1, -1, and 0 in order.

도 14는 Occlusion영역에서 wocc를 결정하는 요소를 설명하기 위한 도면이고, 도 15는 wocc를 산출하는 방법에 관한 순서도이다. 도 14 내지 도 15를 참조하여 wocc를 결정하는 방법을 설명하면,14 is a view for explaining an element for determining wocc in the occlusion region, and FIG. 15 is a flowchart of a method for calculating wocc. When explaining a method for determining wocc with reference to FIGS. 14 to 15,

도 14는, 정지한 회색의 전경 영상과 왼쪽으로 움직임이 있는 백색 배경 영상을 나타낸다. Occlusion 영역이기 때문에 IMG1, IMG2, MC1의 영상은 모두 백색으로 동일하게 나타나는 반면에, MC2만 회색으로 차이가 발생한다. 이러한 특성을 이용하여 wOcc 값을 결정하면, wocc는 MC1, MC2, IMG1, IMG2 의 4개의 영상 중에서 어느 하나의 영상이 차이가 큰 경우를 반영하도록 정할 수 있다.14 shows a still gray foreground image and a white background image moving to the left. Because of the occlusion region, the images of IMG1, IMG2, and MC1 are all the same in white, whereas only MC2 is gray. When the wOcc value is determined using these characteristics, wocc can be determined to reflect a case where any one of the four images of MC1, MC2, IMG1, and IMG2 has a large difference.

도 15를 참조하여 구체적으로 설명하면,Referring to Figure 15 in detail,

1) MC1, MC2, IMG1, IMG2의 평균 값인 mu를 산출한다(S10). 1) The average values of MC1, MC2, IMG1, and IMG2 mu are calculated (S10).

2) 상기 mu와 상기 MC1, MC2, IMG1, IMG2 각각의 차이 값인 D_mu를 산출한다(S20).2) D_mu, which is a difference value of each of the mu and the MC1, MC2, IMG1, and IMG2 is calculated (S20).

3) MC1, MC2, IMG1, IMG2 중에서 상기 D_mu가 최대인 영상을 D_max로, 나머지 영상을 D_else로 분류한다(S30).3) Among the MC1, MC2, IMG1, and IMG2, the image having the largest D_mu is classified as D_max, and the other images are classified as D_else (S30).

4) D_else로 분류된 영상의 평균 값인 mu_else를 산출한다(S40).4) Calculate mu_else, which is the average value of the images classified as D_else (S40).

5) 상기 mu와 D_max로 분류된 영상의 차이 값인 D_alone을 산출한다(S50). 5) D_alone, which is a difference value between the images classified as mu and D_max, is calculated (S50).

6) 상기 mu와 mu_else의 차이 값인 D_else를 산출하여 계산한다(S60).6) Calculate by calculating D_else, which is a difference value between mu and mu_else (S60).

7) 상기 wocc는, 상기 D_alone과 D_else의 차이 값이 된다(S70).7) The wocc is a difference value between the D_alone and D_else (S70).

wocc = |D_alone - D_else|wocc = |D_alone-D_else|

이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 청구범위에 포함되는 것으로 해석되어야 한다.It should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the claims of the present invention. .

100: 표시 패널
200: 게이트 드라이버
300: 소스 드라이버
400: 타이밍 컨트롤러
500: 영상 처리부
510: 모션 벡터 산출 모듈
520: 보상 영상 생성 모듈
530: 영상 합성 모듈
531: MC 합성기
532: 원본 이미지 합성기
533: 최종 합성기
100: display panel
200: gate driver
300: source driver
400: timing controller
500: image processing unit
510: motion vector calculation module
520: compensation image generation module
530: video synthesis module
531: MC synthesizer
532: Original image synthesizer
533: final synthesizer

Claims (14)

n프레임과 n+1프레임 사이에 보간 프레임을 생성하는 영상 처리 방법에 있어서,
상기 n프레임 내의 제1 이미지인 IMG1과, 상기 IMG1을 이용한 포워드 모션 보상 이미지인 MC1과, 상기 n+1프레임 내의 제2 이미지인 IMG2와, 상기 IMG2를 이용한 백워드 모션 보상 이미지인 MC2 중 적어도 어느 하나를 합성하여 상기 보간 프레임 내에 보간 영상을 생성하는 영상 처리 방법.
In the image processing method for generating an interpolation frame between n frames and n + 1 frame,
At least one of IMG1 as the first image in the n-frame, MC1 as a forward motion compensation image using the IMG1, IMG2 as a second image in the n+1 frame, and MC2 as a backward motion compensation image using the IMG2 An image processing method for generating an interpolated image in the interpolation frame by synthesizing one.
제1항에 있어서,
상기 영상 처리 방법은,
상기 MC1과 상기 MC2를 합성하여 MC 합성 값 MC_S를 산출하는 MC 합성 단계;
상기 IMG1과 상기 IMG2를 합성하여 원본 이미지 합성 값 IMG_S를 산출하는 원본 이미지 합성 단계; 및
상기 MC 합성 값 MC_S와, 상기 원본 이미지 합성 값 IMG_S를 합성하여 보간 영상 IMG_out을 생성하는 최종 합성 단계; 를 포함하는 영상 처리 방법.
According to claim 1,
The image processing method,
An MC synthesis step of synthesizing the MC1 and the MC2 to calculate an MC synthesis value MC_S;
An original image synthesis step of synthesizing the IMG1 and the IMG2 to calculate an original image synthesis value IMG_S; And
A final synthesis step of synthesizing the MC composite value MC_S and the original image composite value IMG_S to generate an interpolated image IMG_out; Image processing method comprising a.
제2항에 있어서,
상기 MC 합성 단계는,
아래의 수학식을 통하여 MC 합성 값 MC_S를 산출하는 것을 특징으로 하는 영상 처리 방법.
Figure pat00010

상기 wc는 0부터 1의 값을 가진다.
According to claim 2,
The MC synthesis step,
An image processing method comprising calculating the MC composite value MC_S through the following equation.
Figure pat00010

The wc has a value from 0 to 1.
제3항에 있어서,
상기 포워드 모션 보상 이미지 MC1이, 상기 IMG1에서는 전경과 배경의 겹침으로 인하여 배경이 전경에 가려지고, 상기 IMG2에서는 전경 또는 배경의 이동에 의하여 상기 IMG1에서 전경에 의하여 가려졌던 배경이 드러나는 uncover영역을 포함하는 경우, 상기 wc는 0의 값을 가지는 것을 특징으로 하는 영상 처리 방법.
According to claim 3,
The forward motion compensation image MC1 includes an uncover area in IMG1 where the background that is obscured by the foreground is revealed in the IMG1 by the foreground or the movement of the background in the IMG2 due to the overlap of the foreground and the background. If, the wc has a value of 0, characterized in that the image processing method.
제3항에 있어서,
상기 포워드 모션 보상 이미지 MC1이, 상기 IMG1에서는 전경과 배경의 겹침이 없었으나, 상기 IMG2에서는 전경 또는 배경의 이동에 의하여 전경과 배경의 겹침이 발생하고 배경이 전경에 가려지는 cover영역을 포함하는 경우, 상기 wc는 1의 값을 가지는 것을 특징으로 하는 영상 처리 방법.
According to claim 3,
When the forward motion compensation image MC1 has no overlap of the foreground and background in the IMG1, but the overlap of the foreground and the background occurs in the IMG2 due to the movement of the foreground or background, and the background includes a cover area that is obscured by the foreground. , Wherein wc has a value of 1.
제2항에 있어서,
상기 원본 이미지 합성 단계는,
아래의 수학식을 통하여 원본 이미지 합성 값 IMG_S를 산출하는 것을 특징으로 하는 영상 처리 방법.
Figure pat00011

상기 wi는 0부터 1의 값을 가진다.
According to claim 2,
The original image synthesis step,
An image processing method characterized by calculating an original image synthesis value IMG_S through the following equation.
Figure pat00011

The wi has a value from 0 to 1.
제6항에 있어서,
상기 wi는 입력 영상의 주파수를 보간 프레임 생성으로 인하여 프레임이 증가된 출력 영상의 주파수로 나눈 값인 것을 특징으로 하는 영상 처리 방법.
The method of claim 6,
The wi is an image processing method characterized by dividing the frequency of the input image by the frequency of the output image whose frame is increased due to the generation of an interpolation frame.
제2항에 있어서,
상기 최종 합성 단계는,
아래의 수학식을 통하여 보간 영상 IMG_out을 생성하는 것을 특징으로 하는 영상 처리 방법.
Figure pat00012

상기 wf는 0부터 1의 값을 가진다.
According to claim 2,
The final synthesis step,
An image processing method characterized by generating an interpolated image IMG_out through the following equation.
Figure pat00012

The wf has a value from 0 to 1.
제8항에 있어서,
상기 wf는,
MC1과 MC2의 차이가 클수록 증가하는 것을 특징으로 하는 영상 처리 방법.
The method of claim 8,
The wf is,
Image processing method characterized in that the larger the difference between MC1 and MC2 increases.
제8항에 있어서,
상기 wf는,
IMG1과 IMG2의 차이가 작을수록 증가하는 것을 특징으로 하는 영상 처리 방법.
The method of claim 8,
The wf is,
Image processing method characterized in that the smaller the difference between IMG1 and IMG2 increases.
제8항에 있어서,
상기 IMG1과 상기 IMG2가, 상기 IMG1 또는 상기 IMG2 내에서 전경 또는 배경의 상대적인 움직임으로 인하여 상기 전경과 배경의 겹침의 변화가 있는 occlusion 영역을 포함하는 정도를 나타내는 wocc가 작을수록, 상기 wf는 증가하는 것을 특징으로 하는 영상 처리 방법.
The method of claim 8,
The smaller the wocc indicating the degree to which the IMG1 and the IMG2 include occlusion regions having a change in overlap between the foreground and the background due to the relative movement of the foreground or background within the IMG1 or the IMG2, the wf increases Image processing method characterized in that.
제11항에 있어서
Occlusion 영역 포함 정도는,
MC1, MC2, IMG1, IMG2의 평균 값인 mu를 산출하고,
상기 mu와 상기 MC1, MC2, IMG1, IMG2 각각의 차이 값인 D_mu를 산출하고,
MC1, MC2, IMG1, IMG2 중에서 상기 D_mu가 최대인 영상을 D_max로, 나머지 영상을 D_else로 분류하고,
D_else로 분류된 영상의 평균 값인 mu_else를 산출하고,
상기 mu와 D_max로 분류된 영상의 차이 값인 D_alone을 산출하고,
상기 mu와 mu_else의 차이 값인 D_else를 산출하여 계산하며,
상기 wocc는, 상기 D_alone와 D_else의 차이 값인 것을 특징으로 하는 영상 처리 방법.
The method of claim 11
The extent of occlusion includes
Calculate mu, which is the average value of MC1, MC2, IMG1, and IMG2,
D_mu, which is a difference value of each of the mu and the MC1, MC2, IMG1, and IMG2, is calculated,
Among MC1, MC2, IMG1, and IMG2, the image with the largest D_mu is classified as D_max, and the other images are classified as D_else.
Calculate mu_else, which is the average value of the images classified as D_else,
D_alone, which is a difference value between the images classified as mu and D_max, is calculated,
Calculate by calculating D_else, which is a difference value between mu and mu_else,
The wocc is a difference value between the D_alone and D_else.
상기 n프레임 내의 제1 이미지인 IMG1과, 상기 IMG1을 이용한 포워드 모션 보상 이미지인 MC1과, 상기 n+1프레임 내의 제2 이미지인 IMG2와, 상기 IMG2를 이용한 백워드 모션 보상 이미지인 MC2 중 적어도 어느 하나를 합성하여 상기 보간 프레임 내에 보간 영상을 생성하는 영상 처리부; 및
상기 영상 처리부로부터 출력된 영상을 기반으로 영상을 표시하는 표시패널을 포함하는 표시장치.
At least one of IMG1 as the first image in the n-frame, MC1 as a forward motion compensation image using the IMG1, IMG2 as a second image in the n+1 frame, and MC2 as a backward motion compensation image using the IMG2 An image processing unit that synthesizes one to generate an interpolated image in the interpolation frame; And
A display device including a display panel for displaying an image based on the image output from the image processing unit.
제13항에 있어서,
상기 영상 처리부는,
상기 MC1과 상기 MC2를 합성하여 MC 합성 값 MC_S를 산출하는 MC 합성기;
상기 IMG1과 상기 IMG2를 합성하여 원본 이미지 합성 값 IMG_S를 산출하는 원본 이미지 합성기; 및
상기 MC 합성 값 MC_S와, 상기 원본 이미지 합성 값 IMG_S를 합성하여 보간 영상 IMG_out을 생성하는 최종 합성기; 를 포함하는 것을 특징으로 하는 표시장치.
The method of claim 13,
The image processing unit,
An MC synthesizer that synthesizes the MC1 and the MC2 to calculate an MC synthesis value MC_S;
An original image synthesizer which synthesizes the IMG1 and the IMG2 to calculate an original image synthesis value IMG_S; And
A final synthesizer combining the MC composite value MC_S and the original image composite value IMG_S to generate an interpolated image IMG_out; Display device comprising a.
KR1020180169523A 2018-12-26 2018-12-26 Image processing method and display device using the same KR102547085B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169523A KR102547085B1 (en) 2018-12-26 2018-12-26 Image processing method and display device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169523A KR102547085B1 (en) 2018-12-26 2018-12-26 Image processing method and display device using the same

Publications (2)

Publication Number Publication Date
KR20200079871A true KR20200079871A (en) 2020-07-06
KR102547085B1 KR102547085B1 (en) 2023-06-23

Family

ID=71571361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169523A KR102547085B1 (en) 2018-12-26 2018-12-26 Image processing method and display device using the same

Country Status (1)

Country Link
KR (1) KR102547085B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130127869A (en) * 2012-05-15 2013-11-25 삼성전자주식회사 Method, device and system for digital image stabilization
KR20160001570A (en) * 2014-06-27 2016-01-06 삼성전자주식회사 Image frame interpolation apparatus, Display apparatus and control method thereof
KR101589186B1 (en) * 2014-04-16 2016-01-27 국방과학연구소 Method for image matching using global motion vector compensation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130127869A (en) * 2012-05-15 2013-11-25 삼성전자주식회사 Method, device and system for digital image stabilization
KR101589186B1 (en) * 2014-04-16 2016-01-27 국방과학연구소 Method for image matching using global motion vector compensation
KR20160001570A (en) * 2014-06-27 2016-01-06 삼성전자주식회사 Image frame interpolation apparatus, Display apparatus and control method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kenneth Andersson et al., "BACKWARD-FORWARD MOTION COMPENSATED PREDICTION", Proceedings of ACIVS 2002 (Advanced Concepts for Intelligent Vision Systems), Ghent, Belgium, (2002.9.9-11.)* *

Also Published As

Publication number Publication date
KR102547085B1 (en) 2023-06-23

Similar Documents

Publication Publication Date Title
US8724022B2 (en) Frame rate conversion using motion estimation and compensation
JP3840129B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
EP2077663A1 (en) Image display device and method, and image processing device and method
CN101523475B (en) Image display apparatus
JP2011019202A (en) Image signal processing apparatus and image display
US20080158212A1 (en) Display Device and Display System
JP2008165161A (en) Display device and display system
US8922712B1 (en) Method and apparatus for buffering anchor frames in motion compensation systems
US9001093B2 (en) Display device and method of driving the same
KR102547085B1 (en) Image processing method and display device using the same
KR101731113B1 (en) 2d-3d image conversion method and stereoscopic image display using the same
KR20180025153A (en) Image treating circuit, image transform device, image display device and image treating method
WO2012098974A1 (en) Image processing device and method, and image display device and method
KR102315969B1 (en) Method for Image Processing and Display Device using the same
KR102583784B1 (en) Image processing method and display device using the same
KR102547084B1 (en) Image processing module and display device using the same
JP2008139828A (en) Image processing apparatus, image processing method, electro-optical device and electronic device
KR102340942B1 (en) Method for Image Processing and Display Device using the same
KR102508757B1 (en) Image processing device and method, display device
CN101536506A (en) Image display device and method, and image processing device and method
KR102565661B1 (en) Image processing device and method, display device
JP2012022226A (en) Image display device
JP4181189B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
JP2006203320A (en) Method and apparatus for converting interlace scanning signal into progressive scanning signal
KR100545016B1 (en) A apparatus for image scaling and interpolating using frame rate controller and a method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant