KR20090023099A - Image processing apparatus, method thereof, and program - Google Patents

Image processing apparatus, method thereof, and program Download PDF

Info

Publication number
KR20090023099A
KR20090023099A KR20080076551A KR20080076551A KR20090023099A KR 20090023099 A KR20090023099 A KR 20090023099A KR 20080076551 A KR20080076551 A KR 20080076551A KR 20080076551 A KR20080076551 A KR 20080076551A KR 20090023099 A KR20090023099 A KR 20090023099A
Authority
KR
South Korea
Prior art keywords
image
pixel
pixels
motion vector
interest
Prior art date
Application number
KR20080076551A
Other languages
Korean (ko)
Inventor
신타로 오카다
카즈히코 니시보리
토모히로 니시
토시노리 이하라
마스요시 구로카와
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20090023099A publication Critical patent/KR20090023099A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An image processing apparatus, a method thereof and a program are provided to reduce distortion in an image generated by performing interpolation even in an image whose brightness significantly changes and in which distortion tends to occur in motion compensation processing using a motion vector when an interpolation image is generated. An image processing apparatus(1) generates an interpolation image using an input image which is one of moving images having a predetermined frame rate, and displays moving images having a different frame rate on a display unit(2) constituted by an LCD(Liquid Crystal Display). The input image is temporarily stored in a frame memory(11). The frame memory supplies an image preceding the input image by one frame to a motion vector estimation unit(12) and a motion compensation processing unit(13). The motion vector estimation unit includes a sum-of-absolute-difference calculation section(12a), a comparing section(12b), and a motion vector calculation section(12c). For each of pixels in the input image, a motion vector for the pixel is calculated by the motion vector estimation unit using the input image and the immediately preceding image. More particularly, the sum-of-absolute-difference calculation section reads pixels in a block of interest corresponding to a pixel of interest in the immediately preceding image. For each of the reference blocks corresponding to one of the reference pixels, the sum-of-absolute-difference calculation section calculates a sum of absolute differences between pixel values at pixel positions in the block of interest and pixel values at corresponding pixel positions in the reference block. The comparing section compares sums of absolute differences, each of which is obtained for one of the reference pixels, determines a reference pixel whose sum of absolute differences is minimum, and supplies information regarding the reference pixel whose sum of absolute differences is minimum to the motion vector calculation section. The motion vector calculation section calculates a motion vector using the pixel of interest in the input image and the reference pixel whose sum of absolute differences is minimum, and supplies the motion vector to the motion compensation processing unit. The motion compensation processing unit includes a vector analyzing section(13a), a pixel generation section(13b), and a motion compensation image memory(13c). The motion compensation processing unit executes motion compensation processing using the input image, the immediately preceding image, and motion vectors, generates an MC image (motion-compensated image), and supplies the MC image to an error processing unit(14).

Description

화상 처리 장치 및 방법, 및 프로그램{Image processing apparatus, method thereof, and program} Image processing apparatus and method, and program

본 발명은 2007년 8월 27일 일본 특허청에 제출된 일본 특허 번호 JP 2007-219421호, 2008년 7월 17일 일본 특허청에 제출된 일본 특허 번호 JP 2008-186099호와 2008년 7월 17일 일본 특허청에 제출된 일본 특허 번호 JP 2008-186098호와 관련된 주제들을 포함하고 있으며, 그 내용은 참조로서 본 명세서에 포함되어 있다.The present invention relates to Japanese Patent No. JP 2007-219421, filed with the Japan Patent Office on August 27, 2007, Japanese Patent No. JP 2008-186099, filed on July 17, 2008, and Japan, July 17, 2008. It includes topics related to Japanese Patent No. JP 2008-186098 filed with the Japan Patent Office, the contents of which are incorporated herein by reference.

본 발명은, 화상 처리 장치 및 방법 및 프로그램에 관한 것이며, 특히, 왜곡이 생기기 쉽고, 휘도 변화가 큰 화상에 있어서의 이동 벡터를 이용하는 이동 보상처리에 대해서도, 보간 생성되는 화상의 왜곡을 억제할 수 있는 화상 처리 장치 및 방법 및 프로그램에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, a method, and a program, and in particular, a distortion of an image generated interpolation can be suppressed even in a motion compensation process using a motion vector in an image in which distortion is likely to occur and a large change in luminance occurs. The present invention relates to an image processing apparatus, a method, and a program.

일반적으로, 블록 매칭 수법에 의해 이동 벡터가 검출되고, 그 이동 벡터를 이용해 이동 보상처리를 실시하여, 보간 화상전후의 시점에서 일시적으로 화상(프레임)으로부터 새로운 보간 화상(보간 프레임)을 작성하는 처리가 일반적으로 존재한다.Generally, a motion vector is detected by a block matching method, a motion compensation process is performed using the motion vector, and a process of temporarily creating a new interpolation image (interpolation frame) from an image (frame) before and after the interpolation image. Is generally present.

그렇지만, 장면 변화, 탐색 범위의 외부로 피사체가 이동하거나, 또는 페이드-인/페이드-아웃 동안에 휘도 변화가 격렬한 경우에는, 정확한 이동 벡터를 검출하는 것이 어렵거나, 또는 이동 벡터의 신뢰도가 낮아지게 된다. 결과적으로, 이동 보상처리를 실행하면 보간 생성된 화상에 왜곡이 발생된다.However, when the subject moves outside of the scene change, the search range, or when the luminance change is intense during fade-in / fade-out, it is difficult to detect the exact motion vector or the reliability of the motion vector becomes low. . As a result, when the motion compensation process is performed, distortion occurs in the interpolated generated image.

그러므로, 장면 변화를 검출하는 기능을 제공하고, 검출된 장면 변화에 대응하여 이동 보상처리를 실행시켜, 왜곡을 억제하는 기술이 제안되어 있다(일본 미심사 특허 출원 공개 번호 2007-060192호 참조).Therefore, a technique has been proposed that provides a function of detecting a scene change, executes a motion compensation process in response to the detected scene change, and suppresses distortion (see Japanese Unexamined Patent Application Publication No. 2007-060192).

또한, 보간 화상의 공간적인 상관관계를 조사하고, 이동 보상처리를 실행시켜, 왜곡을 억제시키는 기술이 제안되어 있다(일본 미심사 특허 출원 공개 번호특허 2006-260527호 참조). In addition, a technique for investigating the spatial correlation of interpolated images, executing a motion compensation process, and suppressing distortion has been proposed (see Japanese Unexamined Patent Application Publication No. 2006-260527).

그렇지만, 일본 미심사 특허 출원 공개 번호 2007-060192호에 기재되어 있는 기술에서는, 장면 변화를 검출하는 기구가 별도로 필요하므로, 장치 코스트가 증대하며, 이동 벡터 자체의 신뢰도가 낮은 경우에도 그대로 프레임 보간 처리를 실시해 버리기 때문에, 반드시 보간 생성된 화상의 왜곡을 억제할 수 없었다.However, in the technique described in Japanese Unexamined Patent Application Publication No. 2007-060192, since a mechanism for detecting a scene change is required separately, even if the apparatus cost increases and the reliability of the motion vector itself is low, frame interpolation processing is performed as it is. In this case, distortion of the generated interpolation image could not be suppressed.

또한, 일본 미심사 특허 출원 공개 번호특허 2006-260527호에 기재되어 있는 기술에서는, 에러 처리로서 보간 화상의 공간적인 상관관계는 조사하고 있지만, 이동 벡터 그 자체의 신뢰도에 대해서는 조사하지 않기 때문에, 반드시 보간 생성된 화상의 왜곡을 억제하지 못하는 문제가 있었다.In addition, in the technique described in Japanese Unexamined Patent Application Publication No. 2006-260527, although the spatial correlation of the interpolation image is examined as an error process, the reliability of the motion vector itself is not necessarily investigated. There is a problem in that it is impossible to suppress distortion of the generated interpolated image.

본 발명은 이러한 상황을 고려하여 고안된 것이며, 특히, 보간 화상을 생성하는 경우에, 이동 벡터를 이용하는 이동 보상처리에서 왜곡이 생기기 쉽고 휘도 변화가 큰 화상에 대해서도, 보간 생성되는 화상의 왜곡을 억제할 수 있도록 하는 것이다.The present invention has been devised in consideration of such a situation. In particular, in the case of generating an interpolated image, it is possible to suppress distortion of an image generated interpolation even for an image in which distortion is likely to occur in a motion compensation process using a motion vector and the luminance change is large. To make it possible.

본 발명의 화상 처리 장치는, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 수단과; 상기 차분 절대치합계산 수단에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 구하는 제 1비교 수단과; 상기 제 1비교 수단에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정 수단과; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성하는 이동 보상화상 생성 수단과; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 제 1의 누적 가산 수단과; 상기 누적 가산 수단에 의해 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성 수단을 포함하며, 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응한다.The image processing apparatus of the present invention is a pixel value of a pixel of a block of interest that includes a plurality of pixels corresponding to a pixel of interest in a first image, and a second image having a display timing different from that of the first image. Difference absolute value calculation means for calculating an absolute difference value between pixel values of a plurality of pixels of substantially the same arrangement as the block of interest in a reference block corresponding to the reference pixel; First comparing means for comparing the difference absolute values calculated by the difference absolute value calculating means to obtain a minimum difference absolute value; Motion vector estimating means for estimating a motion vector of the pixel of interest based on the reference pixel which is the minimum of the absolute difference values obtained by the first comparing means and the pixel of interest; Motion compensation image generating means for generating a motion compensation image by using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image and; First cumulative adding means for cumulatively adding the difference absolute value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained for each pixel of the first image; Interpolation image generating means for synthesizing each pixel in the first image and each pixel in the corresponding motion compensation image based on the cumulative addition result obtained by the cumulative addition means, to generate an interpolation image; And each of the pixels of the first image corresponds to each of the pixels in the movement compensation image.

본 발명의 화상 처리 장치는, 상기 누적 가산 결과의 비율을 이용하여, 상기 누적 가산 결과를, 상기 누적 가산 결과에 대해 설정된 소정의 최대치로 양자화하는 양자화 수단을 추가로 포함할 수 있으며, 상기 보간 화상 생성 수단은, 상기 양자화 수단에 의해 양자화된 상기 누적 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와 대응하는 상기 이동 보상화상의 각 화소를 합성하고, 보간 화상을 생성한다.The image processing apparatus of the present invention may further include quantization means for quantizing the cumulative addition result using a ratio of the cumulative addition result to a predetermined maximum value set for the cumulative addition result, wherein the interpolation image The generating means synthesizes each pixel of the moving compensation image corresponding to each pixel in the first image based on the cumulative result quantized by the quantization means, and generates an interpolated image.

상기 보간 화상 생성 수단은, 상기 양자화 수단에 의해 양자화된 상기 누적 결과가 제 1의 소정의 임계량보다 작은 화소에 대해서는, 상기 제 1의 화상에 있어서의 화소를, 그대로 사용하여 보간 화상을 생성하며, 상기 양자화 수단에 의해 양자화된 상기 누적 결과가 제 2의 소정의 임계량보다 큰 화소에 대해서는, 상기 이동 보상화상에 있어서의 각 화소를 그대로 사용하여, 보간 화상을 생성한다.The interpolation image generating means generates an interpolation image by using the pixels in the first image as it is for pixels whose accumulation result quantized by the quantization means is smaller than a first predetermined threshold amount, For the pixels whose cumulative result quantized by the quantization means is larger than the second predetermined threshold amount, each pixel in the movement compensation image is used as it is to generate an interpolated image.

상기 참조 화소는, 상기 제 2의 화상내에 있으며, 상기 제 1의 화상에 있어서의 상기 주목 화소에 대응하는 근방의 범위를 포함한다.The reference pixel is in the second image and includes a near range corresponding to the pixel of interest in the first image.

본 발명의 화상 처리 장치는, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치를 감산하는 감산 수단과; 상기 감산 수단에 의해 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값과, 상기 제 1의 화상에 있어서의 누적 가산 결과를 비교하여, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값이 상기 제 1의 화상에 있어서의 누적 가산 결과보다 큰 경우, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값을 상기 제 1의 화상에 있어서의 누적 가산 결과로 치환하고, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값이 상기 제 1의 화상에 있어서의 누적 가산 결과보다 크지 않은 경우, 상기 제 1의 화상에 있어서의 누적 가산 결과를 그대로 출력하는 제 2비교 수단을 추가로 포함할 수 있다. An image processing apparatus of the present invention includes: subtraction means for subtracting a predetermined value from the cumulative addition result in the second image; The cumulative addition in the second image is compared with a value obtained by subtracting a predetermined value from the cumulative addition result in the second image by the subtraction means and the cumulative addition result in the first image. If the value from which the predetermined value is subtracted from the result is larger than the cumulative addition result in the first image, the value obtained by subtracting the predetermined value from the cumulative addition result in the second image is determined in the first image. Is replaced with the cumulative addition result of, and the value obtained by subtracting a predetermined value from the cumulative addition result in the second image is not larger than the cumulative addition result in the first image. The second comparison means for outputting the cumulative addition result of as is may be further included.

본 발명의 화상 처리 장치는, 상기 제 1화상내의 주목 화소에 대응하며, 복수의 화소들을 포함하는 주목블록내의 화소들의 화소치들과, 상기 주목 화소와 동일한 위치에서, 상기 제 2화상내에 배치되고 상기 제 1화상과 같은 동일 구조의 화소에 대응하는 동일 구조의 블록내에서, 상기 주목 블록내의 화소들과 동일한 구조를 가지는 화소들의 화소치들간의 차분 절대치의 고정블록합(a stationary-block sum of absolute differences)을 산출하는 차분 절대치의 고정 블록합 계산수단과; 차분 절대치의 고정 블록합 계산수단에 의해 산출된 차분 절대치의 고정 블록합과, 상기 제 1비교수단에 의해 얻어진 차분 절대치합의 최소치에 따라, 각각의 주목 화소에 대한 변수를 산출하는 산출수단과; 상기 주목 화소에 대해 상기 산출 수단에 의해 산출된 변수를 누적 가산하는 제 2의 누적 가산 수단을 추가로 포함하며, 상기 보간 화상 생성 수단은 상기 제 2의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응한다.An image processing apparatus of the present invention corresponds to a pixel of interest in the first image, and pixel values of pixels in the block of interest including a plurality of pixels, and are disposed in the second image at the same position as the pixel of interest, and A stationary-block sum of absolute differences in blocks of the same structure corresponding to pixels of the same structure as the first image, between pixel values of pixels having the same structure as the pixels in the block of interest. Fixed block sum calculation means for calculating the absolute difference value; Calculating means for calculating a variable for each pixel of interest according to the fixed block sum of the difference absolute values calculated by the fixed block sum calculation means of the difference absolute values and the minimum value of the difference absolute values obtained by the first comparing means; And second cumulative adding means for cumulatively adding the variable calculated by the calculating means to the pixel of interest, wherein the interpolation image generating means is in accordance with the cumulative addition result obtained by the second cumulative adding means. The pixels in the first image and the motion compensation image are synthesized to generate the compensation image, wherein each of the pixels in the first image corresponds to each of the pixels of the motion compensation image.

본 발명의 화상 처리 장치는, 상기 제 1화상내의 주목 화소에 대응하며, 복 수의 화소들을 포함하는 주목블록내의 화소들의 화소치들과, 상기 주목 화소와 동일한 위치에서, 상기 제 2화상내에 배치되고 상기 제 1화상과 같은 동일 구조의 화소에 대응하는 동일 구조의 블록내에서, 상기 주목 블록내의 화소들과 동일한 구조를 가지는 화소들의 화소치들간의 차분 절대치의 고정블록합을 산출하는 차분 절대치의 고정 블록합 계산수단과; 차분 절대치의 고정 블록합 계산수단에 의해 산출된 차분 절대치의 고정 블록합중에서, 소정의 임계량보다 큰 차분 절대치의 고정 블록합에 대응하며, 상기 주목 화소를 포함하는 영역에 대해서, 차분 절대치합을 누적 가산하는 제 2의 누적 가산 수단을 추가로 포함할 수 있으며, 상기 보간 화상 생성 수단은 상기 제 2의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며, 상기 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응한다.An image processing apparatus of the present invention corresponds to a pixel of interest in the first image and includes pixel values of pixels in the block of interest including a plurality of pixels, and is disposed in the second image at the same position as the pixel of interest. A fixed block of differential absolute value that calculates a fixed block sum of difference absolute values between pixel values of pixels having the same structure as pixels in the block of interest in a block of the same structure corresponding to pixels of the same structure as the first image. Sum calculation means; Of the fixed block sums of the absolute difference values calculated by the fixed block sum calculating means of the difference absolute values, the absolute absolute sums are accumulated in the region including the pixel of interest corresponding to the fixed block sums of the difference absolute values larger than a predetermined threshold amount. And a second cumulative adding means for adding, wherein the interpolation image generating means includes the pixels in the first image and the motion compensation image according to a cumulative addition result obtained by the second cumulative adding means. Are synthesized to generate the compensation image, wherein each of the pixels in the first image corresponds to each of the pixels of the movement compensation image.

본 발명의 화상 처리 장치는, 상기 제 2의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 따라, 차분 절대치의 고정 블록합의 평균을 산출하는 평균 산출 수단을 추가로 포함할 수 있다. The image processing apparatus of the present invention may further include an average calculating means for calculating an average of the fixed block sums of difference absolute values according to the cumulative addition result obtained by the second cumulative addition means.

본 발명의 화상 처리 장치는, 상기 제 1의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 대해, 시간에 따르는 변화량을 산출하는 변화량 산출 수단을 추가로 포함할 수 있으며, 상기 보간 화상 생성 수단은, 상기 변화량 산출 수단에 의해 얻어진 변화량에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화 상의 화소들의 각각에 대응한다.The image processing apparatus of the present invention may further include change amount calculation means for calculating a change amount with time with respect to the cumulative addition result obtained by the first cumulative addition means, wherein the interpolation image generation means includes: The compensation image is generated by combining the pixels in the first image and the movement compensation image according to the variation amount obtained by the variation calculation means, and each of the pixels in the first image is assigned to each of the pixels in the movement compensation image. Corresponds.

본 발명의 화상 처리 장치는, 상기 제 1화상을 n개의 영역들로 분할하는 분할 수단과; n개의 영역들에 대한 차분 절대치합 중에서 최대치를 n배 증배하는 증배 수단을 포함하며, 상기 분할 수단에 의해 분할된 상기 n개의 영역들중 한 영역에 대해서, 상기 차분 절대치합을 누적 가산하는 상기 제 1의 누적 가산 수단에 의해 얻어지는 상기 차분 절대치합의 각각은, 상기 n개의 영역들의 각각에 대응하며, 상기 보간 화상 생성 수단은, 상기 증배 수단에 의해 얻어진 상기 차분 절대치합에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응한다. An image processing apparatus of the present invention comprises: dividing means for dividing the first image into n regions; and multiplication means for multiplying a maximum value n times among the absolute differences of the n areas, wherein the cumulative addition of the absolute absolute sums is performed for one of the n areas divided by the dividing means. Each of the difference absolute values obtained by the cumulative addition means of 1 corresponds to each of the n regions, and the interpolation image generating means is a pixel in the first image according to the difference absolute values obtained by the multiplication means. And the motion compensation image to generate the compensation image, wherein each of the pixels in the first image corresponds to each of the pixels of the motion compensation image.

상기 제 1의 누적 가산 수단은, 상기 제 1화상의 단부에 위치한 한 영역을 제외한 영역에 대해서 차분 절대치합을 누적 가산한다. The first cumulative adding means cumulatively adds the difference absolute values to an area except one area located at the end of the first image.

본 발명의 화상 처리 방법은, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 스텝과; 상기 차분 절대치합계산 스텝에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 판정하는 비교 스텝과; 상기 비교 스텝에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정 스텝과; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성하는 이동 보상화상 생성 스텝과; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 제 1의 누적 가산 스텝과; 상기 누적 가산 스텝에서 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성 스텝을 포함하며, 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응한다.  An image processing method of the present invention includes a pixel value of pixels of a block of interest including a plurality of pixels corresponding to a pixel of interest in a first image, and a second image having a different display timing from the first image. A difference absolute value calculation step of calculating a difference absolute value difference between pixel values of a plurality of pixels of substantially the same arrangement as the block of interest in a reference block corresponding to the reference pixel; A comparison step of comparing the difference absolute value calculated by the difference absolute value calculation step to determine a minimum difference absolute value; A motion vector estimating step of estimating a motion vector of the pixel of interest based on the reference pixel which is the minimum of the difference absolute values obtained by the comparison step and the pixel of interest; A motion compensation image generation step of generating a motion compensation image by using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image and; A first cumulative adding step of cumulatively adding, to each pixel of the first image, a difference absolute value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained; An interpolation image generation step of generating an interpolation image by synthesizing each pixel in the first image and each pixel in the corresponding motion compensation image based on the cumulative addition result obtained in the cumulative addition step; , Each of the pixels of the first image corresponds to each of the pixels in the movement compensation image.

다음의 처리를 컴퓨터가 실행하도록 하는 컴퓨터 판독 가능 프로그램에 있어서, 상기 처리는, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 스텝과; 상기 차분 절대치합계산 스텝에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 판정하는 비교 스텝과; 상기 비교 스텝에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정 스텝과; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상 을 생성하는 이동 보상화상 생성 스텝과; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 제 1의 누적 가산 스텝과; 상기 누적 가산 스텝에서 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성 스텝을 포함하며, 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응한다. A computer readable program for causing a computer to execute the following processing, wherein the processing includes: pixel values of pixels of a block of interest including a plurality of pixels corresponding to pixels of interest in a first image, and the first value; A difference absolute value calculation step of calculating a difference absolute value difference between the pixel of interest and a pixel value of a plurality of pixels in substantially the same arrangement in a reference block corresponding to a reference pixel of a second image having a different display timing from and; A comparison step of comparing the difference absolute value calculated by the difference absolute value calculation step to determine a minimum difference absolute value; A motion vector estimating step of estimating a motion vector of the pixel of interest based on the reference pixel which is the minimum of the difference absolute values obtained by the comparison step and the pixel of interest; A motion compensation image generation step of generating a motion compensation image by using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image and; A first cumulative adding step of cumulatively adding, to each pixel of the first image, a difference absolute value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained; An interpolation image generation step of generating an interpolation image by synthesizing each pixel in the first image and each pixel in the corresponding motion compensation image based on the cumulative addition result obtained in the cumulative addition step; , Each of the pixels of the first image corresponds to each of the pixels in the movement compensation image.

프로그램 기록 매체는 내부에 기록되어 있고, 컴퓨터가 판독 가능한 프로그램을 가질 수 있다. The program recording medium is recorded therein and may have a computer readable program.

화상 처리 장치 및 방법과 프로그램에 대해서는, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합이 계산된다. 상기 차분 절대치합 계산부에 의해 계산된 상기 차분 절대치합을 비교하여 최소의 차분 절대치합을 구한다. 상기 비교부에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정한다. 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성한다. 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡 터가 구해질 때에 계산되는 차분 절대치합을 누적 가산한다. 상기 누적 가산부에 의해 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성한다. 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응한다. The image processing apparatus, the method and the program include a pixel value of the pixels of the block of interest including a plurality of pixels corresponding to the pixel of interest in the first image, and a second pixel having a different display timing from the first image. In the reference block corresponding to the reference pixel of the image, the difference absolute value difference between the pixel values of the plurality of pixels in substantially the same arrangement as the block of interest is calculated. A minimum absolute absolute difference is obtained by comparing the absolute difference values calculated by the difference absolute value calculation unit. A motion vector of the pixel of interest is estimated based on the reference pixel which is the minimum of the absolute difference values obtained by the comparison unit and the pixel of interest. A motion compensation image is generated using the pixel value of each pixel of the first image as the pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image. For each pixel of the first image, the absolute difference value calculated when the motion vector corresponding to the pixel of the motion compensation image is obtained is cumulatively added. Based on the cumulative addition result obtained by the cumulative adder, each pixel in the first image and each pixel of the corresponding motion compensation image are synthesized to generate an interpolated image. Each of the pixels of the first image corresponds to each of the pixels in the movement compensation image.

본 발명의 화상 처리 장치는, 독립적인 장치가 되어도 좋고, 화상 처리를 실시하는 블록이어도 좋다.The image processing apparatus of the present invention may be an independent apparatus or may be a block for performing image processing.

본 발명의 한 실시예에 의하면, 왜곡이 생기기 쉽고 휘도 변화가 큰 화상에 있어서의 이동 벡터를 이용하는 이동 보상처리에 대해서도, 보간 생성되는 화상의 왜곡을 억제하는 것이 가능해진다.According to one embodiment of the present invention, it is possible to suppress the distortion of the image to be interpolated even for the motion compensation process using the motion vector in the image where distortion is likely to occur and the luminance change is large.

도 1은, 본 발명을 적용한 일 실시의 형태의 구성을 나타내는 화상 처리 장치이다.1 is an image processing apparatus showing a configuration of an embodiment to which the present invention is applied.

도 1의 화상 처리 장치(1)는, 소정의 프레임 속도의 동화상(moving image)을 구성하는 입력 화상으로부터 보간 화상을 생성하고, 프레임 속도가 다른 동화상을 LCD(Liquid Crystal Display) 등으로 구성되는 표시부(2)에 표시시킨다.The image processing apparatus 1 of FIG. 1 generates an interpolation image from an input image constituting a moving image of a predetermined frame rate, and displays a moving image having a different frame rate by using an LCD (Liquid Crystal Display) or the like. (2) is indicated.

프레임 메모리(11)는, 입력 화상을 일시적으로 기억하고, 입력 화상에 대해서, 1프레임 만큼 직전의 화상(이후, 직전 화상이라고 칭하는 것으로 한다)을 이동 벡터 추정부(12) 및 이동 보상처리부(13)에 공급한다.The frame memory 11 temporarily stores an input image, and the motion vector estimating unit 12 and the motion compensation processing unit 13 store an image immediately before the input image (hereinafter, referred to as a previous image) for the input image. Supplies).

이동 벡터 추정부(12)는, 차분 절대치합계산부(12a), 비교부(12b) 및 이동 벡터 계산부(12c)를 갖추고 있어 입력 화상과 직전 화상에 근거하여, 입력 화상의 각 화소 마다의 이동 벡터를 구한다. 보다 구체적으로는, 차분 절대치합계산부(12a)는, 입력 화상의 주목 화소(처리 대상이 되는 화소)에 대응하는 주목 블록의 화소와 직전 화상의 각 화소(참조 화소)에 대해 대응하는 참조 블록의 화소를 읽어내, 각각 대응하는 화소 위치의 화소치의 차분 절대치합을 구한다. 비교부(12b)는, 참조 화소의 각각에 대해 얻어지는 차분 절대치의 합을 비교하고, 차분 절대치의 합이 최소가 되는 참조 화소를 구하고 그 참조 화소에 관한 정보를 이동 벡터 계산부(12c)에 공급한다. 이동 벡터 계산부(12c)는, 입력 화상의 주목 화소와 차분 절대치합이 최소가 되는 참조 화소를 이용하여 이동 벡터를 계산하고, 이동 보상처리부(13)에 공급한다.The motion vector estimating unit 12 includes a difference absolute value calculating unit 12a, a comparing unit 12b, and a moving vector calculating unit 12c, and moves each pixel of the input image based on the input image and the previous image. Find the vector. More specifically, the difference absolute value calculating section 12a is configured to determine the pixels of the block of interest corresponding to the pixel of interest (the pixel to be processed) of the input image and the reference block corresponding to each pixel (reference pixel) of the previous image. The pixels are read, and the difference absolute values of the pixel values at respective pixel positions are obtained. The comparison unit 12b compares the sum of the difference absolute values obtained for each of the reference pixels, obtains a reference pixel at which the sum of the difference absolute values is minimum, and supplies the information about the reference pixel to the motion vector calculation unit 12c. do. The motion vector calculation unit 12c calculates a motion vector using the reference pixel whose minimum absolute difference with the pixel of interest of the input image is the minimum, and supplies it to the motion compensation processing unit 13.

이동 보상처리부(13)는, 벡터 해석부(13a), 화소 생성부(13b), 및 MC(Motion Compensation) 화상 메모리(13c)를 갖추고 있어 입력 화상, 직전 화상, 및 이동 벡터에 근거하여, 이동 보상처리를 실행하여, MC화상(이동 보상화상)을 생성하고, 그 MC 영상을 에러 처리부(14)에 공급한다. 보다 구체적으로는, 벡터 해석부(13a)는, 이동 벡터 추정부(12)에서보다 공급되어 오는, 입력 화상의 각 화소에 대한 이동 벡터를 해석하여, MC화상의 각 화소의 생성에 필요하게 되는 입력 화상의 화소, 및, 직전 화상의 화소를 검색한다. 화소 생성부(13b)는, 벡터 해석부(13a)에 의해 검색된 입력 화상의 화소, 및 직전 화상의 화소를 이용하여, 이동 보상화상에 있어서의 각 화소를 생성하고, MC화상 메모리(13c)에 기억시킨다. 여기에서, 본 실시예에서는, 벡터 해석부(13a)는, 입력 화상의 화소만을 검색하며, 화소 생성 부(13b)는, 입력 화상의 화소만을 이용하여 이동 보상화상에 있어서의 각 화소를 생성한다. 그러나, 당연한 일이지만, 직전 화상의 화소도 아울러 검색하여, 입력 화상의 화소와 직전 화상의 화소와의 양쪽 모두를 이용하도록 해도 좋다.The motion compensation processor 13 includes a vector analyzer 13a, a pixel generator 13b, and an MC (Motion Compensation) image memory 13c. The motion compensation processor 13 moves on the basis of an input image, a previous image, and a motion vector. The compensation process is performed to generate an MC image (moving compensation image), and the MC image is supplied to the error processing unit 14. More specifically, the vector analyzer 13a analyzes the motion vector for each pixel of the input image, which is supplied from the motion vector estimator 12, and is required for generation of each pixel of the MC image. The pixel of the input image and the pixel of the previous image are searched. The pixel generation unit 13b generates each pixel in the motion compensation image by using the pixels of the input image retrieved by the vector analysis unit 13a and the pixels of the previous image, and generates the pixels in the MC image memory 13c. Remember Here, in this embodiment, the vector analyzer 13a searches only the pixels of the input image, and the pixel generator 13b generates each pixel in the motion compensation image using only the pixels of the input image. . However, as a matter of course, the pixels of the previous image may also be searched to use both of the pixels of the input image and the pixels of the previous image.

에러 처리부(14)는, 누적부(14a), MEL 산출부(14b), 및 합성부(14c)를 갖추고 있어 이동 벡터 추정부(12)에서 공급되어 오는 각 화소의 이동 벡터에 대응하는 차분 절대치합에 근거하여, MC화상과 입력 화상을 합성하고, 표시부(2)에 출력하여, 표시시킨다. 보다 구체적으로는, 누적부(14a)는, 입력 화상의 각 화소의 이동 벡터를 구할 때에 계산된, 최소의 차분 절대치합의 각각을 누적 가산하고, MEL 산출부(14b)에 공급한다. MEL 산출부(14b)는, 차분 절대치합의 누적 가산 결과를 양자화하고, MC 화상에 있어서의 평균 에러 레벨 MEL를 구하여 합성부(14c)에 공급한다. 합성부(14c)는, 평균 에러 레벨 MEL에 근거하여, 입력 화상과 MC화상을 합성하고, 표시부(2)에 출력해 표시시킨다.The error processor 14 includes an accumulator 14a, an MEL calculator 14b, and a synthesizer 14c, and the absolute difference value corresponding to the motion vector of each pixel supplied from the motion vector estimator 12 is provided. Based on the sum, the MC image and the input image are synthesized, output to the display unit 2, and displayed. More specifically, the accumulator 14a accumulates and adds each of the minimum difference absolute values calculated when obtaining the motion vector of each pixel of the input image, and supplies them to the MEL calculator 14b. The MEL calculation unit 14b quantizes the cumulative addition result of the difference absolute values, obtains the average error level MEL in the MC image, and supplies it to the synthesis unit 14c. The combining unit 14c synthesizes the input image and the MC image based on the average error level MEL, and outputs the displayed image to the display unit 2 for display.

다음에, 도 2의 플로차트를 참조하여, 화상 처리에 대해 설명한다.Next, image processing will be described with reference to the flowchart of FIG. 2.

스텝(S11)에서, 프레임 메모리(11)를 이용하여, 입력 화상이 공급되었는지를 판정하고, 공급되었다고 판정될 때까지, 이러한 처리를 반복한다. 스텝(S11)에서, 예를 들면, 입력 화상이 존재했을 경우, 스텝(S12)에서, 프레임 메모리(11)는, 입력 화상을 일시적으로 기억함과 동시에, 직전의 타이밍에 기억한 입력 화상을, 직전 화상으로서 이동 벡터 추정부(12) 및 이동 보상처리부(13)에 공급한다. 이 처리에 의해, 이동 벡터 추정부(12), 및 이동 보상처리부(13)에는, 입력 화상 및 직전 화상이 각각 공급되고 에러 처리부(14)에는, 입력 화상만이 공급된다. 여기 에서, 직전의 화상이 없는 경우, 스텝(S12)에서는, 입력 화상을 기억한 후, 입력 화상 및 직전 화상을, 이동 벡터 추정부(12), 및 이동 보상처리부(13)에 공급할 수 있는 상태가 될 때까지, 스텝(S13) 이후의 처리를 실현될 수 없기 때문에, 처리는, 스텝(S11)으로 돌아온다.In step S11, the frame memory 11 is used to determine whether an input image has been supplied, and this process is repeated until it is determined that it has been supplied. In step S11, for example, when an input image exists, in step S12, the frame memory 11 temporarily stores the input image, and immediately before the input image stored at the immediately preceding timing. The image is supplied to the motion vector estimator 12 and the motion compensation processor 13 as an image. By this processing, the input image and the immediately preceding image are supplied to the motion vector estimating unit 12 and the motion compensation processing unit 13, respectively, and only the input image is supplied to the error processing unit 14. Here, in the case where there is no previous image, in step S12, after storing the input image, the state in which the input image and the previous image can be supplied to the motion vector estimating unit 12 and the movement compensation processing unit 13. Since the process after step S13 cannot be realized until it becomes, the process returns to step S11.

스텝(S13)에서, 이동 벡터 추정부(12)는, 이동 벡터 추출 처리를 실행하고, 입력 화상의 각 화소마다 이동 벡터를 추출하고, 이동 보상처리부(13)에 공급함과 동시에, 이동 벡터가 추출될 때에 계산되는 차분 절대치합을 에러 처리부(14)에 공급한다.In step S13, the motion vector estimating unit 12 executes the motion vector extraction process, extracts the motion vector for each pixel of the input image, supplies it to the motion compensation processing unit 13, and simultaneously extracts the motion vector. The difference absolute value calculated at the time of supply is supplied to the error processing unit 14.

여기서, 도 3의 플로차트를 참조해 이동 벡터 추출 처리에 대해 설명한다.Here, the motion vector extraction process will be described with reference to the flowchart in FIG.

스텝(S31)에서, 차분 절대치합계산부(12a)는, 입력 화상에 있어서의 미처리된 화소를 처리 대상인 주목 화소 p(i,j)로 설정한다. 여기서,(i,j)는, 입력 화상의 화소의 위치를 나타내는 좌표이다.In step S31, the difference absolute value calculation unit 12a sets the unprocessed pixel in the input image to the pixel of interest p (i, j) as the processing target. Here, (i, j) is a coordinate indicating the position of the pixel of the input image.

스텝(S32)에서, 차분 절대치합계산부(12a)는, 직전 화상에 있어서의 미처리된 참조 화소 q(x,y)를, 주목 화소에 대한 참조 범위내에 설정한다. 즉, 예를 들면, 도 4의 사선부로 도시된 바와 같이, 입력 화상 F1에 있어서의 주목 화소 p(i,j)에 대응하는 직전 화상 F2의 참조 화소 q(x,y)를, 주목 화소 p(i,j)에 대응해 설정되며, 도 4의 일점 긴 점선으로 나타나는 참조 범위 Z내에 설정한다. 참조 범위 Z는, 주목 화소 p(i,j)가 이동 가능한 범위, 즉, 이동 벡터의 기점이 되는 주목 화소 p(i,j)로부터 종점으로서 성립할 수 있는 참조 화소 q(x,y)의 범위가 설정된다. 여기에서, 도 4의 상부의 화상 F1은 입력 화상을 나타내며, 화상 F2가 직전 화상을 나타내고 있다. 또, 화상 F11은 생성되는 MC화상을 나타내고 있다. 또한, 각 셀은 화소를 나타내며, (x,y)는 직전 화상의 화소의 위치를 나타내는 좌표이다.In step S32, the difference absolute value calculation unit 12a sets the unprocessed reference pixel q (x, y) in the immediately preceding image within the reference range for the pixel of interest. That is, for example, as shown by the oblique portion of FIG. 4, the reference pixel q (x, y) of the previous image F2 corresponding to the pixel of interest p (i, j) in the input image F1 is the pixel of interest p. It is set corresponding to (i, j) and is set within the reference range Z indicated by the one-dot long dotted line in FIG. The reference range Z is a range of the reference pixel q (x, y) that can be established as an end point from the range in which the pixel of interest p (i, j) is movable, that is, the pixel of interest p (i, j) that is the starting point of the motion vector. The range is set. Here, the image F1 in the upper part of FIG. 4 represents an input image, and the image F2 represents the immediately preceding image. Image F11 shows an MC image to be generated. In addition, each cell represents a pixel, and (x, y) is a coordinate representing the position of the pixel of the previous image.

스텝(S33)에서, 차분 절대치합계산부(12a)는, 주목 화소 p(i,j)에 대응하는 주목 블록 B와 참조 화소에 대응하는 참조 블록 B'를 구성하는 각 화소의 화소치를 추출한다. 즉, 도 4의 경우, 주목 화소 p(i,j)에 대응하는 주목 블록 B란, 입력 화상 F1에 태선으로 나타나는 범위의 복수의 화소로 구성되는 블록이며, 참조 화소 q(x,y)에 대응하는 참조 블록 B'란, 직전 화상 F2에 태선으로 나타나는 범위의 복수의 화소로 구성되는 블록이다. 도 4에서는, 주목 블록 B 및 참조 블록 B'가 각각 15개의 화소로 된 블록이다. In step S33, the difference absolute value calculating unit 12a extracts the pixel values of the respective pixels constituting the block of interest B corresponding to the pixel of interest p (i, j) and the reference block B 'corresponding to the reference pixel. That is, in the case of FIG. 4, the block of interest B corresponding to the pixel of interest p (i, j) is a block composed of a plurality of pixels in a range indicated by a solid line in the input image F1, and the block of reference pixels q (x, y) The corresponding reference block B 'is a block composed of a plurality of pixels in a range indicated by a solid line in the previous image F2. In Fig. 4, the block of interest B and the reference block B 'are blocks of 15 pixels each.

스텝(S34)에서, 차분 절대치합계산부(12a)는, 주목 블록 B 및 참조 블록 B'를 각각 대응하는 위치의 화소들간의 화소치의 차분 절대치합을 계산한다. 즉, 도 4의 경우, 차분 절대치합계산부(12a)는, 이하의 식(1)을 계산하여, 주목 화소 p(i,j)에 대한 차분 절대치합 d(S(i,j)를 구한다.In step S34, the difference absolute value calculation unit 12a calculates the difference absolute value difference of the pixel values between the pixels at positions corresponding to the block of interest B and the reference block B ', respectively. That is, in the case of FIG. 4, the difference absolute value calculation unit 12a calculates the following equation (1) to obtain the difference absolute value d (S (i, j)) for the pixel p (i, j) of interest.

d(S(i,j,x,y)=Σ|p(i-a,j-b)-q(x-a,y-b)|d (S (i, j, x, y) = Σ | p (i-a, j-b) -q (x-a, y-b) |

(a=-2,-1, 0, 1, 2 b=-1, 0, 1)...............(1)(a = -2, -1, 0, 1, 2 b = -1, 0, 1) ............... (1)

식(1)에서,Σ|A|는, 변수 a를 -2,-1, 0, 1, 2로, 변수 b를 -1, 0, 1로 각각 변화시킨 경우 절대치 A의 총합을 구하는 것을 나타내고 있다. 즉, 전 15개의 화소에 대해 각각의 화소치의 차분 절대치의 총합을 구하는 것을 나타내고 있다.In formula (1), Σ | A | indicates that the sum of the absolute values A is obtained when the variable a is changed to -2, -1, 0, 1, 2 and the variable b is changed to -1, 0, 1, respectively. have. That is, the sum total of the absolute difference value of each pixel value is calculated | required about all 15 pixels.

스텝(S35)에서, 차분 절대치합계산부(12a)는, 참조 범위 Z내에 미처리된 화 소가 존재하는지를 판정하고, 미처리된 화소가 있는 경우, 처리는 스텝(S32)으로 돌아온다. 즉, 주목 화소 p(i,j)에 대해서 설정된 참조 범위 Z내의 모든 화소에 대해서, 참조 화소 q(x,y)를 설정하고, 모든 화소에 대해서 차분 절대치합dS(i,j,x,y)을 구할 때까지, 스텝(S32) 내지 스텝(S35)의 처리가 반복된다. In step S35, the difference absolute value calculating unit 12a determines whether there is an unprocessed pixel within the reference range Z, and if there is an unprocessed pixel, the process returns to step S32. That is, the reference pixel q (x, y) is set for all the pixels in the reference range Z set for the pixel of interest p (i, j), and the absolute difference value dS (i, j, x, y) is set for all the pixels. ), The processing of steps S32 to S35 is repeated.

스텝(S35)에서, 참조 범위 Z내에 미처리된 화소가 존재하지 않는, 즉, 참조 범위 Z내의 모든 화소에 대해서 차분 절대치합이 구해진 경우, 처리는 스텝(S36)으로 진행된다.In step S35, when there is no unprocessed pixel in the reference range Z, that is, when the absolute absolute difference is obtained for all the pixels in the reference range Z, the process proceeds to step S36.

스텝(S36)에서, 비교부(12b)는, 주목 화소 p(i,j)에 대해서 구해진 모든 차분 절대치합 dS(i,j,x,y)를 비교하고, 최소가 되는 값을 가지는 최소 차분 절대치합 dSm을 결정하고, 차분 절대치합 dSm에 대응하는 최소 참조 화소 qm(x,y)를 구한다. 즉, 비교부(12b)는, 예를 들면, 도 5에 도시된 바와 같이, 횡축에 참조 화소 q(x,y)를 취하고, 세로축에 차분 절대치합 dS를 취하는 경우, 차분 절대치합 dS가 최소가 되는 참조 화소 q(x,y)를 최소 참조 화소 qm(x,y)로 하고, 그 때의 차분 절대치합을 최소 차분 절대치합 dSm으로 한다. 여기에서, 다음의 설명에서는, 이 최소 차분 절대치합 dSm을 입력 화상의 화소 p(i,j)에 대한 차분 절대치합이라고 칭하는 것으로 한다.In step S36, the comparison unit 12b compares all the difference absolute values dS (i, j, x, y) obtained for the pixel of interest p (i, j), and has a minimum difference having a minimum value. The absolute value dSm is determined, and the minimum reference pixel qm (x, y) corresponding to the difference absolute value dSm is obtained. That is, when the comparison unit 12b takes the reference pixel q (x, y) on the horizontal axis and takes the absolute absolute match dS on the vertical axis, as shown in FIG. 5, the difference absolute value dS is minimum. Let reference pixel q (x, y) be the minimum reference pixel qm (x, y), and let the absolute absolute difference at that time be the minimum differential absolute value dSm. Here, in the following description, this minimum difference absolute value dSm is referred to as a difference absolute value with respect to the pixel p (i, j) of the input image.

스텝(S37)에서, 이동 벡터 계산부(12c)는, 주목 화소 p(i,j) 및 최소 참조 화소 qm(x,y)의 정보에 근거하여, 이동 벡터 v(i,j)를 계산한다. 즉, 이동 벡터는, 이하의 식(2)로서 구하게되게 된다.In step S37, the motion vector calculation unit 12c calculates a motion vector v (i, j) based on the information of the pixel of interest p (i, j) and the minimum reference pixel qm (x, y). . That is, the motion vector is obtained by the following formula (2).

v(i,j)=(qmx-pi, qmy-pj).............(2)v (i, j) = (qmx-pi, qmy-pj) ....... (2)

여기에서, 식(2)에 대해서는, qmx가 qm(x,y)의 수평 방향의 좌표이며, qmy가 qm(x,y)의 수직 방향의 좌표이며, pi가 p(i,j)의 수평 방향의 좌표이며, pj가 p(i,j)의 수직 방향의 좌표이다 그러므로 식(2)는 이동 벡터 v(i,j)가, 입력 화상상의 화소 p(i,j)를 기점으로 하여, 직전 화상상의 화소 q( x,y)를 종점으로 하는 벡터라는 것을 나타내고 있다.Here, for equation (2), qmx is the horizontal coordinate of qm (x, y), qmy is the vertical coordinate of qm (x, y), and pi is the horizontal of p (i, j). Is a coordinate in the vertical direction, and pj is a coordinate in the vertical direction of p (i, j). Therefore, equation (2) indicates that the motion vector v (i, j) is based on the pixel p (i, j) on the input image. It shows that it is a vector which makes pixel q (x, y) on an immediately before image into an end point.

스텝(S38)에서, 비교부(12b)는, 최소 차분 절대치합 dSm을 주목 화소의 차분 절대치합 dSm으로서 에러 처리부(14)에 공급한다.In step S38, the comparison unit 12b supplies the minimum difference absolute value dSm to the error processing unit 14 as the difference absolute value dSm of the pixel of interest.

스텝(S39)에서, 이동 벡터 계산부(12c)는, 계산한 주목 화소 p(i,j)의 이동 벡터 v(i,j)를 이동 보상처리부(13)에 공급한다.In step S39, the motion vector calculation unit 12c supplies the calculated motion vector v (i, j) of the pixel of interest p (i, j) to the motion compensation processing unit 13.

스텝(S40)에서, 차분 절대치합계산부(12a)는, 입력 화상에 미처리된 화소가 존재하는지 아닌지를 판정하고, 미처리된 화소가 존재하는 경우, 처리는 스텝 (S31)으로 돌아온다. 즉, 입력 화상에 있어서의 모든 화소에 대해 이동 벡터 및 최소 차분 절대치합이 구해질 때까지, 스텝(S31) 내지 스텝(S40)의 처리가 반복된다. 스텝(S40)에서, 미처리된 화소가 존재하지 않는, 즉, 입력 화상의 모든 화소에 대해 이동 벡터가 구해진 경우, 처리는 종료한다.In step S40, the difference absolute value calculation unit 12a determines whether or not an unprocessed pixel exists in the input image, and when there is an unprocessed pixel, the process returns to step S31. That is, the processes of steps S31 to S40 are repeated until the motion vector and the absolute minimum difference value are obtained for all the pixels in the input image. In step S40, when no unprocessed pixel exists, that is, a motion vector is obtained for all the pixels of the input image, the process ends.

이상의 처리에 의해, 입력 화상의 각 화소에 대해서, 설정되는 주목 화소에 대응하는 주목 블록과 직전 화상상의 참조 화소로 설정되는 참조 블록의 각각의 대응하는 위치의 화소간의 차분 절대치합이 최소가 되는 참조 화소를 이동 벡터의 종점으로 설정하고, 주목 화소의 이동 벡터를 구하여, 입력 화상의 전화소에 대해 이동 벡터를 구하게 된다. 또, 입력 화상내의 각 화소에 대해 이동 벡터가 얻어 지는 경우에, 입력 화상에 있어서의 각 화소의에 대해 얻어지는 최소 차분 절대치 합은, 입력 화상에 있어서의 각 화소의 차분 절대치합 dSm으로서 에러 처리부(14)에 공급된다.By the above processing, for each pixel of the input image, a reference in which the absolute absolute difference between the pixels of the corresponding positions of the block of interest corresponding to the pixel of interest set and the reference block set to the reference pixel on the previous image is minimized. The pixel is set as the end point of the motion vector, the motion vector of the pixel of interest is obtained, and the motion vector is obtained for the phone of the input image. In addition, when a motion vector is obtained for each pixel in the input image, the minimum difference absolute value obtained for each pixel in the input image is the difference absolute value dSm of each pixel in the input image as an error processing unit ( 14).

여기서, 도 2의 플로차트의 설명으로 돌아온다.Here, it returns to description of the flowchart of FIG.

스텝(S13)에서, 이동 벡터 추출 처리가 종료하면, 스텝(S14)에서, 이동 보상처리부(13)는, 이동 보상처리를 실행하고, MC화상을 생성해 에러 처리부(14)에 공급한다.When the movement vector extraction process ends in step S13, in step S14, the movement compensation processing unit 13 executes the movement compensation process, generates an MC image, and supplies it to the error processing unit 14.

여기서, 도 6의 플로차트를 참조하고, 이동 보상처리에 대해 설명한다.Here, with reference to the flowchart of FIG. 6, the movement compensation process will be described.

스텝(S51)에서, 이동 보상처리부(13)는, 보간 생성하려고 하는 MC화상의 미처리된 화소를 주목 화소 P(s,t)로 설정한다.In step S51, the motion compensation processing unit 13 sets the unprocessed pixel of the MC image to be interpolated to be the pixel of interest P (s, t).

스텝(S52)에서, 벡터 해석부(13a)는, 이동 벡터 추정부(12)에서 공급되어 온 입력 화상의 이동 벡터를 해석하고, 주목 화소 P(s,t)를 통과하는 이동 벡터를 가지는 입력 화상상의 화소 p(i,j)를 검색한다.In step S52, the vector analyzing unit 13a analyzes the motion vector of the input image supplied from the motion vector estimating unit 12, and has an input having a motion vector passing through the pixel of interest P (s, t). The pixel p (i, j) on the image is searched.

즉, 예를 들면, 도 7에 도시한 바와 같이, 벡터 해석부(13a)는, MC화상 F11의 주목 화소 P(s,t)를 통과하는 이동 벡터 v(i,j)를 가지는, 화소 p(i,j)를 검색한다. 여기에서, 도 7에서는, 도 4를 참조해 설명한 것처럼 입력 화상 F1의 화소 p(i,j)중 한 화소에 대해 얻어지는 이동 벡터 v(i,j)가운데, MC화상 F11의 주목 화소 P(s,t)를 통과하는 것을 나타내고 있다.That is, for example, as shown in FIG. 7, the vector analyzing unit 13a has a pixel p having a motion vector v (i, j) passing through the pixel of interest P (s, t) of the MC image F11. Search for (i, j). Here, in FIG. 7, as described with reference to FIG. 4, the pixel P (s of interest P (s) of the MC image F11 is among the motion vectors v (i, j) obtained for one pixel among the pixels p (i, j) of the input image F1. , t).

스텝(S53)에서, 화소 생성부(13b)는, 구해진 입력 화상 F1의 화소 p(i,j)의 화소치를, 주목 화소 P(s,t)의 화소치로서 읽어들이고, MC화상 메모리(13c)에 기억 시킨다. 즉, 이 예에서, 화소 생성부(13b)는, 이동 벡터 v(i,j)의 기점이 되는 입력 화상 F1의 화소 p(i,j)의 화소를, MC화상 F11내의 주목 화소 P(s,t)의 화소치로서 단순하게 설정함으로써, 화소를 생성한다. 주목 화소 P(s,t)는 주목 화소 p(i,j)에 대응한다. 그러나, 이동 벡터 v(i,j)에 근거하여 결정되는 화소가 이용되는 한, 주목 화소 P(s,t)는 예를 들면, 이동 벡터 v(i,j)의 시점이 되는 화소 p(i,j) 및 종점이 되며, 직전 화상이 되는 화소 q(x,y)의 화소치의 평균 즉, (p+q)/2가 된다. p, q는, 각각 화소 p(i,j) 및 화소 q(x,y)의 화소치를 나타내며, 주목 화소 P(s,t)는 MC화상의 입력 화상간의 시간적인 거리와, MC 화상과 직전 화상과의 시간적인 거리에 의한 비율에 근거하여 얻어지는 가중 평균, 즉, 화소 p(i,j) 및 화소 q(x,y)의 화소치의 가중평균이 된다. 즉, w×p+(1-w)×q이다. p, q는, 각각 화소 p(i,j) 및 화소 q(x,y)의 화소치, w(0≤w≤1)는 가중 계수를 나타낸다.In step S53, the pixel generating unit 13b reads the pixel value of the obtained pixel p (i, j) of the input image F1 as the pixel value of the pixel P (s, t) of interest, and the MC image memory 13c Remember). That is, in this example, the pixel generating unit 13b selects the pixel of the pixel p (i, j) of the input image F1 which is the starting point of the motion vector v (i, j), and the pixel of interest P (s) in the MC image F11. By simply setting as a pixel value of, t), a pixel is generated. The pixel of interest P (s, t) corresponds to the pixel of interest p (i, j). However, as long as the pixel determined based on the motion vector v (i, j) is used, the pixel of interest P (s, t) is, for example, the pixel p (i which becomes the viewpoint of the motion vector v (i, j). , j) and the end point, and the average of the pixel values of the pixel q (x, y) to be the previous image, that is, (p + q) / 2. p and q represent pixel values of the pixel p (i, j) and the pixel q (x, y), respectively, and the pixel of interest P (s, t) is immediately before the MC image and the temporal distance between the input images of the MC image. The weighted average obtained based on the ratio by the temporal distance from the image, that is, the weighted average of the pixel values of the pixels p (i, j) and the pixel q (x, y). That is, w x p + (1-w) x q. p and q represent pixel values of the pixel p (i, j) and the pixel q (x, y), respectively, and w (0 ≦ w ≦ 1) represents a weighting coefficient.

스텝(S54)에서, 이동 보상처리부(13)는, 보간에 의해 생성하려고 하는 MC화상에 미처리된 화소가 존재하는지 아닌지를 판정하고, 예를 들면, 미처리된 화소가 존재하는 경우, 처리는 스텝(S51)으로 돌아온다. 즉, 보간에 의해 생성하려고 하는 MC화상의 모든 화소의 각각에 대해, MC 화상내의 화소의 화소치가 입력 화상내의 화소치로 대체되기까지, 스텝(S51) 내지 스텝(S54)의 처리가 반복된다. 입력 화상내의 화소치는, MC 화상의 각각을 통과하는 이동 벡터의 기점이 되는 입력화상의 화소이다. 스텝(S54)에서, 미처리된 화소가 존재하지 않는 경우, 즉, MC화상의 모든 화소의 각각에 대해, 입력 화상내의 화소치는 MC 화상의 각각을 통 과하는 이동 벡터의 기점이 되는 입력화상의 화소이고, MC 화상내의 화소의 화소치가 입력 화상내의 화소치로 대체되었다면, 스텝(S55)에서, 이동 보상처리부(13)는 MC화상 메모리(13c)에 기억되어 있는 MC화상의 데이터를 읽어내고 에러 처리부(14)에 공급한다.In step S54, the motion compensation processing unit 13 determines whether or not an unprocessed pixel exists in the MC image to be generated by interpolation. For example, when there is an unprocessed pixel, the process proceeds to step ( S51). That is, for each pixel of the MC image to be generated by interpolation, the processing of steps S51 to S54 is repeated until the pixel value of the pixel in the MC image is replaced with the pixel value in the input image. The pixel value in the input image is a pixel of the input image serving as a starting point of the motion vector passing through each of the MC images. In step S54, when there is no unprocessed pixel, that is, for each of all the pixels of the MC image, the pixel value in the input image is the pixel of the input image which is the starting point of the motion vector passing through each of the MC images. If the pixel value of the pixel in the MC image is replaced with the pixel value in the input image, in step S55, the motion compensation processing unit 13 reads out the data of the MC image stored in the MC image memory 13c and replaces the error processing unit ( 14).

이상의 처리에 의해, 이동 보상처리에 의해 입력 화상으로부터 이동 보상이 이루어진 MC화상이 생성되고, 에러 처리부(14)에 공급된다.By the above process, the MC image which the motion compensation was performed from the input image by the motion compensation process is produced | generated, and is supplied to the error processing part 14. As shown in FIG.

여기서, 도 2의 플로차트의 설명으로 돌아온다.Here, it returns to description of the flowchart of FIG.

스텝(S14)에서, 이동 보상처리가 실행되고, MC화상이 생성되면, 스텝(S15)에서, 에러 처리부(14)는, 이동 벡터 추정부(12)에서 공급되어 온 입력 화상의 각 화소에 있어서의 이동 벡터를 추출할 때에 얻어지는, 각 화소의 차분 절대치합에 근거하여, 에러 처리를 실행하고, 입력 화상 및 MC화상을 합성하여 출력 화상을 생성하여 표시부(2)에 표시한다.In step S14, when the motion compensation process is executed, and the MC image is generated, in step S15, the error processing unit 14 in each pixel of the input image supplied from the motion vector estimating unit 12. On the basis of the difference absolute value of each pixel obtained when extracting the motion vector of, the error processing is executed, the input image and the MC image are synthesized, and an output image is generated and displayed on the display unit 2.

여기서, 도 8의 플로차트를 참조하여, 에러 처리에 대해 설명한다.Here, error processing will be described with reference to the flowchart of FIG. 8.

스텝(S71)에서, 누적부(14a)는, 이동 벡터 추정부(12)에서 공급되어 오는 차분 절대치합(dSm)을 누적 가산한다. 차분 절대치합의 각각은, 이동 벡터의 기점 및 종점에 있어서의 주목 블록과 참조 블록내의 대응하는 화소 위치에서의 화소치 사에에서 얻어지게 된다. 에러 처리부(14)는, 예를 들면, 최대치만큼 최종 합계를 분할하여 정규화(normalization)를 실행한 후, 그 정규화된 값을 dSm 누적 가산 결과로서 MEL 산출부(14b)에 공급한다.In step S71, the accumulator 14a accumulates and adds the absolute difference value dSm supplied from the motion vector estimator 12. Each of the difference absolute values is obtained at pixel values at corresponding pixel positions in the target block and the reference block at the start and end points of the motion vector. The error processing unit 14 performs normalization by dividing the final total by the maximum value, for example, and then supplies the normalized value to the MEL calculation unit 14b as a dSm cumulative addition result.

스텝(S72)에서, MEL 산출부(14b)는, dSm 누적 가산 결과를 임계량 th1과 비 교하고, dSm 누적 가산 결과가 임계량 th1보다 작은지를 판정한다. 예를 들면, dSm 누적 가산 결과가 임계량 th1보다 작은 경우, 스텝(S73)에서, MEL 산출부(14b)는, MC화상의 평균 에러 레벨 MEL를 최소치로 설정하고, 합성부(14c)에 공급한다.In step S72, MEL calculation part 14b compares dSm accumulation addition result with the threshold amount th1, and determines whether dSm accumulation addition result is smaller than threshold amount th1. For example, when the dSm cumulative addition result is smaller than the threshold amount th1, in step S73, the MEL calculation unit 14b sets the average error level MEL of the MC image to the minimum value and supplies it to the combining unit 14c. .

한편, 스텝(S72)에서, 예를 들면, dSm 누적 가산 결과가 임계량 th1보다 작지 않은 경우, 스텝(S74)에서, MEL 산출부(14b)는, dSm 누적 가산 결과를 임계량th2(>th1)와 비교해, dSm 누적 가산 결과가 임계량 th2보다 큰지를 판정한다.On the other hand, in step S72, for example, when the dSm cumulative addition result is not smaller than the threshold amount th1, in step S74, the MEL calculation unit 14b matches the dSm cumulative addition result with the threshold amount th2 (> th1). In comparison, it is determined whether the dSm cumulative addition result is larger than the threshold amount th2.

스텝(S74)에서, 예를 들면, dSm 누적 가산 결과가 임계량 th2보다 큰 경우, 스텝(S75)에서, MEL 산출부(14b)는, MC화상의 평균 에러 레벨 MEL를 최대치로 설정하고, 합성부(14c)에 공급한다.In step S74, for example, when the dSm cumulative addition result is larger than the threshold amount th2, in step S75, the MEL calculation unit 14b sets the average error level MEL of the MC image to the maximum value, and the combining unit It supplies to 14c.

게다가, 스텝(S74)에서, 예를 들면, dSm 누적 가산 결과가 임계량 th2보다 크지 않은 경우, 스텝(S76)에서, MEL 산출부(14b)는, dSm 누적 가산 결과에 근거하여, 소정의 계수를 곱한 값을 평균 에러 레벨 MEL로서 산출하여 설정한 후, 합성부(14c)에 공급한다.In addition, in step S74, for example, when the dSm cumulative addition result is not larger than the threshold amount th2, in step S76, the MEL calculation unit 14b performs a predetermined coefficient based on the dSm cumulative addition result. The multiplied value is calculated and set as the average error level MEL, and then supplied to the combining unit 14c.

즉, 예를 들면, 도 9에 도시한 바와 같이, dSm 누적 가산 결과가 임계량 th1보다 작은 경우, 평균 에러 레벨 MEL은 최소치의 0으로 설정되고, dSm 누적 가산 결과가 임계량 th2보다 큰 경우, 평균 에러 레벨 MEL은 최대치의 MELmax로 설정된다. dSm 누적 가산 결과가 임계량 th1보다 작지 않고, dSm 누적 가산 결과가 임계량 th2보다 크지 않은 경우, 평균 에러 레벨 MEL은, dSm 누적 가산 결과에 대응하여 선형적으로 변화하는 0 내지 MELmax사이의 값으로 설정된다.That is, for example, as shown in FIG. 9, when the dSm cumulative addition result is smaller than the threshold amount th1, the average error level MEL is set to 0 of the minimum value, and when the dSm cumulative addition result is larger than the threshold amount th2, the average error. The level MEL is set to the maximum MELmax. If the dSm cumulative addition result is not smaller than the threshold amount th1 and the dSm cumulative addition result is not greater than the threshold amount th2, the average error level MEL is set to a value between 0 and MELmax that changes linearly in response to the dSm cumulative addition result. .

이와 같이, 평균 에러 레벨 MEL은, 화소치의 변화의 크기를 나타내는 차분 절대치합 dSm의 누적 가산치인 dSm 누적 가산 결과에 비례한 값으로 설정된다.In this way, the average error level MEL is set to a value proportional to the dSm cumulative addition result which is the cumulative addition value of the absolute difference sum dSm indicating the magnitude of the change in the pixel value.

예를 들면, 장면 변화가 발생하고, 화상내의 피사체가 너무 빨리 이동하여, 이동 벡터를 이용하는 피사체를 추적할 수 없는 연속된 화상의 경우, 도 10에 도시된 바와 같이, dSm 누적 가산 결과는 큰 값을 가지게 된다. 예를 들면, 장면 변화가 없고, 이동 벡터를 이용하는 프레임내에서 피사체가 추적될 수 있는 연속된 화상의 경우, 도 11에 도시된 바와 같이, dSm 누적 가산 결과는, 작은 값을 가지게 된다. 즉, 장면 변화가 없고, 이동 벡터를 이용하는 프레임내에서 피사체가 추적될 수 있는 연속된 화상의 경우, 도 11에 도시된 바와 같이, 프레임의 변화에 대해서, dSm 누적 가산 결과가 200에 근사한 값이 된다. 그러나, 장면 변화가 발생하고, 화상내의 피사체가 너무 빨리 이동하여, 이동 벡터를 이용하는 피사체를 추적할 수 없는 연속된 화상의 경우, 도 10에 도시된 바와 같이, dSm 누적 가산 결과는 1200에 근사한 값을 가지게 된다. 여기에서, 도 10과 도 11에서는, 횡축이 프레임 번호를 나타내고 있고, 세로축이 dSm 누적 가산 결과를 나타내고 있다. 또, 도 10과 도 1은 dSm 누적 가산 결과가 정규화에 이용되는 값을 일정하게 한 겨웅에 얻어지는 보기들을 나타내고 있다. For example, in the case of successive images in which a scene change occurs and the subject in the image moves so fast that the subject using the motion vector cannot be tracked, as shown in FIG. 10, the dSm cumulative addition result is a large value. Will have For example, in the case of continuous images in which there is no scene change and a subject can be tracked in a frame using a motion vector, as shown in FIG. 11, the dSm cumulative addition result has a small value. That is, in the case of continuous images in which there is no scene change and a subject can be tracked in a frame using a motion vector, as shown in FIG. do. However, in the case of continuous images in which a scene change occurs and the subject in the image moves so fast that the subject using the motion vector cannot be tracked, as shown in FIG. 10, the dSm cumulative addition result is a value approximated to 1200. Will have 10 and 11, the horizontal axis represents the frame number, and the vertical axis represents the dSm cumulative addition result. 10 and 1 show examples obtained in which dSm cumulative addition results in a constant value used for normalization.

즉, 이동 벡터가 설정되는 화소간의 화소치의 차분 절대치합의 최소치가 크고, 입력 화상과 직전 화상과의 차분이 큰 경우, 평균 에러 레벨 MEL은 커지게 된다. 그러므로, 이동 벡터의 신뢰도가 낮다고 생각할 수 있다. 평균 에러 레벨 MEL이 작으면, 이동 벡터가 설정되는 화소간의 화소치의 차분 절대치의 최소치가 작고, 입력 화상과 직전 화상과의 차분이 작아지므로, 이동 벡터에 의한 추 적이 어느 정도 충분히 이루어지므로, 이동 벡터의 신뢰도가 높다고 생각할 수 있다.That is, when the minimum absolute difference value of the pixel values between the pixels for which the motion vector is set is large and the difference between the input image and the previous image is large, the average error level MEL becomes large. Therefore, it can be considered that the reliability of the motion vector is low. If the mean error level MEL is small, the minimum value of the absolute difference value of the pixel value between the pixels to which the motion vector is set is small, and the difference between the input image and the previous image becomes small, so that the tracking by the motion vector is made to some extent, so that the motion vector Can be considered to have high reliability.

스텝(S77)에서, 합성부(14c)는, 평균 에러 레벨 MEL에 근거하여, 입력 화상과 MC화상내의 모든 대응하는 화소들을 합성하여, 합성 화상을 생성한다. 즉, 합성부(14c)는, 이하의 식(3)에서 나타나는 연산에 의해 각 화소를 합성한다.In step S77, the combining unit 14c synthesizes the input image and all corresponding pixels in the MC image based on the average error level MEL to generate a synthesized image. That is, the combining unit 14c synthesizes each pixel by the operation expressed by the following formula (3).

Pe=(P(i,j)×(MELmax-MEL)+p(i,j)×MEL)/MELmax..........(3)Pe = (P (i, j) × (MELmax-MEL) + p (i, j) × MEL) / MELmax .......... (3)

상술한 식(3)에서, Pe는, 합성에 의해 생성되는 화소를 나타내며, P(i,j)는 MC화상의 화소 P(i,j)의 화소치를, p(i,j)는 입력 화상의 화소 p(i,j)의 화소치를, MEL은 평균 에러 레벨을, MELmax는 평균 에러 레벨 MEL의 최대치를 각각 가리키고 있다.In the above formula (3), Pe denotes a pixel generated by synthesis, P (i, j) denotes a pixel value of the pixel P (i, j) of the MC image, and p (i, j) denotes an input image. The pixel value of the pixel p (i, j) is denoted by MEL as the average error level and MELmax as the maximum value of the average error level MEL.

스텝(S78)에서, 합성부(14c)는 합성 화상을 출력 화상으로서 표시부(2)에 출력한다.In step S78, the combining unit 14c outputs the synthesized image to the display unit 2 as an output image.

여기서, 도 2의 플로차트의 설명으로 돌아온다.Here, it returns to description of the flowchart of FIG.

스텝(S16)에서, 표시부(2)는 에러 처리부(14)에서 공급되어 온 출력 화상을 표시하고, 처리는 스텝(S11)으로 돌아와, 그 이후의 처리가 반복된다. In step S16, the display unit 2 displays the output image supplied from the error processing unit 14, the process returns to step S11, and the subsequent processing is repeated.

여기에서, 이상의 처리에 대해서는, 입력 화상과 직전 화상을 이용한 처리에 대해 설명해 왔지만, 타이밍이 다른 화상이면, 그 외의 화상이 사용될 수 있다. 예를 들면, 화상들은 입력 화상과 직후의 화상 또는, 2프레임전의 화상과 입력 화상이어도 좋다. 또, 입력 화상과 직전 화상과의 2개의 화상을 이용하는 보기를 설명해지만, 그 이상의 화상을 이용하도록 해도 좋다. 예를 들면, 입력 화 상, 직전 화상, 및 직후 화상을 이용한 처리가 실행될 수 있으며, 또한 4개 이상의 화상을 이용한 처리가 실행될 수 있다. Here, the above processing has been described for processing using an input image and a previous image, but other images can be used as long as the images have different timings. For example, the images may be an input image and an image immediately after the image, or images two frames before and an input image. Moreover, although the example which uses two images of an input image and the immediately before image is demonstrated, you may make it use more images. For example, processing using an input image, immediately preceding image, and immediately after image can be executed, and also processing using four or more images can be executed.

이상의 처리에 의해, 장면 변화가 없으므로 이동 벡터의 신뢰성의 높고, 피사체의 이동이 프레임내에서 이루어지는 화상에 대해서는, 이동 보상처리에 의해 생성된 MC화상을 포함한 비율이 높은 화상이 출력되고, 반대로, 장면 변화가 발생하고 또는 피사체의 이동이 프레임 외부의 영역으로 이동하므로, 이동 벡터를 이용하는 피사체의 이동을 추적하지 못하고, 이동 벡터의 신뢰도가 낮은 경우, 입력 화상을 포함한 비율이 높은 화상이 출력된다. 이 때문에, 이동 벡터의 신뢰성의 높은 화상에 대해서는, 이동 보상처리에 근거한 화상이 높은 비율로 보간에 의해 생성되어 표시되며 반대로, 이동 벡터의 신뢰성의 낮은 화상에 대해서는, 입력 화상이 높은 비율로 보간에 의해 생성된다. By the above process, since there is no scene change, an image with high reliability of the motion vector and a high ratio including the MC image generated by the motion compensation process is output to the image in which the movement of the subject is within the frame. Since a change occurs or the movement of the subject moves to an area outside the frame, if the movement of the subject using the movement vector is not tracked and the reliability of the movement vector is low, an image having a high ratio including the input image is output. Therefore, for images with high reliability of the motion vector, images based on the motion compensation process are generated and displayed by interpolation at a high rate. On the contrary, for images with low reliability of the motion vector, the input image is interpolated at a high ratio. Is generated by

결과적으로, 보간 화상을 생성하는 경우에, 왜곡되기 쉽고 휘도 변화가 큰 화상에서 얻어지는 이동 벡터를 이용한 이동 보상처리를 채택하는 보간 생성 처리에 대해서도, 보간에 의해 생성되는 화상의 왜곡을 억제하는 것이 가능해진다.As a result, in the case of generating the interpolation image, it is possible to suppress the distortion of the image generated by interpolation even for the interpolation generation process adopting the motion compensation process using the motion vector obtained from the image which is easily distorted and has a large luminance change. Become.

이상에 대해서는, 이동 벡터를 추출할 때, 이동 벡터의 기점이 되는 주목 화소에 대해서, 이동 벡터의 종점으로서 성립할 수 있는 범위내에 참조 화소를 설정하고, 대응하는 주목 블록과 참조 블록과의 각 화소간의 차분 절대치합을 구하는 것으로서, 최소가 되는 참조 화소를 이동 벡터의 종점 화소로서 설정하는, 2프레임간의 블록 매칭 예에 대해 설명해 왔다. 그러나, 주목 화소에 대한 참조 화소의 설정 범위를 작게 함으로써, 복수의 프레임에 대해 블록 매칭이 반복적으로 실행되 고, 주목 화소의 이동 벡터의 정확도가 점차적으로 개선될 수 있는, 프레임 순회형 블록 매칭에 대해서도, 같은 처리에 의해 보간 생성되는 화상의 왜곡을 억제할 수 있다.In the above, when the motion vector is extracted, the reference pixel is set within a range that can be established as the end point of the motion vector for the pixel of interest that is the starting point of the motion vector, and each pixel of the corresponding block of interest and the reference block is established. An example of block matching between two frames in which a minimum reference pixel is set as an end point pixel of a motion vector as a difference absolute value difference between two frames has been described. However, by reducing the setting range of the reference pixel with respect to the pixel of interest, block matching is repeatedly performed for a plurality of frames, and the accuracy of the motion vector of the pixel of interest can be gradually improved. Also, the distortion of the image interpolated by the same process can be suppressed.

도 12는, 프레임 순회형 블록 매칭에 의해 이동 벡터를 구하도록 설계된 다른 화상 처리 장치에 따르는 실시의 형태의 구성예를 나타내는 도면이다. 여기에서, 도 12의 화상 처리 장치(1)에서는, 도 1의 화상 처리 장치(1)에 설치된 것과 같은 기능을 갖추는 구성에 대해서는, 실제적으로 동일 명칭 및 부호를 부여하고, 그 설명은 생략하는 것으로 한다.12 is a diagram illustrating a configuration example of an embodiment according to another image processing apparatus designed to obtain a motion vector by frame traversal block matching. Here, in the image processing apparatus 1 of FIG. 12, the components having the same functions as those provided in the image processing apparatus 1 of FIG. 1 are actually given the same names and symbols, and the description thereof will be omitted. do.

즉, 도 12의 화상 처리 장치(1)가, 도 1의 화상 처리 장치(1)와 다른 것은, 이동 벡터 추정부(12) 및 에러 처리부(14) 대신에, 순회형 이동 벡터 추정부(111) 및 에러 처리부(112)를 배치한 점이다.That is, the image processing apparatus 1 of FIG. 12 is different from the image processing apparatus 1 of FIG. 1, instead of the motion vector estimating unit 12 and the error processing unit 14, the cyclic motion vector estimating unit 111. ) And the error processing unit 112.

순회형 이동 벡터 추정부(111)은, 차분 절대치합계산부(111a), 비교부(111b) 및 이동 벡터 계산부(111c)를 갖추고 있고, 기본적으로 이동 벡터 추정부(12)와 같은 처리를 실행하지만, 상술한 것처럼 이동 벡터를 추출할 때, 주목 화소에 대한 참조 화소의 설정 범위를 작게하여, 주목 화소의 화소 위치에 대응하는 근방의 범위를 커버하고 있다. 이 때문에, 순회형 이동 벡터 추정부(111)는, 이동 벡터 추정부(12)와 비교해서, 2프레임의 화상내에서, 정확한 이동 벡터의 종점이 되는 참조 화소를 검출할 수 있을 가능성이 낮기 때문에, 올바른 이동 벡터를 추출할 수 있을 가능성이 낮다. 이 때문에, 순회형 이동 벡터 추정부(111)는, 복수의 프레임사이에서 같은 처리를 순회적으로 반복하여, 서서히 올바른 이동 벡터를 구한 다.The cyclic motion vector estimating unit 111 includes a difference absolute value calculating unit 111a, a comparing unit 111b, and a motion vector calculating unit 111c, and basically executes the same process as the motion vector estimating unit 12. However, as described above, when the motion vector is extracted, the setting range of the reference pixel for the pixel of interest is made small so as to cover the range corresponding to the pixel position of the pixel of interest. For this reason, since the cyclic type motion vector estimator 111 is unlikely to be able to detect a reference pixel which is the end point of the correct motion vector in the image of two frames, compared with the motion vector estimator 12. It is unlikely that you will be able to extract the correct motion vector. For this reason, the cyclic type motion vector estimating unit 111 repeats the same process repeatedly between a plurality of frames, and gradually obtains a correct motion vector.

에러 처리부(112)는, 누적부(112a), MEL 산출부(112b), 비교부(112c), 가산부(112d) 및 합성부(112e)를 갖추고 있다. 이들 중, 누적부(112a), MEL 산출부(112b) 및 합성부(112e)에 대해서는, 에러 처리부(14)의 누적부(14a), MEL 산출부(14b) 및 합성부(14c)와 각각 같은 처리를 실행한다. 다만, 이후의 설명에서, MEL 산출부(112b)는, MEL 산출부(14b)에서 구할 수 있던 평균 에러 레벨 MEL의 표현을, 입력 화상의 평균 에러 레벨 MELc라고 표현하는 것으로 한다. 비교부(112c)는, 가산기(112d)를 이용하여 직전 화상에 있어서의 평균 에러 레벨 MELp에서 소정치 m만큼 감산된 값(MELp-m)과, 입력 화상에 있어서의 평균 에러 레벨 MELc를 비교한다. 비교부(112c)는, 값(MELp-m)과 평균 에러 레벨 MELc중 큰 쪽의 값을 입력 화상의 평균 에러 레벨 MELc로서 합성부(112e)에 출력함과 동시에, 입력 화상의 평균 에러 레벨 MELc를 직전 화상의 평균 에러 레벨 MELp로서 기억한다. 이후의 처리에서, 기억되어 있는 직전 화상의 평균 에러 레벨 MELp를 가산기(112d)에 출력한다. 합성부(112e)는, 입력 화상의 평균 에러 레벨 MELc에 근거하여, 입력 화상과 MC화상을 합성하고, 표시부(2)에 출력하여 표시시킨다.The error processor 112 includes an accumulator 112a, an MEL calculator 112b, a comparator 112c, an adder 112d, and a combiner 112e. Among these, about the accumulator 112a, the MEL calculator 112b, and the combiner 112e, the accumulator 14a, the MEL calculator 14b, and the combiner 14c of the error processor 14 are respectively. Do the same. In the following explanation, however, the MEL calculator 112b expresses the expression of the average error level MEL obtained by the MEL calculator 14b as the average error level MELc of the input image. The comparing unit 112c compares the value MELp-m subtracted by the predetermined value m from the average error level MELp in the previous image using the adder 112d, and the average error level MELc in the input image. . The comparing unit 112c outputs the larger value of the value MELp-m and the average error level MELc to the combining unit 112e as the average error level MELc of the input image, and at the same time, the average error level MELc of the input image. Is stored as the average error level MELp of the previous image. In the subsequent processing, the average error level MELp of the immediately preceding image stored is output to the adder 112d. The combining unit 112e synthesizes the input image and the MC image based on the average error level MELc of the input image, and outputs the displayed image to the display unit 2 for display.

다음에, 도 12의 화상 처리 장치(1)에 의한 화상 처리에 대해 설명한다. 여기에서, 기본적인 화상 처리에 대해서는, 도 2의 플로차트를 참조해 설명한 처리와 같으므로, 도 2의 플로차트의 설명에 대해서는 생략한다. 도 12의 화상 처리 장치(1)의 화상 처리가, 도 1의 화상 처리 장치(1)에 의한 화상 처리와 다른 것은, 도 2의 플로차트에 있어서의 처리의 이동 벡터 추출 처리 및 에러 처리이다. 그러 므로, 도 12의 화상 처리 장치(1)에 의한 이동 벡터 추출 처리 및 에러 처리에 대해 아래에서 설명한다.Next, image processing by the image processing apparatus 1 of FIG. 12 will be described. Here, the basic image processing is the same as the processing described with reference to the flowchart of FIG. 2, and therefore the description of the flowchart of FIG. 2 is omitted. The image processing of the image processing apparatus 1 of FIG. 12 differs from the image processing of the image processing apparatus 1 of FIG. 1 in the motion vector extraction processing and the error processing of the processing in the flowchart of FIG. 2. Therefore, the motion vector extraction processing and the error processing by the image processing apparatus 1 of FIG. 12 will be described below.

우선, 도 13의 플로차트를 참조하여, 도 12의 화상 처리 장치(1)에 의한 이동 벡터 추출 처리에 대해 설명한다. 여기에서, 도 13의 플로차트에 있어서의 스텝(S101, S106 내지 S110)의 처리는, 도 3의 플로차트를 참조해 설명한 스텝(S31, S36 내지 S40)의 처리와 같으므로, 그 설명은 생략하는 것으로 한다.First, with reference to the flowchart of FIG. 13, the motion vector extraction process by the image processing apparatus 1 of FIG. 12 is demonstrated. Here, the processing of steps S101 and S106 to S110 in the flowchart of FIG. 13 is the same as the processing of steps S31 and S36 to S40 described with reference to the flowchart of FIG. 3, and therefore the description thereof will be omitted. do.

즉, 스텝(S102)에서, 차분 절대치합계산부(111a)는, 직전 화상에 있어서의 미처리된 참조 화소 q(x,y)를, 주목 화소에 대한 순회형 참조 범위내에 설정한다. 즉, 순회형 참조 범위란, 예를 들면, 도 14의 사선부로 도시한 바와 같이 정의되어 있으며, 입력 화상 F1의 주목 화소 p(i,j)에 대응하는 직전 화상 F2내의 참조 화소 q(x,y)를 포함하는 참조 범위 Z'이다. 순회형 참조 범위인 참조 범위 Z'는, 주목 화소 p(i,j)가 이동 가능한 범위, 즉, 이동 벡터의 기점이 되는 주목 화소 p(i,j)로부터 종점으로서 성립할 수 있는 참조 화소 q(x,y)의 범위의 일부이며, 도 4를 참조하여 비교하면, 참조 범위 Z'는 주목 화소 p(i,j)의 화소 위치에 대응하는 위치의 근방을 커버하고 있다. 즉, 도 14에서는, 주목 화소 p(i,j)의 위치에 대응하는 위치를 포함하는 영역과, 주목 화소 p(i,j)의 위치에 대응하는 상하 좌우 방향의 2화소까지의 범위가, 순회형 참조 범위로서 설정되어 있다.That is, in step S102, the difference absolute value calculating section 111a sets the unprocessed reference pixel q (x, y) in the immediately preceding image within the circular reference range for the pixel of interest. That is, the circular reference range is defined, for example, as shown by the oblique portion in FIG. 14, and refers to the reference pixel q (x, x) in the immediately preceding image F2 corresponding to the pixel of interest p (i, j) of the input image F1. a reference range Z 'including y). The reference range Z 'which is the circular reference range is a reference pixel q that can be established as an end point from a range in which the pixel of interest p (i, j) is movable, that is, the pixel of interest p (i, j) that is the starting point of the motion vector. It is a part of the range of (x, y), and compared with reference to FIG. 4, the reference range Z 'covers the vicinity of the position corresponding to the pixel position of the pixel of interest p (i, j). That is, in FIG. 14, a region including a position corresponding to the position of the pixel of interest p (i, j), and a range up to two pixels in the up, down, left, and right directions corresponding to the position of the pixel of interest p (i, j), It is set as a traversal reference range.

여기에서, 도 14에서, 도 14의 상부의 화상 F1이 입력 화상을 나타내며, 화상 F2가 직전 화상을 나타내고 있다. 또, 화상 F11은, 생성되는 MC화상을 나타내고 있다. 또, 각 셀은, 화소를 나타내며, (x,y)는 직전 화상의 화소의 위치 를 나타내는 좌표이다.Here, in FIG. 14, the image F1 in the upper portion of FIG. 14 represents the input image, and the image F2 represents the immediately preceding image. Moreover, image F11 has shown the generated MC image. Each cell represents a pixel, and (x, y) is a coordinate representing the position of the pixel of the previous image.

스텝(S103)에서, 차분 절대치합계산부(111a)는, 주목 화소 p(i,j)에 대응하는 주목 블록 B와 참조 화소에 대응하는 참조 블록 B'를 구성하는 각 화소의 화소치를 추출한다. 즉, 도 14의 경우, 주목 화소 p(i,j)에 대응하는 주목 블록 B란, 입력 화상 F1에 태선으로 나타나는 범위의 복수의 화소로 구성되는 블록이며 참조 화소 q(x,y)에 대응하는 참조 블록 B'란, 직전 화상 F2에 태선으로 나타나는 범위의 복수의 화소로 구성블록이다. 도 14에서, 주목 블록 B 및 참조 블록 B'가 각각 15개의 화소로 구성되어 있다.In step S103, the difference absolute value calculating section 111a extracts the pixel values of each pixel constituting the block of interest B corresponding to the pixel of interest p (i, j) and the reference block B 'corresponding to the reference pixel. That is, in the case of FIG. 14, the block of interest B corresponding to the pixel of interest p (i, j) is a block composed of a plurality of pixels in a range indicated by a solid line in the input image F1 and corresponds to the reference pixel q (x, y). The reference block B 'to be described is a block composed of a plurality of pixels in a range indicated by a solid line in the previous image F2. In Fig. 14, the block of interest B and the reference block B 'are each composed of 15 pixels.

스텝(S104)에서, 차분 절대치합계산부(111a)는, 주목 블록 B 및 참조 블록 B'를 각각 대응하는 위치의 화소간의 화소치의 차분 절대치합을, 상술한 식(1)에 의해 계산한다.In step S104, the difference absolute value calculation unit 111a calculates the difference absolute value difference of the pixel values between the pixels at positions corresponding to the block of interest B and the reference block B ', respectively, by the above-described equation (1).

스텝(S105)에서, 차분 절대치합계산부(111a)는, 참조 범위 Z'내에 미처리된 화소가 존재하는지 아닌지를 판정하고, 미처리된 화소가 있는 경우, 처리는 스텝 (S102)으로 돌아온다. 즉, 주목 화소 p(i,j)에 대해서 설정된 참조 범위 Z'내의 모든 화소에 대해서, 참조 화소 q(x,y)를 설정하고, 모든 화소에 대해서 차분 절대치합 d(S(i,j,x,y)를 구할 때까지, 스텝(S102 내지 S105)의 처리가 반복된다.In step S105, the difference absolute value calculating section 111a determines whether or not an unprocessed pixel exists in the reference range Z ', and if there is an unprocessed pixel, the process returns to step S102. That is, the reference pixel q (x, y) is set for all the pixels in the reference range Z 'set for the pixel of interest p (i, j), and the difference absolute value d (S (i, j, The process of steps S102 to S105 is repeated until x, y is obtained.

이상의 처리에 의해, 참조 범위내의 모든 참조 화소에 대해 주목 화소의 화소간 차분 절대치합이 구해지며, 구해진 화소간 차분 절대치합이 최소가 되는 참조 화소가, 주목 화소에 있어서의 이동 벡터의 종점으로서 결정된다. 주목 화소가 기점이 되고, 참조 화소가 종점이 되는 이동 벡터가 주목 화소의 이동 벡터로서 결 정된다.Through the above processing, the absolute difference between the pixels of the pixel of interest is obtained for all the reference pixels within the reference range, and the reference pixel at which the obtained absolute difference between the pixels is minimum is determined as the end point of the motion vector in the pixel of interest. do. The motion vector of which the pixel of interest becomes the starting point and the reference pixel is the end point is determined as the motion vector of the pixel of interest.

여기에서, 이 처리에 대해서는, 도 14를 참조해 설명한 것처럼, 참조 범위 Z'가 도 4를 참조해 설명한 참조 범위 Z보다 작고, 주목 화소의 화소 위치에 대응하는 근방의 범위를 포함하므로, 2프레임간에 구해지는 이동 벡터의 정확도는 낮아지게 된다. 그렇지만, 같은 처리가 복수의 프레임에 대해서 순회적으로 반복되므로, 이동 벡터의 종점이 되는 참조 화소의 위치는, 올바른 이동 벡터의 종점 위치에 가까워지게 된다.In this process, as described with reference to FIG. 14, since the reference range Z 'is smaller than the reference range Z described with reference to FIG. 4 and includes a near range corresponding to the pixel position of the pixel of interest, two frames are provided. The accuracy of the motion vector found in the liver becomes low. However, since the same processing is repeated for a plurality of frames, the position of the reference pixel which is the end point of the motion vector becomes close to the end point position of the correct motion vector.

다음에, 도 15의 플로차트를 참조하여, 도 12의 화상 처리 장치(1)에 의한 에러 처리에 대해 설명한다. 여기에서, 도 15의 플로차트에 있어서의 스텝 (S121 내지 S126)의 처리는, 도 8의 플로차트를 참조해 설명한 스텝(S71 내지 S76)의 처리와 같으므로, 그 설명은 생략한다. 다만, 도 15의 플로차트의 스텝(S1 23, S125, S126)에서 구할 수 있는 입력 화상의 평균 에러 레벨 MELc는, 도 8의 스텝(S73, S75, S76)에서 구할 수 있는 입력 화상의 평균 에러 레벨 MEL과 같은 것이다.Next, with reference to the flowchart of FIG. 15, the error process by the image processing apparatus 1 of FIG. 12 is demonstrated. Here, since the processing of steps S121 to S126 in the flowchart of FIG. 15 is the same as the processing of steps S71 to S76 described with reference to the flowchart of FIG. 8, the description thereof is omitted. However, the average error level MELc of the input image that can be obtained in steps S1 23, S125, and S126 of the flowchart of FIG. 15 is the average error level of the input image that can be obtained in steps S73, S75, and S76 of FIG. 8. It is the same as MEL.

즉, 스텝(S123, S125, S126)에서, 입력 화상의 평균 에러 레벨 MELc가 구해지면, 스텝(S127)에서, 비교부(112c)는, 직전 화상의 처리 시에 기억하고 있는, 평균 에러 레벨 MELp에서 소정치 m만큼 감산한 값(MELp-m)과 입력 화상의 평균 에러 레벨 MELc를 비교하고, 직전 화상의 평균 에러 레벨 MELp에서 소정치 m만큼 감산한 값(MELp-m)이 입력 화상의 평균 에러 레벨 MELc보다 큰 지를 판정한다.In other words, when the average error level MELc of the input image is obtained in steps S123, S125, and S126, in step S127, the comparison unit 112c stores the average error level MELp that is stored at the time of processing the previous image. Compares the value MELp-m subtracted by the predetermined value m with the average error level MELc of the input image, and the value MELp-m subtracted by the predetermined value m from the average error level MELp of the immediately preceding image is the average of the input image. It is determined whether the error level is greater than MELc.

스텝(S127)에서, 예를 들면, 직전 화상의 평균 에러 레벨 MELp에서 소정치 m 만큼 감산한 값(MELp-m)이 입력 화상의 평균 에러 레벨 MELc보다 크다고 판정되었을 경우, 스텝(S128)에서, 비교부(112c)는, 입력 화상의 평균 에러 레벨 MELc를, 직전 화상의 평균 에러 레벨 MELp에서 소정치 m만큼 감산한 값(MELp-m)으로 대체하여 합성부(112e) 및 가산기(112d)에 출력한다.In step S127, for example, when it is determined that the value MELp-m subtracted by the predetermined value m from the average error level MELp of the immediately preceding image is larger than the average error level MELc of the input image, in step S128, The comparing unit 112c replaces the average error level MELc of the input image with the value MELp-m subtracted by the predetermined value m from the average error level MELp of the immediately preceding image, to the combining unit 112e and the adder 112d. Output

한편, 스텝(S127)에서, 예를 들면, 직전 화상의 평균 에러 레벨 MELp에서 소정치 m만큼 감산한 값(MELp-m)이 입력 화상의 평균 에러 레벨 MELc보다 크지 않다고 판정되었을 경우, 스텝(S129)에서, 비교부(112c)는, 입력 화상의 평균 에러 레벨 MELc를 그대로 합성부(112e) 및 가산기(112d)에 출력한다.On the other hand, in step S127, for example, when it is determined that the value MELp-m subtracted by the predetermined value m from the average error level MELp of the immediately preceding image is not larger than the average error level MELc of the input image, step S129. ), The comparing unit 112c outputs the average error level MELc of the input image to the combining unit 112e and the adder 112d as it is.

스텝(S130)에서, 합성부(112e)는, 평균 에러 레벨 MELc에 근거하여, 입력 화상과 MC화상의 각각 대응하는 모든 화소를, 상술한 식(3)에서 나타나는 연산에 의해 합성하고, 합성 화상을 생성한다. 다만, 스텝(S130)에서는, 상술한 식(3)의 연산에서, 평균 에러 레벨 MEL 대신에, 평균 에러 레벨 MELc가 이용된다.In step S130, the combining unit 112e synthesizes all the pixels corresponding to each of the input image and the MC image, respectively, based on the average error level MELc by the operation shown in the above formula (3), and the synthesized image. Create In step S130, however, the average error level MELc is used in place of the average error level MEL in the above calculation (3).

스텝(S131)에서, 합성부(112e)는, 합성 화상을 출력 화상으로서 표시부(2)에출력한다.In step S131, the combining unit 112e outputs the synthesized image to the display unit 2 as an output image.

스텝(S132)에서, 가산기(112d)는, 공급된 입력 화상의 평균 에러 레벨 MELc를, 이후의 처리에서 직전 화상의 평균 에러 레벨 MELp로서 취급함과 동시에, 소정치 m만큼 감산한 값(MELp-m)을 연산해 비교부(112c)에 공급하여 기억시킨다.In step S132, the adder 112d treats the average error level MELc of the supplied input image as the average error level MELp of the immediately preceding image in the subsequent processing and subtracts by a predetermined value m (MELp−). m) is calculated and supplied to the comparator 112c for storage.

이상의 처리에 의해, 입력 화상의 평균 에러 레벨이 급격하게 커져, 안정되기까지 소정의 시간이 필요한 경우에도, 입력 화상의 평균 에러 레벨 MELc와 직전 화상의 평균 에러 레벨보다 약간 작은 값(MELp-m)을 비교하여 큰 족을 선택함으로 써, 입력 화상의 평균 에러 레벨 MELc가 서서히 저하된다. 입력 화상의 평균 에러 레벨 MELc의 상태가 안정될 때까지는, 입력 화상의 합성비가 증가되므로, 왜곡이 생길 가능성의 높은 MC화상의 합성비를 저감시킬 수 있다.By the above process, even when the average error level of an input image becomes large rapidly and predetermined time is required until it stabilizes, the value (MELp-m) slightly smaller than the average error level MELc of an input image and the average error level of the previous image. By comparing with and selecting a large group, the average error level MELc of the input image is gradually lowered. Until the state of the average error level MELc of the input image is stabilized, the synthesis ratio of the input image is increased, so that the synthesis ratio of MC images having a high probability of distortion can be reduced.

예를 들면, 도 16에 도시한 바와 같이, 제 1프레임 내지 제 4프레임이 연속적인 화상이며, 제 5프레임에 대해 장면 변화가 발생하더라도, 제 6프레임 내지 제 13프레임에 대해서는, 서서히 입력 화상의 평균 에러 레벨 MELc가 저감된다. 그리고, 제 14프레임 내지 제 16프레임에서, 연속적인 화상이 입력되고 예를 들면, 제 17프레임에서, 이동 벡터의 신뢰성이 저하되고, 평균 에러 레벨이 상승해도, 제18프레임 내지 제 21프레임에서는, 역시 단계적으로 입력 화상의 평균 에러 레벨이 저감되고, 제 21프레임 이후에는, 입력 화상의 평균 에러 레벨이 안정되어 있는 것이 나타나고 있다.For example, as shown in FIG. 16, even if the first to fourth frames are continuous images, and even if a scene change occurs for the fifth frame, for the sixth to thirteenth frames, the input image is gradually changed. The average error level MELc is reduced. And in the 14th to 16th frames, continuous images are input, for example, in the 17th frame, in the 18th to 21st frames, even if the reliability of the motion vector is lowered and the average error level is increased, Again, the average error level of the input image is reduced step by step, and after the twenty-first frame, it is shown that the average error level of the input image is stable.

특히, 프레임 순회형 블록 매칭에 의해 이동 벡터를 구하는 경우, 이동 벡터의 정확도는 서서히 개선된다. 그러므로, 올바른 이동 벡터가 얻어지기까지 몇 개의 프레임을 표시할 수 있는 소정의 시간이 필요하다. 이 때문에, 장면 변화가 발생하더라도, 이동 벡터가 안정되기까지 소정의 시간이 필요하며, 그 사이는 MC화상에 왜곡이 보이게 된다.In particular, when a motion vector is obtained by frame traversal block matching, the accuracy of the motion vector is gradually improved. Therefore, some time is required to display several frames until the correct motion vector is obtained. For this reason, even if a scene change occurs, a predetermined time is required before the motion vector is stabilized, and distortion is seen in the MC image therebetween.

그러므로, 상술한 것처럼, 입력 화상의 평균 에러 레벨의 감쇠 속도를 늦추어, 왜곡된 MC화상의 합성비를 서서히 저감시키고, 입력 화상을 표시하여, 자연스럽게 화상을 표시하는 것이 가능해진다.Therefore, as described above, it is possible to slow down the attenuation speed of the average error level of the input image, gradually reduce the composition ratio of the distorted MC image, display the input image, and display the image naturally.

여기에서, 소정치 m의 설정에 의해, 입력 화상의 평균 에러 레벨 MELc가 안 정될 때까지의 시간을 설정할 수 있다. 만약 소정치 m을 크게 하면, 평균 에러 레벨 MELc의 감쇠는 빠르지만, 왜곡된 MC화상이 표시될 가능성이 높아진다. 한편, 소정치 m을 작게 하면, 평균 에러 레벨 MELc의 감쇠는 늦지만, 왜곡된 MC화상이 표시될 가능성이 저감된다. 이와 같이, 소정치 m은, 평균 에러 레벨 MELc의 감쇠율을 결정하는 완화시간이라고 생각할 수 있으므로, 필요에 따라서 소정치 m을 설정하여, MC화상과 입력 화상과의 합성을 제어하도록 해도 좋다.Here, by setting the predetermined value m, the time until the average error level MELc of the input image is stabilized can be set. If the predetermined value m is made large, the attenuation of the average error level MELc is fast, but the possibility of displaying a distorted MC image is high. On the other hand, when the predetermined value m is reduced, the attenuation of the average error level MELc is slow, but the possibility of displaying a distorted MC image is reduced. Thus, since the predetermined value m can be considered to be a relaxation time for determining the attenuation rate of the average error level MELc, the predetermined value m may be set as necessary to control the composition of the MC image and the input image.

또, 도 1의 화상 처리 장치(1)에 있어서의 에러 처리부(14) 대신에, 에러 처리부(112)를 배치하고, 2프레임간의 화소간 차분 절대치합을 이용해 이동 벡터를 구하는 경우에도, 평균 에러 레벨의 감쇠를 늦추고, 왜곡 가능성이 높은 MC화상의 합성비를 저감시키도록 해도 좋다.In addition, instead of the error processing part 14 in the image processing apparatus 1 of FIG. 1, the error processing part 112 is arrange | positioned, and even if a motion vector is calculated | required using the absolute difference value between the pixels between two frames, an average error The attenuation of the level may be delayed and the synthesis ratio of the MC image having high distortion potential may be reduced.

어느 경우에도, 결과적으로, 보간 화상을 생성하는 경우에, 왜곡이 발생되기 쉽고 휘도 변화가 큰 화상에 있어서의 이동 벡터를 이용하는 이동 보상처리를 채택하는 보간 생성 처리에 대해서도, 보간 생성되는 화상의 왜곡을 억제하는 것이 가능하게 된다. 그리고, 프레임 순회형 블록 매칭이 실행되는 이동 벡터 추출 수법과 같이 입력 화상의 평균 에러 레벨이 크게 변화하는 수법을 이용해도, MC화상의 왜곡을 억제하는 것이 가능해진다.In any case, as a result, in the case of generating the interpolation image, the interpolation generation processing adopting the motion compensation process using the motion vector in the image where distortion is likely to occur and the luminance change is large is also distorted. Can be suppressed. The distortion of the MC image can be suppressed even if a method in which the average error level of the input image is greatly changed, such as a motion vector extraction method in which frame-cyclic block matching is performed.

상기에서, 프레임 순회형 블록 매칭에서는, MC 화상내의 왜곡이 장면 변화가 발생하는 경우, 특히 발생되는 비연속적인 화상들에 대해서 정확한 이동 벡터를 얻기 위한 소정의 시간이 요구되더라도, 평균 에러 레벨의 감쇠 속도를 늦추어 MC 화상내의 왜곡이 억제되는 보기들이 기술되었다. 여기에서는, 정확한 이동 벡터 를 얻기 위한 소정의 시간이 단축될 수 있다. In the above, in frame traversal block matching, the average error level is attenuated even if a distortion in the MC picture requires a predetermined time to obtain an accurate motion vector, especially when the scene change occurs, especially for the discontinuous pictures that are generated. Examples have been described in which the speed is slowed down and distortion in the MC image is suppressed. Here, the predetermined time for obtaining the correct motion vector can be shortened.

도 17은 정확한 이동 벡터를 얻기 위한 시간을 감소시킬 수 있는 화상 처리 장치의 다른 실시예에 따르는 대표적인 보기를 도시하고 있다. 상기 화상 처리 장치는 프레임 순회형 블록 매칭에 의해 이동 벡터를 얻기 위해 이용된다. 여기에서, 도 17에 도시된 화상 처리 장치에서는, 도 1에 도시된 화상 처리 장치에 공급된 기능과 실제적으로 실제적으로 동일한 기능을 가지는 소자들에 대해서는 실제적으로 동일한 부호를 부여하고 실제적으로 동일한 부호로 표시하였다. 그에 대한 설명은 필요에 따라 생략될 것이다. 17 shows an exemplary view according to another embodiment of an image processing apparatus that can reduce the time for obtaining an accurate motion vector. The image processing apparatus is used to obtain a motion vector by frame traversal block matching. Here, in the image processing apparatus shown in FIG. 17, elements having substantially the same function as those supplied to the image processing apparatus shown in FIG. Indicated. Descriptions thereof will be omitted as necessary.

즉, 도 17의 화상 처리 장치와 도 1의 화상 처리 장치가 다른 점은, 순회형 이동 벡터 추정부(131)와 에러 처리부(132)가, 이동 벡터 추정부(12)와 에러 차리부(14)대신에 배치되어 있다는 점이다. That is, the difference between the image processing apparatus of FIG. 17 and the image processing apparatus of FIG. 1 is that the cyclic type motion vector estimating unit 131 and the error processing unit 132 have a motion vector estimating unit 12 and an error difference unit 14. Is instead placed.

순회형 이동 벡터 추정부(131)는, 차분 절대치합계산부(131a), 비교부(131b) 및 이동 벡터 계산부(131c)와 이동 벡터 재설정부(131d)를 갖추고 있다, 이들 중에서, 차분 절대치합계산부(131a), 비교부(131b) 및 이동 벡터 계산부(131c)는, 도 12를 참조하여 기술된 화상 처리 장치에서, 순회형 이동 벡터 추정부(111)의 차분 절대치합계산부(111a), 비교부(111b) 및 이동 벡터 계산부(111c)에 의해 실행되는 것과 실제적으로 실제적으로 동일한 처리들을 수행한다. 게다가, 에러 처리부(132)에서 공급되는 재설정 신호에 따라, 반복적으로 추정되는 이동 벡터(0의 이동량을 가지는 정지 벡터가 되는 이동 벡터)를 재설정한다. 즉, 순회형 이동 벡터 추정부(131)는, 순회형 이동 벡터 추정부(111)에 의해 실행되는 것과 실제적으 로 동일한 처리들을 실행하고 재설정 신호에 따라 이동 벡터를 재설정 한다. The cyclic type motion vector estimating unit 131 includes a difference absolute value calculating unit 131a, a comparison unit 131b, a motion vector calculating unit 131c, and a motion vector resetting unit 131d, among which the difference absolute value totals are included. The calculation unit 131a, the comparison unit 131b, and the motion vector calculation unit 131c include, in the image processing apparatus described with reference to FIG. 12, the absolute difference value calculation unit 111a of the iterative motion vector estimation unit 111; The processes performed in practice are substantially the same as those executed by the comparator 111b and the motion vector calculator 111c. In addition, in accordance with the reset signal supplied from the error processing unit 132, a repetitively estimated motion vector (movement vector that becomes a stop vector having a movement amount of 0) is reset. That is, the cyclic motion vector estimator 131 executes substantially the same processes as that performed by the cyclic motion vector estimator 111 and resets the motion vector according to the reset signal.

에러 처리부(132)는, 누적부(132a), MEL 산출부(132b), 합성부(132c), 임계치 결정부(132d), 프레임 메모리(132e), 가산부(132f) 및 임계치 결정부(132g)와 재설정 결정부(132h)를 갖추고 있다. 이들 중, 누적부(132a), MEL 산출부(132b), 합성부(132c)는 에러 처리부(14)의 누적부(14a), MEL 산출부(14b) 및 합성부(14c)에 의해 실행되는 것과 실제적으로 동일한 처리들을 각각 실행한다. 즉, 에러 처리부(132)는, 화소들의 각각에 대해서, 순회형이동 벡터 추정부(131)로부터 공급된 이동 벡터에 각각 대응하는 차분 절대치합에 따라 MC 화상과 입력 화상을 합성한다. 그리고 표시부(2)에 그 합성 화상을 출력하여 표시시킨다.The error processor 132 includes an accumulator 132a, an MEL calculator 132b, a synthesizer 132c, a threshold value determiner 132d, a frame memory 132e, an adder 132f, and a threshold value determiner 132g. ) And a reset determination unit 132h. Among these, the accumulator 132a, the MEL calculator 132b, and the combiner 132c are executed by the accumulator 14a, the MEL calculator 14b, and the combiner 14c of the error processor 14. And each of them actually executes the same processes. That is, the error processing unit 132 synthesizes, for each of the pixels, the MC image and the input image according to the difference absolute value corresponding to each of the motion vectors supplied from the circular type motion vector estimating unit 131. The synthesized image is output to the display unit 2 for display.

다음에, 에러 처리부(132)는, 평균 에러 레벨과, 순회형 이동 벡터 추정부(131)로부터 공급된 차분 절대치합에 따라 이동 벡터의 재설정을 나타내는 재설정 신호를 생성하고, 그 재설정 신호를 순회형 이동 벡터 추정부(131)로 공급한다. 특히, 임계치 결정부(132d)는 MEL 산출부(132b)에 의해 산출된 평균 에러 레벨이 소정의 임계치보다 큰 지를 결정한다. 프레임 메모리(132e)는, 한 프레임만큼 앞서 있는 화상에 대해서, 그 차분 절대치합의 누적치를 저장하고, 차분 절대치합의 누적치를 가산부(132f)에 공급한다. 가산부(132f)는 누적부(132a)로부터 공급되는 차분 절대치합의 누적치에 따라 차분 절대치합의 누적치의 증가된 양과, 프레임 메모리(132e)에서 공급되며, 한 프레임만큼 앞서 있는 화상의 차분 절대치합의 누적치를 산출한다. 임계치 결정부(132g)는 가산부(132f)로부터 공급되는 차분 절대치합의 누적치의 증가된 양이 소정의 임계치보다 큰 지를 판단한다. 재설정 결정부(132h)는 임계치 결정부(132d)로부터 공급되는 판단 결과와 임계치 결정부(132g)에서 공급되는 판단 결과에 따라 재설정 신호를 생성하여 그 신호를 순회형 이동 벡터 추정부(111)로 공급한다. Next, the error processing unit 132 generates a reset signal indicating the resetting of the motion vector according to the average error level and the absolute difference value supplied from the traversal motion vector estimating unit 131, and converts the reset signal into a circular type. Supply to the motion vector estimator 131. In particular, the threshold value determination unit 132d determines whether the average error level calculated by the MEL calculation unit 132b is larger than a predetermined threshold. The frame memory 132e stores the accumulated value of the absolute difference values for the image one frame ahead, and supplies the accumulated value of the absolute difference values to the adder 132f. The adder 132f is configured to increase the cumulative value of the difference absolute value according to the accumulated value of the absolute difference value supplied from the accumulator 132a and the accumulated value of the absolute difference value of the image supplied from the frame memory 132e and advanced by one frame. Calculate. The threshold value determining unit 132g determines whether an increased amount of the accumulated absolute value difference difference supplied from the adding unit 132f is larger than a predetermined threshold value. The reset determination unit 132h generates a reset signal according to the determination result supplied from the threshold determination unit 132d and the determination result supplied from the threshold determination unit 132g, and sends the signal to the circular motion vector estimator 111. Supply.

다음에, 도 17에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 설명된다. 여기에서, 화상 처리는 기본적으로 도 2에 도시된 플로차트를 참조하여 설명된 것과 실제적으로 동일하다. 그러므로, 도 2를 참조하여 설명된 기재는 생략된다. 게다가, 도 2에 도시된 플로차트에 의해 나타난 이동 벡터 추정 처리와 에러 처리 면에서, 도 17에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 도 1에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리와 다르다. 그러므로, 도 17에 도시된 화상 처리 장치(1)에 의해 실행되는 이동 벡터 추정 처리와 에러 처리가 다음에 기술된다. Next, image processing executed by the image processing apparatus 1 shown in FIG. 17 will be described. Here, the image processing is basically the same as that described with reference to the flowchart shown in FIG. Therefore, the description described with reference to FIG. 2 is omitted. In addition, in terms of the motion vector estimation processing and the error processing shown by the flowchart shown in FIG. 2, the image processing executed by the image processing apparatus 1 shown in FIG. 17 is performed by the image processing apparatus 1 shown in FIG. 1. It is different from the image processing executed by. Therefore, motion vector estimation processing and error processing executed by the image processing apparatus 1 shown in FIG. 17 are described next.

먼저, 도 18의 플로차트를 참조하면서, 도 17에 도시된 화상 처리 장치(1)에 의해 실행되는 에러 처리가 설명된다. 여기에서, 도 18의 플로차트내의 스텝(S171-S176)에서 실행되는 처리들은 도 8의 플로차트내의 스텝(S71-S76)에서 실행되는 처리들과 실제적으로 동일하다. 그러므로, 그에 대한 설명은 생략한다. First, the error processing executed by the image processing apparatus 1 shown in FIG. 17 will be described with reference to the flowchart of FIG. 18. Here, the processes executed in steps S171-S176 in the flowchart of FIG. 18 are substantially the same as the processes executed in steps S71-S76 in the flowchart of FIG. 8. Therefore, description thereof is omitted.

즉, 스텝(S173, S175, S176)에서는, 입력 화상의 평균 에러 레벨 MEL이 얻어지는 경우, 스텝(S177)에서, 평균 에러 레벨 MEL은 소정의 임계치 a보다 크다. That is, in step S173, S175, and S176, when the average error level MEL of the input image is obtained, in step S177, the average error level MEL is larger than the predetermined threshold a.

스텝(S177)에서, 예를 들면, 평균 에러 레벨 MEL이 소정의 임계치 a보다 크다고 판정되면, 스텝(S178)에서, 임계치 결정부(132g)는 가산부(132f)에서 공급되 는 차분 절대치합의 누적치(dsm 누적치)의 증가된 양이 임계치 b보다 큰 지를 판단한다. In step S177, for example, if it is determined that the average error level MEL is larger than the predetermined threshold a, in step S178, the threshold value determining unit 132g accumulates the difference absolute value sum supplied from the adding unit 132f. Determine if the increased amount of (dsm cumulative) is greater than threshold b.

스텝(S178)에서, 예를 들면, 차분 절대치합의 누적치(dsm 누적치)의 증가된 양이 임계치 b보다 크다고 판정되면, 스텝(S179)에서, 재설정 결정부(132h)는 재설정 신호를 생성하여 그 신호를 순회형 이동 벡터 추정부(131)에 공급한다(출력한다).In step S178, for example, when it is determined that the increased amount of the difference absolute value sum (dsm cumulative value) is greater than the threshold value b, in step S179, the reset determination unit 132h generates a reset signal and generates the signal. Is supplied to the cyclic type motion vector estimating unit 131 (outputted).

한편, 스텝(S177)에서, 평균 에러 레벨 MEL이 소정의 임계치 a보다 작거나, 또는, 스텝(S178)에서, 차분 절대치합의 누적치의 증가된 양이 임계치 b보다 작다고 판정되면, 처리는 스텝(S180)으로 돌아간다.On the other hand, if it is determined in step S177 that the average error level MEL is smaller than the predetermined threshold a, or in step S178, that the increased amount of the cumulative absolute difference value is smaller than the threshold b, the process proceeds to step S180. Return to).

스텝(S180)에서, 합성부(132c)는 입력 화상내의 모든 화소들과 MC 화상내의 모든 화상들을 합성하여 합선 화상을 생성한다. In step S180, the combining unit 132c synthesizes all the pixels in the input image and all the images in the MC image to generate a short circuit image.

스텝(S181)에서, 합성부(132c)는 합성 화상을 표시부(2)에 출력 화상으로서 출력한다.In step S181, the combining unit 132c outputs the synthesized image to the display unit 2 as an output image.

다음에, 도 19의 플로 차트를 참조하여, 도 17에 도시된 화상 처리 장치(1)에 의해 실행되는 이동 벡터 추정 처리가 다음에 설명된다. 여기에서, 도 19의 플로 차트내의 스텝(203-S212)에서 실행되는 처리들은 도 13의 플로 차트내의 스텝(S101-110)에서 실행되는 처리들과 실제적으로 동일하다. 그러므로, 그에 대한 설명은 생략한다. Next, with reference to the flowchart of FIG. 19, the motion vector estimation process performed by the image processing apparatus 1 shown in FIG. 17 will be described next. Here, the processes executed in steps 203-S212 in the flowchart of FIG. 19 are substantially the same as the processes executed in steps S101-110 of the flowchart of FIG. 13. Therefore, description thereof is omitted.

즉, 스텝(S201)에서, 이동 벡터 재설정부(131d)는 재설정 신호가 공급되었는 지를 판단한다. That is, in step S201, the motion vector reset unit 131d determines whether the reset signal is supplied.

스텝(S201)에서, 재설정 신호가 공급되었다고 판정되면, 스텝(S202)에서, 이동 벡터 재설정부(131d)는 0의 이동량을 가지는 정지 벡터가 되도록 반복적으로 처리된 이동 벡터 v(i, j)를 재설정한다. If it is determined in step S201 that the reset signal has been supplied, in step S202, the motion vector reset unit 131d repeatedly processes the processed motion vector v (i, j) to be a stop vector having a movement amount of zero. Reset.

한편, 스텝(S201)에서, 재설정 신호가 공급되지 않았다고 판정되면, 스텝(S202)은 생략하고, 처리는 스텝(S203)으로 돌아간다. On the other hand, if it is determined in step S201 that the reset signal is not supplied, step S202 is omitted and the process returns to step S203.

상기 처리에서는, 정확한 이동 벡터와는 이동량이 점점 달라지는 이동 벡터가, 장면 변화가 일어나는 경우에 발생되는 불연속 화상내에서 한 번의 이동 벡터의 재설정에 의해 처리되는 경우에 있어서도, 정확한 이동 벡터와는 점점 달라지는 이러한 이동 벡터의 순환적 처리가 방지되며, 정확한 이동 벡터를 얻는데 필요한 시간이 단축될 수 있다. 그러므로, MC 화상이 억제될 수 있는 왜곡은 더욱 짧은 시간내에 억제될 수 있다. In the above process, even when the motion vector whose motion amount is gradually different from the exact motion vector is processed by resetting one motion vector in the discontinuous image generated when a scene change occurs, the motion vector gradually differs from the exact motion vector. This cyclical processing of the motion vector is prevented, and the time required to obtain an accurate motion vector can be shortened. Therefore, the distortion in which the MC image can be suppressed can be suppressed within a shorter time.

예를 들면, 도 20에 도시된 바와 같이, 11번째 프레임에서 장면 변화가 일어나는 화상들에 대해서, 점선으로 표시된 기존의 처리의 경우에는, 장면 변화후에 정확한 이동 벡터가 얻어지기까지 어느 소정의 시간이 필요하므로, dSm 누적 가산 결과의 감쇠를 위해 필요하다. 한편, 태선으로 표시된 실시예에 따르는 처리의 경우에는, 장면 변화후에 정확한 이동 벡터가 얻어지기까지 단지 몇 개의 프레임들을 표시하기 위한 시간이 필요하다. 그러므로, dSm 누적 가산 결과는 급속히 감소한다. 여기에서, 도 20에서는, 횡축에 프레임 번호를 취하고, 세로축에 dSm 누적 가산 결과를 나타냈다. 게다가, 도 20은 정규화를 수행하는데 이용되는 값이 일정한 경우에 dSm 누적 가산 결과가 얻어지는 보기를 도시하고 있다. For example, as shown in Fig. 20, for the images in which the scene change occurs in the eleventh frame, in the case of the existing processing indicated by the dotted line, any predetermined time until the correct motion vector is obtained after the scene change is obtained. As necessary, it is necessary for the attenuation of the dSm cumulative addition result. On the other hand, in the case of the processing according to the embodiment indicated by the broken line, it is necessary to display only a few frames until the correct motion vector is obtained after the scene change. Therefore, the dSm cumulative addition result decreases rapidly. Here, in FIG. 20, the frame number was taken on the horizontal axis, and the dSm cumulative addition result was shown on the vertical axis. In addition, FIG. 20 shows an example in which the dSm cumulative addition result is obtained when the value used to perform normalization is constant.

다음에, 도 21에 도시한 블록도를 참조하여, 정확한 이동 벡터가 얻어지기까지 필요한 소정의 시간을 감소시키도록 설계되고, 프레임 순회형 블록 매칭을 실행하여 이동 벡터를 얻는 화상 처리 장치의 다른 실시예에 따르는 대표적인 보기가 설명된다. 여기에서, 도 21에 도시된 화상 처리 장치에서는, 도 17에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있다. 그에 대한 설명은 필요에 따라 생략된다. Next, with reference to the block diagram shown in FIG. 21, another embodiment of the image processing apparatus which is designed to reduce a predetermined time required to obtain an accurate motion vector, and performs frame cyclic block matching to obtain a motion vector A representative example according to the example is described. Here, in the image processing apparatus shown in FIG. 21, elements that have substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. 17 are denoted with substantially the same reference numerals. Description thereof is omitted as necessary.

즉, 에러 처리부(132) 대신에 에러 처리부(151)가 배치되어 있다는 점에서,도 21에 도시된 화상 처리 장치(1)는, 도 17에 도시된 화상 처리 장치(1)와 다르다. That is, the image processing apparatus 1 shown in FIG. 21 differs from the image processing apparatus 1 shown in FIG. 17 in that the error processing unit 151 is disposed instead of the error processing unit 132.

에러 처리부(151)는, 누적부(151a), MEL 산출부(151b), 비교부(151c), 가산부(151d) 및 합성부(151e), 임계치 결정부(151f), 프레임 메모리(151g), 가산부(151h) 및 임계치 결정부(151i)와 재설정 결정부(151j)를 갖추고 있다. 이들 중, 누적부(151a), MEL 산출부(151b), 비교부(151c), 가산부(151d) 및 합성부(151e)는, 도 12의 화상 처리 장치(1)의 누적부(112a), MEL 산출부(112b), 비교부(112c), 가산부(112d) 및 합성부(112e)에 의해 실행되는 것과 실제적으로 동일한 처리를 실행한다. 즉, 에러 처리부(151)는, 화소들의 각각에 대해서, 순회형이동 벡터 추정부(131)로부터 공급된 이동 벡터에 각각 대응하는 차분 절대치합에 따라 MC 화상과 입력 화상을 합성한다. 그리고 표시부(2)에 그 합성 화상을 출력하여 표시시킨다.The error processor 151 includes an accumulator 151a, an MEL calculator 151b, a comparator 151c, an adder 151d and a combiner 151e, a threshold value determiner 151f, and a frame memory 151g. And an adder 151h, a threshold value determiner 151i, and a reset determiner 151j. Among these, the accumulator 151a, the MEL calculator 151b, the comparator 151c, the adder 151d, and the combiner 151e are the accumulator 112a of the image processing apparatus 1 of FIG. The processing similar to that executed by the MEL calculating section 112b, the comparing section 112c, the adding section 112d, and the combining section 112e is executed. That is, the error processing unit 151 synthesizes, for each of the pixels, the MC image and the input image according to the difference absolute value corresponding to each of the motion vectors supplied from the circular type motion vector estimating unit 131. The synthesized image is output to the display unit 2 for display.

게다가, 임계치 결정부(151f), 프레임 메모리(151g), 가산부(151h) 및 임계치 결정부(151i)와 재설정 결정부(151j)는, 임계치 결정부(132d), 프레임 메모리(132e), 가산부(132f) 및 임계치 결정부(132g)와 재설정 결정부(132h)에 의해 실행되는 것과 실제적으로 동일한 처리를 실행한다. 즉, 에러 처리부(151)는, 평균 에러 레벨과, 순회형 이동 벡터 추정부(131)로부터 공급된 차분 절대치합에 따라 이동 벡터의 재설정을 나타내는 재설정 신호를 생성하고, 그 재설정 신호를 순회형 이동 벡터 추정부(131)로 공급한다. In addition, the threshold determination unit 151f, the frame memory 151g, the addition unit 151h, and the threshold determination unit 151i and the reset determination unit 151j include the threshold determination unit 132d, the frame memory 132e, and the addition unit. Processing substantially the same as that executed by the unit 132f, the threshold value determining unit 132g, and the reset determining unit 132h. That is, the error processing unit 151 generates a reset signal indicating the resetting of the motion vector according to the average error level and the absolute difference value supplied from the circular motion vector estimating unit 131, and converts the reset signal into the circular motion. Supply to the vector estimating unit 131.

다음에, 도 21에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 설명된다. 여기에서, 화상 처리는 기본적으로 도 2에 도시된 플로차트를 참조하여 설명된 것과 실제적으로 동일하다. 그러므로, 도 2를 참조하여 설명된 기재는 생략된다. 게다가, 도 2의 플로 차트에 도시된 에러 처리 면에서, 도 21에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 도 17에 도시된 화상 처리 장치에 의해 실행되는 화상 처리와 다르다. 그러므로, 도 21에 도시된 화상 처리 장치에 의해 실행되는 화상 처리는 도 22의 플로 차트를 참조하여 설명된다. 여기에서, 도 22의 플로차트에 있어서의 스텝(S222-S226, S230 내지 S235)의 처리는, 도 15의 플로차트를 참조해 설명한 스텝(S121-S126, S127-S132)의 처리와 같으므로, 그 설명은 생략하는 것으로 한다. 게다가, 도 22의 플로차트에 있어서의 스텝(S227-S229)은, 도 18의 플로차트에 있어서의 스텝(S177-S179)의 처리와 실제적으로 동일하다. 그러므로, 그 설명은 생략하는 것으로 한다.Next, image processing executed by the image processing apparatus 1 shown in FIG. 21 will be described. Here, the image processing is basically the same as that described with reference to the flowchart shown in FIG. Therefore, the description described with reference to FIG. 2 is omitted. In addition, in terms of the error processing shown in the flowchart of FIG. 2, the image processing executed by the image processing apparatus 1 shown in FIG. 21 is different from the image processing executed by the image processing apparatus shown in FIG. Therefore, image processing executed by the image processing apparatus shown in FIG. 21 is described with reference to the flowchart of FIG. Here, the processing of steps S222-S226 and S230 to S235 in the flowchart of FIG. 22 is the same as the processing of steps S121-S126 and S127-S132 described with reference to the flowchart of FIG. 15. Is omitted. In addition, steps S227-S229 in the flowchart of FIG. 22 are substantially the same as the processing of steps S177-S179 in the flowchart of FIG. 18. Therefore, the description is omitted.

그러므로, 이동 벡터와 정확한 이동 벡터 사이에서 커다란 차이를 가지는 이 동 벡터가, 장면 변화가 일어나는 경우에 발생되는 불연속 화상내에서 반복적으로 처리되는 경우에 있어서도, 이동 벡터를 재설정하여 정확한 이동 벡터를 얻는데 필요한 시간을 단축시킬 수 있다. Therefore, even if a motion vector having a large difference between the motion vector and the correct motion vector is repeatedly processed in a discontinuous image generated when a scene change occurs, it is necessary to reset the motion vector to obtain an accurate motion vector. It can save time.

화상내의 한 영역의 한 부분에서 낮은 신뢰도를 가지는 이동 벡터가 발생하는 경우에는, 상기 영역의 그 부분이 전체 화상의 반정도 만큼 크다면, 전체 화상의 누적 가산 결과가 커다란 값이 아닌 경우가 발생하게 된다. 그러므로, 이러한 경우에도, 낮은 신뢰도를 가지는 이동 벡터의 발생을 검출할 수 있는 구조가 설명된다. When a motion vector having a low reliability is generated in a part of an area in the image, if the part of the area is about half as large as the entire image, the cumulative addition result of the entire image may not be a large value. do. Therefore, even in this case, a structure capable of detecting the occurrence of the motion vector having low reliability is described.

도 23은 화면의 한 영역의 한 부분에서 낮은 신뢰도를 가지는 이동 벡터의 발생을 검출할 수 있는 화상 처리 장치의 다른 실시예에 따르는 대표적인 보기를 도시하고 있다. 여기에서, 도 23에 도시된 화상 처리 장치에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있고 실제적으로 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. FIG. 23 shows an exemplary view according to another embodiment of an image processing apparatus capable of detecting the generation of a motion vector with low reliability in a portion of an area of the screen. Here, in the image processing apparatus shown in FIG. 23, elements having substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. 1 are denoted with substantially the same reference numerals and have substantially the same reference numerals. Is indicated. Description thereof is omitted as necessary.

즉, 에러 처리부(14) 대신에 에러 처리부(211)가 배치되어 있다는 점에서, 도 23에 도시된 화상 처리 장치(1)는, 도 1에 도시된 화상 처리 장치(1)와 다르다. That is, the image processing apparatus 1 shown in FIG. 23 differs from the image processing apparatus 1 shown in FIG. 1 in that the error processing unit 211 is disposed in place of the error processing unit 14.

에러 처리부(211)는, 영역 분할부(211a), 누적부(211b), 증배기(211c)와 MEL 산출부(211d) 및 합성부(211e)를 갖추고 있다. 이들 중, MEL 산출부(211d) 및 합성부(211e)는, 에러 처리부(14)의 MEL 산출부(14b) 및 합성부(14c)에 의해 실행되는 것과 실제적으로 동일한 처리를 실행한다. 영역 분할부(211a)는 입력 화상 을 n개의 영역들로 공평하게 분할한다. 입력 화상의 n개의 영역들의 각각에 대해, 누적부(211b)는, 차분 절대치합을 누적 가산하여 증배기(211c)에 공급한다. 증배기(211c)는 누적부(211b)에서 공급되는 누적 가산 결과들중에서 가장 큰 것을 n배 증배하며, 누적 가산 결과들의 각각은 대응하는 영역에 대한 차분 절대치합을 누적 방법으로 가산하여 얻어지게 된다. 그리고 그 n배 증배된 결과를 MEL 산출부(211d)에 공급한다. 즉, 에러 처리부(211)는 입력 화상이 분할되는 nro의 영역들중 한 개의 영역에 각각 대응하는 차분 절대치합에 근거하여, MC화상과 입력 화상을 합성하고, 표시부(2)에 합성 화상을 출력하여 표시시킨다. The error processor 211 includes an area divider 211a, an accumulator 211b, a multiplier 211c, a MEL calculator 211d, and a combiner 211e. Among them, the MEL calculating section 211d and the combining section 211e execute substantially the same processing as those executed by the MEL calculating section 14b and the combining section 14c of the error processing section 14. The area dividing unit 211a divides the input image evenly into n areas. For each of the n regions of the input image, the accumulation unit 211b accumulates and adds the absolute difference value to the multiplier 211c. The multiplier 211c multiplies the largest n times among the cumulative addition results supplied from the accumulator 211b, and each of the cumulative addition results is obtained by adding the difference absolute value for the corresponding region by a cumulative method. . The n times multiplied result is supplied to the MEL calculation unit 211d. That is, the error processing unit 211 synthesizes the MC image and the input image on the basis of the difference absolute value respectively corresponding to one of the nro regions where the input image is divided, and outputs the synthesized image to the display unit 2. To display.

다음에, 도 23에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 설명된다. 여기에서, 화상 처리는 기본적으로 도 2에 도시된 플로차트를 참조하여 설명된 것과 실제적으로 동일하다. 그러므로, 도 2를 참조하여 설명된 기재는 생략된다. 게다가, 도 2의 플로 차트에 도시된 에러 처리 면에서, 도 23에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 도 1에 도시된 화상 처리 장치에 의해 실행되는 화상 처리와 다르다. 그러므로, 도 23에 도시된 화상 처리 장치에 의해 실행되는 이동 벡터 추정 처리와 에러 처리는 도 24의 플로 차트를 참조하여 설명된다. 여기에서, 도 24의 플로차트에 있어서의 스텝(S274-S280)의 처리는, 도 8의 플로차트를 참조해 설명한 스텝(S72-S78)의 처리와 같으므로, 그 설명은 생략하는 것으로 한다. Next, image processing executed by the image processing apparatus 1 shown in FIG. 23 will be described. Here, the image processing is basically the same as that described with reference to the flowchart shown in FIG. Therefore, the description described with reference to FIG. 2 is omitted. In addition, in terms of the error processing shown in the flowchart of FIG. 2, the image processing executed by the image processing apparatus 1 shown in FIG. 23 is different from the image processing executed by the image processing apparatus shown in FIG. Therefore, the motion vector estimation process and the error process executed by the image processing apparatus shown in FIG. 23 are described with reference to the flowchart of FIG. Here, the processing of steps S274-S280 in the flowchart of FIG. 24 is the same as the processing of steps S72-S78 described with reference to the flowchart of FIG. 8, and therefore description thereof will be omitted.

즉, 스텝(S271)에서는, 영역 분할부(211a)는 입력 화상을 n개의 영역들로 공평하게 분할한다. 예를 들면, 영역 분할부(211a)는 입력 화상이 분할되어 있는 n개의 영역들중 한 개의 영역내에 포함되어 있는 각각의 화소에 대응하는 차분 절대치합을 그룹화시키고, 그것을 누적부(211b)로 공급한다. 차분 절대치합은 입력 화상의 화소들중 한 화소에 각각 대응하며, 이동 벡터 추정부(12)로부터 공급된다. That is, in step S271, the area dividing unit 211a divides the input image evenly into n areas. For example, the area divider 211a groups the absolute absolute differences corresponding to the respective pixels included in one of the n areas where the input image is divided, and supplies them to the accumulator 211b. do. The difference absolute value corresponds to one of the pixels of the input image, and is supplied from the motion vector estimating unit 12.

스텝(S272)에서는, 입력 화상이 분할되는 n개의 영역들중 각가에 대해, 누적부(211b)가 차분 절대치합을 누적 가산하고 그것을 증배기(211c)에 공급한다. In step S272, the accumulator 211b accumulates and adds the difference absolute value to each of the n areas where the input image is divided, and supplies it to the multiplier 211c.

스텝(S273)에서는, 증배기(211c)는, 누적부(211b)로부터 공급되는 누적 가산 결과들중 가장 큰 결과를 n배 증배시키고, 누적 가산 결과의 각각은 대응하는 영역에 대한 차분 절대치합을 누적 가산하여 얻어지게 된다. 증배기(211c)는, 누적 가산 결과의 n배 증배를 dsm 누적 가산 결과로서, MEL 산출부(211d)에 공급하며, 처리는 스텝(S274)으로 진행한다. In step S273, the multiplier 211c multiplies the largest result among the cumulative addition results supplied from the accumulation unit 211b by n times, and each of the cumulative addition results adds the absolute difference value for the corresponding area. It is obtained by cumulative addition. The multiplier 211c supplies an n-fold multiplication of the cumulative addition result as the dsm cumulative addition result to the MEL calculation unit 211d, and the process proceeds to step S274.

상기 처리에서는, 화상내의 한 영역의 한 부분에서 낮은 신뢰도를 가지는 이동 벡터가 발생하는 경우에도, 낮은 신뢰도를 가지는 이동 벡터의 발생을 검출할 수 있다. 그러므로, 한 영역의 한 부분에서 낮은 신뢰도를 가지는 이동 벡터가 집중적으로 발생하는 화면에서도,MC 화상내의 왜곡이 억제될 수 있다. In the above processing, even when a motion vector having a low reliability occurs in a part of an area in the image, generation of a motion vector having a low reliability can be detected. Therefore, even in a screen in which a motion vector having low reliability is intensively generated in one part of an area, distortion in the MC image can be suppressed.

상기에서, 한 영역의 한 부분에서 낮은 신뢰도를 가지는 이동 벡터가 검출되는 보기가 설명되었다. 그러나, 특히, 화상의 가장자리 부근의 영역내에서는, 대응하는 화소들이 이전의 프레임과 다음의 프레임내에 자주 존재하지 않으므로, 정확한 이동 벡터를 구하는 것이 가능하지 않으므로, 차분 절대치합이 잘못 구해지게 된다. 그러므로, 화상의 가장자리 부근의 영역에서 발생하는 효과를 제거하 고 MC 화상이 생성되는 구조가 설명된다. In the above, an example has been described in which a motion vector having low reliability is detected in a part of an area. However, in particular, in the region near the edge of the image, since the corresponding pixels are not often present in the previous frame and the next frame, it is not possible to obtain an accurate motion vector, so that the differential absolute matching is wrongly obtained. Therefore, the structure in which the MC image is generated while removing the effect occurring in the area near the edge of the image is described.

도 25는 화상의 가장자리 부근의 영역내에서 발생하는 효과를 제거하고 MC 화상이 생성되도록 설계된 화상 처리 장치의 한 실시예에 따르는 대표적인 보기를 도시하고 있다. 여기에서, 도 25에 도시된 화상 처리 장치에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있고 실제적으로 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. 25 shows an exemplary view according to one embodiment of an image processing apparatus designed to remove an effect occurring in an area near an edge of an image and to generate an MC image. Here, in the image processing apparatus shown in FIG. 25, elements that have substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. Is indicated. Description thereof is omitted as necessary.

즉, 에러 처리부(14) 대신에 에러 처리부(311)가 배치되어 있다는 점에서, 도 25에 도시된 화상 처리 장치(1)는, 도 1에 도시된 화상 처리 장치(1)와 다르다. That is, the image processing apparatus 1 shown in FIG. 25 is different from the image processing apparatus 1 shown in FIG. 1 in that the error processing unit 311 is disposed in place of the error processing unit 14.

에러 처리부(311)는, 영역 제외부(a region exclusion section : 311a), 누적부(311b), MEL 산출부(311c) 및 합성부(311d)를 갖추고 있다. 이들 중, MEL 산출부(311c) 및 합성부(311d)는, 에러 처리부(14)의 MEL 산출부(14b) 및 합성부(14c)에 의해 실행되는 것과 실제적으로 동일한 처리를 실행한다. 영역 제외부(311a)는 입력 화상의 가장자리 부근의 영역이 아닌 영역을, 입력 처리를 위한 목표 영역으로 설정한다. 누적부(311b)는, 목표 영역에 포함되는 화소들에 대응하는 차분 절대치합을 누적 가산하여 MEL 산출부(311c)에 공급한다. 즉, 에러 처리부(311)는 입력 화상의 가장자리 부근의 영역이 아닌 영역에 대한 차분 절대치합에 따라, MC 화상과 입력 화상을 합성한다. 그리고, 표시부(2)에 합성 화상을 출력하여 표시시킨다. The error processing section 311 includes a region exclusion section 311a, an accumulation section 311b, a MEL calculation section 311c, and a combining section 311d. Among them, the MEL calculating section 311c and the combining section 311d execute substantially the same processing as those executed by the MEL calculating section 14b and the combining section 14c of the error processing section 14. The area exclusion unit 311a sets an area other than the area near the edge of the input image as a target area for input processing. The accumulator 311b accumulates and adds the absolute difference value corresponding to the pixels included in the target area to supply the MEL calculator 311c. In other words, the error processing unit 311 synthesizes the MC image and the input image according to the difference absolute value for an area that is not an area near the edge of the input image. Then, the synthesized image is output to the display unit 2 and displayed.

다음에, 도 25에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 설 명된다. 여기에서, 화상 처리는 기본적으로 도 2에 도시된 플로차트를 참조하여 설명된 것과 실제적으로 동일하다. 그러므로, 도 2를 참조하여 설명된 기재는 생략된다. 게다가, 도 2의 플로 차트에 도시된 에러 처리 면에서, 도 25에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 도 1에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리와 다르다. 그러므로, 도 25에 도시된 화상 처리 장치에 의해 실행되는 에러 처리는 도 26의 플로 차트를 참조하여 설명된다. 여기에서, 도 26의 플로차트에 있어서의 스텝(S373-S379)의 처리는, 도 8의 플로차트를 참조해 설명한 스텝(S72-S78)의 처리와 같으므로, 그 설명은 생략하는 것으로 한다. Next, image processing executed by the image processing apparatus 1 shown in FIG. 25 will be described. Here, the image processing is basically the same as that described with reference to the flowchart shown in FIG. Therefore, the description described with reference to FIG. 2 is omitted. In addition, in terms of the error processing shown in the flowchart of FIG. 2, the image processing executed by the image processing apparatus 1 shown in FIG. 25 is performed by the image processing apparatus 1 shown in FIG. 1. Is different from Therefore, error processing executed by the image processing apparatus shown in FIG. 25 is described with reference to the flowchart of FIG. Here, the process of step S373-S379 in the flowchart of FIG. 26 is the same as the process of step S72-S78 described with reference to the flowchart of FIG. 8, and the description is abbreviate | omitted.

즉, 스텝(S371)에서는, 영역 제외부(311a)가 입력 화상의 가장자리 부근의 영역을 제외시킨다. 그리고, 에러 처리를 위한 목표 영역으로, 다른 영역을 설정한다. 예를 들면, 도 27에 도시한 바와 같이, 영역 제외부(311a)는 가장자리 부근의 영역을 제외시키고, 그 영역은 상부에서 제외된 라인들의 수, 하부에서 제외된 라인들의 수, 가장 좌측에서 제외된 화소들의 수와 가장 우측에서 제외된 화소들의 수와 같은 기설정된 변수들에 의해 정의된다.That is, in step S371, the area exclusion unit 311a excludes the area near the edge of the input image. Then, another area is set as the target area for error processing. For example, as shown in FIG. 27, the region exclusion section 311a excludes the region near the edge, and the region excludes the number of lines excluded from the top, the number of lines excluded from the bottom, and the leftmost portion. It is defined by predetermined variables such as the number of pixels that are pixelated and the number of pixels that are excluded from the rightmost.

스텝(S372)에서, 예를 들면, 누적부(311b)는 영역 제외부(311a)가, 도 27에 도시된 목표 영역에 포함되는 화소들에 대응하는 차분 절대치합을 누적 가산한다. 누적부(311b)는, 누적 가산 결과를 dsm 누적 가산 결과로서, MEL 산출부(311c)에 공급하며, 처리는 스텝(S373)으로 진행한다. In step S372, for example, the accumulation unit 311b accumulates and adds the absolute difference value corresponding to the pixels included in the target area shown in FIG. 27. The accumulation unit 311b supplies the cumulative addition result as the dsm cumulative addition result to the MEL calculation unit 311c, and the processing proceeds to step S373.

상기 처리에서, 정확한 이동 벡터와 차분 절대치의 정확한 합계 dsm을 구하 는 것이 불가능한 경우에도, 화상의 가장자리 부근의 영역에서 발생하는 효과가 제거되므로, MC 화상내의 왜곡이 억제될 수 있다. In the above process, even when it is impossible to obtain an accurate sum dsm of the exact motion vector and the absolute difference value, the effect occurring in the area near the edge of the image is eliminated, so that distortion in the MC image can be suppressed.

여기에서, 차분 절대치의 정확한 합계 dsm이 프레임들간의 휘도 차이에 근거하여 얻어지므로, 콘트라스트가 높은 화상내에서는 커지며, 콘트라스트가 낮은 화상내에서는 작아지게 된다. 그러므로, 에러 처리에서는, 콘트라스트가 높은 화상에 대해서는, 에러 검출이 너무나 예민하게 되므로, 에러 검출시에 콘트라스트가 낮은 화상에 대해서는 오류가 발생되는 경향이 있다. 그러므로, 콘트라스트가 높은 화상에 대한 에러 검출시에 과도하게 높은 감도(sensitivity)가 방지되며, 콘트라스트가 낮은 화상에 대해서는 에러 검출시에 에러 발생이 감소되는 실시예를 설명한다. Here, since the exact sum dsm of the difference absolute values is obtained based on the luminance difference between the frames, it becomes large in the image with high contrast and small in the image with low contrast. Therefore, in error processing, error detection becomes too sensitive for an image with high contrast, so that an error tends to occur for an image with low contrast at the time of error detection. Therefore, an embodiment in which an excessively high sensitivity is prevented at the time of error detection for a high contrast image, and the occurrence of the error at the time of error detection is reduced for an image with low contrast will be described.

도 28은, 콘트라스트가 높은 화상에 대한 에러 검출시에 과도하게 높은 감도를 방지하며, 콘트라스트가 낮은 화상에 대해서는 에러 검출시에 에러 발생을 감소시키는 화상 처리 장치의 다른 실시예에 따르는 대표적인 구조를 도시한 도면이다. 여기에서, 도 28에 도시된 화상 처리 장치(1)에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨지고, 실제적으로 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. Fig. 28 shows a representative structure according to another embodiment of the image processing apparatus which prevents excessively high sensitivity upon error detection for a high contrast image and reduces error occurrence upon error detection for a low contrast image. One drawing. Here, in the image processing apparatus 1 shown in FIG. 28, elements having substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. Are denoted by the same reference numerals. Description thereof is omitted as necessary.

즉, 에러 처리부(14) 대신에 에러 처리부(411)가 배치되어 있다는 점에서, 도 28에 도시된 화상 처리 장치(1)는, 도 17에 도시된 화상 처리 장치(1)와 다르다. That is, the image processing apparatus 1 shown in FIG. 28 differs from the image processing apparatus 1 shown in FIG. 17 in that the error processing unit 411 is disposed instead of the error processing unit 14.

에러 처리부(411)는, 누적부(411a), MEL 산출부(411b), 프레임 지연부(FD)(411c, 411d), 변화량 산출부(411e), 변화량 산출부(411f) 및 합성부(411g)를 갖추고 있다. 이들 중, 누적부(411a), MEL 산출부(411b) 및 합성부(411g)는, 에러 처리부(14)의 누적부(14a), MEL 산출부(14b) 및 합성부(14c)에 의해 각각 실행되는 것과 실제적으로 동일한 처리를 수행한다. FD부(411c)는누적부(411a)로부터 공급되는 dsm 누적 가산 결과를 한 프레임 만큼 지연시키고, 그 지연된 dsm 누적 가산 결과를 변화량 산출부(411e)와 FD부(411d)에 공급한다. FD부(411d)는, FD부(411c)로부터 공급되는 지연된 dsm 누적 가산 결과를 한 프레임 만큼 추가로 지연시키고, 그 추가로 지연된 dsm 누적 가산 결과를 변화량 산출부(411e)에 공급한다. 변화량 산출부(411e)는, 누적부(411a)로부터 공급되고, 현재 시간에서 얻어지는 dsm 누적 가산 결과와, FD부(411c)로부터 공급되는(현재 시간의 한 프레임 전의 시간에서 얻어지는) 지연된 dsm 누적 가산 결과와, FD부(411d)로부터 공급되는(현재 시간의 두 프레임 전의 시간에서 얻어지는) 추가로 지연된 dsm 누적 가산 결과에 근거하여, 시간에 대한 dsm 누적 가산 결과의 변화량을 계산하여, 변화량 산출부(411f)에 시간에 대한 변화량을 공급한다. 변화량 산출부(411f)는, 변화량 산출부(411e)에서 공급되는 dsm 누적 가산 결과의 변화량에 근거하여 MEL 산출부(411b)로부터 공급되는 평균 에러 레벨 MEL을 조정한다. 그리고, 조정된 평균 에러 레벨 MEL을 합성부(411g)에 공급한다. 즉, 에러 처리부(411)는, 시간에 대한 dsm 누적 가산 결과의 변화량에 근거하여, MC 화상과 입력 화상을 합성한다. 그리고, 표시부(2)에 합성 화상을 출력하여 표시시킨다. The error processing unit 411 includes an accumulator 411a, a MEL calculator 411b, a frame delay unit (FD) 411c, 411d, a change amount calculator 411e, a change amount calculator 411f, and a synthesizer 411g. Equipped) Among these, the accumulating unit 411a, the MEL calculating unit 411b, and the combining unit 411g are respectively formed by the accumulating unit 14a, the MEL calculating unit 14b, and the combining unit 14c of the error processing unit 14. It does the same processing that is actually done. The FD unit 411c delays the dsm cumulative addition result supplied from the accumulation unit 411a by one frame, and supplies the delayed dsm cumulative addition result to the change amount calculation unit 411e and the FD unit 411d. The FD unit 411d further delays the delayed dsm cumulative addition result supplied from the FD unit 411c by one frame, and supplies the delayed dsm cumulative addition result to the change amount calculation unit 411e. The change amount calculating section 411e is supplied from the accumulating section 411a to obtain the dsm cumulative addition result obtained at the present time, and the delayed dsm cumulative adding (obtained from the time one frame before the present time) supplied from the FD section 411c. Based on the result and the additional delayed dsm cumulative addition result supplied from the FD unit 411d (obtained at the time two frames before the current time), the amount of change in the dsm cumulative addition result with respect to time is calculated, and the change amount calculation unit ( 411f) is supplied with the variation over time. The change amount calculation unit 411f adjusts the average error level MEL supplied from the MEL calculation unit 411b based on the change amount of the dsm cumulative addition result supplied from the change amount calculation unit 411e. Then, the adjusted average error level MEL is supplied to the combining unit 411g. That is, the error processing unit 411 synthesizes the MC image and the input image based on the amount of change in the dsm cumulative addition result with respect to time. Then, the synthesized image is output to the display unit 2 and displayed.

다음에, 도 28에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 설명된다. 여기에서, 화상 처리는 기본적으로 도 2에 도시된 플로차트를 참조하여 설명된 것과 실제적으로 동일하다. 그러므로, 도 2를 참조하여 설명된 기재는 생략된다. 게다가, 도 2의 플로 차트에 도시된 에러 처리 면에서, 도 28에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 도 1에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리와 다르다. 그러므로, 도 28에 도시된 화상 처리 장치에 의해 실행되는 에러 처리는 도 29의 플로 차트를 참조하여 설명된다. 여기에서, 도 29의 플로차트에 있어서의 스텝(S471-S476, S480과 S481)의 처리는, 도 8의 플로차트를 참조해 설명한 스텝(S71-S76, S77과 S78)의 처리와 같으므로, 그 설명은 생략하는 것으로 한다. Next, image processing executed by the image processing apparatus 1 shown in FIG. 28 will be described. Here, the image processing is basically the same as that described with reference to the flowchart shown in FIG. Therefore, the description described with reference to FIG. 2 is omitted. In addition, in terms of the error processing shown in the flowchart of FIG. 2, the image processing executed by the image processing apparatus 1 shown in FIG. 28 is performed by the image processing apparatus 1 shown in FIG. 1. Is different from Therefore, error processing executed by the image processing apparatus shown in FIG. 28 is described with reference to the flowchart of FIG. Here, the processing of steps S471-S476, S480, and S481 in the flowchart of FIG. 29 is the same as the processing of steps S71-S76, S77, and S78 described with reference to the flowchart of FIG. Is omitted.

여기에서, 스텝(S473, S475, S476)에서, MEL 산출부(411b)는 변화량 산출부(411f)로, 이미 설정된 평균 에러 레벨 MEL을 공급한다.Here, in steps S473, S475, and S476, the MEL calculator 411b supplies the variation amount calculator 411f with the already set average error level MEL.

스텝(S477)에서, 변화량 산출부(411f)는, 누적부(411a)로부터 공급되고, 현재 시간에서 얻어지는 dsm 누적 가산 결과와, FD부(411c)로부터 공급되는(현재 시간의 한 프레임 전의 시간에서 얻어지는) 지연된 dsm 누적 가산 결과와, FD부(411d)로부터 공급되는(현재 시간의 두 프레임 전의 시간에서 얻어지는) 추가로 지연된 dsm 누적 가산 결과에 근거하여, 시간에 대한 dsm 누적 가산 결과의 변화량을 계산하여, 변화량 산출부(411f)에 시간에 대한 변화량을 공급한다. In step S477, the change amount calculating unit 411f is supplied from the accumulating unit 411a and is supplied from the FD unit 411c and the dsm cumulative addition result obtained at the current time (at a time before one frame of the current time). Calculate the amount of change in the dsm cumulative addition result over time based on the delayed dsm cumulative addition result obtained and the additional delayed dsm cumulative addition result (obtained from the time two frames before the current time) supplied from the FD unit 411d. Thus, the amount of change with respect to time is supplied to the amount of change calculation unit 411f.

스텝(S478)에서, 변화량 산출부(411f)는, 시간에 대한 변화량이 소정의 임계치보다 작은지를 판단한다. In step S478, the change amount calculation unit 411f determines whether the change amount with respect to time is smaller than a predetermined threshold.

스텝(S478)에서, 시간에 대한 변화량이 소정의 임계치보다 작다고 판정되면, 스텝(S479)에서, 변화량 산출부(411f)는, MEL 산출부(411b)로부터 공급되는 평균 에러 레벨 MEL을 최소치로 설정하고, 그것을 합성부(411g)에 공급한다. 여기에서, (스텝(S473)에서)MEL 산출부(411b)로부터 공급되는 평균 에러 레벨 MEL이 이미 최소치로 설정되었다면, 변화량 산출부(411f)는 평균 에러 레벨 MEL을 합성부(411g)에 공급한다. If it is determined in step S478 that the amount of change with respect to time is smaller than the predetermined threshold value, then in step S479, the change amount calculation unit 411f sets the average error level MEL supplied from the MEL calculation unit 411b to a minimum value. Then, it is supplied to the synthesis section 411g. Here, if the average error level MEL supplied from the MEL calculator 411b (at step S473) has already been set to the minimum value, the change amount calculator 411f supplies the average error level MEL to the synthesis unit 411g. .

한편, 스텝(S478)에서, 시간에 대한 변화량이 소정의 임계치보다 작지 않다고 판정되면, 절차는 스텝(S479)을 생략하고, 처리는 스텝(S480)으로 진행한다. On the other hand, if it is determined in step S478 that the amount of change with respect to time is not smaller than the predetermined threshold, the procedure skips step S479 and the process proceeds to step S480.

상기 처리에서, 평균 에러 레벨 MEL이 시간에 대한 dsm 누적 가산 결과의 변화량에 따라 설정될 수 있다. In the above process, the average error level MEL can be set according to the amount of change in the dsm cumulative addition result over time.

일반적으로, 이동 벡터의 신뢰도가 높아지면, 시간에 대한 dsm 누적 가산 결과의 변화량은 작아지게 된다. 그러므로, 시간에 대한 dsm 누적 가산 결과의 변화량이 소정의 임계치보다 작다면, 정확한 이동 벡터가 얻어지게 되어, 평균 에러 레벨 MEL이 최소치로 설정될 수 있다고 판단될 수 있다. 즉, 콘트라스트의 레벨이 높거나 낮은의 정도에 의해 발생되는 차분 절대치합 dsm의 변화에 관계없이, 에러가 검출될 수 있다. In general, the higher the reliability of the motion vector, the smaller the amount of change in the dsm cumulative addition result over time. Therefore, if the amount of change in the dsm cumulative addition result over time is smaller than the predetermined threshold, an accurate motion vector can be obtained, and it can be determined that the average error level MEL can be set to the minimum value. That is, an error can be detected irrespective of the change in the absolute difference sum dsm caused by the degree of high or low contrast.

그러므로, 콘트라스트가 높은 화상에 대해서는, 에러 검출시에, 과도하게 높은 감도가 방지되며, 콘트라스트가 낮은 화상에 대해서는 에러 검출시의 오류 발생이 감소된다. MC 화상내의 왜곡이 억제될 수 있다. Therefore, for images with high contrast, excessively high sensitivity is prevented at the time of error detection, and occurrence of errors at error detection is reduced for images with low contrast. Distortion in the MC image can be suppressed.

상기에서, 시간에 대한 누적 가산 결과의 변화량에 근거하여 에러를 검출하 는 화상 처리 장치가 기술되었지만, 입력 화상의 이동 비율에 근거하여 에러를 검출하도록 화상 처리 장치가 설계될 수 있다. In the above, the image processing apparatus for detecting an error based on the amount of change in the cumulative addition result with respect to time has been described, but the image processing apparatus can be designed to detect the error based on the movement ratio of the input image.

도 30은, 입력 화상의 이동 비율에 근거하여 에러를 검출하도록 설계된 화상 처리 장치의 한 실시예에 따르는 대표적인 보기를 도시하고 있다. 여기에서, 도 30에 도시된 화상 처리 장치에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있고 실제적으로 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. 30 shows an exemplary view according to one embodiment of an image processing apparatus designed to detect an error based on a movement ratio of an input image. Here, in the image processing apparatus shown in FIG. 30, elements having substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. 1 are denoted with substantially the same reference numerals and have substantially the same reference numerals. Is indicated. Description thereof is omitted as necessary.

즉, 에러 처리부(14)와 이동 벡터 추정부(12) 대신에 에러 처리부(512)와 이동 벡터 추정부(511)가 배치되어 있다는 점에서, 도 30에 도시된 화상 처리 장치(1)는, 도 1에 도시된 화상 처리 장치(1)와 다르다. That is, since the error processing unit 512 and the motion vector estimating unit 511 are disposed in place of the error processing unit 14 and the motion vector estimating unit 12, the image processing apparatus 1 shown in FIG. It is different from the image processing apparatus 1 shown in FIG.

이동 벡터 추정부(511)는, 차분 절대치합계산부(511a), 비교부(511b) 및 이동 벡터 계산부(511c) 및 차분 절대치의 고정 블록합 계산부(511d)를 포함한다. 이들 중에서, 차분 절대치합계산부(511a), 비교부(511b) 및 이동 벡터 계산부(511c)는, 이동 벡터 추정부(12)의 차분 절대치합계산부(12a), 비교부(12b) 및 이동 벡터 계산부(12c)에 의해 실행되는 것과 실제적으로 동일한 처리를 수행한다. 차분 절대치의 고정 블록합 계산부(511d)는 주목 블록과 실제적으로 동일한 위치에서 직전의 화상내에 위치하는 블록의 화소들과, 입력 화상내의 주목 화상(처리 목표 화소)에 대응하는 주목 블록의 화소들을 판독하고, 대응되는 화소 위치의 화소들간의 차분 절대치합을 산출한다(이후에는, 차분 절대치의 고정블록합으로 칭한 다.) 그리고 블록 내의 화소들은 주목 블록내의 화소들의 구조와 실제적으로 동일한 구조를 가진다. The motion vector estimating unit 511 includes a difference absolute value calculating unit 511a, a comparing unit 511b, a motion vector calculating unit 511c, and a fixed block sum calculating unit 511d of the absolute difference value. Among them, the difference absolute value calculation unit 511a, the comparison unit 511b, and the motion vector calculation unit 511c include the difference absolute value calculation unit 12a, the comparison unit 12b, and the motion vector of the motion vector estimation unit 12. The processing which is substantially the same as that executed by the calculation unit 12c is performed. The fixed block sum calculating unit 511d of the difference absolute value selects the pixels of the block located in the immediately preceding image at the same position as the block of interest and the pixels of the block of interest corresponding to the target image (processing target pixel) in the input image. Reads and calculates the absolute difference value between the pixels at the corresponding pixel positions (hereinafter referred to as the fixed block sum of the absolute difference values). The pixels in the block have a structure substantially identical to that of the pixels in the block of interest. .

에러 처리부(512)는, 이동 비율 산출부(512a), 누적부(512b), MEL 산출부(512c) 및 합성부(512d)를 갖추고 있다. 이들 중, MEL 산출부(512c) 및 합성부(512d)는, 에러 처리부(14)의 MEL 산출부(14b) 및 합성부(14c)에 의해 실행되는 것과 실제적으로 동일한 처리를 실행한다. 입력 화상의 화소들의 각각에 대해, 이동 비율 산출부(512a)는 이동 벡터 추정부(511)에서 공급되는 차분 절대치합을 대응하는 차분 절대치의 고정블록합으로 계산하여, 입력 화상내의 이동 정도를 나타내는 변수로서, 이동 비율이 되는 계산 결과를 누적부(512b)에 공급한다. 입력 화상의 화소들의 각각에 대해, 누적부(512b)는 이동 정도 비율 결과를 차분 절대치합에 누적 가산하여, MEL 산출부(512c)에 공급한다. 즉, 에러 처리부(512)는, 입력 화상의 화소들의 각각에 대해, 차분 절대치합과 차분 절대치의 고정블록합의 비율에 따라 MC 화상과 입력 화상을 합성한다. 그리고, 표시부(2)에 합성 화상을 출력하여 표시시킨다. The error processing unit 512 includes a movement ratio calculating unit 512a, an accumulating unit 512b, an MEL calculating unit 512c, and a combining unit 512d. Among them, the MEL calculating unit 512c and the combining unit 512d execute substantially the same processes as those executed by the MEL calculating unit 14b and the combining unit 14c of the error processing unit 14. For each of the pixels of the input image, the movement ratio calculator 512a calculates the difference absolute value supplied from the motion vector estimator 511 as the fixed block sum of the corresponding difference absolute values to indicate the degree of movement in the input image. As a variable, a calculation result, which is a movement rate, is supplied to the accumulation unit 512b. For each of the pixels of the input image, the accumulation unit 512b accumulatively adds the movement degree ratio result to the difference absolute value and supplies it to the MEL calculation unit 512c. That is, the error processing unit 512 synthesizes the MC image and the input image for each of the pixels of the input image according to the ratio of the fixed block sum of the absolute difference value and the absolute difference value. Then, the synthesized image is output to the display unit 2 and displayed.

다음에, 도 30에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 설명된다. 여기에서, 화상 처리는 기본적으로 도 2에 도시된 플로차트를 참조하여 설명된 것과 실제적으로 동일하다. 그러므로, 도 2를 참조하여 설명된 기재는 생략된다. 게다가, 도 2의 플로 차트에 도시된 이동 벡터 추정 처리와 에러 처리 면에서, 도 30에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리가 도 1에 도시된 화상 처리 장치(1)에 의해 실행되는 화상 처리와 다르다. 그러므로, 도 30에 도시된 화상 처리 장치에 의해 실행되는 이동 벡터 추정 처리는 도 31의 플로 차트를 참조하여 설명된다. 다음에는, 도 30의 화상 처리 장치(1)에 의해 실행되는 이동 벡터 추정 처리와 에러 처리가 설명된다. Next, image processing executed by the image processing apparatus 1 shown in FIG. 30 will be described. Here, the image processing is basically the same as that described with reference to the flowchart shown in FIG. Therefore, the description described with reference to FIG. 2 is omitted. In addition, in terms of the motion vector estimation processing and error processing shown in the flowchart of FIG. 2, the image processing executed by the image processing device 1 shown in FIG. 30 is transferred to the image processing device 1 shown in FIG. 1. It is different from the image processing performed by. Therefore, the motion vector estimation process performed by the image processing apparatus shown in FIG. 30 is described with reference to the flowchart of FIG. Next, motion vector estimation processing and error processing executed by the image processing apparatus 1 of FIG. 30 will be described.

먼저, 도 31의 플로차트를 참조하면서, 도 30에 도시된 화상 처리 장치(1)에의해 실행되는 이동 벡터 추정 처리가 설명된다. 여기에서, 도 31의 플로차트내의 스텝(S531-S539)에서 실행되는 처리들은 도 3의 플로차트내의 스텝(S31-S39)에서 실행되는 처리들과 실제적으로 동일하다. 그러므로, 그에 대한 설명은 생략한다. First, with reference to the flowchart of FIG. 31, the motion vector estimation process performed by the image processing apparatus 1 shown in FIG. 30 will be described. Here, the processes executed in steps S531-S539 in the flowchart of FIG. 31 are substantially the same as the processes executed in steps S31-S39 in the flowchart of FIG. 3. Therefore, description thereof is omitted.

즉, 스텝(S540)에서, 고정 블록합 계산부(511d)는, 주목 블록과 실제적으로 동일한 위치에서 직전의 화상내에 위치하는 블록의 화소들과, 입력 화상내의 주목 화상(처리 목표 화소)에 대응하는 주목 블록의 화소들을 판독하고, 대응되는 화소 위치의 화소들간의 차분 절대치합을 산출한다. 그리고 블록 내의 화소들은 주목 블록내의 화소들과 그 구조가 실제적으로 동일하다. That is, in step S540, the fixed block sum calculating unit 511d corresponds to the pixels of the block located in the immediately preceding image at the substantially same position as the block of interest and the target image (processing target pixel) in the input image. The pixels of the block of interest are read, and the absolute difference value between the pixels at the corresponding pixel positions is calculated. The pixels in the block are substantially the same in structure as the pixels in the block of interest.

예를 들면, 도 32의 사선으로 도시한 바와 같이, 입력 화상 F1에 있어서의 주목 화소 p(i,j)에 대응하는 실제적으로 동일한 구조의 직전 화상 F2의 참조 화소 p(i,j)가 배치되어 있다. 실제적으로 동일한 구조의 주목 화소 p(i,j)는 입력 화상 F1에 있어서의 주목 화소 p(i,j)의 위치와 실제적으로 동일한 위치에 배치되어 있다. For example, as shown by the oblique line in FIG. 32, the reference pixel p (i, j) of the immediately preceding image F2 having a substantially identical structure corresponding to the pixel of interest p (i, j) in the input image F1 is disposed. It is. The pixel of interest p (i, j) having substantially the same structure is disposed at a position substantially the same as the position of the pixel of interest p (i, j) in the input image F1.

여기에서, 도 32에서는, 도 32의 상부의 화상 F1은 입력 화상을 나타내며, 화상 F2는 직전의 화상을 나타낸다. 화상 F1은 발생되는 MC 화상을 나타낸다. 셀들의 각각은 화소를 나타내며, (x,y)는 직전 화상의 화소의 위치 좌표를 나타낸다. Here, in FIG. 32, the image F1 of the upper part of FIG. 32 represents an input image, and the image F2 represents the immediately previous image. Image F1 represents the MC image to be generated. Each of the cells represents a pixel, and (x, y) represents the position coordinates of the pixel of the previous image.

차분 절대치의 고정 블록합 계산부(511d)는 주목 화소 p(i,j)에 대응하는 주목 블록 B를 구성하는 화소들의 화소값들과, 실제적으로 동일한 구조의 화소에 대응하는 실제적으로 동일한 구조의 블록 B'를 구성하는 화소들의 화소값들을 추출한다. 즉, 도 32에 도시한 경우에서는, 주목 화소 p(i,j)에 대응하는 주목 블록 B는 입력 화상 F1내의 태선으로 표시한 복수의 화소들로 구성된 블록이다. 그리고, 실제적으로 동일한 구조의 블록 B‘는 직전 화상 F2내의 태선으로 표시한 복수의 화소들로 구성된 블록이다. 도 32에서는, 도 4와 같이, 주목 블록 B와 실제적으로 동일한 구조의 주목 블록 B’가, 각각 15개의 화소들로 구성된 블록이다. The fixed block sum calculation unit 511d of the difference absolute value has a substantially identical structure corresponding to the pixel values of the pixels constituting the block B of interest corresponding to the pixel of interest p (i, j) and corresponding to a pixel of the same structure. Pixel values of the pixels constituting the block B 'are extracted. That is, in the case shown in Fig. 32, the block of interest B corresponding to the pixel of interest p (i, j) is a block composed of a plurality of pixels indicated by a solid line in the input image F1. In addition, a block B 'having a substantially identical structure is a block composed of a plurality of pixels indicated by a solid line in the previous image F2. In FIG. 32, as shown in FIG. 4, the block of interest B ′ having the same structure as that of the block of interest B is a block composed of 15 pixels.

도 32에서, 입력 화상내에서 기점이 주목 화소 p(i,j)가 되며, 종점이 실제적으로 동일 구조의 화소 p(i,j)가 되는 이동 벡터 v0(i,j)는 0의 이동량을 가진다. 즉, 정지 벡터가 된다. In Fig. 32, the movement vector v 0 (i, j) whose starting point is the pixel p (i, j) of interest in the input image and the end point is the pixel p (i, j) of the same structure is substantially 0. Has That is, it becomes a stop vector.

차분 절대치의 고정 블록합 계산부(511d)는, 주목 블록 B를 구성하는 화소들의 화소값들과, 실제적으로 동일한 구조의 블록 B'를 구성하는 화소들의 화소값들 사이에서 얻어지는 차분 절대치의 고정 블록합 sds(i, j)를 산출하여, 차분 절대치의 고정 블록합 sds(i, j)를 에러 처리부(512)에 공급한다. The fixed block sum calculator 511d of the difference absolute value is a fixed block of absolute absolute value obtained between the pixel values of the pixels constituting the block B of interest and the pixel values of the pixels constituting the block B 'of the same structure. The sum sds (i, j) is calculated, and the fixed block sum sds (i, j) of the difference absolute value is supplied to the error processing unit 512.

스텝(S541)에서, 차분 절대치합계산부(511a)는 입력 화상내에 미처리된 화상 이 존재하는지를 판단한다. 그 안에 미처리된 화상이 존재한다면, 처리는 스텝(S531)으로 돌아간다. 즉, 이동 벡터, 차분 절대치합과 차분 절대치의 고정 블록합이 입력 화상의 모든 화소에 대해 구해질 때까지 스텝(S531-S541)이 반복적으로 수행된다. 스텝(S541)에서, 차분 절대치합계산부(511a)가 입력 화상내에 미처리된 화상이 존재하지 않는다고 판단하면, 즉, 이동 벡터가 입력 화상내의 모든 화소에 대해 구해진다면, 처리는 완료된다.In step S541, the difference absolute value calculation unit 511a determines whether there is an unprocessed image in the input image. If there is an unprocessed image therein, the process returns to step S531. That is, steps S531 to S541 are repeatedly performed until the fixed block sum of the motion vector, the difference absolute value and the difference absolute value is obtained for all the pixels of the input image. In step S541, if the difference absolute value calculation unit 511a determines that there is no unprocessed image in the input image, that is, if the motion vector is obtained for all the pixels in the input image, the process is completed.

상기 처리에서는, 입력 화상내의 모든 화소에 대해, 최소의 차분 절대치합 dsm과 차분 절대치의 고정 블록합 sds(i, j)가 구해지며, 에러 처리부(512)로 공급된다. In the above processing, the minimum difference absolute value dsm and the fixed block sum sds (i, j) of the difference absolute value are obtained for all the pixels in the input image, and are supplied to the error processing unit 512.

다음에, 도 33을 참조하면서, 도 30에 도시된 화상 처리 장치(1)에 의해 실행되는 에러 처리가 설명된다. 여기에서, 도 33의 플로차트내의 스텝(S572-S579)에서 실행되는 처리들은 도 8의 플로차트내의 스텝(S71-S79)에서 실행되는 처리들과 실제적으로 동일하다. 그러므로, 그에 대한 설명은 생략한다. Next, referring to FIG. 33, error processing executed by the image processing apparatus 1 shown in FIG. 30 will be described. Here, the processes executed in steps S572-S579 in the flowchart in FIG. 33 are substantially the same as the processes executed in steps S71-S79 in the flowchart in FIG. Therefore, description thereof is omitted.

스텝(S571)에서, 이동 비율 산출부(512a)는, 입력 화상내의 모든 화소에 대해, 이동 벡터 추정부(511)로부터 공급되는 차분 절대치합 dsm과 차분 절대치의 고정 블록합 sds(i, j)를 이용하여 입력 화상내의 이동 정도를 나타내는 변수로서, 이동 비율을 산출한다. 입력 화상내의 모든 화소에 대해, 이동 비율 산출부(512a)는, 화소에 대한 이동 비율을 차분 절대치합 dsm‘로 하여 누적부(512b)에 공급한다. In step S571, the movement ratio calculator 512a fixes the fixed absolute sum sds (i, j) of the difference absolute value dsm and the difference absolute value supplied from the motion vector estimation unit 511 to all the pixels in the input image. The movement ratio is calculated as a variable representing the degree of movement in the input image using. For all the pixels in the input image, the movement ratio calculator 512a supplies the movement ratio for the pixel to the accumulation unit 512b with the difference absolute value dsm '.

예를 들면, 이동 비율 산출부(512a)는, 다음 식(4)로 표현된 계산을 수행하 여 이동 비율을 산출한다. 여기에서, 식(4)에서는, 정수 α는 0에서 1의 범위내에서 조정되는 값이다. For example, the movement ratio calculator 512a calculates the movement ratio by performing the calculation expressed by the following equation (4). Here, in Formula (4), the constant (alpha) is a value adjusted within the range of 0-1.

dsm' = dsm(i, j)/{α×sds(i, j)}..................(4)dsm '= dsm (i, j) / {α × sds (i, j)} .................. (4)

게다가, 예를 들면, 다음 식(5)는 입력 화상의 이동 비율을 나타내는 변수로서 이동 비율을 구하기 위해 이용된다. 여기에서, 식(5)에서는, 정수 β는 0에서 1의 범위내에서 조정되는 값이다. In addition, for example, the following equation (5) is used to determine the moving ratio as a variable representing the moving ratio of the input image. Here, in the formula (5), the constant β is a value adjusted within the range of 0 to 1.

dsm' = dsm(i, j)-β×sds(i, j)....................(5)dsm '= dsm (i, j) -β × sds (i, j) ........ (5)

스텝(S571) 이후에, 스텝(S572)에서, 누적부(512b)는 입력 화상내의 화소들중 한 개의 화소에 대한 이동 비율이 되는 차분 절대치합 dsm‘를 누적 가산한다. 그리고 스텝들은 실행된다. After step S571, in step S572, the accumulation unit 512b cumulatively adds the difference absolute value dsm 'which is a movement ratio with respect to one of the pixels in the input image. And the steps are executed.

상기 처리에서는, 평균 에러 레벨 MEL은 차분 절대치합의 비율에 따라 차분 절대치의 고정 블록합으로 설정될 수 있다. In the above processing, the average error level MEL can be set to a fixed block sum of the difference absolute values according to the ratio of the difference absolute values.

일반적으로, 이동 벡터의 신뢰도가 높아지면, 차분 절대치합 dsm은 차분 절대치의 고정 블록합 sds보다 더욱 작아지게 된다. 즉, 이동 벡터의 신뢰도가 높아지면, 이동 정도(degree of motion)는 작아지게 된다. 예를 들면, 도 34에 도시한 바와 같이, 정확한 이동 벡터를 구하는 것이 가능한 화상에서는, (색칠된) 정사각형 심볼 라인으로 표시된 sds 누적 가산 결과에 대해, (채워진)다이아몬드 심볼 라인에 의해 표시된 차분 절대치합 dsm은 매우 작다. 게다가, 도 35에 도시된 바와 같이, 정확한 이동 벡터를 구하는 것이 불가능한 화상에서는, (채워진)다이아몬드 심볼 라인에 의해 표시된 차분 절대치합 dsm은, (색칠된) 정사각형 심 볼 라인으로 표시된 sds 누적 가산 결과에 대해서, 도 34에 도시된 바와 같이 매우 작지는 않다. 여기에서, 도 34에서는, 횡축이 프레임 번호를 나타내며, 세로축이 dsm 누적 가산 결과와 sds 누적 가산 결과를 나타내고 있다.In general, when the reliability of the motion vector becomes high, the difference absolute value dsm becomes smaller than the fixed block sum sds of the difference absolute value. In other words, the higher the reliability of the motion vector, the smaller the degree of motion. For example, as shown in Fig. 34, in an image capable of obtaining an accurate motion vector, the difference absolute value indicated by the (filled) diamond symbol line is compared to the sds cumulative addition result represented by the (colored) square symbol line. dsm is very small. In addition, as shown in FIG. 35, in an image where it is impossible to obtain an accurate motion vector, the difference absolute dsm represented by the (filled) diamond symbol line is added to the sds cumulative addition result represented by the (colored) square symbol line. In this regard, it is not very small as shown in FIG. 34. In FIG. 34, the horizontal axis represents the frame number, and the vertical axis represents the dsm cumulative addition result and the sds cumulative addition result.

그러므로, 식(4)로 표현된 차분 절대치합 dsm‘이 되는 이동 비율이 작다면, 정확한 이동 벡터가 얻어지게 되어, 평균 에러 레벨 MEL은 최소로 설정될 수 있게 된다. 즉, 높은 레벨에서 낮은 레벨 사이의 범위에 있는 콘트라스트에 의해 발생되는 차분 절대치합 dsm의 변화에 관계없이, 에러가 검출될 수 있다.Therefore, if the moving ratio that is the difference absolute value dsm 'represented by equation (4) is small, an accurate moving vector is obtained, and the average error level MEL can be set to the minimum. In other words, an error can be detected regardless of the change in the absolute difference sum dsm caused by the contrast in the range between the high level and the low level.

그러므로, 콘트라스트가 높은 화상에 대한 에러 검출시에 과도하게 높은 감도 방지되며, 콘트라스트가 낮은 화상에 대해서는 에러 검출시에 에러 발생이 감소되므로, MC 화상내의 왜곡이 억제될 수 있다. Therefore, excessively high sensitivity is prevented at the time of error detection for an image with high contrast, and error occurrence at the time of error detection is reduced for an image with low contrast, so that distortion in the MC image can be suppressed.

상기에서는, 입력 화상 전체에서 검출되는 이동 정도에 따라 에러를 검출할 수 있는 화상 처리 장치가 설명되었다. 그러나, 화상의 소정 이상의 비율이 고정 영역이라면, 낮은 신뢰도를 가지는 이동 벡터가 화상내의 다른 영역에서 얻어지더라도, 화상 전체의 차분 절대치합 dsm은 커다란 값이 되지 않게 된다. 그러므로, 이러한 경우에도, 낮은 신뢰도를 가지는 이동 벡터가 검출되는 실시예가 설명된다. In the above, the image processing apparatus which can detect an error according to the movement degree detected in the whole input image was demonstrated. However, if a predetermined or more ratio of the image is a fixed region, even if a motion vector having a low reliability is obtained in another region in the image, the absolute absolute difference dsm of the whole image does not become a large value. Therefore, even in this case, an embodiment in which a motion vector having low reliability is detected is described.

도 36은, 낮은 신뢰도를 가지는 이동 벡터의 존재를 검출하도록 설계된 화상 처리 장치의 다른 실시예에 따르는 대표적인 보기를 도시하고 있다. 여기에서, 도 36에 도시된 화상 처리 장치(1)에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있고 실제적으로 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. 36 shows an exemplary view according to another embodiment of an image processing apparatus designed to detect the presence of a motion vector with low reliability. Here, in the image processing apparatus 1 shown in FIG. 36, elements having substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. The same reference numerals are used. Description thereof is omitted as necessary.

즉, 에러 처리부(14)와 이동 벡터 추정부(12) 대신에 에러 처리부(611)와 이동 벡터 추정부(511)가 배치되어 있다는 점에서, 도 36에 도시된 화상 처리 장치(1)는, 도 1에 도시된 화상 처리 장치(1)와 다르다. 게다가, 도 36에 도시된 이동 벡터 추정부(511)는 도 30에 도시된 이동 벡터 추정부(511)와 기능적으로 실제적으로 동일하다. 그러므로, 그에 대한 설명은 생략한다.That is, since the error processing unit 611 and the motion vector estimating unit 511 are disposed in place of the error processing unit 14 and the motion vector estimating unit 12, the image processing apparatus 1 shown in FIG. It is different from the image processing apparatus 1 shown in FIG. In addition, the motion vector estimator 511 shown in FIG. 36 is functionally substantially the same as the motion vector estimator 511 shown in FIG. Therefore, description thereof is omitted.

에러 처리부(611)는, 이동 영역 판정부(611a), 카운터(611b), 이동 영역 누적부(611c), 평균 산출부(611d), MEL 산출부(611e) 및 합성부(611f)를 갖추고 있다. 이들 중에서, MEL 산출부(611e) 및 합성부(611f)는 도 14의 MEL 산출부(14b) 및 합성부(14c)에 의해 실행되는 처리와 실제적으로 동일한 처리들을 수행한다. 이동 영역 판정부(611a)는, 소정의 영역들중 한 영역에 대해 얻어지는 차분 절대치의 고정 블록합에 따라, 입력 화상내에 이동(이동 영역)이 존재하는 영역을 판단한다. 차분 절대치의 고정 블록합 sds는 이동 벡터 추정부(511)에서 공급된다. 카운터(611b)는 이동 영역 판정부(611a)에 의해 이동 영역으로 판정된 영역(단위 영역)의 수를 카운트한다. 그리고 그 영역의 수를 평균 산출부(611d)에 공급한다. 이동 영역 누적부(611c)는 입력 화상내에서 이동 영역으로 판정된 영역들에 대해서 차분 절대치합을 누적 가산하여, dsm 누적 가산 결과를 평균 산출부(611d)에 공급한다. 평균 산출부(611d)는 카운터(611b)에서 공급된 영역들의 수와, 이동 영역 누적부(611c)에서 공급된 dsm 누적 가산 결과에 근거하 여, 단위 영역마다의 차분 절대치합이 되는 dsm 평균을 산출한다. 그리고, dsm 평균을 MEL 산출부(611e)로 공급한다. 즉, 에러 처리부(611)는 입력 화상내의 이동 영역들의 차분 절대치합에 따라 MC 화상과 입력 화상을 합성하여, 그 합성 화상을 표시부(2)로 출력하여 표시한다. The error processing unit 611 includes a moving area determining unit 611a, a counter 611b, a moving area accumulating unit 611c, an average calculating unit 611d, a MEL calculating unit 611e, and a combining unit 611f. . Among them, the MEL calculator 611e and the combiner 611f perform the processes substantially the same as those executed by the MEL calculator 14b and the combiner 14c in FIG. The moving area determination unit 611a determines a region in which the movement (movement region) exists in the input image, according to the fixed block sum of the absolute difference value obtained for one of the predetermined regions. The fixed block sum sds of the absolute difference value is supplied from the motion vector estimating unit 511. The counter 611b counts the number of areas (unit areas) determined as the moving areas by the moving area determining unit 611a. Then, the number of regions is supplied to the average calculating unit 611d. The moving area accumulation unit 611c accumulates and adds the absolute difference value to the areas determined as the moving areas in the input image, and supplies the dsm cumulative addition result to the average calculating unit 611d. The average calculating unit 611d calculates a dsm average that is an absolute absolute difference for each unit area based on the number of areas supplied from the counter 611b and the dsm cumulative addition result supplied from the moving area accumulation unit 611c. Calculate. Then, the dsm average is supplied to the MEL calculator 611e. In other words, the error processing unit 611 synthesizes the MC image and the input image according to the difference absolute value difference of the moving regions in the input image, and outputs the synthesized image to the display unit 2 for display.

여기에서, 에러 처리부(611)는 입력 화상내의 이동 영역들의 차분 절대치합의 평균을 산출하여, 이동 영역이 아닌 영역(고정 영역)의 크기에 관게없이 에러를 검출하게 된다. 예를 들면, 입력 화상의 절반이 고정 영역이고, 다른 영역은 화상내의 피사체의 이동이 추적가능므로(follow) 정확한 이동 벡터를 구하는 것이 가능한 이동 영역이 된다면, 도 37에 도시한 바와 같이, (색칠된)정사각형 심볼 라인으로 표현된 dsm 누적 가산 결과는, (채워진)다이아몬드 심볼 라인에 의해 표시되된, 화상 전체의 dsm 누적 가산 결과보다 크다. 여기에서, 도 37에서는, 횡축이 프레임 번호를 나타내며, 세로축이 dsm 평균을 나타낸다. Here, the error processing unit 611 calculates an average of the difference absolute values of the moving areas in the input image, and detects an error regardless of the size of the area (fixed area) that is not the moving area. For example, if half of the input image is a fixed area, and the other area is a moving area where the movement of the subject in the image can be followed, a correct moving vector can be obtained, as shown in FIG. The dsm cumulative addition result represented by the square symbol line is larger than the dsm cumulative addition result of the entire image represented by the (filled) diamond symbol line. Here, in FIG. 37, the horizontal axis represents a frame number, and the vertical axis represents a dsm average.

다음에는, 도 36의 화상 처리 장치(1)에 의한 화상 처리에 대해 설명한다. 여기에서, 기본적인 화상 처리에 대해서는, 도 2의 플로차트)를 참조해 설명한 처리와 같으므로, 도 2의 플로차트의 설명에 대해서는 생략한다. 도 36의 화상 처리 장치(1)의 화상 처리가, 도 1의 화상 처리 장치(1)에 의한 화상 처리와 다른 것은, 도 2의 플로차트에 있어서의 처리들중 에러 처리이다. 그러므로, 도 36의 화상 처리 장치(1)에 의한 에러 처리를, 도 38에 도시된 플로 차트를 참조하여 설명한다. 여기에서, 도 38의 플로 차트에 있어서의 스텝(S675-S681)의 처리는, 도 8의 플로차트를 참조해 설명한 스텝(S72-S78)의 처리와 같으므로, 그 설명은 생략 하는 것으로 한다. 여기에서, 도 38의 플로 차트에 있어서의 스텝(S676, S678 S679)에서 처리된 dsm 평균은 도 8의 플로 차트에 있어서의 스텝(S72, S75, S76)에서 처리된 dsm 평균과 실제적으로 동일하게 처리될 것이다. 여기에서, 도 38의 플로 차트의 처리에서는, 단위 영역이 한 화소로 취급된다. Next, image processing by the image processing apparatus 1 of FIG. 36 will be described. Here, the basic image processing is the same as the processing described with reference to the flowchart of FIG. 2), and therefore the description of the flowchart of FIG. 2 is omitted. The image processing of the image processing apparatus 1 of FIG. 36 differs from the image processing by the image processing apparatus 1 of FIG. 1 is error processing among the processes in the flowchart of FIG. 2. Therefore, error processing by the image processing apparatus 1 in FIG. 36 will be described with reference to the flowchart shown in FIG. 38. Here, since the process of step S675-S681 in the flowchart of FIG. 38 is the same as the process of step S72-S78 demonstrated with reference to the flowchart of FIG. 8, the description is abbreviate | omitted. Here, the dsm average processed in the steps S676 and S678 S679 in the flowchart of FIG. 38 is substantially the same as the dsm average processed in the steps S72, S75 and S76 in the flowchart of FIG. Will be processed. Here, in the process of the flowchart of FIG. 38, the unit area is treated as one pixel.

즉, 스텝(S671)에서는, 이동 영역 판정부(611a)가 입력 화상내의 화소들의 한 화소에 대해 얻어지는 차분 절대치의 고정 블록합 sds에 따라 입력 화상의 화소들중에서 이동이 검출되는 화소들을, 이동 영역으로 판정한다. 특히, 차분 절대치의 고정 블록합 sds가 이동 영역에서 비교적 커다란 값이 되므로, 입력 화상내의 한 개의 화소의 차분 절대치의 고정 블록합 sds가 소정의 임계치보다 크다면, 이동 영역 판정부(611a)는 그 화소가 이동 영역이라고 판정한다.That is, in step S671, the moving area determining unit 611a moves the pixels in which the movement is detected among the pixels of the input image according to the fixed block sum sds of the absolute absolute difference obtained for one pixel of the pixels in the input image. Determined by In particular, since the fixed block sum sds of the difference absolute value becomes a relatively large value in the moving area, if the fixed block sum sds of the difference absolute value of one pixel in the input image is larger than a predetermined threshold value, the moving area determining unit 611a determines the value. It is determined that the pixel is a moving area.

스텝(S672)에서는, 카운터(611b)가 이동 영역 판정부(611a)에 의해 이동 영역으로 판정된 영역을 구성하는 화소들의 수를 카운트하여, 그 화소들의 수를 평균 산출부(611d)에 공급한다. In step S672, the counter 611b counts the number of pixels constituting the area determined by the moving area determining unit 611a as the moving area, and supplies the number of the pixels to the average calculating unit 611d. .

스텝(S673)에서는, 이동 영역 판정부(611a)에 의해 이동 영역으로 판정된 화소들에 대해, 이동 영역 누적부(611c)가 차분 절대치합 dsm을 누적 가산하여, dsm 누적 가산 결과를 평균 산출부(611d)에 공급한다. In step S673, the moving area accumulating part 611c accumulates and adds the difference absolute value dsm to the pixels determined as the moving area by the moving area determining part 611a, and averages the dsm cumulative adding result. It supplies to 611d.

스텝(S674)에서, 평균 산출부(611d)는, 카운터(611b)에서 공급된 화소들의 수와, 이동 영역 누적부(611c)에서 공급된 dsm 누적 가산 결과에 근거하여, 이동 영역내의 한 개의 화소에 대한 차분 절대치합이 되는 dsm 평균을 산출한다. 그리고, dsm 평균을 MEL 산출부(611e)로 공급한다. 그리고, 처리는 종료된다. In step S674, the average calculating unit 611d uses one pixel in the moving area based on the number of pixels supplied from the counter 611b and the dsm cumulative addition result supplied from the moving area accumulating unit 611c. Compute the dsm mean that is the difference absolute value of for. Then, the dsm average is supplied to the MEL calculator 611e. The process then ends.

상기 처리에서는, 화상의 소정 이상의 비율이 고정 영역이 되더라도, 낮은 신뢰도를 가지는 이동 벡터의 존재가 검출될 수 있다. 그러므로, 화상의 소정 이상의 비율이 고정 영역이 되는 장면의 경우에도, MC 화상내의 왜곡이 억제될 수 있다. In the above processing, even if a predetermined ratio or more of the image becomes a fixed area, the presence of a motion vector having low reliability can be detected. Therefore, even in a scene in which a predetermined ratio or more of the image becomes a fixed area, distortion in the MC image can be suppressed.

여기에서, 도 38의 플로 차트의 처리에서는, 한 개의 화소가 단위 영역으로 처리되었다. 그러나, 단위 영역은 그에 한정되지 않으며, 예를 들어, 복수의 화소, 즉 4개의 화소의 블록이 단위 영역으로 취급될 수도 있다. Here, in the process of the flowchart of FIG. 38, one pixel was processed into a unit area. However, the unit area is not limited thereto, and for example, a plurality of pixels, that is, blocks of four pixels may be treated as the unit area.

상기한 바와 같이, MC 화상내의 왜곡을 억제하는 구조들이 설명되었다. 이러한 상기 구조들은 결합될 수 있다. As described above, structures for suppressing distortion in the MC image have been described. These structures can be combined.

도 39는, 상기 구조들이 결합된 화상 처리 장치의 다른 실시예의 대표적인 보기들을 도시한 도면이다. 여기에서, 도 39에 도시된 화상 처리 장치(1)에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있고 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. 39 is a diagram showing representative examples of another embodiment of the image processing apparatus in which the above structures are combined. Here, in the image processing apparatus 1 shown in FIG. 39, elements having substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. It is indicated by a number. Description thereof is omitted as necessary.

즉, 도 39의 화상 처리 장치(1)의 화상 처리가, 도 1의 화상 처리 장치(1)에 의한 화상 처리와 다른 것은, 이동 벡터 추정부(12)와 에러 처리부(14) 대신에, 이동 벡터 추정부(511)와 에러 처리부(711)가 제공되어 있다는 점이다. 게다가, 도 39의 이동 벡터 추정부(511)는, 도 30의 이동 벡터 추정부(12)와 같이 실제적으로 동일하게 기능한다. 그러므로, 그의 설명은 생략한다.That is, the image processing of the image processing apparatus 1 of FIG. 39 is different from the image processing by the image processing apparatus 1 of FIG. 1, instead of the motion vector estimating unit 12 and the error processing unit 14. The vector estimator 511 and the error processor 711 are provided. In addition, the motion vector estimating unit 511 of FIG. 39 functions substantially the same as the motion vector estimating unit 12 of FIG. 30. Therefore, his explanation is omitted.

에러 처리부(711)는, 이동 비율 산출부(711a), 누적부(711b), 영역 분할 부(711c), 증배기(711d), MEL 산출부(711e), FD부(711f, 711g), 변화량 산출부(711h), 변화량 판정부(711i) 및 합성부(711j)를 갖추고 있다. 이들 중, 이동 비율 산출부(711a)와 누적부(711b)는, 도 30의 이동 비율 산출부(512a)와 누적부(512b)에 의해 각각 실행되는 것과 실제적으로 동일한 처리를 수행한다. 영역 분할부(711c)와 증배기(711d)는, 도 23의 영역 분할부(211a)와 증배기(211c)에 의해 각각 실행되는 것과 실제적으로 동일한 처리를 수행한다. MEL 산출부(711e), FD부(711f, 711g), 변화량 산출부(711h), 변화량 판정부(711i) 및 합성부(711j)는, 도 28의 MEL 산출부(411b), FD부(411c, 411d), 변화량 산출부(411e), 변화량 판정부(411f) 및 합성부(411g)에 의해 각각 실행되는 것과 실제적으로 동일한 처리를 수행한다. 그러므로, 그의 설명은 생략한다.The error processing unit 711 includes a movement ratio calculator 711a, an accumulator 711b, an area divider 711c, a multiplier 711d, a MEL calculator 711e, an FD unit 711f, 711g, and a change amount. A calculating section 711h, a change amount determining section 711i, and a combining section 711j are provided. Among these, the movement ratio calculation unit 711a and the accumulation unit 711b perform substantially the same processing as those executed by the movement ratio calculation unit 512a and the accumulation unit 512b in FIG. 30, respectively. The area divider 711c and the multiplier 711d perform substantially the same processing as those respectively executed by the area divider 211a and the multiplier 211c in FIG. MEL calculation part 711e, FD part 711f, 711g, the change amount calculation part 711h, the change amount determination part 711i, and the synthesis part 711j are MEL calculation part 411b and FD part 411c of FIG. 411d), the change amount calculating section 411e, the change amount determining section 411f, and the combining section 411g carry out substantially the same processing. Therefore, his explanation is omitted.

상기 구조에서는, MC 화상의 왜곡이 억제될 수 있다. In the above structure, distortion of the MC image can be suppressed.

여기에서, 도 39의 화상 처리 장치(1)에 의해 실행되는 화상 처리는, 도 39의 화상 처리 장치를 구성하는 요소들에 의해 수행되는 처리들을 나타내는 플로 차트의 처리들과 동일하다. 그러므로, 그에 대한 설명은 생략한다.Here, the image processing executed by the image processing apparatus 1 of FIG. 39 is the same as the processes of the flowchart showing the processes performed by the elements constituting the image processing apparatus of FIG. 39. Therefore, description thereof is omitted.

도 40은, 상기 구조들이 결합된 화상 처리 장치의 다른 실시예의 대표적인 보기들을 도시한 도면이다. 여기에서, 도 40에 도시된 화상 처리 장치(1)에서는, 도 1에 도시된 화상 처리 장치(1)에 제공된 기능과 실제적으로 동일한 기능을 가지는 요소들에 대해 실제적으로 동일한 부호가 매겨져 있고 동일한 참조 번호로 표시되어 있다. 그에 대한 설명은 필요에 따라 생략된다. 40 is a diagram showing representative examples of another embodiment of the image processing apparatus in which the above structures are combined. Here, in the image processing apparatus 1 shown in FIG. 40, elements having substantially the same functions as those provided in the image processing apparatus 1 shown in FIG. It is indicated by a number. Description thereof is omitted as necessary.

즉, 도 40의 화상 처리 장치(1)의 화상 처리가, 도 1의 화상 처리 장치(1)에 의한 화상 처리와 다른 점은, 이동 벡터 추정부(12)와 에러 처리부(14) 대신에, 이동 벡터 추정부(511)와 에러 처리부(811)가 제공되어 있다는 점이다. 게다가, 도 40의 이동 벡터 추정부(511)는, 도 30의 이동 벡터 추정부(12)와 같이 실제적으로 동일하게 기능한다. 그러므로, 그의 설명은 생략한다.That is, the image processing of the image processing apparatus 1 of FIG. 40 differs from the image processing by the image processing apparatus 1 of FIG. 1, instead of the motion vector estimating unit 12 and the error processing unit 14. The motion vector estimator 511 and the error processor 811 are provided. In addition, the motion vector estimating unit 511 of FIG. 40 functions substantially the same as the motion vector estimating unit 12 of FIG. 30. Therefore, his explanation is omitted.

에러 처리부(811)는, 이동 영역 판정부(811a), 카운터(811b), 이동 영역 누적부(811c), 평균 산출부(811d), 이동 비율 산출부(811e), 누적부(811f), MEL 산출부(811g), FD부(811h, 811i), 변화량 산출부(811j), 변화량 판정부(811k) 및 합성부(811m)를 갖추고 있다. 이들 중에서, 이동 영역 판정부(811a), 카운터(811b), 이동 영역 누적부(811c)와 평균 산출부(811d)는, 도 36의 이동 영역 판정부(611a), 카운터(611b), 이동 영역 누적부(611c)와 평균 산출부(611d)에 의해 실행되는 처리와 실제적으로 동일한 처리들을 수행한다. 이동 비율 산출부(811e)와 누적부(811f)는, 도 30의 이동 비율 산출부(512a)와 누적부(512b)에 의해 실행되는 처리와 실제적으로 동일한 처리들을 수행한다. MEL 산출부(811g), FD부(811h, 811i), 변화량 산출부(811j), 변화량 판정부(811k) 및 합성부(811m)는, 도 도 28의 MEL 산출부(411b), FD부(411c, 411d), 변화량 산출부(411e), 변화량 판정부(411f) 및 합성부(411g)에 의해 실행되는 처리와 실제적으로 동일한 처리들을 수행한다. 그러므로, 그에 대한 설명은 생략한다.The error processing unit 811 includes a moving area determining unit 811a, a counter 811b, a moving area accumulating unit 811c, an average calculating unit 811d, a moving ratio calculating unit 811e, an accumulating unit 811f, and a MEL. A calculation unit 811g, FD units 811h and 811i, a change amount calculation unit 811j, a change amount determination unit 811k, and a combining unit 811m are provided. Among them, the moving area determining unit 811a, the counter 811b, the moving area accumulating unit 811c, and the average calculating unit 811d include the moving area determining unit 611a, the counter 611b, and the moving area of FIG. 36. Processing that is substantially the same as the processing executed by the accumulation unit 611c and the average calculating unit 611d is performed. The movement ratio calculation unit 811e and the accumulation unit 811f perform processing substantially the same as the processing executed by the movement ratio calculation unit 512a and the accumulation unit 512b in FIG. 30. The MEL calculating unit 811g, the FD units 811h and 811i, the change amount calculating unit 811j, the change amount determining unit 811k and the combining unit 811m are the MEL calculating unit 411b and the FD unit (Fig. 28). 411c, 411d, the change amount calculating unit 411e, the change amount determining unit 411f, and the combining unit 411g carry out substantially the same processes as those executed. Therefore, description thereof is omitted.

상기 구조에서는, MC 화상의 왜곡이 억제될 수 있다. In the above structure, distortion of the MC image can be suppressed.

여기에서, 도 40의 화상 처리 장치(1)에 의해 실행되는 화상 처리는, 도 40의 화상 처리 장치를 구성하는 요소들에 의해 수행되는 처리들을 나타내는 플로 차 트의 처리들과 동일하다. 그러므로, 그에 대한 설명은 생략한다.Here, the image processing executed by the image processing apparatus 1 of FIG. 40 is the same as the processes of the flowchart showing the processes performed by the elements constituting the image processing apparatus of FIG. 40. Therefore, description thereof is omitted.

상술한 일련의 정보처리는, 하드웨어에 의해 실행시킬 수도 있지만, 소프트웨어에 의해 실행시킬 수도 있다. 일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 기록매체로부터, 전용의 하드웨어에 설치된 컴퓨터내에 설치되거나, 또는 각종의 기능을 실행하는 것이 가능한, 예를 들면 범용의 퍼스널 컴퓨터 등에 설치된다.The above-described series of information processing can be executed by hardware, but can also be executed by software. When a series of processes are executed by software, a program constituting the software can be installed in a computer installed on dedicated hardware from a recording medium, or can execute various functions. It is installed in a computer.

도 41은, 범용의 퍼스널 컴퓨터의 구성예를 나타내고 있다. 이 퍼스널 컴퓨터는, CPU(Central Processing Unit)(1001)를 내장하고 있다. CPU(1001)에는 버스(1004)를 통해 입출력 인터페이스(1005)가 접속되어 있다. 버스(1004)에는, ROM(Read Only Memory)(1002) 및 RAM(Random Access Memory)(1003)이 접속되어 있다.41 shows an example of the configuration of a general-purpose personal computer. This personal computer has a CPU (Central Processing Unit) 1001 built in. The input / output interface 1005 is connected to the CPU 1001 via a bus 1004. A ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.

입출력 인터페이스(1005)에는, 이용자가 조작 명령을 입력하는 키보드, 마우스 등의 입력 디바이스로 구성되는 입력부(1006), 처리 조작 화면이나 처리 결과의 화상을 표시 디바이스에 출력하는 출력부(1007), 프로그램이나 각종 데이터를 격납하는 하드 디스크 드라이브 등으로 구성되는 기억부(1008), LAN(Local Area Network) 어댑터 등으로 구성되고, 인터넷으로 대표되는 네트워크를 통해 통신 처리를 실행하는 통신부(1009)가 접속되어 있다. 또, 자기 디스크(flexible disk를 포함한다), 광디스크(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함한다), 광학 자기 디스크(MD(Mini Disc)를 포함한다), 혹은 반도체 메모리 등의 분리가능한 매체(1011)에 대해서 데이터를 읽고 쓰는 드라이브 (1010)가 접속되어 있다.The input / output interface 1005 includes an input unit 1006 composed of input devices such as a keyboard and a mouse for inputting an operation command by the user, an output unit 1007 for outputting an image of a processing operation screen or a processing result to a display device, and a program. Or a storage unit 1008 composed of a hard disk drive for storing various data, a local area network (LAN) adapter, or the like, and a communication unit 1009 for executing communication processing via a network represented by the Internet, have. In addition, a magnetic disk (including a flexible disk), an optical disk (including a Compact Disc-Read Only Memory (CD-ROM), a digital versatile disc (DVD)), and an optical magnetic disk (including a Mini Disc) Or a drive 1010 is read and written to a removable medium 1011 such as a semiconductor memory.

CPU(1001)는, ROM(1002)에 기억되어 있는 프로그램, 또는 자기 디스크, 광디스크, 광학 자기 디스크, 혹은 반도체 메모리 등의 분리가능한 매체(1011)로부터 읽어내져 기억부(1008)에 설치되고, 기억부(1008)로부터 RAM(1003)으로 로드된 프로그램에 따라서 각종의 처리를 실행한다. RAM(1003)에는 또, CPU(1001)가 각종의 처리를 실행할 때에 필요한 데이터가 기억된다.The CPU 1001 reads from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, an optical magnetic disk, or a semiconductor memory, and is installed in the storage unit 1008 and stored therein. Various processes are executed in accordance with a program loaded from the unit 1008 into the RAM 1003. The RAM 1003 also stores data necessary for the CPU 1001 to execute various processes.

본 명세서에서, 기록 매체에 기록되는 프로그램을 기술하는 스텝은, 기재된 순서에 따라서 시계열적으로 행해지는 처리는, 물론, 반드시 시계열적으로 처리되지 않아도, 병렬적 혹은 개별적으로 실행되는 처리를 포함하는 것이다.In this specification, the steps of describing a program recorded on the recording medium include processing performed in time series according to the described order, as well as processing executed in parallel or separately even if the processing is not necessarily performed in time series. .

첨부된 청구항들 또는 그와 동등한 것들의 범위내에 있는 한, 여러가지 수정, 결합, 소결합과 변경들이 가능하다는 것을 당업자는 알 수 있다.It will be apparent to those skilled in the art that various modifications, combinations, subcombinations and modifications are possible within the scope of the appended claims or their equivalents.

도 1은, 본 발명을 적용한 화상 처리 장치의 구성예를 나타내는 블럭도이다.1 is a block diagram showing a configuration example of an image processing apparatus to which the present invention is applied.

도 2는, 화상 처리를 설명하는 플로차트이다.2 is a flowchart for explaining image processing.

도 3은, 도 1의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 플로차트이다.FIG. 3 is a flowchart for describing motion vector estimation processing by the image processing apparatus of FIG. 1.

도 4는, 도 1의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 도면이다.FIG. 4 is a diagram for explaining motion vector estimation processing by the image processing apparatus of FIG. 1.

도 5는, 도 1의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 도면이다.FIG. 5 is a diagram illustrating a motion vector estimation process by the image processing apparatus of FIG. 1.

도 6은, 이동 보상처리를 설명하는 플로차트이다.6 is a flowchart for explaining the movement compensation process.

도 7은, 이동 보상처리를 설명하는 도면이다.7 is a diagram for explaining the movement compensation process.

도 8은, 도 1의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 8 is a flowchart for describing error processing by the image processing apparatus of FIG. 1.

도 9는, 도 1의 화상 처리 장치에 의한 에러 처리를 설명하는 도면이다.FIG. 9 is a diagram for describing error processing by the image processing apparatus of FIG. 1.

도 10은, 장면 변화가 발생하거나 피사체가 빨리 이동하는 화상에 있어서의 dSm 누적 가산 결과를 설명하는 도면이다.FIG. 10 is a diagram for explaining a dSm cumulative addition result in an image in which a scene change occurs or a subject moves rapidly. FIG.

도 11은, 장면 변화가 없고 피사체의 이동이 늦은 화상에 있어서의 dSm 누적 가산 결과를 설명하는 도면이다.FIG. 11 is a diagram illustrating a dSm cumulative addition result in an image in which there is no scene change and the movement of the subject is late. FIG.

도 12는, 본 발명을 적용한 다른 화상 처리 장치의 구성예를 나타내는 블럭도이다.12 is a block diagram showing a configuration example of another image processing apparatus to which the present invention is applied.

도 13은, 도 12의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 플로차트이다.FIG. 13 is a flowchart for describing motion vector estimation processing by the image processing apparatus of FIG. 12.

도 14는, 도 12의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 도면이다.FIG. 14 is a diagram for explaining motion vector estimation processing by the image processing apparatus of FIG. 12.

도 15는, 도 12의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 15 is a flowchart for describing error processing by the image processing device of FIG. 12.

도 16은, 도 12의 화상 처리 장치에 의한 에러 처리를 설명하는 도면이다.FIG. 16 is a diagram for describing error processing by the image processing device of FIG. 12.

도 17은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. 17 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 18은, 도 17의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 18 is a flowchart for describing error processing by the image processing device of FIG. 17.

도 19는, 도 17의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 도면이다.19 is a diagram illustrating a motion vector estimation process by the image processing device of FIG. 17.

도 20은, 장면 변화를 포함하는 화상에 대해 dsm 누적 가산 결과의 감쇠를 나타내는 도면이다.20 is a diagram illustrating attenuation of the dsm cumulative addition result for an image including a scene change.

도 21은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. 21 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 22는, 도 21의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 22 is a flowchart for describing error processing by the image processing device of FIG. 21.

도 23은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. Fig. 23 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 24는, 도 23의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.24 is a flowchart for describing error processing by the image processing device of FIG. 23.

도 25는, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. 25 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 26은, 도 25의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 26 is a flowchart for describing error processing by the image processing device of FIG. 25.

도 27은, 도 25의 화상 처리 장치에 의한 에러 처리를 설명하는 도면이다.FIG. 27 is a diagram for describing error processing by the image processing device of FIG. 25.

도 28은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. Fig. 28 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 29는, 도 28의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 29 is a flowchart for describing error processing by the image processing device of FIG. 28.

도 30은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. 30 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 31은, 도 30의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 플로차트이다.FIG. 31 is a flowchart for describing motion vector estimation processing by the image processing apparatus of FIG. 30.

도 32는, 도 30의 화상 처리 장치에 의한 이동 벡터 추정 처리를 설명하는 도면이다.32 is a diagram illustrating a motion vector estimation process by the image processing device of FIG. 30.

도 33은, 도 30의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.33 is a flowchart for describing error processing by the image processing device of FIG. 30.

도 34는, 정확한 이동 벡터가 얻어지는 경우에 dsm 누적 가산 결과와 sds 누 적 가산 결과를 나타내는 도면이다. Fig. 34 is a diagram showing dsm cumulative addition results and sds accumulation addition results when an accurate motion vector is obtained.

도 35는, 정확한 이동 벡터가 얻어지지 않는 경우에 dsm 누적 가산 결과와 sds 누적 가산 결과를 나타내는 도면이다. Fig. 35 is a diagram showing the dsm cumulative addition result and the sds cumulative addition result when the exact motion vector is not obtained.

도 36은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. 36 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 37은, 화상내에서 피사체의 이동을 추적하기 어려우므로 정확한 이동 벡터를 구하는 것이 불가능한 경우에 dsm 평균을 나타내는 도면이다. Fig. 37 is a diagram showing the dsm average when it is difficult to track the movement of a subject in an image and it is impossible to obtain an accurate movement vector.

도 38은, 도 36의 화상 처리 장치에 의한 에러 처리를 설명하는 플로차트이다.FIG. 38 is a flowchart for describing error processing by the image processing device of FIG. 36.

도 39는, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. Fig. 39 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 40은, 본 발명이 적용된 다른 화상 처리 장치의 대표적인 구조를 나타내는 블록도이다. 40 is a block diagram showing a typical structure of another image processing apparatus to which the present invention is applied.

도 41은, 퍼스널 컴퓨터의 구성예를 설명하는 도면이다.41 is a view for explaining an example of the configuration of a personal computer.

Claims (17)

화상 처리 장치에 있어서,In the image processing apparatus, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 수단과;Pixel values of the pixels of the block of interest including a plurality of pixels corresponding to the pixels of interest in the first image, and reference blocks corresponding to the reference pixels of the second image whose display timing is different from that of the first image. Differential absolute value calculating means for calculating an absolute difference value between pixel values of a plurality of pixels of substantially the same arrangement as the block of interest; 상기 차분 절대치합계산 수단에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 구하는 제 1비교 수단과; First comparing means for comparing the difference absolute values calculated by the difference absolute value calculating means to obtain a minimum difference absolute value; 상기 제 1비교 수단에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정 수단과; Motion vector estimating means for estimating a motion vector of the pixel of interest based on the reference pixel which is the minimum of the absolute difference values obtained by the first comparing means and the pixel of interest; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성하는 이동 보상화상 생성 수단과; Motion compensation image generating means for generating a motion compensation image by using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image and; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 제 1의 누적 가산 수단과; First cumulative adding means for cumulatively adding the difference absolute value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained for each pixel of the first image; 상기 누적 가산 수단에 의해 구해진 누적 가산 결과에 근거하여, 상기 제 1 의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성 수단을 포함하며, Interpolation image generating means for synthesizing each pixel in the first image and each pixel in the corresponding motion compensation image based on the cumulative addition result obtained by the cumulative addition means, to generate an interpolation image; , 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응하는 화상 처리 장치.And each of the pixels of the first image corresponds to each of the pixels in the movement compensation image. 제 1항에 있어서, The method of claim 1, 상기 누적 가산 결과의 비율을 이용하여, 상기 누적 가산 결과를, 상기 누적 가산 결과에 대해 설정된 소정의 최대치로 양자화하는 양자화 수단을 추가로 포함하며,Quantization means for quantizing the cumulative addition result using a ratio of the cumulative addition result to a predetermined maximum value set for the cumulative addition result, 상기 보간 화상 생성 수단은, 상기 양자화 수단에 의해 양자화된 상기 누적 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와 대응하는 상기 이동 보상화상의 각 화소를 합성하고, 보간 화상을 생성하는 화상 처리 장치.The interpolation image generating means synthesizes each pixel of the motion compensation image corresponding to each pixel in the first image based on the cumulative result quantized by the quantization means to generate an interpolation image. Image processing apparatus. 제 2항에 있어서, The method of claim 2, 상기 보간 화상 생성 수단은, 상기 양자화 수단에 의해 양자화된 상기 누적 결과가 제 1의 소정의 임계량보다 작은 화소에 대해서는, 상기 제 1의 화상에 있어서의 화소를, 그대로 사용하여 보간 화상을 생성하며, The interpolation image generating means generates an interpolation image by using the pixels in the first image as it is for pixels whose accumulation result quantized by the quantization means is smaller than a first predetermined threshold amount, 상기 양자화 수단에 의해 양자화된 상기 누적 결과가 제 2의 소정의 임계량보다 큰 화소에 대해서는, 상기 이동 보상화상에 있어서의 각 화소를 그대로 사용하여, 보간 화상을 생성하는 화상 처리 장치.An image processing apparatus for generating an interpolation image, using each pixel in the movement compensation image as it is for pixels whose cumulative result quantized by the quantization means is larger than a second predetermined threshold amount. 제 1항에 있어서, The method of claim 1, 상기 참조 화소는, 상기 제 2의 화상내에 있으며, 상기 제 1의 화상에 있어서의 상기 주목 화소에 대응하는 근방의 범위를 포함하는 화상 처리 장치.The reference pixel is in the second image, and includes an adjacent range corresponding to the pixel of interest in the first image. 제 1항에 있어서, The method of claim 1, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치를 감산하는 감산 수단과;Subtraction means for subtracting a predetermined value from the cumulative addition result in the second image; 상기 감산 수단에 의해 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값과, 상기 제 1의 화상에 있어서의 누적 가산 결과를 비교하여, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값이 상기 제 1의 화상에 있어서의 누적 가산 결과보다 큰 경우, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값을 상기 제 1의 화상에 있어서의 누적 가산 결과로 치환하고,The cumulative addition in the second image is compared with a value obtained by subtracting a predetermined value from the cumulative addition result in the second image by the subtraction means and the cumulative addition result in the first image. If the value from which the predetermined value is subtracted from the result is larger than the cumulative addition result in the first image, the value obtained by subtracting the predetermined value from the cumulative addition result in the second image is determined in the first image. Replace with the cumulative addition result of, 상기 제 2의 화상에 있어서의 누적 가산 결과로부터 소정치가 감산된 값이 상기 제 1의 화상에 있어서의 누적 가산 결과보다 크지 않은 경우, 상기 제 1의 화상에 있어서의 누적 가산 결과를 그대로 출력하는 제 2비교 수단을 추가로 포함하는 화상 처리 장치.When a value obtained by subtracting a predetermined value from the cumulative addition result in the second image is not larger than the cumulative addition result in the first image, the cumulative addition result in the first image is output as it is. And a second comparing means. 제 1항에 있어서, The method of claim 1, 상기 제 2의 화상에 있어서의 누적 가산 결과가 제 1의 임계량보다 크고, 상기 제 2의 화상에 있어서의 누적 가산 결과에서 상기 제 1의 화상에 있어서의 누적 가산 결과로 증가된 양이 소정의 제 2임계량보다 큰 경우에, 이동 벡터 추정 수단에 의해 추정된 이동 벡터를 0의 이동량을 가지는 정지 벡터로 재설정하는 명령을 전송하는 명령 수단을 추가로 포함하는 화상 처리 장치. The cumulative addition result in the second image is larger than the first threshold amount, and the amount increased as a result of the cumulative addition in the first image from the cumulative addition result in the second image is a predetermined amount. And an instruction means for transmitting a command for resetting the motion vector estimated by the motion vector estimating means to a still vector having a movement amount of zero, when larger than two thresholds. 제 6항에 있어서, The method of claim 6, 상기 명령 수단으로부터 전송된 상기 명령에 따라, 이동 벡터 추정 수단에 의해 추정된 상기 이동 벡터를 0의 이동량을 가지는 상기 정지 벡터로 재설정하는 재설정 수단을 추가로 포함하는 화상 처리 장치. And resetting means for resetting the motion vector estimated by the motion vector estimating means to the stop vector having a movement amount of zero in accordance with the command transmitted from the command means. 제 1항에 있어서, The method of claim 1, 상기 제 1화상내의 주목 화소에 대응하며, 복수의 화소들을 포함하는 주목블록내의 화소들의 화소치들과, 상기 주목 화소와 동일한 위치에서, 상기 제 2화상내에 배치되고 상기 제 1화상과 같은 동일 구조의 화소에 대응하는 동일 구조의 블록내에서, 상기 주목 블록내의 화소들과 동일한 구조를 가지는 화소들의 화소치들간의 차분 절대치의 고정블록합(a stationary-block sum of absolute differences)을 산출하는 차분 절대치의 고정 블록합 계산수단과;Pixel values of the pixels in the block of interest corresponding to the pixel of interest in the first image and including a plurality of pixels, and at the same position as the pixel of interest, disposed in the second image and of the same structure as the first image; In a block of the same structure corresponding to a pixel, fixing of a difference absolute value that yields a stationary-block sum of absolute differences between pixel values of pixels having the same structure as the pixels in the block of interest. Block sum calculation means; 차분 절대치의 고정 블록합 계산수단에 의해 산출된 차분 절대치의 고정 블록합과, 상기 제 1비교수단에 의해 얻어진 차분 절대치합의 최소치에 따라, 각각의 주목 화소에 대한 변수를 산출하는 산출수단과;Calculating means for calculating a variable for each pixel of interest according to the fixed block sum of the difference absolute values calculated by the fixed block sum calculation means of the difference absolute values and the minimum value of the difference absolute values obtained by the first comparing means; 상기 주목 화소에 대해 상기 산출 수단에 의해 산출된 변수를 누적 가산하는 제 2의 누적 가산 수단을 추가로 포함하며,Second cumulative adding means for cumulatively adding the variable calculated by the calculating means with respect to the pixel of interest; 상기 보간 화상 생성 수단은 상기 제 2의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며,The interpolation image generating means synthesizes the pixels in the first image and the motion compensation image according to the cumulative addition result obtained by the second cumulative adding means to generate the compensation image, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응하는 화상 처리 장치. And each of the pixels in the first image corresponds to each of the pixels of the movement compensation image. 제 1항에 있어서, The method of claim 1, 상기 제 1화상내의 주목 화소에 대응하며, 복수의 화소들을 포함하는 주목블록내의 화소들의 화소치들과, 상기 주목 화소와 동일한 위치에서, 상기 제 2화상내에 배치되고 상기 제 1화상과 같은 동일 구조의 화소에 대응하는 동일 구조의 블록내에서, 상기 주목 블록내의 화소들과 동일한 구조를 가지는 화소들의 화소치들간의 차분 절대치의 고정블록합을 산출하는 차분 절대치의 고정 블록합 계산수단과;Pixel values of the pixels in the block of interest corresponding to the pixel of interest in the first image and including a plurality of pixels, and at the same position as the pixel of interest, disposed in the second image and of the same structure as the first image; Fixed block sum calculation means for calculating a difference absolute value of the absolute absolute value in a block of the same structure corresponding to the pixel, the fixed block sum of the absolute difference value of the pixels having the same structure as the pixels in the block of interest; 차분 절대치의 고정 블록합 계산수단에 의해 산출된 차분 절대치의 고정 블록합중에서, 소정의 임계량보다 큰 차분 절대치의 고정 블록합에 대응하며, 상기 주목 화소를 포함하는 영역에 대해서, 차분 절대치합을 누적 가산하는 제 2의 누적 가산 수단을 추가로 포함하며,Of the fixed block sums of the absolute difference values calculated by the fixed block sum calculating means of the difference absolute values, the absolute absolute sums are accumulated in the region including the pixel of interest corresponding to the fixed block sums of the difference absolute values larger than a predetermined threshold amount. Further comprising a second cumulative adding means for adding, 상기 보간 화상 생성 수단은 상기 제 2의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며,The interpolation image generating means synthesizes the pixels in the first image and the motion compensation image according to the cumulative addition result obtained by the second cumulative adding means to generate the compensation image, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응하는 화상 처리 장치. And each of the pixels in the first image corresponds to each of the pixels of the movement compensation image. 제 9항에 있어서,The method of claim 9, 상기 제 2의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 따라, 차분 절대치의 고정 블록합의 평균을 산출하는 평균 산출 수단을 추가로 포함하는 화상 처리 장치. And an average calculating means for calculating an average of the fixed block sums of the absolute difference values according to the cumulative addition result obtained by the second cumulative addition means. 제 1항에 있어서,The method of claim 1, 상기 제 1의 누적 가산 수단에 의해 얻어진 누적 가산 결과에 대해, 시간에 따르는 변화량을 산출하는 변화량 산출 수단을 추가로 포함하며, And a change amount calculating means for calculating a change amount according to time with respect to the cumulative addition result obtained by the first cumulative addition means, 상기 보간 화상 생성 수단은, 상기 변화량 산출 수단에 의해 얻어진 변화량에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며,The interpolation image generating means synthesizes the pixels in the first image and the moving compensation image according to the amount of change obtained by the change amount calculating means to generate the compensation image, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응하는 화상 처리 장치. And each of the pixels in the first image corresponds to each of the pixels of the movement compensation image. 제 1항에 있어서,The method of claim 1, 상기 제 1화상을 n개의 영역들로 분할하는 분할 수단과;Dividing means for dividing the first image into n regions; n개의 영역들에 대한 차분 절대치합 중에서 최대치를 n배 증배하는 증배 수단을 포함하며, a multiplication means for multiplying the maximum value n times of the difference absolute values for the n regions, 상기 분할 수단에 의해 분할된 상기 n개의 영역들중 한 영역에 대해서, 상기 차분 절대치합을 누적 가산하는 상기 제 1의 누적 가산 수단에 의해 얻어지는 상기 차분 절대치합의 각각은, 상기 n개의 영역들의 각각에 대응하며, For each of the n areas divided by the dividing means, each of the difference absolute values obtained by the first cumulative adding means for accumulating and adding the difference absolute value is to each of the n areas. In response, 상기 보간 화상 생성 수단은, 상기 증배 수단에 의해 얻어진 상기 차분 절대치합에 따라 상기 제 1화상내의 화소들과, 상기 이동 보상 화상을 합성하여 상기 보상 화상을 생성하며,The interpolation image generating means generates the compensation image by combining pixels in the first image and the motion compensation image according to the difference absolute value obtained by the multiplication means, 제 1화상내의 화소들의 각각은, 상기 이동 보상 화상의 화소들의 각각에 대응하는 화상 처리 장치. And each of the pixels in the first image corresponds to each of the pixels of the movement compensation image. 제 1항에 있어서,The method of claim 1, 상기 제 1의 누적 가산 수단은, 상기 제 1화상의 단부에 위치한 한 영역을 제외한 영역에 대해서 차분 절대치합을 누적 가산하는 화상 처리 장치. And said first cumulative adding means cumulatively adds the difference absolute values to an area except one area located at the end of the first image. 화상 처리 방법에 있어서, In the image processing method, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 스텝과;Pixel values of the pixels of the block of interest including a plurality of pixels corresponding to the pixels of interest in the first image, and reference blocks corresponding to the reference pixels of the second image whose display timing is different from that of the first image. A difference absolute value calculation step of calculating a difference absolute value difference between pixel values of a plurality of pixels of substantially the same arrangement as the block of interest; 상기 차분 절대치합계산 스텝에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 판정하는 비교 스텝과; A comparison step of comparing the difference absolute value calculated by the difference absolute value calculation step to determine a minimum difference absolute value; 상기 비교 스텝에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정 스텝과; A motion vector estimating step of estimating a motion vector of the pixel of interest based on the reference pixel which is the minimum of the difference absolute values obtained by the comparison step and the pixel of interest; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성하는 이동 보상화상 생성 스텝과; A motion compensation image generation step of generating a motion compensation image by using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image and; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 제 1의 누적 가산 스텝과; A first cumulative adding step of cumulatively adding, to each pixel of the first image, a difference absolute value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained; 상기 누적 가산 스텝에서 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성 스텝을 포함하며, An interpolation image generation step of generating an interpolation image by synthesizing each pixel in the first image and each pixel in the corresponding motion compensation image based on the cumulative addition result obtained in the cumulative addition step; , 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응하는 화상 처리 방법.Wherein each of the pixels of the first image corresponds to each of the pixels in the motion compensation image. 다음의 처리를 컴퓨터가 실행하도록 하는 컴퓨터 판독 가능 프로그램에 있어서, In a computer readable program for causing a computer to execute the following processing, 상기 처리는, The processing is 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 스텝과;Pixel values of the pixels of the block of interest including a plurality of pixels corresponding to the pixels of interest in the first image, and reference blocks corresponding to the reference pixels of the second image whose display timing is different from that of the first image. A difference absolute value calculation step of calculating a difference absolute value difference between pixel values of a plurality of pixels of substantially the same arrangement as the block of interest; 상기 차분 절대치합계산 스텝에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 판정하는 비교 스텝과; A comparison step of comparing the difference absolute value calculated by the difference absolute value calculation step to determine a minimum difference absolute value; 상기 비교 스텝에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정 스텝과; A motion vector estimating step of estimating a motion vector of the pixel of interest based on the reference pixel which is the minimum of the difference absolute values obtained by the comparison step and the pixel of interest; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성하는 이동 보상화상 생성 스텝과; A motion compensation image generation step of generating a motion compensation image by using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the motion vector of each pixel of the first image and; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 제 1의 누적 가산 스텝과; A first cumulative adding step of cumulatively adding, to each pixel of the first image, a difference absolute value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained; 상기 누적 가산 스텝에서 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성 스텝을 포함하며, An interpolation image generation step of generating an interpolation image by synthesizing each pixel in the first image and each pixel in the corresponding motion compensation image based on the cumulative addition result obtained in the cumulative addition step; , 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응하는 컴퓨터 판독 가능 프로그램.Wherein each of the pixels of the first image corresponds to each of the pixels in the movement compensation image. 청구항 15항에 따르는 컴퓨터 판독 가능한 프로그램을 내부에 가지는 프로그램 기록 매체. A program recording medium having a computer readable program according to claim 15 therein. 화상 처리 장치에 있어서,In the image processing apparatus, 제 1의 화상에 있어서의 주목 화소에 대응하는 복수의 화소를 포함하는 주목 블록의 화소들의 화소치와, 상기 제 1의 화상과 표시 타이밍이 다른 제 2의 화상의 참조 화소에 대응하는 참조 블록내에서, 상기 주목 블록과 실제적으로 동일한 배치의 복수의 화소들의 화소치 사이의 차분 절대치합을 계산하는 차분 절대치합 계산 부와;Pixel values of the pixels of the block of interest including a plurality of pixels corresponding to the pixels of interest in the first image, and reference blocks corresponding to the reference pixels of the second image whose display timing is different from that of the first image. A differential absolute value calculation unit for calculating an absolute difference value between pixel values of a plurality of pixels having substantially the same arrangement as the block of interest; 상기 차분 절대치합 계산부에 의해 계산된 상기 차분 절대치합을 비교해 최소의 차분 절대치합을 구하는 비교부와; A comparison unit for comparing the difference absolute values calculated by the difference absolute value calculation unit to obtain a minimum difference absolute value; 상기 비교부에 의해 구해진 상기 차분 절대치합중 최소가 되는 상기 참조 화소와, 상기 주목 화소에 근거하여, 상기 주목 화소의 이동 벡터를 추정하는 이동 벡터 추정부와; A motion vector estimator for estimating a motion vector of the pixel of interest based on the reference pixel, which is the minimum of the difference absolute values obtained by the comparison unit, and the pixel of interest; 상기 제 1의 화상의 각 화소의 화소치를, 상기 제 1의 화상의 각 화소의 이 동 벡터에 근거하여 이동 보상화상내의 대응하는 화소들의 화소치로 이용하여, 이동 보상화상을 생성하는 이동 보상화상 생성부와; Generating a motion compensation image using a pixel value of each pixel of the first image as a pixel value of corresponding pixels in the motion compensation image based on the movement vector of each pixel of the first image. Wealth; 상기 제 1의 화상의 각 화소에 대해, 상기 이동 보상화상의 화소에 대응하는 이동 벡터가 구해질 때에 계산되는 차분 절대치합을 누적 가산하는 누적 가산부와; A cumulative adder which accumulatively adds the absolute difference value calculated when a motion vector corresponding to a pixel of the motion compensation image is obtained for each pixel of the first image; 상기 누적 가산부에 의해 구해진 누적 가산 결과에 근거하여, 상기 제 1의 화상에 있어서의 각 화소와, 대응하는 상기 이동 보상화상의 각 화소를 합성하여, 보간 화상을 생성하는 보간 화상 생성부 포함하며, An interpolation image generation unit for generating an interpolation image by synthesizing each pixel in the first image with each pixel in the corresponding motion compensation image based on the cumulative addition result obtained by the cumulative addition unit; , 제 1화상의 화소들의 각각은 이동 보상 화상내의 화소들의 각각에 대응하는 화상 처리 장치.And each of the pixels of the first image corresponds to each of the pixels in the movement compensation image.
KR20080076551A 2007-08-27 2008-08-05 Image processing apparatus, method thereof, and program KR20090023099A (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2007219421 2007-08-27
JPJP-P-2007-00219421 2007-08-27
JPJP-P-2008-00186099 2008-07-17
JP2008186098A JP2009077382A (en) 2007-08-27 2008-07-17 Image processing apparatus, method thereof, and program
JPJP-P-2008-00186098 2008-07-17
JP2008186099A JP2009077383A (en) 2007-08-27 2008-07-17 Image processing apparatus, method thereof, and program

Publications (1)

Publication Number Publication Date
KR20090023099A true KR20090023099A (en) 2009-03-04

Family

ID=40421800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080076551A KR20090023099A (en) 2007-08-27 2008-08-05 Image processing apparatus, method thereof, and program

Country Status (3)

Country Link
JP (2) JP2009077382A (en)
KR (1) KR20090023099A (en)
CN (1) CN101378511B (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077382A (en) * 2007-08-27 2009-04-09 Sony Corp Image processing apparatus, method thereof, and program
CN101882316A (en) * 2010-06-07 2010-11-10 深圳市融创天下科技发展有限公司 Method, device and system for regional division/coding of image
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
JP2013090034A (en) * 2011-10-14 2013-05-13 Sony Corp Image processing apparatus, image processing method, program, and storage medium
CN103456150A (en) * 2012-05-30 2013-12-18 华硕电脑股份有限公司 Remote control system and remote control method thereof
CN103854254B (en) 2012-11-28 2016-12-21 北京大学 A kind of arbitrary proportion image interpolation method based on autoregression model
JP2014187690A (en) * 2013-02-25 2014-10-02 Jvc Kenwood Corp Video signal processing device and method
GB2518603B (en) * 2013-09-18 2015-08-19 Imagination Tech Ltd Generating an output frame for inclusion in a video sequence
US9967461B2 (en) * 2015-10-14 2018-05-08 Google Inc. Stabilizing video using transformation matrices
CN110099279B (en) * 2018-01-31 2022-01-07 新岸线(北京)科技集团有限公司 Method for adjusting lossy compression based on hardware
JP2022002376A (en) * 2020-06-22 2022-01-06 キヤノン株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3181431B2 (en) * 1993-05-21 2001-07-03 沖電気工業株式会社 Adaptive motion interpolation signal generator using motion vector
JP3755155B2 (en) * 1994-09-30 2006-03-15 ソニー株式会社 Image encoding device
JPH09284770A (en) * 1996-04-13 1997-10-31 Sony Corp Image coding device and method
EP1237376B1 (en) * 1997-06-09 2015-08-05 Hitachi, Ltd. Image information recording medium
JPH11196422A (en) * 1997-12-16 1999-07-21 Texas Instr Inc <Ti> Encode method of image signal
JP2002354483A (en) * 2001-05-25 2002-12-06 Shibasoku:Kk Motion vector detecting method
KR100530223B1 (en) * 2003-05-13 2005-11-22 삼성전자주식회사 Frame interpolation method and apparatus at frame rate conversion
JP5177828B2 (en) * 2005-03-25 2013-04-10 株式会社Jvcケンウッド Image rate conversion method and image rate conversion apparatus
WO2007012659A1 (en) * 2005-07-28 2007-02-01 Thomson Licensing Device for generating an interpolated frame
JP2009077382A (en) * 2007-08-27 2009-04-09 Sony Corp Image processing apparatus, method thereof, and program

Also Published As

Publication number Publication date
JP2009077383A (en) 2009-04-09
JP2009077382A (en) 2009-04-09
CN101378511B (en) 2012-08-08
CN101378511A (en) 2009-03-04

Similar Documents

Publication Publication Date Title
KR20090023099A (en) Image processing apparatus, method thereof, and program
US8204124B2 (en) Image processing apparatus, method thereof, and program
US8237868B2 (en) Systems and methods for adaptive spatio-temporal filtering for image and video upscaling, denoising and sharpening
US8379120B2 (en) Image deblurring using a combined differential image
TWI455588B (en) Bi-directional, local and global motion estimation based frame rate conversion
US9240056B2 (en) Video retargeting
US8818126B2 (en) Method and apparatus for block-based image denoising
US7536049B2 (en) Image processing apparatus and method, and image pickup apparatus
KR20150037369A (en) Method for decreasing noise of image and image processing apparatus using thereof
Hou et al. Underwater image dehazing and denoising via curvature variation regularization
US8929662B2 (en) Method and apparatus for generating super-resolution image using prediction and stabilization of high-frequency information of image
JPWO2014069103A1 (en) Image processing device
US8750635B2 (en) Image processing apparatus, image processing method, program, and recording medium
KR20000076619A (en) Data processing method and apparatus
US20090310679A1 (en) Video processing apparatus and methods
JP2005150903A (en) Image processing apparatus, noise elimination method, and noise elimination program
JP2009077309A (en) Motion prediction apparatus and method
JP4886479B2 (en) Motion vector correction apparatus, motion vector correction program, interpolation frame generation apparatus, and video correction apparatus
CN108600762B (en) Progressive video frame generation method combining motion compensation and neural network algorithm
WO2011102867A1 (en) A universal blurriness measurement approach for digital imagery
US8743180B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
KR20190001444A (en) Motion prediction method for generating interpolation frame and apparatus
US8922577B2 (en) Texture information provider and frame syntheszier for image processing apparatus and method
KR101107255B1 (en) Method for Interpolating image using motion compensated pixel and apparatus therefor
KR101834952B1 (en) Apparatus and method for converting frame rate

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination