KR101105675B1 - Method and apparatus of inpainting for video data - Google Patents

Method and apparatus of inpainting for video data Download PDF

Info

Publication number
KR101105675B1
KR101105675B1 KR1020090007401A KR20090007401A KR101105675B1 KR 101105675 B1 KR101105675 B1 KR 101105675B1 KR 1020090007401 A KR1020090007401 A KR 1020090007401A KR 20090007401 A KR20090007401 A KR 20090007401A KR 101105675 B1 KR101105675 B1 KR 101105675B1
Authority
KR
South Korea
Prior art keywords
image data
inpainting
band
target
feature points
Prior art date
Application number
KR1020090007401A
Other languages
Korean (ko)
Other versions
KR20100088282A (en
Inventor
이상욱
이수빈
Original Assignee
서강대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서강대학교산학협력단 filed Critical 서강대학교산학협력단
Priority to KR1020090007401A priority Critical patent/KR101105675B1/en
Publication of KR20100088282A publication Critical patent/KR20100088282A/en
Application granted granted Critical
Publication of KR101105675B1 publication Critical patent/KR101105675B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대한 이미지를 동일하게 인페인팅하는 영상 데이터 인페인팅 방법 및 장치에 관한 것이다. The present invention relates to an image data inpainting method and apparatus for inpainting an image of an inpainting target area included in a plurality of consecutive image data in the same manner.

본 발명에 따르는 영상 데이터 인페인팅 방법은, 다수의 연속되는 영상 데이터를 입력받아 하나의 영상 데이터로 스티칭하는 제1단계; 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하는 제2단계; 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하는 제3단계; 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 제4단계;를 포함하는 것을 특징으로 한다. An image data inpainting method according to the present invention includes a first step of receiving a plurality of consecutive image data and stitching into one image data; Performing a band matching on the selected inpainting target area in the stitched image data; Removing a boundary of an edge of the inpainting target region with respect to the stitched image data in which the inpainting target region is band-matched; And dividing the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data.

영상 데이터, 인페인팅, 스티치, 밴드 매칭, 경계 제거 Image data, inpainting, stitching, band matching, border elimination

Description

영상 데이터 인페인팅 방법 및 장치{METHOD AND APPARATUS OF INPAINTING FOR VIDEO DATA}Image data inpainting method and apparatus {METHOD AND APPARATUS OF INPAINTING FOR VIDEO DATA}

본 발명은 영상 데이터 처리 기술에 관한 것으로, 더욱 상세하게는 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대해 동일하게 인페인팅하는 영상 데이터 인페인팅 방법 및 장치에 관한 것이다. The present invention relates to an image data processing technique, and more particularly, to an image data inpainting method and apparatus for inpainting the same inpainting target areas included in a plurality of consecutive image data.

최근 영화들 중에 특수 효과가 사용되지 않은 영화가 없을 정도로 특수효과는 영화에서 광범위하게 사용되고 있다. 많은 특수 효과 기술 중 인페인팅(inpainting)은 실사 영상에서 제거된 특정 영역을 주변 배경과 어울리게 채워 넣는 기술로 다양한 분야에서 널리 사용되고 있다. 예를 들면, 영화 촬영 후 영화 속 배경에 시대에 맞지 않은 물체나 사람이 있을 경우에 영화를 재촬영할 수도 있지만, 비용과 시간을 고려하여 인페인팅 기술을 사용하고 있다. In recent years, there are no movies without special effects, so special effects are widely used in movies. Among many special effects techniques, inpainting is widely used in various fields as a technique for filling a specific region removed from the live image to match the surrounding background. For example, after shooting a movie, if there is an object or person in the background that is out of date, the movie may be retaken, but inpainting technology is used in consideration of cost and time.

그런데 영화와 같이 다수의 연속되는 영상 데이터가 연이어 재생되는 경우에 상기 다수의 영상 데이터 각각에 대해 인페인팅을 이행하는 경우에는 상기 채워 넣어지는 이미지 또는 상기 인페인팅을 위한 이미지 처리 정도가 영상 데이터마다 상이해질 수 있었다. However, when a plurality of continuous image data such as a movie is reproduced in succession, when inpainting is performed on each of the plurality of image data, the degree of processing of the filled image or the image for inpainting differs for each image data. Could be done

이와 같이 연이어 재생되는 다수의 연속되는 영상 데이터 각각에 대해 동일 영역에 대한 이미지가 서로 상이해지는 것은, 상기 다수의 연속되는 영상 데이터를 연이어 재생하였을 때에 영상의 품위를 저하시키는 원인이 된다. The different images of the same area for each of a plurality of consecutive video data to be reproduced in succession are a cause of deterioration of the image quality when the plurality of consecutive video data are reproduced successively.

이에 종래에는 다수의 연속되는 영상 데이터 각각에 대한 인페인팅 대상영역에 대해 동일하게 인페인팅 처리하여, 상기 다수의 연속되는 영상 데이터 각각에 대해 인페인팅 대상영역이 일관성을 가질 수 있게 하는 기술의 개발이 절실하게 요망되었다. Therefore, in the related art, the inpainting processing is performed on the inpainting target areas for each of a plurality of consecutive image data in the same way, so that the inpainting target region can be consistent for each of the plurality of consecutive image data. It was desperately desired.

본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역을 동일하게 인페인팅하여, 다수의 연속되는 영상 데이터 각각의 인페인팅 대상영역이 일관성을 가질 수 있게 하는 영상 데이터 인페인팅 방법 및 장치를 제공하는 것을 그 목적으로 한다. The present invention provides an image data inpainting method and apparatus for inpainting target areas included in a plurality of consecutive image data in the same manner so that the inpainting target regions of each of the plurality of continuous image data can be consistent. Its purpose is to provide.

상기한 목적을 달성하기 위한 본 발명에 따르는 영상 데이터 인페인팅 방법은, 다수의 연속되는 영상 데이터를 입력받아 하나의 영상 데이터로 스티칭하는 제1단계; 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하는 제2단계; 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하는 제3단계; 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 제4단계;를 포함하는 것을 특징으로 한다. According to an exemplary embodiment of the present invention, an image data inpainting method includes: a first step of receiving a plurality of continuous image data and stitching the image data into one image data; Performing a band matching on the selected inpainting target area in the stitched image data; Removing a boundary of an edge of the inpainting target region with respect to the stitched image data in which the inpainting target region is band-matched; And dividing the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data.

그리고 상기한 본 발명에 따르는 영상 데이터 인페인팅 처리장치는, 다수의 연속되는 영상 데이터를 저장하는 메모리부; 상기 다수의 연속되는 영상 데이터를 하나의 영상 데이터로 스티칭하고, 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하고, 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하고, 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 프로세서;를 포함하는 것을 특징으로 한다. In addition, the image data inpainting processing apparatus according to the present invention includes a memory unit for storing a plurality of consecutive image data; Stitching the plurality of consecutive image data into one image data, performing band matching on an inpainting target region selected from the stitched image data, and applying the stitched image data to which the inpainting target region is band-matched. And a processor that removes a boundary of an edge of the inpainting target region and separates the stitched image data subjected to the boundary removal of the edge into a plurality of consecutive image data.

상기한 본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대해 동일하게 인페인팅함으로써, 다수의 연속되는 영상 데이터 각각의 인페인팅 결과가 일관성을 가질 수 있게 하여, 상기 인페인팅된 다수의 영상 데이터가 순차적으로 재생될 때에 고품위의 영상이 출력될 수 있게 하는 효과가 있다. According to the present invention, the inpainting target area included in the plurality of continuous image data is inpainted equally, so that the inpainting result of each of the plurality of consecutive image data can be made consistent. When the video data of the picture is reproduced in sequence, there is an effect that the high quality video can be output.

또한 본 발명은 다수의 연속되는 영상 데이터를 자동으로 스티칭하여 하나의 영상 데이터로 변환한 후에 인페인팅을 이행함으로써, 인페인팅 처리시간을 대폭적으로 절감할 수 있는 효과가 있다. In addition, the present invention has an effect of significantly reducing the inpainting processing time by automatically stitching a plurality of consecutive image data and converting the same image data into one image data.

또한 본 발명은 다수의 연속되는 영상 데이터에서 인페인팅 대상영역을 자동으로 설정함으로써, 사용자의 편이성을 극대화할 수 있는 효과가 있다. In addition, the present invention has an effect of maximizing the user's convenience by automatically setting the inpainting target area in a plurality of consecutive image data.

또한 본 발명은 자동으로 스티칭될 수 없는 영상 데이터에 대해서는 사용자에 의해 스티칭을 위한 특징점을 입력받을 수 있게 함으로써, 다양한 영상 데이터에 적용할 수 있는 효과가 있다. In addition, the present invention has an effect that can be applied to a variety of image data by allowing the user to receive a feature point for the stitching for the image data that can not be automatically stitched.

또한 본 발명은 인페인팅 대상영역을 분할하여 인페인팅을 이행함으로써, 인페인팅 결과를 향상시킬 수 있는 효과가 있다. In addition, the present invention has an effect of improving the inpainting result by dividing the inpainting target region to perform inpainting.

본 발명은 다수의 연속되는 영상 데이터에 포함된 인페인팅 대상영역에 대한 인페인팅을 동일하게 처리하여 다수의 영상 데이터 각각에 대한 인페인팅 결과가 일관성을 가질 수 있게 한다. The present invention processes the inpainting for the inpainting target region included in the plurality of consecutive image data in the same manner so that the inpainting result for each of the plurality of image data can be consistent.

<인페인팅 처리장치의 구성><Configuration of Inpainting Processing Unit>

이러한 본 발명의 바람직한 실시예에 따른 인페인팅 처리장치의 간략 구성을 도 1을 참조하여 설명한다. A brief configuration of the inpainting processing apparatus according to a preferred embodiment of the present invention will be described with reference to FIG. 1.

상기 인페인팅 처리장치의 프로세서(100)와 메모리부(102), 사용자 인터페이스(104)로 구성된다. The inpainting processor includes a processor 100, a memory unit 102, and a user interface 104.

상기 프로세서(100)는 다수의 연속되는 프레임을 제공받아 메모리부(102)에 저장하며, 상기 메모리부(102)에 저장된 다수의 연속된 영상 데이터에 대한 인페인팅을 이행한다.The processor 100 receives a plurality of consecutive frames and stores the plurality of consecutive frames in the memory unit 102, and performs inpainting on a plurality of consecutive image data stored in the memory unit 102.

그리고 상기 메모리부(102)는 상기 프로세서(100)의 처리 프로그램을 포함하는 다양한 정보를 저장하며, 상기 본 발명의 바람직한 실시예에 따른 인페인팅을 이행하기 위한 저장영역을 제공한다. The memory unit 102 stores a variety of information including a processing program of the processor 100 and provides a storage area for performing inpainting according to a preferred embodiment of the present invention.

그리고 상기 사용자 인터페이스(104)는 사용자로부터 각종 정보를 입력받아 상기 프로세서(100)에 제공한다. The user interface 104 receives various information from a user and provides the same to the processor 100.

<제1실시예에 따른 인페인팅 처리방법><Inpainting Processing Method According to First Embodiment>

본 발명의 바람직한 제1실시예에 따른 인페인팅 처리방법을 도 2의 흐름도를 참조하여 상세히 설명한다. An inpainting processing method according to a first preferred embodiment of the present invention will be described in detail with reference to the flowchart of FIG. 2.

상기 프로세서(100)는 인페인팅 대상영역을 사용자에 의해 입력받는 제1인페인팅 모드로의 동작이 요청되면(200단계), 연속된 영상 데이터들간의 특징점들을 검출한다(202단계).When the processor 100 is requested to operate in the first painting mode in which the inpainting target area is input by the user (step 200), the processor 100 detects feature points between consecutive image data (step 202).

상기 특징점들의 검출은 KLT(Kanade-Lucas-Tomasi Feature Tracker) 방법에 따른다. 이는 Birchfield, S., An implementation of the Kanade-Lucas-Tomasi feature tracker, http://www.ces.clemson.edu/ stb/klt.에 개시된 바 그 상세한 설명은 생략한다. The detection of the feature points is in accordance with the Kanade-Lucas-Tomasi Feature Tracker (KLT) method. This is disclosed in Birchfield, S., An implementation of the Kanade-Lucas-Tomasi feature tracker, http://www.ces.clemson.edu/stb/klt.

상기 KLT 방법에 따라 특징점들이 검출되면, 상기 프로세서(100)는 연속된 영상 데이터들의 특징점들에 대한 호모그래피 행렬을 검출한다(204단계).When feature points are detected according to the KLT method, the processor 100 detects a homography matrix for feature points of continuous image data (step 204).

여기서, 두 개의 연속된 영상 데이터들을 토대로 상기 호모그래피 행렬에 대해 좀 더 상세히 설명한다. Here, the homography matrix will be described in more detail based on two consecutive image data.

상기 호모그래피 행렬은 두 영상 데이터 사이의 관계를 정의하는 것으로, 두 영상 데이터에서 대응되는 특징점들을 기준으로 산출한다. The homography matrix defines a relationship between two image data and is calculated based on corresponding feature points in the two image data.

도 3은 인접한 두 영상 데이터를 도시한 것으로, 제2영상 데이터(b)에는 제1영상 데이터(a)의 특징점들(X1,X2,X3,X4) 각각에 대응되는 특징점들(X1',X2',X3',X4')이 존재한다. 상기 제1특징점들(X1,X2,X3,X4)과 상기 제2특징점들(X1',X2',X3',X4')간의 관계는 수학식 1과 같이 표현될 수 있다. FIG. 3 illustrates two adjacent image data, and the second image data b includes feature points X1 ′, X2 corresponding to each of the feature points X1, X2, X3, and X4 of the first image data a. ', X3', X4 ') exists. The relationship between the first feature points (X1, X2, X3, X4) and the second feature points (X1 ', X2', X3 ', X4') may be expressed as in Equation (1).

Figure 112009006007668-pat00001
Figure 112009006007668-pat00001

상기 수학식 1에서 H는 호모그래피 행렬으로 2차원 영상의 경우에 상기 H는 3*3 행렬로 나타낼 수 있으며, 이는 수학식 2와 같이 H에 관한 식으로 전개될 수 있다. In Equation 1, H is a homography matrix, and in the case of a two-dimensional image, H may be represented by a 3 * 3 matrix, which may be developed in terms of H as in Equation 2.

Figure 112009006007668-pat00002
Figure 112009006007668-pat00002

상기 수학식 2에서 앞의 행렬을 A로 단순화시켰을 때에, 상기 A는 (2*n)×9의 행렬이고, n은 특징점의 갯수이다. 즉, 상기 수학식 2는 인접한 두 프레임에서 대응되는 특징점이 4개일 때의 행렬을 나타낸 것이고, 대응되는 특징점이 많아지면 A의 행이 많아진다. 그리고 상기 h는 A를 특이값 분해(SINGULAR VALUE DECOMPOSITION, SVD)하여 계산한 것이다. When the preceding matrix is simplified to A in Equation 2, A is a matrix of (2 * n) x 9, and n is the number of feature points. That is, Equation 2 shows a matrix when four corresponding feature points exist in two adjacent frames, and as the corresponding feature points increase, rows of A increase. And h is calculated by S singular value decomposition (SINGULAR VALUE DECOMPOSITION, SVD).

상기 A를 특이값 분해하면 UDVT로 분해할 수 있고, 이때 V 행렬의 마지막 열이 h값, 즉 본 발명에 따른 호모그래픽 행렬 H이다.The singular value decomposition of A can be decomposed into UDV T , where the last column of the V matrix is the h value, that is, the homographic matrix H according to the present invention.

상기한 호모그래피 행렬은 RANSAC 과정을 통해 획득될 수 있다. The homography matrix may be obtained through a RANSAC process.

상기 RANSAC 과정은 다음과 같은 순서에 따른다. The RANSAC process is performed in the following order.

1. 두 영상 데이터 사이의 임의의 특징점 네 개를 선택한다. 1. Select four arbitrary feature points between the two image data.

2. 네 개의 특징점 사이의 H를 계산한다.2. Calculate H between four feature points.

3. 모든 특징점에 대해

Figure 112009006007668-pat00003
를 산출하며, 상기 P1은 제1영상 데이터의 특징점, P2는 제2영상 데이터의 특징점, K는 특징점이 수이다. 여기서, 상기 수학식 1에 따르면 P2=HP1이나, 상기 H 계산 상에 오차가 있을 수 있으므로, P2와 HP1은 동일한 값이 나오지 않는다. 상기 dk는 상기 P2와 HP1사이의 오차를 나타낸다. 3. For all feature points
Figure 112009006007668-pat00003
Where P 1 is the feature point of the first image data, P 2 is the feature point of the second image data, and K is the number of feature points. Here, according to Equation 1, P 2 = HP 1 or, since there may be an error in the H calculation, P 2 and HP 1 does not come the same value. D k represents the error between P 2 and HP 1 .

4. 상기 dk가 미리 정해둔 값 이하인 점의 개수를 NIi라 한다. 4. The number of points whose d k is equal to or less than a predetermined value is called NIi.

5. 상기 1~4 단계를 미리 정해진 횟수만큼 이행한다. 5. Perform steps 1 to 4 a predetermined number of times.

6. 상기 NIi가 최대일 때의 특징점들을 가지고 H를 다시 계산하여 최종 호모그래피 행렬 H를 획득한다. 6. Recalculate H with the feature points when the NI i is maximum to obtain the final homography matrix H.

상기한 RANSAC 과정은 반복을 통해 가장 좋은 H를 계산하기 위한 것으로, 프로세서(100)는 미리 정해진 횟수만큼 반복하여 임의의 특징점을 선택하여 H를 계산하고, 그 중 가장 좋은 H를 판단하기 위해 dk가 정해둔 값 이하인 특징점의 개수 NIi가 가장 클 때의 H가 가장 좋다고 판단하여 해당 H를 본 발명의 호모그래피 행렬로 결정한다. The RANSAC process is to calculate the best H through repetition, and the processor 100 repeats a predetermined number of times to select a random feature point to calculate H, and to determine the best H among them, d k H is determined to be the best when the number NIi of the feature points that is equal to or less than the predetermined value is the best, and the corresponding H is determined as the homography matrix of the present invention.

상기한 호모그래피 행렬의 검출이 완료되면, 상기 프로세서(100)는 호모그래피 행렬에 따라 연속된 영상 데이터들을 하나로 스티칭한다. 즉, 상기 프로세서(100)는 호모그래피 행렬을 이용하여 양선형 보간(BILINEAR INTERPOLATION)으로 스티칭 영상 데이터를 구한다. 이때 영상들이 겹치는 영역은 평균값으로 계산한다. When the detection of the homography matrix is completed, the processor 100 stitches consecutive image data into one according to the homography matrix. That is, the processor 100 obtains stitching image data by bilinear interpolation using a homography matrix. At this time, the area where the images overlap is calculated as an average value.

도 4는 본 발명에 따라 스티칭된 영상 데이터를 도시한 것으로, 도 3의 제1영상 데이터와 제2영상 데이터를 4개의 특징점을 기준으로 양선형 보간한 것이다. 4 illustrates image data stitched according to the present invention, wherein the first image data and the second image data of FIG. 3 are bilinearly interpolated based on four feature points.

이후 상기 프로세서(100)는 상기 하나로 스티칭된 영상 데이터에 대해 사용자가 사용자 인터페이스(104)를 통해 입력하는 인페인팅 대상영역에 대한 정보를 입력받는다(208단계). In operation 208, the processor 100 receives information on an inpainting target area input by the user through the user interface 104 with respect to the image data stitched into one.

상기 인페인팅 대상영역에 대한 정보가 입력되면, 상기 프로세서(100)는 상기 하나로 스티칭된 영상 데이터에 대해 인페인팅 대상영역에 대한 밴드 매칭을 이 행한다(210단계). When the information on the inpainting target region is input, the processor 100 performs band matching on the inpainting target region on the image data stitched into the one (step 210).

상기 밴드 매칭 과정을 좀더 상세히 설명한다. The band matching process will be described in more detail.

상기 프로세서(100)는 밴드 매칭을 위해 목표 영역을 둘러싸는 일정한 두께를 갖는 목표 밴드를 정의한다. The processor 100 defines a target band having a constant thickness surrounding the target region for band matching.

도 5a는 인페인팅 대상영역을 나타내고, 도 5b는 입력 영상을 확대한 것으로, 흰색영역은 목표영역이고, 붉은색 선은 목표영역의 경계를 나타내고, 도 5c는 상기 경계를 기준으로 일정 두께를 가지는 목표밴드를 설정한 것으로 파랑색 영역이 목표 밴드이다. FIG. 5A illustrates an inpainting target region, FIG. 5B illustrates an enlarged input image, a white region represents a target region, a red line represents a boundary of the target region, and FIG. 5C has a predetermined thickness based on the boundary. The target band is set and the blue area is the target band.

상기 목표밴드는 영상내의 여러 후보 소스밴드들과의 비교를 위해 사용하며, 상기 소스밴드는 입력영상에서 목표영역을 제외한 나머지 부분을 목표밴드와 같은 모양과 두께로 나눈 것을 말한다. The target band is used for comparison with various candidate source bands in the image, and the source band refers to the remaining portion of the input image except for the target region in the same shape and thickness as the target band.

도 6a에서 녹색 부분들은 목표 밴드와 비교하기 위한 후보 소스 밴드의 일부를 표시한 것이다. In FIG. 6A, the green portions indicate a portion of the candidate source band for comparison with the target band.

상기 프로세서(100)는 목표 밴드와 후보 소스밴드들 사이의 그래디언트의 차의 합을 수학식 3에 따라 산출한다. The processor 100 calculates a sum of a difference of gradients between the target band and the candidate source bands according to Equation 3 below.

Figure 112009006007668-pat00004
Figure 112009006007668-pat00004

상기 수학식 3에서 k는 후보 소스밴드들의 인덱스를 나타내고, Ck는 세 색상 채널의 차이의 합, Gk는 그래디언트의 차이를 나타낸다. 상기 t는 목표밴드, s는 소스밴드를 나타내고, N은 밴드의 총 화소수를 나타내고, c에서 R,G,B는 빨강, 녹색, 파랑의 색상채널이다.

Figure 112009006007668-pat00005
는 각 색상 채널의 화소값이고,
Figure 112009006007668-pat00006
는 각 색상 채널의 그래디언트이다.In Equation 3, k denotes an index of candidate source bands, Ck denotes a sum of differences of three color channels, and Gk denotes a difference of gradients. T denotes a target band, s denotes a source band, N denotes the total number of pixels of the band, and in c, R, G, and B are red, green, and blue color channels.
Figure 112009006007668-pat00005
Is the pixel value for each color channel,
Figure 112009006007668-pat00006
Is the gradient of each color channel.

목표밴드와 K번째 소스밴드 사이의 Dk는 Ck와 Gk의 합으로 다음 수학식 4와 같이 계산될 수 있다. Dk between the target band and the Kth source band may be calculated as Equation 4 as the sum of Ck and Gk.

Figure 112009006007668-pat00007
Figure 112009006007668-pat00007

상기 수학식 4에서

Figure 112009006007668-pat00008
Figure 112009006007668-pat00009
Figure 112009006007668-pat00010
Figure 112009006007668-pat00011
의 가중치를 나타내기 위한 상수이다. In Equation 4
Figure 112009006007668-pat00008
and
Figure 112009006007668-pat00009
Is
Figure 112009006007668-pat00010
Wow
Figure 112009006007668-pat00011
Constant for indicating the weight of.

상기한 과정을 거쳐 Dk가 최소가 되는 소스밴드가 검출되면, 상기 프로세서(100)는 그 소스밴드의 내부 색상정보를 인페인팅 대상영역에 채워줌으로써, 밴드매칭을 완료한다. When the source band having the minimum Dk is detected through the above process, the processor 100 fills the internal color information of the source band in the inpainting target region, thereby completing band matching.

즉, 도 6b에서 녹색 부분이 Dk가 최소가 되는 최적 소스밴드를 표식한 것이며, 도 6c는 목표영역에 최적의 소스밴드의 내부 색상정보를 채워 넣은 것이며, 도 6d는 결과 영상 데이터를 도시한 것이다. That is, in FIG. 6B, the green portion indicates the optimal source band with the minimum Dk, FIG. 6C is filled with the internal color information of the optimal source band in the target area, and FIG. 6D shows the result image data. .

상기한 밴드 매칭이 완료되면, 상기 프로세서(100)는 상기 밴드 매칭된 인페 인팅 대상영역의 가장자리에 대한 경계 제거를 이행한다(212단계). When the band matching is completed, the processor 100 performs boundary elimination of an edge of the band matched inpainting target area (operation 212).

여기서, 상기 경계 제거과정을 좀 더 설명한다. Here, the boundary removal process will be described in more detail.

본 발명의 바람직한 실시예에 따라 밴드 매칭으로 인페인팅을 이행하면, 목표영역과 주변영역 사이에 경계가 나타난다. 도 7b는 밴드매칭 후 목표영역과 주변영역 사이에서 나타나는 경계를 예시한 것이다. 상기 경계를 제거하기 위해 프로세서(100)는 목표밴드와 최적밴드의 화소값의 비율을 계산하고, 그 비율을 이용하여 인페인팅 대상영역의 각 화소값을 재계산하여 갱신한다. When inpainting is performed by band matching according to a preferred embodiment of the present invention, a boundary appears between the target area and the peripheral area. 7B illustrates a boundary appearing between the target area and the peripheral area after band matching. In order to remove the boundary, the processor 100 calculates a ratio of pixel values of the target band and the optimal band, and recalculates and updates each pixel value of the inpainting target area using the ratio.

상기 경계제거의 첫번째 단계는 수학식 5에 따라 목표밴드의 화소값과 최적의 소스밴드의 화소값의 비율 h(x,y)을 산출하는 것이다. The first step of the boundary elimination is to calculate the ratio h (x, y) between the pixel value of the target band and the pixel value of the optimal source band according to Equation 5.

Figure 112009006007668-pat00012
Figure 112009006007668-pat00012

상기 수학식 5에서 f(x,y)는 목표밴드, g(x,y)는 최적 소스밴드의 색상값이다. 상기 목표영역의 초기 h(x,y)는 1로 설정된다. In Equation 5, f (x, y) is a target band, and g (x, y) is a color value of an optimal source band. The initial h (x, y) of the target area is set to one.

두번째 단계는 상기 h(x,y)을 h(x,y)의 라플라시안(Laplacian)을 반복 적용하여 갱신한다.In the second step, h (x, y) is updated by repeatedly applying Laplacian of h (x, y).

상기 수학식 6에서 n은 반복횟수를 나타내며,

Figure 112009006007668-pat00014
는 라플라시안을 나타내는 것이다. 여기서, 2차 미분을 라플라시안이라 한다. 이는 밴드영역의 값을 채워넣은 인페인팅 영역으로 전파하기 위한 기능을 합니다. In Equation 6, n represents a repetition number,
Figure 112009006007668-pat00014
Represents laplacian. Here, the second derivative is called Laplacian. This serves to propagate to the inpainting area filled with the value of the band area.

이후 상기 프로세서(100)는 인페인팅 대상영역의 최종 화소값을 반복을 통해 갱신된

Figure 112009006007668-pat00015
값과 최적의 소스밴드 내부의 화소값을 곱하여 갱신하며, 이는 수학식 7에 따른다. Thereafter, the processor 100 updates the last pixel value of the inpainting target region by repetition.
Figure 112009006007668-pat00015
The value is multiplied and updated by the pixel value inside the optimal source band, which is according to Equation (7).

Figure 112009006007668-pat00016
Figure 112009006007668-pat00016

상기한 과정을 거쳐 경계 제거가 완료되면, 상기 프로세서(100)는 호모그래피 역행렬에 따라 상기 스티칭된 영상 데이터들을 다수의 영상 데이터로 분리한다(214단계). When the boundary removal is completed through the above process, the processor 100 separates the stitched image data into a plurality of image data according to the homography inverse (step 214).

여기서, 본 발명의 바람직한 실시예에 따른 인페인팅 과정을 도 8을 참조하여 간략히 설명한다. Here, the inpainting process according to the preferred embodiment of the present invention will be briefly described with reference to FIG.

도 8(a)는 다수의 연속되는 영상 데이터들을 도시한 것이며, 상기 다수의 연속되는 영상 데이터를 스티칭한 결과를 도시한 것이 도 8(b)이다. FIG. 8 (a) shows a plurality of continuous image data, and FIG. 8 (b) shows a result of stitching the plurality of continuous image data.

도 8(c)에 도시한 바와 같이 상기 스티칭한 영상 데이터에서 백색으로 표식한 영역에 대해 인페인팅 대상영역으로 정하였을 때에, 인페인팅이 완료된 영상 데이터를 도시한 것이 도 8(d)이다. As shown in FIG. 8 (c), when the inpainting target region is defined for the region marked with white in the stitched image data, FIG. 8 (d) shows the inpainted image data.

상기 인페인팅이 완료된 영상 데이터를 다수의 영상데이터로 분리한 것을 도시한 것이 도 8(e)이다. FIG. 8E illustrates the separation of the inpainted image data into a plurality of image data.

이와 같이 본 발명은 다수의 연속되는 영상 데이터를 하나로 스티칭한 후에 다시 다수의 영상 데이터로 분리함으로써, 다수의 연속되는 영상 데이터 각각에 대한 인페인팅 결과가 일관성을 가질 수 있게 한다. As described above, the present invention stitches a plurality of continuous image data into one, and then divides the plurality of image data into a plurality of image data, thereby making the inpainting result for each of the plurality of continuous image data consistent.

<제2실시예>Second Embodiment

본 발명의 바람직한 제2실시예는 오래된 필름 등과 같이 노이즈가 많아서 화질이 좋지 않은 영사 데이터에 대해 특징점을 수동으로 선택하여 호모그래피 행렬을 계산하는 것으로, 도 9를 참조하여 설명한다. A second preferred embodiment of the present invention calculates a homography matrix by manually selecting a feature point for projection data having a lot of noise, such as an old film, and having poor image quality, which will be described with reference to FIG. 9.

상기 인페인팅 처리장치의 프로세서(100)는 사용자 인터페이스(102)를 통해 특징점을 직접 입력받아 인페인팅을 이행하는 제2인페인팅 모드로의 동작이 요청되면(300단계), 연속된 영상 데이터들에 대해 직접 특징점을 입력받아, 연속된 영상 데이터들의 특징점들에 대한 호모그래피 행렬을 검출한다(302,304단계).When the processor 100 of the inpainting processing apparatus receives a feature point directly through the user interface 102 and requests an operation in the second painting mode in which inpainting is performed (step 300), the processor 100 of the inpainting processing apparatus receives the feature point. In step 302 and 304, a homogeneous matrix is detected for the feature points of the continuous image data.

이후 상기 프로세서(100)는 상기 호모그래피 행렬에 따라 연속된 영상 데이터들을 하나로 스티칭하고, 상기 스티칭된 영상 데이터에 대한 인페인팅 대상영역을 입력받는다(306,308단계).Thereafter, the processor 100 stitches consecutive image data into one according to the homography matrix, and receives an inpainting target region with respect to the stitched image data (steps 306 and 308).

이후 상기 프로세서(100)는 스티칭된 영상 데이터에 대해 인페인팅 대상영역 에 대한 밴드매칭을 이행하고, 밴드매칭된 인페인팅 대상영역의 가장자리에 대한 경계를 제거한다(310,312단계). Thereafter, the processor 100 performs band matching on the inpainted target area on the stitched image data, and removes the boundary of the edge of the band-matched inpainted target area (steps 310 and 312).

상기 밴드매칭 및 경계제거에 따른 인페인팅이 완료된 스티칭된 영상 데이터는 호모그래피 역행렬에 따라 스티칭된 영상 데이터들로 분리된다(314단계).The inpainted stitched image data according to the band matching and boundary elimination is separated into stitched image data according to the homography inverse (step 314).

<제3실시예>Third Embodiment

본 발명의 바람직한 제3실시예는 카메라를 고정시켜 촬영을 이행하였을 때에 움직이는 대상을 자동으로 트래킹하여 인페인팅하는 것으로 도 10을 참조하여 상세히 설명한다. A third preferred embodiment of the present invention will be described in detail with reference to FIG. 10 by automatically tracking and inpainting moving objects when the camera is fixed and the photographing is performed.

상기 인페인팅 처리장치의 프로세서(100)는 인페인팅 대상영역을 자동으로 트래킹하는 제3페인팅 모드로의 동작이 요청되면, 연속된 영상 데이터들에 대해 인페인팅 대상영역을 트래킹한다(400,402단계). 여기서, 상기 인페인팅 대상영역은 카메라가 고정되어 있는 상태에서 움직이는 물체나 사람을 인페이팅하고자 하는 경우에 배경을 기준으로 움직이는 영역을 트래킹하여 인페인팅 대상영역으로 설정된다.The processor 100 of the inpainting processing apparatus tracks the inpainting target region with respect to successive image data when an operation for a third painting mode for automatically tracking the inpainting target region is requested. Here, the inpainting target area is set as an inpainting target area by tracking a moving area based on a background when an in-flight object or person is to be painted while the camera is fixed.

이후, 상기 프로세서(100)는 인페인팅 대상영역이 포함되지 않은 영상 데이터에서 상기 인페인팅 대상영역에 대한 영상 데이터를 추출하여 상기 인페인팅 대상영역이 포함된 영상 데이터의 인페인팅 대상영역에 채워넣거나, 상기 인페인팅 대상영역에 대한 밴드매칭 및 경계제거를 통해 인페인팅을 이행한다(404단계).Thereafter, the processor 100 extracts the image data for the inpainting target region from the image data not including the inpainting target region and fills the inpainting target region of the image data including the inpainting target region, Inpainting is performed through band matching and boundary removal on the inpainting target region (step 404).

도 11은 본 발명의 바람직한 제3실시예에 따른 인페인팅 결과를 도시한 것으로, (a)는 원본 이미지이고, (b)는 인페인팅 대상영역을 트래킹하여 추출한 것을 도시한 것이고, (c)는 인페인팅 대상영역이 포함되지 않은 영상 데이터에서 상기 인페인팅 대상영역에 대한 영상 데이터를 추출하여 인페인팅 대상영역이 포함된 영상 데이터의 인페인팅 대상영역에 채워넣은 것이고, (d)는 상기 인페인팅 대상영역에 대한 밴드매칭 및 경계제거를 통해 인페인팅을 이행한 것을 도시한 것이다. FIG. 11 illustrates an inpainting result according to a third exemplary embodiment of the present invention, (a) shows an original image, (b) shows tracking and extracting an inpainting target area, and (c) The image data of the inpainting target region is extracted from the image data not including the inpainting target region and filled into the inpainting target region of the image data including the inpainting target region, and (d) is the inpainting target. It illustrates the implementation of inpainting through band matching and boundary elimination for the region.

<제4실시예>Fourth Embodiment

본 발명의 바람직한 제4실시예에는 일정속도로 변화하는 영상 데이터에서 다른 속도로 변화하는 대상을 자동으로 트래킹하여 인페인팅하는 것으로 도 12를 참조하여 설명한다. A fourth preferred embodiment of the present invention will be described with reference to FIG. 12 by automatically tracking and inpainting an object changing at a different speed from image data changing at a constant speed.

상기 인페인팅 처리장치의 프로세서(100)는 일정 속도로 움직이는 배경에서 다른 속도로 움직이는 대상을 인페인팅하는 제4인페인팅 모드로의 동작이 요청되면, 일정 속도로 변화하는 영상 데이터에서 다른 속도로 변화하는 인페인팅 대상영역을 트래킹한다(500,502단계).When the processor 100 of the inpainting processing apparatus is requested to operate in the fourth painting mode for inpainting an object moving at a different speed from a background moving at a constant speed, the processor 100 of the inpainting processing apparatus changes from another image data changing at a constant speed to another speed. The inpainting target area is tracked (steps 500 and 502).

이후 상기 프로세서(100)는 연속된 영상 데이터들 간의 특징점을 검출하고, 연속된 영상 데이터들의 특징점들에 대한 호모그래피 행렬을 검출하고, 상기 호모그래피 행렬에 따라 연속된 영상 데이터들을 하나의 영상 데이터로 스티칭한다(504~508단계).Then, the processor 100 detects a feature point between consecutive image data, detects a homography matrix for the feature points of the continuous image data, and converts the continuous image data into one image data according to the homography matrix. Stitch (steps 504-508).

상기 하나의 영상 데이터로 스티칭된 영상 데이터들에 대해 인페인팅 대상영역에 대한 밴드매칭을 이행하고, 상기 밴드매칭된 인페인팅 대상영역의 가장자리에 대한 경계제거를 이행한다(512단계).In operation 512, band matching on the inpainting target region is performed on the image data stitched with the single image data, and border elimination is performed on an edge of the band-matched inpainting target region.

이후 상기 프로세서(100)는 호모그래피 역행렬에 따라 스티칭된 영상 데이터 들을 분리한다(514단계).In operation 514, the processor 100 separates the stitched image data according to the homography inverse matrix.

상기한 본 발명의 바람직한 실시예에서는 인페인팅 대상영역에 대해 밴드 매칭 및 경계 제거를 이행하는 것만을 예시하였으나, 인페인팅 결과를 향상시키기 위해 상기 인페인팅 대상영역을 다수로 분할하고, 상기 분할된 각각의 영역에 대해 밴드매칭과 경계제거를 이행할 수도 있다. In the above-described preferred embodiment of the present invention, only the band matching and boundary elimination are performed for the inpainting target region, but the inpainting target region is divided into a plurality of segments to improve the inpainting result. Band matching and boundary elimination can also be implemented for the region of.

도 1은 본 발명의 바람직한 실시예에 따른 인페인팅 처리장치의 구성도.1 is a block diagram of an inpainting processing apparatus according to a preferred embodiment of the present invention.

도 2는 본 발명의 바람직한 제1실시예에 따른 인페인팅 처리방법의 흐름도.2 is a flowchart of an inpainting processing method according to a first preferred embodiment of the present invention.

도 3 내지 도 8, 도 11은 영상 데이터를 예시한 도면. 3 to 8 and 11 illustrate image data.

도 9는 본 발명의 바람직한 제2실시예에 따른 인페인팅 처리방법의 흐름도. 9 is a flowchart of an inpainting processing method according to a second preferred embodiment of the present invention.

도 10은 본 발명의 바람직한 제3실시예에 따른 인페인팅 처리방법의 흐름도. 10 is a flowchart of an inpainting processing method according to a third preferred embodiment of the present invention.

도 12은 본 발명의 바람직한 제4실시예에 따른 인페인팅 처리방법의 흐름도. 12 is a flowchart of an inpainting processing method according to a fourth preferred embodiment of the present invention.

Claims (22)

영상 데이터 인페인팅 방법에 있어서,In the video data inpainting method, 다수의 연속되는 영상 데이터를 입력받아 하나의 영상 데이터로 스티칭하는 제1단계;A first step of receiving a plurality of consecutive image data and stitching into one image data; 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하는 제2단계;Performing a band matching on the selected inpainting target area in the stitched image data; 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하는 제3단계;Removing a boundary of an edge of the inpainting target region with respect to the stitched image data in which the inpainting target region is band-matched; 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 제4단계;A fourth step of separating the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data; 를 포함하는 것을 특징으로 하는 영상 데이터 인페인팅 방법. Image data inpainting method comprising a. 제1항에 있어서, The method of claim 1, 상기 제1단계가, The first step, 영상 데이터들 사이에 서로 대응되는 특징점들을 검출하는 단계;Detecting feature points corresponding to each other between the image data; 상기 특징점들 사이의 위치변화정보인 호모그래피 행렬을 검출하는 단계;Detecting a homography matrix which is position change information between the feature points; 상기 호모그래피 행렬을 기준으로 상기 연속되는 영상 데이터들을 스티칭하여 하나의 영상 데이터를 생성하는 단계로 구성되며, Generating one image data by stitching the continuous image data based on the homography matrix, 상기 제4단계가, The fourth step, 상기 스티칭된 영상 데이터를 상기 호모그래피 역행렬에 따라 다수의 영상 데이터로 분리함을 특징으로 하는 영상 데이터 인페인팅 방법. And stitching the stitched image data into a plurality of image data according to the homography inverse matrix. 제2항에 있어서, 3. The method of claim 2, 상기 호모그래피 행렬의 검출은, Detection of the homography matrix, 다수의 영상 데이터 중 연속되는 제1 및 제2영상 데이터에 대해, 상기 제1영상 데이터에서 임의의 제1특징점들을 선택하고, 상기 제2영상 데이터에서 상기 제1특징점들 각각에 대응되는 제2특징점들을 선택하고, A first feature point is selected from the first image data with respect to continuous first and second image data among a plurality of image data, and a second feature point corresponding to each of the first feature points in the second image data. Select them, 상기 제1특징점들과 그에 각각 대응되는 제2특징점들 사이의 호모그래피 행렬을 산출하고, Calculating a homography matrix between the first feature points and the second feature points respectively corresponding thereto; 상기 제2특징점들 각각이 그에 대응되는 제1특징점들에 호모그래피 행렬을 적용한 값과 자신의 값 사이의 차이인 오차들을 산출하고, Each of the second feature points calculates errors that are differences between a value obtained by applying a homography matrix to corresponding first feature points and its value, 그 산출된 오차들의 값이 미리 정해둔 값 이하인 오차들의 개수를 검출하는 것을 일정횟수 반복하고, Detecting the number of errors that the calculated error value is less than or equal to a predetermined value is repeated a predetermined number of times, 그 일정횟수 반복에 따라 미리 정해둔 값 이하인 오차들의 개수들을 획득하고, Acquiring the number of errors less than or equal to a predetermined value according to the repetition of the predetermined number of times, 그 개수들 중 가장 큰 개수에 대응되는 오차들을 산출시킨 제1 및 제2특징점들로부터의 호모그래피 행렬을 최종 호모그래피 행렬로 결정함을 특징으로 하는 영상 데이터 인페인팅 방법.And determining the homography matrix from the first and second feature points, which yield errors corresponding to the largest number among the numbers, as the final homography matrix. 제2항에 있어서,  3. The method of claim 2, 상기 특징점은 KLT(Kanade-Lucas-Tomasi Feature Tracker) 방법에 따라 검출됨을 특징으로 하는 영상 데이터 인페인팅 방법. The feature point is detected according to the Kanade-Lucas-Tomasi Feature Tracker (KLT) method. 제2항에 있어서,  3. The method of claim 2, 상기 특징점은 사용자에 의해 입력됨을 특징으로 하는 영상 데이터 인페인팅 방법. The feature point is input by the user, characterized in that the image data inpainting method. 제1항에 있어서,The method of claim 1, 상기 인페인팅 대상영역은,The inpainting target area is 일정 속도로 움직이는 배경에 대해, 그 배경과 상이한 속도로 움직이는 영상 데이터 영역으로 선택됨을 특징으로 하는 영상 데이터 인페인팅 방법. A video data inpainting method, wherein a background data moving at a constant speed is selected as an image data area moving at a speed different from that of the background. 제1항에 있어서,The method of claim 1, 상기 인페인팅 대상영역은,The inpainting target area is 배경을 기준으로 움직이는 영역으로 선택됨을 특징으로 하는 영상 데이터 인페인팅 방법. Image data inpainting method, characterized in that the selected area moving relative to the background. 제1항에 있어서,The method of claim 1, 상기 인페인팅 대상영역은,The inpainting target area is 사용자에 의해 선택됨을 특징으로 하는 영상 데이터 인페인팅 방법.Image data inpainting method, characterized in that selected by the user. 제1항에 있어서,The method of claim 1, 상기 제3단계는, The third step, 선택된 인페인팅 대상영역의 가장자리에 일정 두께를 가지는 목표 밴드를 설정하는 단계;Setting a target band having a predetermined thickness at an edge of the selected inpainting target area; 상기 목표 밴드를 제외한 영상 데이터 부분에 상기 목표밴드와 같은 모양과 두께를 가지는 다수의 소스 밴드를 설정하는 단계;Setting a plurality of source bands having the same shape and thickness as the target band in the image data portion except for the target band; 상기 다수의 소스 밴드 각각과 상기 목표 밴드 사이의 그래디언트의 차를 산출하고, 상기 그래디언트 차이가 최소인 소스 밴드를 최적 소스 밴드로 선택하고, 상기 소스 밴드내의 색상정보를 상기 인페인팅 대상영역에 삽입하는 단계;Calculating a difference between gradients between each of the plurality of source bands and the target band, selecting a source band having a minimum gradient difference as an optimal source band, and inserting color information in the source band into the inpainting target region step; 를 포함하는 것을 특징으로 하는 영상 데이터 인페인팅 방법. Image data inpainting method comprising a. 제9항에 있어서,10. The method of claim 9, 상기 제4단계는, The fourth step, 상기 인페인팅 대상영역의 최종 화소값을, The final pixel value of the inpainting target area; 상기 목표 밴드와 상기 최적의 소스 밴드 사이의 화소값의 비율과 상기의 최적 밴드 내부의 화소값을 곱한 값으로 결정함을 특징으로 하는 영상 데이터 인페인팅 방법. And multiplying the ratio of pixel values between the target band and the optimal source band by the pixel value inside the optimal band. 영상 데이터 인페인팅 처리장치에 있어서,In the image data inpainting processing apparatus, 다수의 연속되는 영상 데이터를 저장하는 메모리부;A memory unit for storing a plurality of consecutive image data; 상기 다수의 연속되는 영상 데이터를 하나의 영상 데이터로 스티칭하고, Stitching the plurality of consecutive image data into one image data, 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역에 대한 밴드매칭을 이행하고, Performing band matching on the selected inpainting target region from the stitched image data, 상기 인페인팅 대상영역이 밴드매칭된 상기 스티칭된 영상 데이터에 대해 상 기 인페인팅 대상영역의 가장자리에 대한 경계를 제거하고, Remove a boundary of an edge of the inpainting target region with respect to the stitched image data in which the inpainting target region is band-matched, 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 프로세서;A processor for separating the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data; 를 포함하는 것을 특징으로 하는 영상 데이터 인페인팅 처리장치. Image data inpainting processing apparatus comprising a. 제11항에 있어서, The method of claim 11, 상기 프로세서가, The processor, 상기 다수의 영상 데이터에 대한 스티칭은, Stitching for the plurality of image data, 영상 데이터들 사이에 서로 대응되는 특징점들을 검출하고, Detect feature points corresponding to each other between the image data, 상기 특징점들 사이의 위치변화정보인 호모그래피 행렬을 검출하고, Detecting a homography matrix which is position change information between the feature points; 상기 호모그래피 행렬을 기준으로 상기 연속되는 영상 데이터들을 스티칭하여 하나의 영상 데이터를 생성함으로써 이행하고, Transition by generating one image data by stitching the continuous image data based on the homography matrix, 상기 스티칭된 하나의 영상 데이터의 분리는, Separation of the stitched image data, 상기 스티칭된 영상 데이터를 상기 호모그래피 역행렬에 따라 다수의 영상 데이터로 분리하는 것임을 특징으로 하는 영상 데이터 인페인팅 처리장치. And the stitched image data is divided into a plurality of image data according to the homography inverse matrix. 제12항에 있어서, The method of claim 12, 상기 호모그래피 행렬의 검출은, Detection of the homography matrix, 다수의 영상 데이터 중 연속되는 제1 및 제2영상 데이터에 대해, 상기 제1영상 데이터에서 임의의 제1특징점들을 선택하고, 상기 제2영상 데이터에서 상기 제1특징점들 각각에 대응되는 제2특징점들을 선택하고, A first feature point is selected from the first image data with respect to continuous first and second image data among a plurality of image data, and a second feature point corresponding to each of the first feature points in the second image data. Select them, 상기 제1특징점들과 그에 각각 대응되는 제2특징점들 사이의 호모그래피 행렬을 산출하고, Calculating a homography matrix between the first feature points and the second feature points respectively corresponding thereto; 상기 제2특징점들 각각이 그에 대응되는 제1특징점들에 호모그래피 행렬을 적용한 값과 자신의 값 사이의 차이인 오차들을 산출하고, Each of the second feature points calculates errors that are differences between a value obtained by applying a homography matrix to corresponding first feature points and its value, 그 산출된 오차들의 값이 미리 정해둔 값 이하인 오차들의 개수를 검출하는 것을 일정횟수 반복하고, Detecting the number of errors that the calculated error value is less than or equal to a predetermined value is repeated a predetermined number of times, 그 일정횟수 반복에 따라 미리 정해둔 값 이하인 오차들의 개수들을 획득하고, Acquiring the number of errors less than or equal to a predetermined value according to the repetition of the predetermined number of times, 그 개수들 중 가장 큰 개수에 대응되는 오차들을 산출시킨 제1 및 제2특징점들로부터의 호모그래피 행렬을 최종 호모그래피 행렬로 결정함을 특징으로 하는 영상 데이터 인페인팅 처리장치.And determining the homography matrix from the first and second feature points as the final homography matrix, which calculates the errors corresponding to the largest number among the numbers. 제12항에 있어서,  The method of claim 12, 상기 특징점은 KLT(Kanade-Lucas-Tomasi Feature Tracker) 방법에 따라 검출됨을 특징으로 하는 영상 데이터 인페인팅 처리장치. And the feature point is detected according to the Kanade-Lucas-Tomasi Feature Tracker (KLT) method. 제12항에 있어서,  The method of claim 12, 상기 특징점은 사용자에 의해 입력됨을 특징으로 하는 영상 데이터 인페인팅 처리장치. And the feature point is input by a user. 제11항에 있어서,The method of claim 11, 상기 인페인팅 대상영역은,The inpainting target area is 일정 속도로 움직이는 배경에 대해, 그 배경과 상이한 속도로 움직이는 영상 데이터 영역으로 선택됨을 특징으로 하는 영상 데이터 인페인팅 처리장치. And an image data area moving at a different speed from the background with respect to a background moving at a constant speed. 제11항에 있어서,The method of claim 11, 상기 인페인팅 대상영역은,The inpainting target area is 배경을 기준으로 움직이는 영역으로 선택됨을 특징으로 하는 영상 데이터 인페인팅 처리장치. The image data inpainting processing apparatus, wherein the image data is selected as a moving region based on the background. 제11항에 있어서,The method of claim 11, 상기 인페인팅 대상영역은,The inpainting target area is 사용자에 의해 선택됨을 특징으로 하는 영상 데이터 인페인팅 처리장치.Image data inpainting processing apparatus, characterized in that selected by the user. 제11항에 있어서,The method of claim 11, 상기 밴드 매칭은, The band matching is, 선택된 인페인팅 대상영역의 가장자리에 일정 두께를 가지는 목표 밴드를 설정하고, Set a target band with a certain thickness on the edge of the selected inpainting target area, 상기 목표 밴드를 제외한 영상 데이터 부분에 상기 목표밴드와 같은 모양과 두께를 가지는 다수의 소스 밴드를 설정하고,Set a plurality of source bands having the same shape and thickness as the target band in the image data portion except for the target band, 상기 다수의 소스 밴드 각각과 상기 목표 밴드 사이의 그래디언트의 차를 산출하고, 상기 그래디언트 차이가 최소인 소스 밴드를 최적 소스 밴드로 선택하고, 상기 소스 밴드내의 색상정보를 상기 인페인팅 대상영역에 삽입하여 이행됨을 특징으로 하는 영상 데이터 인페인팅 처리장치.Calculating a difference between gradients between each of the plurality of source bands and the target band, selecting a source band having a minimum gradient difference as an optimal source band, and inserting color information in the source band into the inpainting target region Image data inpainting processing apparatus, characterized in that implemented. 제19항에 있어서,The method of claim 19, 상기 경계 제거는, The boundary removal is 상기 인페인팅 대상영역의 최종 화소값을, The final pixel value of the inpainting target area; 상기 목표 밴드와 상기 최적의 소스 밴드 사이의 화소값의 비율과 상기의 최적 밴드 내부의 화소값을 곱한 값으로 결정하여 이행됨을 특징으로 하는 영상 데이터 인페인팅 처리장치.And performing a determination by multiplying a ratio of pixel values between the target band and the optimal source band by a pixel value within the optimal band. 영상 데이터 인페인팅 방법에 있어서,In the video data inpainting method, 다수의 연속되는 영상 데이터를 입력받아 하나의 영상 데이터로 스티칭하는 제1단계;A first step of receiving a plurality of consecutive image data and stitching into one image data; 상기 스티칭된 영상 데이터에서 인페인팅 대상영역을 선택받아 다수로 분할하는 제2단계;A second step of selecting an inpainting target region from the stitched image data and dividing the region into a plurality; 상기 다수로 분할된 인페인팅 대상영역 각각에 대해 밴드매칭을 이행하고, 상기 밴드매칭된 영역들의 가장자리에 대한 경계를 제거하는 제3단계;Performing band matching on each of the plurality of divided inpainting target regions, and removing a boundary of an edge of the band-matched regions; 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 제4단계;A fourth step of separating the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data; 를 포함하는 것을 특징으로 하는 영상 데이터 인페인팅 방법. Image data inpainting method comprising a. 영상 데이터 인페인팅 처리장치에 있어서,In the image data inpainting processing apparatus, 다수의 연속되는 영상 데이터를 저장하는 메모리부;A memory unit for storing a plurality of consecutive image data; 상기 다수의 연속되는 영상 데이터를 하나의 영상 데이터로 스티칭하고, Stitching the plurality of consecutive image data into one image data, 상기 스티칭된 영상 데이터에서 선택된 인페인팅 대상영역을 다수로 분할하고, Dividing the selected inpainting target area from the stitched image data into a plurality; 상기 분할된 인페인팅 대상영역에 대해 밴드매칭을 이행하고, 상기 밴드매칭된 영역들의 가장자리에 대한 경계를 제거하고, Performing band matching on the divided inpainting target region, removing a boundary of an edge of the band matching regions, 상기 가장자리에 대한 경계 제거가 이행된 스티칭된 영상 데이터를 다수의 연속되는 영상 데이터로 분리하는 프로세서;A processor for separating the stitched image data subjected to the boundary elimination of the edge into a plurality of consecutive image data; 를 포함하는 것을 특징으로 하는 영상 데이터 인페인팅 처리장치. Image data inpainting processing apparatus comprising a.
KR1020090007401A 2009-01-30 2009-01-30 Method and apparatus of inpainting for video data KR101105675B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090007401A KR101105675B1 (en) 2009-01-30 2009-01-30 Method and apparatus of inpainting for video data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090007401A KR101105675B1 (en) 2009-01-30 2009-01-30 Method and apparatus of inpainting for video data

Publications (2)

Publication Number Publication Date
KR20100088282A KR20100088282A (en) 2010-08-09
KR101105675B1 true KR101105675B1 (en) 2012-01-18

Family

ID=42754519

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090007401A KR101105675B1 (en) 2009-01-30 2009-01-30 Method and apparatus of inpainting for video data

Country Status (1)

Country Link
KR (1) KR101105675B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102135671B1 (en) * 2014-02-06 2020-07-20 에스케이플래닛 주식회사 Method of servicing virtual indirect advertisement and apparatus for the same
KR101599786B1 (en) 2014-01-24 2016-03-09 에스케이플래닛 주식회사 Apparatus for inpainting using division of reference area and method for the same
CN105284122B (en) * 2014-01-24 2018-12-04 Sk 普兰尼特有限公司 For clustering the device and method to be inserted into advertisement by using frame
KR102546070B1 (en) * 2021-06-03 2023-06-20 순천대학교 산학협력단 Method for removing noise from time lapse video

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
논문1:한국멀티미디어학회지
논문2:영상처리 및 이해에 관한 워크샵
논문3:HCI

Also Published As

Publication number Publication date
KR20100088282A (en) 2010-08-09

Similar Documents

Publication Publication Date Title
US9094648B2 (en) Tone mapping for low-light video frame enhancement
US9558543B2 (en) Image fusion method and image processing apparatus
US9591237B2 (en) Automated generation of panning shots
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
US20190213712A1 (en) Motion blur simulation
US9307212B2 (en) Tone mapping for low-light video frame enhancement
CN106991650B (en) Image deblurring method and device
US9202263B2 (en) System and method for spatio video image enhancement
US20180322614A1 (en) Method and apparatus for processing image
JP2015180062A (en) Method for processing video sequence and device for processing video sequence
KR101692227B1 (en) A panorama image generation method using FAST algorithm
JP2009105992A (en) Imaging processor
CN114339030B (en) Network live video image stabilizing method based on self-adaptive separable convolution
CN110557584A (en) image processing method and device, and computer readable storage medium
KR101105675B1 (en) Method and apparatus of inpainting for video data
WO2013161111A1 (en) Image evaluation device, image selection device, image evaluation method, recording medium, and program
JP2012238932A (en) 3d automatic color correction device and color correction method and color correction program
KR101437898B1 (en) Apparatus and method for generating a High Dynamic Range image using single image
US20050088531A1 (en) Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon
TW201320727A (en) Image processing device, image processing method, and recording medium
US8768066B2 (en) Method for image processing and apparatus using the same
JP4069468B2 (en) Image forming device
JP5248719B1 (en) Image evaluation apparatus, image selection apparatus, image evaluation method, recording medium, and program
JP2013005363A (en) Image pickup apparatus
JP2009027397A (en) Apparatus, method and program for image processing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141223

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151229

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161228

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee