KR100928889B1 - Image Segmentation and Synthesis Method Using Image Polyhedral Structure - Google Patents

Image Segmentation and Synthesis Method Using Image Polyhedral Structure Download PDF

Info

Publication number
KR100928889B1
KR100928889B1 KR1020070131831A KR20070131831A KR100928889B1 KR 100928889 B1 KR100928889 B1 KR 100928889B1 KR 1020070131831 A KR1020070131831 A KR 1020070131831A KR 20070131831 A KR20070131831 A KR 20070131831A KR 100928889 B1 KR100928889 B1 KR 100928889B1
Authority
KR
South Korea
Prior art keywords
image
axis
segmentation
time
image segmentation
Prior art date
Application number
KR1020070131831A
Other languages
Korean (ko)
Other versions
KR20090064246A (en
Inventor
김재환
김재헌
최병태
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070131831A priority Critical patent/KR100928889B1/en
Publication of KR20090064246A publication Critical patent/KR20090064246A/en
Application granted granted Critical
Publication of KR100928889B1 publication Critical patent/KR100928889B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

본 발명은 영상 다면체 구조를 유지하는 군집화법에 기반한 영상내 특정 영역에 대한 분할 및 윤곽선 추출, 그리고 영상 합성 방법에 관한 것이다. 각 영상 프레임에 대하여 대부분 수작업에 의존하는 과정을 보다 자동화된 기법과 사용자 인터페이스를 제공함으로써 효율적이고 합리적인 영역분할 및 윤곽선 추출, 그리고 영상 합성 방법을 제공한다.The present invention relates to segmentation, contour extraction, and image synthesis for a specific region in an image based on a clustering method for maintaining an image polyhedron structure. By providing a more automated technique and user interface for each image frame, most of the manual process provides an efficient and reasonable area segmentation, contour extraction, and image synthesis method.

영상특수효과(Digital Video Special Effect), 비디오 로토스코핑(Video Rotoscoping), 이미지 분할(Image Segmentation), 지오데식 거리(Geodesic Distance), 데이터 매니폴드(Data Manifolds) Digital Video Special Effect, Video Rotoscoping, Image Segmentation, Geodesic Distance, Data Manifolds

Description

영상 다면체 구조를 이용한 영상 분할 및 합성 방법{METHOD FOR VIDEO SEGMENTATION AND COMPOSITION BASED ON SCENE MANIFOLDS}Image segmentation and synthesis using image polyhedral structure {METHOD FOR VIDEO SEGMENTATION AND COMPOSITION BASED ON SCENE MANIFOLDS}

본 발명은 영상 후처리 작업에서 주로 사용되는 디지털 특수 효과(DVFX, Digital Video Special Effect)들 중의 하나인 로토스코핑(rotoscoping) 작업과 관련한 것으로, 특히 영상 프레임 내에서의 특정 영역에 대한 분할(segmentation) 및 합성(composition)을 보다 합리적으로 구현하는데 적합한 영상 다면체 구조를 이용한 영상 분할 및 합성 방법에 관한 것이다.The present invention relates to a rotoscoping operation, one of digital video special effects (DVFX) mainly used in image post-processing, and in particular, segmentation of a specific region within an image frame. And an image segmentation and synthesis method using an image polyhedron structure suitable for more rational implementation of composition.

로토스코핑(rotoscoping) 작업은 주어진 영상 프레임(frame) 내에서 특정 물체의 윤곽선 정보를 추출하고 이를 이용하여 대상물의 색상이나 질감 변화 혹은 삭제등과 같은 합성을 수행하는 일련의 작업들을 말하는 것으로, 넓은 개념으로는 동영상에서의 특정 대상물의 영상 및 기하학적 특성을 변화시킴을 말한다.Rotoscoping refers to a series of tasks that extract the contour information of a specific object within a given image frame and use it to perform composition such as color change or texture change or deletion. Means changing the image and geometric characteristics of a specific object in a video.

최근, 컴퓨터 그래픽스와 컴퓨터 비전(vision) 기술의 발달로 디지털 영상 특수 효과에 대한 관심이 높아지고 있으나, 아직까지 영화 또는 비디오 영상 제작에 있어서 이러한 특정 영역에 대한 후처리 작업들은 거의 컴퓨터 그래픽 소프트웨 어를 이용한 수작업으로 이루어지고 있는 실정이다. 예를 들어, 주어진 영상에서 특정 물체에 대한 합성을 위해서는 그 영상의 모든 프레임 상에 존재하는 해당 물체에 대한 독립적인 후처리 작업을 필요로 하는 노력이 따른다.Recently, with the development of computer graphics and computer vision technology, interest in digital image special effects is increasing. However, the post-processing work on this specific area is almost entirely using computer graphics software in film or video image production. The situation is done by hand. For example, compositing a specific object in a given image requires effort that requires independent post-processing of the object present on every frame of the image.

보다 구체적으로 살펴보면, 기존의 로토스코핑을 위한 상업 소프트웨어로는 "Commotion"과 "Adobe After Effects"와 같은 것들이 있는데, 이들 소프트웨어는 주어진 영상 프레임 상에서 특정 영상 이미지에 대하여 사용자에 의해 그려진 윤곽선상의 점들을 이용하여 광학적 플로우(optical flow)를 이용하여 추적을 수행함으로써 나머지 영상 프레임에서의 물체 영역을 추출한다.More specifically, existing commercial software for rotoscoping includes "Commotion" and "Adobe After Effects", which use contour points drawn by a user for a specific image image on a given image frame. By tracking by using optical flow to extract the object region in the remaining image frame.

그러나 이 방법은 초기화에 민감함과 동시에 초기화 프레임과 시간 축 상으로 거리가 먼 프레임에 대하여 점점 오차율이 증가되는 단점이 존재하여 사용자의 많은 수작업을 여전히 필요로 한다.However, this method is sensitive to the initialization and the error rate is gradually increased for the frame which is far from the initialization frame on the time axis, which still requires a lot of manual work of the user.

움직이는 물체의 윤곽선을 자동으로 추출하는 작업은 컴퓨터 비전에서 상당히 난해한 기술 중의 하나이며, 영상 프레임에 대한 기존의 영상 합성에서 이러한 작업이 각각의 2D(x축 및 y축의 2D) 이미지 상에서의 독립적인 작업들로만 이루어진다는 한계가 있다. 즉, 시간 축에 대하여 관심 영역에 존재하는 일관성 있는 정보를 간과한다는 것이다.Automatically extracting the contours of moving objects is one of the more difficult techniques in computer vision, and in traditional image compositing for image frames, these tasks are independent on each 2D (2D x and y axis) image. There is a limit that only consists of. In other words, it overlooks consistent information that exists in the region of interest on the time axis.

그러나 영상은 시간 축으로 축적된 일련의 2D 이미지들임을 상기해 볼 때, 시간 축에 대한 정보를 이용하여 영역 분할을 적용하는 것이 보다 합리적임을 예상할 수 있다.However, recalling that the image is a series of 2D images accumulated on the time axis, it can be expected that it is more reasonable to apply region segmentation using information on the time axis.

이에 본 발명은, 시간 축에 대하여 보다 일관성 있는 영역 분할 및 윤곽선 추출을 하고자, 영상 프레임 내에 존재하는 각각의 영상들에 대한 매니폴드(manifold)를 이용한 군집 분석 방안을 제공하고자 한다.Accordingly, the present invention is to provide a cluster analysis method using a manifold for each image existing in the image frame in order to more consistent region segmentation and contour extraction on the time axis.

또한 본 발명은, 기존의 2D(x축 및 y축의 2D) 이미지들의 영상 작업에 국한된 방법론에서 벗어나 x축 및 시간 축에서 사용자에 의해 작업이 가능한 인터페이스 환경을 제공하고자 한다.In addition, the present invention aims to provide an interface environment that can be operated by the user on the x-axis and time-axis, away from the methodology limited to the image work of the existing 2D (2D x-axis and y-axis) image.

본 발명의 과제를 해결하기 위한 바람직한 실시예에 따르면, 입력된 영상 프레임의 특정 영상 영역의 윤곽선 정보를 추출하는 과정과, 추출되는 상기 특정 영상 영역의 윤곽선 정보에 따라 x축 및 시간 축을 중심으로 상기 영상 프레임을 영상 분할하는 과정과, 영상 분할되는 상기 영상 프레임을 합성하는 과정을 포함하는 영상 분할 및 합성 방법을 제공할 수 있다.According to a preferred embodiment of the present invention, a process of extracting contour information of a specific image region of an input image frame, and extracting the contour information of the specific image region based on the x-axis and time axis according to the extracted contour information of the specific image region An image segmentation and synthesis method may be provided that includes segmenting an image frame and synthesizing the image frame.

본 발명에 의하면, 주어진 영상 프레임 내에서 사용자에 의한 로토스코핑(rotoscoping) 과정과 그 영역을 중심으로 시간 축 상에서 영상 매니폴드를 이용 한 군집 분석, 그리고 합성을 통하여 기존 x축 및 ,y축 중심으로 이루어져 왔던 영상처리 작업에서 탈피하여 x축과 시간 축에서의 작업처리 환경을 제공함으로써, 보다 다각적인 관점에서의 일관성 있는 결과를 얻을 수 있다.According to the present invention, a rotoscoping process by a user within a given image frame, cluster analysis using an image manifold on a time axis centered on the region, and synthesis are performed on existing x and y axes. By providing a work processing environment on the x-axis and time-axis away from the image processing work that has been made, it is possible to obtain a consistent result from a more diversified perspective.

본 발명에 따른 영상 다면체 구조를 이용한 비디오 분할 및 영상 합성 방법은, 주어진 영상 프레임 내에서 사용자에 의해 정의된 영역부분과 그 영역을 중심으로 시간 축 상에서 영상 매니폴드(manifold)를 이용한 군집분석 부분, 그리고 합성부분으로 이루어진 것을 특징으로 한다.A video segmentation and image synthesis method using an image polyhedron structure according to the present invention includes a region portion defined by a user in a given image frame and a cluster analysis portion using an image manifold on a time axis around the region, And it is characterized by consisting of synthetic parts.

본 발명은 디지털 영상 특수효과에서 가장 중요한 기술의 하나인 영상 내에 존재하는 이동 물체에 대한 영역 분할 및 윤곽선 추출, 그리고 합성방법을 위하여, 영상 내 존재하는 각각의 영상들의 기하학적인 매니폴드 구조를 이용한 군집분석 방법을 적용함으로써 모든 프레임에 대하여 보다 일관성 있는 분할 및 합성 결과를 얻을 수 있다.The present invention is a clustering using a geometric manifold structure of individual images in an image for segmentation, contour extraction, and synthesis of moving objects in the image, which is one of the most important techniques in digital image special effects. By applying the analysis method, more consistent segmentation and synthesis results can be obtained for all frames.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

실시예의 설명에 앞서, 사용자에 의해 정의되는 영역 부분에서는, 베지어(Bezier) 또는 스프라인(Spline)과 같은 곡선을 표현하기 위한 여러 방법을 제공 하며, 영상처리 작업이 적용될 시작과 끝 프레임 영상의 두 키 프레임에 대하여 적용된다.Prior to the description of the embodiment, the area portion defined by the user provides various methods for expressing a curve such as Bezier or Spline, and provides a method for starting and ending frame images to which an image processing operation is to be applied. Applies for both key frames.

시간 축 상에 존재하는 영상 매니폴드를 이용한 군집분석 부분에서는, 중심변환(mean shift)의 군집분석방법을 적용한다. 논-파라메트릭(non-parametric) 방법 중의 하나인 중심변환 분석 방법을 적용하여 영상 분할(segmentation)을 수행한다. 더불어, 시간 축 상에 존재하는 각 영상들에 대한 매니폴드 구조(manifolds structure)를 유지하기 위하여 중심변환 적용시 거리측정 방법을 유클리디언(euclidean) 거리측정 방법 대신 지오데식(geodesic) 거리측정 방법을 적용함을 특징으로 한다.In the cluster analysis part using the image manifold existing on the time axis, a cluster analysis method of mean shift is applied. Image segmentation is performed by applying a center transformation analysis method, which is one of non-parametric methods. In addition, in order to maintain the manifolds structure for each image existing on the time axis, the geodesic distance measurement method instead of the euclidean distance measurement method when applying the center transformation is used. It is characterized by applying.

상기 영상 합성 부분에서는, 상기 시간 축 상에 존재하는 특정 영상 매니폴드를 이용한 군집분석으로부터 얻어진 분할된 영상에 대하여 다양한 인터페이스를 통해 색상 및 질감변형을 수행 가능하도록 한다.In the image synthesizing portion, color and texture modification may be performed through various interfaces on the divided images obtained from cluster analysis using a specific image manifold existing on the time axis.

도 1은 본 발명에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 설명하기 위한 시스템 블록도로서, 영상 입력부(100), 영상 분할 및 윤곽선 추출부(102), 영상 합성부(104)를 포함한다.1 is a system block diagram illustrating an image segmentation and synthesis method using an image polyhedron structure according to the present invention, which includes an image input unit 100, an image segmentation and contour extracting unit 102, and an image synthesis unit 104. do.

도시한 바와 같이, 영상 입력부(100)는 사용자에 의해 입력되는 영상에 대한 영상 프레임을 영상 분할 및 윤곽선 추출부(102)로 제공하며, 사용자에 의한 로토스코핑(rotoscoping) 과정에 따른 특정 영역의 윤곽선을 정의하여 영상 분할 및 윤곽선 추출부(102)로 제공한다.As shown, the image input unit 100 provides an image frame for the image input by the user to the image segmentation and contour extracting unit 102, and outlines a specific region according to a rotoscoping process by the user. The definition is provided to the image segmentation and contour extracting unit 102.

이때, 로토스코핑 작업은 주어진 영상 프레임 내에서 특정 물체의 윤곽선 정 보를 추출하고 이를 이용하여 대상물의 색상이나 질감 변화 혹은 삭제등과 같은 합성을 수행하는 일련의 작업들을 말하는 것으로, 넓은 개념으로는 동영상에서의 특정 대상물의 영상 및 기하학적 특성을 변화시킴을 말한다.At this time, rotoscoping refers to a series of operations that extract the contour information of a specific object in a given image frame and perform composition such as color change or texture change or deletion of the object. To change the image and geometric characteristics of a particular object.

영상 분할 및 윤곽선 추출부(102)는 입력된 영상 프레임과, 사용자에 의해 정의된 특정 영역의 윤곽선에 따라 영상 분할 및 윤곽선 추출 과정을 수행한다. 이때의 영상 분할은, 본 실시예에 따라 시간 축 상에 존재하는 영상 매니폴드(manifold)를 유지하는 영상 분할이다.The image segmentation and contour extracting unit 102 performs image segmentation and contour extraction according to the input image frame and the contour of a specific region defined by the user. The video segmentation at this time is the video segmentation which holds the video manifold existing on the time axis according to the present embodiment.

영상 합성부(104)는 상기 영상 분할 및 윤곽선 추출부(102)를 통해 제공되는 분할된 영상 영역에 대한 영상 합성 과정을 수행한다.The image synthesizing unit 104 performs an image synthesizing process for the divided image region provided by the image dividing and contour extracting unit 102.

이하, 상술한 구성과 함께, 본 발명의 바람직한 실시예에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 첨부한 도 2의 흐름도를 참조하여 상세히 설명하기로 한다.Hereinafter, the image segmentation and synthesis method using the image polyhedron structure according to the preferred embodiment of the present invention will be described in detail with reference to the flowchart of FIG. 2.

먼저, 영상 입력부(100)를 통해 임의의 영상 프레임이 입력되면(S200), 사용자에 의한 로토스코핑 과정 결과에 따라 상기 영상 프레임의 특정 영역의 윤곽선을 정의한다.(S202)First, when an arbitrary image frame is input through the image input unit 100 (S200), an outline of a specific region of the image frame is defined according to the result of the rotoscoping process by the user (S202).

이후 영상 분할 및 윤곽선 추출부(102)는 영상 분할 및 윤곽선 추출 기능을 수행하는데, 상기 영상 프레임 상에서 특정 영역분할을 하는데 있어서, 기존의 x축과 y축 2D 이미지상에서 수행되었던 작업을, x축과 시간 축(t축)을 이용하여 보다 일관성 있는 영역 분할을 수행한다(S204).Afterwards, the image segmentation and contour extracting unit 102 performs image segmentation and contour extraction. In performing a specific region division on the image frame, the image segmentation and contour extracting unit 102 performs operations performed on the existing x-axis and y-axis 2D images. More consistent region division is performed using the time axis (t-axis) (S204).

즉, 시간 축 상으로 존재하는 영상 매니폴드 구조가 유지될 수 있도록 일반 적인 유클리디언 거리(Euclidean distance)에 기반한 방식 대신 지오데식 거리(Geodesic distance)에 기반한 방식을 이용함을 그 특징으로 한다.That is, in order to maintain the image manifold structure existing on the time axis, a method based on geodesic distance is used instead of the method based on general Euclidean distance.

더불어, x축과 y축 상의 2D이미지에 대한 영역분할 대신 x축과 시간 축 중심으로 존재하는 영상에 대하여 위의 거리측정 방법과 논파라메트릭(non-parametric) 방법 중의 하나인 중심변환(mean shift) 기법을 함께 수행하여 영상 분할을 보다 일관성 있게 수행한다.In addition, the mean shift, which is one of the above distance measurement method and non-parametric method, for an image existing at the center of the x-axis and the time-axis instead of the region division of the 2D image on the x-axis and the y-axis ) To perform image segmentation more consistently.

그런 다음, 상기 분할된 영상 영역에 대한 영상 합성 과정을 수행한다(S206). 이때의 영상 합성 과정은, 상기 지오데식 거리에 기반한 중심변환 기법으로부터 얻어진 영역에 x축, y축, 시간 축(t축) 정보를 중심으로 해당 영역에 대한 질감 및 색상 변환 등을 수행하는 과정이다.Then, an image synthesis process is performed on the divided image region (S206). In this case, the image synthesis process is a process of performing texture and color conversion on the region based on the x-axis, y-axis, and time-axis (t-axis) information on the region obtained from the geodesic distance-based center transformation technique. .

도 3은 도 2의 단계(S202) 및 단계(S204)를 보다 상세히 설명하는 흐름도로서, 영상분할을 위한 자동화 방법 및 사용자 로토스코핑을 위한 인터페이스에 대한 설명이다.FIG. 3 is a flowchart illustrating steps S202 and S204 of FIG. 2 in more detail, and illustrates an automation method for image segmentation and an interface for user rotoscoping.

도 3에 도시한 바와 같이, 사용자에 의한 로토스코핑 과정을 통해 두 키 프레임 상에 관심 영역에 대한 윤곽선을 정의한 후(S300), 상기 단계(S300)에서 정의된 윤곽선을 x축과 시간 축(t축)을 중심으로 명시한다(S302).As shown in FIG. 3, after defining the contours of the ROIs on the two key frames through the rotoscoping process by the user (S300), the contours defined in the step S300 are defined by the x-axis and the time-axis (t). Axis) is specified centering (S302).

이후 단계(S304)에서는 시간 축(t축) 상에서 영상 매니폴드를 이용한 영상 분할을 수행한다. 즉, 시간 축(t축) 상의 윤곽선 정보를 이용하여 영상을 분할한다. 이때, 본 실시예에서는 상술한 지오데식 거리에 기반한 영상 분할법을 적용함을 특징으로 한다.Thereafter, in step S304, image segmentation using an image manifold is performed on the time axis (t-axis). That is, the image is segmented using the contour information on the time axis (t axis). In this case, the present embodiment is characterized by applying the image segmentation method based on the geodesic distance described above.

이후 단계(S306)에서는 두 키 프레임 간의 영상 프레임에 대한 영상 분할 결과를 획득한다.In operation S306, an image segmentation result of an image frame between two key frames is obtained.

이때, 본 실시예에서는 두 관계를 서로 상호보완적으로 이용함으로써 효율성을 증대시킬 수 있다. 즉, 시간 축(t) 상에 존재하는 영상에 대한 포인트와 x축-y축의 2D영상에 존재하는 포인트와의 매핑 관계를 이용함으로써 사용자에게 보다 다양한 각도에서 작업을 할 수 있는 환경을 제공한다.At this time, in the present embodiment, the efficiency can be increased by complementarily using the two relationships with each other. That is, by using a mapping relationship between a point on an image existing on a time axis t and a point present on a 2D image of an x-axis, a user may be provided with an environment in which the user can work at various angles.

도 4a 및 도 4b는 상기 설명되었던 부분에 있어, 주어진 영상 시퀀스에 대하여 x축 및 y축으로의 이미지와 x축 및 시간 축(t축)으로의 이미지 영상을 보여준다.4A and 4B show the image on the x-axis and the y-axis and the image on the x-axis and the time-axis (t-axis) for the given image sequence, in the part described above.

도 4a와 같은 x축과 y축 상의 이미지와는 달리, 시간 축(t축)을 중심하는 영상(도 4b)은 해당 영역에 대하여 긴 도로 모양의 구조를 지님을 알 수 있다. 이와 같은 영상에 대하여 지오데식 거리를 기반으로 하는 중심변환 방법론이 더욱 합리적일 것 이라는 것을 예상할 수 있다. 그 이유는 지오데식 거리는 최단거리 계산을 그 기본으로 하고 있어 도 4에서 예시한 바와 같은 시간 축(t축) 상에 존재하는 영상 분할에 대하여 더욱 적합하기 때문이다.Unlike the image on the x-axis and the y-axis as shown in FIG. 4A, the image centered on the time axis (t-axis) (FIG. 4B) has a long road shape with respect to the corresponding area. It can be expected that the center transformation methodology based on geodesic distance would be more reasonable for such images. The reason is that the geodesic distance is based on the shortest distance calculation and is more suitable for the image segmentation existing on the time axis (t-axis) as illustrated in FIG. 4.

한편, 도 5a 및 도 5b는 상기 지오데식 거리를 기반으로 하는 중심변환 방법론의 일예를 도시한 것이다.Meanwhile, FIGS. 5A and 5B illustrate an example of a center transformation methodology based on the geodesic distance.

도 5a에서 점선 (a)는 x와 p 사이의 유클리디안 거리(∥x-p∥e)를 의미하며, 굵은 실선 (b)는 본 실시예에 따라 x와

Figure 112007090309541-pat00001
사이의 지오데식 거리(∥x-
Figure 112007090309541-pat00002
g)를 의미 한다. 도 5a에서 공간 (c)는 데이터들이 존재하고 있는 임의의 매니폴드 공간을 의미한다.In FIG. 5A, the dotted line (a) means the Euclidean distance (∥xp∥ e ) between x and p, and the thick solid line (b) is the x and p according to the present embodiment.
Figure 112007090309541-pat00001
Geodesic distance between (∥ x-
Figure 112007090309541-pat00002
G ) means. Space (c) in FIG. 5A means any manifold space in which data exists.

먼저, 도 5a에 도시한 바와 같이, 해당 데이터들에 대한 분포를 살펴보면, 종래의 유클리디안 거리(∥x-p∥e) 기준하에서, 서로 다른 군집에 있으면서도 동일 군집내의 데이터들보다 더욱 가까운 거리가 측정되는 문제점이 있음을 쉽게 알 수 있다.First, as shown in FIG. 5A, when the distribution of the corresponding data is examined, a distance closer to that of the data within the same cluster is measured in the different clusters under the conventional Euclidean distance (∥xp∥ e ). It is easy to see that there is a problem.

이러한 문제를 해결하고자, 본 실시예에서는 각 군집분포의 매니폴드를 유지하는 지오데식 거리(∥x-

Figure 112007090309541-pat00003
g) 측정을 적용한 것을 특징으로 한다.In order to solve this problem, in the present embodiment, the geodesic distance (∥x−
Figure 112007090309541-pat00003
G ) characterized by applying the measurement.

이상, 본 발명의 실시예에 대해 상세히 기술하였으나 본 발명은 이러한 실시예에 국한되는 것은 아니며, 후술하는 청구범위에 기재된 본 발명의 기술적 사상과 범주 내에서 당업자로부터 여러 가지 변형이 가능함은 물론이다.As described above, the embodiments of the present invention have been described in detail, but the present invention is not limited to these embodiments, and various modifications may be made by those skilled in the art within the spirit and scope of the present invention described in the claims below.

도 1은 본 발명에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 수행하기 위한 시스템 블록도,1 is a system block diagram for performing an image segmentation and synthesis method using an image polyhedron structure according to the present invention;

도 2는 본 발명의 바람직한 실시예에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법에 대한 전체 흐름도,2 is an overall flowchart of an image segmentation and synthesis method using an image polyhedron structure according to an embodiment of the present invention;

도 3은 도 2의 사용자 정의 영역 입력 및 영상 분할 과정을 상세히 설명하는 흐름도,3 is a flowchart illustrating a user-defined area input and image segmentation process of FIG. 2 in detail;

도 4는 본 발명에 따라 영상 프레임들과 시간 축에서 보여 지는 영상 매니폴드 구조에 대한 예시도,4 is an exemplary diagram of an image manifold structure shown in image frames and a time axis according to the present invention;

도 5는 본 발명에 따라 데이터 매니폴드 구조를 이용한 데이터 군집화에 대한 예시도.5 is an exemplary diagram for data clustering using a data manifold structure in accordance with the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100 : 영상 입력부 102 : 영상 분할 및 윤곽선 추출부100: image input unit 102: image segmentation and contour extraction unit

104 : 영상 합성부104: image synthesis unit

Claims (6)

입력된 영상 프레임의 특정 영상 영역의 윤곽선 정보를 추출하는 과정과,Extracting contour information of a specific image region of an input image frame; 추출되는 상기 특정 영상 영역의 윤곽선 정보에 따라 x축 및 시간 축을 중심으로 상기 영상 프레임을 영상 분할하는 과정과,Dividing the image frame around an x-axis and a time-axis according to the extracted contour information of the specific image region; 영상 분할되는 상기 영상 프레임을 합성하는 과정을 포함하는Synthesizing the image frame to be divided into images; 영상 분할 및 합성 방법.Image segmentation and compositing method. 제 1 항에 있어서,The method of claim 1, 상기 추출하는 과정은,The extraction process, 상기 특정 영상 영역의 윤곽선 정보를 상기 x축 및 시간 축을 중심으로 명시하는 과정인Specifying contour information of the specific image area about the x-axis and time-axis 영상 분할 및 합성 방법.Image segmentation and compositing method. 제 1 항에 있어서,The method of claim 1, 상기 영상 분할하는 과정은,The image segmentation process, 상기 시간 축 상에서 영상 매니폴드를 이용하여 상기 영상 프레임을 영상 분할하여 상기 영상 프레임에 대한 영상 분할 결과를 획득하는 과정인Acquiring an image segmentation result for the image frame by segmenting the image frame using an image manifold on the time axis 영상 분할 및 합성 방법.Image segmentation and compositing method. 제 3 항에 있어서,The method of claim 3, wherein 상기 획득 과정은,The acquisition process, 상기 x축 및 시간 축을 중심으로 한 영상과, x축 및 y축의 영상과의 상호 매핑 관계를 적용하는 것을 특징으로 하는 영상 분할 및 합성 방법.And a mutual mapping relationship between an image centered on the x-axis and a time axis and an image of the x-axis and the y-axis. 제 1 항에 있어서,The method of claim 1, 상기 분할 과정은,The division process, 지오데식 거리를 기반으로 하는 중심변환 기법에 의해 구현되는 영상 분할 및 합성 방법.Image segmentation and synthesis method implemented by centroid transformation based on geodesic distance. 제 5 항에 있어서,The method of claim 5, wherein 상기 합성 과정은, The synthesis process, 상기 중심변환 기법으로부터 얻어진 상기 분할된 영상 영역에, 상기 x축 및 시간 축, y축 정보를 중심으로 질감 및 색상 변환을 수행하는 것을 특징으로 하는 영상 분할 및 합성 방법.And the texture and color transformation are performed on the divided image region obtained from the center transformation technique based on the x-axis, time-axis, and y-axis information.
KR1020070131831A 2007-12-15 2007-12-15 Image Segmentation and Synthesis Method Using Image Polyhedral Structure KR100928889B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070131831A KR100928889B1 (en) 2007-12-15 2007-12-15 Image Segmentation and Synthesis Method Using Image Polyhedral Structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070131831A KR100928889B1 (en) 2007-12-15 2007-12-15 Image Segmentation and Synthesis Method Using Image Polyhedral Structure

Publications (2)

Publication Number Publication Date
KR20090064246A KR20090064246A (en) 2009-06-18
KR100928889B1 true KR100928889B1 (en) 2009-11-30

Family

ID=40993054

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070131831A KR100928889B1 (en) 2007-12-15 2007-12-15 Image Segmentation and Synthesis Method Using Image Polyhedral Structure

Country Status (1)

Country Link
KR (1) KR100928889B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9105093B2 (en) 2012-03-05 2015-08-11 Thomson Licensing Llc Method and apparatus for bi-layer segmentation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130102895A (en) 2012-03-08 2013-09-23 한국전자통신연구원 Apparatus and method of a foreground layer extraction in the image sequence

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061462A (en) 1997-03-07 2000-05-09 Phoenix Licensing, Inc. Digital cartoon and animation process

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061462A (en) 1997-03-07 2000-05-09 Phoenix Licensing, Inc. Digital cartoon and animation process
US6393134B1 (en) 1997-03-07 2002-05-21 Phoenix Licensing, Inc. Digital cartoon and animation process

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
디지털 크리처 제작 기술 동향, 전자통신동향분석 제22권 제4호, 2007.08.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9105093B2 (en) 2012-03-05 2015-08-11 Thomson Licensing Llc Method and apparatus for bi-layer segmentation

Also Published As

Publication number Publication date
KR20090064246A (en) 2009-06-18

Similar Documents

Publication Publication Date Title
CN108596974B (en) Dynamic scene robot positioning and mapping system and method
CN107292965B (en) Virtual and real shielding processing method based on depth image data stream
CN108537239B (en) Method for detecting image saliency target
CN108388882B (en) Gesture recognition method based on global-local RGB-D multi-mode
US8269722B2 (en) Gesture recognition system and method thereof
Li et al. An overlapping-free leaf segmentation method for plant point clouds
CN111179324A (en) Object six-degree-of-freedom pose estimation method based on color and depth information fusion
CN108230338B (en) Stereo image segmentation method based on convolutional neural network
CN110838105B (en) Business process model image recognition and reconstruction method
WO2016082797A1 (en) Method for modeling and registering three-dimensional scene structure based on single image
CA2613116A1 (en) Video object cut and paste
JP6194692B2 (en) Trimap generation device, Trimap generation method, and program
CN113240691A (en) Medical image segmentation method based on U-shaped network
JP6932402B2 (en) Multi-gesture fine division method for smart home scenes
CN110706269B (en) Binocular vision SLAM-based dynamic scene dense modeling method
US8929587B2 (en) Multi-tracking of video objects
CN103295219B (en) Method and device for segmenting image
JP6611255B2 (en) Image processing apparatus, image processing method, and image processing program
CN107194870B (en) Image scene reconstruction method based on salient object detection
CN113327298A (en) Grabbing attitude estimation method based on image instance segmentation and point cloud PCA algorithm
Wang et al. Image-based building regularization using structural linear features
KR100928889B1 (en) Image Segmentation and Synthesis Method Using Image Polyhedral Structure
JP6331761B2 (en) Determination device, determination method, and determination program
CN112465984A (en) Monocular camera sequence image three-dimensional reconstruction method based on double-layer filtering
CN115546027B (en) Image suture line determination method, device and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120919

Year of fee payment: 19