KR20090064246A - Method for video segmentation and composition based on scene manifolds - Google Patents
Method for video segmentation and composition based on scene manifolds Download PDFInfo
- Publication number
- KR20090064246A KR20090064246A KR1020070131831A KR20070131831A KR20090064246A KR 20090064246 A KR20090064246 A KR 20090064246A KR 1020070131831 A KR1020070131831 A KR 1020070131831A KR 20070131831 A KR20070131831 A KR 20070131831A KR 20090064246 A KR20090064246 A KR 20090064246A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- axis
- region
- segmentation
- contour
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
Description
본 발명은 영상 후처리 작업에서 주로 사용되는 디지털 특수 효과(DVFX, Digital Video Special Effect)들 중의 하나인 로토스코핑(rotoscoping) 작업과 관련한 것으로, 특히 영상 프레임 내에서의 특정 영역에 대한 분할(segmentation) 및 합성(composition)을 보다 합리적으로 구현하는데 적합한 영상 다면체 구조를 이용한 영상 분할 및 합성 방법에 관한 것이다.The present invention relates to a rotoscoping operation, one of digital video special effects (DVFX) mainly used in image post-processing, and in particular, segmentation of a specific region within an image frame. And an image segmentation and synthesis method using an image polyhedron structure suitable for more rational implementation of composition.
로토스코핑(rotoscoping) 작업은 주어진 영상 프레임(frame) 내에서 특정 물체의 윤곽선 정보를 추출하고 이를 이용하여 대상물의 색상이나 질감 변화 혹은 삭제등과 같은 합성을 수행하는 일련의 작업들을 말하는 것으로, 넓은 개념으로는 동영상에서의 특정 대상물의 영상 및 기하학적 특성을 변화시킴을 말한다.Rotoscoping refers to a series of tasks that extract the contour information of a specific object within a given image frame and use it to perform composition such as color change or texture change or deletion. Means changing the image and geometric characteristics of a specific object in a video.
최근, 컴퓨터 그래픽스와 컴퓨터 비전(vision) 기술의 발달로 디지털 영상 특수 효과에 대한 관심이 높아지고 있으나, 아직까지 영화 또는 비디오 영상 제작에 있어서 이러한 특정 영역에 대한 후처리 작업들은 거의 컴퓨터 그래픽 소프트웨 어를 이용한 수작업으로 이루어지고 있는 실정이다. 예를 들어, 주어진 영상에서 특정 물체에 대한 합성을 위해서는 그 영상의 모든 프레임 상에 존재하는 해당 물체에 대한 독립적인 후처리 작업을 필요로 하는 노력이 따른다.Recently, with the development of computer graphics and computer vision technology, interest in digital image special effects is increasing. However, the post-processing work on this specific area is almost entirely using computer graphics software in film or video image production. The situation is done by hand. For example, compositing a specific object in a given image requires effort that requires independent post-processing of the object present on every frame of the image.
보다 구체적으로 살펴보면, 기존의 로토스코핑을 위한 상업 소프트웨어로는 "Commotion"과 "Adobe After Effects"와 같은 것들이 있는데, 이들 소프트웨어는 주어진 영상 프레임 상에서 특정 영상 이미지에 대하여 사용자에 의해 그려진 윤곽선상의 점들을 이용하여 광학적 플로우(optical flow)를 이용하여 추적을 수행함으로써 나머지 영상 프레임에서의 물체 영역을 추출한다.More specifically, existing commercial software for rotoscoping includes "Commotion" and "Adobe After Effects", which use contour points drawn by a user for a specific image image on a given image frame. By tracking by using optical flow to extract the object region in the remaining image frame.
그러나 이 방법은 초기화에 민감함과 동시에 초기화 프레임과 시간 축 상으로 거리가 먼 프레임에 대하여 점점 오차율이 증가되는 단점이 존재하여 사용자의 많은 수작업을 여전히 필요로 한다.However, this method is sensitive to the initialization and the error rate is gradually increased for the frame which is far from the initialization frame on the time axis, which still requires a lot of manual work of the user.
움직이는 물체의 윤곽선을 자동으로 추출하는 작업은 컴퓨터 비전에서 상당히 난해한 기술 중의 하나이며, 영상 프레임에 대한 기존의 영상 합성에서 이러한 작업이 각각의 2D(x축 및 y축의 2D) 이미지 상에서의 독립적인 작업들로만 이루어진다는 한계가 있다. 즉, 시간 축에 대하여 관심 영역에 존재하는 일관성 있는 정보를 간과한다는 것이다.Automatically extracting the contours of moving objects is one of the more difficult techniques in computer vision, and in traditional image compositing for image frames, these tasks are independent on each 2D (2D x and y axis) image. There is a limit that only consists of. In other words, it overlooks consistent information that exists in the region of interest on the time axis.
그러나 영상은 시간 축으로 축적된 일련의 2D 이미지들임을 상기해 볼 때, 시간 축에 대한 정보를 이용하여 영역 분할을 적용하는 것이 보다 합리적임을 예상할 수 있다.However, recalling that the image is a series of 2D images accumulated on the time axis, it can be expected that it is more reasonable to apply region segmentation using information on the time axis.
이에 본 발명은, 시간 축에 대하여 보다 일관성 있는 영역 분할 및 윤곽선 추출을 하고자, 영상 프레임 내에 존재하는 각각의 영상들에 대한 매니폴드(manifold)를 이용한 군집 분석 방안을 제공하고자 한다.Accordingly, the present invention is to provide a cluster analysis method using a manifold for each image existing in the image frame in order to more consistent region segmentation and contour extraction on the time axis.
또한 본 발명은, 기존의 2D(x축 및 y축의 2D) 이미지들의 영상 작업에 국한된 방법론에서 벗어나 x축 및 시간 축에서 사용자에 의해 작업이 가능한 인터페이스 환경을 제공하고자 한다.In addition, the present invention aims to provide an interface environment that can be operated by the user on the x-axis and time-axis, away from the methodology limited to the image work of the existing 2D (2D x-axis and y-axis) image.
본 발명의 과제를 해결하기 위한 바람직한 실시예에 따르면, 임의의 영상 프레임이 입력되면 사용자에 의한 로토스코핑 과정 결과에 따라 상기 영상 프레임의 특정 영역의 윤곽선을 정의하는 과정과, 상기 정의된 특정 영역의 윤곽선에 대해 x축 및 시간 축을 이용하여 영역을 분할하는 과정과, 상기 분할된 영상 영역을 합성하는 과정을 포함하는 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 제공한다.According to a preferred embodiment of the present invention, when an image frame is input, a process of defining an outline of a specific region of the image frame according to a result of rotoscoping by the user, and An image segmentation and synthesis method using an image polyhedron structure comprising a process of segmenting an area using an x-axis and a time axis with respect to an outline, and a process of synthesizing the divided image area.
본 발명에 의하면, 주어진 영상 프레임 내에서 사용자에 의한 로토스코핑(rotoscoping) 과정과 그 영역을 중심으로 시간 축 상에서 영상 매니폴드를 이용 한 군집 분석, 그리고 합성을 통하여 기존 x축 및 ,y축 중심으로 이루어져 왔던 영상처리 작업에서 탈피하여 x축과 시간 축에서의 작업처리 환경을 제공함으로써, 보다 다각적인 관점에서의 일관성 있는 결과를 얻을 수 있다.According to the present invention, a rotoscoping process by a user within a given image frame, cluster analysis using an image manifold on a time axis centered on the region, and synthesis are performed on existing x and y axes. By providing a work processing environment on the x-axis and time-axis away from the image processing work that has been made, it is possible to obtain a consistent result from a more diversified perspective.
본 발명에 따른 영상 다면체 구조를 이용한 비디오 분할 및 영상 합성 방법은, 주어진 영상 프레임 내에서 사용자에 의해 정의된 영역부분과 그 영역을 중심으로 시간 축 상에서 영상 매니폴드(manifold)를 이용한 군집분석 부분, 그리고 합성부분으로 이루어진 것을 특징으로 한다.A video segmentation and image synthesis method using an image polyhedron structure according to the present invention includes a region portion defined by a user in a given image frame and a cluster analysis portion using an image manifold on a time axis around the region, And it is characterized by consisting of synthetic parts.
본 발명은 디지털 영상 특수효과에서 가장 중요한 기술의 하나인 영상 내에 존재하는 이동 물체에 대한 영역 분할 및 윤곽선 추출, 그리고 합성방법을 위하여, 영상 내 존재하는 각각의 영상들의 기하학적인 매니폴드 구조를 이용한 군집분석 방법을 적용함으로써 모든 프레임에 대하여 보다 일관성 있는 분할 및 합성 결과를 얻을 수 있다.The present invention is a clustering using a geometric manifold structure of individual images in an image for segmentation, contour extraction, and synthesis of moving objects in the image, which is one of the most important techniques in digital image special effects. By applying the analysis method, more consistent segmentation and synthesis results can be obtained for all frames.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.
실시예의 설명에 앞서, 사용자에 의해 정의되는 영역 부분에서는, 베지어(Bezier) 또는 스프라인(Spline)과 같은 곡선을 표현하기 위한 여러 방법을 제공 하며, 영상처리 작업이 적용될 시작과 끝 프레임 영상의 두 키 프레임에 대하여 적용된다.Prior to the description of the embodiment, the area portion defined by the user provides various methods for expressing a curve such as Bezier or Spline, and provides a method for starting and ending frame images to which an image processing operation is to be applied. Applies for both key frames.
시간 축 상에 존재하는 영상 매니폴드를 이용한 군집분석 부분에서는, 중심변환(mean shift)의 군집분석방법을 적용한다. 논-파라메트릭(non-parametric) 방법 중의 하나인 중심변환 분석 방법을 적용하여 영상 분할(segmentation)을 수행한다. 더불어, 시간 축 상에 존재하는 각 영상들에 대한 매니폴드 구조(manifolds structure)를 유지하기 위하여 중심변환 적용시 거리측정 방법을 유클리디언(euclidean) 거리측정 방법 대신 지오데식(geodesic) 거리측정 방법을 적용함을 특징으로 한다.In the cluster analysis part using the image manifold existing on the time axis, a cluster analysis method of mean shift is applied. Image segmentation is performed by applying a center transformation analysis method, which is one of non-parametric methods. In addition, in order to maintain the manifolds structure for each image existing on the time axis, the geodesic distance measurement method instead of the euclidean distance measurement method when applying the center transformation is used. It is characterized by applying.
상기 영상 합성 부분에서는, 상기 시간 축 상에 존재하는 특정 영상 매니폴드를 이용한 군집분석으로부터 얻어진 분할된 영상에 대하여 다양한 인터페이스를 통해 색상 및 질감변형을 수행 가능하도록 한다.In the image synthesizing portion, color and texture modification may be performed through various interfaces on the divided images obtained from cluster analysis using a specific image manifold existing on the time axis.
도 1은 본 발명에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 설명하기 위한 시스템 블록도로서, 영상 입력부(100), 영상 분할 및 윤곽선 추출부(102), 영상 합성부(104)를 포함한다.1 is a system block diagram illustrating an image segmentation and synthesis method using an image polyhedron structure according to the present invention, which includes an
도시한 바와 같이, 영상 입력부(100)는 사용자에 의해 입력되는 영상에 대한 영상 프레임을 영상 분할 및 윤곽선 추출부(102)로 제공하며, 사용자에 의한 로토스코핑(rotoscoping) 과정에 따른 특정 영역의 윤곽선을 정의하여 영상 분할 및 윤곽선 추출부(102)로 제공한다.As shown, the
이때, 로토스코핑 작업은 주어진 영상 프레임 내에서 특정 물체의 윤곽선 정 보를 추출하고 이를 이용하여 대상물의 색상이나 질감 변화 혹은 삭제등과 같은 합성을 수행하는 일련의 작업들을 말하는 것으로, 넓은 개념으로는 동영상에서의 특정 대상물의 영상 및 기하학적 특성을 변화시킴을 말한다.At this time, rotoscoping refers to a series of operations that extract the contour information of a specific object in a given image frame and perform composition such as color change or texture change or deletion of the object. To change the image and geometric characteristics of a particular object.
영상 분할 및 윤곽선 추출부(102)는 입력된 영상 프레임과, 사용자에 의해 정의된 특정 영역의 윤곽선에 따라 영상 분할 및 윤곽선 추출 과정을 수행한다. 이때의 영상 분할은, 본 실시예에 따라 시간 축 상에 존재하는 영상 매니폴드(manifold)를 유지하는 영상 분할이다.The image segmentation and
영상 합성부(104)는 상기 영상 분할 및 윤곽선 추출부(102)를 통해 제공되는 분할된 영상 영역에 대한 영상 합성 과정을 수행한다.The
이하, 상술한 구성과 함께, 본 발명의 바람직한 실시예에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 첨부한 도 2의 흐름도를 참조하여 상세히 설명하기로 한다.Hereinafter, the image segmentation and synthesis method using the image polyhedron structure according to the preferred embodiment of the present invention will be described in detail with reference to the flowchart of FIG. 2.
먼저, 영상 입력부(100)를 통해 임의의 영상 프레임이 입력되면(S200), 사용자에 의한 로토스코핑 과정 결과에 따라 상기 영상 프레임의 특정 영역의 윤곽선을 정의한다.(S202)First, when an arbitrary image frame is input through the image input unit 100 (S200), an outline of a specific region of the image frame is defined according to the result of the rotoscoping process by the user (S202).
이후 영상 분할 및 윤곽선 추출부(102)는 영상 분할 및 윤곽선 추출 기능을 수행하는데, 상기 영상 프레임 상에서 특정 영역분할을 하는데 있어서, 기존의 x축과 y축 2D 이미지상에서 수행되었던 작업을, x축과 시간 축(t축)을 이용하여 보다 일관성 있는 영역 분할을 수행한다(S204).Afterwards, the image segmentation and
즉, 시간 축 상으로 존재하는 영상 매니폴드 구조가 유지될 수 있도록 일반 적인 유클리디언 거리(Euclidean distance)에 기반한 방식 대신 지오데식 거리(Geodesic distance)에 기반한 방식을 이용함을 그 특징으로 한다.That is, in order to maintain the image manifold structure existing on the time axis, a method based on geodesic distance is used instead of the method based on general Euclidean distance.
더불어, x축과 y축 상의 2D이미지에 대한 영역분할 대신 x축과 시간 축 중심으로 존재하는 영상에 대하여 위의 거리측정 방법과 논파라메트릭(non-parametric) 방법 중의 하나인 중심변환(mean shift) 기법을 함께 수행하여 영상 분할을 보다 일관성 있게 수행한다.In addition, the mean shift, which is one of the above distance measurement method and non-parametric method, for an image existing at the center of the x-axis and the time-axis instead of the region division of the 2D image on the x-axis and the y-axis ) To perform image segmentation more consistently.
그런 다음, 상기 분할된 영상 영역에 대한 영상 합성 과정을 수행한다(S206). 이때의 영상 합성 과정은, 상기 지오데식 거리에 기반한 중심변환 기법으로부터 얻어진 영역에 x축, y축, 시간 축(t축) 정보를 중심으로 해당 영역에 대한 질감 및 색상 변환 등을 수행하는 과정이다.Then, an image synthesis process is performed on the divided image region (S206). In this case, the image synthesis process is a process of performing texture and color conversion on the region based on the x-axis, y-axis, and time-axis (t-axis) information on the region obtained from the geodesic distance-based center transformation technique. .
도 3은 도 2의 단계(S202) 및 단계(S204)를 보다 상세히 설명하는 흐름도로서, 영상분할을 위한 자동화 방법 및 사용자 로토스코핑을 위한 인터페이스에 대한 설명이다.FIG. 3 is a flowchart illustrating steps S202 and S204 of FIG. 2 in more detail, and illustrates an automation method for image segmentation and an interface for user rotoscoping.
도 3에 도시한 바와 같이, 사용자에 의한 로토스코핑 과정을 통해 두 키 프레임 상에 관심 영역에 대한 윤곽선을 정의한 후(S300), 상기 단계(S300)에서 정의된 윤곽선을 x축과 시간 축(t축)을 중심으로 명시한다(S302).As shown in FIG. 3, after defining the contours of the ROIs on the two key frames through the rotoscoping process by the user (S300), the contours defined in the step S300 are defined by the x-axis and the time-axis (t). Axis) is specified centering (S302).
이후 단계(S304)에서는 시간 축(t축) 상에서 영상 매니폴드를 이용한 영상 분할을 수행한다. 즉, 시간 축(t축) 상의 윤곽선 정보를 이용하여 영상을 분할한다. 이때, 본 실시예에서는 상술한 지오데식 거리에 기반한 영상 분할법을 적용함을 특징으로 한다.Thereafter, in step S304, image segmentation using an image manifold is performed on the time axis (t-axis). That is, the image is segmented using the contour information on the time axis (t axis). In this case, the present embodiment is characterized by applying the image segmentation method based on the geodesic distance described above.
이후 단계(S306)에서는 두 키 프레임 간의 영상 프레임에 대한 영상 분할 결과를 획득한다.In operation S306, an image segmentation result of an image frame between two key frames is obtained.
이때, 본 실시예에서는 두 관계를 서로 상호보완적으로 이용함으로써 효율성을 증대시킬 수 있다. 즉, 시간 축(t) 상에 존재하는 영상에 대한 포인트와 x축-y축의 2D영상에 존재하는 포인트와의 매핑 관계를 이용함으로써 사용자에게 보다 다양한 각도에서 작업을 할 수 있는 환경을 제공한다.At this time, in the present embodiment, the efficiency can be increased by complementarily using the two relationships with each other. That is, by using a mapping relationship between a point on an image existing on a time axis t and a point present on a 2D image of an x-axis, a user may be provided with an environment in which the user can work at various angles.
도 4a 및 도 4b는 상기 설명되었던 부분에 있어, 주어진 영상 시퀀스에 대하여 x축 및 y축으로의 이미지와 x축 및 시간 축(t축)으로의 이미지 영상을 보여준다.4A and 4B show the image on the x-axis and the y-axis and the image on the x-axis and the time-axis (t-axis) for the given image sequence, in the part described above.
도 4a와 같은 x축과 y축 상의 이미지와는 달리, 시간 축(t축)을 중심하는 영상(도 4b)은 해당 영역에 대하여 긴 도로 모양의 구조를 지님을 알 수 있다. 이와 같은 영상에 대하여 지오데식 거리를 기반으로 하는 중심변환 방법론이 더욱 합리적일 것 이라는 것을 예상할 수 있다. 그 이유는 지오데식 거리는 최단거리 계산을 그 기본으로 하고 있어 도 4에서 예시한 바와 같은 시간 축(t축) 상에 존재하는 영상 분할에 대하여 더욱 적합하기 때문이다.Unlike the image on the x-axis and the y-axis as shown in FIG. 4A, the image centered on the time axis (t-axis) (FIG. 4B) has a long road shape with respect to the corresponding area. It can be expected that the center transformation methodology based on geodesic distance would be more reasonable for such images. The reason is that the geodesic distance is based on the shortest distance calculation and is more suitable for the image segmentation existing on the time axis (t-axis) as illustrated in FIG. 4.
한편, 도 5a 및 도 5b는 상기 지오데식 거리를 기반으로 하는 중심변환 방법론의 일예를 도시한 것이다.Meanwhile, FIGS. 5A and 5B illustrate an example of a center transformation methodology based on the geodesic distance.
도 5a에서 점선 (a)는 x와 p 사이의 유클리디안 거리(∥x-p∥e)를 의미하며, 굵은 실선 (b)는 본 실시예에 따라 x와 사이의 지오데식 거리(∥x-∥g)를 의미 한다. 도 5a에서 공간 (c)는 데이터들이 존재하고 있는 임의의 매니폴드 공간을 의미한다.In FIG. 5A, the dotted line (a) means the Euclidean distance (∥xp∥ e ) between x and p, and the thick solid line (b) is the x and p according to the present embodiment. Geodesic distance between (∥ x- G ) means. Space (c) in FIG. 5A means any manifold space in which data exists.
먼저, 도 5a에 도시한 바와 같이, 해당 데이터들에 대한 분포를 살펴보면, 종래의 유클리디안 거리(∥x-p∥e) 기준하에서, 서로 다른 군집에 있으면서도 동일 군집내의 데이터들보다 더욱 가까운 거리가 측정되는 문제점이 있음을 쉽게 알 수 있다.First, as shown in FIG. 5A, when the distribution of the corresponding data is examined, a distance closer to that of the data within the same cluster is measured in the different clusters under the conventional Euclidean distance (∥xp∥ e ). It is easy to see that there is a problem.
이러한 문제를 해결하고자, 본 실시예에서는 각 군집분포의 매니폴드를 유지하는 지오데식 거리(∥x-∥g) 측정을 적용한 것을 특징으로 한다.In order to solve this problem, in the present embodiment, the geodesic distance (∥x− G ) characterized by applying the measurement.
이상, 본 발명의 실시예에 대해 상세히 기술하였으나 본 발명은 이러한 실시예에 국한되는 것은 아니며, 후술하는 청구범위에 기재된 본 발명의 기술적 사상과 범주 내에서 당업자로부터 여러 가지 변형이 가능함은 물론이다.As described above, the embodiments of the present invention have been described in detail, but the present invention is not limited to these embodiments, and various modifications may be made by those skilled in the art within the spirit and scope of the present invention described in the claims below.
도 1은 본 발명에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법을 수행하기 위한 시스템 블록도,1 is a system block diagram for performing an image segmentation and synthesis method using an image polyhedron structure according to the present invention;
도 2는 본 발명의 바람직한 실시예에 따른 영상 다면체 구조를 이용한 영상 분할 및 합성 방법에 대한 전체 흐름도,2 is an overall flowchart of an image segmentation and synthesis method using an image polyhedron structure according to an embodiment of the present invention;
도 3은 도 2의 사용자 정의 영역 입력 및 영상 분할 과정을 상세히 설명하는 흐름도,3 is a flowchart illustrating a user-defined area input and image segmentation process of FIG. 2 in detail;
도 4는 본 발명에 따라 영상 프레임들과 시간 축에서 보여 지는 영상 매니폴드 구조에 대한 예시도,4 is an exemplary diagram of an image manifold structure shown in image frames and a time axis according to the present invention;
도 5는 본 발명에 따라 데이터 매니폴드 구조를 이용한 데이터 군집화에 대한 예시도.5 is an exemplary diagram for data clustering using a data manifold structure in accordance with the present invention.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100 : 영상 입력부 102 : 영상 분할 및 윤곽선 추출부100: image input unit 102: image segmentation and contour extraction unit
104 : 영상 합성부104: image synthesis unit
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070131831A KR100928889B1 (en) | 2007-12-15 | 2007-12-15 | Image Segmentation and Synthesis Method Using Image Polyhedral Structure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070131831A KR100928889B1 (en) | 2007-12-15 | 2007-12-15 | Image Segmentation and Synthesis Method Using Image Polyhedral Structure |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090064246A true KR20090064246A (en) | 2009-06-18 |
KR100928889B1 KR100928889B1 (en) | 2009-11-30 |
Family
ID=40993054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070131831A KR100928889B1 (en) | 2007-12-15 | 2007-12-15 | Image Segmentation and Synthesis Method Using Image Polyhedral Structure |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100928889B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8873855B2 (en) | 2012-03-08 | 2014-10-28 | Electronics And Telecommunications Research Institute | Apparatus and method for extracting foreground layer in image sequence |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2637139A1 (en) | 2012-03-05 | 2013-09-11 | Thomson Licensing | Method and apparatus for bi-layer segmentation |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6061462A (en) | 1997-03-07 | 2000-05-09 | Phoenix Licensing, Inc. | Digital cartoon and animation process |
-
2007
- 2007-12-15 KR KR1020070131831A patent/KR100928889B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8873855B2 (en) | 2012-03-08 | 2014-10-28 | Electronics And Telecommunications Research Institute | Apparatus and method for extracting foreground layer in image sequence |
Also Published As
Publication number | Publication date |
---|---|
KR100928889B1 (en) | 2009-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179324B (en) | Object six-degree-of-freedom pose estimation method based on color and depth information fusion | |
CN108596974B (en) | Dynamic scene robot positioning and mapping system and method | |
US10679408B2 (en) | Generating a three-dimensional model from a scanned object | |
CN108388882B (en) | Gesture recognition method based on global-local RGB-D multi-mode | |
CN108537239B (en) | Method for detecting image saliency target | |
WO2016082797A1 (en) | Method for modeling and registering three-dimensional scene structure based on single image | |
CN112581629A (en) | Augmented reality display method and device, electronic equipment and storage medium | |
JP2014530391A (en) | Network capture and 3D display of localized and segmented images | |
CN110706269B (en) | Binocular vision SLAM-based dynamic scene dense modeling method | |
JP6194692B2 (en) | Trimap generation device, Trimap generation method, and program | |
CN111462030A (en) | Multi-image fused stereoscopic set vision new angle construction drawing method | |
US8929587B2 (en) | Multi-tracking of video objects | |
TW202037169A (en) | Method and apparatus of patch segmentation for video-based point cloud coding | |
CN103295219B (en) | Method and device for segmenting image | |
JP6611255B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2021517281A (en) | Multi-gesture fine division method for smart home scenes | |
CN113327298A (en) | Grabbing attitude estimation method based on image instance segmentation and point cloud PCA algorithm | |
US7907147B2 (en) | Texture filtering apparatus, texture mapping apparatus, and method and program therefor | |
KR100928889B1 (en) | Image Segmentation and Synthesis Method Using Image Polyhedral Structure | |
JP6331761B2 (en) | Determination device, determination method, and determination program | |
CN116596935B (en) | Deformation detection method, deformation detection device, computer equipment and computer readable storage medium | |
US8891857B2 (en) | Concave surface modeling in image-based visual hull | |
CN115546027B (en) | Image suture line determination method, device and storage medium | |
CN112465984A (en) | Monocular camera sequence image three-dimensional reconstruction method based on double-layer filtering | |
CN112132845A (en) | Three-dimensional model unitization method and device, electronic equipment and readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120919 Year of fee payment: 19 |