KR100421208B1 - Wethod for synthesizing three-dimensional image - Google Patents

Wethod for synthesizing three-dimensional image Download PDF

Info

Publication number
KR100421208B1
KR100421208B1 KR1019960050475A KR19960050475A KR100421208B1 KR 100421208 B1 KR100421208 B1 KR 100421208B1 KR 1019960050475 A KR1019960050475 A KR 1019960050475A KR 19960050475 A KR19960050475 A KR 19960050475A KR 100421208 B1 KR100421208 B1 KR 100421208B1
Authority
KR
South Korea
Prior art keywords
image
optical flow
subject
information
quot
Prior art date
Application number
KR1019960050475A
Other languages
Korean (ko)
Other versions
KR19980030988A (en
Inventor
송문섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1019960050475A priority Critical patent/KR100421208B1/en
Publication of KR19980030988A publication Critical patent/KR19980030988A/en
Application granted granted Critical
Publication of KR100421208B1 publication Critical patent/KR100421208B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]

Abstract

PURPOSE: A method for synthesizing a 3D image is provided to photograph an object in the front of a background of a single color, automatically segment the object, and synthesize the segmented object with a different image. CONSTITUTION: An image with multi-resolution is generated from an image of a photographed object(201,202). The optical flow of a lower resolution image is firstly obtained among the images of the multi-resolution, and the optical flow of an upper resolution image is obtained according to obtain optical flow information to obtain the optical flow of the entire original image(203). Operation and structure information obtained with respect to a previous image is updated according to operation and structure information obtained through the optical flow obtained with respect to a current image, and 3D structure and operation information of an object is extracted(204,205). A successive image is 3-dimensionally synthesized with a different image according to 3D structure and operation information of the object(206).

Description

3차원영상의 합성방법{Wethod for synthesizing three-dimensional image}{Wethod for synthesizing three-dimensional image}

본 발명은 3차원영상의 합성방법에 관한 것으로, 특히 단안(Monocular) 영상 시퀀스에 대하여 옵티컬 플로우(Optical Flow)와 확장된 칼만 필터(Extended Kalman Filter)또는 수치적 방법(Numerical Methods)을 활용함으로써 얻어진 정보를 갱신(Update)하여 3차원 영상을 합성하는 3차원영상의 합성방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of synthesizing a three-dimensional image, and more particularly, to a method of synthesizing a three-dimensional image by using an optical flow and an extended Kalman filter or a numerical method for a monocular image sequence. And a method of synthesizing a three-dimensional image by updating the information to synthesize the three-dimensional image.

일반적으로 컴퓨터 그래픽은 영화나 TV의 영상 제작에 중요한 역할을 수행한다. 제작자들은 보다 자유로운 영상을 창조하기를 원하며 따라서 배우나 피사체를 영상 내에 자유롭게 합성하기 위하여 컴퓨터 그래픽 영상을 활용한다. 그러나 합성을 하기 위해서는 우선 배우나 피사체를 촬영하고 배경으로부터 분리해 내는 것이 선행되어야 한다. 이를 위해 종래에는 크로마-키(Chroma-key)기법이 가장 많이 사용되었다.In general, computer graphics plays an important role in the production of movies and television. Authors want to create more free images, so they use computer graphics images to synthesize actors and subjects freely within the image. However, in order to synthesize, it is necessary to take an actor or a subject and separate it from the background. For this purpose, the chroma-key technique has been used most frequently.

이 기법은 도 1에서 보여 주듯이 우선 단일 색상의 청색 스크린(101)을 배경으로 먼저 피사체(102)를 촬영하며, 촬영할 때 카메라의 팬(Pan), 틸트(tilt), 줌(zoom)에 대한 정보를 추출한다. 촬영된 영상은 일반적으로 단일 배경과 뚜렷이 구분되는 피사체를 포함하고 있게 되는데 배경으로부터 피사체를 분리해 내는 방법은 카메라에서 나오는 삼원색 R, G, B. 색상을 고려하여 배경의 색상에 대응하는 색상범위의 색신호의 유무에 의해 입력 영상으로부터 피사체를 분리하게 된다. 일반적으로 촬영된 영상의 색상값을 고려하여 청색배경은 0의 값을 부여하고 피사체는 1의 값을 부여함으로서 피사체를 배경으로부터 분리한다. 이와 같이 분리한 피사체의 영상을 카메라의 동작정보(107)를 고려하여 이미 가지고 있는 다른 배경영상(106)과 합성(105)함으로서 새로운 합성 영상을 얻을 수가 있다.1, first, the subject 102 is photographed in the background of a single-color blue screen 101, and information about the pan, tilt, and zoom of the camera . The photographed image generally includes a distinctive object from a single background. The method of separating the subject from the background is to consider the three primary colors R, G, and B. The color range corresponding to the background color The subject is separated from the input image by presence or absence of a color signal. Generally, considering the color value of the photographed image, the blue background is assigned a value of 0 and the subject is assigned a value of 1 to separate the subject from the background. A new synthesized image can be obtained by synthesizing the image of the separated object with the other background image 106 already having in consideration of the operation information 107 of the camera.

기존의 영상 합성 방법인 크로마-키를 이용하는 방법은 피사체의 동작을 추정하기 위하여 센서를 사용함으로서 피사체단위의 움직임 측정만이 가능하고 영상 내의 화소단위의 구조 추출이 안되므로 피사체의 3차원 구조를 얻을 수가 없고, 피사체의 3차원 구조를 알 수가 없으므로 피사체와 배경간에 깊이를 고려한 3차원적인 영상 합성이 가능하지 않으며, 촬영된 장면 이외의 다른 시점에서의 장면은 별도로 촬영을 하여야 하므로 가상의 카메라에서 찍은 것과 같은 임의의 영상의 재생이 가능하지 않은 문제점을 지니고 있다.The conventional method using the chroma key, which is a method of synthesizing the image, uses the sensor to estimate the motion of the subject, so that only the motion of the subject can be measured and the structure of the pixel can not be extracted in the image. Since the three-dimensional structure of the subject can not be known, it is not possible to synthesize a three-dimensional image considering the depth between the subject and the background. Since scenes at other viewpoints other than the photographed scene must be separately photographed, It is not possible to reproduce the same arbitrary image.

본 발명이 이루고자하는 기술적인 과제는 단일 색상의 배경 앞에서 피사체를 촬영한 후 피사체를 세그멘테이션하고 이를 다시 다른 영상과 합성하는 일련의 과정을 자동으로 수행하도록 하며, 또한 TV나 영화 카메라를 사용하여 연속되는 영상을 활용하여 3차원 구조를 추출하고 이에 따라 3차원 모델을 얻어서, 컴퓨터 그래픽 기술에 기초하여 영상을 합성하고 임의의 시점에서 영상을 생성하는 3차원영상의 합성방법을 제공하는 것이다.The object of the present invention is to automatically perform a series of steps of shooting a subject in front of a background of a single color and then segmenting the subject and synthesizing the subject again with another image, Dimensional image by using an image to extract a three-dimensional structure, thereby obtaining a three-dimensional model, synthesizing an image based on computer graphics technology, and generating an image at an arbitrary viewpoint.

도 1은 종래의 크로마-키(Chroma-key)를 사용한 영상 합성의 흐름도이다.1 is a flowchart of image synthesis using a conventional chroma-key.

도 2는 본 발명에 따른 일실시 예의 영상합성방법의 흐름도이다.2 is a flowchart of a video synthesis method according to an embodiment of the present invention.

도 3은 순방향 웨이블릿 변환(Forward Wavelet Transform)을 도시한 것이다.FIG. 3 illustrates a forward wavelet transform.

도 4는 역 웨이블릿 변환(Inverse Wavelet Transform)을 도시한 것이다.Figure 4 shows an inverse wavelet transform.

도 5는 확장된 칼만 필터(Extended Kalman Filter)를 기반으로 하는 시스템을 도시한 것이다.Figure 5 shows a system based on an Extended Kalman Filter.

상기와 같은 문제점을 해결하기 위하여 본 발명은, 피사체를 스크린 배경에서 촬영하여 그 피사체의 동작 정보에 따라 다른 영상과 합성하는 영상합성방법에 있어서, (1) 촬영한 영상 전체의 옵티컬 플로우를 구하는 단계와, (2) 연속되는 영상에 대하여, 현재의 영상에 대해 구한 옵티컬 플로우를 통하여 얻은 동작과 구조 정보에 따라 이전 영상에 대해 구한 동작과 구조 정보를 갱신하여 피사체의 3차원 구조와 동작 정보를 추출하는 단계와, (3) 피사체의 3차원 구조와 동작 정보에 따라 다른 영상과 3차원적으로 합성하는 단계를 포함하여 구성된다.According to an aspect of the present invention, there is provided an image synthesizing method of photographing a subject on a screen background and synthesizing the same with other images according to operation information of the subject, the method comprising: (1) obtaining an optical flow of the entire captured image And (2) extracts the three-dimensional structure and motion information of the subject by updating the motion and structure information obtained for the previous image according to the motion and structure information obtained through the optical flow obtained for the current image with respect to the continuous image And (3) three-dimensionally synthesizing the three-dimensional structure and operation information of the object with other images.

이하 첨부된 도면을 참조하여 본 발명의 실시 예를 보다 상세하게 설명하고자 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 2는 본 발명의 실시예의 전체적인 흐름을 개략적으로 보여주고 있는 것으로, 촬영한 영상의 옵티컬 플로우를 구하고 피사체의 3차원 공간상에서의 움직임과 피사체 자체의 3차원 구조를 추출하고 이를 다시 이미 저장하고 있는 다른 피사체영상이나 배경 영상과 합성하여 임의의 합성 영상을 만드는 것을 보여주고 있다.FIG. 2 schematically shows an overall flow of an embodiment of the present invention. The optical flow of a photographed image is obtained, a motion of the subject in the three-dimensional space and a three-dimensional structure of the subject itself are extracted, It is shown that an arbitrary composite image is created by compositing with another object image or background image.

먼저 피사체를 단일 색상의 스크린 또는 특이점 추출이 가능한 텍스처를 지니는 스크린을 배경으로 촬영한다(201). 본 발명은 기존의 시스템과의 호환성을 유지하기 위하여 일반 TV, 영화 카메라 등의 영상 촬영 시스템을 사용할 수 있다.First, the subject is photographed in the background of a single color screen or a screen having a texture capable of extracting singularity (201). In order to maintain compatibility with existing systems, the present invention can use an image capturing system such as a general TV or a movie camera.

일반적으로 영상 내에 존재하는 피사체의 3차원 구조를 추출하기 위해서는 스테레오 카메라를 이용하여 촬영된 영상으로부터 삼각측량(triangulation)을 이용하여 구하는 방법과 단안 카메라를 이용하는 경우 특이점(feature point)을 이용하는 방법, 옵티컬 플로우를 이용하는 방법등 다양한 방법이 존재한다.Generally, in order to extract a three-dimensional structure of a subject existing in an image, a method of obtaining a three-dimensional structure from a photographed image using a stereo camera, a method of using a feature point when a monocular camera is used, There are various methods such as a method using a flow.

다음으로 촬영한 영상 전체의 옵티컬 플로우를 구하는 것(203)에 대하여 설명한다. 본 발명에서는 단안의(Monocular) 카메라를 이용하면서 동작과 3차원 구조를 추출하기 위하여 옵티컬 플로우를 이용한다. 옵티컬 플로우를 구하기 위한 이론적 배경은 다음과 같다.을 한 영상에서의 화소의 위치,를 시간이라고 하자. 우선 를 연속적인 공간-시간 세기 분포(continuous space-time intensity distribution)라고 하면, 다음의 수학식 1이 성립하며, 이 관계식을 우리는 옵티컬 플로우 조건(Optical Flow Constraint)이라고 한다.Next, the optical flow of the entire captured image 203 is described. In the present invention, an optical flow is used to extract motion and three-dimensional structure while using a monocular camera. The theoretical background for obtaining the optical flow is as follows. The position of a pixel in an image, Let's call it time. first Time constant is a continuous space-time intensity distribution, the following Equation 1 is established, and this relation is referred to as an optical flow condition (Optical Flow Constraint).

[수학식 1][Equation 1]

이를 미분의 연쇄법칙을 이용하면 다음의 수학식 2를 얻을 수가 있다.The following equation (2) can be obtained by using the chain law of differentials.

[수학식 2]&Quot; (2) "

위의 수학식 2에서이고이다.In Equation (2) ego to be.

그러나 위의 수학식 2에서 미지수는로 두개이나 관계식은 하나만이 주어지므로 유일해를 얻을 수가 없다. 따라서 이를 해결하기 위한 다른 조건 (Constraint)이 필요하다.However, in the above Equation 2, and There is only one relationship, so there is no unique solution. Therefore, other conditions (constraints) are needed to solve this problem.

위의 또 다른 조건으로 다음의 수학식 3과 같은 이차미분관계를 가정한다.As another condition above, it is assumed that the second differential relationship as shown in the following Equation 3 is satisfied.

[수학식 3]&Quot; (3) "

그러면 다음의 수학식 4와 같은 해를 구할 수가 있다.Then, a solution such as the following Equation 4 can be obtained.

[수학식 4]&Quot; (4) "

다음으로는 특정 화소 주위의 동작은 변하지 않는다는 가정을 하는 것이다. 그러면 다음과 같이 어떤 화소의 블럭을라고 정의를 하면 다음의 수학식 5와 같이 에러를 정의한다.Next, it is assumed that the motion around a certain pixel does not change. Then you can use Is defined as the following equation (5) .

[수학식 5]&Quot; (5) "

위의 에러에 대해 편미분을 하면 다음의 수학식 6의 관계식을 얻을 수가 있다.The above error To and The following relational expression (6) can be obtained.

[수학식 6]&Quot; (6) "

위의 관계식을 풀면 다음의 수학식 7과 같은 해를 얻을 수가 있다.Solving the above equation yields the following equation (7).

[수학식 7]&Quot; (7) "

위의 수학식 7에서In Equation (7)

이고,ego,

이다.to be.

다음으로는 화소간의 변동이 최소가 되는 동작 필드를 찾는다. 우선 옵티컬 플로우 조건의 에러를 다음의 수학식 8과 같이 정의를 한다.Next, an operation field in which the variation between pixels is minimum is found. First, the error of the optical flow condition is defined as the following equation (8).

[수학식8]&Quot; (8) "

그리고 속도벡터의 화소간 변동의 에러를 다음의 수학식 9와 같이 정의한다.Then, the error of the inter-pixel variation of the velocity vector is defined as the following equation (9).

[수학식9]&Quot; (9) "

그때 다음 수학식 10과 같이 주어지는 옵티컬 플로우 조건의 에러와 속도벡터의 변동이 최소가 되게 하는 해를 구한다.At this time, the solution to the error of the optical flow condition and the variation of the velocity vector given by the following equation (10) is minimized.

[수학식10]&Quot; (10) "

일반적으로 이를 변동계산(Calculus of variation)을 이용하여 해결할 수 있으며 반복적인 방법으로 해를 구할 수가 있다.Generally, this can be solved using the calculus of variation and the solution can be obtained in an iterative manner.

옵티컬 플로우를 구하기 위해 일반적으로 옵티컬 플로우 조건(Optical Flow Constraint)을 가정하고, 주변샘플링(Neighborhood_sampling)방법 또는 2차미분 (Second_differential)방법 또는 혼앤셩크(Horn and Schunk)방법 또는 블록 동작 모델을 이용한다. 본 가정에서 옵티컬 플로우를 구할 한 화소의 주변 (Neighborhood)에서는 동일한 옵티컬 플로우를 가질 것이라고 가정한다. 즉,가 다음의 수학식 11과 같은 옵티컬 플로우 조건을 만족시키는 속도벡터라고 한다면In order to obtain an optical flow, an optical flow constraint is generally assumed, and a neighboring sampling method or a second differential method or a Horn and Schunk method or a block operation model is used. It is assumed that the neighborhood will have the same optical flow in one pixel to obtain the optical flow in this assumption. In other words, Is a velocity vector satisfying the optical flow condition as the following Equation (11)

[수학식11]&Quot; (11) "

를 중심으로 하는개의 화소를 포함하는 시공창 (spatiotemporal window)이라고 하면 다음의 수학식 12와 같은 관계식을 만족한다. To Centered around A spatiotemporal window including a number of pixels satisfies the following expression (12). &Quot; (12) "

[수학식12]&Quot; (12) "

그러므로 위의 관계식을 최소자승추정(least square estimation)을 이용하여 추정하면 다음의 수학식 13과 같은 해를 구할 수가 있다.Therefore, by estimating the above relational expression using least square estimation, the following equation (13) can be obtained.

[수학식13]&Quot; (13) "

수학식 13을 최소화하는를 찾으면 다음의 수학식 14와 같은 해를 구할 수 있다.Minimizing (13) The following equation (14) can be obtained.

[수학식14]&Quot; (14) "

수학식 14에서는 다음의 수학식 15와 같이 주어진다.In Equation (14) Is given by the following equation (15).

[수학식15]&Quot; (15) "

이러한 옵티컬 플로우를 이용하면 얻어지는 결과가 화소단위로 주어지고, 얻어진 결과로부터 피사체의 동작 추출이 가능하며, 옵티컬 플로우와 피사체의 동작과 구조간의 관계식을 구할 수가 있어 옵티컬 플로우로부터 조밀한 동작과 3차원 구조를 얻을 수가 있다. 그러나 한편으로는 옵티컬 플로우는 부드러움(Smoothness)을 가정하므로 피사체간의 세그멘테이션이 어렵고, 옵티컬 플로우를 구하기 위한 관계식이 일차 또는 이차미분을 이용하므로 잡음에 민감하고, 폐색(Occlusion)이 발생하는 부분이 대해서 해를 구할 수가 없으며, 옵티컬 플로우를 구하기 위해서는 많은 시간을 필요로 하므로 이를 해결하기 위하여 다중 해상도 방법을 사용한다 (202). 다중 해상도 방법을 이용하면 저역 통과 필터링된 영상을 얻을 수가 있으므로 잡음를 줄이는 결과가 되고, 요구되는 화상의 해상도를 얻을 수 있으므로 필요로 하는 정밀도에 맞춰서 화상을 이용할 수가 있는 효과를 얻을 수가 있다.Using this optical flow, the result obtained is given in pixel units, the motion of the subject can be extracted from the obtained result, and the relationship between the optical flow and the motion and structure of the object can be obtained. From the optical flow, Can be obtained. On the other hand, since the optical flow assumes smoothness, segmentation between the subjects is difficult, and since the relational expression for obtaining the optical flow uses primary or secondary differentials, it is susceptible to noise and occlusion occurs. In order to solve this problem, a multi-resolution method is used (202) because it takes a long time to obtain an optical flow. By using the multi-resolution method, a low-pass filtered image can be obtained. As a result, noise can be reduced, and a resolution of a required image can be obtained, so that an image can be used in accordance with the required precision.

일반적으로 다중 해상도을 얻기 위한 방법으로는 서브밴드(Sub_band) 방법, 웨이블릿(Wavelet)변환방법, 가우스식(Gaussian) 또는 라플라스식(laplacian) 피라미드방법등이 있다. 본 발명에는 웨이블릿 변환을 쓰는 것이 바람직하다. 웨이블릿 변환의 흐름도는 도 3과 도 4에 주어져 있다. 이에 대한 이론은 "Dense Structure From A Dense Optical Flow Sequence", Yalin Xiong and Steven A Shaffer, International Symposium on Computer Vision, Coral Gables, FL, 1995에서 상세하게 기술하고 있다. 다중 해상도을 활용한 옵티컬 플로우의 계산 과정은 도 3에서와 같이 원영상을 웨이블릿 변환을 함으로서 다중 해상도의 영상을 얻고, n번째 해상도 영상에서 옵티컬 플로우를 구하는 것으로 이루어진다.In general, a method for obtaining multiple resolutions includes a subband method, a wavelet transform method, a Gaussian or laplacian pyramid method, and the like. It is preferable to use wavelet transform in the present invention. A flow chart of the wavelet transformation is given in Fig. 3 and Fig. The theory is described in detail in "Dense Structure From A Dense Optical Flow Sequence", Yalin Xiong and Steven A. Shaffer, International Symposium on Computer Vision, Coral Gables, FL, As shown in FIG. 3, the calculation process of the optical flow using the multi-resolution is performed by wavelet-transforming the original image to obtain the multi-resolution image and obtaining the optical flow from the n-th resolution image.

위와 같이 옵티컬 플로우를 구함으로서 요구되는 시간에 맞춰서 해상도 영상을 선택하고, 옵티컬 플로우를 구할 수가 있으며 잡음이 없는 옵티컬 플로우를 구할 수가 있다.By obtaining the optical flow as described above, the resolution image can be selected in accordance with the required time, the optical flow can be obtained, and the noise-free optical flow can be obtained.

일반적으로 옵티컬 플로우와 이동(translation) 동작과 회전(rotation) 동작사이에는 다음의 수학식 16과 같은 관계식이 성립한다.(참조문헌:"Refinement of Optical Flow Estimation and Detection of Motion Edges", Andrea Giachetti and Vincent Torre, Proc. ECCV '96, Cambridge, UK, April 1996)In general, And translation operation And rotation motion (Refer to Refinement of Optical Flow Estimation and Detection of Motion Edges, Andrea Giachetti and Vincent Torre, Proc. ECCV'96, Cambridge, UK, April 1996).

[수학식16]&Quot; (16) "

위의 식과 확장된 칼만 필터(Extended Kalman Filter, EKF)를 이용한 시스템의 개요도는 도 5에 주어져 있다. 위의 식을 이용한 확장된 칼만 필터를 유도하기 전에 다음의 수학식 17과 같은 변수 및 함수를 정의할 필요가 있다.A schematic diagram of the system using the above equation and the Extended Kalman Filter (EKF) is given in FIG. Before deriving the extended Kalman filter using the above equation, it is necessary to define variables and functions as shown in Equation 17 below.

[수학식17]&Quot; (17) "

라고 하면, 위의 식을 다음의 수학식 18과 같이 표현할 수가 있다., The above equation can be expressed by the following equation (18).

[수학식18]&Quot; (18) "

확장된 칼만 필터를 이용하기 위해서는 크게 도 5에서와 같이 세 단계가 필요하다.In order to use the extended Kalman filter, three steps are required as shown in FIG.

첫번째 단계는 초기 동작을 구하는 단계(501)이다. 이 단계에서는 현재의 옵티컬 플로우 정보(500)와 추정된 구조 정보를 활용하여 현재 영상 프레임에 대한 초기 동작 정보를 추정한다.The first step is a step 501 of obtaining an initial operation. In this step, the initial motion information on the current image frame is estimated using the current optical flow information 500 and the estimated structure information.

먼저 선행 깊이 맵(depth map)을라고 하고, 현재의 동작와 속도 벡터에 의해 계산할 수 있는 깊이 맵을라고 하면 다음의 수학식 19와 같은 관계식을 최소화하는 값을 구함으로서 초기 동작을 추정할 수가 있다.First, we add a depth map And the current operation And velocity vector Depth map that can be calculated by The initial operation can be estimated by obtaining a value that minimizes the relational expression as shown in the following Equation 19. " (19) "

[수학식19]&Quot; (19) "

위의 관계식에서행렬로 깊이 맵의 구조 불확실성 (structure uncertainty)을 나타내며에 의해 초래되는 현재의 흐름 불확실성(flow uncertainty)에 의해 발생하는 깊이의 불확실성(depth uncertainty)을 나타낸다.In the above relation The Depth map with matrix The structure uncertainty of The And the depth uncertainty caused by the current flow uncertainty caused by the flow uncertainty caused by the flow.

두 번째 과정은 확장된 칼만 필터에 의한 갱신과정(502)이다. 이 과정에서는 현재의 흐름 정보, 이전의 구조 정보와 초기 동작 추정치를 활용하여 다음 구조와 동작 정보를 구한다. 구조는 선행 좌표로 표현된다. 이를 간단히 유도하면 다음과 같다.The second process is an update process 502 by an extended Kalman filter. In this process, the following structure and operation information are obtained by utilizing current flow information, previous structure information and initial motion estimation value. The structure is represented by the preceding coordinates. The simplest derivation is as follows.

먼저을 한 영상의 화소의 수라고 하고,을 각 화소에서의 depth라고 하면 그때의 상태 벡터는 다음의 수학식 20과 같이 주어진다.first Is the number of pixels of an image, Is the depth in each pixel, the state vector at that time is given by the following equation (20).

[수학식 20]&Quot; (20) "

그리고 측정(measurement)은 다음과 같이 각 화소의 흐름 속도(flow velocity)를 나타내는벡터에 저장된다.And the measurement shows the flow velocity of each pixel as follows. Lt; / RTI >

위의 식에서는 각 화소에서의 측정된 흐름속도이다. 그리고 측정 벡터의 에러 공분산(error covariance)은 다음과 같이의 대각 블럭(diagonal block) 행렬로 주어진다.In the above equation Is the measured flow rate at each pixel. Then, , The error covariance of Of the diagonal block matrix.

위의 식에서는 각 화소에서의 흐름 속도의에러 공분산이다.In the above equation Of the flow velocity in each pixel Error covariance.

그리고 측정식(Measurement equations)의 자코비언(Jacobian) 행렬은 다음과 같이 주어진다.And the Jacobian matrix of the measurement equations is given by

이 세번째 단계(503)에서는 선행(a prior) 깊이 맵(depth map)과 좌표로부터의 구조 정보를 보간(Interpolation), 회전(Rotation), 수평이동(Translation) 등을 통하여 후행(posterior) 좌표로 이동하는 단계이다.In this third step 503, a prior depth map and structural information from the coordinates are moved to posterior coordinates through interpolation, rotation, and translation. .

이상에서 설명한 바와 같이 본 발명은 피사체의 3차원 동작정보의 2차원 사영정보를 영상의 화소정보를 활용하여 구한다. 이렇게 구한 정보를 옵티컬 플로우라고 하며 이를 활용하므로서 영상 내의 피사체의 동작 및 3차원 구조를 얻을 수가 있다. 그러나 두 영상 사이에서 구한 옵티컬 플로우만으로는 충분한 데이터를 얻을 수가 없으므로 연속되는 영상을 활용하여 옵티컬 플로우를 구하고 확장된 칼만 필터를 이용하여 정보를 갱신함으로서 완벽한 3차원 구조를 얻는다. 최종적으로 얻어진 피사체의 3차원 정보와 이미 가지고 있는 다른 영상 데이터를 이용하여 영상합성이 사실적인 영상 합성이 가능하도록 한다.As described above, in the present invention, the two-dimensional projection information of the three-dimensional operation information of the object is obtained by utilizing the pixel information of the image. The obtained information is called an optical flow, and the motion of the object in the image and the three-dimensional structure can be obtained. However, since the optical flow obtained between the two images can not obtain sufficient data, a complete three-dimensional structure is obtained by obtaining the optical flow using the continuous image and updating the information using the extended Kalman filter. By using the 3D information of the object finally obtained and other image data already possessed, it is possible to synthesize real images.

피사체를 촬영하는 단계에서 단안(Monocular) 카메라 대신에 스테레오 (Stereo) 카메라를 이용하여 영상을 촬영한 후 삼각화(triangulation)를 이용하여 깊이(depth)를 구하고 위에서 설명한 과정들을 한쪽 영상에 대해서만 적용하여 깊이(depth)와 동작(motion)을 구한다. 그리고 나서 두 깊이 데이터(depth data)를 합하여 깊이(depth) 정보를 갱신 수 있다.In the step of photographing a subject, an image is taken using a stereo camera instead of a monocular camera, depth is calculated using triangulation, and the processes described above are applied to only one image Obtain depth and motion. Then, the depth information can be updated by adding the two depth data.

본 발명은 3차원 합성 영상을 획득하게 하여 이를 3차원 영상을 필요로 하는 virtual studio, virtual reality와 같은 가상 공간의 합성, 영화와 같은 영상 합성의 분야에 활용함으로써, 임의의 시점에 따른 영상 촬영에 드는 비용을 줄이고 실영상 사이의 합성과 실영상과 컴퓨터 그래픽스와의 합성 등을 통한 기존의 방법보다 자유스러운 영상합성을 얻는 효과가 있다.The present invention relates to a method and apparatus for acquiring a three-dimensional composite image and applying it to the field of image synthesis such as virtual space synthesis such as virtual studio and virtual reality requiring a three-dimensional image, This method has the effect of reducing the cost of image processing and obtaining more free image synthesis than the conventional method through synthesis between real images and real images and computer graphics.

Claims (4)

피사체를 스크린 배경에서 촬영하여 그 피사체의 동작 정보에 따라 다른 영상과 합성하는 영상합성방법에 있어서,An image synthesizing method for photographing a subject on a screen background and compositing the same with another image in accordance with operation information of the subject, (a) 촬영된 피사체의 영상에 대한 다중 해상도의 영상을 생성하는 단계;(a) generating a multi-resolution image of an image of a photographed subject; (b) 상기 다중 해상도의 영상 중에서 하위 해상도 영상의 옵티컬 플로우 (Optical flow)를 먼저 구한 후, 이 정보에 따라 상위 해상도 영상의 옵티컬 플로우를 구하여 원 영상 전체의 옵티컬 플로우를 구하는 단계;(b) obtaining an optical flow of the lower resolution image from the multi-resolution image first, obtaining an optical flow of the upper resolution image according to the information, and obtaining an optical flow of the entire original image; (c) 연속되는 영상에 대하여, 현재의 영상에 대해 구한 옵티컬 플로우를 통하여 얻은 동작과 구조 정보에 따라 이전 영상에 대해 구한 동작과 구조 정보를 갱신하여 피사체의 3차원 구조와 동작 정보를 추출하는 단계; 및(c) extracting the three-dimensional structure and motion information of the subject by updating the motion and structure information obtained for the previous image according to the motion and structure information obtained through the optical flow obtained for the current image, ; And (d) 상기 피사체의 3차원 구조와 동작 정보에 따라 다른 영상과 3차원적으로 합성하는 단계를 포함하여 구성되는 것을 특징으로 하는 3차원영상의 합성방법(d) synthesizing three-dimensional images with other images according to the three-dimensional structure and operation information of the subject 제 1항에 있어서, 상기 (a) 단계는,The method of claim 1, wherein the step (a) 웨이블릿(Wavelet)변환방법 또는 서브밴드(Subband)변환방법 또는 가우스식 (Gaussian) 또는 라플라스식(laplacian) 피라미드방법을 이용하여 다중 해상도을 구하는 것을 특징으로 하는 3차원영상의 합성방법.Wherein a plurality of resolutions are obtained using a wavelet transform method, a subband transform method, or a Gaussian or Laplacian pyramid method. 제 1 항에 있어서, 상기 (b) 단계는,The method of claim 1, wherein the step (b) 주변샘플링(Neighborhood_sampling)방법 또는 2차미분(Second_differential)방법 또는 혼앤셩크(Horn and Schunk)방법 또는 블록 동작 모델을 이용하여 옵티컬 플로우를 구하는 것을 특징으로 하는 3차원영상의 합성방법.Wherein the optical flow is obtained by using a neighboring sampling method or a second differential method or a Horn and Schunk method or a block operation model. 제 1 항에 있어서, 상기 (c) 단계는,The method of claim 1, wherein the step (c) 확장된 칼만 필터(Extended Kalman Filter) 또는 일반적인 칼만 필터(Kalman Filter)를 이용하는 것을 특징으로 하는 3차원영상의 합성방법.Characterized in that an extended Kalman filter or a general Kalman filter is used.
KR1019960050475A 1996-10-30 1996-10-30 Wethod for synthesizing three-dimensional image KR100421208B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960050475A KR100421208B1 (en) 1996-10-30 1996-10-30 Wethod for synthesizing three-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960050475A KR100421208B1 (en) 1996-10-30 1996-10-30 Wethod for synthesizing three-dimensional image

Publications (2)

Publication Number Publication Date
KR19980030988A KR19980030988A (en) 1998-07-25
KR100421208B1 true KR100421208B1 (en) 2004-05-07

Family

ID=37323469

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960050475A KR100421208B1 (en) 1996-10-30 1996-10-30 Wethod for synthesizing three-dimensional image

Country Status (1)

Country Link
KR (1) KR100421208B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108335316A (en) * 2018-01-12 2018-07-27 大连大学 A kind of steady optical flow computation method based on small echo

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100425885B1 (en) * 2001-02-16 2004-04-03 비엔비넷(주) Apparatus for obtaining an anaglyph
KR20020079268A (en) * 2001-04-14 2002-10-19 유준희 The System and Method composing 3D contents with 3D human body in Virtual Reality with real time.
KR101027004B1 (en) * 2009-09-10 2011-04-11 포항공과대학교 산학협력단 Apparatus and method for 3d estimating fusing optical flow and stereo matching

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07192135A (en) * 1993-12-27 1995-07-28 Nec Corp Moving image processing method and device
JPH07274199A (en) * 1994-03-29 1995-10-20 Casio Comput Co Ltd Image compositing device
JPH0869545A (en) * 1994-08-31 1996-03-12 Sony Corp Interactive image providing method
JPH08149458A (en) * 1994-11-18 1996-06-07 Sony Corp Moving image processor
US6122013A (en) * 1994-04-29 2000-09-19 Orad, Inc. Chromakeying system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07192135A (en) * 1993-12-27 1995-07-28 Nec Corp Moving image processing method and device
JPH07274199A (en) * 1994-03-29 1995-10-20 Casio Comput Co Ltd Image compositing device
US6122013A (en) * 1994-04-29 2000-09-19 Orad, Inc. Chromakeying system
JPH0869545A (en) * 1994-08-31 1996-03-12 Sony Corp Interactive image providing method
JPH08149458A (en) * 1994-11-18 1996-06-07 Sony Corp Moving image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108335316A (en) * 2018-01-12 2018-07-27 大连大学 A kind of steady optical flow computation method based on small echo
CN108335316B (en) * 2018-01-12 2021-08-17 大连大学 Steady optical flow calculation method based on wavelet

Also Published As

Publication number Publication date
KR19980030988A (en) 1998-07-25

Similar Documents

Publication Publication Date Title
US5936671A (en) Object-based video processing using forward-tracking 2-D mesh layers
US7162083B2 (en) Image segmentation by means of temporal parallax difference induction
CN109360235B (en) Hybrid depth estimation method based on light field data
JP4644669B2 (en) Multi-view image generation
US8897596B1 (en) System and method for rapid image sequence depth enhancement with translucent elements
US8401336B2 (en) System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US8160390B1 (en) Minimal artifact image sequence depth enhancement system and method
US8073247B1 (en) Minimal artifact image sequence depth enhancement system and method
Wang et al. Automatic natural video matting with depth
US20040032488A1 (en) Image conversion and encoding techniques
US20040151401A1 (en) Techniques and systems for developing high-resolution imagery
US11037308B2 (en) Intelligent method for viewing surveillance videos with improved efficiency
CA2446150A1 (en) Image sequence enhancement system and method
KR100335617B1 (en) Method for synthesizing three-dimensional image
Tzovaras et al. 3D object articulation and motion estimation in model-based stereoscopic videoconference image sequence analysis and coding
WO2000008859A1 (en) Static image generation method and device
KR100421208B1 (en) Wethod for synthesizing three-dimensional image
JP3607717B2 (en) Video clipping method
Steinbach et al. Motion-based analysis and segmentation of image sequences using 3-D scene models
JPH09224259A (en) Image synthesizer
Thomas Motion-compensated matteing
US20080063275A1 (en) Image segmentation by means of temporal parallax difference induction
JPH11331851A (en) Low bit rate dynamic image coder
Shultz et al. 3D Reconstruction from two 2D images
Nicolas Mosaic representation and video object manipulations for post-production applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080116

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee