KR101071911B1 - Method for creation 3 dimensional image - Google Patents

Method for creation 3 dimensional image Download PDF

Info

Publication number
KR101071911B1
KR101071911B1 KR1020100107061A KR20100107061A KR101071911B1 KR 101071911 B1 KR101071911 B1 KR 101071911B1 KR 1020100107061 A KR1020100107061 A KR 1020100107061A KR 20100107061 A KR20100107061 A KR 20100107061A KR 101071911 B1 KR101071911 B1 KR 101071911B1
Authority
KR
South Korea
Prior art keywords
image data
depth
layer
dimensional image
allocated
Prior art date
Application number
KR1020100107061A
Other languages
Korean (ko)
Inventor
심현보
Original Assignee
(주)포디비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)포디비전 filed Critical (주)포디비전
Priority to KR1020100107061A priority Critical patent/KR101071911B1/en
Application granted granted Critical
Publication of KR101071911B1 publication Critical patent/KR101071911B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

본 발명은 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 방법에 관한 것으로, 더욱 상세하게는 2차원 영상 데이터로부터 깊이가 있는 3차원 영상 데이터를 제작하는 방법에 관한 것이다.
이를 위해 본 발명의 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 방법은 표시된 2차원 영상 데이터에서 객체를 추출하는 단계, 영상을 촬영한 카메라의 시점과 영상의 소실점을 추적하여 추출한 상기 객체들을 정량적 깊이 값을 갖는 복수 개의 깊이 레이어들 중 하나의 깊이 레이어에 할당하는 단계, 콘셉트 모델링 기반으로 각 깊이 레이어별로 할당된 객체의 질감을 표현한 거리인식지도를 생성하는 단계를 포함하며, 복수의 깊이 레이어는 제1레이어 내지 제4레이어로 구분하며, 2차원 영상 데이터 중 근거리에 위치하고 있는 영상 데이터(깊이가 얇은 영상 데이터)는 제1레이어에 할당하며, 원거리에 위치하고 있는 영상 데이터(깊이가 깊은 영상 데이터)는 제4레이어에 할당하여 최종 입체 영상을 구현한다. 또한 동일한 깊이 정보를 갖는 식별자를 부여하여 최종 입체 영상인 키 거리인식지도를 생성하며, 생성된 거리인식지도를 이용하여 복수의 유사 프레임을 생성함을 특징으로 하는 3차원 영상 데이
The present invention relates to a method for converting two-dimensional image data into three-dimensional image data, and more particularly, to a method for producing three-dimensional image data having depth from the two-dimensional image data.
To this end, the method for converting 2D image data into 3D image data includes extracting an object from the displayed 2D image data, and quantitatively extracting the extracted objects by tracking the vanishing point of the camera and the image of the camera that captured the image. Assigning to a depth layer of one of a plurality of depth layers having a depth value, and generating a distance recognition map representing a texture of an object allocated to each depth layer based on concept modeling, wherein the plurality of depth layers Image data (thin-depth image data) located at a short distance among two-dimensional image data, which are divided into the first to fourth layers, are allocated to the first layer, and image data (deep image data) located at a far distance. Assigns to the fourth layer to implement a final stereoscopic image. In addition, a key distance recognition map, which is a final stereoscopic image, is generated by assigning an identifier having the same depth information, and a plurality of similar frames are generated using the generated distance recognition map.

Description

3차원 입체 영상 생성 방법{Method for creation 3 dimensional image}Method for creation 3 dimensional image {Method for creation 3 dimensional image}

본 발명은 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 방법에 관한 것으로, 더욱 상세하게는 2차원 영상 데이터로부터 깊이가 있는 3차원 영상 데이터를 제작하는 방법에 관한 것이다.
The present invention relates to a method for converting two-dimensional image data into three-dimensional image data, and more particularly, to a method for producing three-dimensional image data having depth from the two-dimensional image data.

디지털 기술의 발달로 3차원 영상 기술이 널리 보급되고 있다. 3차원 영상 기술은 2차원 영상의 깊이에 대한 정보를 부여하여 보다 사실적인 영상을 표현하는 기술이다.With the development of digital technology, three-dimensional image technology has been widely used. 3D imaging technology is a technology for representing a more realistic image by giving information about the depth of the 2D image.

사람의 눈은 가로 방향으로 소정 거리만큼 떨어져 있으므로 좌안과 우안이 보는 2차원 영상이 서로 다른데 이를 양안시차라고 한다. 뇌는 서로 다른 2개의 2차원 영상을 융합하여 원근갑과 실재감이 있는 3차원 영상을 생성한다.Since the human eye is separated by a predetermined distance in the horizontal direction, the two-dimensional images seen by the left and right eyes are different from each other. This is called binocular disparity. The brain fuses two different two-dimensional images to produce a three-dimensional image with perspective and realism.

3차원 영상 기술은 깊이에 대한 정보가 반영된 3차원 영상 데이터를 제작하거나, 2차원 영상 데이터를 변환하여 3차원 영상 데이터를 생성하는 기술이 있으며, 두 기술에 대한 연구가 함께 이루어지고 있다.Three-dimensional image technology has a technique for producing three-dimensional image data reflecting the information on the depth, or to generate the three-dimensional image data by converting the two-dimensional image data, the research on both technologies are being done together.

2차원 영상 데이터를 이용하여 3차원 영상 데이터를 생성하기 위해서는 촬영 대상과 카메라간의 거리를 나타내는 정보가 필요하다. 이러한 정보의 일예가 깊이 정보이다. 깊이 정보는 2차원 영상 데이터를 구성하는 픽셀별로, 픽셀이 나타내는 대상과 카메라가 얼마나 떨어져 있는가를 나타낸다.In order to generate 3D image data using 2D image data, information indicating a distance between a photographing target and a camera is required. One example of such information is depth information. The depth information indicates how far the camera and the object represented by the pixel are for each pixel constituting the 2D image data.

일반적으로 깊이 정보를 획득하기 위해서는 다음의 3가지 방법을 사용할 수 있다.In general, the following three methods may be used to acquire depth information.

첫째, 촬영된 사물의 모양을 분석하여 깊이 정보를 획득할 수 있다. 이 방법은 한 장의 2차원 영상 데이터를 이용한다는 점에서 경제적이다. 그러나 사물의 모양을 분석하는 장치 또는 방법을 구현하는 것이 난해하여 실용화가 힘들다는 문제점이 있다.First, depth information may be obtained by analyzing a shape of a photographed object. This method is economical in that it uses one piece of two-dimensional image data. However, there is a problem that it is difficult to put practical use because it is difficult to implement a device or method for analyzing the shape of the object.

둘째, 동일한 대상을 다른 각도에서 촬영한 둘 이상의 2차원 영상 데이터를 분석하여 깊이 정보를 획득하는 것이다. 이 방법은 구현이 용이하다는 점에서 많이 사용되는 방법이다. 그러나 동일한 대상을 다른 각도에서 촬영하기 위해서는 촬영 수단(예를 들면 카메라)이 상이한 광 경로를 갖는 복수의 광학계를 구비하여야 한다. 광학계는 고가의 물품이므로 촬영 수단이 광학계를 둘 이상 구비하는 것은 비경제적이다.Second, depth information is obtained by analyzing two or more two-dimensional image data obtained by photographing the same object from different angles. This method is widely used in that it is easy to implement. However, in order to photograph the same object from different angles, the photographing means (for example, a camera) must have a plurality of optical systems having different light paths. Since the optical system is an expensive article, it is uneconomical for the imaging means to have two or more optical systems.

셋째, 동일한 대상을 촬영한 둘 이상의 2차원 영상 데이터를 분석하여 3차원 영상 데이터를 획득할 수 있다. 일예로, "Simple range cameras based on focal error"(A. Pentland, S. Scherock, T.Darrell, and B. Girod) 논문에는 초점이 맞는 영상과 초점이 맞지 않는 영상을 분석하여 깊이 정보를 획득하는 구성이 개시되어 있다.Third, three-dimensional image data may be obtained by analyzing two or more two-dimensional image data photographing the same object. For example, in the paper "Simple range cameras based on focal error" (A. Pentland, S. Scherock, T. Darrell, and B. Girod), the paper analyzes the focused and unfocused images to obtain depth information. The configuration is disclosed.

아래의 [수학식 1]은 상술한 논문에서 발췌한 둘 이상의 2차원 영상 데이터를 이용하여 깊이 정보를 획득하는데 사용되는 수학식이다. [수학식 1]은 둘 이상의 영상 데이터를 이용하여 3차원 영상 데이터를 획득하는 일예를 나타내고 있다.Equation 1 below is an equation used to obtain depth information using two or more two-dimensional image data extracted from the above-mentioned paper. Equation 1 shows an example of obtaining 3D image data using two or more image data.

[수학식 1][Equation 1]

Figure 112010070633778-pat00001

Figure 112010070633778-pat00001

수학식 1에서, f는 카메라 렌즈의 초점 값이고, D는 카메라와 렌즈 사이에 위치한 영상면간의 거리이며, r은 초점이 맞지 않아 촬영 대상이 뿌옇게 표시되는 부분의 반경이다. 또한, k는 변환 상수이며, fnumber는 카메라의 f수치로써 카메라 렌즈의 초점 거리를 렌즈 조리개로 나눈 값이다. 이 중, r을 제외한 나머지 값은 카메라의 물리적인 조건과 관련된 것이므로 촬영과 동시에 획득할 수 있다. 따라서 촬영된 영상으로부터 r 값을 획득하면 깊이 정보를 획득할 수 있다. In Equation 1, f is a focus value of a camera lens, D is a distance between an image plane located between the camera and the lens, and r is a radius of a portion where a photographing target is blurred due to out of focus. In addition, k is a conversion constant, and fnumber is a value of f of the camera divided by the focal length of the camera lens divided by the lens aperture. Among these, other values except for r are related to the physical conditions of the camera and can be acquired at the same time as the photographing. Therefore, when the r value is obtained from the captured image, depth information may be obtained.

수학식 1에서 사용되는 카메라 렌즈의 초점 값 f는 렌즈의 물리적인 특징을 나타내는 것으로써 동일한 카메라로 촬영 대상을 촬영하는 동안에는 초점 값 f를 변경할 수 없다. 그러나 후술할 초점 거리는 렌즈 간의 거리를 조절하여 촬영 대상이 포커싱되도록 하는데 것으로써 동일한 카메라로 촬영 대상을 촬영하는 동안에도 초점 거리를 변경할 수 있다.The focal value f of the camera lens used in Equation 1 indicates physical characteristics of the lens, and thus the focal value f cannot be changed while photographing a photographing target with the same camera. However, the focal length, which will be described later, adjusts the distance between the lenses so that the photographing target is focused, so that the focal length can be changed while the photographing target is captured by the same camera.

이와 같이 종래 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 다양한 기술이 있었다. 하지만 각 사물이 정확한 거리에 자연스럽게 위치하도록 하여 생동감 있는 3차원(입체) 영상을 구현할 수 있는 다양한 방안이 필요하다.
As described above, there have been various technologies for converting two-dimensional image data into three-dimensional image data. However, there is a need for various methods to realize live three-dimensional (three-dimensional) images by placing each object naturally at the correct distance.

본 발명이 해결하려는 과제는 2차원 영상 데이터로부터 깊이가 있는 3차원 영상 데이터를 제작하는 방안을 제안함에 있다.The problem to be solved by the present invention is to propose a method for producing three-dimensional image data having a depth from the two-dimensional image data.

본 발명이 해결하려는 다른 과제는 2차원 영상 데이터를 구성하고 있는 각 사물이 정확한 거리에 자연스럽게 위치하도록 하여 생동감 있는 3차원 영상을 구현할 수 있는 방안을 제안함에 있다.
Another problem to be solved by the present invention is to propose a method for realizing a lively three-dimensional image by allowing each object constituting the two-dimensional image data to be naturally located at the correct distance.

이를 위해 본 발명의 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 방법은 표시된 2차원 영상 데이터에서 객체를 추출하는 단계, 영상을 촬영한 카메라의 시점과 영상의 소실점을 추적하여 추출한 상기 객체들을 정량적 깊이 값을 갖는 복수 개의 깊이 레이어들 중 하나의 깊이 레이어에 할당하는 단계, 콘셉트 모델링 기반으로 각 깊이 레이어별로 할당된 객체의 질감을 표현한 거리인식지도를 생성하는 단계를 포함하며, 복수의 깊이 레이어는 제1레이어 내지 제4레이어로 구분하며, 2차원 영상 데이터 중 근거리에 위치하고 있는 영상 데이터(깊이가 얇은 영상 데이터)는 제1레이어에 할당하며, 원거리에 위치하고 있는 영상 데이터(깊이가 깊은 영상 데이터)는 제4레이어에 할당하여 최종 입체 영상을 구현하며, 구현된 1프레임의 거리인식지도와 입체 영상을 평균 100장의 유사 프레임에 적용 할 수 있는 벡터 트랙킹 방법을 특징으로 한다.
To this end, the method for converting 2D image data into 3D image data includes extracting an object from the displayed 2D image data, and quantitatively extracting the extracted objects by tracking the vanishing point of the camera and the image of the camera that captured the image. Assigning to a depth layer of one of a plurality of depth layers having a depth value, and generating a distance recognition map representing a texture of an object allocated to each depth layer based on concept modeling, wherein the plurality of depth layers Image data (thin-depth image data) located at a short distance among two-dimensional image data, which are divided into the first to fourth layers, are allocated to the first layer, and image data (deep image data) located at a far distance. Is assigned to the fourth layer to implement the final stereoscopic image. And the body features a vector image tracking method that can be applied to a frame similar to the average 100 sheets.

일반적으로 3D 입체변환 과정은 많은 인원 및 많은 작업시간을 필요로 하지만 본 3차원 입체 영상 변환 기술에 의하면 인원 및 작업시간을 대폭 감소할 수 있기 때문에 같은 시간동안 훨씬 더 많은 3D 입체변환 콘텐츠를 생성할 수 있다. 또한, 수작업으로 하기 힘든 부분(ex:머리카락의 끝 부분 등)을 본 발명에서 제안하는 기술을 이용하여 좀 더 세세하게 작업할 수 있어 콘텐츠의 품질을 향상시킬 수 있다.In general, the 3D stereo conversion process requires a large number of people and a lot of work time, but according to the 3D stereoscopic image conversion technology, the number of people and working time can be greatly reduced, so that more 3D stereoscopic content can be generated during the same time. Can be. In addition, it is possible to work more finely by using the technique proposed in the present invention to parts that are difficult to do manually (ex: the end of the hair, etc.) can improve the quality of the content.

부가하여 작업자의 프로그램으로는 불가능한 노하우와 수작업으로는 불가능한 기술들을 융합시키면 작업속도가 향상된 높은 품질의 입체 변환 영상 콘텐츠를 생성할 수 있다는 장점이 있다.
In addition, by combining know-how that cannot be done by the operator's program and techniques that cannot be done by hand, it is possible to generate high-quality stereoscopic converted image contents with improved work speed.

도 1은 본 발명의 일실시 예에 따른 2차원 데이터를 3차원 데이터로 변환하는 과정을 도시한 흐름도이며,
도 2는 본 발명의 일실시 예에 따른 2차원 영상 데이터를 3차원 영상 데이터를 변환하는 과정을 나타내고 있으며,
도 3은 베지에 곡선 알고리즘을 이용하여 베지에 곡선, 2차 베지에 곡선, 3차 베지에 곡선을 생성한 예를 나타내고 있으며,
도 4는 본 발명의 일실시 예에 따른 텍스쳐 시네시스를 이용한 대상영역 복원 과정을 도시하고 있으며,
도 5는 본 발명의 일실시 예에 따른 추출한 객체에 깊이값을 부여하는 예를 도시하고 있다.
1 is a flowchart illustrating a process of converting two-dimensional data into three-dimensional data according to an embodiment of the present invention.
2 illustrates a process of converting 2D image data into 3D image data according to an embodiment of the present invention.
3 illustrates an example of generating a Bezier curve, a second Bezier curve, and a third Bezier curve using a Bezier curve algorithm.
4 illustrates a process of restoring a target region using a texture cinesis according to an embodiment of the present invention.
5 illustrates an example of providing a depth value to an extracted object according to an embodiment of the present invention.

전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시 예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명의 이러한 실시 예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다.The foregoing and further aspects of the present invention will become more apparent through the preferred embodiments described with reference to the accompanying drawings. Hereinafter will be described in detail to enable those skilled in the art to easily understand and reproduce through this embodiment of the present invention.

본 발명은 2차원 영상 데이터를 다중 레이어/거리인식지도를 이용하여 픽셀단위로 변환하여 깊이감을 갖도록 함으로써, 각 객체가 정확한 거리에 자연스럽게 위치하도록 하여 생동감 있는 입체 영상을 구현하는 방안을 제안한다.The present invention proposes a method of realizing a three-dimensional image lively by converting two-dimensional image data to a pixel unit using a multi-layer / distance recognition map to have a sense of depth, so that each object is naturally located at the correct distance.

일반적으로 1장의 키(key) 거리인식지도를 이용하여 100개의 유사한 영상을 제작할 수 있으며, 본 발명은 유사한 영상을 제작하는데 기본이 되는 키 거리인식지도를 다중 레이어 제작 기법을 이용하여 제작하는 방안을 제안한다.In general, 100 similar images can be produced using one key distance recognition map, and the present invention provides a method for producing a key distance recognition map, which is the basis for producing similar images, using a multi-layer production technique. Suggest.

일반적으로 2차원 영상 데이터를 3차원 입체 영상 데이터로 변환하는 작업 중 가장 어려운 과정은 공간감 설계 작업이며, 본 발명은 실제 입체 카메라로 촬영한 영상과 동일한 공간감을 가지며, 각 이미지에 등장하는 각 객체에 실제 물체와 동일한 볼륨을 적용할 수 있으므로 실제 3차원 영상 데이터와 동일한 이미지를 얻을 수 있다. 또한, 이러한 키 거리인식지도를 이용하여 연관된 모든 장면에 이용할 수 있으므로 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 시간을 단축시킬 수 있다.In general, the most difficult process of converting 2D image data into 3D stereoscopic image data is designing a sense of space, and the present invention has the same sense of space as an image taken by an actual stereoscopic camera, Since the same volume as the real object can be applied, the same image as the real 3D image data can be obtained. In addition, since the key distance recognition map can be used for all related scenes, the time for converting 2D image data into 3D image data can be shortened.

도 1은 본 발명의 일실시 예에 따른 2차원 데이터를 3차원 데이터로 변환하는 과정을 도시한 흐름도이다. 도 1에 의하면 본 발명에 따른 2차원 데이터를 3차원 데이터로 변환하는 과정은 다음과 같이 수행된다.1 is a flowchart illustrating a process of converting two-dimensional data into three-dimensional data according to an embodiment of the present invention. Referring to FIG. 1, a process of converting two-dimensional data into three-dimensional data according to the present invention is performed as follows.

S100단계에서 영상 변환 장치는 2차원 영상 데이터로부터 객체를 추출하는 객체 추출단계를 수행한다.In operation S100, the image conversion apparatus performs an object extraction step of extracting an object from 2D image data.

S102단계에서 영상 변환 장치는 추출한 객체에 깊이 레이어를 부여한다. 즉, 영상을 촬영한 카메라의 시점과 영상의 소실점을 추적하여 추출한 객체들을 정량적 깊이 값을 갖는 복수 개의 깊이 레이어들 중 하나의 깊이 레이어에 할당한다.In operation S102, the image converting apparatus assigns a depth layer to the extracted object. That is, the object extracted by tracking the vanishing point of the camera and the image of the camera that captured the image is allocated to one depth layer of a plurality of depth layers having a quantitative depth value.

S104단계에서 영상 변환 장치는 깊이 레이어를 부여한 객체에 컨셉트 모델링 기법을 이용하여 거리인식지도를 생성한다.In operation S104, the image conversion apparatus generates a distance recognition map using a concept modeling technique on the object to which the depth layer is assigned.

도 2는 본 발명의 일실시 예에 따른 2차원 영상 데이터를 3차원 영상 데이터를 변환하는 과정을 나타내고 있다. 도 2에 의하면, 2차원 영상 데이터는 객체 추출 단계, 레이어 부여 단계, 거리인식지도 생성 단계를 거쳐 3차원 영상 데이터를 생성한다.2 illustrates a process of converting 2D image data into 3D image data according to an embodiment of the present invention. Referring to FIG. 2, the 2D image data generates 3D image data through an object extraction step, a layer assignment step, and a distance recognition map generation step.

이하 도 1에서 언급하고 있는 2차원 영상 데이터로부터 3차원 영상 데이터를 생성하는 과정에 대해 순차적으로 알아보기로 한다.Hereinafter, a process of generating 3D image data from the 2D image data mentioned in FIG. 1 will be described in sequence.

먼저 2차원 영상 데이터로부터 객체를 추출하는 객체 추출 단계에 대해 알아보기로 한다.First, an object extraction step of extracting an object from 2D image data will be described.

객체 추출 단계는 마스크 생성 및 보정을 위한 경로 생성 및 편집 기법과 홀 복원 기법을 활용한다. The object extraction step utilizes path generation and editing techniques and hole reconstruction techniques for mask generation and correction.

경로 생성 및 편집 기법은 베지에(Bezier) 곡선을 이용한 자연스러운 경로를 생성하는 기법과 윤곽선(contour) 추적 기능을 구현하여 자동으로 객체의 윤곽선 및 경로 핸들을 생성하는 기법 및 경로의 핸들 정보를 이용한 경로 에니메이션 기법을 포함한다.The path creation and editing method is a method of generating a natural path using a Bezier curve and a contour tracking function to automatically generate the contour and path handle of an object, and the path using the handle information of the path. Includes animation techniques.

베지에 곡선은 n개의 점으로부터 얻어지는 n-1차 곡선으로부터 수치 해석에서 상당히 중요한 위치를 차지하고 있다. 특히 3차 베지에 곡선은 포스트스크립트 글꼴, 메타폰트(METAFONT), 김프 등에서 부드러운 곡선을 생성하는 데에 이용되고 있으며, 트루 타입 폰트에는 2차 베지에 곡선 알고리즘을 사용한다.Bezier curves occupy significant positions in numerical analysis from n-first order curves derived from n points. In particular, third-order Bezier curves are used to create smooth curves in PostScript fonts, METAFONT, GIMP, etc., and second-order Bezier curve algorithms are used for true-type fonts.

도 3은 베지에 곡선 알고리즘을 이용하여 베지에 곡선, 2차 베지에 곡선, 3차 베지에 곡선을 생성한 예를 도시하고 있다.3 illustrates an example of generating a Bezier curve, a second Bezier curve, and a third Bezier curve using a Bezier curve algorithm.

경로 에니메이션은 PathGeometry를 입력으로 사용하는 AnimationTimeline 형식입니다. From/To/By 애니메이션에서처럼 From, To 또는 By 속성을 설정하거나 키 프레임 애니메이션에서처럼 키 프레임을 사용하는 대신 기하학적 경로를 정의하고 이 경로를 사용하여 경로 애니메이션의 PathGeometry 속성을 설정한다. 경로 애니메이션은 진행되면서 경로에서 x, y 및 각도 정보를 읽고 이 정보를 사용하여 출력을 생성한다.Path animation is an AnimationTimeline format that takes a PathGeometry as input. Instead of setting the From, To, or By properties as in the From / To / By animation, or using keyframes as in keyframe animations, you define a geometric path and use it to set the PathGeometry property of the path animation. As the path animation progresses, it reads x, y, and angle information from the path and uses that information to generate the output.

이와 함께 본 발명은 객체를 추출하기 위해 홀 복원 기법을 제안한다. 홀 복원 기법은 주변 영역의 유사 패턴을 이용하여 대상 영역의 텍스쳐(Texture)를 생성하는 텍스쳐 스네시스(Texture Synthesis) 기법이다.In addition, the present invention proposes a hole restoration technique to extract an object. The hole reconstruction technique is a texture synthesis technique that generates a texture of a target region using a similar pattern of a peripheral region.

도 4는 본 발명의 일실시 예에 따른 텍스쳐 시네시스를 이용한 대상영역 복원 과정을 도시하고 있다.4 illustrates a process of restoring a target region using a texture cinesis according to an embodiment of the present invention.

다음으로 깊이 레이어 부여 과정에 대해 알아보기로 한다. 깊이 레이어 부여 과정은 추출한 객체들을 정량적 깊이 값을 가지는 깊이 레이어에 정렬시키는 과정을 수행한다. 이에 대해 구체적으로 알아보면 다음과 같다.Next, the depth layering process will be described. In the depth layer assigning process, the extracted objects are aligned with a depth layer having a quantitative depth value. This will be described in detail below.

유사한 깊이 값을 갖는 객체들을 동일한 레이어에 배열시킨다. 일반적으로 각 레이어들은 정형화된 깊이 값을 가지고 있으며, 이에 각 객체들은 기준이 되는 깊이 값을 부여하고, 동일한 식별자를 갖는 라벨을 부여한다.Arrange objects with similar depth values on the same layer. In general, each layer has a standardized depth value, and each object gives a reference depth value and a label having the same identifier.

따라서 본 발명은 레벨에 부여된 깊이 값만을 수정하면, 해당 객체들의 깊이 값 역시 수정되는 장점이 있으므로 다수가 작업하는 공동 작업 시 유리하다.Therefore, the present invention has an advantage that if only the depth value given to the level is modified, the depth value of the corresponding objects is also modified, which is advantageous when a plurality of people work together.

도 5는 본 발명의 일실시 예에 따른 추출한 객체에 깊이값을 부여하는 예를 도시하고 있다. 도 5에 의하면 깊이 값은 프론트 레이어, 컨버전스 레이어, 제1후면 레이어, 제2후면 레이어로 구성된 4개의 레이어로 구분된다. 도 5는 4개의 레이어로 구분되는 예를 도시하고 있으나, 사용자의 설정에 따라 레이어의 개수를 달라질 수 있다. 일예로 레이어의 개수는 최소 2개로 구성될 수 있으며, 다양한 깊이 값을 가지기 위해서는 레이어를 개수를 증가시키는 것이 바람직하다. 5 illustrates an example of providing a depth value to an extracted object according to an embodiment of the present invention. Referring to FIG. 5, the depth value is divided into four layers including a front layer, a convergence layer, a first rear layer, and a second rear layer. Although FIG. 5 illustrates an example divided into four layers, the number of layers may vary according to a user's setting. For example, the number of layers may be composed of at least two, and in order to have various depth values, it is preferable to increase the number of layers.

즉, 레이어의 개수가 증가되면 해당 객체의 깊이 값을 세분화할 수 있으며, 레이어의 개수가 축소되면 해당 객체의 깊이 값을 부여하는 시간을 단축시킬 수 있게 된다. 따라서 2차원 영상을 3차원 영상으로 변환하는 작업의 난이도에 따라 레이어의 개수를 조절할 수 있다.That is, as the number of layers increases, the depth value of the corresponding object may be subdivided. When the number of layers decreases, the time for assigning the depth value of the corresponding object may be shortened. Therefore, the number of layers can be adjusted according to the difficulty of converting a 2D image into a 3D image.

마지막으로 거리인식지도를 생성하는 과정에 대해 알아보기로 한다. 상술한 바와 같이 거리인식지도는 깊이 값을 갖는 객체들의 질감 표현을 위해 개념 모델링(Concept Modeling) 기법을 이용한다. 개념 모델링 기법은 현상을 묘사하는데 선택된 구성요소들을 질서있게 체계화시키는 것을 의미하며, 개념 모델링의 구성요소는 철학, 가치, 전문직의 실무에 의한 가정을 반영하는 그림으로서의 개념들이다. 본 발명은 이와 같은 개념 모델링 기법을 이용하여 거리인식 지도를 생성한다. 즉, 도 2에 도시되어 있는 바와 같이 동일한 깊이 값을 갖는 객체의 특정 부분을 질감 표현을 위해 개념 모델링 기법을 이용하여 적어도 두 개의 서로 다른 깊이 정보를 갖도록 하며, 이와 같이 동일한 깊이 값을 갖는 객체 내의 특정 부분이 서로 다른 깊이 정보를 가지게 되어 추출된 객체 내에서 서로 다른 거리를 인식할 수 있는 거리인식지도를 생성한다. Finally, the process of generating a street recognition map will be described. As described above, the distance recognition map uses a concept modeling technique to express the texture of objects having depth values. Conceptual modeling technique means orderly organization of selected components to describe phenomena, and the components of conceptual modeling are concepts as pictures reflecting assumptions made by philosophy, values and professional practice. The present invention generates a distance recognition map using this conceptual modeling technique. That is, as shown in FIG. 2, a specific part of an object having the same depth value is used to have at least two different depth information by using a conceptual modeling technique to express the texture. A specific part has different depth information and generates a distance recognition map that can recognize different distances in the extracted object.

이와 같이 생성한 다중 레이어/거리인식지도를 이용하여 가상의 영상을 생성하거나, 다중 레이어/거리인식지도 렌더링기법을 이용하여 2시점 스테레오 스코픽(Stereoscopic) 영상뿐만 아니라 3시점 이상의 다시점 영상을 생성할 수 있다. 또한, 객체들의 단순한 좌/우 이동뿐만 아니라 시점에 따른 대상의 회전 정보 까지 표현 할 수 있어 보다 현실적이고 정확한 입체영상 생성이 가능하다.The virtual image may be generated using the multi-layer / distance recognition map generated in this way, or the multi-view image of more than 3 viewpoints may be generated as well as the 2-view stereoscopic image using the multi-layer / distance recognition map rendering technique. Can be. In addition, not only the left / right movement of the objects but also the rotation information of the target according to the viewpoint can be expressed, thereby making it possible to generate more realistic and accurate stereoscopic images.

본 발명은 도면에 도시된 일실시 예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the scope of the present invention .

S100: 객체 추출 단계 S102: 깊이 레이어 부여 단계
S104: 거리인식지도 생성 단계
S100: Object Extraction Step S102: Depth Layer Assignment Step
S104: distance recognition map generation step

Claims (7)

2차원 영상 데이터를 3차원 영상 데이터로 변환하는 방법에 있어서,
표시된 2차원 영상 데이터에서 객체를 추출하는 단계;
영상을 촬영한 카메라의 시점과 영상의 소실점을 추적하여 추출한 상기 객체들을 정량적 깊이값을 갖는 복수 개의 깊이 레이어들 중 하나의 깊이 레이어에 할당하는 단계;
각 깊이 레이어별로 할당된 객체의 질감을 표현하기 위해 적어도 두 개의 서로 다른 깊이 정보를 할당하는 단계;
각 깊이 레이어별로 할당된 객체의 깊이 정보를 추출하여 상기 객체 내에서 서로 다른 거리를 인식할 수 있는 거리인식지도를 생성하는 단계를 포함함을 특징으로 하는 3차원 영상 데이터 변환 방법.
In the method for converting two-dimensional image data into three-dimensional image data,
Extracting an object from the displayed two-dimensional image data;
Allocating the extracted objects by tracking a viewpoint and a vanishing point of an image of the camera to which the image is taken, to one depth layer of a plurality of depth layers having a quantitative depth value;
Allocating at least two different depth information to express the texture of the object allocated to each depth layer;
And extracting depth information of an object allocated to each depth layer to generate a distance recognition map capable of recognizing different distances within the object.
제 1항에 있어서, 상기 객체를 추출하는 단계는,
베지에 곡선 알고리즘을 이용하여 객체를 추출함을 특징으로 하는 3차원 영상 데이터 변환 방법.
The method of claim 1, wherein the extracting of the object comprises:
3D image data conversion method characterized by extracting an object using a Bezier curve algorithm.
제 2항에 있어서, 복수의 깊이 레이어는 제1레이어 내지 제4레이어로 구분하며, 2차원 영상 데이터 중 근거리에 위치하고 있는 영상 데이터(깊이가 얇은 영상 데이터)는 제1레이어에 할당하며, 원거리에 위치하고 있는 영상 데이터(깊이가 깊은 영상 데이터)는 제4레이어에 할당함을 특징으로 하는 3차원 영상 데이터 변환 방법.
3. The depth layer of claim 2, wherein the plurality of depth layers are divided into first to fourth layers, and image data (thin depth image data) located at a short distance of the two-dimensional image data is allocated to the first layer, 3. The method of claim 3, wherein the located image data (depth image data) is allocated to the fourth layer.
제 3항에 있어서, 각 레이어별로 할당된 객체는 동일한 깊이 정보를 갖는 식별자를 부여함을 특징으로 3차원 영상 데이터 변환 방법.
The method of claim 3, wherein the object allocated to each layer is assigned an identifier having the same depth information.
제 4항에 있어서, 각 레이어별로 할당된 객체의 깊이 정보는 깊이 정보를 갖는 식별자의 수정에 의해 변경됨을 특징으로 하는 3차원 영상 데이터 변환 방법.
The method of claim 4, wherein the depth information of the object allocated to each layer is changed by modifying an identifier having depth information.
2차원 영상 데이터를 3차원 영상 데이터로 변환하는 방법에 있어서,
표시된 2차원 영상 데이터에서 객체를 추출하는 단계;
영상을 촬영한 카메라의 시점과 영상의 소실점을 추적하여 추출한 상기 객체들을 정량적 깊이 값을 갖는 복수 개의 깊이 레이어들 중 하나의 깊이 레이어에 할당하는 단계;
각 깊이 레이어별로 할당된 객체의 질감을 표현하기 위해 적어도 두 개의 서로 다른 깊이 정보를 할당하는 단계;
각 깊이 레이어별로 할당된 객체의 깊이 정보를 추출하여 상기 객체 내에서 서로 다른 거리를 인식할 수 있는 거리인식지도를 생성하는 단계를 포함하며,
복수의 깊이 레이어는 제1레이어 내지 제4레이어로 구분하며, 2차원 영상 데이터 중 근거리에 위치하고 있는 영상 데이터(깊이가 얇은 영상 데이터)는 제1레이어에 할당하며, 원거리에 위치하고 있는 영상 데이터(깊이가 깊은 영상 데이터)는 제4레이어에 할당함을 특징으로 하는 3차원 영상 데이터 변환 방법.
In the method for converting two-dimensional image data into three-dimensional image data,
Extracting an object from the displayed two-dimensional image data;
Allocating the extracted objects by tracking the vanishing point of the image and the viewpoint of the camera photographing the image to a depth layer of a plurality of depth layers having a quantitative depth value;
Allocating at least two different depth information to express the texture of the object allocated to each depth layer;
And extracting depth information of an object allocated to each depth layer to generate a distance recognition map capable of recognizing different distances within the object.
A plurality of depth layers are divided into first to fourth layers, and image data (thin depth image data) located at a short distance among two-dimensional image data is allocated to the first layer and image data (depth located at a far distance) Deep image data) is assigned to a fourth layer.
제 6항에 있어서, 각 레이어별로 할당된 객체는 동일한 깊이 정보를 갖는 식별자를 부여하여 최종 입체 영상인 키 거리인식지도를 생성하며, 생성된 거리인식지도를 이용하여 복수의 유사 프레임을 생성함을 특징으로 하는 3차원 영상 데이터 변환 방법.The method of claim 6, wherein the object allocated to each layer is assigned an identifier having the same depth information to generate a key distance recognition map, which is the final stereoscopic image, and to generate a plurality of similar frames using the generated distance recognition map. 3D image data conversion method.
KR1020100107061A 2010-10-29 2010-10-29 Method for creation 3 dimensional image KR101071911B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100107061A KR101071911B1 (en) 2010-10-29 2010-10-29 Method for creation 3 dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100107061A KR101071911B1 (en) 2010-10-29 2010-10-29 Method for creation 3 dimensional image

Publications (1)

Publication Number Publication Date
KR101071911B1 true KR101071911B1 (en) 2011-10-10

Family

ID=45032595

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100107061A KR101071911B1 (en) 2010-10-29 2010-10-29 Method for creation 3 dimensional image

Country Status (1)

Country Link
KR (1) KR101071911B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240497B1 (en) 2012-12-03 2013-03-11 복선우 Method and apparatus for manufacturing multiview contents
KR101303883B1 (en) * 2011-11-07 2013-09-04 (주)포미디어텍 Depth map generation method for converting 2-dimensional image to stereoscopic image
KR101341597B1 (en) 2013-02-27 2013-12-19 (주)아이미트 Method of generating depth map of 2-dimensional image based on camera location and angle and method of generating binocular stereoscopic image and multiview image using the same
CN105791803A (en) * 2016-03-16 2016-07-20 深圳创维-Rgb电子有限公司 Display method and system capable of converting two-dimensional image into multi-viewpoint image
CN109309870A (en) * 2018-10-19 2019-02-05 成都品果科技有限公司 A kind of method and device adjusting video playout speed

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101303883B1 (en) * 2011-11-07 2013-09-04 (주)포미디어텍 Depth map generation method for converting 2-dimensional image to stereoscopic image
KR101240497B1 (en) 2012-12-03 2013-03-11 복선우 Method and apparatus for manufacturing multiview contents
KR101341597B1 (en) 2013-02-27 2013-12-19 (주)아이미트 Method of generating depth map of 2-dimensional image based on camera location and angle and method of generating binocular stereoscopic image and multiview image using the same
CN105791803A (en) * 2016-03-16 2016-07-20 深圳创维-Rgb电子有限公司 Display method and system capable of converting two-dimensional image into multi-viewpoint image
CN105791803B (en) * 2016-03-16 2018-05-18 深圳创维-Rgb电子有限公司 A kind of display methods and system that two dimensional image is converted into multi-view image
US10334231B2 (en) 2016-03-16 2019-06-25 Shenzhen Skyworth-Rgb Electronic Co., Ltd Display method and system for converting two-dimensional image into multi-viewpoint image
CN109309870A (en) * 2018-10-19 2019-02-05 成都品果科技有限公司 A kind of method and device adjusting video playout speed

Similar Documents

Publication Publication Date Title
KR100603601B1 (en) Apparatus and Method for Production Multi-view Contents
CN101053000B (en) System and method for processing video images
JP4879326B2 (en) System and method for synthesizing a three-dimensional image
CN102972038B (en) Image processing apparatus, image processing method, program, integrated circuit
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JP5320524B1 (en) Stereo camera
US9723295B2 (en) Image processing device, image processing method, image processing computer program, and information recording medium whereupon image processing computer program is stored
Ward et al. Depth director: A system for adding depth to movies
KR100957129B1 (en) Method and device for converting image
KR101071911B1 (en) Method for creation 3 dimensional image
JP2010510569A (en) System and method of object model fitting and registration for transforming from 2D to 3D
KR101711684B1 (en) 3d avatars output device and method
KR101717379B1 (en) System for postprocessing 3-dimensional image
JP2023172882A (en) Three-dimensional representation method and representation apparatus
KR20190040746A (en) System and method for restoring three-dimensional interest region
JP2022518773A (en) 3D asteroid dynamic map generation method and portable terminal
KR101805636B1 (en) Automatic extracting system for 3d digital image object based on 2d digital image and extracting method using thereof
WO2000038434A1 (en) Method and apparatus for converting monoscopic images into stereoscopic images
CN105282534B (en) For being embedded in the system and method for stereo-picture
JP6595878B2 (en) Element image group generation apparatus and program thereof
KR101893769B1 (en) Apparatus and method of generating 3 dimension object image model based on used view of viewer
KR20060021566A (en) Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap
Ruhl et al. Cost volume-based interactive depth editing in stereo post-processing
KR101231661B1 (en) method for producting 3D stereo image using color segment extration and depth map
CN113139999B (en) Transparent object single-view multi-scale depth estimation method and system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141001

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee