KR101169400B1 - A Method & A System For Composing Stereo Image, And A Storage Medium - Google Patents

A Method & A System For Composing Stereo Image, And A Storage Medium Download PDF

Info

Publication number
KR101169400B1
KR101169400B1 KR1020100010364A KR20100010364A KR101169400B1 KR 101169400 B1 KR101169400 B1 KR 101169400B1 KR 1020100010364 A KR1020100010364 A KR 1020100010364A KR 20100010364 A KR20100010364 A KR 20100010364A KR 101169400 B1 KR101169400 B1 KR 101169400B1
Authority
KR
South Korea
Prior art keywords
background
composition
database
edge line
feature point
Prior art date
Application number
KR1020100010364A
Other languages
Korean (ko)
Other versions
KR20110090529A (en
Inventor
조일남
김상호
박한수
Original Assignee
(주)님버스테크놀로지스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)님버스테크놀로지스 filed Critical (주)님버스테크놀로지스
Priority to KR1020100010364A priority Critical patent/KR101169400B1/en
Publication of KR20110090529A publication Critical patent/KR20110090529A/en
Application granted granted Critical
Publication of KR101169400B1 publication Critical patent/KR101169400B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 스테레오 이미지 형성 방법 및 시스템, 그리고, 기록매체에 대한 것이다. 본 발명에 의한 스테레오 이미지 형성 방법은, 2차원 이미지를 색상 세그먼트 영역들로 분해하는 단계와; 상기 각 색상 세그먼트 영역들로부터 에지(edge) 라인을 검출하고 대상 오브젝트에 대한 특징점 정보를 저장한 오브젝트-배경 데이터베이스를 참조하여 에지라인에 대응하는 특징점 추출을 하는 특징점 추출단계와; 대응하는 오브젝트 특징점의 검출시 상기 에지 라인에 의해 구분되는 영역을 오브젝트로 구분하는 단계와; 상기 에지 라인에 의해 구분되는 영역이 오브젝트인 경우 상기 오브젝트-배경 데이터베이스로부터 그 오브젝트의 크기 연산 및 배경 구도를 검출하여 2차원 깊이 값을 결정하는 깊이 결정단계와; 상기 2차원 깊이 값을 적용하여 형성한 배경-오브젝트의 깊이 마스크를 쉬프트 하고 이미지 와핑(warping)을 수행하여 스테레오 이미지를 형성하는 단계를 포함하여 구성되는 것을 특징으로 한다.The present invention relates to a stereo image forming method and system, and to a recording medium. The stereo image forming method according to the present invention comprises the steps of: decomposing a two-dimensional image into color segment regions; A feature point extraction step of detecting a feature line corresponding to an edge line by detecting an edge line from each of the color segment areas and referring to an object-background database storing feature point information of a target object; Dividing an area separated by the edge line into an object upon detection of a corresponding object feature point; A depth determination step of determining a two-dimensional depth value by detecting a size calculation and a background composition of the object from the object-background database when the area divided by the edge line is an object; And shifting the depth mask of the background-object formed by applying the two-dimensional depth value and performing image warping to form a stereo image.

Description

스테레오 이미지 형성 방법 및 시스템, 그리고, 기록매체{A Method & A System For Composing Stereo Image, And A Storage Medium}Method and system for forming stereo image and recording medium {A Method & A System For Composing Stereo Image, And A Storage Medium}

본 발명은 스테레오이미지 형성 방법 및 시스템에 대한 것으로, 더욱 상세하게는 오브젝트-배경 데이터베이스의 데이터를 이용하여 2차원 이미지의 오브젝트 특징점을 검출하여 배경과 오브젝트를 구분하고 오브젝트의 크기, 배열 상태, 위치 정보에 의해 2차원 이미지의 정확한 깊이를 정의하여 좌안 및 우안 영상으로 변환하고 이미지 와핑(warping)하여 생동감 있는 입체 표현이 가능한 스테레오 이미지 형성 방법 및 시스템에 대한 것이다.
The present invention relates to a method and system for forming a stereo image, and more particularly, to detect object feature points of a two-dimensional image using data of an object-background database to distinguish a background from an object, and to determine the size, arrangement state, and position information of the object. The present invention relates to a stereo image forming method and system capable of defining a real depth of a two-dimensional image by converting the image into a left and right eye image and warping the image to enable live stereoscopic expression.

종래의 2차원 이미지를 이용한 스테레오 이미지 형성방법은, 이미지를 무수히 많은 수의 색상 세그먼트로 구분하고 각 색상 세그먼트에 대한 색상의 오차범위 내에서 동일 사물로 간주하여 에지 라인을 검출하고, 에지 라인에 대응하는 2차원 이미지 구도를 검출하여 얻어진 깊이 정보에 의해 이미지 와핑을 수행하여 입체감 있는 스테레오 이미지를 형성하는 방법에 의하고 있다.In the conventional stereo image forming method using two-dimensional images, the image is divided into a myriad of color segments, and the edge line is detected by considering the same object within the error range of the color for each color segment, and corresponding to the edge line. The present invention relates to a method of forming a stereoscopic stereo image by performing image warping based on depth information obtained by detecting a 2D image composition.

그러나 상기와 같은 종래의 스테레오 이미지 형성방법에는 다음과 같은 문제점이 있어왔다.However, the conventional stereo image forming method has the following problems.

에지 라인을 검출하고 이에 대응하는 2차원 이미지 구도를 검출하여 구도상의 상대 위치에 의해 깊이 정보를 결정하기 때문에 구도와 유사한 도형의 오브젝트가 있는 경우에는 구도 검출 자체가 부정확해지며, 그에 근거한 깊이 정보 역시 입체감을 형성하는데 혼란을 주므로 사용자에 의해 다시 깊이 값을 직관적으로 지정하여야 하는 문제가 발생한다.Detecting the edge line and detecting the corresponding two-dimensional image composition determines the depth information based on the relative position on the composition. Therefore, if there is an object with a figure similar to the composition, the composition detection itself becomes inaccurate. Since confusion in forming a three-dimensional effect, a problem arises in that the user must intuitively specify the depth value again.

그리고, 색상 세그먼트에 의해 구해지 배경 구도 정보에 한정되어 깊이를 구하고, 2차원 이미지에 내재하는 입체표현의 주요정보인 이미지의 주요 구성요소 상호 간의 관계에 대한 사항을 깊이정보에 포함하지 않으므로 생동감 있는 입체감 표현에 한계가 있어 왔다.
The depth is limited to the background composition information obtained by the color segment, and the depth information is not included in the depth information because the information on the relationship between the main components of the image, which is the main information of the stereoscopic expression inherent in the 2D image, is not included. There has been a limit to the three-dimensional expression.

본 발명의 목적은, 2차원 이미지의 색상 세그먼트들로부터 에지 라인을 검출하고, 에지 라인에 대응하는 오브젝트의 특징점 정보를 이용하여 오브젝트와 배경을 구분하고, 오브젝트의 크기 배열 등에 의한 사물 구도를 검출하여, 사물구도와 배경 구도의 상관관계를 고려한 신뢰성 있는 깊이 값을 산출하여 스테레오 이미지를 형성하는 스테레오 이미지 형성 방법 및 시스템을 구현하는 것이다. An object of the present invention is to detect the edge line from the color segments of the two-dimensional image, to distinguish the object and the background using the feature point information of the object corresponding to the edge line, and to detect the object composition by the size arrangement of the object In addition, the present invention is to implement a stereo image forming method and system for forming a stereo image by calculating a reliable depth value considering the correlation between the object composition and the background composition.

상기 목적을 달성하기 위한 본 발명에 의한 스테레오 이미지 형성 방법은, 2차원 이미지를 색상 세그먼트 영역들로 분해하는 단계와; 상기 각 색상 세그먼트 영역들로부터 에지(edge) 라인을 검출하는 에지라인 검출단계와; 대상 오브젝트에 대한 특징점 정보를 저장한 오브젝트-배경 데이터베이스를 참조하여 검출된 에지 라인에 대응하는 특징점 추출을 하고, 대응하는 오브젝트 특징점의 검출시 상기 에지 라인에 의해 구분되는 영역을 오브젝트로 구분하는 오브젝트-배경 구분단계와; 상기 에지 라인에 의해 구분되는 영역이 오브젝트인 경우 상기 오브젝트-배경 데이터베이스로부터 그 오브젝트에 대한 크기 관계 연산 및 배경 구도 검출을 하여 2차원 깊이 값을 결정하는 깊이 결정단계와; 상기 2차원 깊이 값을 적용하여 형성한 배경-오브젝트의 깊이 마스크를 쉬프트 하고 이미지 와핑(warping) 하여 스테레오 이미지를 형성하는 단계를 포함하여 구성되는 것을 특징으로 한다.A stereo image forming method according to the present invention for achieving the above object comprises the steps of: decomposing a two-dimensional image into color segment regions; An edge line detection step of detecting an edge line from each of the color segment areas; An object storing feature point information on a target object; an object to extract a feature point corresponding to the detected edge line with reference to a background database; and to classify a region separated by the edge line into objects when a corresponding object feature point is detected; A background classification step; A depth determining step of determining a two-dimensional depth value by performing a size relationship calculation and a background composition detection on the object from the object-background database when the area divided by the edge line is an object; And shifting the depth mask of the background-object formed by applying the 2D depth value and image warping to form a stereo image.

상기 깊이 결정단계에서는, 상기 오브젝트의 크기 관계와 위치를 검출하여 사물 구도 벡터를 형성하고, 배경 구도 기준벡터에 대한 사물 구도 벡터의 영점을 일치시키는 경우 두 벡터의 끝을 연결한 깊이 벡터의 크기 값을 깊이 값으로 결정하는 것을 특징으로 한다.In the depth determining step, an object composition vector is formed by detecting the size relationship and the position of the object, and when the zero point of the object composition vector is matched with the background composition reference vector, the magnitude value of the depth vector connecting the ends of the two vectors is determined. It is characterized in that to determine the depth value.

상기 오브젝트-배경 데이터베이스는, 상기 에지 라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 구분하기 위한 대상 오브젝트 특징점 데이터를 저장하는 오브젝트 특징점 데이터베이스(Character Point Database)와; 배경의 구도를 검출하기 위한 도형 데이터를 포함하는 구도 데이터베이스(Composition Database)를 포함하여 구성되는 것을 특징으로 한다.The object-background database may include: an object feature point database for storing target object feature point data for distinguishing whether an area divided by the edge line is an object or a background; It is characterized in that it comprises a composition database (Composition Database) including the figure data for detecting the composition of the background.

상기 오브젝트-배경 데이터베이스는, 배경의 구도나 오브젝트 크기 정보 검출의 정확성을 위한 의사 도형 데이터를 저장하는 의사(擬似)도형 데이터베이스(Diagram Database)를 포함하여 구성되는 것을 특징으로 한다.The object-background database is characterized in that it comprises a pseudo-database (Diagram Database) for storing pseudo-shape data for the accuracy of the background composition or object size information detection.

상기 오브젝트 특징점 데이터베이스 및 구도 데이터베이스의 데이터는 2진 데이터로 저장되어 오브젝트 특징점 검출 및 구도 검출에 의한 연산량을 감소시키는 것을 특징으로 한다.The data of the object feature point database and the composition database are stored as binary data to reduce the amount of computation by object feature point detection and composition detection.

상기 오브젝트 특징점 데이터베이스에는 오브젝트의 특징점에 대한 벡터처리 데이터를 구비하여 다양한 사이즈의 오브젝트의 추출에 적용될 수 있도록 하는 것을 특징으로 한다.The object feature point database includes vector processing data for feature points of an object so that the object feature point database can be applied to extraction of objects of various sizes.

상기 깊이 결정단계는, 상기 오브젝트-배경 데이터베이스의 정보에 의해 자동 깊이 설정이 곤란한 2차원 이미지에 대한 배경 구도나 오브젝트 크기를 사용자가 임의 값으로 지정하는 단계를 더 포함하는 것을 특징으로 한다.The depth determining step may further include a step of a user designating a background composition or an object size of a two-dimensional image, which is difficult to automatically set by the information of the object-background database, to an arbitrary value.

상기 목적을 달성하기 위한 본 발명에 의한 스테레오 이미지 형성 시스템은, 2차원 이미지를 색상 세그먼트 영역들로 분해하는 세그먼트 형성수단과; 상기 각 색상 세그먼트 영역들로부터 에지(edge) 라인을 검출하는 에지라인 검출수단과; 오브젝트 정보 검출과 배경 구도 검출을 위한 대한 데이터를 저장하는 오브젝트-배경 데이터베이스와; 상기 오브젝트-배경 데이터베이스로부터 상기 검출된 에지 라인에 대응하는 특징점을 추출하고 그 특징점에 대응하는 에지 라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 구분하는 오브젝트-배경 구분수단과; 상기 에지 라인에 의해 구분되는 영역이 오브젝트인 경우 상기 오브젝트-배경 데이터베이스로부터 그 오브젝트의 크기 관계 및 배경 구도를 검출하여 2차원 깊이 값을 결정하는 깊이 결정수단과; 상기 2차원 깊이 값을 적용하여 형성된 배경-오브젝트의 깊이 마스크를 쉬프트 하고 이미지 와핑(warping)을 수행하여 스테레오 이미지를 형성하는 스테레오 이미지 형성수단을 포함하여 구성되는 것을 특징으로 한다.A stereo image forming system according to the present invention for achieving the above object comprises: segment forming means for decomposing a two-dimensional image into color segment regions; Edge line detection means for detecting an edge line from each of said color segment areas; An object-background database that stores data for object information detection and background composition detection; Object-background discrimination means for extracting a feature point corresponding to the detected edge line from the object-background database and discriminating whether an area divided by an edge line corresponding to the feature point is an object or a background; Depth determining means for detecting a size relationship and a background composition of the object from the object-background database to determine a two-dimensional depth value when the area divided by the edge line is an object; And a stereo image forming means for shifting the depth mask of the background-object formed by applying the two-dimensional depth value and performing image warping to form a stereo image.

상기 목적을 달성하기 위한 본 발명에 의한 컴퓨터로 판독가능한 기록매체는, 스테레오 영상 형성방법을 컴퓨터 시스템상에서 구현하는 컴퓨터 프로그램이 기록된 것을 특징으로 한다.
A computer-readable recording medium according to the present invention for achieving the above object is characterized in that a computer program for implementing a stereo image forming method on a computer system is recorded.

본 발명은 상기와 같은 구성에 의해, 2차원 이미지에 나타난 오브젝트의 크기 관계 및 배경 구도의 특징에 근거한 신뢰성 있는 깊이 정보를 산출함으로써 생동감 있는 스테레오 이미지를 생성하는 것이 가능하며, 오브젝트 특징점 데이터베이스 및 배경 구도 데이터베이스 등의 데이터를 이진 정보로 저장하여 연산량을 감소시킨다.
According to the above configuration, it is possible to generate a live stereo image by calculating reliable depth information based on the size relationship of the object shown in the two-dimensional image and the characteristics of the background composition, and the object feature point database and the background composition Reduce the amount of computation by storing data such as databases as binary information.

도 1은 본 발명에 의한 스테레오 이미지 생성과정을 예시한 블럭도.
도 2는 본 실시예 2차원 이미지의 세그멘트 구분에 의한 에지 라인 검출상태를 예시한 도면.
도 3은 본 실시예 2차원 이미지의 세그멘트 구분에 의한 에지 라인 검출상태를 예시한 도면.
도 4는 본 발명의 실시예의 오브젝트 특징점 데이터베이스의 구성을 예시한 도면.
도 5는 본 발명의 실시예의 에지 라인으로부터 특징점을 검출한 상태를 예시한 도면.
도 6은 각 오브젝트의 특징점을 모두 포함하는 의사도형을 예시한 도면.
도 7a는 본 발명의 실시예에 의한 변환대상 2차원 이미지 원본을 예시한 도면.
도 7b는 도 7a의 이미지 원본에 대한 색상 세그멘트 형성이 된 상태를 예시한 도면.
도 7c는 상기 도 7b의 사물 1과 2에 대응하는 사물 구도 벡터를 예시한 도면.
도 7b는 도 7b의 배경에 대응하는 배경 구도벡터를 예시한 도면.
도 7c는 도 7b의 사물과 배경에 대한 사물 구도벡터와 배경 구도 벡터를 예시한 도면.
도 8은 배경 구도를 검출하기 위한 구도 데이터베이스의 구성을 예시한 도면.
도 9a 및 도 9b는 사용자 설정에 의한 깊이 값 설정 상태를 예시한 도면.
도 10a는 결정된 임의 깊이 값에 대한 좌안 영상과 우안 영상의 깊이 마스크의 쉬프트 방향을 예시한 도면.
도 10a는 이미지 깊이 마스크를 쉬프트 시키기 이전 상태를 예시한 도면.
도 10c는 도 10a의 깊이 마스크에 대해 결정된 깊이 값에 따라 이미지 깊이 마스크를 쉬프트 시킨 이후 상태를 예시한 도면.
1 is a block diagram illustrating a stereo image generation process according to the present invention.
2 is a diagram illustrating an edge line detection state by segmentation of a two-dimensional image of the present embodiment.
3 is a diagram illustrating an edge line detection state by segmentation of a two-dimensional image of the present embodiment.
4 is a diagram illustrating a configuration of an object feature point database in an embodiment of the present invention.
5 is a diagram illustrating a state where a feature point is detected from an edge line in the embodiment of the present invention.
FIG. 6 illustrates a pseudographic that includes all of the feature points of each object. FIG.
7A is a diagram illustrating an original 2D image to be converted according to an embodiment of the present invention.
FIG. 7B illustrates a state in which color segments are formed on the original image of FIG. 7A. FIG.
FIG. 7C illustrates object composition vectors corresponding to objects 1 and 2 of FIG. 7B.
FIG. 7B illustrates a background composition vector corresponding to the background of FIG. 7B. FIG.
FIG. 7C is a diagram illustrating an object composition vector and a background composition vector for the object and the background of FIG. 7B.
8 is a diagram illustrating a configuration of a composition database for detecting a background composition.
9A and 9B are diagrams illustrating a depth value setting state by user setting.
10A is a diagram illustrating a shift direction of a depth mask of a left eye image and a right eye image for a determined arbitrary depth value.
10A illustrates a state prior to shifting an image depth mask.
FIG. 10C illustrates a state after shifting the image depth mask according to the depth value determined for the depth mask of FIG. 10A.

이하 상기와 같은 구성을 갖는 본 발명에 의한 스테레오 이미지 형성 방법 및 시스템의 바람직한 실시예의 구성을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, a configuration of a preferred embodiment of a stereo image forming method and system according to the present invention having the configuration as described above will be described in detail with reference to the accompanying drawings.

도시된 본 발명의 실시예의 스테레오 이미지 형성 시스템은, 2차원 이미지를 색상 세그먼트 영역들로 분해하는 세그먼트 형성수단과, 세그먼트 영역들로부터 에지(edge) 라인을 검출하는 에지라인 검출수단과, 다양한 오브젝트와 배경에 대한 데이터를 저장한 오브젝트-배경 데이터베이스와, 검출된 에지 라인에 대응한 특징점을 추출하여 대상 오브젝트를 오브젝트-배경 데이터베이스에서 검출하고 상기 에지라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 검출하는 오브젝트-배경 검출수단과, 오브젝트 특징점들에 대응하는 오브젝트 대상정보(크기 관계, 배열 등) 및 배경의 구도(composition) 정보로부터 2차원 깊이(depth)를 결정하는 깊이 결정수단과, 상기 2차원 깊이 결정 값을 적용하여 형성된 오브젝트 및 배경 마스크에 대한 이미지 와핑(warping)을 수행하여 스테레오 이미지를 형성하는 스테레오 이미지 형성수단을 포함하여 구성된다.The stereo image forming system of the illustrated embodiment of the present invention includes segment forming means for decomposing a two-dimensional image into color segment regions, edge line detection means for detecting edge lines from the segment regions, and various objects; An object-background database storing data about a background and a feature point corresponding to the detected edge line are extracted to detect a target object in the object-background database, and to detect whether an area divided by the edge line is an object or a background. Depth-determination means for determining a two-dimensional depth from object-background detection means, object object information (size relationship, arrangement, etc.) corresponding to object feature points, and composition information of the background, and the two-dimensional depth; Image warpins for objects and background masks formed by applying decision values and g) performing a stereo image forming means to form a stereo image.

본 실시예에서는 도 2에 도시된 바와 같이 에지 검출 이전에 2차원 이미지를 무수히 많은 셀로 구분하고 각 셀에 하나의 색상을 결정하여 색상 세그먼트들을 형성하는데, 본 실시예의 세그먼트의 형성은 색상 세그먼트를 형성하는 방식을 예로들고 있으나 세그먼트의 형성은 색상 세그먼트에 한정되는 것은 아니다(제 1 단계,제 2 단계). In this embodiment, as shown in Fig. 2, the two-dimensional image is divided into countless cells and one color is determined in each cell before edge detection, thereby forming color segments. For example, the formation of the segment is not limited to the color segment (step 1 and step 2).

이와 같은 색상 세그먼트 형성과정은, 기존 이미지에서 서서히 이루어지는 색상 변화(Gradation)를 도 2에 도시된 바와 같이 명확한 색상으로 나누기 때문에 오브젝트의 영역을 명확하게 구분하는 것을 가능케 한다.The color segmentation process as described above makes it possible to clearly distinguish the area of the object because the color change (gradation) gradually made in the existing image is divided into clear colors as shown in FIG. 2.

즉, 선명한 이미지의 경우는 세그먼트 형성 없이 오브젝트의 구분이 가능하지만, 선명하지 않은 이미지의 경우는 직접 오브젝트 영역 구분이 어렵기 때문에 색상 세그먼트를 형성하여 오브젝트를 명확히 구분할 수 있게 된다. That is, in the case of a clear image, objects can be distinguished without forming a segment, but in a case of a non-clear image, since it is difficult to directly distinguish an object area, a color segment can be formed to clearly distinguish the object.

본 실시예의 에지 라인 검출수단은, 도 2에 도시된 바와 같이 2차원 이미지의 색상 세그먼트로부터 색상 차의 오차범위 내 영역을 둘러싸는 에지(Edge)를 검출하는 과정을 수행한다.As shown in FIG. 2, the edge line detection unit detects an edge surrounding an area within an error range of a color difference from a color segment of a two-dimensional image.

예컨대 도 3에 도시된 바와 같이 어린아이의 흰옷 부분은 얼굴이나 팔 또는 배경과 경계지점에 있는 색상 세그먼트 간의 색상 차가 오차범위를 벗어나며, 흰옷에 해당하는 부분은 색상 차가 오차범위 내에 있으므로 이 흰옷의 흰색 부분을 둘러싸는 에지 라인이 검출된다(제 3 단계). For example, as shown in FIG. 3, the white clothing part of the child has a color difference between the face, the arm, or the background and the color segment at the boundary point, and the part corresponding to the white clothes is within the error range. An edge line surrounding the part is detected (third step).

본 발명의 실시예의 오브젝트-배경 구분수단은 에지 라인 검출수단에 의해 검출된 에지 라인으로부터 오브젝트-배경의 구분이나 배경 구도 파악에 불필요한 부분을 제거하고 정규화한다. The object-background separating means of the embodiment of the present invention removes and normalizes portions unnecessary for distinguishing the object-background or grasping the background composition from the edge lines detected by the edge line detecting means.

즉, 도 3의 우측 상단에 도시된 바와 같이 에지라인 검출이 된 상태에서는 미세 얼룩 모양이 보이지만 오브젝트의 검출에 불필요한 부분이므로 정규화에 의해 제거하고 선명한 에지 라인을 얻어낸다. 한편, 에지 검출에 선행하여 2차원 이미지에 대한 세그먼트를 형성하는 과정은 그 자체로도 일정 정도 불필요한 부분(noise) 제거할 수 있다(제 3단계). That is, in the state where the edge line is detected as shown in the upper right of FIG. 3, fine spots are visible but are unnecessary for object detection, and are removed by normalization to obtain clear edge lines. On the other hand, the process of forming the segment for the two-dimensional image prior to the edge detection can be removed to some extent by itself (third step).

또한, 본 발명의 실시예의 오브젝트-배경 구분수단은 상기 과정에 의해 정규화된 에지 라인에 대한 오브젝트 특징점 검출 알고리즘(후술하는 오브젝트 특징점 데이터베이스의 오브젝트 특징점 데이터와 에지 라인에 의해 구분되는 영역에 대한 비교 및 반복 학습에 의해 특징점 검출 및 대상 오브젝트 검출을 수행함)에 의한 특징점을 검출을 수행한다. 예컨대 도 4에 도시된 바와 같이 정육면체의 각 꼭지점이 특징점으로 검출될 수 있으며, 도 5에 도시된 바와 같이 오브젝트-배경 데이터베이스로부터 에지 라인에 대응하는 여러 특징점들이 비교 검출될 수 있고 또한 데이터베이스의 특징점들에 대응하는 대상 오브젝트가 검출될 수 있다(제 4 단계).In addition, the object-background discrimination means of the embodiment of the present invention is an object feature point detection algorithm for the edge line normalized by the above process (comparison and repetition of the object feature point data of the object feature point database described below and the area divided by the edge line). Feature point detection and target object detection by learning). For example, as shown in FIG. 4, each vertex of the cube may be detected as a feature point, and as shown in FIG. 5, various feature points corresponding to an edge line may be compared and detected from the object-background database, and the feature points of the database may also be detected. A target object corresponding to may be detected (fourth step).

본 발명의 실시예의 오브젝트-배경 데이터베이스는, 에지 라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 구분하기 위한 데이터- 예컨대 대상 오브젝트의 다양한 각도에서 형성된 오브젝트 특징점에 대한 데이터를 저장하는 오브젝트 특징점 데이터베이스(Character Point Database)와, 배경의 구도를 검출하기 위한 도형 데이터를 저장하는 구도 데이터베이스(Composition Database)와, 배경의 구도 검출이나 오브젝트 특징점에 의한 오브젝트 대상정보(예컨대 오브젝트 크기 배열 등) 검출 정확성을 위한 도형데이터를 저장하는 의사(擬似)도형 데이터베이스(Diagram Database)를 포함한다.The object-background database of an embodiment of the present invention is an object feature point database that stores data for distinguishing whether an area separated by an edge line is an object or a background, for example, data about object feature points formed at various angles of a target object. A point database, a composition database that stores figure data for detecting a background composition, and figure data for accuracy of detecting a background composition or detecting object object information (e.g., object size array, etc.) by object feature points. It includes a pseudogram database (Diagram Database) for storing.

본 실시예의 배경-오브젝트 검출수단은 에지라인에 대응하는 특징점들을 상술한 오브젝트-배경 데이터베이스를 참조하여 검출함으로써 에지 라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 검출한다. 예컨대 본 발명의 실시예에서는 정규화된 에지 라인에 대응하는 특징점의 대상 오브젝트가 상기 오브젝트 특징점 데이터베이스에 존재하는지 여부를 검출하며, 오브젝트 특징점 데이터베이스에 있으면 에지라인에 의해 구분되는 영역을 오브젝트인 것으로 검출하며 없는 경우에는 배경으로 검출한다(제 5 단계).The background-object detection means of this embodiment detects whether or not the area distinguished by the edge line is an object or a background by detecting feature points corresponding to the edge line with reference to the above-described object-background database. For example, an embodiment of the present invention detects whether a target object of a feature point corresponding to a normalized edge line exists in the object feature point database, and if it exists in the object feature point database, detects an area separated by an edge line as an object. In the case of detection in the background (step 5).

도 4에 도시된 바와 같이, 본 실시예의 오브젝트 특징점 데이터베이스는 대상 오브젝트의 다양한 각도에서 형성된 오브젝트 특징점에 대한 데이터를 2진 데이터(흑백 또는 0과 1)로 저장하여 연산량을 감소시키며, 다양한 크기 오브젝트에 대한 검출을 정확하게 할 수 있도록 특징점 데이터는 벡터스케일로 처리된다.As shown in FIG. 4, the object feature point database of the present embodiment stores data about object feature points formed at various angles of the target object as binary data (black and white or 0 and 1), thereby reducing the amount of computation. The feature point data is processed in vector scale so that the detection can be performed accurately.

한편, 본 발명의 실시예에서는 정규화된 에지라인에 의해 구분되는 영역이 배경으로 검출되는 경우에는 구도 데이터베이스에 저장된 데이터로부터 배경 구도에 대한 대상정보가 검출되어 오브젝트 깊이 값 결정에 활용된다. Meanwhile, in the embodiment of the present invention, when the area divided by the normalized edge line is detected as the background, object information about the background composition is detected from the data stored in the composition database and used to determine the object depth value.

예컨대, 도 8에 예시된 구도 데이터베이스는 배경의 구도인 수평, 수직, 사선, 대각선, 곡선, 방사형, 삼각형, 역삼각형, 중앙중점, 대칭형, 터널형, 바둑판 구도 등을 인식하기 위한 것으로, 구도 인식에 필요한 도형- 즉, 삼각형, 정사각형, 직사각형, 원, 마름모 등의 데이터를 저장한다.For example, the composition database illustrated in FIG. 8 is for recognizing a composition of a background such as horizontal, vertical, diagonal, diagonal, curved, radial, triangle, inverted triangle, center point, symmetrical, tunnel, and checkerboard composition. Stores data needed for geometry- i.e. triangles, squares, rectangles, circles, rhombuses.

또한, 본 발명의 실시예에서는, 에지 라인에 의해 구분되는 영역에 대응하는 데이터를 도 8의 구도 데이터베이스에서 추출하여 2차원 이미지의 구도를 결정하게 된다. 이 경우 배경 구도는 특정 도형 1 또는 2 이상의 결합에 의해 구성될 수 있고 배경 구도가 결정되면 구도상의 상대 위치에 의해 2차원 이미지의 깊이가 일차적으로 결정될 수 있게 된다.
In addition, in the embodiment of the present invention, the data corresponding to the area divided by the edge line is extracted from the composition database of FIG. 8 to determine the composition of the two-dimensional image. In this case, the background composition may be configured by a combination of one or two specific figures, and when the background composition is determined, the depth of the 2D image may be primarily determined by the relative position on the composition.

본 발명의 실시예에서 의사(擬似)도형 데이터베이스는 배경의 구도나 오브젝트 특징점만으로는 오브젝트의 크기나 깊이를 정확히 알 수 없으므로 이에 대한 정보를 얻기 위해 사용되며, 구도나 오브젝트 검출의 오류를 정정하기 위한 목적으로 사용된다. In the embodiment of the present invention, the pseudo-shape database is used to obtain information about the size or depth of the object only by the background composition or the object feature point, and is used to obtain information about the object, and to correct errors in the composition or object detection. Used as

예컨대, 의사(擬似)도형 데이터베이스는 에지 라인에 근사한 도형(예컨대 정사각형, 원, 직사각형, 정삼각형 등)으로 오브젝트 특징점 영역을 모두 포함하는 도형인 의사도형에 대한 데이터를 저장하며, 본 실시예에서는 검출된 오브젝트의 특징점을 모두 포함하는 의사도형은 오브젝트의 크기?배열?구도?위치 등의 정확한 검출을 위해 사용된다.For example, the pseudo-graphics database stores data about a pseudo-figure, which is a figure that includes all object feature point regions as a figure (eg, square, circle, rectangle, equilateral triangle, etc.) approximating an edge line, and in this embodiment, Pseudo-figures that include all the feature points of an object are used for accurate detection of the object's size, arrangement, composition, and position.

예컨대, 도 6에 도시된 바와 같이 오브젝트 특징점을 모두 포함하는 유사도형(도 6에서는 직사각형)의 크기에 의해 각 오브젝트의 크기가 결정될 수 있으며, 각 오브젝트에 대한 상대 크기 데이터를 비교하여 오브젝트의 구도상의 상대 위치 및 깊이 값을 구할 수 있게 된다.For example, as illustrated in FIG. 6, the size of each object may be determined by the size of a similarity shape (rectangle in FIG. 6) including all object feature points, and the relative size data of each object may be compared to determine the size of the object. Relative position and depth values can be obtained.

즉, 동일한 특징점 구조를 갖는 물건인 도구 보관함의 특징점을 모두 포함하는 의사도형(예컨대 도 9의 2개 원통형 통을 각각 근사한 2개의 작은 직사각형)의 상대크기에 의해 물건의 상대 위치 및 공간상의 위치에 대한 깊이 값을 얻어낼 수 있게 된다. That is, the relative size of the object and the spatial position of the object by the relative size of the pseudo-figure (for example, two small rectangles approximating each of the two cylindrical barrels of Fig. 9) that includes all the feature points of the tool storage box that is the object having the same feature point structure We can get the depth value for.

본 실시예의 구도 데이터베이스 및 의사도형 데이터베이스는 상기 오브젝트 특징점 데이터베이스와 동일하게 해당 정보를 2진 데이터(예컨대 데이터 값이 흑 또는 백이나 0 또는 1로 표현)로 저장하여 배경 구도 및 오브젝트-배경에 의한 깊이 값 결정의 연산량을 감소시킨다.The composition database and the pseudo-graphic database of this embodiment store the information as binary data (for example, the data value is expressed in black or white or 0 or 1) as the object feature point database, and thus the background composition and the depth of the object-background Reduce the amount of computation for value determination.

본 발명의 실시예의 깊이 결정수단은 상기 오브젝트 특징점 데이터베이스, 구도데이터베이스 및 의사도형 데이터베이스의 데이터에 의해 자동으로 깊이 값이 연산되는 자동 설정수단과, 자동 깊이 결정이 어려운 경우나 작업자의 선택에 의해 깊이 값이나 구도를 수동지정하는 사용자 설정수단을 포함하여 2차원 이미지의 깊이 값을 결정한다(제 6 단계,제 7 단계,제 8 단계)Depth determination means according to an embodiment of the present invention is the automatic setting means for automatically calculating the depth value by the data of the object feature point database, the composition database and the pseudo-figure database, and the depth value by the case of difficult automatic determination or selection of the operator Or determining the depth value of the two-dimensional image, including user setting means for manually specifying the composition (sixth, seventh, and eighth steps).

본 실시예의 자동 설정수단에 의해 깊이가 결정되는 과정은 다음과 같다. 즉, 2차원 이미지에서 검출된 각 위치의 오브젝트에 대한 크기 정보를 이용하여 사물 구도 벡터를 검출하고(도 7c, 도 7e의 사선), 배경 구도를 검출하여 배경구도 기준 벡터를 검출한다. The process of determining the depth by the automatic setting means of the present embodiment is as follows. That is, the object composition vector is detected using the size information of the object of each position detected in the 2D image (the diagonal lines of FIGS. 7C and 7E), and the background composition reference vector is detected by detecting the background composition.

예컨대, 이미지 상의 사물1과 사물 2를 비교했을 때 사물 2의 크기가 작으므로 사물 1에서 사물 2의 방향으로 사물구도 방향이 설정될 수 있고 사물 구도벡터가 검출될 수 있다.For example, since the size of object 2 is small when comparing object 1 and object 2 on the image, the object composition direction may be set in the direction of object 1 to object 2 and the object composition vector may be detected.

도 7a 내지 7e에 도시된 바의 2차원 이미지상에서 배경 구도는 수평선의 구도로 검출되며, 이 수평선 구도에 대응한 수직선 형태의 배경 구도의 기준 벡터가 구해진다(도 7d의 수직방향 벡터 참조). On the two-dimensional image as shown in Figs. 7A to 7E, the background composition is detected as the horizontal composition, and a reference vector of the background composition in the form of a vertical line corresponding to the horizontal composition is obtained (see the vertical vector in Fig. 7D).

배경구도의 기준 벡터와 사물구도 벡터를 이용하여 깊이벡터를 검출하는 과정은 다음과 같다. 즉, 사물구도 벡터와 배경구도의 기준벡터의 영점을 일치시키고, 두 벡터의 끝을 연결한 벡터인 깊이 벡터를 작도하여 오브젝트의 깊이 값이 자동 설정된다(제 7 단계).The process of detecting the depth vector using the reference vector of the background composition and the object composition vector is as follows. That is, the depth value of the object is automatically set by matching the zero point of the object composition vector and the reference vector of the background composition and constructing a depth vector which is a vector connecting the ends of the two vectors (step 7).

한편, 사용자 설정의 경우에는 도 9a에 도시된 바와 같이 2차원 이미지 배경구도의 기준벡터에 대한 사물 구도 벡터를 직접 지정하여 깊이 값이 결정된다. 본 실시예에서 사물 구도벡터 지정은 오브젝트의 크기를 직접 지정하는 것에 의해 수행될 수 있다. Meanwhile, in the case of user setting, as shown in FIG. 9A, a depth value is determined by directly designating an object composition vector with respect to a reference vector of the two-dimensional image background composition. In the present embodiment, the object composition vector designation may be performed by directly designating the size of the object.

예컨대, 도 9b에 도시된 바와 같이 1번 벡터는 2차원 이미지 깊이의 기준벡터이며, 2번 벡터가 사물 구도벡터라고 하면, 사물의 깊이는 상기 1번 벡터와 2번 벡터 끝을 연결한 3번 벡터로 정의될 수 있다(제 6단계).For example, as shown in FIG. 9B, the first vector is a reference vector of the two-dimensional image depth, and when the second vector is an object composition vector, the depth of the object is three times connecting the first and second vector ends. Can be defined as a vector (step 6).

본 발명에서는 이와 같이 2차원 이미지의 깊이 값 결정과정에 배경 구도 외에 오브젝트 크기 및 상대 위치에 따른 보완이 수행되므로 생생한 입체 이미지의 형성이 가능해진다. 또한, 자동 설정수단에 의한 결과 오브젝트의 크기에 의한 깊이 값이 오차범위를 벗어나는 경우와 같이 자동 설정수단에 의한 설정이 곤란하거나 깊이 값을 적용한 이미지의 상태가 불량한 경우에는 사용자 설정수단에 의해 임의의 구도정보 또는 깊이 값이 직접 입력될 수 있다(제 6 단계).In the present invention, since the depth value of the two-dimensional image is compensated according to the object size and relative position in addition to the background composition, vivid stereoscopic images can be formed. In addition, if the setting by the automatic setting means is difficult or the state of the image to which the depth value is applied is poor, such as when the depth value due to the size of the object is out of the error range by the automatic setting means, The composition information or the depth value may be directly input (sixth step).

또한, 직접 구도 정보 또는 깊이 정보를 입력하거나 자동설정되는 경우 입체 표현을 위해 적정한 최종 값이 결정되기까지 수회 반복적으로 작업이 수행될 수 있다(제 8 단계). In addition, when directly inputting or automatically setting the composition information or the depth information, the operation may be repeatedly performed several times until an appropriate final value for the three-dimensional representation is determined.

본 실시예의 스테레오 이미지 형성수단은, 상기 깊이 결정수단에 의해 결정된 깊이 값에 따라 입체감의 표현에 적절한 위치로 오브젝트를 쉬프트 시켜 와핑함으로써 좌안과 우안을 위한 스테레오 이미지를 형성하게 된다.The stereo image forming means of the present embodiment forms a stereo image for the left and right eyes by shifting and warping the object to a position suitable for the representation of the three-dimensional effect according to the depth value determined by the depth determining means.

예컨대. 도 10a에 도시된 바와 같이, 본 실시예의 스테레오 이미지 형성수단은 주어진 깊이 값에 따라 오브젝트-배경의 깊이 마스크(Depth Mask)를 형성하고 기준 값을 기준으로 오브젝트의 깊이 값에 따라 좌우로 마스크를 쉬프트 시켜 좌안 이미지와 우안 이미지를 형성한다.for example. As shown in Fig. 10A, the stereo image forming means of this embodiment forms a depth mask of an object-background according to a given depth value and shifts the mask from side to side according to the depth value of the object based on the reference value. To form a left eye image and a right eye image.

본 실시예에서 좌안 이미지의 경우에 대해 살펴보면, 기준 값을 기준으로 오브젝트의 깊이 값이 작은 경우 즉 이미지가 들어가 보여야 하는 경우에는 오브젝트의 깊이 마스크를 좌측으로 쉬프트 시키고, 돌출되어 보여야 하는 경우에는 오브젝트의 깊이 마스크를 우측으로 쉬프트 시켜 좌안 이미지를 형성한다(제 9 단계).Referring to the case of the left eye image in the present embodiment, when the depth value of the object is small based on the reference value, that is, when the image should be seen, the depth mask of the object is shifted to the left, and when the object is to protrude, The depth mask is shifted to the right to form a left eye image (ninth step).

한편, 본 실시예에서 우안 이미지의 경우를 살펴보면, 기준 값을 기준으로 오브젝트의 깊이 값이 작은 경우 즉 이미지가 들어가 보여야 하는 경우에는 오브젝트의 깊이 마스크를 우측(중앙)으로 쉬프트 시키고, 돌출되어 보여야 하는 경우에는 오브젝트의 깊이 마스크를 좌측(중앙)으로 쉬프트 시켜 우안 이미지를 형성한다.Meanwhile, referring to the right eye image in this embodiment, when the depth value of the object is small based on the reference value, that is, when the image should be seen, the depth mask of the object should be shifted to the right side (center) and protruded. In this case, the depth mask of the object is shifted to the left (center) to form a right eye image.

현재 상용화된 모든 입체 디스플레이 장치(TV, 모니터, 모바일) 등은 모니터의 크기가 다르고 하드웨어 제작사마다 다른 기술로 입체 모니터가 제작되어 깊이 표현의 음양의 기준 값이 다르다. 이러한 이유로 깊이 마스크 값을 하드웨어에 맞는 스텝으로 이미지 픽셀을 이동하여야 한다. 즉, 깊이 마스크 값을 각각의 스텝별로 나누어 1스텝 당 1 pixel 씩 이동하여 하드웨어마다 적정한 깊이를 구현하게 된다.Currently, all three-dimensional display devices (TV, monitor, mobile) commercially available have different sizes of monitors, and three-dimensional monitors are manufactured by different technologies for different hardware manufacturers, so the reference value of yin and yang of depth expression is different. For this reason, the image mask must be moved to a step that matches the depth mask value to the hardware. That is, the depth mask value is divided by each step and moved by 1 pixel per step to implement an appropriate depth for each hardware.

예컨대, 깊이 기준 값이 110인 경우 110보다 작은 것은 왼쪽으로 110보다 큰 것은 오른쪽으로 2차원 이미지의 픽셀(pixel)을 시프트 시켜 좌안 이미지를 형성한다. 또한, 110보다 작은 것은 오른쪽으로 110보다 큰 것은 왼쪽으로 쉬프트 시켜 우안 이미지를 형성한다. 한편, 깊이 마스크를 쉬프트 시키는 스텝의 수는 하드웨어의 특성에 따라 정해질 수 있는 것이며, 그 값은 최대 돌출되어 보이는 깊이 값과 최대 들어가 보이는 깊이 값 및 하드웨어 특성에 따른 깊이 한계 값들에 의해 결정되는 것이다. For example, when the depth reference value is 110, a smaller than 110 shifts a pixel of the 2D image to the left to a left to form a left eye image. Also, smaller than 110 shifts to the right and larger than 110 to the left to form the right eye image. On the other hand, the number of steps to shift the depth mask can be determined according to the characteristics of the hardware, the value is determined by the maximum protruding depth value, the maximum visible depth value and the depth limit values according to the hardware characteristics .

한편 도 10b 도 10c에 도시된 바와 같이 본 실시예에서 깊이 기준값을 중심으로 좌우방향에 대한 깊이 마스크 쉬프트에 의해 발생하는 빈공간(도 10c 참조)은 이미지 와핑에 의해 메워져서 좌안 및 우안 이미지가 완성된다(제 9 단계).
Meanwhile, as shown in FIG. 10B and FIG. 10C, the empty space (see FIG. 10C) generated by the depth mask shift in the left and right directions around the depth reference value is filled by image warping to complete the left and right eye images. (The ninth step).

본 발명의 권리범위는 상기 실시예에 한정되는 것이 아니라 특허청구범위에 기재된 사항에 의해 정해지며, 청구범위 기재 사항과 균등범위에서 당업자가 행한 다양한 변형과 개작을 포함함은 자명하다.
The scope of the present invention is not limited to the above embodiments, but is determined by the matters described in the claims, and it is obvious that the present invention includes various modifications and adaptations made by those skilled in the art in the claims and equivalents.

Claims (9)

2차원 이미지를 색상 세그먼트 영역들로 분해하는 단계와;
상기 각 색상 세그먼트 영역들로부터 에지(edge) 라인을 검출하는 에지라인 검출단계와;
대상 오브젝트에 대한 특징점 정보를 저장한 오브젝트-배경 데이터베이스를 참조하여 검출된 에지 라인에 대응하는 특징점 추출을 하고, 대응하는 오브젝트 특징점의 검출시 상기 에지 라인에 의해 구분되는 영역을 오브젝트로 구분하는 오브젝트-배경 구분단계와;
상기 에지 라인에 의해 구분되는 영역이 오브젝트인 경우 상기 오브젝트-배경 데이터베이스로부터 그 오브젝트에 대한 크기 관계 연산 및 배경 구도 검출을 하여 2차원 깊이 값을 결정하는 깊이 결정단계와;
상기 2차원 깊이 값을 적용하여 형성한 배경-오브젝트의 깊이 마스크를 쉬프트 하고 이미지 와핑(warping) 하여 스테레오 이미지를 형성하는 단계를 포함하여 구성되는 것을 특징으로 하는 스테레오 이미지 형성방법.
Decomposing the two-dimensional image into color segment regions;
An edge line detection step of detecting an edge line from each of the color segment areas;
An object storing feature point information on a target object; an object to extract a feature point corresponding to the detected edge line with reference to a background database; and to classify a region separated by the edge line into objects when a corresponding object feature point is detected; A background classification step;
A depth determining step of determining a two-dimensional depth value by performing a size relationship calculation and a background composition detection on the object from the object-background database when the area divided by the edge line is an object;
Shifting the depth mask of the background-object formed by applying the two-dimensional depth value and image warping to form a stereo image.
청구항 1에 있어서, 상기 깊이 결정단계에서는,
상기 오브젝트의 크기 관계와 위치를 검출하여 사물 구도 벡터를 형성하고, 배경 구도 기준벡터에 대한 사물 구도 벡터의 영점을 일치시키는 경우 두 벡터의 끝을 연결한 깊이 벡터의 크기 값을 깊이 값으로 결정하는 것을 특징으로 하는 스테레오 이미지 형성방법.
The method of claim 1, wherein in the depth determination step,
Detecting the size relationship and the position of the object to form an object composition vector, and if the zero of the object composition vector with respect to the background composition reference vector to match the zero value of the depth vector connecting the ends of the two vectors to determine the depth value Stereo image forming method, characterized in that.
청구항 1에 있어서, 상기 오브젝트-배경 데이터베이스는,
상기 에지 라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 구분하기 위한 대상 오브젝트 특징점 데이터를 저장하는 오브젝트 특징점 데이터베이스(Character Point Database)와;
배경의 구도를 검출하기 위한 도형 데이터를 포함하는 구도 데이터베이스(Composition Database)를 포함하여 구성되는 것을 특징으로 하는 스테레오 이미지 형성방법.
The method of claim 1, wherein the object-background database,
An object feature point database for storing target object feature point data for distinguishing whether an area divided by the edge line is an object or a background;
And a composition database including composition data for detecting a composition of a background.
청구항 1에 있어서, 상기 오브젝트-배경 데이터베이스는,
배경의 구도나 오브젝트 크기 정보 검출의 정확성을 위한 의사 도형 데이터를 저장하는 의사(擬似)도형 데이터베이스(Diagram Database)를 포함하여 구성되는 것을 특징으로 하는 스테레오 이미지 형성방법.
The method of claim 1, wherein the object-background database,
And a pseudogram database storing pseudo figure data for accurate background composition or object size information detection.
청구항 3에 있어서, 상기 오브젝트 특징점 데이터베이스 및 구도 데이터베이스의 데이터는 2진 데이터로 저장되어 오브젝트 특징점 검출 및 구도 검출에 의한 연산량을 감소시키는 것을 특징으로 하는 스테레오 이미지 형성방법.
The method according to claim 3, wherein the data of the object feature point database and the composition database are stored as binary data to reduce the amount of computation by object feature point detection and composition detection.
청구항 3에 있어서, 상기 오브젝트 특징점 데이터베이스에는 오브젝트의 특징점에 대한 벡터처리 데이터를 구비하여 다양한 사이즈의 오브젝트의 추출에 적용될 수 있도록 하는 것을 특징으로 하는 스테레오 이미지 형성방법.
The method of claim 3, wherein the object feature point database includes vector processing data of feature points of an object so that the object feature point database can be applied to extraction of objects of various sizes.
청구항 1에 있어서, 상기 깊이 결정단계는,
상기 오브젝트-배경 데이터베이스의 정보에 의해 자동 깊이 설정이 곤란한 2차원 이미지에 대한 배경 구도나 오브젝트 크기를 사용자가 임의 값으로 지정하는 단계를 더 포함하는 것을 특징으로 하는 스테레오 이미지 형성방법.
The method of claim 1, wherein the depth determination step,
And a user designating a background composition or an object size of the two-dimensional image, which is difficult to set automatically by the information of the object-background database, to an arbitrary value.
2차원 이미지를 색상 세그먼트 영역들로 분해하는 세그먼트 형성수단과;
상기 각 색상 세그먼트 영역들로부터 에지(edge) 라인을 검출하는 에지라인 검출수단과;
오브젝트 정보 검출과 배경 구도 검출을 위한 대한 데이터를 저장하는 오브젝트-배경 데이터베이스와;
상기 오브젝트-배경 데이터베이스로부터 상기 검출된 에지 라인에 대응하는 특징점을 추출하고 그 특징점에 대응하는 에지 라인에 의해 구분되는 영역이 오브젝트인지 배경인지를 구분하는 오브젝트-배경 구분수단과;
상기 에지 라인에 의해 구분되는 영역이 오브젝트인 경우 상기 오브젝트-배경 데이터베이스로부터 그 오브젝트의 크기 관계 및 배경 구도를 검출하여 2차원 깊이 값을 결정하는 깊이 결정수단과;
상기 2차원 깊이 값을 적용하여 형성된 배경-오브젝트의 깊이 마스크를 쉬프트 하고 이미지 와핑(warping)을 수행하여 스테레오 이미지를 형성하는 스테레오 이미지 형성수단을 포함하여 구성되는 것을 특징으로 하는 스테레오 이미지 형성 시스템.
Segment forming means for decomposing the two-dimensional image into color segment regions;
Edge line detection means for detecting an edge line from each of said color segment areas;
An object-background database that stores data for object information detection and background composition detection;
Object-background discrimination means for extracting a feature point corresponding to the detected edge line from the object-background database and discriminating whether an area divided by an edge line corresponding to the feature point is an object or a background;
Depth determining means for detecting a size relationship and a background composition of the object from the object-background database to determine a two-dimensional depth value when the area divided by the edge line is an object;
And stereo image forming means for shifting the depth mask of the background-object formed by applying the two-dimensional depth value and performing image warping to form a stereo image.
청구항 1 내지 7 중 어느 하나에 있어서의 스테레오 이미지 형성방법을 컴퓨터 시스템상에서 구현하는 컴퓨터 프로그램이 기록된 것을 특징으로 하는 컴퓨터로 판독가능한 기록매체.

A computer-readable recording medium having recorded thereon a computer program for implementing the stereo image forming method according to any one of claims 1 to 7 on a computer system.

KR1020100010364A 2010-02-04 2010-02-04 A Method & A System For Composing Stereo Image, And A Storage Medium KR101169400B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100010364A KR101169400B1 (en) 2010-02-04 2010-02-04 A Method & A System For Composing Stereo Image, And A Storage Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100010364A KR101169400B1 (en) 2010-02-04 2010-02-04 A Method & A System For Composing Stereo Image, And A Storage Medium

Publications (2)

Publication Number Publication Date
KR20110090529A KR20110090529A (en) 2011-08-10
KR101169400B1 true KR101169400B1 (en) 2012-08-21

Family

ID=44928297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100010364A KR101169400B1 (en) 2010-02-04 2010-02-04 A Method & A System For Composing Stereo Image, And A Storage Medium

Country Status (1)

Country Link
KR (1) KR101169400B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101538042B1 (en) * 2013-10-25 2015-07-22 엔디에스솔루션 주식회사 Apparatus and method for transforming location data of 3 dimension guide

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101370785B1 (en) * 2012-11-06 2014-03-06 한국과학기술원 Apparatus and method for generating depth map of streoscopic image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009181A (en) 2001-06-27 2003-01-10 Sony Corp Image processor, image processing method, recording medium and its program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009181A (en) 2001-06-27 2003-01-10 Sony Corp Image processor, image processing method, recording medium and its program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101538042B1 (en) * 2013-10-25 2015-07-22 엔디에스솔루션 주식회사 Apparatus and method for transforming location data of 3 dimension guide

Also Published As

Publication number Publication date
KR20110090529A (en) 2011-08-10

Similar Documents

Publication Publication Date Title
Steder et al. NARF: 3D range image features for object recognition
KR102317247B1 (en) The bare hand interaction apparatus and method for augmented rearity using rgb-d images
US10532459B2 (en) Information processing apparatus, information processing method, and storage medium for grasping an object
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
EP2430588B1 (en) Object recognition method, object recognition apparatus, and autonomous mobile robot
EP2249311B1 (en) Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
CN103984362B (en) Position and orientation measurement apparatus, information processor and information processing method
Kuo et al. 3D object detection and pose estimation from depth image for robotic bin picking
CN105139416A (en) Object identification method based on image information and depth information
US10909369B2 (en) Imaging system and method for object detection and localization
US20150003678A1 (en) Information processing apparatus, information processing method, and storage medium
US20180150969A1 (en) Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method
KR20170133262A (en) Object recognition apparatus, objection recognition method, and program
CN105096307A (en) Method for detecting objects in paired stereo images
US11488354B2 (en) Information processing apparatus and information processing method
US10607350B2 (en) Method of detecting and describing features from an intensity image
JP2017032335A (en) Information processing device, information processing method, and program
JP2008217544A (en) Object detection method, object detector, and robot provided with the same
JP2009163682A (en) Image discrimination device and program
Cirujeda et al. MCOV: a covariance descriptor for fusion of texture and shape features in 3D point clouds
CN105139013A (en) Object recognition method integrating shape features and interest points
EP2458556A1 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
KR101169400B1 (en) A Method & A System For Composing Stereo Image, And A Storage Medium
JP6016242B2 (en) Viewpoint estimation apparatus and classifier learning method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee