KR100618493B1 - The Apparatus and Method for Creating Three-Dimensional Image Automatically - Google Patents

The Apparatus and Method for Creating Three-Dimensional Image Automatically Download PDF

Info

Publication number
KR100618493B1
KR100618493B1 KR1020010027083A KR20010027083A KR100618493B1 KR 100618493 B1 KR100618493 B1 KR 100618493B1 KR 1020010027083 A KR1020010027083 A KR 1020010027083A KR 20010027083 A KR20010027083 A KR 20010027083A KR 100618493 B1 KR100618493 B1 KR 100618493B1
Authority
KR
South Korea
Prior art keywords
image
input
feature
dimensional image
user
Prior art date
Application number
KR1020010027083A
Other languages
Korean (ko)
Other versions
KR20020031027A (en
Inventor
한희철
김현석
신승영
김은희
김갑동
Original Assignee
주식회사 씨알이에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨알이에스 filed Critical 주식회사 씨알이에스
Publication of KR20020031027A publication Critical patent/KR20020031027A/en
Application granted granted Critical
Publication of KR100618493B1 publication Critical patent/KR100618493B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야1. TECHNICAL FIELD OF THE INVENTION

본 발명은 3차원 영상 자동 생성 장치 및 그 방법에 관한 것임.The present invention relates to an apparatus and method for automatically generating 3D images.

2. 발명이 해결하려고 하는 기술적 과제2. The technical problem to be solved by the invention

본 발명은, 입력된 2차원 영상 정보로부터 3차원 영상을 자동 생성하여, 여러가지 형태로 사용자에게 제공하거나, 또는 인터넷망을 통한 부가 서비스에 응용하기 위한 3차원 영상 자동 생성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하고자 함.The present invention provides an apparatus and method for automatically generating a three-dimensional image for automatically generating a three-dimensional image from the input two-dimensional image information and providing it to a user in various forms, or applying it to an additional service through an internet network. To provide a computer-readable recording medium that records a program for realizing this.

3. 발명의 해결방법의 요지 3. Summary of Solution to Invention

본 발명은, 3차원 영상 자동 생성 장치에 있어서, 2차원 영상을 입력받기 위한 영상 입력 수단; 상기 영상 입력 수단으로부터 입력받은 2차원 영상의 특징을 추출하기 위한 특징 추출 수단; 기본 3차원 영상 모델 및 부가 정보를 저장하기 위한 저장 수단; 상기 특징 추출 수단에 의해 추출된 입력 영상의 특징을 이용하여 상기 저장 수단에 저장된 기본 3차원 영상 모델을 변형하기 위한 3D 변형 수단; 사용자로부터 필요한 사항을 입력받기 위한 사용자 입력 수단; 상기 사용자 입력 수단을 통해 입력된 내용에 따라 상기 저장 수단에 저장된 부가 정보와 상기 3D 변형 수단에 의해 변형된 영상을 합성하여 3차원 영상을 생성하기 위한 합성 수단; 및 상기 합성 수단에 의해 생성된 3차원 영상을 출력하기 위한 출력 수단을 포함함.According to an aspect of the present invention, there is provided an apparatus for automatically generating a 3D image, the apparatus comprising: image input means for receiving a 2D image; Feature extraction means for extracting a feature of the 2D image received from the image input means; Storage means for storing a basic three-dimensional image model and additional information; 3D deforming means for deforming a basic three-dimensional image model stored in the storage means by using features of the input image extracted by the feature extracting means; User input means for receiving a necessary item from a user; Synthesizing means for synthesizing the additional information stored in the storage means and the image deformed by the 3D deforming means according to the content input through the user input means to generate a three-dimensional image; And output means for outputting the 3D image generated by the synthesizing means.

4. 발명의 중요한 용도 4. Important uses of the invention                 

본 발명은 영상 생성 시스템 등에 이용됨.
The present invention is used for image generation system.

3차원 영상, 영상 생성, 자동 생성, 특징 추출, 가상현실3D image, image generation, automatic generation, feature extraction, virtual reality

Description

3차원 영상 자동 생성 장치 및 그 방법{The Apparatus and Method for Creating Three-Dimensional Image Automatically} Apparatus and Method for Creating Three-Dimensional Image Automatically}             

도 1a 는 본 발명에 따른 3차원 영상 자동 생성 장치의 일실시예 구성도.1A is a block diagram of an embodiment of an apparatus for automatically generating 3D images according to the present invention.

도 1b 는 본 발명에 따른 인터넷망을 이용한 3차원 영상 자동 생성 시스템의 일실시예 구성도.Figure 1b is a configuration diagram of an embodiment of a three-dimensional automatic image generation system using the Internet network according to the present invention.

도 2 는 본 발명에 따른 3차원 영상 자동 생성 방법의 일실시예 흐름도.2 is a flowchart illustrating an embodiment of a method for automatically generating a 3D image according to the present invention.

도 3a 는 본 발명에 따른 3차원 영상 자동 생성을 위한 2차원 영상 특징 추출부의 일실시예 구성도.3A is a block diagram of an embodiment of a 2D image feature extraction unit for automatically generating a 3D image according to the present invention.

도 3b 는 본 발명에 따른 3차원 영상 자동 생성을 위한 2차원 영상 특징 추출 방법의 일실시예 흐름도.3B is a flowchart illustrating a method of extracting a 2D image feature for automatically generating a 3D image according to the present invention.

도 3c 는 본 발명에 따른 3차원 영상 자동 생성을 위한 2차원 영상 특징 추출 방법의 일실시예 설명도.
Figure 3c is an embodiment explanatory diagram of a method for extracting a two-dimensional image feature for automatically generating a three-dimensional image according to the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

101 : 영상 입력부 102 : 특징 추출부101: image input unit 102: feature extraction unit

103 : 사용자 입력부 104 : 보정부 103: user input unit 104: correction unit                 

105 : 3D 변형부 106 : 데이터베이스105: 3D deformation unit 106: database

107 : 합성부 108 : 출력부
107: synthesis unit 108: output unit

본 발명은, 3차원 영상 자동 생성 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 입력된 2차원 영상 정보로부터 3차원 영상을 자동 생성하여, 여러가지 형태로 사용자에게 제공하거나, 또는 인터넷망을 통한 부가 서비스에 응용하기 위한 3차원 영상 자동 생성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다. The present invention relates to an apparatus and method for automatically generating a 3D image, and more particularly, to automatically generate a 3D image from input 2D image information, and to provide it to a user in various forms, or to add it through an internet network. The present invention relates to an apparatus for automatically generating a three-dimensional image for application to a service, and a method and a computer-readable recording medium recording a program for realizing the method.

가상현실(Virtual Reality)의 정의는 학자마다 다르지만, 대체로 '컴퓨터로 창조된 인조의 공간(Cyberspace)에서 인간이 현실감을 느끼는 것'이라고 할 수 있다. 이러한 가상현실을 구현하기 위해서는 여러 가지 환경이 갖추어져야 하는데, 그 중 하나가 사물의 3차원적 표현이다.  Although the definition of virtual reality varies from scholar to scholar, it can be said that human beings feel real in computer-generated cyberspace. In order to realize such a virtual reality, various environments must be prepared, one of which is a three-dimensional representation of an object.

하지만, 종래의 3차원 영상 생성 기술은 많은 비용과 많은 시간을 필요로 함으로써 널리 사용되지 못했으며, 또한 이로 인해, 다양한 활용성에도 불구하고 그 응용 분야에 있어 제약을 받아왔다는 문제점이 있었다.
However, the conventional 3D image generating technology has not been widely used because it requires a lot of cost and time, and because of this, there has been a problem that it has been limited in the application field despite various applications.

상기한 바와 같은 문제점을 해결하기 위하여 제안된 본 발명은, 입력된 2차원 영상 정보로부터 3차원 영상을 자동 생성하여, 여러가지 형태로 사용자에게 제공하거나, 또는 인터넷망을 통한 부가 서비스에 응용하기 위한 3차원 영상 자동 생성 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.
The present invention proposed to solve the problems described above, 3 to automatically generate a three-dimensional image from the input two-dimensional image information to provide to the user in various forms, or to apply to additional services over the Internet network 3 An object of the present invention is to provide an apparatus for automatically generating a dimensional image, a method thereof, and a computer-readable recording medium recording a program for realizing the method.

상기 목적을 달성하기 위한 본 발명의 장치는, 3차원 영상 자동 생성 장치에 있어서, 2차원 영상을 입력받기 위한 영상 입력 수단; 상기 영상 입력 수단으로부터 입력받은 2차원 영상의 특징을 추출하기 위한 특징 추출 수단; 기본 3차원 영상 모델 및 부가 정보를 저장하기 위한 저장 수단; 상기 특징 추출 수단에 의해 추출된 입력 영상의 특징을 이용하여 상기 저장 수단에 저장된 기본 3차원 영상 모델을 변형하기 위한 3D 변형 수단; 사용자로부터 필요한 사항을 입력받기 위한 사용자 입력 수단; 상기 사용자 입력 수단을 통해 입력된 내용에 따라 상기 저장 수단에 저장된 부가 정보와 상기 3D 변형 수단에 의해 변형된 영상을 합성하여 3차원 영상을 생성하기 위한 합성 수단; 및 상기 합성 수단에 의해 생성된 3차원 영상을 출력하기 위한 출력 수단을 포함하여 이루어진 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for automatically generating a 3D image, the apparatus comprising: image input means for receiving a 2D image; Feature extraction means for extracting a feature of the 2D image received from the image input means; Storage means for storing a basic three-dimensional image model and additional information; 3D deforming means for deforming a basic three-dimensional image model stored in the storage means by using features of the input image extracted by the feature extracting means; User input means for receiving a necessary item from a user; Synthesizing means for synthesizing the additional information stored in the storage means and the image deformed by the 3D deforming means according to the content input through the user input means to generate a three-dimensional image; And output means for outputting the 3D image generated by the synthesizing means.

또한, 본 발명의 방법은, 영상 생성 시스템에 적용되는 3차원 영상 자동 생성 방법에 있어서, 2차원 영상을 입력받아, 상기 입력받은 2차원 영상의 특징을 추출하는 제 1 단계; 상기 추출된 입력 영상의 특징 정보를 이용하여, 기 저장된 기 본 3차원 영상 모델을 변형하는 제 2 단계; 및 사용자로부터 입력된 필요 사항에 따라, 기 저장된 부가 정보와 상기 변형된 영상을 합성하여 3차원 영상을 생성하고 출력하는 제 3 단계를 포함한다.In addition, the method of the present invention, a method for automatically generating a three-dimensional image applied to the image generating system, the first step of receiving a two-dimensional image, and extracting the feature of the received two-dimensional image; A second step of modifying a previously stored basic three-dimensional image model by using the extracted feature information of the input image; And a third step of synthesizing the stored additional information and the modified image according to a requirement input from a user to generate and output a 3D image.

또한, 본 발명은, 프로세서를 구비한 영상 생성 시스템에, 프로세서를 구비한 영상 생성 시스템에, 2차원 영상을 입력받아, 상기 입력받은 2차원 영상의 특징을 추출하는 제 1 기능; 상기 추출된 입력 영상의 특징 정보를 이용하여, 기 저장된 기본 3차원 영상 모델을 변형하는 제 2 기능; 및 사용자로부터 입력된 필요 사항에 따라, 기 저장된 부가 정보와 상기 변형된 영상을 합성하여 3차원 영상을 생성하고 출력하는 제 3 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In addition, the present invention, the image generation system having a processor, the image generation system having a processor, receiving a two-dimensional image, the first function of extracting the features of the received two-dimensional image; A second function of modifying a pre-stored basic 3D image model by using feature information of the extracted input image; And a computer-readable recording medium having recorded thereon a program for realizing a third function of generating and outputting a three-dimensional image by synthesizing the stored additional information and the modified image according to a requirement input from a user. .

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

이하, 본 발명의 설명을 위한 실시예에 있어서는, 사람의 얼굴 영상만을 일례로 들어 설명하였으나, 본 발명이 사람의 얼굴 영상 뿐만 아니라 3차원 영상으로 변형하여 생성하고자 하는 모든 2차원 영상에 적용될 수 있음은 자명할 것이다.Hereinafter, in the exemplary embodiment for describing the present invention, only the human face image has been described as an example, but the present invention may be applied to all two-dimensional images to be transformed and generated into a three-dimensional image as well as a human face image. Will be self explanatory.

도 1a 는 본 발명에 따른 3차원 영상 자동 생성 장치의 일실시예 구성도이다.1A is a block diagram of an embodiment of an apparatus for automatically generating 3D images according to the present invention.

도 1a 에 도시된 바와 같이, 본 발명에 따른 3차원 영상 자동 생성 장치는, 2차원 영상을 입력받기 위한 영상 입력부(101), 상기 영상 입력부(101)로부터 입력 받은 2차원 영상의 특징을 추출하기 위한 특징 추출부(102), 사용자로부터 필요한 사항을 입력받기 위한 사용자 입력부(103), 상기 사용자 입력부(103)를 통해 입력된 내용에 따라 상기 특징 추출부(102)에 의해 추출된 특징 정보를 보정하기 위한 보정부(104), 기본 3차원 영상 모델 및 부가 정보를 저장하기 위한 데이터베이스(DB, 106), 상기 보정부(104)에 의해 보정된 입력 영상의 특징을 이용하여 상기 데이터베이스(106)에 저장된 기본 3차원 영상 모델을 변형하기 위한 3D 변형부(105), 상기 사용자 입력부(103)를 통해 입력된 내용에 따라 상기 데이터베이스(106)에 저장된 부가 정보와 상기 3D 변형부(105)에 의해 변형된 영상을 합성하여 3차원 영상을 생성하기 위한 합성부(107) 및 상기 합성부(107)에 의해 생성된 3차원 영상을 출력하기 위한 출력부(108)를 포함한다.As shown in FIG. 1A, the apparatus for automatically generating a 3D image according to the present invention includes extracting a feature of a 2D image received from the image input unit 101 and the image input unit 101 for receiving a 2D image. The feature extractor 102 for correcting the feature information extracted by the feature extractor 102 according to the contents input through the user input unit 103 and the user input unit 103 for inputting necessary items from the user. The correction unit 104, a basic three-dimensional image model and a database (DB, 106) for storing additional information, and a feature of the input image corrected by the correction unit 104 to the database 106. 3D deformer 105 for deforming the stored basic three-dimensional image model, by the 3D deformer 105 and the additional information stored in the database 106 according to the content input through the user input unit 103 Hyeongdoen synthesized image to an output unit 108 for outputting the 3D image generated by the three-dimensional composite unit 107 and the combining unit 107 for generating an image.

상기 각 구성부의 상세 구성 및 동작을 살펴보면 다음과 같다.Looking at the detailed configuration and operation of each component as follows.

먼저, 영상 입력부(101)는, 3차원 영상으로의 변형을 원하는 2차원 영상을 입력받기 위한 구성부로서, 일반적으로는 디지털 카메라가 사용되나, 만일 디지털 영상이 아닌 일반 영상을 변형하고자 할 경우에는 스캐너 등을 이용하여 디지털 영상으로 변환 후 입력할 수 있다.First, the image input unit 101 is a component for receiving a 2D image that is desired to be transformed into a 3D image. Generally, a digital camera is used. It can be input after converting to digital image using scanner.

다음으로, 특징 추출부(102)는, 상기 영상 입력부(101)를 통해 입력받은 2차원 영상을 3차원 영상으로 변환하기 위해 입력된 2차원 영상의 특징을 추출하는 구성부로서, 단 하나의 영상으로부터 얻은 특징 정보만으로도 3차원 영상을 생성하는 것이 가능하다. 즉, 필요한 특징 정보를 추출할 수 있는 2차원 영상이라면, 단 하나의 영상만으로도 3차원 영상의 생성을 가능하게 함으로써, 종래의 3차원 영상 생 성에 요구되던 많은 시간과 비용을 크게 절감할 수 있게 되었다.Next, the feature extractor 102 is a component that extracts a feature of the input 2D image to convert the 2D image input through the image input unit 101 into a 3D image. It is possible to generate a three-dimensional image only by the feature information obtained from the. That is, if the two-dimensional image that can extract the necessary feature information, by generating a three-dimensional image with only one image, it is possible to greatly reduce the time and cost required for the conventional three-dimensional image generation .

상기 특징 추출부(102)에서 수행되는 특징 추출의 상세 과정은, 아래의 도 3a 내지 도 3c 를 통해 살펴보기로 한다.A detailed process of feature extraction performed by the feature extraction unit 102 will be described with reference to FIGS. 3A to 3C below.

상기 특징 추출부(102)를 통해 추출된 입력 2차원 영상의 특징은 보정부(104)에서 보정된다. 즉, 사용자는 표시된 특징점의 위치가 적절한지를 판단하여, 적절하지 못할 경우, 사용자 입력부(103)를 통해, 추출된 특징점의 위치를 직접 수정할 수 있다.The feature of the input 2D image extracted by the feature extractor 102 is corrected by the corrector 104. That is, the user may determine whether the location of the displayed feature point is appropriate and, if not appropriate, directly modify the location of the extracted feature point through the user input unit 103.

다음, 상기 보정부(104)를 통해 보정된 특징 정보는 3D 변형부(105)로 입력되는데, 이때, 상기 3D 변형부(105)는, 상기 보정된 특징 정보를 이용하여, 데이터베이스(106)에 기 저장되어 있는 기본 3차원 영상 모델을 변형시키는 방법으로 3차원 영상을 얻는다.Next, the feature information corrected by the correction unit 104 is input to the 3D deformer 105, in which the 3D deformer 105 is input to the database 106 using the corrected feature information. A 3D image is obtained by transforming a previously stored basic 3D image model.

그리고 이렇게 얻어진 3차원 영상은, 다시 상기 데이터베이스(106)에 저장되어 있는 부가 정보와 합성됨으로써 완전한 3차원 영상으로 생성되게 되는데, 이때, 부가 정보는, 배경 화면 등의 기타 부가 영상 정보 외에 배경 음악과 같은 정보도 포함하며, 또한, 이 경우, 선택할 수 있는 부가 정보가 다수이면, 상기 사용자 입력부(103)를 통해 직접 사용자의 선택을 입력받을 수도 있다.The 3D image thus obtained is further synthesized with the additional information stored in the database 106 to generate a complete 3D image. In this case, the additional information may include background music and other additional image information such as a background screen. The same information is included, and in this case, if there are a plurality of additional information that can be selected, the user's selection may be directly input through the user input unit 103.

즉, 사람 얼굴 영상이 입력되었을 경우, 얼굴 정보 이외에 헤어 스타일이나 옷차림, 체형 등을 직접 사용자가 선택할 수 있도록 하여, 선택된 부가 정보와 생성된 3차원 얼굴 영상을 합성함으로써 완전한 3차원 캐릭터가 생성되게 된다.That is, when a human face image is input, a complete 3D character is generated by synthesizing the selected additional information and the generated 3D face image by allowing a user to directly select a hairstyle, dress, body type, etc. in addition to the face information. .

마지막으로, 상기의 과정을 통해 생성된 3차원 영상은 출력부(108)를 통해 출력되게 되는데, 이때, 상기 출력부(108)는, 컴퓨터 모니터나 프린터와 같은 기본적인 출력 수단 뿐만 아니라, 상기 생성된 3차원 영상 정보를 저장시키기 위한 디스크 드라이브나 씨디롬 라이터(CD-ROM Writer)기와 같은 기록매체 제작 수단이나, 통신망을 통해 전송할 수 있는 통신 중계 수단을 포함하는 개념이다.Finally, the 3D image generated through the above process is output through the output unit 108, wherein the output unit 108, as well as the basic output means such as a computer monitor or a printer, the generated It is a concept including a recording medium manufacturing means such as a disk drive or a CD-ROM writer for storing three-dimensional image information, or a communication relay means that can be transmitted through a communication network.

즉, 실시예와 같이, 사람 얼굴 영상이 입력되어, 사람의 3차원 영상이 생성되었을 경우, 사용자는 그 정보를 모니터나 프린터를 통해 확인 할 수 있음은 물론, 디스켓이나 씨디롬 같은 기록매체에 저장하여 제공받을 수도 있고, 또한 인터넷 망을 통해 전송함으로써 웹(Web) 상에서 다양한 형태로 이용할 수도 있다.That is, as in the embodiment, when a human face image is input and a three-dimensional image of a person is generated, the user can check the information through a monitor or a printer, and store the information on a recording medium such as a diskette or a CD-ROM. It may be provided, or may be used in various forms on the Web by transmitting through the Internet.

따라서, 상기의 장치는 자동판매기 형태로 제작되어, 제작된 디스켓이나 씨디롬을 판매하는 형태나, 캐릭터를 이용한 인터넷 콘텐츠(contents) 형태로 이용될 수 있을 것이다.Therefore, the apparatus may be manufactured in the form of a vending machine, and may be used in the form of selling the produced diskette or CD-ROM, or in the form of Internet content using a character.

도 1b 는 본 발명에 따른 인터넷망을 이용한 3차원 영상 자동 생성 시스템의 일실시예 구성도이다.1B is a block diagram of an embodiment of a 3D image automatic generation system using an internet network according to the present invention.

도 1b 에 도시된 바와 같이, 본 발명에 따른 인터넷망을 이용한 3차원 영상 자동 생성 시스템은, 인터넷 망(140)을 통해 다수의 영상 생성 장치(110)가 데이터베이스(130)가 연결된 서버(120)와 연결되어 구성된다.As shown in FIG. 1B, in the 3D image automatic generation system using the Internet network according to the present invention, a server 120 in which a plurality of image generating apparatuses 110 is connected to a database 130 through the Internet network 140 is provided. It is configured in connection with.

따라서 이러한 시스템은, 도 1a 를 통해 간략하게 설명했던 바와 같이, 영상 생성 장치(110)를 통해 생성된 영상 데이터를, 인터넷 망(140)을 통해 전송함으로써, 웹(Web) 상에서 다양한 형태로 활용할 수 있도록 한다.Therefore, such a system can be utilized in various forms on the web by transmitting image data generated through the image generating apparatus 110 through the internet network 140, as described briefly with reference to FIG. 1A. Make sure

도 2 는 본 발명에 따른 3차원 영상 자동 생성 방법의 일실시예 흐름도이다. 2 is a flowchart illustrating a method of automatically generating a 3D image according to the present invention.                     

도 2 에 도시된 바와 같이, 본 발명에 따른 3차원 영상 자동 생성 방법은, 2차원 영상이 입력되면(210), 입력된 영상의 특징을 추출한 후(220), 상기 추출된 특징이 적절한지를 판단하여(230) 적절하지 못할 경우 이를 보정하며(240), 만일 추출된 특징이 적절하다면, 이를 이용하여 3차원 변형을 수행한다(250).As shown in FIG. 2, in the method for automatically generating a 3D image according to the present invention, when a 2D image is input (210), after extracting a feature of the input image (220), it is determined whether the extracted feature is appropriate. If it is not appropriate (230) and corrects it (240), if the extracted feature is appropriate, it performs a three-dimensional deformation using it (250).

이때, 상기 입력된 영상의 특징을 추출하는 과정(220)은, 아래의 도 3a 내지 도 3c 를 통해 상세히 살펴보기로 하며, 상기 3차원 변형을 수행하는 방법(250)은, 상기 추출된 2차원 영상의 특징을 이용하여, 이미 저장되어 있는 기본 3차원 영상 모델을 변형시키는 방법으로 수행된다.In this case, the process of extracting the feature of the input image 220 will be described in detail with reference to FIGS. 3A to 3C below, and the method 250 for performing the 3D transformation is the extracted 2D Using the feature of the image, it is performed by transforming the basic three-dimensional image model already stored.

다음, 상기 3차원 변형된(250) 기본 영상에, 부가적인 정보를 합성하여 완전한 3차원 영상을 생성한 후(260), 이를 출력한다(270).Next, after generating the complete three-dimensional image by synthesizing additional information to the three-dimensional deformed 250 base image (260), and outputs it (270).

여기서, 합성되는(260) 부가적인 정보는, 배경 화면 등의 기타 부가 영상 정보 외에 배경 음악과 같은 정보도 포함하며, 또한, 이 경우, 선택할 수 있는 부가 정보가 다수이면, 사용자의 직접 입력을 통해 선택하도록 할 수도 있다.Here, the synthesized additional information 260 includes information such as background music in addition to other additional video information such as a background screen, and in this case, if there are a plurality of additional information that can be selected, You can also choose.

또한, 상기 출력 과정(270)은, 컴퓨터 모니터나 프린터와 같은 기본적인 출력 수단을 이용한 출력 뿐만 아니라, 상기 생성된 3차원 영상 정보를 저장시키기 위한 디스크 드라이브나 씨디롬 라이터(CD-ROM Writer)기 등을 통한 기록매체 제작이나, 통신망을 통한 전송 등을 모두 포함하는 개념이다.In addition, the output process 270, as well as output using a basic output means such as a computer monitor or a printer, a disk drive or a CD-ROM writer (CD-ROM writer) for storing the generated three-dimensional image information, etc. This is a concept that includes both recording media production and transmission through a communication network.

도 3a 는 본 발명에 따른 3차원 영상 자동 생성을 위한 2차원 영상 특징 추출부의 일실시예 구성도이며, 도 3b 는 그에 따른 흐름도이고, 도 3c 는 그 각각의 과정의 결과로써 생성되는 영상의 예시도이다. 3A is a block diagram of an embodiment of a 2D image feature extraction unit for automatically generating a 3D image according to the present invention, FIG. 3B is a flowchart according to the present invention, and FIG. 3C is an example of an image generated as a result of each process. It is also.                     

전술한 바와 같이, 이하 도 3a 내지 도 3c 의 설명을 통해, 도 1a 의 특징 추출부(102)와 도 2 의 특징 추출 과정(220)을 상세히 살펴보기로 한다.As described above, the feature extraction unit 102 of FIG. 1A and the feature extraction process 220 of FIG. 2 will be described in detail with reference to FIGS. 3A to 3C.

3차원 영상으로 변형하여 생성하고자 하는 2차원 영상이 무엇인지에 따라 추출하여야 하는 특징은 각각 달라질 것이나, 본 발명의 일실시예에서는 사람의 얼굴 영상을 그 예로 하였으며, 그에 따라, 2차원 영상으로부터 추출하여야 하는 특징들은, 얼굴의 외곽선, 눈의 크기 및 위치, 코의 크기 및 위치, 입의 크기 및 위치로 한정하였다.The features to be extracted will vary depending on what the 2D image is to be transformed into a 3D image, but in one embodiment of the present invention, a human face image is taken as an example. Features that should be limited to the outline of the face, the size and position of the eyes, the size and position of the nose, the size and position of the mouth.

상기한 특징들 이외에 광대뼈의 돌출이나 눈썹의 모양 등 여러 가지 요소들이 사람의 인상을 결정짓는데 요소로써 작용될 것이나, 가장 큰 특징적인 것은 위와 같은 4가지 요소라고 한정지었으며, 이는 광대뼈의 경우 현재의 이미지 프로세싱 기술로는 정확한 검출에 어려움이 따르기 때문이며, 눈썹의 경우는 돌출의 크기가 미미함으로써 단순 텍스처 매핑만으로 유사하게 처리할 수 있기 때문이다.In addition to the above features, various factors such as the protrusion of the cheekbones and the shape of the eyebrows will act as factors in determining the impression of the person, but the biggest characteristic is limited to the above four elements. This is because the image processing technique has difficulty in accurate detection, and the eyebrows can be similarly processed by simple texture mapping because of the small protrusion size.

하지만, 위의 4가지 요소 뿐만 아니라, 그 외에 특징이 될만한 요소의 추가와 삭제는 얼마든지 가능할 것이다.However, it is possible to add and remove not only the above four elements but also other characteristic elements.

일단 특징점이 결정되면, 도 3a 내지 도 3c 에 도시된 바와 같이, 본 발명에 따른 3차원 영상의 생성을 위한 2차원 영상의 특징을 추출하기 위해서는 먼저 영역 검출부(301)를 통해 얼굴 영역을 검출하여야 하는데(310), 본 발명에서는 이를 위하여 블루스크린을 이용하였다.Once the feature point is determined, as shown in FIGS. 3A to 3C, in order to extract the feature of the 2D image for generating the 3D image according to the present invention, the face area must first be detected by the area detector 301. (310), the present invention used a blue screen for this purpose.

물론, 배경이 복잡하거나 단순한 경우에도 종래의 여러 가지 방법을 사용하여 특징점을 검출할 수는 있으나, 최근의 연구에서 조차도 그 인식률이 떨어져 한 정된 조건을 이용하는 경우가 많으며, 따라서 본 발명에서는 얼굴의 특징점을 검출하는데 중점을 두기 보다는 한 장의 정면 영상을 이용해 입력 영상과 유사한 3차원 모델링을 하는 것에 중점을 두었기 때문에 블루스크린을 이용한 얼굴 영역 검출 방법을 택하였다.Of course, even if the background is complex or simple, it is possible to detect the feature points using a variety of conventional methods, but even in recent studies, the recognition rate is often lowered and thus a limited condition is used. Rather than focusing on the detection, we focused on three-dimensional modeling similar to the input image using a single frontal image.

블루스크린을 사용하기 위해서는 컬러 이미지 프로세싱을 해야 한다. To use a blue screen, you need to do color image processing.

종래에 널리 사용되고 있는 컬러 스페이스(Color Space)는 RGB 좌표계이지만, RGB 좌표계는 색상 성분과 밝기 성분이 함께 혼용되어 있음으로 인해, 이미지 프로세싱을 수행할 경우, 밝기의 변화가 오인식의 주요 원인이 되고 있다. 그러므로 밝기 성분을 분리하여 사용하는 것이 보다 효과적인데, 밝기 성분과 색상 성분이 분리되어 있는 좌표계로는 YIQ, YUV, HSI가 주로 사용되며, 본 발명의 일실시예에서는 HSI 좌표계를 사용하였다.Color Space, which is widely used in the related art, is an RGB coordinate system, but since the RGB coordinate system is a mixture of color and brightness components, a change in brightness is a major cause of misperception when performing image processing. . Therefore, it is more effective to separate and use the brightness component, YIQ, YUV, HSI is mainly used as the coordinate system in which the brightness component and the color component are separated, in one embodiment of the present invention used the HSI coordinate system.

다음으로는, 흑백화부(302)에서 상기 얼굴 영역이 검출된 2차원 영상(311)에 대해 흑백화를 수행한다(320).Next, the monochromeization unit 302 performs monochromeization on the 2D image 311 in which the face region is detected (320).

본 발명에서 사용되는 입력 영상은, 차후 3차원 텍스처 매핑을 위하여 컬러 영상을 입력받지만, 특징점 검출 방법에 있어서는 흑백 영상을 대상으로 하여도 무방하기 때문이다. This is because, although the input image used in the present invention receives a color image for 3D texture mapping in the future, the feature point detection method may be a black and white image.

그리고, 상기의 흑백화 과정이 완료된 2차원 영상(321)에 대해, 가우시안 스무딩 필터(Gaussian smoothing filter, 303)를 이용해 가우시안 스무딩(Gaussian Smoothing) 과정을 수행한다(330).In operation 330, the Gaussian smoothing process is performed on the 2D image 321 in which the black and whitening process is completed using a Gaussian smoothing filter 303.

상기 가우시안 스무딩 필터(303)는 분산되어 있는 잡음을 제거하는데 있어 매우 효율적인 필터로써, 각 픽셀(pixel)에 각각 다른 웨이트(weight)를 가지고 곱한 다음, 웨이트(weight) 값 전체의 합을 나누는 처리를 수행하여, 일반적으로 흑백값으로 튀는 값을 부드럽게 만들어 준다.The Gaussian smoothing filter 303 is a very efficient filter for removing distributed noise. The Gaussian smoothing filter 303 multiplies each pixel with a different weight, and then divides the total of the weight values. To smooth out the splashes, typically in black and white.

이때, 본 발명에서는, 5*5 크기의 필터를 사용함으로써, 계산 시간과 잡음 제거의 효율성이라는 두 가지 문제를 동시에 해결하고자 하였다.At this time, in the present invention, by using a filter of the size 5 * 5, to solve both problems of the computation time and the efficiency of noise cancellation at the same time.

상기 가우시안 스무딩(Gaussian Smoothing) 과정을 통해 일차 잡음이 제거된 영상(331)은, 다시 콘트라스트(Contrast) 조절부(304)에 의한 콘트라스트 조절 과정을 통해(340) 이차 잡음이 제거된다.In the image 331 in which the primary noise is removed through the Gaussian smoothing process, the secondary noise is removed through the contrast adjusting process by the contrast adjusting unit 304 (340).

화면의 밝은 부분과 어두운 부분의 밝기 비율을 콘트라스트(Contrast)라 하는데, 콘트라스트가 높은 화상은 피사체의 윤곽이 선명하여 보기 쉬운 화상으로 되는데 콘트라스트가 낮은 화상은 윤곽이 또렷하지 않으므로 보기 쉬운 화상으로 되지 않는다. 즉, 콘트라스트가 낮은 화상은 밝은 부분을 더 밝게, 어두운 부분을 더 어둡게 하는 식으로 변환을 함으로써 콘트라스트를 강조하여 보다 처리하기 쉬운 영상으로 변환시킬 수 있다.Contrast is the ratio between the light and dark areas of the screen. Contrast is a high-contrast image that is easy to see because the outline of the subject is clear. Low-contrast images do not become easy to see because the outline is not clear. . That is, an image with low contrast can be converted into an image that is easier to process by emphasizing contrast by converting the bright part to be brighter and the dark part to be darker.

다시말해, 얼굴의 특징적인 부분과 특징적이지 않는 부분들은 흑백 영상에서 명확한 대비가 생기므로, 이를 좀 더 강조시켜 인식을 용이하게 할 수 있다. In other words, the characteristic and non-characteristic parts of the face have a clear contrast in the black and white image, so that the emphasis can be further emphasized to facilitate recognition.

일반적인 콘트라스트는 다음의 <수학식 1>과 같이 표현된다.
General contrast is expressed as Equation 1 below.

g(x, y) = nf(x, y) g (x, y) = nf (x, y)

원화상의 위치 (x, y)에 있어 화소의 농도 f(x, y)를 n배하여, 처리 화상의 (x, y)에 있어 농도 g(x, y)로 하고 있다. The density f (x, y) of the pixel is n times the position (x, y) of the original image, and the density g (x, y) is set at (x, y) of the processed image.

화상 데이터는 1화소 8비트의 크기로 다루기 때문에 표현할 수 있는 농도의 범위는 0에서 255까지이다. 그래서 계산의 결과가 255를 넘을 경우에는 계산의 결과에 관계없이 255로 제한하게 된다.Since image data is treated as one pixel and 8 bits in size, the range of density that can be expressed is from 0 to 255. Thus, if the result of a calculation exceeds 255, it is limited to 255 regardless of the result of the calculation.

본 발명에서는 이를 약간 변형 시켜 다음의 <수학식 2>와 같은 식을 사용하고 있다.
In the present invention, by slightly modifying it, the following equation (2) is used.

(x, y) = f(x, y)+( f(x, y)-128)* Cv/128(x, y) = f (x, y) + (f (x, y) -128) * Cv / 128

이는 이진화 시 경계값을 강조시키기 위한 방법으로, 기본적인 처리에서 명암 대비가 낮은 영상은 본 명암보다 어둡게하고 밝은 영상은 더욱 밝게 만들어 주기 위함이다. This is a method for emphasizing the boundary value in binarization. In the basic processing, the low contrast image is darker than the contrast and the bright image is brighter.

즉, 각 픽셀(pixel)의 최대 명암값이 255이므로, 여기에서 중간값인 128을 빼어 원래의 값에 더하게 함으로써, 128일 경우 원래 값을, 128보다 클 경우 가중값을 플러스(+)로, 128보다 작을 경우 가중값을 마이너스(-)로 함으로써 이러한 역할을 하게 된다. That is, since the maximum contrast value of each pixel is 255, the median value 128 is subtracted from this and added to the original value, so that the original value is 128 and the weight value is positive (+). If the value is less than 128, the weight is made negative to play this role.

그리고 여기에 Cv라는 파라메터(parameter)를 두어 유동적인 처리를 고려하 였으나, 본 발명에서는 이 값을 실험적으로, 90으로 하였다.In addition, a parameter called Cv was placed here to allow fluid treatment, but in the present invention, this value was experimentally set to 90.

상기한 바와 같이, 흑백화 된 영상(321)의 잡음을 줄이기 위하여 본 발명에서는 두가지의 처리를 하였는데, 그 첫번째가 상기 가우시안 스무딩(Gaussian Smoothing) 과정(330)이며, 두번째가 콘트라스트 조절 과정(340)이다. As described above, in order to reduce the noise of the black-and-white image 321, two processes are performed in the present invention. The first is the Gaussian Smoothing process 330, and the second is the contrast adjustment process 340. to be.

본 실시예와 같은 사람 얼굴의 영상에서는, 주위 피부와 명암도 면에서 큰 차이가 나며 그 영역이 얼굴의 부분에서 꽤 큰 영역을 차지하므로 전체적으로 스무딩(Smoothing) 처리를 하게 되면 작은 잡음들은 사라지게 되고, 다시 그 영상에 대해 콘트라스트 과정을 수행하면 경계가 부드러워진 각 특징점들을 강조 시켜 주게 된다.In the image of the human face as in the present embodiment, there is a big difference in terms of the surrounding skin and contrast, and since the area occupies a fairly large area in the face part, when the smoothing process is performed as a whole, small noises disappear. Performing a contrast process on the image emphasizes each feature point with smooth boundaries.

다음, 상기 콘트라스트(Contrast) 과정이 수행된 2차원 영상(341)에 대해, 블록 이진화(Block Binary)부(305)에서는 블록 이진화 과정을 수행한다(350).Next, the block binarization unit 305 performs the block binarization process on the 2D image 341 on which the contrast process is performed (350).

이진화(Binary)는, 256 단계의 명도 값을 가지고 있는 흑백 영상에서 임계값을 기준으로 검정색과 흰색을 구분하는 기법으로써, 일반적으로 명암값이 고르게 분포되어 있고 화질이 좋은 영상이라면 문제가 없지만, 영상 자체에 손상이 많이 있고 명암 분포가 불규칙한 영상이라면 하나의 임계값으로는 그 영상에 대한 최적의 이진화 영상을 얻을 수 없게 된다. Binary is a method of dividing black and white based on a threshold value from a black and white image having 256 levels of brightness. Generally, if the image is evenly distributed and the image quality is good, there is no problem. If the image has a lot of damage and an irregular distribution, the optimal binarization image for the image cannot be obtained with one threshold.

즉, 기본적인 이진화 기법은 전체의 영상에 대해 하나의 임계값을 사용하므로 그늘진 부분(예를 들어, 턱 밑)의 명암값이 전체 영상의 명암값과 차이가 많이 난다면, 원하는 결과 영상을 얻을 수 없게 된다. That is, the basic binarization technique uses one threshold for the whole image, so if the contrast value of the shaded part (for example, the lower jaw) is different from the contrast value of the entire image, the desired result image can be obtained. There will be no.

따라서, 부분적인 특징이 강한 영상에 대해서는 각 부분 마다의 임계값을 설 정해주어야 하는데, 이를 위해 본 발명의 실시예에서는, 종래의 여러 가지의 개선된 알고리즘 중 블록 이진화(Block Binary) 기법을 사용하였다. Therefore, the threshold value for each part should be set for an image having a strong partial feature. In this embodiment of the present invention, a block binarization technique is used. .

상기 블록 이진화(Block Binary) 기법은, 원하는 크기의 블록을 설정하고 그 블록 마다의 명암값을 고려하여 임계값을 설정하는 방법으로, 각 블록마다 특정한 임계값을 가질 수 있게 함으로써, 사람 얼굴 영상의 경우, 턱 이나 코 아래 등에서 나타나는 그림자 부분을 효과적으로 처리할 수 있다. 즉, 그림자 부분이 자체 블록으로 처리됨으로 전체적인 명암의 영향을 덜 받게 된다. The block binarization technique is a method of setting a block having a desired size and setting a threshold value in consideration of a contrast value of each block, so that each block may have a specific threshold value. If you do, you can effectively handle the shadows that appear on your chin or under your nose. In other words, the shadow part is processed by its own block, so the overall contrast is less affected.

하지만, 본 발명의 실시예와 같은, 사람 얼굴 영상의 특징점 추출 과정은, 물체의 덩어리를 인지하여 처리하므로 블록 이진화 처리된 영상만으로는 오류가 있을 확률이 많다. 왜냐하면, 이미지 프로세싱의 특성상 1 픽셀(pixel) 정도만 떨어져 있어도, 프로세서는 서로 다른 부분이라고 인식하기 때문이다. However, since the feature point extraction process of the human face image, such as the embodiment of the present invention, recognizes and processes a mass of an object, only the block binarized image may have an error. This is because, due to the nature of image processing, even if only one pixel is separated, the processor recognizes different parts.

이를 위하여, 상기 블록 이진화된 영상(351)에 대해, 라인 세그멘트(Line Segment)부(306)를 통해 라인 세그멘트 과정을 수행한다(360). To this end, a line segment process is performed on the block binarized image 351 through a line segment unit 306 (360).

라인 세그멘트(Line Segment) 과정은, 수평적으로 서로 떨어진 라인(Line) A와 B에 대하여, 상기 두 라인의 간격이 정해진 세그멘트 값(Segment Value) 이하일 때 상기 두 라인을 연결하도록 하는 과정으로써, 본 발명에서는 실험상으로 상기 세그멘트 값(Segment Value)을 5로 하였다. 즉, 서로 5 픽셀(pixel) 이하의 거리 차이가 있는 직선들은 서로 연결시키도록 하였다. The line segment process is a process of connecting the two lines when the distance between the two lines is less than a predetermined segment value for the lines A and B horizontally separated from each other. In the present invention, the segment value was set to 5 in an experiment. That is, straight lines having a distance difference of less than 5 pixels are connected to each other.

이는, 입력영상이 640*480 정도이며, 촬영 거리의 제약을 두었기 때문에 흔히 떨어져 처리되기 쉬운 눈, 코 ,입 등의 주요 특징점들의 최대 거리가 5 픽셀(pixel)을 넘지 않는다는 실험상의 결과 때문이나, 입력영상과 촬영 거리 등의 제반 조건에 따라, 상기 세그멘트 값(Segment Value)은 적당히 조절되어질 수 있을 것이다.This is because of the experimental result that the maximum distance of the main feature points such as eyes, nose and mouth, which are easy to be separated because the input image is about 640 * 480 and limited the shooting distance, does not exceed 5 pixels. According to various conditions such as the input image and the shooting distance, the segment value may be appropriately adjusted.

상기 라인 세그멘트 과정이 수행된 영상(361)에 대해, 레이블링 및 크기 검증(Verify Size)부(307)에서는 서로 상하좌우로 떨어져 있는 영역들에 레이블을 매겨 순서화 한 후, 각 레이블의 크기를 검증(Verify Size)하는 기능을 수행한다(370). For the image 361 in which the line segment process is performed, the labeling and verifying size unit 307 labels and orders the areas spaced apart from each other, and then verifies the size of each label. Verify Size) (370).

상기의 과정을 수행하기 위해서는, 각 레이블에 대한 높이의 최대, 최소값, 길이의 최대, 최소값 등을 정해야 하는데, 본 발명의 실시예에서는 실험에 의해 다음과 같은 조건을 사용하였다. In order to perform the above process, it is necessary to determine the maximum, minimum, maximum and minimum values of height for each label. In the embodiment of the present invention, the following conditions were used by experiment.

레이블의 최대 넓이(Max Width) : 20 픽셀(pixel)Max Width of Label: 20 pixels

레이블의 최소 높이(Min Height) : 5 픽셀(pixel)Min Height of Label: 5 pixels

레이블의 최대 높이(Max Height) : 100 픽셀(pixel)Max Height of Label: 100 pixels

레이블의 넓이(길이와 높이를 곱한 값)의 최소값 : 50 Minimum width of label (length multiplied by height): 50

레이블의 넓이(길이와 높이를 곱한 값)의 최대값 : 800Maximum width of label (multiplied by length and height): 800

상기의 수치들은 640*480의 정면 정지 영상을, 카메라로부터 80cm 떨어진 거리를 기준으로 10cm 이내의 오차를 인정하고 촬영하였을 때, 100명의 실험 대상의 통계치를 구하여 평균적으로 수치화한 것으로, 이러한 과정을 통하여 얻어진 영상이 도 3c 의 371 이다.The above figures were obtained by quantifying the average of 100 test subjects when the front still image of 640 * 480 was recognized with error within 10cm from the distance of 80cm from the camera. The obtained image is 371 of FIG. 3C.

상기 영상에 대한 레이블 크기의 검증(Verify Size) 과정(370)을 마치면, 특 징점 추출부(308)에 의해, 기하학적인 위치 특징을 이용한 눈, 코, 입의 검출 과정을 수행하게 된다(380).After the verification of the label size for the image (Verify Size) process 370, the feature extraction unit 308 performs a process of detecting the eyes, nose and mouth using the geometric position feature (380) .

일반적으로 눈, 코, 입의 검출에 있어서는, 눈을 먼저 찾은 후, 기하학적인 위치 특징을 이용하여 다른 부분을 찾는 방식을 많이 사용하게 되는데, 이는 사람의 얼굴이라는 특수한 환경에서 가장 검출하기 쉬운 부분이 좌우로 대칭을 이루고 있는 눈이며, 이를 찾은 후에는 코, 입의 경우 그 아래에 있다는 위치적인 정보를 이용할 수 있기 때문이다.In general, in the detection of eyes, nose and mouth, the eyes are first searched, and then a number of methods are used to find other parts by using geometric position features, which is the most detectable part in a special environment of a human face. This is because the eyes are symmetrical from side to side, and after finding them, you can use the positional information that the nose and mouth are below them.

눈은 얼굴 상에서 항상 쌍을 이루게 된다는 점을 이용하여, 먼저 하나의 레이블을 선택한 후, 수평 방향으로 크기의 변화가 크게 다르지 않은 레이블의 쌍이 있는지를 검사하여, 있을 경우 이를 눈의 후보로 채택한다. Taking advantage of the fact that the eyes are always paired on the face, first select one label, then check whether there are pairs of labels whose size does not vary greatly in the horizontal direction, and adopt them as candidates for the eyes.

이러한 방식을 이용할 경우 눈썹과 눈이 구별되지 않기 때문에, 본 발명의 일실시예에서는 이렇게 쌍이 되는 부분들의 가장 최상을 눈썹으로 두었으며, 그 아래쪽 쌍을 눈으로 두었고, 단지 하나의 쌍만이 존재할 경우에는 그것을 눈으로 검출하도록 하였다. Since the eyebrow and the eye are not distinguished when using this method, in one embodiment of the present invention, the best of these paired parts is the eyebrow, the lower pair is the eye, and only one pair exists It was detected by eye.

상기의 방법이 가능한 까닭은, 이미 크기 검증(Verify Size) 처리 후 제거된 영상 중, 위에서부터 이러한 쌍을 이루고 있는 부분은 눈썹과 눈일 확률이 가장 높기 때문이다.The above method is possible because the part which has been paired from above among the images already removed after the verify size processing has the highest probability of being an eyebrow and an eye.

이렇게 검출된 눈을 기본으로 하여, 양 눈의 중앙에 위치하며 눈의 아래부분에 위치되는 것을 코라고 인지하도록 하였으며, 그 아래부분에 나타나는 영역을 입으로 검출하였다. 지금과 같은 처리방식에 의할 경우, 눈과 코, 입 사이에 다른 특 징적인 부분이 나타날 경우가 거의 없기 때문이다.Based on the detected eyes, the nose located at the center of both eyes and located at the bottom of the eyes was recognized as a nose, and the area appearing below was detected by the mouth. This is because, with the current treatment, there are few other distinctive features between the eyes, nose and mouth.

상기의 과정을 통하여 얻어진 영상이, 도 3c 의 381, 382 이다.The images obtained through the above process are 381 and 382 of FIG. 3C.

다음, 마지막으로 얼굴 외곽을 검출하게 되는데(390), 본 발명의 일실시예에서 사용하는 얼굴 외곽 정보는, 크게 사람의 인상을 결정짓는 턱 선 등의 얼굴 외곽이 급격히 변화되는 부분에 대한 정보만 있으면 충분하므로, 검출된 눈의 위치부분에서 수평으로 직선(391의 1)을 그은 후 얼굴 영역의 끝점과 만나는 점(391의 a)으로 그 사람의 전체적인 얼굴 좌우 길이를 알 수 있으며, 검출된 입의 위치 부분에서 수평으로 직선(391의 2)을 그어 얼굴 영역의 끝점과 만나는 점(391의 b), 그리고 입술의 중앙에서 수직으로 직선(391의 3)을 그은 후, 가장 명암도가 높은 부분의 점(391의 c)을 이용하여 얼굴 외곽의 특징을 구할 수 있다.Next, finally, the outside of the face is detected (390), the information of the outside of the face used in an embodiment of the present invention is only information on the part where the outside of the face is rapidly changed, such as a jaw line that greatly determines the impression of the person. Since it is sufficient, the straight line 391 1 is drawn horizontally at the position of the detected eye, and the point 339 a that meets the end point of the face area shows the overall left and right length of the face of the person. Draw a straight line (2 of 391) horizontally at the position of to meet the end point of the face area (b of 391), and a straight line (3 of 391) vertically from the center of the lips, and then Using the point 391c, the facial outline may be obtained.

도 3c 의 391 영상에서, (a)점과 (b)점을 알아내는 것에는 큰 어려움이 없다. 왜냐하면, 이미 블루 스크린을 이용한 전처리 과정에서 얼굴 영역만이 추출되어 있는 상태에서 상기의 각 과정을 수행하므로, 눈과 입의 위치만 검출된다면 그 수평 좌표와 얼굴 영역의 끝점의 교점을 찾는 것은 용이하기 때문이다.In the 391 image of FIG. 3C, it is not difficult to find the points (a) and (b). Because the above process is performed in the state that only the face area is extracted in the preprocessing process using the blue screen, it is easy to find the intersection point of the horizontal coordinate and the end point of the face area if only the position of the eye and mouth is detected. Because.

하지만 턱선을 찾는 과정에서, 턱과 목 사이의 구분이 잘 안되는 경우가 종종 있기 때문에, 본 발명의 실시예에서는 다음과 같은 처리 과정을 거쳤다.However, in the process of finding the jaw line, the separation between the jaw and the neck is often difficult, so the embodiment of the present invention went through the following process.

먼저, 입 영역의 중점을 기준으로 좌우 5 픽셀(pixel)씩, 즉 가로 방향 10 픽셀(pixel)과, 상기 입 영역의 아래부분과 수직으로 얼굴 영역이 끝나는 점을 세로축으로 하는 직사각형 후보 영역을 정한다.First, a rectangular candidate area is determined based on the middle point of the mouth area by 5 pixels left and right, that is, 10 pixels horizontally, and a point where the face area ends vertically with the lower part of the mouth area. .

다음, 상기 후보 영역에 대해, 위에서 아래로 가로 축의 합을 구하여 아래와 같은 두가지 조건이 만족될 때, 이를 턱선으로 추정한다.Next, the sum of the horizontal axes from the top to the bottom for the candidate area is estimated when the following two conditions are satisfied.

1) 연결되는 가로축의 합의 차가 2배 이상인 가로축이 존재할 때 1) When there is a horizontal axis where the difference in sum of the connected horizontal axes is more than twice

2) 이 가로축의 영역이 5 픽셀(pixel) 이상 계속될 때2) When the area of this horizontal axis continues more than 5 pixels

그리고 머리 위 부분의 끝은 블루 스크린 제거 후 블루 스크린 영역을 검정으로 채운 후 전처리를 하기 때문에, 기본적인 얼굴 영역은 머리를 제외한 부분이 된다. 따라서 이마와 머리카락이 만나는 부분이 머리 위 끝부분으로 지정되는 것이다. The top of the head is pre-processed after filling the blue screen with black after removing the blue screen. Therefore, the part where the forehead and the hair meet is designated as the tip of the head.

이를 위하여 똑같은 방법으로, 눈 영역 위쪽의 중점에서 좌우로 가로 10 픽셀(pixel)의 가로 축의 합을 구해, 이 값이 이전 값보다 3배 이상 커지는 영역이 5 픽셀(pixel) 이상 계속될 때, 그 첫 가로축을 머리 위 끝부분으로 추정하였다.To do this, in the same way, add up the horizontal axis of 10 pixels horizontally from the midpoint above the eye area, so that when an area where this value is more than three times larger than the previous value continues for more than 5 pixels, The first horizontal axis was assumed to be the top of the head.

도 3c 의 392 영상이, 본 발명의 일실시예에서 사용된 특징점 검출 방법을 이용하여 (a)점과 (b)점을 나타내는 수직선 2개와 (c)점을 나타내는 수평축 1개로 이루어진 사각형으로 나타내어진 얼굴 영역이다. The 392 image of FIG. 3C is represented by a rectangle composed of two vertical lines representing points (a) and (b) and one horizontal axis representing point (c) using the feature point detection method used in the embodiment of the present invention. Face area.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.
The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains, and the above-described embodiments and accompanying It is not limited to the drawing.

상기한 바와 같은 본 발명은, 2차원 영상으로부터 3차원 영상을 생성함에 있어, 필요한 특징 정보를 추출할 수 있는 2차원 영상이라면, 단 하나의 영상만으로 3차원 영상을 자동 생성하는 것을 가능하게 함으로써, 보다 저렴한 비용과 빠른 속도로 3차원 영상을 생성할 수 있게 하는 효과가 있다.The present invention as described above, in generating a three-dimensional image from a two-dimensional image, by making it possible to automatically generate a three-dimensional image with only one image, if the two-dimensional image that can extract the necessary feature information, There is an effect that can generate a three-dimensional image at a lower cost and faster speed.

또한, 본 발명은, 생성된 3차원 영상을 인터넷망을 통해 전송할 수 있도록 함으로써, 게임이나 이메일(E-mail)을 포함하는 미디어(media) 산업뿐만 아니라 TV 나 가상현실 등의 분야에서 폭넓게 활용할 수 있는 효과가 있다.In addition, the present invention, by allowing the generated three-dimensional image to be transmitted through the Internet network, it can be widely used in the field of TV and virtual reality, as well as the media industry including games and e-mail (E-mail). It has an effect.

Claims (12)

3차원 영상 자동 생성 장치에 있어서,In the 3D image automatic generation device, 2차원 영상을 입력받기 위한 영상 입력 수단;Image input means for receiving a two-dimensional image; 상기 영상 입력 수단으로부터 입력받은 2차원 영상의 특징을 추출하기 위한 특징 추출 수단;Feature extraction means for extracting a feature of the 2D image received from the image input means; 기본 3차원 영상 모델 및 부가 정보를 저장하기 위한 저장 수단;Storage means for storing a basic three-dimensional image model and additional information; 상기 특징 추출 수단에 의해 추출된 입력 영상의 특징을 이용하여 상기 저장 수단에 저장된 기본 3차원 영상 모델을 변형하기 위한 3D 변형 수단; 3D deforming means for deforming a basic three-dimensional image model stored in the storage means by using features of the input image extracted by the feature extracting means; 사용자로부터 필요한 사항을 입력받기 위한 사용자 입력 수단;User input means for receiving a necessary item from a user; 상기 사용자 입력 수단을 통해 입력된 내용에 따라, 상기 저장 수단에 저장된 부가 정보와 상기 3D 변형 수단에 의해 변형된 영상을 합성하여 3차원 영상을 생성하기 위한 합성 수단; 및Synthesizing means for synthesizing the additional information stored in the storage means and the image deformed by the 3D deforming means according to the content input through the user input means to generate a three-dimensional image; And 상기 합성 수단에 의해 생성된 3차원 영상을 출력하기 위한 출력 수단Output means for outputting the 3D image generated by the synthesizing means 을 포함하는 3차원 영상 자동 생성 장치.3D image automatic generation device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 사용자 입력 수단을 통해 입력된 내용에 따라, 상기 특징 추출 수단에 의해 추출된 특징 정보를 보정하기 위한 보정 수단Correction means for correcting the feature information extracted by the feature extraction means according to the content input through the user input means 을 더 포함하는 3차원 영상 자동 생성 장치.3D image automatic generation device further comprising. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 특징 추출 수단은,The feature extraction means, 2차원 영상을 입력받아 필요한 영역을 검출하기 위한 영역 검출 수단;Area detection means for receiving a two-dimensional image and detecting a required area; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하기 위한 잡음 제거 수단;Noise removing means for removing noise with respect to the two-dimensional image in which the region is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하기 위한 이진화 수단;Binarization means for binarizing the noise-free two-dimensional image; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하기 위한 라인 세그멘트 수단;Line segment means for performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하기 위한 레이블링 및 크기 검증 수단; 및Labeling and size verification means for assigning a label to the image on which the line segment has been performed and for verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하기 위한 특징점 추출 수단을 포함하는 것을 특징으로 하는 3차원 영상 자동 생성 장치.And feature point extracting means for extracting feature points by using geometric position information of the image of which the label size verification is completed. 제 3 항에 있어서,The method of claim 3, wherein 상기 특징 추출 수단은,The feature extraction means, 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하기 위한 흑백화 수단을 더 포함하는 것을 특징으로 하는 3차원 영상 자동 생성 장치.If the input 2D image is a color image, the apparatus for automatically generating 3D images, characterized in that it further comprises a black and whiteization means for performing the black and white for the input 2D image. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 저장 수단은,The storage means, 기본 3차원 영상 모델 외에 사용자의 취향에 따라 선택 가능한 부가적인 영상 정보뿐만 아니라, 음악 정보 등의 필요한 부가 정보를 저장하는 것을 특징으로 하는 3차원 영상 자동 생성 장치.An apparatus for automatically generating 3D image, characterized in that it stores not only additional image information selectable according to a user's preference but also additional information such as music information, in addition to the basic 3D image model. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 출력 수단은,The output means, 컴퓨터 모니터나 프린터와 같은 기본적인 출력 수단 뿐만 아니라, 상기 생성된 3차원 영상 정보를 저장시키기 위한 디스크 드라이브나 씨디롬 라이터(CD-ROM Writer)기와 같은 기록매체 제작 수단이나, 통신망을 통해 전송할 수 있는 통신 중계 수단 등을 포함하는 것을 특징으로 하는 3차원 영상 자동 생성 장치.In addition to basic output means such as a computer monitor or a printer, a recording medium manufacturing means such as a disk drive or a CD-ROM writer for storing the generated 3D image information, or a communication relay that can be transmitted through a communication network. And a means for automatically generating a three-dimensional image. 영상 생성 시스템에 적용되는 3차원 영상 자동 생성 방법에 있어서,In the 3D image automatic generation method applied to the image generation system, 2차원 영상을 입력받아, 상기 입력받은 2차원 영상의 특징을 추출하는 제 1 단계;A first step of receiving a 2D image and extracting a feature of the received 2D image; 상기 추출된 입력 영상의 특징 정보를 이용하여, 기 저장된 기본 3차원 영상 모델을 변형하는 제 2 단계; 및A second step of modifying a previously stored basic 3D image model by using feature information of the extracted input image; And 사용자로부터 입력된 필요 사항에 따라, 기 저장된 부가 정보와 상기 변형된 영상을 합성하여 3차원 영상을 생성하고 출력하는 제 3 단계A third step of synthesizing the stored additional information and the deformed image according to a requirement input from a user to generate and output a 3D image; 를 포함하는 3차원 영상 자동 생성 방법.3D image automatic generation method comprising a. 제 7 항에 있어서,The method of claim 7, wherein 사용자로부터 입력된 필요 사항에 따라, 상기 추출된 특징 정보를 보정하는 제 4 단계A fourth step of correcting the extracted feature information according to a requirement input from a user 를 더 포함하는 3차원 영상 자동 생성 방법.3D image automatic generation method further comprising. 제 7 항 또는 제 8 항에 있어서,The method according to claim 7 or 8, 상기 제 1 단계는,The first step is, 2차원 영상을 입력받아 필요한 영역을 검출하는 제 5 단계;A fifth step of receiving a 2D image and detecting a required area; 상기 영역이 검출된 2차원 영상에 대해 잡음을 제거하는 제 6 단계;A sixth step of removing noise with respect to the two-dimensional image from which the region is detected; 상기 잡음이 제거된 2차원 영상을 이진화(Binary)하는 제 7 단계;A seventh step of binarizing the two-dimensional image from which the noise is removed; 상기 이진화된 영상에 대해 라인 세그멘트(Line Segment)를 수행하는 제 8 단계;An eighth step of performing a line segment on the binarized image; 상기 라인 세그멘트가 수행된 영상에 대해 레이블(Label)을 부여하고, 각 레이블의 크기를 검증(Size Verify)하는 제 9 단계; 및A ninth step of attaching a label to the image on which the line segment is performed and verifying the size of each label; And 상기 레이블 크기의 검증이 완료된 영상에 대해, 기하학적인 위치 정보를 이용하여 특징점을 추출하는 제 10 단계를 포함하는 것을 특징으로 하는 3차원 영상 자동 생성 방법.And a tenth step of extracting a feature point using geometric position information on the image of which the verification of the label size is completed. 제 9 항에 있어서,The method of claim 9, 상기 제 1 단계는, The first step is, 상기 입력받은 2차원 영상이 컬러(Color) 영상일 경우, 상기 입력받은 2차원 영상에 대한 흑백화를 수행하는 제 11 단계를 더 포함하는 것을 특징으로 하는 3차원 영상 자동 생성 방법.If the input 2D image is a color image, the method further comprises the eleventh step of performing a black and white image for the received 2D image. 프로세서를 구비한 영상 생성 시스템에,In an image generation system having a processor, 2차원 영상을 입력받아, 상기 입력받은 2차원 영상의 특징을 추출하는 제 1 기능;A first function of receiving a 2D image and extracting a feature of the received 2D image; 상기 추출된 입력 영상의 특징 정보를 이용하여, 기 저장된 기본 3차원 영상 모델을 변형하는 제 2 기능; 및A second function of modifying a pre-stored basic 3D image model by using feature information of the extracted input image; And 사용자로부터 입력된 필요 사항에 따라, 기 저장된 부가 정보와 상기 변형된 영상을 합성하여 3차원 영상을 생성하고 출력하는 제 3 기능A third function of synthesizing the stored additional information and the deformed image according to a requirement input from a user to generate and output a 3D image; 을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing this. 제 11 항에 있어서,The method of claim 11, 사용자로부터 입력된 필요 사항에 따라, 상기 추출된 특징 정보를 보정하는 제 4 기능A fourth function of correcting the extracted feature information according to a requirement input from a user 을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium that records a program for further realization.
KR1020010027083A 2000-10-20 2001-05-17 The Apparatus and Method for Creating Three-Dimensional Image Automatically KR100618493B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20000062048 2000-10-20
KR1020000062048 2000-10-20

Publications (2)

Publication Number Publication Date
KR20020031027A KR20020031027A (en) 2002-04-26
KR100618493B1 true KR100618493B1 (en) 2006-08-31

Family

ID=19694684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010027083A KR100618493B1 (en) 2000-10-20 2001-05-17 The Apparatus and Method for Creating Three-Dimensional Image Automatically

Country Status (1)

Country Link
KR (1) KR100618493B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100873638B1 (en) 2007-01-16 2008-12-12 삼성전자주식회사 Image processing method and apparatus
KR100947265B1 (en) * 2008-10-10 2010-03-12 (주)플렛디스 Module displaying 3d image for pmp
KR102361753B1 (en) * 2017-12-07 2022-02-11 한국전자기술연구원 Data Center Electrical Energy Information Collection and Labeling Method using Vision IoT

Also Published As

Publication number Publication date
KR20020031027A (en) 2002-04-26

Similar Documents

Publication Publication Date Title
CN108229278B (en) Face image processing method and device and electronic equipment
JP7413400B2 (en) Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic equipment and storage medium
EP2718902B1 (en) Generation of avatar reflecting player appearance
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
JP3549013B2 (en) Eye position detection method, eye position detection device, and recording medium recording eye position detection program
US7764828B2 (en) Method, apparatus, and computer program for processing image
Kligler et al. Document enhancement using visibility detection
JP4723834B2 (en) Photorealistic three-dimensional face modeling method and apparatus based on video
US8698796B2 (en) Image processing apparatus, image processing method, and program
US7587083B2 (en) Image processing device
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
KR101759188B1 (en) the automatic 3D modeliing method using 2D facial image
JP2008226125A (en) Eyelid detection apparatus, eyelid detection method and program therefor
JP2007213623A (en) Virtual makeup device and method therefor
KR100815209B1 (en) The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image ? The Apparatus and Method for Creating Three-Dimensional Image Using Them
JP2004030007A (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
JP4219521B2 (en) Matching method and apparatus, and recording medium
JP2000011143A (en) Facial feature recognition system
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
KR100618493B1 (en) The Apparatus and Method for Creating Three-Dimensional Image Automatically
CN116681579A (en) Real-time video face replacement method, medium and system
CN114155569B (en) Cosmetic progress detection method, device, equipment and storage medium
JP2009251634A (en) Image processor, image processing method, and program
CN110751078B (en) Method and equipment for determining non-skin color region of three-dimensional face
CN114627003A (en) Method, system, device and storage medium for removing eye fat of face image

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110729

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20120814

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee