KR100515085B1 - System and method for acquiring a 3D face digital data from 2D photograph - Google Patents

System and method for acquiring a 3D face digital data from 2D photograph Download PDF

Info

Publication number
KR100515085B1
KR100515085B1 KR10-2002-0034072A KR20020034072A KR100515085B1 KR 100515085 B1 KR100515085 B1 KR 100515085B1 KR 20020034072 A KR20020034072 A KR 20020034072A KR 100515085 B1 KR100515085 B1 KR 100515085B1
Authority
KR
South Korea
Prior art keywords
dimensional face
dimensional
face shape
feature points
editing
Prior art date
Application number
KR10-2002-0034072A
Other languages
Korean (ko)
Other versions
KR20030096965A (en
Inventor
정욱진
심재창
박정갑
Original Assignee
정욱진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정욱진 filed Critical 정욱진
Priority to KR10-2002-0034072A priority Critical patent/KR100515085B1/en
Publication of KR20030096965A publication Critical patent/KR20030096965A/en
Application granted granted Critical
Publication of KR100515085B1 publication Critical patent/KR100515085B1/en

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B33/00Constructional parts, details or accessories not provided for in the other groups of this subclass
    • G11B33/02Cabinets; Cases; Stands; Disposition of apparatus therein or thereon
    • G11B33/04Cabinets; Cases; Stands; Disposition of apparatus therein or thereon modified to store record carriers
    • G11B33/0405Cabinets; Cases; Stands; Disposition of apparatus therein or thereon modified to store record carriers for storing discs
    • G11B33/0461Disc storage racks
    • G11B33/0472Disc storage racks for discs without cartridge
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs

Abstract

본 발명은 2차원 얼굴사진으로부터 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태 및 크기상태를 정규화하고, 상기 정규화된 2차원 특징점을 복수개 3차원 얼굴형상으로부터 추출된 3차원 특징점과 순차적으로 비교함으로써 2차원 얼굴사진으로부터 3차원 얼굴형상을 획득하는 시스템 및 방법에 관한 것으로서, 2차원 얼굴사진으로부터 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화하는 회전상태 정규화수단; 상기 2차원 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화하는 크기상태 정규화수단; 복수개 3차원 얼굴형상을 저장하는 저장수단; 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 3차원 얼굴형상으로부터 추출된 3차원 특징점과 순차적으로 비교하는 비교수단; 및 상기 비교결과에 근거하여 상기 저장된 복수개 3차원 얼굴형상 가운데 하나의 3차원 얼굴형상을 선택하고, 선택된 3차원 얼굴형상과 상기 2차원 얼굴사진을 이용하여 3차원 얼굴형상을 제작하는 제작수단을 포함하여 구성되어, 2차원 얼굴사진과 가장 유사한 3차원 얼굴형상을 제작할 수 있으며 3차원 얼굴형상을 제작하는 데 있어 비교검색 효율을 높일 수 있는 효과가 있다.The present invention normalizes the rotational state and size state of a two-dimensional face picture by using two-dimensional feature points extracted from the two-dimensional face picture, and sequentially normalizes the two-dimensional feature points with three-dimensional feature points extracted from a plurality of three-dimensional face shapes. A system and method for acquiring a three-dimensional face shape from a two-dimensional face photograph by comparing with the apparatus, comprising: rotation state normalization means for normalizing a rotation state of the two-dimensional face photograph by using two-dimensional feature points extracted from the two-dimensional face photograph; Size state normalization means for normalizing the size state of a two-dimensional face photograph using the two-dimensional feature points; Storage means for storing a plurality of three-dimensional face shapes; Comparison means for sequentially comparing the two-dimensional feature points of which the rotation state and the size state are normalized with the three-dimensional feature points extracted from the three-dimensional face shape; And production means for selecting a three-dimensional face shape among the stored plurality of three-dimensional face shapes based on the comparison result, and manufacturing a three-dimensional face shape using the selected three-dimensional face shape and the two-dimensional face picture. It can be configured to produce a three-dimensional face shape most similar to a two-dimensional face picture, and there is an effect that can increase the comparative search efficiency in producing a three-dimensional face shape.

Description

2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법{System and method for acquiring a 3D face digital data from 2D photograph}System and method for acquiring a 3D face digital data from 2D photograph}

본 발명은 2차원 얼굴사진으로부터 3차원 얼굴형상을 획득하는 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 2차원 얼굴사진으로부터 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태 및 크기상태를 정규화하고, 상기 정규화된 2차원 특징점을 복수개 3차원 얼굴형상으로부터 추출된 3차원 특징점과 순차적으로 비교함으로써 2차원 얼굴사진으로부터 3차원 얼굴형상을 획득하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for acquiring a three-dimensional face shape from a two-dimensional face picture, and more particularly, a rotation state and a size state of the two-dimensional face picture by using two-dimensional feature points extracted from the two-dimensional face picture. The present invention relates to a system and a method for obtaining a three-dimensional face shape from a two-dimensional face photograph by normalizing and sequentially comparing the normalized two-dimensional feature points with three-dimensional feature points extracted from a plurality of three-dimensional face shapes.

3차원 얼굴형상을 획득하기 위해서는 광삼각법에 의한 레이저 스캔(laser scan)방법, 스테레오(stereo) 방법, 멀티 프로젝션(multi projection) 방법, 모아레(moire) 방법, 정면과 측면을 포함하는 여러장의 2차원 얼굴사진들을 합성하는 방법 그리고 3차원 얼굴데이터베이스로부터 2차원 얼굴사진과 유사한 3차원 얼굴형상을 통계적으로 추출하여 재현하는 방법들이 사용되고 있다.In order to obtain a three-dimensional face shape, several two-dimensional images including a laser scan method, a stereo method, a multi projection method, a moire method, a front side and a side surface are obtained by the optical triangulation method. Methods of synthesizing face pictures and statistically extracting and reproducing three-dimensional face shapes similar to two-dimensional face pictures from a three-dimensional face database have been used.

레이저 스캔 방법, 스테레오 방법, 멀티 프로젝션 방법 및 모아레 방법들은 하드웨어 입력장치를 필요로 하며, 촬영시간 및 정확도 등에서 차이를 보이지만 사람의 실제 얼굴형상 데이터를 직접 획득할 수 있는 장점이 있다. 반면, 입력장치가 촬영하고자 하는 사람 곁에 있어야 하기 때문에 사람이 반드시 입력장치에 가야하는 불편함이 있으므로, 돌아가신 분들이나 거동이 불편한 사람의 경우에는 불가능하거나 어려운 단점이 있다. 그리고, 3차원 얼굴형상을 획득하기 위한 하드웨어 장치가 설치될 수 없는 환경에서도 불가능한 단점이 있다.Laser scanning methods, stereo methods, multi-projection methods, and moiré methods require hardware input devices, and show differences in shooting time and accuracy, but have the advantage of directly acquiring real face data of a person. On the other hand, since the input device must be near the person to be photographed, there is an inconvenience in that a person must go to the input device. In addition, there is a disadvantage that is impossible even in an environment in which a hardware device for acquiring a three-dimensional face shape cannot be installed.

또다른 3차원 얼굴형상 획득방법으로 사람의 정면과 측면을 포함하는 여러장의 2차원 얼굴사진들을 합성하는 방법이 있지만, 사람의 3차원 얼굴형상을 몇 장의 사진으로부터 복원하는 것이 기술적으로 매우 어려운 실정이다. 따라서, 복수개의 표준모델에 해당하는 3차원 얼굴형상이 저장된 데이터베이스로부터 독출된 3차원 얼굴형상을 2차원 얼굴사진과 비교하고, 2차원 얼굴사진과 유사한 3차원 얼굴형상에 2차원 얼굴사진의 특징들을 반영하는 3차원 얼굴형상을 획득 및 변형하는 연구가 활발히 진행되고 있는 실정이다.Another method of acquiring three-dimensional face shapes is to synthesize several two-dimensional face photographs including the front and side faces of a person, but it is technically very difficult to restore a three-dimensional face shape of a person from several photos. . Therefore, the 3D face shape read from the database storing the 3D face shape corresponding to the plurality of standard models is compared with the 2D face picture, and the features of the 2D face picture on the 3D face shape similar to the 2D face picture are compared. Research into acquiring and deforming three-dimensional face shapes that are reflected has been actively conducted.

따라서, 본 발명의 목적은 상기와 같은 실정을 반영하기 위해 창작된 것으로서, 2차원 얼굴사진으로부터 추출된 2차원 특징점의 회전상태를 정규화함으로써 2차원 얼굴사진의 회전상태에 보다 부합하는 3차원 얼굴형상을 제작하도록 한 2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법을 제공하는 것이다.Accordingly, an object of the present invention was created to reflect the above situation, and by normalizing the rotation state of the two-dimensional feature points extracted from the two-dimensional face photograph, the three-dimensional face shape more consistent with the rotation state of the two-dimensional face photograph. It is to provide a system and method for obtaining a three-dimensional face shape from a two-dimensional face photograph to produce a.

또, 본 발명은 2차원 얼굴사진으로부터 추출된 2차원 특징점의 크기상태를 정규화함으로써 2차원 얼굴사진의 크기상태에 보다 부합하는 3차원 얼굴형상을 제작하도록 한 2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법을 제공하는데 다른 목적이 있는 것이다.In addition, the present invention obtains a three-dimensional face shape from the two-dimensional face picture to produce a three-dimensional face shape more consistent with the size state of the two-dimensional face picture by normalizing the size state of the two-dimensional feature point extracted from the two-dimensional face picture It is another object to provide a system and method.

또, 본 발명은 2차원 얼굴사진과 비교되는 3차원 얼굴형상을 레인지 데이터(range data) 형태로 데이터베이스에 저장해 둠으로써, 데이터베이스에서의 저장효율을 증가시킨 2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법을 제공하는데 다른 목적이 있는 것이다.In addition, the present invention by storing the three-dimensional face shape compared to the two-dimensional face picture in the database in the form of range data (range data), the three-dimensional face shape acquisition system from the two-dimensional face picture to increase the storage efficiency in the database And for other purposes.

또, 본 발명은 2차원 얼굴사진으로부터 추출된 2차원 특징점의 패닝(panning) 및 틸팅(tilting) 변수를 검출하고 검출된 패닝 및 틸팅 변수에 근거하여 3차원 얼굴형상으로부터 추출된 3차원 특징점을 패닝 및 틸팅함으로써, 2차원 얼굴사진이 측면인 경우에 보다 부합하는 3차원 측면 얼굴형상을 제작하도록 한 2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법을 제공하는데 다른 목적이 있는 것이다.In addition, the present invention detects the panning and tilting parameters of the two-dimensional feature points extracted from the two-dimensional face photograph and panning the three-dimensional feature points extracted from the three-dimensional face shape based on the detected panning and tilting parameters. And by tilting, another object is to provide a three-dimensional face shape acquisition system and method from the two-dimensional face picture to produce a three-dimensional side face shape more suited when the two-dimensional face picture is the side.

또, 본 발명은 상기 2차원 특징점의 패닝 및 틸팅 변수를 검출하고, 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여 상기 3차원 특징점을 패닝 및 틸팅하여 적어도 하나 이상의 DB(DataBase)에 각각 구분저장한 후 상기 검출된 패닝 및 틸팅 변수에 근거하여 상기 구분저장된 복수개 3차원 특징점 가운데 하나의 DB를 선택하고 선택된 DB내에 3차원 특징점과 상기 추출된 2차원 특징점을 비교함으로써, 2차원 얼굴사진에 부합하는 3차원 얼굴형상을 보다 신속하게 제작하도록 한 2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법을 제공하는데 다른 목적이 있는 것이다.In addition, the present invention detects the panning and tilting parameters of the two-dimensional feature point, and based on at least one or more preset panning and tilting parameters, the three-dimensional feature point is panned and tilted separately stored in at least one DB (DataBase) Then, one DB is selected from the plurality of stored 3D feature points based on the detected panning and tilting variables, and the 3D feature point is compared with the extracted 2D feature point in the selected DB, thereby matching the 2D face image. It is another object to provide a system and method for acquiring a three-dimensional face shape from a two-dimensional face photograph that enables to produce a three-dimensional face shape more quickly.

또, 본 발명은 상기와 같이 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집함으로써, 상기 입력된 수정요청데이터에 의한 요구가 반영되도록 한 2차원 얼굴사진으로부터 3차원 얼굴형상 획득 시스템 및 방법을 제공하는데 다른 목적이 있는 것이다.In addition, the present invention, by inputting the correction request data for the three-dimensional face shape produced as described above by editing the produced three-dimensional face shape in response to the input correction request data, the request by the input correction request data It is another object to provide a system and method for acquiring a three-dimensional face shape from a two-dimensional face photograph to be reflected.

상기의 목적을 달성하기 위한 본 발명은, 2차원 얼굴사진으로부터 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화하는 회전상태 정규화수단; 상기 2차원 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화하는 크기상태 정규화수단; 복수개 3차원 얼굴형상을 저장하는 저장수단; 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 3차원 얼굴형상으로부터 추출된 3차원 특징점과 순차적으로 비교하는 비교수단; 및 상기 비교결과에 근거하여 상기 저장된 복수개 3차원 얼굴형상 가운데 하나의 3차원 얼굴형상을 선택하고, 선택된 3차원 얼굴형상과 상기 2차원 얼굴사진을 이용하여 3차원 얼굴형상을 제작하는 제작수단을 포함하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템을 제공한다.The present invention for achieving the above object, the rotation state normalization means for normalizing the rotation state of the two-dimensional face picture by using the two-dimensional feature points extracted from the two-dimensional face picture; Size state normalization means for normalizing the size state of a two-dimensional face photograph using the two-dimensional feature points; Storage means for storing a plurality of three-dimensional face shapes; Comparison means for sequentially comparing the two-dimensional feature points of which the rotation state and the size state are normalized with the three-dimensional feature points extracted from the three-dimensional face shape; And production means for selecting a three-dimensional face shape among the stored plurality of three-dimensional face shapes based on the comparison result, and manufacturing a three-dimensional face shape using the selected three-dimensional face shape and the two-dimensional face picture. It provides a three-dimensional face shape acquisition system from a two-dimensional face photograph.

또, 본 발명은, 상기 복수개 3차원 얼굴형상은 레인지 데이터(range data)의 형태로 저장된 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.In addition, the present invention solves the above-described problems as a three-dimensional face shape obtaining system from a two-dimensional face photograph, wherein the plurality of three-dimensional face shapes are stored in the form of range data.

또, 본 발명은, 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출수단; 및 상기 검출된 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 패닝 및 틸팅하는 제 1 패닝 및 틸팅 수단을 더 포함하고, 상기 비교수단은, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을 상기 패닝 및 틸팅된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.In addition, the present invention, the variable detection means for detecting the panning and tilting (left / right and up / down bias) of the two-dimensional face photograph using the extracted two-dimensional feature point; And first panning and tilting means for panning and tilting the extracted three-dimensional feature points based on the detected panning and tilting parameters, wherein the comparing means comprises: two-dimensional normalized rotation and magnitude states A three-dimensional face shape acquisition system from a two-dimensional face photograph, characterized in that the feature points are sequentially compared with the panned and tilted three-dimensional feature points, which solves the above problems.

또, 본 발명은, 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 패닝 및 틸팅하는 제 2 패닝 및 틸팅 수단; 및 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장수단을 더 포함하고, 상기 비교수단은, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 제 2 저장수단에 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.In addition, the present invention, the second panning and tilting means for panning and tilting the extracted three-dimensional feature point based on at least one preset panning and tilting parameters; And second storage means for dividing and storing the panned and tilted three-dimensional feature points according to the panning and tilting parameters, wherein the comparing means comprises two-dimensional feature points whose rotational state and size state are normalized. The above-mentioned problem is solved by a three-dimensional face shape obtaining system from two-dimensional face photographs, which is sequentially compared with three-dimensional feature points stored in two storage means.

또, 본 발명은, 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출수단; 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 각각 패닝 및 틸팅하는 제 2 패닝 및 틸팅 수단; 및 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장수단을 더 포함하고, 상기 비교수단은, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 제 2 저장수단에 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.In addition, the present invention, the variable detection means for detecting the panning and tilting (left / right and up / down bias) of the two-dimensional face photograph using the extracted two-dimensional feature point; Second panning and tilting means for panning and tilting the extracted three-dimensional feature points, respectively, based on at least one preset panning and tilting parameter; And second storage means for dividing and storing the panned and tilted three-dimensional feature points according to the panning and tilting parameters, wherein the comparing means comprises two-dimensional feature points whose rotational state and size state are normalized. The above-mentioned problem is solved by a three-dimensional face shape obtaining system from two-dimensional face photographs, which is sequentially compared with three-dimensional feature points stored in two storage means.

또, 본 발명은, 상기 회전상태 정규화수단은, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.In addition, the present invention, the rotation state normalization means, the two-dimensional feature characterized in that to rotate the two-dimensional face photograph so that the straight line connecting two feature points corresponding to both eyes of the extracted two-dimensional feature point is horizontal to the ground The above-mentioned problem is solved as a three-dimensional face shape acquisition system from a face photograph.

또, 본 발명은, 상기 크기상태 정규화수단은, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.In addition, the present invention, the size state normalization means, the two-dimensional face, characterized in that to enlarge or reduce the size of the two-dimensional face photograph so that the distance between any two feature points of the extracted two-dimensional feature point has a specified value The above-mentioned problem is solved as a three-dimensional face shape acquisition system from a photograph.

또, 본 발명은, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템으로서, 상술한 과제를 해결한다.The present invention may further include editing means for editing the produced three-dimensional face shape in response to the inputted correction request data, when the correction request data is input to the produced three-dimensional face shape. The above-mentioned problem is solved as a three-dimensional face shape acquisition system from a three-dimensional face photograph.

또, 상기의 목적을 달성하기 위한 본 발명은, 2차원 얼굴사진으로부터 2차원 특징점을 추출하는 제 1 추출단계; 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화하는 회전상태 정규화단계; 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화하는 크기상태 정규화단계; 기 저장된 복수개 3차원 얼굴형상으로부터 3차원 특징점을 추출하는 제 2 추출단계; 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 추출된 3차원 특징점과 순차적으로 비교하는 비교단계; 및 상기 비교결과에 근거하여 기 저장된 복수개 3차원 얼굴형상 가운데 하나의 3차원 얼굴형상을 선택하고, 선택된 3차원 얼굴형상과 상기 2차원 얼굴사진을 이용하여 3차원 얼굴형상을 제작하는 제작단계를 포함하여 이루어지는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법을 제공한다.In addition, the present invention for achieving the above object, the first extraction step of extracting a two-dimensional feature point from a two-dimensional face photograph; A rotation state normalization step of normalizing the rotation state of the two-dimensional face photograph by using the extracted two-dimensional feature points; A size state normalization step of normalizing the size state of the two-dimensional face photograph by using the extracted two-dimensional feature points; A second extraction step of extracting a three-dimensional feature point from a plurality of previously stored three-dimensional face shapes; A comparison step of sequentially comparing the two-dimensional feature points of which the rotation state and the size state are normalized with the extracted three-dimensional feature points; And selecting a three-dimensional face shape among a plurality of previously stored three-dimensional face shapes based on the comparison result, and manufacturing a three-dimensional face shape by using the selected three-dimensional face shape and the two-dimensional face picture. It provides a three-dimensional face shape acquisition method from a two-dimensional face photograph made.

또, 본 발명은, 기 저장된 복수개 3차원 얼굴형상은 레인지 데이터(range data) 형태인 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법으로서, 상술한 과제를 해결한다.In addition, the present invention solves the above-described problems as a method of obtaining a three-dimensional face shape from a two-dimensional face photograph, wherein the plurality of pre-stored three-dimensional face shapes are in the form of range data.

또, 본 발명은, 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출단계; 및 상기 검출된 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 패닝 및 틸팅하는 제 1 패닝 및 틸팅 단계를 더 포함하여 이루어지고, 상기 비교단계는, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을 상기 패닝 및 틸팅된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법으로서, 상술한 과제를 해결한다.In addition, the present invention, the variable detection step of detecting the panning and tilting (left / right and up / down bias) of the two-dimensional face photograph using the extracted two-dimensional feature point; And a first panning and tilting step of panning and tilting the extracted three-dimensional feature point based on the detected panning and tilting parameters, wherein the comparing step comprises the normalization of the rotational state and the size state. A method for acquiring a three-dimensional face shape from a two-dimensional face photograph, characterized in that the two-dimensional feature points are sequentially compared with the panned and tilted three-dimensional feature points.

또, 본 발명은, 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 각각 패닝 및 틸팅하는 제 2 패닝 및 틸팅 단계; 및 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장단계를 더 포함하고, 상기 비교단계는, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법으로서, 상술한 과제를 해결한다.The present invention may further include a second panning and tilting step of panning and tilting the extracted three-dimensional feature points, respectively, based on at least one preset panning and tilting parameter; And a second storing step of dividing and storing the panned and tilted three-dimensional feature points according to the panning and tilting parameters, wherein the comparing step includes the two-dimensional feature points whose rotational state and size state are normalized. The above-mentioned problem is solved by a method for acquiring a three-dimensional face shape from a two-dimensional face photograph, which is sequentially compared with the stored three-dimensional feature points.

또, 본 발명은, 상기 회전상태 정규화단계는, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법으로서, 상술한 과제를 해결한다.In addition, the rotation state normalization step, the two-dimensional facial feature, characterized in that to rotate the two-dimensional face photograph so that a straight line connecting two feature points corresponding to both eyes of the extracted two-dimensional feature point is horizontal to the ground As a method of obtaining a three-dimensional face shape from a face photograph, the above-mentioned problem is solved.

또, 본 발명은, 상기 크기상태 정규화단계는, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법으로서, 상술한 과제를 해결한다.In addition, the present invention, the size state normalization step, the two-dimensional face, characterized in that to enlarge or reduce the size of the two-dimensional face photograph so that the distance between any two feature points of the extracted two-dimensional feature point has a specified value As a method of obtaining a three-dimensional face shape from a photograph, the above-mentioned problem is solved.

또, 본 발명은, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법으로서, 상술한 과제를 해결한다.The present invention may further include an editing step of editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data on the produced three-dimensional face shape. As a method of obtaining a three-dimensional face shape from a two-dimensional face picture, the above-mentioned problem is solved.

본 발명이 적용된 실시예들에서는 본 발명에 따라 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템이 인터넷망에 연결접속된 서버 컴퓨터(server computer)인 것과, 상기 서버 컴퓨터에 2차원 얼굴사진을 전송하고 상기 서버 컴퓨터에 의해 제작된 3차원 얼굴형상에 대한 수정요청데이터를 선택적으로 출력하는 주체가 상기 서버 컴퓨터에 연결된 클라이언트(client) 단말기인 것으로 가정한다.In the embodiments to which the present invention is applied, the 3D face image acquisition system is a server computer connected to the Internet network according to the present invention, and the 2D face image is transmitted to the server computer. It is assumed that the subject selectively outputting the correction request data for the three-dimensional face shape produced by the server computer is a client terminal connected to the server computer.

물론, 상기 클라이언트 단말기는 본 실시예들에서와 같이 서버 컴퓨터에 직접 연결되지 않고 인터넷망에 연결될 수도 있다.Of course, the client terminal may be connected to the Internet network instead of directly to the server computer as in the present embodiments.

또한, 본 실시예들에서는 클라이언트 단말기에 의해 수정요청된 3차원 얼굴형상에 대한 편집동작을 상기 서버 컴퓨터내에 구비된 편집부가 직접 수행하는 것과, 인터넷망에 연결된 온라인 편집부가 수행하는 것 모두 가능한 것으로 제안한다.In addition, in the present embodiments, it is proposed that the editing unit provided in the server computer directly performs the editing operation on the three-dimensional face shape requested by the client terminal and the online editing unit connected to the Internet network can be performed. do.

도 1은 본 발명이 적용된 일 실시예의 구성도로서, 스캐너(scanner), 카메라(camera) 등과 같은 영상입력장치를 통해 2차원 얼굴사진(측면 및/또는 정면)을 입력받고, 사용자의 조작에 의해 3차원 얼굴형상에 대한 수정요청데이터를 출력하는 클라이언트 단말기(1); 레인지 데이터(range data) 형태의 복수개 3차원 얼굴형상(투영 3D이미지)을 저장하고 있으며 상기 입력된 2차원 얼굴사진의 회전상태 및 크기상태를 정규화함으로써 정규화된 2차원 얼굴사진과 유사한 3차원 얼굴형상을 선택하고 선택된 3차원 얼굴형상과 상기 입력된 2차원 얼굴사진을 텍스처 매핑(texture mapping)하여 3차원 얼굴형상을 제작하기 위해 인터넷망과 상기 클라이언트 단말기(1)에 각각 연결된 서버 컴퓨터(2); 및 상기 클라이언트 단말기(10)에 의해 수정요청된 3차원 얼굴형상을 온라인상에서 편집하는 온라인 편집부(20)를 포함하여 구성된다.1 is a configuration diagram of an embodiment to which the present invention is applied and receives a two-dimensional face photograph (side and / or front) through an image input apparatus such as a scanner or a camera, and is operated by a user's manipulation. A client terminal 1 for outputting correction request data for the three-dimensional face shape; Stores a plurality of three-dimensional face shapes (projection 3D images) in the form of range data, and three-dimensional face shapes similar to normalized two-dimensional face pictures by normalizing the rotation state and size state of the input two-dimensional face picture. A server computer (2) connected to the Internet network and the client terminal (1) to select and to texture-map the selected three-dimensional face shape and the input two-dimensional face picture to produce a three-dimensional face shape; And an online editing unit 20 that edits the three-dimensional face shape modified by the client terminal 10 online.

상기 서버 컴퓨터(2)는, 클라이언트 단말기(1)로부터 전송된 2차원 얼굴사진으로부터 2차원 특징점을 추출하는 2차원 특징점 추출부(3); 상기 추출된 2차원 특징점 중에서 두 눈의 특징점을 이용하여, 2차원 얼굴사진의 시계방향 또는 반시계방향으로의 로테이션(rotation) 회전상태를 정규화하며, 상기 2차원 얼굴사진이 측면인 경우 상기 추출된 2차원 특징점을 이용하여 수직축 방향에 대하여 좌/우 치우침의 정도를 표현하는 패닝(panning) 및 수평축 방향에 대하여 상/하 치우침의 정도를 표현하는 틸팅(tilting) 변수를 검출하는 회전상태 정규화부(패닝 및 틸팅 변수 추출부)(4); 상기와 같이 회전상태가 정규화된 2차원 특징점 가운데 임의의 두 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화하는 크기상태 정규화부(5); 레인지 데이터(range data) 형태의 3차원 얼굴형상(투영 3D이미지)을 저장하는 투영 3D이미지 DB(DataBase)(13); 상기 저장된 3차원 얼굴형상으로부터 3차원 특징점을 추출하는 3차원 특징점 추출부(14); 상기 추출된 3차원 특징점을 3차원데이터로 변환하는 변환부(15); 상기 변환된 3차원데이터를 저장하는 3차원 정면얼굴 특징점 DB(8); 상기 변환된 3차원데이터를, 상기 검출된 패닝 및 틸팅변수에 근거하여 패닝 및 틸팅하는 3차원 패닝 및 틸팅부(9); 상기 패닝 및 틸팅된 3차원데이터를 저장하는 3차원 측면얼굴 특징점 DB(7); 상기 2차원 특징점과 상기 DB(7 및/또는 8)에 저장된 3차원 특징점을 비교하고, 비교결과 상기 2차원 특징점과 유사한 3차원 얼굴형상(투영 3D이미지)을 투영 3D이미지 DB(13)로부터 독출하여 투영 3D이미지 저장부(12)에 임시저장하는 비교부(6); 상기 저장된 3차원 얼굴형상을 3차원데이터로 변환하고 변환된 3차원데이터를 2차원 얼굴사진과 텍스처 매핑(texture mapping)하여 3차원 얼굴형상을 제작하는 텍스처 매핑부(11); 및 상기와 같이 제작된 3차원 얼굴형상에 대해 클라이언트 단말기(1)로부터 수정요청데이터가 입력되면, 상기 입력된 수정요청데이타에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집부(10)를 포함하여 구성된다.The server computer 2 includes: a two-dimensional feature point extracting unit 3 for extracting a two-dimensional feature point from a two-dimensional face photograph transmitted from the client terminal 1; Using the feature points of the two eyes among the extracted 2D feature points, the rotation state of the 2D face photograph in the clockwise or counterclockwise direction is normalized, and when the 2D face photograph is the side, the extracted Rotational state normalization unit for panning expressing the degree of left / right bias in the vertical axis direction and tilting variable expressing the degree of up / down bias in the horizontal axis direction using two-dimensional feature points. Panning and tilting parameter extraction section 4); A size state normalization unit 5 for normalizing the size state of the two-dimensional face photograph by using any two feature points among the two-dimensional feature points whose rotation state is normalized as described above; A projection 3D image DB (DataBase) 13 for storing a three-dimensional face shape (projection 3D image) in the form of range data; A three-dimensional feature point extractor 14 for extracting a three-dimensional feature point from the stored three-dimensional face shape; A conversion unit 15 for converting the extracted three-dimensional feature points into three-dimensional data; A three-dimensional front face feature point DB (8) for storing the converted three-dimensional data; A three-dimensional panning and tilting unit (9) for panning and tilting the converted three-dimensional data based on the detected panning and tilting parameters; A three-dimensional side face feature point DB (7) for storing the panned and tilted three-dimensional data; Comparing the two-dimensional feature points and the three-dimensional feature points stored in the DBs 7 and / or 8, and as a result of the comparison, a three-dimensional face shape (projection 3D image) similar to the two-dimensional feature points is read out from the projection 3D image DB 13. A comparator 6 for temporarily storing the projected 3D image storage unit 12; A texture mapping unit 11 for converting the stored three-dimensional face shape into three-dimensional data and mapping the converted three-dimensional data to a two-dimensional face photograph and texture mapping to produce a three-dimensional face shape; And an editing unit 10 that edits the produced 3D face shape in response to the inputted correction request data when the correction request data is input from the client terminal 1 with respect to the 3D face shape produced as described above. It is composed.

또한, 도 8은 상기 편집동작을 수행하기 위해 서버 컴퓨터(2)에 추가되는 구성요소들을 상세도시한 것으로서, 클라이언트 단말기(1)로부터 수정요청데이터를 수신받는 편집부(10)내에 인터페이스부(47); 상기 수신된 수정요청데이터에 응하여 텍스처 매핑부(11)에 의해 제작입력되는 3차원 얼굴형상을 편집하는 3D얼굴 수정엔진(48); 및 상기 편집된 3차원 얼굴형상을 저장하는 수정된 3차원데이터 저장부(49)를 포함하여 구성된다.8 illustrates in detail components added to the server computer 2 to perform the editing operation, and includes an interface unit 47 in the editing unit 10 that receives modification request data from the client terminal 1. ; A 3D face correction engine 48 for editing the 3D face shape produced and input by the texture mapping unit 11 in response to the received correction request data; And a modified three-dimensional data storage unit 49 for storing the edited three-dimensional face shape.

이하에서는, 상기와 같이 구성되는 본 발명이 적용된 일실시예의 동작에 대해, 본 발명이 적용된 일실시예의 흐름도인 도 2와 병행하여 상세히 설명하기로 한다.Hereinafter, the operation of an embodiment to which the present invention configured as described above is applied will be described in detail in parallel with FIG. 2 which is a flowchart of an embodiment to which the present invention is applied.

먼저, 클라이언트 단말기(1)로부터 정면(및/또는 측면)의 2차원 얼굴사진이 서버 컴퓨터(2)로 전송(S201의 "예")되면, 서버 컴퓨터(2)내의 2차원 특징점 추출부(3)는 상기 전송된 2차원 얼굴사진으로부터 2차원 특징점을 추출(S202)한다.First, when the two-dimensional face image of the front (and / or side) is transmitted from the client terminal 1 to the server computer 2 (YES in S201), the two-dimensional feature point extracting unit 3 in the server computer 2 is sent. ) Extracts a two-dimensional feature point from the transmitted two-dimensional face image (S202).

2차원 특징점 추출부(3)에 의해 수행되는 2차원 특징점 추출동작에 대해, 도 5a의 흐름도를 참조하여 설명하면 다음과 같다.A two-dimensional feature point extraction operation performed by the two-dimensional feature point extractor 3 will be described with reference to the flowchart of FIG. 5A.

2차원 얼굴사진이 전송(S501)되면, 2차원 특징점 추출부(3)는 전송된 얼굴사진의 색상정보에 의해 얼굴부분인 안쪽과 배경부분인 바깥쪽을 분할(S502)하게 되는데 예를 들면, 색상정보가 살색이면 얼굴부분인 안쪽에 해당되고 살색이 아니면 배경부분인 바깥쪽에 해당하게 된다.When the two-dimensional face picture is transmitted (S501), the two-dimensional feature point extractor 3 divides the inside of the face and the outside of the background by the color information of the transmitted face picture (S502). If the color information is flesh color, it corresponds to the inner part of the face, and if it is not flesh color, it corresponds to the outside part of the background.

2차원 특징점 추출부(3)는 상기 살색으로 분리된 얼굴사진 얼굴 내부 중에 색상이 살색이 아닌 안쪽영역에 생긴 얼굴 각 부분들(양쪽 눈, 눈썹, 코의 아래부분, 입)에 대한 정보를 채워서 얼굴만 완전히 분리한 뒤(S503), 상기 얼굴 각 부분들의 경계부위들에 대해 가로 및 세로 방향으로 2차원 프로젝션(2D projection)하여 2D투영데이터를 획득하고 이를 해석하여 얼굴 각 부분들의 위치정보를 해석한다(S504). 상기와 같이 획득된 2D투영데이터에서는 살색인 얼굴 영역보다는 눈썹, 눈 및 코의 아랫 부분, 입에서 프로젝션된 2D투영데이터의 값이 살색 부분들 보다 낮으므로 이 위치들을 해석하여 얼굴 각 부분들의 위치정보를 찾는다.The two-dimensional feature extraction unit 3 fills in information on each part of the face (both eyes, eyebrows, the lower part of the nose, and the mouth) generated in the inner region of the color of the face image separated by the flesh color. After completely separating only the face (S503), two-dimensional projection (2D projection) in the horizontal and vertical directions with respect to the boundary portions of the face parts to obtain 2D projection data and interpret the location information of each face part (S504). In the 2D projection data obtained as described above, the values of the 2D projection data projected from the eyebrows, the eyes and the nose, and the lower part of the mouth are lower than those of the skin parts, rather than the skin areas. Find it.

2차원 특징점 추출부(3)는 이와 같이 2D투영된 얼굴 각 부분들의 위치를 이용하여 얼굴 각 부분들의 특징점을 추출(S505)하게 되는데, 도 6a에 도시된 바와 같이 눈의 경우 2D투영된 눈의 중앙(c와 d)을, 코의 경우 코끝(b)을, 입의 경우 입의 중앙(a)을 각각의 특징점으로 추출한다. 이상의 특징점들은 얼굴의 전체적인 얼굴 비교에 활용하고, 3차원 얼굴형상에서 얻어지는 부분얼굴과의 비교를 위하여는 눈의 폭과 높이, 입의 폭을 구하기 위한 눈의 상/하/좌/우 특징점 및 입의 좌/우 특징점을 추출한다. The two-dimensional feature point extractor 3 extracts the feature points of each of the face parts using the positions of the respective parts of the 2D projected face in this way (S505), as shown in FIG. 6A. The centers c and d, the nose end b for the nose, and the center a of the mouth for the mouth are extracted as respective feature points. The above feature points are used for the overall face comparison of the face, and for comparison with the partial face obtained in the three-dimensional face shape, the eye top / bottom / left / right feature points and mouth to obtain the width and height of the eye, and the width of the mouth Extract the left and right feature points of.

그리고 상기 S501단계에서 전송된 정면 및 측면사진에 대하여 그래프 매칭(graph matching)을 위한 얼굴전체의 외곽선 및 턱의 외곽선도 추출하며, 코의 윤곽이 나타나는 측면사진의 경우에는 코의 외곽선도 추출한다(S506).In addition, the front and side pictures transmitted in step S501 extract the outline of the entire face and the jaw outline for graph matching, and in the case of the side picture in which the outline of the nose appears, the outline of the nose is also extracted ( S506).

이와 같이 2차원 특징점이 추출되고 나면, 회전상태 정규화부(4)는 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화(S203)하게 되는데, 예를 들면 2차원 특징점 가운데 두 눈에 대응되는 두 특징점(도 6a의 c와 d)을 잇는 직선이 수평이 되도록 2차원 얼굴사진을 회전한다.After the two-dimensional feature point is extracted as described above, the rotation state normalization unit 4 normalizes the rotation state of the two-dimensional face photograph using the extracted two-dimensional feature point (S203), for example, two of the two-dimensional feature points. The two-dimensional face photograph is rotated so that a straight line connecting two feature points (c and d in FIG. 6A) corresponding to the eyes is horizontal.

이때, 상기 전송된 2차원 얼굴사진이 정면이 아닌 경우(S204의 "아니오")에 한해, 패닝 및 틸팅변수 검출부(4)는 2차원 얼굴사진의 좌/우 치우침 정도에 해당하는 패닝변수와 상/하 치우침 정도에 해당하는 틸팅변수를 검출(S205)한다. 패닝 치우침 정도를 검출하는 수단으로는 도6a의 특징점들로 만들어지는 좌/우 작은 삼각형cba 및 삼각형dba의 면적을 비교하거나 작은 삼각형 꼭지점의 각도를 비교하거나 작은 삼각형 꼭지점c와 d에서 꼭지점b 또는 a방향으로 향하는 벡터(vector)를 비교하는 방법을 이용한다. 그리고, 틸팅 치우침 정도를 검출하는 수단으로는 입의 좌/우 끝을 나타내는 특징점(e와 f)을 연결하는 직선ef에 대하여 특징점a의 위치가 아래 또는 위에 위치하는 정도에 따라 틸팅변수를 추출하게 되는데, 예를 들면 특징점a의 위치가 직선위에 놓이면 틸팅변수가 '0'에 해당하는 정면으로 인식한다.In this case, only when the transmitted 2D face photograph is not the front face (No in S204), the panning and tilting variable detection unit 4 may match the panning parameter corresponding to the left / right offset of the 2D face photograph. A tilting variable corresponding to a degree / down bias is detected (S205). Means for detecting the degree of panning bias include comparing the areas of the left and right small triangles cba and triangle dba made from the feature points of FIG. 6a, comparing the angles of the small triangle vertices, or vertices b or a at small triangle vertices c and d. A method of comparing vectors directed in directions is used. As a means for detecting the tilting bias, the tilting variable may be extracted according to the degree of the position of the feature point a with respect to the straight line ef connecting the feature points e and f representing the left and right ends of the mouth. For example, when the position of the feature point a lies on a straight line, the tilting variable is recognized as the front corresponding to '0'.

크기상태 정규화부(5)는 상기 2차원 특징점 가운데 임의의 두 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화(S206)하는데, 예를 들면, 두 눈에 대응되는 두 특징점(c와 d)을 잇는 직선의 길이가 지정된 길이(L)가 될 때까지 2차원 얼굴사진을 확대 또는 축소한다.The size state normalizing unit 5 normalizes the size state of the two-dimensional face photograph by using any two feature points among the two-dimensional feature points (S206), for example, two feature points (c and d) corresponding to two eyes. Magnify or reduce the two-dimensional face image until the length of the straight line is equal to the specified length (L).

한편, 2차원 얼굴사진이 서버 컴퓨터(2)로 전송(S201의 "예")되면, 3차원 특징점 추출부(14)는 투영 3D이미지 DB(13)로부터 3차원 얼굴형상(투영 3D이미지)을 순차적으로 독출하면서 독출되는 3차원 얼굴형상으로부터 3차원 특징점을 추출(S207)한다. 이때 추출되는 3차원 특징점 가운데 두 눈에 대응되는 두 특징점을 잇는 직선의 길이는 2차원 얼굴사진에 대한 크기상태 정규화동작에서의 지정된 길이(L)와 항상 동일하다.On the other hand, when the two-dimensional face image is transmitted to the server computer 2 (YES in S201), the three-dimensional feature point extractor 14 extracts the three-dimensional face shape (projection 3D image) from the projection 3D image DB 13. The 3D feature point is extracted from the 3D face shape that is read out while being sequentially read (S207). At this time, the length of a straight line connecting two feature points corresponding to two eyes among the extracted 3D feature points is always the same as the designated length L in the size state normalization operation for the 2D face photograph.

3차원 특징점 추출부(14)에 의해 수행되는 3차원 특징점 추출동작에 대해, 도 5b의 흐름도를 참조하여 설명하면 다음과 같다.A three-dimensional feature point extraction operation performed by the three-dimensional feature point extractor 14 will be described with reference to the flowchart of FIG. 5B.

3차원 특징점 추출부(14)는 투영 3D이미지 DB(13)로부터 레인지 데이터 형태의 3차원 얼굴형상이 순차적으로 독출(S511)되면, 독출되는 3차원 얼굴형상에서 레인지 데이터가 최대값인 화소를 추출(S512)한다.The three-dimensional feature point extractor 14 extracts a pixel having the maximum range data from the three-dimensional face image to be read out when the three-dimensional face shape in the range data form is sequentially read from the projection 3D image DB 13 (S511). (S512).

도 7은 투영 3D이미지의 일 실시예를 나타내는 도면으로서, 투영 3D이미지 DB(13, 43)를 구성하는 데이터이다. 투영 3D이미지는 투영면에 입체적 형상정보를 기록하는 방법으로서, 투영 3D이미지 자체가 면(sheet) 데이터이면서 동시에 3차원 입체정보를 갖는 데이터이다. 다만, 데이터 저장방식에 있어서 일반적인 의미의 3차원데이터 저장방식과는 다르다는 점에서 차이가 있다. FIG. 7 is a diagram showing an embodiment of a projection 3D image, which is data constituting the projection 3D images DB 13 and 43. The projection 3D image is a method of recording three-dimensional shape information on the projection surface. The projection 3D image itself is sheet data and data having three-dimensional stereoscopic information. However, the data storage method is different from the three-dimensional data storage method of the general meaning.

일반적인 의미의 3차원데이터 저장방식은 공간상의 임의의 점에 대한 정점(vertex)값과 공간상의 점들에 대해 각각의 면을 생성하기 위한 인덱스(index)값을 같이 저장하게 된다. 보편적으로 하나의 면을 생성하는 최소 꼭지점의 도형이 삼각형이므로 하나의 정점값은 직교좌표상의 x, y, z 값을 각각 가지게 되고, 하나의 인덱스 값은 각각의 꼭지점에 해당하는 정점1, 정점2, 정점3의 값을 가지게 된다.In the general three-dimensional data storage method, a vertex value for an arbitrary point in space and an index value for generating each plane for each point in the space are stored together. Generally, since the shape of the minimum vertex that creates one face is a triangle, one vertex value has x, y, and z values in Cartesian coordinates, and one index value corresponds to vertex 1 and vertex 2 corresponding to each vertex. , The value of vertex 3 is obtained.

그러나, 투영 3D데이터의 경우는 투영되는 면에 대한 정보가 사전에 이미 약속되어져 있는 정보형태에 따르게 되며 투영면내 각각의 점에 대응하는 피사체와의 거리정보만을 저장하게 되므로, 투영된 거리정보 데이터만을 0-255 사이의 명암값 또는 더 정밀한 값으로 저장하게 된다. 이와 같이 피사체를 특정 면에 투영시킨 데이터를 레인지(range) 데이터, 또는 깊이(depth) 데이터라고도 부르며 투영되는 거리정보의 정밀도는 데이터 처리에 사용되는 바이트(byte) 수(數)를 더 많이 할당하는 방법으로 무한대까지 확장할 수 있다.However, in the case of projection 3D data, the information on the projected surface is in accordance with the information type already promised in advance, and only the distance information with the subject corresponding to each point in the projection surface is stored. It will be stored as a contrast value between 0 and 255, or more precisely. The data projecting the subject onto a specific surface is also called range data or depth data, and the accuracy of the projected distance information is used to allocate more bytes for data processing. It can scale to infinity in this way.

도 7의 투영 3D이미지 데이터는 사람얼굴을 정면의 한쪽 방향으로 평면에 투영시키는 방법으로 투영방향에 대한 외형의 입체정보만 기록한 결과이며, 따라서 3D와 대응해서 2D와 3D의 중간인 2와½D 또는 2.5D로 불리어지기도 한다. 그렇지만 얼굴의 외형을 360°회전하면서 원통좌표계의 원통면에 얼굴의 외형정보를 기록하는 방법으로 사람의 머리전체를 투영 3D이미지로 제작할 수 있으며, 원통좌표계의 투영 3D이미지를 투영 3D이미지 DB(13)에 활용하고 본 발명의 수단을 동일하게 적용하여 360°둘레 전체를 표현하는 3차원얼굴형상을 보다 상세히 제작할 수 있다.The projection 3D image data of FIG. 7 is a result of recording only the stereoscopic information of the appearance in the projection direction by projecting a human face onto a plane in one direction of the front, and thus corresponding to 3D, 2D and 1 / 2D, which are intermediate between 2D and 3D. Also called 2.5D. However, it is possible to produce the entire human head as a projection 3D image by recording the appearance information of the face on the cylindrical surface of the cylindrical coordinate system while rotating the outline of the face 360 °, and project the projection 3D image of the cylindrical coordinate system to the projection 3D image DB (13 ) And the same means of the present invention can be applied to produce a three-dimensional face shape expressing the entire 360 ° around in more detail.

따라서, 3차원 특징점 추출부(14)는 상기 레인지 데이터의 얼굴영역내에서 가장 튀어나온 부분으로 명암값이 최대값인 화소(편의상 명암값이 최대인 것을 밝은 것으로 가정한다.)를 추출(S512)하고, 추출된 화소를 코 끝에 해당하는 특징점(B)으로 선정(S513)한다.Therefore, the 3D feature point extractor 14 extracts a pixel having the maximum contrast value (assuming that the contrast value is the brightest for convenience) as the most protruding portion in the face region of the range data (S512). The extracted pixel is selected as the feature point B corresponding to the tip of the nose (S513).

이어, 3차원 특징점 추출부(14)는 코 끝 아래 방향으로 급격히 들어간 부분인 인중에 해당하는 특징점을 찾고(S514), 코 끝 아래의 인중이 찾아지면 인중에서 아래 방향으로 약간 볼록한 윗입술 부분이 있고, 윗입술 아래 방향으로 아래 입술이 볼록하게 있으며, 윗입술과 아래 입술이 만나는 좌측과 우측의 입술 끝점을 찾고, 윗입술과 아래 입술이 서로 만나는 중앙선의 좌/우 중심에 해당하는 특징점(A)을 찾음으로써 입에 해당하는 특징점을 찾고(S515), 코끝에서 위를 검색하면 서서히 낮아지다가 다시 높아지는 지점인 미간에 해당하는 특징점을 찾고(S516), 미간에서 양쪽으로 눈동자에 해당되는 낮은 지점에 존재하는 양쪽 눈을 찾은 다음, 눈동자의 중심점으로부터 상/하/좌/우 끝점을 나타내는 특징점과 양쪽 눈의 중심에 해당하는 두 특징점(C와 D)을 찾는다(S517).Subsequently, the three-dimensional feature extraction unit 14 finds a feature point corresponding to the weight that is a sharply entered portion below the tip of the nose (S514), and when the weight below the tip of the nose is found, there is a slightly convex upper lip in the downward direction. , The lower lip is convex in the direction of the upper lip, finds the left and right lip end points where the upper lip and the lower lip meet, and finds a feature point (A) corresponding to the left / right center of the centerline where the upper lip and the lower lip meet each other. Finding a feature point corresponding to the mouth (S515), searching for the stomach at the tip of the nose finds a feature point corresponding to the brow, which is gradually lowered and then raised again (S516), both eyes present at the lower points corresponding to the pupils on both sides of the brow. Next, find the feature points representing the up / down / left / right endpoints from the center of the pupil and the two feature points (C and D) corresponding to the centers of both eyes. The (S517).

이와 같이 추출된 특징점들(A∼D)은 도 6b에 도시된 바와 같으며, 변환부(15)는 상기 추출된 특징점들을 3차원데이터로 변환(S208)한 후, 앞서 전송된 2차원 얼굴사진이 정면인 경우(S209의 "예") 상기 변환된 3차원데이터를 3차원 정면얼굴 특징점 DB에 저장(S213)한다.그리고 동시에 3차원얼굴형상을 표현하는 투영 3D이미지 데이터 또는 3차원얼굴형상으로부터 다시 투영 3D이미지로 변환된 데이터로부터 얼굴의 외곽선 정보 및 턱의 외곽선 정보를 추출하여 데이터베이스에 저장하며, 얼굴사진의 패닝 및 틸팅조건으로 3차원얼굴형상을 회전한 후 다시 투영한 이미지에서 측면얼굴에서의 코의 외곽선 정보도 추출한다.The extracted feature points A to D are as shown in FIG. 6B, and the conversion unit 15 converts the extracted feature points into 3D data (S208), and then transfers the two-dimensional face photographs previously transmitted. In the case of the front face (YES in S209), the converted 3D data is stored in the 3D front face feature point DB (S213). From the projection 3D image data or the 3D face shape representing the 3D face shape at the same time, Extract the outline information of the face and the outline of the jaw from the data converted into the projected 3D image and save it in the database.After rotating the 3D face shape under the panning and tilting conditions of the face, It also extracts the outline of the nose.

이와는 달리, 상기 전송된 2차원 얼굴사진이 정면이 아닌 측면이고(S209의 "아니오") 상기 패닝 및 틸팅변수 검출부(4)에 의해 패닝 및 틸팅변수가 검출(S210의 "예")되어 입력되면, 3차원 패닝 및 틸팅부(9)는 상기 입력된 패닝 및 틸팅변수에 근거하여 3차원데이터로 변환된 3차원 특징점을 패닝 및 틸팅(S211)한 뒤 3차원 측면얼굴 특징점 DB(7)에 저장(S212)한다.On the contrary, when the transmitted two-dimensional face photograph is not a front side (“No” in S209) and the panning and tilting variables are detected and input by the panning and tilting variable detector 4 (“Yes” in S210). , The three-dimensional panning and tilting unit 9 pans and tilts the three-dimensional feature points converted into three-dimensional data based on the input panning and tilting variables (S211) and stores them in the three-dimensional side face feature points DB 7. (S212).

한편, 비교부(6)는 먼저 전체적인 기하학적 구조특징을 비교(geometric feature matching)하고 다음으로 얼굴 부분들의 특징을 비교(local feature analysis)하는 2단계 비교방법을 사용한다. 상세히 설명하면, 3차원 정면얼굴(또는 측면얼굴) 특징점 DB(8 또는 7) 가운데 S201단계에서 전송된 얼굴사진이 정면 또는 측면인지에 근거하여 해당 DB(8 또는 7)에 저장된 3차원 특징점(A∼D)과, 회전상태 및 크기상태가 정규화된 2차원 특징점(a∼d)을 순차적으로 비교(S214)하고, 다음 단계로 각각의 눈의 좌/우 폭과 상/하 높이, 입의 폭을 비교하고 얼굴의 외곽선과 턱의 외곽선 및 측면얼굴에서의 코의 외곽선을 그래프 매칭방법으로 비교한다. 상기 비교결과 2차원 특징점과 유사한 3차원 특징점을 선택(S215)한 뒤, 선택된 3차원 특징점에 해당하는 투영 3D이미지를 투영 3D이미지 DB(13)로부터 독출하여 투영 3D이미지 저장부(12)에 닮은 정도에 따라 하나이상 저장한다.On the other hand, the comparison unit 6 first uses a two-step comparison method of comparing the overall geometric feature (geometric feature matching) and then the feature of the facial features (local feature analysis). In detail, among the three-dimensional front face (or side face) feature points DB 8 or 7, the three-dimensional feature points A stored in the DB 8 or 7 based on whether the face photograph transmitted in step S201 is the front or the side. -D) and the two-dimensional feature points a to d whose rotational state and size state are normalized are sequentially compared (S214), and in the next step, the left / right width, the upper / lower height of each eye, and the width of the mouth are compared. Compare and compare the outline of the face with the outline of the jaw and the outline of the nose in the side face with a graph matching method. As a result of the comparison, after selecting a three-dimensional feature point similar to the two-dimensional feature point (S215), the projection 3D image corresponding to the selected three-dimensional feature point is read out from the projection 3D image DB 13 to resemble the projection 3D image storage unit 12. Store one or more, depending on the degree.

이어, 텍스처 매핑부(11)는 클라이언트 단말기(1)로부터 텍스처 매핑 및 3차원 얼굴형상 선택에 대한 요구를 받아서, 상기 투영 3D이미지 저장부(12)에 저장된 3차원 얼굴형상 즉 투영 3D이미지를 3차원데이터로 변환(S216)한 뒤, 앞서 S201단계에서 전송된 2차원 얼굴사진과 텍스처 매핑하여 3차원 얼굴형상을 제작(S217)하며, 먼저 제작된 3차원얼굴 형상이 만족스럽지 못하는 경우 투영 3D이미지 저장부(12)에 저장된 새로운 투영 3D이미지를 선택하여 제작하는 방법으로 유사한 3차원 특징점을 추가로 선택(S218의 "예")하는 방법에 의해 S216 및 S217단계를 반복 수행한다.Subsequently, the texture mapping unit 11 receives a request for texture mapping and three-dimensional face shape selection from the client terminal 1, and then the three-dimensional face shape stored in the projection 3D image storage unit 12, i. After converting to the dimensional data (S216), to produce a three-dimensional face shape by mapping the texture and the two-dimensional face image transmitted in step S201 (S217), if the produced three-dimensional face shape is not satisfactory projection 3D image Steps S216 and S217 are repeatedly performed by selecting a similar three-dimensional feature point (YES in S218) by selecting and producing a new projection 3D image stored in the storage unit 12.

이와 같이 한 후, 클라이언트 단말기(1)로부터 상기와 같이 제작된 3차원 얼굴형상에 대한 수정요청데이터가 도 8에 도시된 바와 같이, 편집부(10)의 인터페이스부(47)로 입력(S219)되면, 3D얼굴 수정엔진(48)은 상기 입력된 수정요청데이터에 응하도록 상기 제작된 3차원 얼굴형상을 편집(S220)한 후 수정된 3차원데이터 저장부(49)에 저장하며, 수정요청데이터가 추가로 입력(S221의 "예")되는 경우 S220단계 및 수정된 3차원데이터 저장부(49)에의 저장동작을 반복하여 수행한다.After this, if the correction request data for the three-dimensional face shape produced as described above from the client terminal 1 is input to the interface unit 47 of the editing unit 10 as shown in FIG. 8 (S219). The 3D face correction engine 48 edits the produced 3D face shape in response to the inputted correction request data (S220) and stores the modified 3D data storage 49 in the modified 3D data storage unit 49. In addition, when inputting (YES in S221), step S220 and the storage operation to the modified three-dimensional data storage unit 49 are repeatedly performed.

이와는 달리, 편집부(10)의 인터페이스부(47)를 통해 수정요청데이터가 입력되면 3차원 얼굴형상의 편집동작을 3D얼굴 수정엔진(48)에 의해 수행하지 않고, 상기 제작된 3차원 얼굴형상과 입력된 수정요청데이터를 인터넷망에 연결된 온라인 편집부(20)로 전송하고 온라인 편집부(20)에 의해 3차원 얼굴형상의 온라인 편집동작이 수행되도록 할 수 있음은 물론이다.On the contrary, when the correction request data is input through the interface unit 47 of the editing unit 10, the 3D face correction engine 48 does not perform the editing operation of the 3D face shape. Of course, it is possible to transmit the input correction request data to the online editing unit 20 connected to the Internet network and to perform the online editing operation of the three-dimensional face shape by the online editing unit 20.

또한, 도 3은 본 발명이 적용된 다른 실시예의 구성도로서, 도 1과 동일한 구성요소 외에, 3차원 측면얼굴 특징점 DB(37)가 11개의 패닝 및 틸팅 변수에 의해 구분된 11개의 DB(37a∼37k)로 구성된 것에 특징이 있다.3 is a block diagram of another embodiment to which the present invention is applied. In addition to the same components as those of FIG. 1, the three-dimensional side face feature point DB 37 is divided into eleven DBs 37a to 11 divided by eleven panning and tilting parameters. It is characterized by consisting of 37k).

그러므로, 도 1의 일실시예에서는 3차원 패닝 및 틸팅부(9)가 패닝 및 틸팅 변수 검출부(4)에 의해 검출된 패닝 및 틸팅변수에 근거하여 3차원 특징점을 패닝 및 틸팅하고 3차원 측면얼굴 특징점 DB(7)가 이를 저장하였으나, 본 실시예에서는 3차원 패닝 및 틸팅부(39)가 11개의 패닝 및 틸팅변수에 의해 미리 3차원 특징점을 각각 패닝 및 틸팅하고 3차원 측면얼굴 특징점 DB(37)가 이를 구분저장한다.Therefore, in the embodiment of FIG. 1, the three-dimensional panning and tilting unit 9 pans and tilts the three-dimensional feature points based on the panning and tilting variables detected by the panning and tilting variable detection unit 4. Although the feature point DB 7 stores this, in the present embodiment, the 3D panning and tilting unit 39 pans and tilts the 3D feature points in advance by 11 panning and tilting variables, respectively, and the 3D side face feature point DB 37 ) Stores them separately.

따라서, 도 1의 일실시예에서는 전송된 얼굴사진이 측면인 경우, 비교부(6)가 3차원 측면얼굴 특징점 DB(7)로부터 3차원 특징점을 독출하여 앞서 추출된 2차원 특징점과 비교하였으나, 본 실시예에서는 전송된 얼굴사진이 측면인 경우, 비교부(36)가 3차원 측면얼굴 특징점 DB(37a∼37k) 가운데 패닝 및 틸팅변수 검출부(34)로부터 입력된 패닝 및 틸팅변수에 해당하는 DB를 선택하고 선택된 DB로부터 독출된 3차원 특징점과 앞서 추출된 2차원 특징점을 비교하는 것에 차이가 있다.Therefore, in the exemplary embodiment of FIG. 1, when the face image transmitted is the side, the comparator 6 reads the 3D feature point from the 3D side face feature point DB 7 and compares it with the 2D feature point extracted earlier. In the present embodiment, when the transmitted face photograph is a side, a DB corresponding to the panning and tilting variables input from the panning and tilting variable detector 34 among the 3D side face feature points DBs 37a to 37k. There is a difference between selecting and comparing the three-dimensional feature point read from the selected DB with the two-dimensional feature point extracted earlier.

이하에서는 상기와 같이 구성되는 본 발명이 적용된 다른 실시예의 동작에 대해 본 발명이 적용된 다른 실시예의 흐름도인 도 4a 내지 도 4c와 병행하여 설명하되, 전술한 일실시예와 상이한 부분에 대해서만 상세히 언급하기로 한다.Hereinafter, the operation of another embodiment to which the present invention configured as described above will be described in parallel with FIGS. 4A to 4C, which are flowcharts of another embodiment to which the present invention is applied, but will only be described in detail with respect to portions different from the above-described embodiment. Shall be.

먼저 도 4a에서와 같이, 본 실시예에서는 3차원 특징점 추출부(44)가 고객의 얼굴사진이 입력되기 전에 미리 특징점 DB(37, 38)를 구축할 수 있으며, 투영 3D이미지 DB(43)로부터 3차원 얼굴형상(투영 3D이미지)를 독출하고 이로부터 3차원 특징점을 추출(S401)하고, 변환부(45)는 상기 추출된 3차원 특징점을 3차원데이터로 변환(S402)한다.First, as shown in FIG. 4A, in the present embodiment, the 3D feature point extractor 44 may construct the feature points DB 37 and 38 in advance before the face photograph of the customer is input, and from the projection 3D image DB 43. A 3D face shape (projection 3D image) is read and a 3D feature point is extracted therefrom (S401), and the conversion unit 45 converts the extracted 3D feature point into 3D data (S402).

3차원 측면얼굴 특징점 DB(37)를 제작(S403의 "측면얼굴 특징점 DB")하기 위하여, 3차원 패닝 및 틸팅부(39)는 상기 변환된 3차원 특징점을 기 설정된 복수개(본 실시예에서는 11개인 것으로 가정한다.) 패닝 및 틸팅변수에 근거하여 패닝 및 틸팅(S404)한 후 3차원 측면얼굴 특징점 DB(37)내에 11개 DB(37a∼37k) 가운데 해당 DB에 구분저장(S405)한다.In order to produce the three-dimensional side face feature point DB 37 ("side face feature point DB" of S403), the three-dimensional panning and tilting unit 39 sets a plurality of preset three-dimensional feature points (11 in this embodiment). It is assumed to be individual.) After panning and tilting based on the panning and tilting variables (S404), the three-dimensional side face feature point DB 37 is separately stored in the corresponding DB among eleven DBs 37a to 37k.

이와 동시에 정면얼굴 특징점 DB(38)를 제작(S403의 "정면얼굴 특징점 DB")하기 위하여, 상기 변환된 3차원데이터를 3차원 정면얼굴 특징점 DB(38)에 저장(S406)한다.At the same time, in order to produce the front face feature point DB 38 ("front face feature point DB" of S403), the converted three-dimensional data is stored in the three-dimensional front face feature point DB 38 (S406).

그리고 도 4b 및 도 4c에서와 같이, 이후, 클라이언트 단말기(31)로부터 2차원 정면(및/또는 측면) 얼굴사진이 전송(S407)되면 서버 컴퓨터(32)내에 2차원 특징점 추출부(33)는 전송된 2차원 정면 얼굴사진으로부터 2차원 특징점을 추출(S408)하고, 회전상태 정규화부(34)는 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화(S409)한다.4B and 4C, when the two-dimensional front (and / or side) face photograph is transmitted from the client terminal 31 (S407), the two-dimensional feature point extraction unit 33 in the server computer 32 may be used. The two-dimensional feature point is extracted from the transmitted two-dimensional face image (S408), and the rotation state normalization unit 34 normalizes the rotation state of the two-dimensional face image by using the extracted two-dimensional feature point (S409).

이경우에도 상기 전송된 2차원 얼굴사진이 측면인 경우(S410의 "아니오"), 패닝 및 틸팅변수 검출부(34)는 상기 전송된 2차원 얼굴사진의 패닝 및 틸팅변수를 검출(S411)한다. 이어, 크기상태 정규화부(35)는 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화(S412)한다.In this case, when the transmitted two-dimensional face image is the side (No in S410), the panning and tilting variable detector 34 detects the panning and tilting variables of the transmitted two-dimensional face image (S411). Subsequently, the size state normalization unit 35 normalizes the size state of the two-dimensional face photograph by using the extracted two-dimensional feature points (S412).

한편, 상기 S411단계에서 패닝 및 틸팅변수 검출부(34)에 의해 패닝 및 틸팅변수가 검출되고 나면(S413의 "예"), 비교부(36)는 3차원 측면얼굴 특징점 DB(37a∼37k) 가운데 상기 검출된 패닝 및 틸팅변수에 대응되는 3차원 특징점이 저장된 DB를 선택하고 선택된 DB내에 구분저장된 3차원 특징점(A∼D)을, 상기 S402단계에서 추출된 2차원 특징점(a∼d)과 순차적으로 비교(S414)하고, 상기 비교결과 2차원 특징점과 유사한 3차원 특징점을 선택(S415)한 뒤, 선택된 3차원 특징점에 해당하는 투영 3D이미지를 투영 3D이미지 DB(43)로부터 독출하여 투영 3D이미지 저장부(42)에 저장한다.On the other hand, after the panning and tilting variable is detected by the panning and tilting variable detection unit 34 in step S411 (YES in S413), the comparison unit 36 is a center of the three-dimensional side face feature points DB 37a to 37k. Select a DB storing the 3D feature points corresponding to the detected panning and tilting variables, and sequentially store the 3D feature points A to D stored in the selected DB with the 2D feature points a to d extracted in step S402. (S414), select a three-dimensional feature point similar to the two-dimensional feature point (S415), and read the projected 3D image corresponding to the selected three-dimensional feature point from the projected 3D image DB 43 to project the projected 3D image. The storage unit 42 stores it.

이어, 클라이언트 단말기(31)로부터 텍스처 매핑 및 3차원 얼굴형상 선택에 대한 요구를 받아서, 텍스처 매핑부(41)는 상기 투영 3D이미지 저장부(42)에 저장된 3차원 얼굴형상 즉 투영 3D이미지를 3차원데이터로 변환(S416)한 뒤, 앞서 S407단계에서 전송된 2차원 얼굴사진과 텍스처 매핑하여 3차원 얼굴형상을 제작(S417)하며, 먼저 제작된 3차원얼굴 형상이 만족스럽지 못하는 경우 투영 3D이미지 저장부(42)에 저장된 새로운 투영 3D이미지를 선택하여 제작하는 방법으로 유사한 3차원 특징점을 추가로 선택(S418의 "예")하는 방법에 의해 S416 및 S417단계를 반복 수행한다.Subsequently, upon receiving a request for texture mapping and three-dimensional face shape selection from the client terminal 31, the texture mapping unit 41 displays the three-dimensional face shape stored in the projection 3D image storage unit 42, that is, the projection 3D image. After the conversion to the dimensional data (S416), the three-dimensional face shape is produced by texture mapping with the two-dimensional face image transmitted in step S407 (S417), and if the produced three-dimensional face shape is not satisfactory, the projection 3D image Steps S416 and S417 are repeatedly performed by selecting a new three-dimensional (3D) image stored in the storage unit 42 and further selecting similar three-dimensional feature points (YES in S418).

이와 같이 한 후, 클라이언트 단말기(31)로부터 상기와 같이 제작된 3차원 얼굴형상에 대한 수정요청데이터가 도 8에 도시된 바와 같이, 편집부(40)의 인터페이스부(47)로 입력(S419)되면, 3D얼굴 수정엔진(48)은 상기 입력된 수정요청데이터에 응하도록 상기 제작된 3차원 얼굴형상을 편집(S420)한 후 수정된 3차원데이터 저장부(49)에 저장하며, 수정요청데이터가 추가로 입력(S421의 "예")되는 경우 S420단계 및 수정된 3차원데이터 저장부(49)에의 저장동작을 반복하여 수행한다.After doing this, when the correction request data for the three-dimensional face shape produced as described above is input from the client terminal 31 to the interface unit 47 of the editing unit 40 as shown in FIG. 8 (S419). The 3D face correction engine 48 edits the produced 3D face shape in response to the input correction request data (S420) and stores the modified 3D data storage unit 49 in the modified 3D data storage unit 49. In addition, when an input (YES in S421) is performed, the operation S420 and the storage operation in the modified 3D data storage unit 49 are repeatedly performed.

또한, 편집부(40)의 인터페이스부(47)를 통해 수정요청데이터가 입력되면 3차원 얼굴형상의 편집동작을 3D얼굴 수정엔진(48)에 의해 수행하지 않고, 상기 제작된 3차원 얼굴형상과 입력된 수정요청데이터를 인터넷망에 연결된 온라인 편집부(50)로 전송하고 온라인 편집부(50)에 의해 3차원 얼굴형상의 온라인 편집동작이 수행되도록 할 수도 물론이다.In addition, when the correction request data is input through the interface unit 47 of the editing unit 40, the 3D face correction engine 48 does not perform the editing operation of the 3D face shape, and inputs the 3D face shape and the produced 3D face shape. The modified request data may be transmitted to the online editing unit 50 connected to the internet network, and the online editing unit 50 may perform the online editing operation of the three-dimensional face shape.

이상의 본 발명은 상기에 기술된 실시예들에 의해 한정되지 않고, 당업자들에 의해 다양한 변형 및 변경을 가져올 수 있으며, 이는 첨부된 청구항에서 정의되는 본 발명의 취지와 범위에 포함된다.The present invention is not limited to the embodiments described above, and various modifications and changes can be made by those skilled in the art, which are included in the spirit and scope of the present invention as defined in the appended claims.

이상에서 살펴본 바와 같이 본 발명은, 2차원 얼굴사진과 가장 유사한 3차원 얼굴형상을 제작할 수 있는 효과가 있다.As described above, the present invention has the effect of producing a three-dimensional face shape most similar to a two-dimensional face photograph.

또한, 본 발명은 2차원 얼굴사진과 사전에 확보된 3차원 얼굴형상을 비교하여 3차원 얼굴형상을 제작하는 데 있어 비교검색 효율을 높일 수 있는 효과가 있다.In addition, the present invention has the effect of improving the comparison search efficiency in producing a three-dimensional face shape by comparing the two-dimensional face photograph and the three-dimensional face shape secured in advance.

도 1은 본 발명이 적용된 일실시예의 구성도이고,1 is a configuration of an embodiment to which the present invention is applied,

도 2a 및 도 2b는 본 발명이 적용된 일실시예의 흐름도이고,2a and 2b is a flow chart of an embodiment to which the present invention is applied,

도 3은 본 발명이 적용된 다른 실시예의 구성도이고,3 is a configuration diagram of another embodiment to which the present invention is applied;

도 4a 내지 도 4c는 본 발명이 적용된 다른 실시예의 흐름도이고,4a to 4c is a flow chart of another embodiment to which the present invention is applied,

도 5a는 2차원 얼굴사진으로부터 2차원 특징점을 추출하는 흐름도이고,5A is a flowchart of extracting two-dimensional feature points from a two-dimensional face photograph,

도 5b는 3차원 얼굴형상으로부터 3차원 특징점을 추출하는 흐름도이고,5B is a flowchart for extracting three-dimensional feature points from a three-dimensional face shape.

도 6a는 2차원 얼굴사진과 이로부터 추출된 2차원 특징점을 대비하여 도시한 것이고,FIG. 6A illustrates a two-dimensional face photograph and two-dimensional feature points extracted therefrom,

도 6b는 3차원 정면 얼굴형상과 이로부터 추출된 3차원 특징점을 대비하여 도시한 것이고,FIG. 6B is a view illustrating a three-dimensional front face shape and three-dimensional feature points extracted therefrom,

도 6c는 3차원 측면 얼굴형상과 이로부터 추출된 3차원 특징점을 대비하여 도시한 것이고,FIG. 6C illustrates a three-dimensional side face shape and three-dimensional feature points extracted therefrom.

도 7은 투영 3D이미지의 일 실시예를 나타내는 도면이고,7 is a view showing an embodiment of a projection 3D image,

도 8은 도 1 및 도 3의 구성 가운데 클라이언트 단말기(1,31)의 요청에 의한 편집동작을 수행하기 위해 서버 컴퓨터(2,32)에 추가되는 구성요소들을 상세도시한 것이다.FIG. 8 illustrates in detail the components added to the server computers 2 and 32 to perform the editing operation by the request of the client terminals 1 and 31 in the configuration of FIGS. 1 and 3.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

1,31 : 클라이언트 단말기 2,32 : 서버 컴퓨터1,31: client terminal 2,32: server computer

3,33 : 2차원 특징점 추출부3,33: 2D feature point extraction unit

4,34 : 회전상태 정규화부(패닝 및 틸팅 변수 검출부)4,34: rotation state normalization unit (panning and tilting variable detection unit)

5,35 : 크기상태 정규화부 6,36 : 비교부5,35: Size state normalization unit 6,36: Comparison unit

7,37 : 3차원 측면얼굴 특징점 DB7,37: 3D side face feature point DB

8,38 : 3차원 정면얼굴 특징점 DB8,38: 3D front face feature point DB

9,39 : 3차원 패닝 및 틸팅부 10,40 : 편집부9,39: 3D panning and tilting unit 10,40: Editing unit

11,41 : 텍스처 매핑부 12,42 : 투영 3D이미지 저장부11,41 texture mapping unit 12,42 projection 3D image storage unit

13,43 : 투영 3D이미지 DB 14,44 : 3차원 특징점 추출부13,43: Projection 3D image DB 14,44: 3D feature point extraction unit

15,45 : 변환부 20,50 : 온라인 편집부15,45: converter 20,50: online editor

47 : 인터페이스부 48 : 3D얼굴 수정엔진47: interface unit 48: 3D face correction engine

49 : 수정된 3차원데이터 저장부49: modified three-dimensional data storage unit

Claims (66)

삭제delete 2차원 얼굴사진으로부터 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화하는 회전상태 정규화수단;Rotational state normalization means for normalizing the rotational state of the two-dimensional face photograph by using the two-dimensional feature points extracted from the two-dimensional face photograph; 상기 2차원 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화하는 크기상태 정규화수단;Size state normalization means for normalizing the size state of a two-dimensional face photograph using the two-dimensional feature points; 복수개 3차원 얼굴형상을 저장하는 저장수단;Storage means for storing a plurality of three-dimensional face shapes; 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 3차원 얼굴형상으로부터 추출된 3차원 특징점과 순차적으로 비교하는 비교수단; 및Comparison means for sequentially comparing the two-dimensional feature points of which the rotation state and the size state are normalized with the three-dimensional feature points extracted from the three-dimensional face shape; And 상기 비교결과에 근거하여 상기 저장된 복수개 3차원 얼굴형상 가운데 하나의 3차원 얼굴형상을 선택하고, 선택된 3차원 얼굴형상과 상기 2차원 얼굴사진을 이용하여 3차원 얼굴형상을 제작하는 제작수단을 포함하며,A production means for selecting one three-dimensional face shape among the stored plurality of three-dimensional face shapes based on the comparison result, and manufacturing a three-dimensional face shape using the selected three-dimensional face shape and the two-dimensional face picture; , 상기 복수개 3차원 얼굴형상은 레인지 데이터(range data)의 형태로 저장된 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.The three-dimensional face shape obtaining system from a two-dimensional face picture, characterized in that the plurality of three-dimensional face shape is stored in the form of range data (range data). 제 2항에 있어서,The method of claim 2, 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출수단; 및Variable detecting means for detecting a panning and tilting (left / right and up / down bias) variable of a two-dimensional face photograph by using the extracted two-dimensional feature points; And 상기 검출된 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 패닝 및 틸팅하는 제 1 패닝 및 틸팅 수단을 더 포함하고,First panning and tilting means for panning and tilting the extracted three-dimensional feature points based on the detected panning and tilting parameters, 상기 비교수단은, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을 상기 패닝 및 틸팅된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And the comparing means sequentially compares the two-dimensional feature points of which the rotation state and the size state are normalized with the panned and tilted three-dimensional feature points. 제 3항에 있어서,The method of claim 3, wherein 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 패닝 및 틸팅하는 제 2 패닝 및 틸팅 수단; 및Second panning and tilting means for panning and tilting the extracted three-dimensional feature points based on at least one preset panning and tilting parameter; And 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장수단을 더 포함하고,And second storage means for classifying and storing the panned and tilted three-dimensional feature points according to the panning and tilting parameters. 상기 비교수단은,The comparison means, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 제 2 저장수단에 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a two-dimensional feature point of which the rotation state and the size state are normalized are sequentially compared with the three-dimensional feature points stored in the second storage means. 제 2항에 있어서,The method of claim 2, 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출수단;Variable detecting means for detecting a panning and tilting (left / right and up / down bias) variable of a two-dimensional face photograph by using the extracted two-dimensional feature points; 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 각각 패닝 및 틸팅하는 제 2 패닝 및 틸팅 수단; 및Second panning and tilting means for panning and tilting the extracted three-dimensional feature points, respectively, based on at least one preset panning and tilting parameter; And 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장수단을 더 포함하고,And second storage means for classifying and storing the panned and tilted three-dimensional feature points according to the panning and tilting parameters. 상기 비교수단은,The comparison means, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 제 2 저장수단에 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a two-dimensional feature point of which the rotation state and the size state are normalized are sequentially compared with the three-dimensional feature points stored in the second storage means. 제 2항에 있어서, 상기 회전상태 정규화수단은,The method of claim 2, wherein the rotation state normalization means, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a two-dimensional face image obtained from the two-dimensional face photograph, wherein the two-dimensional face photograph is rotated so that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 3항에 있어서, 상기 회전상태 정규화수단은,The method of claim 3, wherein the rotation state normalization means, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a two-dimensional face image obtained from the two-dimensional face photograph, wherein the two-dimensional face photograph is rotated so that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 4항에 있어서, 상기 회전상태 정규화수단은,The method of claim 4, wherein the rotation state normalization means, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a two-dimensional face image obtained from the two-dimensional face photograph, wherein the two-dimensional face photograph is rotated so that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 5항에 있어서, 상기 회전상태 정규화수단은,The method of claim 5, wherein the rotation state normalization means, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a two-dimensional face image obtained from the two-dimensional face photograph, wherein the two-dimensional face photograph is rotated so that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 2항에 있어서, 상기 크기상태 정규화수단은,The method of claim 2, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 3항에 있어서, 상기 크기상태 정규화수단은,The method of claim 3, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 4항에 있어서, 상기 크기상태 정규화수단은,The method of claim 4, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 5항에 있어서, 상기 크기상태 정규화수단은,The method of claim 5, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 6항에 있어서, 상기 크기상태 정규화수단은,The method of claim 6, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 7항에 있어서, 상기 크기상태 정규화수단은,The method of claim 7, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 8항에 있어서, 상기 크기상태 정규화수단은,The method of claim 8, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 9항에 있어서, 상기 크기상태 정규화수단은,The method of claim 9, wherein the size state normalization means, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And a size of the two-dimensional face image is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 2항에 있어서,The method of claim 2, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 3항에 있어서,The method of claim 3, wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 4항에 있어서,The method of claim 4, wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 5항에 있어서,The method of claim 5, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 6항에 있어서,The method of claim 6, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 7항에 있어서,The method of claim 7, wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 8항에 있어서,The method of claim 8, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 9항에 있어서,The method of claim 9, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 10항에 있어서,The method of claim 10, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 11항에 있어서,The method of claim 11, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 12항에 있어서,The method of claim 12, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 13항에 있어서,The method of claim 13, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 14항에 있어서,The method of claim 14, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 15항에 있어서,The method of claim 15, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 16항에 있어서,The method of claim 16, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 제 17항에 있어서,The method of claim 17, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집수단을 더 포함하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득시스템.And editing means for editing the produced three-dimensional face shape in response to the inputted correction request data when inputting correction request data for the three-dimensional face shape. Face shape acquisition system. 삭제delete 2차원 얼굴사진으로부터 2차원 특징점을 추출하는 제 1 추출단계;A first extraction step of extracting a two-dimensional feature point from the two-dimensional face photograph; 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 회전상태를 정규화하는 회전상태 정규화단계;A rotation state normalization step of normalizing the rotation state of the two-dimensional face photograph by using the extracted two-dimensional feature points; 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 크기상태를 정규화하는 크기상태 정규화단계;A size state normalization step of normalizing the size state of the two-dimensional face photograph by using the extracted two-dimensional feature points; 기 저장된 복수개 3차원 얼굴형상으로부터 3차원 특징점을 추출하는 제 2 추출단계;A second extraction step of extracting a three-dimensional feature point from a plurality of previously stored three-dimensional face shapes; 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 추출된 3차원 특징점과 순차적으로 비교하는 비교단계; 및A comparison step of sequentially comparing the two-dimensional feature points of which the rotation state and the size state are normalized with the extracted three-dimensional feature points; And 상기 비교결과에 근거하여 기 저장된 복수개 3차원 얼굴형상 가운데 하나의 3차원 얼굴형상을 선택하고, 선택된 3차원 얼굴형상과 상기 2차원 얼굴사진을 이용하여 3차원 얼굴형상을 제작하는 제작단계를 포함하며,Selecting a three-dimensional face shape among a plurality of three-dimensional face shapes previously stored based on the comparison result, and manufacturing a three-dimensional face shape using the selected three-dimensional face shape and the two-dimensional face picture; , 기 저장된 복수개 3차원 얼굴형상은 레인지 데이터(range data) 형태인 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.A plurality of pre-stored three-dimensional face shape is a method of obtaining a three-dimensional face shape from a two-dimensional face picture, characterized in that the range data (range data) form. 제 35항에 있어서,The method of claim 35, wherein 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출단계; 및A variable detecting step of detecting a panning and tilting (left / right and up / down bias) variable of a two-dimensional face image by using the extracted two-dimensional feature points; And 상기 검출된 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 패닝 및 틸팅하는 제 1 패닝 및 틸팅 단계를 더 포함하여 이루어지고,A first panning and tilting step of panning and tilting the extracted three-dimensional feature points based on the detected panning and tilting parameters, 상기 비교단계는, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을 상기 패닝 및 틸팅된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And the comparing step sequentially compares two-dimensional feature points whose rotational state and size state are normalized with the three-dimensional feature points panned and tilted. 제 36항에 있어서,The method of claim 36, 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 각각 패닝 및 틸팅하는 제 2 패닝 및 틸팅 단계; 및A second panning and tilting step of panning and tilting the extracted three-dimensional feature points, respectively, based on at least one preset panning and tilting variable; And 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장단계를 더 포함하고,And storing the panned and tilted three-dimensional feature points separately according to the panning and tilting parameters. 상기 비교단계는,The comparing step, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And a two-dimensional feature point of which the rotation state and the size state are normalized are sequentially compared with the three-dimensional feature points stored separately. 제 35항에 있어서,The method of claim 35, wherein 상기 추출된 2차원 특징점을 이용하여 2차원 얼굴사진의 패닝 및 틸팅(좌/우 및 상/하 치우침) 변수를 검출하는 변수 검출단계;A variable detecting step of detecting a panning and tilting (left / right and up / down bias) variable of a two-dimensional face image by using the extracted two-dimensional feature points; 기 설정된 적어도 하나 이상의 패닝 및 틸팅 변수에 근거하여, 상기 추출된 3차원 특징점을 각각 패닝 및 틸팅하는 제 2 패닝 및 틸팅 단계; 및A second panning and tilting step of panning and tilting the extracted three-dimensional feature points, respectively, based on at least one preset panning and tilting variable; And 상기 패닝 및 틸팅된 3차원 특징점을 상기 패닝 및 틸팅 변수에 따라 구분저장하는 제 2 저장단계를 더 포함하고,And storing the panned and tilted three-dimensional feature points separately according to the panning and tilting parameters. 상기 비교단계는,The comparing step, 상기 회전상태 및 크기상태가 정규화된 2차원 특징점을, 상기 구분저장된 3차원 특징점과 순차적으로 비교하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And a two-dimensional feature point of which the rotation state and the size state are normalized are sequentially compared with the three-dimensional feature points stored separately. 제 35항에 있어서, 상기 회전상태 정규화단계는,The method of claim 35, wherein the rotating state normalization step, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And a two-dimensional face image obtained by rotating a two-dimensional face image such that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 36항에 있어서, 상기 회전상태 정규화단계는,The method of claim 36, wherein the rotation state normalization step, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And a two-dimensional face image obtained by rotating a two-dimensional face image such that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 37항에 있어서, 상기 회전상태 정규화단계는,The method of claim 37, wherein the rotation state normalization step, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And a two-dimensional face image obtained by rotating a two-dimensional face image such that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 38항에 있어서, 상기 회전상태 정규화단계는,The method of claim 38, wherein the rotation state normalization step, 상기 추출된 2차원 특징점 가운데 양 눈에 해당하는 두 특징점을 연결한 직선이 지면과 수평이 되도록 2차원 얼굴사진을 회전시키는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.And a two-dimensional face image obtained by rotating a two-dimensional face image such that a straight line connecting two feature points corresponding to both eyes among the extracted two-dimensional feature points is horizontal with the ground. 제 35항에 있어서, 상기 크기상태 정규화단계는,The method of claim 35, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 36항에 있어서, 상기 크기상태 정규화단계는,The method of claim 36, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 37항에 있어서, 상기 크기상태 정규화단계는,The method of claim 37, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 38항에 있어서, 상기 크기상태 정규화단계는,The method of claim 38, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 39항에 있어서, 상기 크기상태 정규화단계는,40. The method of claim 39, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 40항에 있어서, 상기 크기상태 정규화단계는,The method of claim 40, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 41항에 있어서, 상기 크기상태 정규화단계는,42. The method of claim 41, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 42항에 있어서, 상기 크기상태 정규화단계는,43. The method of claim 42, wherein the size state normalization step, 상기 추출된 2차원 특징점 가운데 임의의 두 특징점간의 거리가, 지정된 값을 갖도록 2차원 얼굴사진의 크기를 확대 또는 축소하는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.3. The method of claim 3, wherein the size of the two-dimensional face photograph is enlarged or reduced so that the distance between any two feature points among the extracted two-dimensional feature points has a specified value. 제 35항에 있어서,The method of claim 35, wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 36항에 있어서,The method of claim 36, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 37항에 있어서,The method of claim 37, wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 38항에 있어서,The method of claim 38, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 39항에 있어서,The method of claim 39, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 40항에 있어서,The method of claim 40, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 41항에 있어서,42. The method of claim 41 wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 42항에 있어서,The method of claim 42, wherein 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 43항에 있어서,The method of claim 43, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 44항에 있어서,The method of claim 44, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 45항에 있어서,The method of claim 45, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 46항에 있어서,The method of claim 46, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 47항에 있어서,The method of claim 47, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 48항에 있어서,The method of claim 48, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 49항에 있어서,The method of claim 49, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape. 제 50항에 있어서,51. The method of claim 50, 상기 제작된 3차원 얼굴형상에 대한 수정요청데이터 입력시, 상기 입력된 수정요청데이터에 응하여 상기 제작된 3차원 얼굴형상을 편집하는 편집단계를 더 포함하여 이루어지는 것을 특징으로 하는 2차원 얼굴사진으로부터 3차원 얼굴형상 획득방법.When the correction request data is input to the produced three-dimensional face shape, the editing step of editing the produced three-dimensional face shape in response to the input correction request data further comprises three from the two-dimensional face picture, characterized in that How to obtain dimensional face shape.
KR10-2002-0034072A 2002-06-18 2002-06-18 System and method for acquiring a 3D face digital data from 2D photograph KR100515085B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0034072A KR100515085B1 (en) 2002-06-18 2002-06-18 System and method for acquiring a 3D face digital data from 2D photograph

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0034072A KR100515085B1 (en) 2002-06-18 2002-06-18 System and method for acquiring a 3D face digital data from 2D photograph

Publications (2)

Publication Number Publication Date
KR20030096965A KR20030096965A (en) 2003-12-31
KR100515085B1 true KR100515085B1 (en) 2005-09-14

Family

ID=32387549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0034072A KR100515085B1 (en) 2002-06-18 2002-06-18 System and method for acquiring a 3D face digital data from 2D photograph

Country Status (1)

Country Link
KR (1) KR100515085B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682889B1 (en) * 2003-08-29 2007-02-15 삼성전자주식회사 Method and Apparatus for image-based photorealistic 3D face modeling
KR100654396B1 (en) * 2005-12-15 2006-12-06 제양수 3d conversion apparatus for 2d face image and simulation apparatus for hair style using computer
KR100930994B1 (en) * 2007-12-18 2009-12-10 주식회사 케이티 Method and apparatus for generating 3D image model, image recognition method and apparatus using same, and recording medium recording program for performing the methods
US20180210546A1 (en) * 2014-06-02 2018-07-26 Xlabs Pty Ltd Pose-invariant eye-gaze tracking using a single commodity camera
KR101692493B1 (en) * 2015-10-07 2017-01-03 (주)에스앤 Device and method of transform 2D image to 3D image
CN108346175B (en) * 2018-02-06 2023-10-20 腾讯科技(深圳)有限公司 Face image restoration method, device and storage medium
US11830132B2 (en) 2018-12-06 2023-11-28 Deepixel Inc. Device for processing face feature point estimation image on basis of standard face model, and phusical computer-readable recording medium in which program for processing face feature point estimation image on basis of standard face medel is recorded
KR102181161B1 (en) * 2019-03-28 2020-11-20 한국과학기술원 Image processing method and apparatus
CN111104918A (en) * 2019-12-24 2020-05-05 杭州魔点科技有限公司 Access control method, device, electronic equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074271A (en) * 1996-08-30 1998-03-17 Nippon Telegr & Teleph Corp <Ntt> Method and device for preparing three-dimensional portrait
JP2001283224A (en) * 2000-03-31 2001-10-12 Nec Corp Face collating method, recording medium stored with the collating method and face collator
JP2001283222A (en) * 2000-03-30 2001-10-12 Nec Corp Method for collating two-dimensional image with one of plural three-dimensional candidate models
KR20020021803A (en) * 2002-03-05 2002-03-22 백수곤 3D Modeling from 2D image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074271A (en) * 1996-08-30 1998-03-17 Nippon Telegr & Teleph Corp <Ntt> Method and device for preparing three-dimensional portrait
JP2001283222A (en) * 2000-03-30 2001-10-12 Nec Corp Method for collating two-dimensional image with one of plural three-dimensional candidate models
JP2001283224A (en) * 2000-03-31 2001-10-12 Nec Corp Face collating method, recording medium stored with the collating method and face collator
KR20020021803A (en) * 2002-03-05 2002-03-22 백수곤 3D Modeling from 2D image

Also Published As

Publication number Publication date
KR20030096965A (en) 2003-12-31

Similar Documents

Publication Publication Date Title
JP6685827B2 (en) Image processing apparatus, image processing method and program
US7221809B2 (en) Face recognition system and method
RU2358319C2 (en) Method and device for photorealistic three dimensional simulation of face based on image
CN106909875B (en) Face type classification method and system
US7764828B2 (en) Method, apparatus, and computer program for processing image
US7835568B2 (en) Method and apparatus for image-based photorealistic 3D face modeling
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US20200118332A1 (en) Method for establishing a deformable 3d model of an element, and associated system
JPWO2006049147A1 (en) Three-dimensional shape estimation system and image generation system
JP2010109783A (en) Electronic camera
JP6452360B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN113628327A (en) Head three-dimensional reconstruction method and equipment
CN110363133A (en) A kind of method, apparatus, equipment and the storage medium of line-of-sight detection and video processing
KR100515085B1 (en) System and method for acquiring a 3D face digital data from 2D photograph
JP2003090714A (en) Image processor and image processing program
JPH1185988A (en) Face image recognition system
JP5419777B2 (en) Face image synthesizer
JP5419773B2 (en) Face image synthesizer
JP2020173726A (en) Virtual viewpoint conversion device and program
JP7326965B2 (en) Image processing device, image processing program, and image processing method
JP4505616B2 (en) Eigenspace learning device, eigenspace learning method, and eigenspace program
KR100474837B1 (en) Apparatus and method for normalization and feature extraction of 3-Dimension facial data
JP7197211B2 (en) Three-dimensional graphics data creation method, program, and three-dimensional graphics data creation system
JP2008016054A (en) Three-dimensional shape-estimating system and image-generating system
JP2024003402A (en) Information processing device, and information processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee