KR20170019779A - Method and Apparatus for detection of 3D Face Model Using Portable Camera - Google Patents

Method and Apparatus for detection of 3D Face Model Using Portable Camera Download PDF

Info

Publication number
KR20170019779A
KR20170019779A KR1020150114039A KR20150114039A KR20170019779A KR 20170019779 A KR20170019779 A KR 20170019779A KR 1020150114039 A KR1020150114039 A KR 1020150114039A KR 20150114039 A KR20150114039 A KR 20150114039A KR 20170019779 A KR20170019779 A KR 20170019779A
Authority
KR
South Korea
Prior art keywords
face
model
dimensional
dimensional face
image
Prior art date
Application number
KR1020150114039A
Other languages
Korean (ko)
Inventor
김종민
Original Assignee
트라이큐빅스 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 트라이큐빅스 인크. filed Critical 트라이큐빅스 인크.
Priority to KR1020150114039A priority Critical patent/KR20170019779A/en
Priority to PCT/KR2016/008890 priority patent/WO2017026839A1/en
Publication of KR20170019779A publication Critical patent/KR20170019779A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a 3D face model obtaining method and device which use a portable camera. The 3D face model obtaining device using a portable camera comprises: a face image capturing unit for capturing an image of users face; a face image processing unit for extracting a series of face images from the captured user face image; a 3D face mesh generating unit for analyzing the relationships between the face images and generating a 3D user face mesh; a standard face model matching unit for matching a 3D face standard model to the 3D face mesh made by the mesh generating unit, and ultimately making a high-quality 3D user face model; a face skin texture composing unit for generating a face skin texture from the captured image; and a realistic face rendering unit for using the high-quality 3D face model and skin texture of the user to carry out realistic rendering.

Description

휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치{Method and Apparatus for detection of 3D Face Model Using Portable Camera}TECHNICAL FIELD The present invention relates to a method and apparatus for acquiring a three-dimensional face model using a portable camera,

본 발명은 카메라로부터 이용하여 3차원 얼굴 모델을 생성하는 방법 및 장치에 대한 것으로, 더욱 상세하게는 카메라로부터 촬영된 일련의 연속된 이미지들로부터 고품질의 사실적인 3차원 얼굴 모델을 생성하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating a three-dimensional face model using a camera, and more particularly to a method for generating a high-quality photorealistic three-dimensional face model from a series of successive images photographed from a camera, ≪ / RTI >

카메라를 이용하여 3차원 얼굴 모델을 생성하는 방법에는 여러 대의 동기화된 카메라를 사용하여 방법과 한대의 카메라를 사용하는 방법이 있다. 여러 대의 동기화된 카메라를 사용하는 경우에는 여러 대의 고해상도 카메라를 고정된 위치에 배치하는데, 이때 카메라는 컬러 카메라뿐 아니라, 깊이(depth) 카메라도 구성될 수 있다. 이렇게 하여 한번에 여러 장의 캘리브레이션(calibration)된 이미지를 획득하여 3차원 얼굴 모델을 생성한다. A method of generating a three-dimensional face model using a camera includes a method using a plurality of synchronized cameras and a method using a single camera. When using multiple synchronized cameras, several high-resolution cameras are placed in fixed positions, where the camera can be configured as a depth camera as well as a color camera. Thus, a plurality of calibrated images are acquired at a time to generate a three-dimensional face model.

이러한 접근 방법은 한 순간에 얼굴 사진을 얻어낼 수 있고, 이미 동기화된 카메라 정보를 이용할 수 있기 때문에 빠른 시간에 3차원 얼굴 모델을 만들어 낼 수 있다. 하지만, 일반적으로 고가의 장비가 요구되고, 또한 고정된 위치에 카메라를 배치하기 위해 적지 않은 공간을 차지하기 때문에 설치 비용이 많이 들고, 일반 사용자들이 이용하는데 비용과 공간에 대한 제약이 있다.This approach can capture facial photographs in a single moment and use the already synchronized camera information to create a three-dimensional facial model in a short time. However, in general, expensive equipment is required, and since it takes up a considerable amount of space to place the camera in a fixed position, the installation cost is high, and there is a limitation in cost and space for general users to use.

한 대의 카메라를 사용하여 3차원 얼굴 모델을 만들어 내기 위해서는 한 장 이상의 이미지를 얻기 위해 여러 번 얼굴을 찍어야 한다. 우선 얼굴의 특징점(눈, 코, 입 주변 점)들을 찾아내고, 각 특징점들의 상관관계를 분석하여, 3차원 공간상의 좌표들을 얻어낸다. 이미 만들어져 있는 3차원 모델의 해당하는 점들을 변형하여 사용자의 3차원 얼굴 모델을 얻어낸다. 하지만, 생성된 특징점들의 개수가 수십 개 정도여서, 사람들의 다양한 얼굴 형태를 3차원으로 가상 성형이 가능한 수준으로 정확히 복원하는 데는 한계가 있다.To create a three-dimensional face model using a single camera, you have to face multiple times to get more than one image. First, the feature points (eye, nose, and mouth points) of the face are found, and the correlation of each feature point is analyzed to obtain coordinates in three-dimensional space. Dimensional model of the user is obtained by transforming corresponding points of the three-dimensional model already created. However, since the number of generated feature points is several tens, there is a limitation in accurately restoring the various facial shapes of people to a level that allows virtual molding in three dimensions.

전술한 문제점을 해결하기 위한 본 발명의 목적은 카메라로부터 촬영된 일련의 연속된 이미지들로부터 고품질의 사실적인 3차원 얼굴 모델을 생성하기 위한 방법 및 장치를 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to overcome the above-mentioned problems by providing a method and apparatus for generating high-quality realistic three-dimensional face models from a series of successive images taken from a camera.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the technical matters mentioned above, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

일 측면에 있어서, 본 발명에서 제안하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치는 휴대용 카메라를 이용하여 촬영 가이드 UI 에 따라 사용자 얼굴을 촬영하여 동영상 및 이미지 시퀀스를 저장하는 얼굴 영상 촬영부, 상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 3차원 얼굴 모델이 생성될 수 있을지 검증하고, 상기 촬영된 영상으로부터 일련의 얼굴 이미지들을 추출하는 얼굴 영상 처리부, 상기 일련의 얼굴 이미지들 간의 관계를 분석하여 3차원 얼굴 메쉬를 생성하고, 상기 생성된 3차원 얼굴 메쉬에서 사용자 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역을 추출하고 나머지는 제거하는 3차원 얼굴 메쉬 생성부, 미리 정해진 3차원 얼굴 표준 모델을 상기 3차원 얼굴 메쉬에 정합하여 최적의 3차원 얼굴 모델을 생성하는 표준 얼굴 모델 정합부, 상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 얼굴 피부 텍스처를 합성하는 얼굴 피부 텍스처 합성부, 및 상기 최적의 3차원 얼굴 모델과 상기 얼굴 피부 텍스처를 이용하여 사실적 렌더링을 실시하는 사실적 얼굴 렌더링부를 포함할 수 있다. In one aspect, a three-dimensional face model acquisition apparatus using a portable camera proposed in the present invention includes a face image photographing unit for photographing a user's face according to a photographing guide UI using a portable camera and storing a moving image and an image sequence, A face image processing unit for verifying whether a three-dimensional face model can be generated from a photographed image by using sensors mounted on a camera and extracting a series of face images from the photographed image; A three-dimensional face mesh generation unit for generating a three-dimensional face mesh, extracting a mask area including the eyes, nose, mouth, jaw and forehead of the user's face in the generated three-dimensional face mesh, A three-dimensional face model is matched to the three-dimensional face mesh to obtain an optimal three-dimensional face model A facial skin texture synthesizer for synthesizing a facial skin texture from the photographed image using the sensors mounted on the portable camera, and a facial skin texture synthesizer using the optimal three-dimensional facial model and the facial skin texture And a realistic face rendering unit that performs realistic rendering.

상기 3차원 얼굴 영상 처리부는 상기 일련의 얼굴 이미지들의 집합에서 일정 프레임 간격으로 이미지를 선택할 수 있다. The 3D face image processing unit may select an image at a predetermined frame interval from the set of the face images.

상기 3차원 얼굴 메쉬 생성부는 상기 얼굴 영상 처리부를 통해 최적화 처리된 상기 일련의 얼굴 이미지들에서 Key point들 추출하고, 상기 Key point들 간의 공간상의 관계를 분석하여 3차원 포인트 클라우드를 만들고, 상기 3차원 포인트 클라우드의 공간상의 점들을 연결하여 상기 3차원 얼굴 메쉬를 생성할 수 있다. The three-dimensional face mesh generation unit extracts Key points from the series of face images optimized through the face image processing unit, analyzes the spatial relationship between the key points to create a three-dimensional point cloud, The three-dimensional face mesh can be generated by connecting points on the space of the point cloud.

상기 표준 얼굴 모델 정합부는 미리 정해진 3차원 얼굴 표준 모델을 이용하여, 상기 3차원 얼굴 메쉬와 정합하고, 최종적인 얼굴 변형이 가능한 3차원 얼굴 모델을 생성할 수 있다. The standard face model matching unit may generate a three-dimensional face model that matches the three-dimensional face mesh using a predetermined three-dimensional face standard model and is capable of final face modification.

상기 얼굴 피부 텍스처 합성부는 상기 최적의 3차원 얼굴 모델을 UV 공간으로 변환하고, 사용자 이미지들을 합성하여 렌더링을 위한 얼굴 피부 텍스처 맵들을 생성할 수 있다. The facial skin texture synthesis unit may convert the optimal 3D facial model into UV space, and synthesize user images to generate facial skin texture maps for rendering.

상기 사실적 얼굴 렌더링부는 상기 최적의 3차원 얼굴 모델에 얼굴 피부 텍스처를 매핑하고, 피부 효과를 시뮬레이션 하는 기술을 사용하여 사실적 얼굴 렌더링을 수행할 수 있다. The realistic face rendering unit may perform realistic face rendering using a technique of mapping a face skin texture to the optimal three-dimensional face model and simulating a skin effect.

또 다른 일 측면에 있어서, 본 발명에서 제안하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법은 휴대용 카메라를 이용하여 촬영 가이드 UI 에 따라 사용자 얼굴을 촬영하여 동영상 및 이미지 시퀀스를 저장하는 단계, 상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 3차원 얼굴 모델이 생성될 수 있을지 검증하는 단계, 상기 촬영된 영상으로부터 일정 프레임 간격으로 이미지를 선택하는 단계, 상기 촬영된 영상으로부터 Key point 들을 추출하고, 상기 Key point들 간의 공간상 관계를 분석하여 3차원 포인트 클라우드들을 생성하는 단계, 상기 3차원 포인트 클라우드들의 각 포인트들을 연결하여 메쉬를 생성하는 단계, 상기 생성된 메쉬에서 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역을 추출하고 나머지는 제거하는 단계, 미리 정해진 3차원 얼굴 표준 모델을 상기 3차원 얼굴 메쉬에 정합하여 최적의 3차원 얼굴모델을 모델링하는 단계, 및 상기 촬영된 영상으로부터 상기 최적의3차원 얼굴 모델을 매핑하기 위한 얼굴 피부 텍스처 맵을 합성하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided a method for acquiring a three-dimensional face model using a portable camera, comprising the steps of: capturing a user's face in accordance with a photographing guide UI using a portable camera to store a moving image and an image sequence; Dimensional face model from the photographed image using sensors mounted on the camera, selecting an image at a predetermined frame interval from the photographed image, extracting key points from the photographed image, Generating three-dimensional point clouds by analyzing a spatial relationship between the Key points, generating a mesh by connecting points of the three-dimensional point cloud, generating a mesh of eyes, nose, mouth, The mask area containing the jaw and forehead is extracted and the rest is removed. Modeling an optimal three-dimensional face model by matching a predetermined three-dimensional face standard model with the three-dimensional face mesh, and extracting a face skin texture map for mapping the optimal three-dimensional face model from the photographed image And synthesizing.

상기 촬영된 영상으로부터 일정 프레임 간격으로 이미지를 선택하는 단계는 상기 촬영된 영상으로부터 일정 간격으로 최소한의 이미지들을 선택할 수 있다. In the step of selecting an image at a predetermined frame interval from the photographed image, a minimum number of images can be selected from the photographed image at regular intervals.

상기 촬영된 영상으로부터 Key point 들을 추출하고, 상기 Key point들 간의 공간상 관계를 분석하여 3차원 포인트 클라우드들을 생성하는 단계는 상기 촬영된 영상으로부터 Key point 들을 추출하고, 인접한 이미지들에서 해당하는 Key point들을 찾아 Key point들을 연결하고 인수 분해를 활용한 Sfm 알고리즘을 적용하고, 각 이미지들 사이에서의 key point들의 구조를 분석하고, 촬영된 이미지들에서의 카메라 속성을 구하고, 상기 카메라 속성을 이용하여 key point들에 삼각 측량 기법을 적용하고, 각 key point들에 대해 3차원 공간상에서의 좌표값을 생성할 수 있다. The step of extracting the key points from the photographed image and analyzing the spatial relationship between the key points to extract the key points from the photographed image, The key points are connected, the Sfm algorithm using factorization is applied, the structure of the key points between the images is analyzed, the camera attributes in the captured images are obtained, You can apply triangulation techniques to points and generate coordinate values in three-dimensional space for each key point.

상기 3차원 포인트 클라우드들의 각 포인트들을 연결하여 메쉬를 생성하는 단계는 광류 분석 기법을 이용하여 추가적인 포인트 클라우드를 생성하고, 상기 생성된 포인트 클라우드에 삼각화 기법을 적용하여, 3차원 얼굴 메쉬를 생성할 수 있다. The step of connecting the points of the three-dimensional point clouds to generate a mesh may include generating an additional point cloud using an optical flow analysis technique and applying a triangulation technique to the generated point cloud to generate a three- .

상기 촬영된 영상으로부터 상기 최적의3차원 얼굴 모델을 매핑하기 위한 얼굴 피부 텍스처 맵을 합성하는 단계는 상기 생성된 최적의 3차원 얼굴 모델을 UV 공간에 매핑하고, 상기 UV 공간의 좌표에 해당하는 사용자의 이미지들의 픽셀 값을 찾아 얼굴 피부 컬러 텍스처 맵을 생성하고, 생성된 얼굴 피부 텍스처 맵과 상기 생성된 최적의 3차원 얼굴 모델을 노멀 벡터, 광원 위치를 이용하여 부가적인 얼굴 피부 텍스처 맵을 생성할 수 있다.Wherein the step of synthesizing the facial skin texture map for mapping the optimal three-dimensional facial model from the photographed image maps the generated optimal three-dimensional facial model to the UV space, and the user corresponding to the coordinates of the UV space And generates an additional face skin texture map by using the generated face skin texture map and the generated optimal three-dimensional face model as a normal vector and a light source position .

상술한 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치에 따르면, 특수한 목적의 스캐너 장비 또는 별도의 고가의 카메라를 사용하지 않고 해당 장비가 설치된 장소를 방문할 필요 없이, 개인이 스마트폰이나 DSLR 카메라 같은 휴대용 카메라를 이용하여, 개인이 손쉽게 저비용으로 사용자의 3차원 얼굴을 모델링 할 수 있다.According to the method and apparatus for acquiring three-dimensional face models using the portable camera described above, it is possible to provide a three-dimensional face model acquiring method and apparatus using a portable camera without using a special purpose scanner device or a separate expensive camera, Using the same portable camera, an individual can easily model a user's three-dimensional face at low cost.

그리고, 본 발명의 실시예에 따르면 사진의 얼굴에서 제한된 개수의 특징점만 활용하여 게임의 캐릭터나 사이버상의 아바타에 사용되는 저품질의 3차원 얼굴을 생성하는 것이 아니라, 고품질의 사실적인 3차원 모델을 획득할 수 있다.According to the embodiment of the present invention, instead of generating a low-quality three-dimensional face used for a character of a game or an avatar on a cyber by utilizing only a limited number of feature points in a face of a photograph, a high-quality realistic three- can do.

또한, 본 발명의 실시예에 따르면 고품질의 3차원 사용자 얼굴을 저비용으로 확보함으로써 보다 손쉽게 사실적인 가상 성형 서비스가 가능하다. 또한, 사용자의 3차원 얼굴 모델을 활용하여, 안경, 귀걸이 등의 악서서리 가상 착용 서비스, 헤어 가상 스타일링 서비스, 3차원 피부 메이크업 서비스 등 다양한 얼굴관련 가상 시뮬레이션 서비스를 제공할 수 있어, 관련 산업에 발전에 크게 기여할 수 있다.In addition, according to the embodiment of the present invention, a high-quality three-dimensional user face is secured at a low cost, thereby realizing a virtual virtual molding service more easily. In addition, it is possible to provide a variety of virtual simulation services related to the face such as virtual wearer services such as glasses, earrings, virtual hair styling service, and 3D skin makeup service by utilizing the user's three-dimensional face model, .

도 1은 본 발명의 실시예에 따른 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 과정을 나타낸 흐름도이다.
도 3은 본 발명의 실시예에 따른 휴대용 카메라에서 얻은 일련의 얼굴 이미지로부터 복원한 3차원 얼굴 메쉬의 중간 결과들을 보여주는 도면이다.
도 4는 본 발명의 실시예에 따른 휴대용 카메라에서 사용자의 얼굴 영상을 촬영하기 위해 제공되는 UI 가이드를 화면을 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 휴대용 카메라에서 얻은 일련의 얼굴 이미지로부터 복원한 3차원 얼굴 메쉬에서 눈, 코, 입, 턱, 이마만을 포함한 얼굴 마스크 부분만 추출한 결과를 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 사용자의 3차원 얼굴 마스크 메쉬와 3차원 얼굴 표준 모델을 정합하여 생성한 최종 3차원 얼굴 모델을 보여주는 도면이다.
1 is a block diagram of a 3D face model acquisition apparatus using a portable camera according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a process of acquiring a three-dimensional face model using a portable camera according to an exemplary embodiment of the present invention.
3 is a diagram showing intermediate results of a 3D face mesh restored from a series of face images obtained from a portable camera according to an embodiment of the present invention.
4 is a view showing a screen of a UI guide provided for capturing a face image of a user in a portable camera according to an embodiment of the present invention.
FIG. 5 is a view showing a result of extracting only a face mask portion including only eyes, nose, mouth, jaw and forehead in a 3D face mesh restored from a series of face images obtained from a portable camera according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a final three-dimensional face model generated by matching a three-dimensional face mask mesh of a user and a three-dimensional face standard model according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 일실시예에 따른 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치를 나타낸 도면이다. 1 is a block diagram of an apparatus for acquiring a three-dimensional face model using a portable camera according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치는 얼굴 영상 촬영부(100), 얼굴 영상 처리부(200), 3차원 얼굴 메쉬 생성부(300), 표준 얼굴 모델 정합부(400), 얼굴 피부 텍스처 합성부(500) 및 사실적 얼굴 렌더링부(600)를 포함한다.1, an apparatus for acquiring a three-dimensional face model using a portable camera according to an embodiment of the present invention includes a face image capturing unit 100, a face image processing unit 200, a three-dimensional face mesh generating unit 300, A facial model matching unit 400, a facial skin texture synthesis unit 500, and a realistic facial rendering unit 600.

얼굴 영상 촬영부(100)는 휴대용 카메라를 이용하여 사용자 얼굴을 촬영한다. 이때, 이후 처리에 알맞은 이미지들을 얻기 위해서 촬영 가이드를 위한 UI 를 제공한다. 이후, 얼굴 영상 처리부(200)는 사용자가 촬영한 동영상이 3차원 얼굴모델로 성공적으로 생성될 수 있는지 스마트 폰의 센서 정보를 이용해서 검증하고, 검증된 동영상에 대해 이후 처리 성능을 최적화하기 위하여 전달된 연속된 이미지들의 집합에서 일정 간격으로 이미지를 선택한다.The face image capturing unit 100 captures a user's face using a portable camera. At this time, a UI for a photographing guide is provided to obtain images suitable for subsequent processing. Then, the face image processing unit 200 verifies whether the moving image captured by the user can be successfully generated using the three-dimensional face model, using the sensor information of the smartphone, and transmits the verified moving image to optimize the subsequent processing performance And selects images at regular intervals in the set of consecutive images.

이후, 3차원 얼굴 메쉬 생성부(300)는 최적화 처리된 일련의 이미지에서 Key point 들 추출하고, 이들 간의 관계를 분석하여 3차원 포인트 클라우드를 만들어내고, 3차원 공간상의 점들을 연결하여 3차원 얼굴 메쉬를 생성한다. 이때, 배경 일부를 포함하여 복원된 3차원 얼굴 메쉬에서 얼굴의 관심 영역만 추출하여 3차원 얼굴 마스크를 생성하는 기능을 포함한다. Then, the three-dimensional face mesh generation unit 300 extracts Key points from the optimized series of images, analyzes the relationship between them, creates a three-dimensional point cloud, connects the points on the three- Create a mesh. In this case, the 3D face mask includes a function of extracting only the region of interest of the face in the reconstructed 3D face mesh including a part of the background to generate a 3D face mask.

이후, 표준 얼굴 모델 정합부(400)는 고품질이고 얼굴에 대해 변형이 가능하도록 미리 제어 점들을 정의한 기 모델링 된 표준 모델을 이용하여, 3차원 얼굴 메쉬와 정합하여 최종적인 고품질이고 얼굴 변형이 가능한 3차원 얼굴 모델을 생성한다. 이후, 얼굴 피부 텍스처 합성부(500)는 3차원 얼굴 모델을 UV 공간으로 변환하고, 사용자 이미지들을 합성하여 얼굴 피부 렌더링을 위한 텍스처 맵들을 생성해 낸다. 이후, 사실적 얼굴 렌더링부(600)는 3차원 얼굴 모델에 얼굴 피부 텍스처를 매핑하고, 피부 효과를 시뮬레이션 하는 기술을 사용하여 사실적인 얼굴 렌더링을 수행한다.Thereafter, the standard face model matching unit 400 matches the 3-dimensional face mesh using the standard model, which is a high-quality standard model in which the control points are defined in advance so as to be deformable to the face, Dimensional face model. Then, the facial skin texture synthesis unit 500 converts the 3D facial model into UV space, and synthesizes user images to generate texture maps for facial skin rendering. Then, the realistic face rendering unit 600 performs a realistic face rendering using a technique of mapping a face skin texture to a three-dimensional face model and simulating a skin effect.

도 2는 본 발명의 일실시예에 따른 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법을 나타낸 도면이다 2 is a view illustrating a method of acquiring a 3D face model using a portable camera according to an embodiment of the present invention

본 발명에서 제안하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법은 휴대용 카메라를 이용하여 촬영 가이드 UI 에 따라 사용자 얼굴을 촬영하여 동영상 및 이미지 시퀀스를 저장하는 단계, 상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 3차원 얼굴 모델이 생성될 수 있을지 검증하는 단계, 상기 촬영된 영상으로부터 일정 프레임 간격으로 이미지를 선택하는 단계, 상기 촬영된 영상으로부터 Key point 들을 추출하고, 상기 Key point들 간의 공간상 관계를 분석하여 3차원 포인트 클라우드들을 생성하는 단계, 상기 3차원 포인트 클라우드들의 각 포인트들을 연결하여 메쉬를 생성하는 단계, 상기 생성된 메쉬에서 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역을 추출하고 나머지는 제거하는 단계, 미리 정해진 3차원 얼굴 표준 모델을 상기 3차원 얼굴 메쉬에 정합하여 최적의 3차원 얼굴모델을 모델링하는 단계, 및 상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 상기 최적의3차원 얼굴 모델을 매핑하기 위한 얼굴 피부 텍스처 맵을 합성하는 단계를 포함할 수 있다.A method for acquiring a three-dimensional face model using a portable camera proposed in the present invention includes the steps of photographing a user's face according to a photographing guide UI using a portable camera and storing a moving image and an image sequence, The method of claim 1, further comprising: verifying whether a three-dimensional face model can be generated from the photographed image; selecting an image at a predetermined frame interval from the photographed image; extracting key points from the photographed image; Analyzing the relationship to generate three-dimensional point clouds; connecting the points of the three-dimensional point cloud to generate a mesh; generating a mask including a face's eyes, nose, mouth, Extracting the area and removing the rest, a predetermined three-dimensional face The method of claim 1, further comprising: modeling an optimal three-dimensional face model by matching a standard model with the three-dimensional face mesh; and analyzing the facial skin to map the optimal three-dimensional face model from the photographed images using the sensors mounted on the portable camera And compositing the texture map.

도 2를 참조하면, 본 발명의 실시예에 따른 사용자의 얼굴은 움직이지 않고, 얼굴의 좌측 측면에서 얼굴의 우측 측면으로 카메라를 움직이거나, 얼굴의 우측 측면에서 얼굴의 좌측 측면으로 카메라를 움직이거나, 카메라를 고정시킨 상태에서 얼굴을 왼쪽 측면에서 오른쪽 측면으로 회전하거나, 오른쪽 측면에서 왼쪽 측면으로 회전하거나 하여 촬영한다(S100). 이때, 촬영된 영상은 동영상으로 압축하여 저장하거나, 연속된 이미지 형태로 저장할 수 있다.2, the user's face according to an embodiment of the present invention does not move, but moves the camera from the left side of the face to the right side of the face, or moves the camera from the right side of the face to the left side of the face , The face is rotated from the left side to the right side while the camera is fixed, or from the right side to the left side (S100). At this time, the photographed image can be compressed or stored as a moving image or can be stored as a continuous image form.

이후, 촬영된 동영상에 대해서 스마트 폰의 조도 센서 정보를 활용하여 촬영된 영상의 밝기가 일정한 LUX 값 이상이 아니거나, 스마트 폰의 가속도 센서를 이용하여, X, Y, Z 의 각 축 방향의 이동 속도의 변화량이 +에서 ― 로, 또는 ―에서 + 로 일정한 변화량 이상 급격하게 변화하는 경우에는 사용자에게 재 촬영하도록 가이드하고 (S101, S102), 성공적으로 촬영된 영상에 대해서 상기 얼굴 영상 촬영 과정에서 전달된 동영상이나 연속된 이미지 집합에서 일정 간격으로 최소한의 이미지를 선택하는 처리를 수행한다(S103).Thereafter, when the brightness of the photographed image is not equal to or greater than a predetermined LUX value by using the illuminance sensor information of the smartphone with respect to the photographed moving image, or by using the acceleration sensor of the smartphone, In the case where the change amount of the speed changes abruptly from + to - or from - to + by a constant change amount, the user is guided to retake (S101, S102), and the successfully photographed image is transmitted (S103) a process of selecting a minimum number of images at regular intervals in a moving image or a continuous image set.

이후, 상기 이미지 처리 과정에서 전달된 얼굴 이미지들에서 Key point 를 추출하고 인접한 이미지들에서 해당하는 Key point 를 찾아 Key point 들을 연결한다(S104). 이때 이미지들 사이의 key point 들을 추출하고, 이미지 사이에서 key point 들을 연결하여 매핑하는 알고리즘은 공개 기술인 [1]을 참조할 수 있다.Then, the key points are extracted from the facial images transmitted in the image processing, and the corresponding key points are found in the adjacent images to connect the key points (S104). In this case, the algorithm that extracts the key points between the images and links the key points between the images can refer to the public technique [1].

[1] Stefan Leutenegger, Margarita Chli and Roland Siegwart, "BRISK: Binary Robust Invariant Scalable Keypoints", Proceedings of the IEEE International Conference on Computer Vision, 2011.[1] Stefan Leutenegger, Margarita Chli and Roland Siegwart, "BRISK: Binary Robust Invariant Scalable Keypoints", Proceedings of the IEEE International Conference on Computer Vision, 2011.

이후, 매핑된 key point 들을 사용하여 인수 분해를 활용한 Sfm 알고리즘을 적용하여, 각 이미지들 사이에서의 key point 들의 움직이는 방향, 움직인 거리. 속도 등을 얻어 낼 수 있는데, 이를 통해서 촬영된 이미지들에서의 카메라 속성, 즉 초점거리, 각도 등, 을 구할 수 있다, 이러한 정보를 활용해서 key point 들에 삼각 측량 기법을 적용하여 3차원 공간 상에서의 좌표 값을 생성해 낼 수 있다 (S105). 이러한 과정을 통해 3차원 얼굴의 Sparse 포인트 클라우드를 생성할 수 있다.Then, by applying the Sfm algorithm using factorization using mapped key points, the direction of movement of the key points between each images, the moving distance. Speed, etc., which can be used to obtain the camera properties, such as focal length, angle, etc., of the captured images. By applying this information to the key points, (S105). ≪ / RTI > This process creates a three-dimensional face sparse point cloud.

이후, 상기의 단계에서 생성된 Sparse 포인트 클라우드로는 3차원 메쉬를 생성하기 어려우므로, 더 조밀한 포인트 클라우드를 얻기 위해서 광류 분석(optical flow) 기법을 활용하여 추가적인 포인트 클라우드를 생성해 내어 Dense 포인트 클라우드를 생성해 낸다(S106).Since a sparse point cloud generated in the above step is difficult to generate a 3D mesh, an additional point cloud is generated by using an optical flow technique to obtain a denser point cloud, (S106).

이후, 상기의 단계에서 생성된 Dense 포인트 클라우드에 삼각화 기법을 적용하여, 3차원 메쉬를 생성한다(S107).Thereafter, the 3D mesh is generated by applying a triangulation technique to the Dense point cloud generated in the above step (S107).

이렇게 생성된 3차원 얼굴 메쉬는 얼굴 이외의 배경 부분을 포함할 수 있고, 머리카락이나 귀와 같은 부분은 촬영조건 상 완전한 복원이 어렵기 때문에, 이러한 부분들을 제거하고, 얼굴의 눈, 코, 입, 턱 영역을 포함하는 마스크 부분만 따로 추출하는 기능이 필요하다(S108, S109, S110). 먼저, 입력 이미지들에서 코 영역을 찾아 얻어낸 2차원 좌표 정보들과 3차원 공간상의 각 이미지에 대한 카메라 위치 정보를 활용하여 3차원 상의 코 영역에 좌표들을 얻어낸다(S108). The generated three-dimensional face mesh may include a background portion other than the face, and it is difficult to completely restore the part such as the hair or the ear due to the photographing conditions. Therefore, these portions are removed and the face, eyes, nose, A function of extracting only the mask portion including the region is required (S108, S109, S110). First, coordinates are obtained on the three-dimensional nose region using the two-dimensional coordinate information obtained by finding the nose region in the input images and the camera position information on each image on the three-dimensional space (S108).

이후, 코 영역에서부터 시작해서, CIH Lab 색상공간에서의 사람의 얼굴 색 분포를 활용하여 피부 컬러 정보를 기반으로 얼굴 영역을 확장한다(S109). 이렇게 하여, 최종적으로 머리 두상, 머리카락, 귀를 제외한 3차원 얼굴 마스크 영역을 추출한다(S110).Then, starting from the nose region, the face region is expanded based on the skin color information using the human face color distribution in the CIH Lab color space (S109). In this way, a 3D face mask area excluding the head hair, hair, and ear is finally extracted (S110).

이렇게 생성된 3차원 얼굴 마스크 메쉬는 얼굴 전체, 즉 머리 두상, 머리카락, 귀 등의 불완전한 3차원 얼굴 부분을 포함하지 않고 있으며, 얼굴의 표면 역시, 노이즈에 의해 불규칙한 메쉬가 생성될 수도 있다. 또한, 메쉬의 구조도 불규칙하여 변형이 어려울 수 있다. 그래서, 본 발명에서는 별도로 변형 가능하고, 얼굴의 중요한 특징점을 미리 설정해 놓은 고품질의 3차원 표준 얼굴 모델을 미리 저장하여, 이를 생성된 메쉬에 정합하여, 최종 3차원 사용자 얼굴 모델을 생성한다.The generated three-dimensional facial mask mesh does not include the incomplete three-dimensional facial parts such as the head face hair, the hair, and the ears, and the irregular mesh may also be generated by the noise on the face surface. Further, the structure of the mesh is also irregular, so that it may be difficult to deform. Therefore, in the present invention, a high-quality three-dimensional standard face model in which important feature points of a face are set in advance is previously stored and matched to the generated mesh to generate a final three-dimensional user face model.

이를 위하여, 3차원 표준 모델의 랜드마크들을 사용하여 상기 단계에서 생성된 3차원 얼굴 마스크 메쉬에서 랜드마크들을 설정하여, 해당 랜드마크들을 기준으로 ICP (Iterative Closest Points) 알고리즘을 활용하여 두 모델을 정렬하고(S111), 이후, 3차원 얼굴 표준 모델에 랜드마크들을 먼저 3차원 얼굴 메쉬의 랜드마크들로 위치를 변경하고, 3차원 얼굴 표준 모델의 나머지 버텍스들도 비선형 변형을 통해 3차원 얼굴 메쉬의 버텍스들에 정합한다(S112). 이러한 정합의 구체적인 알고리즘은 [2]를 참조하여 구현할 수 있다.For this purpose, landmarks are set in the three-dimensional face mask mesh generated in the above step using the landmarks of the three-dimensional standard model, and two models are sorted using ICP (Iterative Closest Points) (S111). Then, the landmarks are firstly repositioned into the landmarks of the three-dimensional face mesh in the three-dimensional face standard model, and the remaining vertices of the three-dimensional face standard model are transformed into the three- And matched to the vertices (S112). A concrete algorithm for such matching can be implemented by referring to [2].

[2] David C. Schneider, and Peter Eisert, "Algorithms For Automatic And Robust Registration Of 3D Head Scans. JVRB - Journal of Virtual Reality and Broadcasting" 2010.[2] David C. Schneider, and Peter Eisert, "Algorithms For Automatic And Robust Registration Of 3D Head Scans." JVRB - Journal of Virtual Reality and Broadcasting.

이후, 상기에서 생성된 3차원 얼굴 모델을 UV 공간에 매핑(S113)하고, 각 UV 좌표에 해당하는 사용자의 이미지들의 픽셀 값을 찾아내서 사용자 얼굴 피부 컬러 텍스처 맵을 생성한다(S114). 이후, 사실적인 렌더링을 위해서는 생성된 컬러맵과 생성된 3차원 얼굴 모델을 노멀 벡터, 광원 위치등을 이용해서 노멀 맵, 광휘(specular) 맵 등 부가적인 텍스처 맵을 생성할 수 있다(S115). 이후, 완성된 3차원 얼굴 모델과 자동 생성된 피부 텍스처 맵들을 활용하여 피부 반사 모델 (Sub-surface scattering)을 시뮬레이션한다(S116).Thereafter, the generated three-dimensional face model is mapped to the UV space (S113), the pixel values of the user's images corresponding to the respective UV coordinates are found, and a user's face skin color texture map is generated (S114). In order to perform realistic rendering, an additional texture map such as a normal map, a specular map, and the like can be generated using the generated color map and the generated three-dimensional face model using a normal vector and a light source position (S115). Sub-surface scattering is then simulated using the completed 3D face model and automatically generated skin texture maps (S116).

도 3은 본 발명의 실시예에 따른 휴대용 카메라에서 얻은 일련의 얼굴 이미지로부터 복원한 3차원 얼굴 메쉬의 중간 결과들을 보여주는 도면이다.3 is a diagram showing intermediate results of a 3D face mesh restored from a series of face images obtained from a portable camera according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 (300)은 사용자가 촬영한 영상에서 3차원 모델을 얻기 위해 사용한 연속된 이미지들이고, (301)은 도면 2의 (S105) 에서 생성된 Sparse 클라우드 포인트와 이때의 카메라 위치 정보를 표시한 이미지이다. 또한 (302)는 도 2 의 (S106)를 수행하여 얻은 Dense 클라우드 포인트이고, (303)은 도 2의 (S107)을 수행하여 얻는 3차원 얼굴 메쉬를 나타낸다.Referring to FIG. 3, reference numeral 300 according to an embodiment of the present invention is a continuous image used for obtaining a three-dimensional model in an image taken by a user, and reference numeral 301 denotes a sparse cloud generated in step S105 of FIG. Point and the camera position information at this time. Reference numeral 302 denotes a dense cloud point obtained by performing step S106 in FIG. 2, and reference numeral 303 denotes a three-dimensional face mesh obtained by performing step S107 in FIG.

도 4는 본 발명의 실시예에 따른 스마트 폰으로 사용자 얼굴을 촬영할 때 촬영을 가이드하는 UI 를 보여주는 도면이다.FIG. 4 is a diagram showing a UI for guiding photographing when photographing a user's face with a smartphone according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 (400)은 사용자의 얼굴이 최대한 중심에 위치하고 전체 얼굴이 포함될 수 있도록 가이드 하면 표시이고, (401)은 사용자 얼굴의 좌측에서 촬영을 시작하여, 우측으로 촬영을 진행할 때, 진행 속도가 너무 빨라서 3차원 얼굴을 정상적으로 복원하지 못하는 경우를 제어하기 위하여, 일정한 속도로 사람의 얼굴을 지나가는 표식을 제공하여 성공적으로 얼굴 영상을 촬영할 수 있도록 가이드 한다.Referring to FIG. 4, reference numeral 400 in FIG. 4 denotes a display when the user's face is maximally centered and guides the user to include the entire face, In order to control the case where the 3D face can not be restored normally because the progress speed is too fast when proceeding to the right side, a mark passing the face of the person at a constant speed is provided to guide the photographing of the face image successfully.

도 5는 본 발명의 실시예에 따른 1차 복원된 3차원 얼굴 메쉬와 이러한 전체 메쉬에서 사용자의 얼굴 마스크만 추출한 메쉬를 보여주는 도면이다.FIG. 5 is a diagram showing a first-reconstructed 3D face mesh according to an embodiment of the present invention and a mesh obtained by extracting only a face mask of a user in the entire mesh.

도 5를 참조하면, 본 발명의 실시예에 따른 (500)은 도면 2의 (S106)을 통해 생성된 3차원 얼굴 메쉬이다. 이렇게 생성된 3차원 얼굴 메쉬는 얼굴 주변의 배경을 포함하고 있으며, 부정확하게 복원된 귀, 머리 두상, 머리카락을 포함하고 있다. 이러한 메쉬를 도면 2의 (S108, S109, S110)을 통해서 눈, 코, 입, 턱 만을 포함하는 얼굴 마스크 영역을 추출하면 (501) 형태의 3차원 얼굴 마스크 모델을 얻는다.Referring to FIG. 5, 500 according to an embodiment of the present invention is a three-dimensional face mesh generated through S106 of FIG. The generated three-dimensional face mesh includes the background around the face, and includes incorrectly restored ear, head hair, and hair. A face mask area including only eyes, nose, mouth, and chin is extracted (501) through the steps S108, S109, and S110 of FIG. 2 to obtain a three-dimensional face mask model.

도 6은 본 발명의 실시예에 따른 3차원 얼굴 표준 모델과 사용자의 3차원 얼굴 마스크를 정합하여 생성한 최종 3차원 얼굴 모델을 보여주는 도면이다.FIG. 6 is a diagram illustrating a final three-dimensional face model generated by matching a three-dimensional face standard model according to an embodiment of the present invention and a three-dimensional face mask of a user.

도 6을 참조하면, 본 발명의 실시예에 따른 (601)은 기 제작된 3차원 얼굴 표준 모델인데, (600)과 같이 상기 3차원 얼굴 마스크 메쉬 생성 단계에서 생성된 (600)의 3차 얼굴 마스크 메쉬와 정합하기 위해 사용되는 랜드마크를 가지고 있고, 또한 변형이 잘 이루어질수 있도록 얼굴의 각 영역을 나누어 제어할 수 있도록 구조화되어 있다. 그래서, 도면 2의 (S111, S112)을 통해 정합된 최종의 3차원 얼굴 모델 (602) 도 3차원 얼굴 표준 모델과 동일한 메쉬 구조를 가지게 되어 변형이 용이하게 된다. Referring to FIG. 6, reference numeral 601 according to an embodiment of the present invention is a three-dimensional face standard model prepared in advance. As shown in (600), a third face It has a landmark that is used to match the mask mesh, and is structured so that each area of the face can be divided and controlled so that deformation can be done well. Therefore, the final three-dimensional face model 602 matched through (S111, S112) in FIG. 2 also has the same mesh structure as the three-dimensional face standard model, so that deformation is facilitated.

이상, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하였으나 이는 본 발명의 권리 범위를 한정하는 것으로 해석될 수 없으며, 이하에서 기술되는 특허 청구 범위에 의해 판단되는 본 발명의 사상 및 범위를 벗어나지 않는 한도 내에서 해당 기술 분야에서 통상의 지식을 가진 자에 의해 다양하게 변형되어 실시될 수 있을 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And various modifications may be made by those skilled in the art without departing from the scope of the present invention.

100: 얼굴 영상 촬영부
200: 얼굴 영상 처리부
300: 3차원 얼굴 메쉬 생성부
400: 표준 얼굴 모델 정합부
500: 얼굴 피부 텍스처 합성부
600: 사실적 얼굴 렌더링부
100: Face image capturing unit
200: facial image processing unit
300: 3D face mesh generation unit
400: Standard face model matching unit
500: facial skin texture synthesis unit
600: Realistic facial rendering unit

Claims (10)

휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치에 있어서,
휴대용 카메라를 이용하여 촬영 가이드 UI 에 따라 사용자 얼굴을 촬영하여 동영상 및 이미지 시퀀스를 저장하는 얼굴 영상 촬영부,
상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 3차원 얼굴 모델이 생성될 수 있을지 검증하고, 상기 촬영된 영상으로부터 일련의 얼굴 이미지들을 추출하는 얼굴 영상 처리부,
상기 일련의 얼굴 이미지들 간의 관계를 분석하여 3차원 얼굴 메쉬를 생성하고, 상기 생성된 3차원 얼굴 메쉬에서 사용자 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역을 추출하고 나머지는 제거하는 3차원 얼굴 메쉬 생성부,
미리 정해진 3차원 얼굴 표준 모델을 상기 3차원 얼굴 메쉬에 정합하여 최적의 3차원 얼굴 모델을 생성하는 표준 얼굴 모델 정합부,
상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 얼굴 피부 텍스처를 합성하는 얼굴 피부 텍스처 합성부, 및
상기 최적의 3차원 얼굴 모델과 상기 얼굴 피부 텍스처를 이용하여 사실적 렌더링을 실시하는 사실적 얼굴 렌더링부
를 포함하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치.
A three-dimensional face model acquisition apparatus using a portable camera,
A face image photographing unit for photographing a user's face according to a photographing guide UI using a portable camera and storing a moving image and an image sequence,
A face image processing unit for verifying whether a three-dimensional face model can be generated from the photographed image using the sensors mounted on the portable camera, and extracting a series of face images from the photographed image;
Extracting a mask area including the eye, nose, mouth, jaw and forehead of the user's face from the generated three-dimensional face mesh, Dimensional face mesh generation unit,
A standard face model matching unit for generating an optimal three-dimensional face model by matching a predetermined three-dimensional face standard model with the three-dimensional face mesh,
A facial skin texture synthesizer for synthesizing a facial skin texture from a photographed image using sensors mounted on the portable camera,
And a realistic face rendering unit that performs realistic rendering using the optimal three-dimensional face model and the face skin texture,
Dimensional face model acquisition device using the portable camera.
제1항에 있어서,
상기 3차원 얼굴 영상 처리부는,
상기 일련의 얼굴 이미지들의 집합에서 일정 프레임 간격으로 이미지를 선택하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치.
The method according to claim 1,
Wherein the 3D face image processing unit comprises:
And selecting an image at a predetermined frame interval from the set of the set of face images.
제1항에 있어서,
상기 표준 얼굴 모델 정합부는,
미리 정해진 3차원 얼굴 표준 모델을 이용하여, 상기 3차원 얼굴 메쉬와 정합하고, 최종적인 얼굴 변형이 가능한 3차원 얼굴 모델을 생성하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치.
The method according to claim 1,
Wherein the standard face model matching unit comprises:
Wherein the three-dimensional facial model is matched with the three-dimensional facial mesh using a predetermined three-dimensional facial standard model to generate a three-dimensional facial model capable of final facial deformation.
제1항에 있어서,
상기 얼굴 피부 텍스처 합성부는,
상기 최적의 3차원 얼굴 모델을 UV 공간으로 변환하고, 사용자 이미지들을 합성하여 렌더링을 위한 얼굴 피부 텍스처 맵들을 생성하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치.
The method according to claim 1,
The facial skin texture synthesizer may include:
Wherein the optimal three-dimensional face model is converted into UV space, and the user's images are synthesized to generate facial skin texture maps for rendering.
제1항에 있어서,
상기 사실적 얼굴 렌더링부는,
상기 최적의 3차원 얼굴 모델에 얼굴 피부 텍스처를 매핑하고, 피부 효과를 시뮬레이션 하는 기술을 사용하여 사실적 얼굴 렌더링을 수행하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치.
The method according to claim 1,
The realistic face rendering unit,
Wherein the realistic face rendering is performed using a technique of mapping a face skin texture to the optimal three-dimensional face model and simulating a skin effect.
휴대용 카메라를 이용한 3차원 얼굴 모델 획득 장치를 통한 3차원 얼굴 모델 획득 방법에 있어서,
휴대용 카메라를 이용하여 촬영 가이드 UI 에 따라 사용자 얼굴을 촬영하여 동영상 및 이미지 시퀀스를 저장하는 단계;
상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 3차원 얼굴 모델이 생성될 수 있을지 검증하는 단계;
상기 촬영된 영상으로부터 일정 프레임 간격으로 이미지를 선택하는 단계;
상기 촬영된 영상으로부터 Key point 들을 추출하고, 상기 Key point들 간의 공간상 관계를 분석하여 3차원 포인트 클라우드들을 생성하는 단계;
상기 3차원 포인트 클라우드들의 각 포인트들을 연결하여 메쉬를 생성하는 단계;
상기 생성된 메쉬에서 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역을 추출하고 나머지는 제거하는 단계;
미리 정해진 3차원 얼굴 표준 모델을 상기 3차원 얼굴 메쉬에 정합하여 최적의 3차원 얼굴모델을 모델링하는 단계; 및
상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 상기 최적의3차원 얼굴 모델을 매핑하기 위한 얼굴 피부 텍스처 맵을 합성하는 단계
를 포함하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법.
A three-dimensional face model acquisition method using a three-dimensional face model acquisition apparatus using a portable camera,
Storing a moving image and an image sequence by photographing a user's face according to a photographing guide UI using a portable camera;
Verifying whether a three-dimensional face model can be generated from a photographed image using sensors mounted on the portable camera;
Selecting an image at a predetermined frame interval from the photographed image;
Extracting Key points from the photographed image and analyzing a spatial relationship between the Key points to generate three-dimensional point clouds;
Connecting each point of the three-dimensional point clouds to generate a mesh;
Extracting a mask area including eyes, nose, mouth, jaw and forehead of the face from the generated mesh and removing the rest;
Modeling an optimal three-dimensional face model by matching a predetermined three-dimensional face standard model with the three-dimensional face mesh; And
Synthesizing a facial skin texture map for mapping the optimal three-dimensional facial model from a photographed image using sensors mounted on the portable camera
A method for acquiring a three-dimensional face model using a portable camera.
제6항에 있어서,
상기 촬영된 영상으로부터 일정 프레임 간격으로 이미지를 선택하는 단계는,
상기 촬영된 영상으로부터 일정 간격으로 최소한의 이미지들을 선택하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법.
The method according to claim 6,
Wherein the step of selecting an image at a predetermined frame interval from the photographed image comprises:
And selecting a minimum number of images at a predetermined interval from the photographed image.
제6항에 있어서,
상기 미리 정해진 3차원 얼굴 표준 모델을 상기 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역으로 추출된 얼굴 마스크 모델에 정합하여 최적의 3차원 얼굴모델을 모델링하는 단계는,
미리 정해진 3차원 얼굴 표준 모델의 랜드마크들을 사용하여, 상기 얼굴의 눈, 코, 입, 턱, 이마를 포함하는 마스크 영역으로 추출된 얼굴 마스크 모델에서 랜드마크들을 설정하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법.
The method according to claim 6,
The step of modeling an optimal three-dimensional face model by matching the predetermined three-dimensional face standard model with a face mask model extracted as a mask region including an eye, nose, mouth, jaw and forehead of the face,
Characterized in that the landmarks are set in a face mask model extracted as a mask area including the eyes, nose, mouth, jaw and forehead of the face using landmarks of a predetermined three-dimensional face standard model A Method for Acquiring 3D Face Model Using.
제8항에 있어서,
해당 랜드마크들을 기준으로 ICP(Iterative Closest Points) 알고리즘을 활용하여 두 모델을 정렬하고, 상기 미리 정해진 3차원 얼굴 표준 모델에 랜드마크들을 상기 3차원 얼굴 메쉬의 랜드마크들의 위치로 변경하고, 상기 3차원 얼굴 표준 모델의 나머지 버텍스들도 비선형 변형을 통해 상기 3차원 얼굴 메쉬의 버텍스들에 정합하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법.
9. The method of claim 8,
Aligning the two models using an ICP (Iterative Closest Points) algorithm based on the landmarks, changing the landmarks to the positions of the landmarks of the three-dimensional face mesh in the predetermined three-dimensional face standard model, Wherein the remaining vertices of the 3D face model are matched to the vertices of the 3D face mesh through nonlinear deformation.
제6항에 있어서,
상기 휴대용 카메라에 장착된 센서들을 이용하여 촬영된 영상으로부터 상기 최적의3차원 얼굴 모델을 매핑하기 위한 얼굴 피부 텍스처 맵을 합성하는 단계는,
상기 생성된 최적의 3차원 얼굴 모델을 UV 공간에 매핑하고, 상기 UV 공간의 좌표에 해당하는 사용자의 이미지들의 픽셀 값을 찾아 얼굴 피부 컬러 텍스처 맵을 생성하고, 생성된 얼굴 피부 텍스처 맵과 상기 생성된 최적의 3차원 얼굴 모델을 노멀 벡터, 광원 위치를 이용하여 부가적인 얼굴 피부 텍스처 맵을 생성하는 것을 특징으로 하는 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법.
The method according to claim 6,
The step of synthesizing a facial skin texture map for mapping the optimal three-dimensional facial model from a photographed image using sensors mounted on the portable camera,
Maps the generated optimal three-dimensional face model to the UV space, generates a face skin color texture map by searching for pixel values of the user's images corresponding to the coordinates of the UV space, Dimensional face model, and an additional face skin texture map is generated using the normal vector and the light source position of the optimized three-dimensional face model.
KR1020150114039A 2015-08-12 2015-08-12 Method and Apparatus for detection of 3D Face Model Using Portable Camera KR20170019779A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150114039A KR20170019779A (en) 2015-08-12 2015-08-12 Method and Apparatus for detection of 3D Face Model Using Portable Camera
PCT/KR2016/008890 WO2017026839A1 (en) 2015-08-12 2016-08-12 3d face model obtaining method and device using portable camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150114039A KR20170019779A (en) 2015-08-12 2015-08-12 Method and Apparatus for detection of 3D Face Model Using Portable Camera

Publications (1)

Publication Number Publication Date
KR20170019779A true KR20170019779A (en) 2017-02-22

Family

ID=57983323

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150114039A KR20170019779A (en) 2015-08-12 2015-08-12 Method and Apparatus for detection of 3D Face Model Using Portable Camera

Country Status (2)

Country Link
KR (1) KR20170019779A (en)
WO (1) WO2017026839A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018190504A1 (en) * 2017-04-14 2018-10-18 한국 한의학 연구원 Face pose correction apparatus and method
KR20190068168A (en) * 2017-12-08 2019-06-18 한국전자통신연구원 Apparatus for generating 3-dimensional image and method for the same
WO2020009948A1 (en) * 2018-07-05 2020-01-09 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
US10665024B2 (en) 2016-12-12 2020-05-26 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
KR20210128358A (en) * 2020-04-16 2021-10-26 주식회사 에이비에이치 Apparatus and method for recognizing emotion based on artificial intelligence
KR102323861B1 (en) * 2021-01-15 2021-11-09 주식회사 쪼이 System for selling clothing online
KR20210147647A (en) 2020-05-29 2021-12-07 연세대학교 산학협력단 Apparatus and method for color synthesis of face images
KR20230034812A (en) * 2021-09-03 2023-03-10 주식회사 스텔스솔루션 Apparatus and method to prevent camera shooting for messenger conversations

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109426775B (en) * 2017-08-25 2022-02-25 株式会社日立制作所 Method, device and equipment for detecting reticulate patterns in face image
CN109427080A (en) * 2017-08-31 2019-03-05 爱唯秀股份有限公司 The method for quickly generating large amount of complex light source facial image
KR102042902B1 (en) * 2017-12-18 2019-11-08 한국 한의학 연구원 Operating method for 3d face diaagnosing apparatus
CN109064548B (en) * 2018-07-03 2023-11-03 百度在线网络技术(北京)有限公司 Video generation method, device, equipment and storage medium
CN109118569B (en) * 2018-08-16 2023-03-10 Oppo广东移动通信有限公司 Rendering method and device based on three-dimensional model
CN110853147B (en) * 2018-08-21 2023-06-20 东方梦幻文化产业投资有限公司 Three-dimensional face transformation method
CN111047678B (en) * 2018-10-12 2024-01-23 杭州海康威视数字技术股份有限公司 Three-dimensional face acquisition device and method
CN110379003A (en) * 2019-07-16 2019-10-25 北京航空航天大学青岛研究院 Three-dimensional head method for reconstructing based on single image
CN110502110B (en) * 2019-08-07 2023-08-11 北京达佳互联信息技术有限公司 Method and device for generating feedback information of interactive application program
CN110610533B (en) * 2019-08-07 2023-06-16 重庆灵翎互娱科技有限公司 Method and equipment for capturing expression based on face three-dimensional grid model
CN110751078B (en) * 2019-10-15 2023-06-20 重庆灵翎互娱科技有限公司 Method and equipment for determining non-skin color region of three-dimensional face
CN110738732B (en) * 2019-10-24 2024-04-05 重庆灵翎互娱科技有限公司 Three-dimensional face model generation method and equipment
CN113034345B (en) * 2019-12-25 2023-02-28 广东奥博信息产业股份有限公司 Face recognition method and system based on SFM reconstruction
CN111126344B (en) * 2019-12-31 2023-08-01 杭州趣维科技有限公司 Method and system for generating key points of forehead of human face
CN112149578B (en) * 2020-09-24 2024-05-24 四川川大智胜软件股份有限公司 Face skin material calculation method, device and equipment based on face three-dimensional model
CN112200905B (en) * 2020-10-15 2023-08-22 革点科技(深圳)有限公司 Three-dimensional face complement method
CN112562083A (en) * 2020-12-10 2021-03-26 上海影创信息科技有限公司 Depth camera-based static portrait three-dimensional reconstruction and dynamic face fusion method
CN112489205A (en) * 2020-12-16 2021-03-12 北京航星机器制造有限公司 Method for manufacturing simulated human face
CN114758090A (en) * 2020-12-29 2022-07-15 华为技术有限公司 Three-dimensional model generation method and device
CN112967372B (en) * 2021-02-03 2023-05-09 武汉南北极测绘地理信息有限公司 Mineral and rock specimen teaching display method and system based on Internet scene
CN113469903A (en) * 2021-06-11 2021-10-01 维沃移动通信有限公司 Image processing method and device, electronic equipment and readable storage medium
CN113744374B (en) * 2021-09-03 2023-09-22 浙江大学 Expression-driven 3D virtual image generation method
CN114299206A (en) * 2021-12-31 2022-04-08 清华大学 Three-dimensional cartoon face generation method and device, electronic equipment and storage medium
CN114972610A (en) * 2022-03-24 2022-08-30 杭州印鸽科技有限公司 Picture specific area rendering system and rendering method based on auxiliary grid
WO2024076027A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Method for generating point cloud and electronic device
CN116664796B (en) * 2023-04-25 2024-04-02 北京天翔睿翼科技有限公司 Lightweight head modeling system and method
CN116723363B (en) * 2023-08-11 2024-03-05 深圳市安思疆科技有限公司 3D full-face detection equipment and detection method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682889B1 (en) * 2003-08-29 2007-02-15 삼성전자주식회사 Method and Apparatus for image-based photorealistic 3D face modeling
KR100827749B1 (en) * 2006-08-25 2008-05-08 성결대학교 산학협력단 3D face creation/expression system and method
KR100918095B1 (en) * 2006-12-04 2009-09-22 한국전자통신연구원 Method of Face Modeling and Animation From a Single Video Stream
JP5773323B2 (en) * 2011-08-09 2015-09-02 インテル・コーポレーション Multi-view 3D face generation based on images
KR101510312B1 (en) * 2013-09-13 2015-04-10 인하대학교 산학협력단 3D face-modeling device, system and method using Multiple cameras

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10665024B2 (en) 2016-12-12 2020-05-26 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
WO2018190504A1 (en) * 2017-04-14 2018-10-18 한국 한의학 연구원 Face pose correction apparatus and method
CN110520905A (en) * 2017-04-14 2019-11-29 韩国韩医学研究院 Face posture apparatus for correcting and method
US11069152B2 (en) 2017-04-14 2021-07-20 Korea Institute Of Oriental Medicine Face pose correction apparatus and method
CN110520905B (en) * 2017-04-14 2023-06-20 韩国韩医学研究院 Face posture correcting device and method
KR20190068168A (en) * 2017-12-08 2019-06-18 한국전자통신연구원 Apparatus for generating 3-dimensional image and method for the same
WO2020009948A1 (en) * 2018-07-05 2020-01-09 Fyusion, Inc. Providing recording guidance in generating a multi-view interactive digital media representation
KR20210128358A (en) * 2020-04-16 2021-10-26 주식회사 에이비에이치 Apparatus and method for recognizing emotion based on artificial intelligence
KR20210147647A (en) 2020-05-29 2021-12-07 연세대학교 산학협력단 Apparatus and method for color synthesis of face images
KR102323861B1 (en) * 2021-01-15 2021-11-09 주식회사 쪼이 System for selling clothing online
KR20230034812A (en) * 2021-09-03 2023-03-10 주식회사 스텔스솔루션 Apparatus and method to prevent camera shooting for messenger conversations

Also Published As

Publication number Publication date
WO2017026839A1 (en) 2017-02-16

Similar Documents

Publication Publication Date Title
KR20170019779A (en) Method and Apparatus for detection of 3D Face Model Using Portable Camera
KR20150113751A (en) Method and apparatus for acquiring three-dimensional face model using portable camera
KR101323966B1 (en) A system and method for 3D space-dimension based image processing
CN107484428B (en) Method for displaying objects
JP4284664B2 (en) Three-dimensional shape estimation system and image generation system
US10038966B1 (en) Head-related transfer function (HRTF) personalization based on captured images of user
CN108369653A (en) Use the eyes gesture recognition of eye feature
CN106021550B (en) Hair style design method and system
KR20180108709A (en) How to virtually dress a user's realistic body model
KR20100026240A (en) 3d hair style simulation system and method using augmented reality
KR20180082170A (en) Method and system for detection of three dimension face model
US11315298B2 (en) Personalized stylized avatars
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
US10987198B2 (en) Image simulation method for orthodontics and image simulation device thereof
CN104599317A (en) Mobile terminal and method for achieving 3D (three-dimensional) scanning modeling function
CN114373044A (en) Method, device, computing equipment and storage medium for generating three-dimensional face model
JP2006107145A (en) Face shape modeling system and face shape modeling method
JP5759439B2 (en) Video communication system and video communication method
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
EP2827589A1 (en) Display device and device for adapting an information
JP5898036B2 (en) Video communication system and video communication method
JP5833525B2 (en) Video communication system and video communication method
CN112416124A (en) Dance posture feedback method and device
JP4623320B2 (en) Three-dimensional shape estimation system and image generation system
KR100422471B1 (en) Apparatus and method for creation personal photo avatar

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application