KR101744079B1 - The face model generation method for the Dental procedure simulation - Google Patents

The face model generation method for the Dental procedure simulation Download PDF

Info

Publication number
KR101744079B1
KR101744079B1 KR1020140084001A KR20140084001A KR101744079B1 KR 101744079 B1 KR101744079 B1 KR 101744079B1 KR 1020140084001 A KR1020140084001 A KR 1020140084001A KR 20140084001 A KR20140084001 A KR 20140084001A KR 101744079 B1 KR101744079 B1 KR 101744079B1
Authority
KR
South Korea
Prior art keywords
face
model
facial
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020140084001A
Other languages
Korean (ko)
Other versions
KR20160004865A (en
Inventor
지헌주
조헌제
임용현
Original Assignee
주식회사 인스바이오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인스바이오 filed Critical 주식회사 인스바이오
Priority to KR1020140084001A priority Critical patent/KR101744079B1/en
Priority to PCT/KR2015/006976 priority patent/WO2016003258A1/en
Publication of KR20160004865A publication Critical patent/KR20160004865A/en
Application granted granted Critical
Publication of KR101744079B1 publication Critical patent/KR101744079B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 교정을 위한 치과 시술에서 치아 이동 모의시술 결과에 따른 얼굴 변화를 반영하는 얼굴모델 생성 방법에 관한 것으로서, 더욱 상세하게는 2D 얼굴 사진 데이터와 두부 단층 이미지 데이터를 입력 데이터로 이용하고 3D CAD 모델 복원 기술 및 텍스쳐 매핑(Texture Mapping) 기술 또는 3D 얼굴표면 모델과 3D 컬러 스캐너(3D color scanner)의 결과물 데이터를 정합하는 기술을 이용함으로써, 실제 얼굴과 유사한 모델을 생성하는 것에 관한 기술이다. 즉, 치아 이동 시뮬레이션에 따른 얼굴형의 변화를 실시간으로 반영할 수 있는, 치과 시술 시뮬레이션을 위한 얼굴모델을 생성하는 방법을 제공하는 것에 관한 기술이다.
본 발명에 의하면, 3D CAD 모델 기반 프로세스를 제공하며, 3D 얼굴표면 모델 생성시 3D 두부영상에 포함된 얼굴표면을 구분하는 과정에서 콧구멍 안 빈공간에 포함되는 피부인 비강이나 부비동 등 불필요한 부분이 피부 표면으로 인식되는 문제를 해결함으로써 정밀하고 정확한 시뮬레이션을 수행할 수 있는 데이터를 제공하고, 단층 이미지 촬영(CT 등)과 얼굴 사진 촬영시 서로 다른 장비의 특성, 환자의 움직임, 카메라 렌즈와 환자가 이루는 각도 등에 의한 두 장비의 서로 다른 결과물로부터 발생되는 텍스쳐 매핑의 오차를 해결할 수 있는 텍스쳐 매핑 기술을 제공하며, 복수 개의 이미지를 기반으로 가시성이 가장 좋은 이미지만을 이용하여 구성된 3D 얼굴모델을 제공하고, 3D 컬러 스캐너에 의한 결과값을 3D 얼굴표면 모델에 정합함으로써, 텍스쳐 매핑 과정에서 발생할 수 있는 오차 없이 심미적인 3D 얼굴모델을 제공하며, 치과 시술에 있어서 시뮬레이션을 수행하여 이를 실시간으로 반영할 수 있는 3D 얼굴모델을 제공하고, 의사의 진단 및 모의시술 결과 등에 의한 데이터를 3D 얼굴모델에 반영한 상태로 시뮬레이션을 수행할 수 있다.
The present invention relates to a method of generating a face model that reflects a face change according to a result of a tooth movement simulation in a dental procedure for correction. More particularly, the present invention relates to a method of generating a face model by using 2D face image data and head- Is a technique for generating a model similar to an actual face by using a model restoration technique and a texture mapping technique or a technique of matching the result data of a 3D face surface model and a 3D color scanner. That is, the present invention relates to a method for generating a face model for simulation of a dental procedure, which can reflect a change of a face type according to a tooth movement simulation in real time.
According to the present invention, a 3D CAD model-based process is provided. In the process of distinguishing facial surfaces included in a 3D head image when a 3D facial surface model is generated, an unnecessary portion such as nasal cavity or sinus, which is included in an empty space in the nostril, It provides data that can perform precise and accurate simulation by solving problems perceived as skin surface. It also provides data that can be used for different types of equipment, such as tomography (CT, etc.) The present invention provides a texture mapping technique capable of solving the error of texture mapping generated from different results of two devices due to the angle of incidence, etc., and provides a 3D face model constructed using only images having the best visibility based on a plurality of images, By matching the results by the 3D color scanner to the 3D face surface model, The present invention provides a 3D facial model that provides an aesthetic 3D facial model without any error that may occur in the process, and can simulate the dental procedure and reflect it in real time. In addition, The simulation can be performed with the face model reflected.

Description

치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법 {The face model generation method for the Dental procedure simulation}Technical Field [0001] The present invention relates to a face model generation method for a dental procedure simulation,

본 발명은 교정을 위한 치과 시술에서 치아 이동 모의시술 결과에 따른 얼굴 변화를 반영하는 얼굴모델 생성 방법에 관한 것으로서, 더욱 상세하게는 2D 얼굴 사진 데이터와 두부 단층 이미지 데이터를 입력 데이터로 이용하고 3D CAD 모델 복원 기술 및 텍스쳐 매핑(Texture Mapping) 기술 또는 3D 얼굴표면 모델과 3D 컬러 스캐너(3D color scanner)의 결과물 데이터를 정합하는 기술을 이용함으로써, 실제 얼굴과 유사한 모델을 생성하는 것에 관한 기술이다. 즉, 치아 이동 시뮬레이션에 따른 얼굴형의 변화를 실시간으로 반영할 수 있는, 치과 시술 시뮬레이션을 위한 얼굴모델을 생성하는 방법을 제공하는 것에 관한 기술이다.The present invention relates to a method of generating a face model that reflects a face change according to a result of a tooth movement simulation in a dental procedure for correction. More particularly, the present invention relates to a method of generating a face model by using 2D face image data and head- Is a technique for generating a model similar to an actual face by using a model restoration technique and a texture mapping technique or a technique of matching the result data of a 3D face surface model and a 3D color scanner. That is, the present invention relates to a method for generating a face model for simulation of a dental procedure, which can reflect a change of a face type according to a tooth movement simulation in real time.

의료 진료의 목적으로 사용되는 데이터들을 얻기 위해서는 디지털 카메라, 휴대전화 카메라 등으로 사진을 촬영하여 2D 비트맵 이미지 데이터를 획득하고, CT(computed tomography, 컴퓨터 단층 촬영) 및 MRI(magnetic resonance imaging, 자기공명영상) 촬영 등을 통하여 복수 개의 2D 단층 이미지 데이터를 수집하는 방법 등을 사용한다. 이때, 각각의 이미지 데이터는 서로 다른 원리로 생성되므로 그로부터 얻을 수 있는 데이터의 성격이 서로 다르며, 그 활용 또는 응용되는 방법 내지 영역도 각각 다르다.In order to obtain data used for medical consultation, 2D bitmap image data is acquired by photographing with a digital camera, a mobile phone camera, etc., and computed tomography (CT) and magnetic resonance imaging (MRI) A method of collecting a plurality of 2D tomographic image data through photographing or the like is used. At this time, since each image data is generated on a different principle, the characteristics of data that can be obtained therefrom are different from each other, and the methods and areas thereof are different from each other.

따라서, 픽셀(pixel) 또는 복셀(voxel)로 구성된 2D 비트맵 이미지 데이터 또는 2D 단층 이미지 데이터들을 이용하여 생성한 볼륨모델 그 자체로는 이를 이용하여 새로운 모델을 제작하거나 시뮬레이션을 수행하는 것과 같은 3D CAD 모델 기반의 프로세스가 불가능 하다는 문제점이 있었다.Therefore, a volume model created using 2D bitmap image data or 2D tomographic image data composed of pixels or voxels can be used as a 3D CAD A model-based process is impossible.

이를 해결하고자 2D 단층 이미지 데이터들을 이용하여 영역화(segmentation), 재구성(reconstruction) 작업을 하여 3D CAD 모델을 생성하였지만, 이는 사실적인 얼굴표현이 안되어 있는 단일 색상의 모델이었다. 이에, 환자의 얼굴 사진 이미지를 텍스쳐 매핑 기술을 이용하여 단일 색상의 모델에 적용시키는 방법이 사용 되었지만, 이 또한 단층 이미지 촬영(CT 등)과 얼굴 사진 촬영 시 서로 다른 장비의 특성, 환자의 움직임, 카메라 렌즈와 환자가 이루는 각도 등에 의한 두 장비의 서로 다른 결과물로부터 발생되는 텍스쳐 매핑의 오차가 크게 발생할 수 있다는 문제점이 있었다. 또한, 2D 단층 이미지 데이터들을 이용하여 3D CAD 모델을 생성하는 도중 자동 영역화의 조건에 따라 콧속의 비강과 부비동 부분 등이 함께 모델로 생성되어 이후 텍스쳐 매핑과 시뮬레이션에 방해요소로 작용한다는 문제가 있었다.In order to solve this problem, 3D CAD model was created by segmentation and reconstruction using 2D tomographic image data, but this was a single color model with no real face expression. In this paper, we propose a method to apply facial image of a patient to a single color model by using texture mapping technique. However, There is a problem that the error of the texture mapping generated from the different result of the two devices due to the angle between the camera lens and the patient may be large. Also, during the creation of the 3D CAD model using the 2D tomographic image data, the nasal cavity and the sinusoidal part of the nose are generated as a model together with the condition of the automatic regionization, which then interferes with the texture mapping and the simulation .

KRKR 10-109973210-1099732 B1B1

본 발명은 이와 같은 문제점을 해결하기 위하여 창안된 것으로서, 3D CAD 모델 기반 프로세스를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a process based on a 3D CAD model.

또한, 3D 얼굴표면 모델 생성시 3D 두부영상에 포함된 얼굴표면을 구분하는 과정에서 콧구멍 안 빈공간에 포함되는 피부인 비강이나 부비동 등 불필요한 부분이 피부 표면으로 인식되는 문제를 해결함으로써 정밀하고 정확한 시뮬레이션을 수행할 수 있는 데이터를 제공하는 것을 목적으로 한다.In addition, in the process of distinguishing the facial surface included in the 3D head image when generating the 3D facial surface model, unnecessary parts such as the nasal cavity and the sinus, which are included in the empty space in the nostril, are recognized as the skin surface, The goal is to provide data that can be used to perform simulations.

또, 단층 이미지 촬영(CT 등)과 얼굴 사진 촬영시 서로 다른 장비의 특성, 환자의 움직임, 카메라 렌즈와 환자가 이루는 각도 등에 의한 두 장비의 서로 다른 결과물로부터 발생되는 오차를 해결할 수 있는 텍스쳐 매핑 기술을 제공하는 것을 목적으로 한다.In addition, a texture mapping technique that can solve the errors arising from the different results of the two devices due to the characteristics of different equipment, the movement of the patient, the angle between the camera lens and the patient, And to provide the above objects.

또한, 복수 개의 이미지를 기반으로 가시성이 가장 좋은 이미지만을 이용하여 구성된 3D 얼굴모델을 제공하는 것을 목적으로 한다.It is another object of the present invention to provide a 3D face model constructed by using only images having the best visibility based on a plurality of images.

또, 3D 컬러 스캐너에 의한 결과값을 3D 얼굴표면 모델에 정합함으로써, 텍스쳐 매핑 과정에서 발생할 수 있는 오차 없이 심미적인 3D 얼굴모델을 제공하는 것을 그 목적으로 한다.The object of the present invention is to provide an aesthetic 3D face model without errors that may occur in the texture mapping process by matching the result values by the 3D color scanner with the 3D face surface model.

또한, 치과 시술에 있어서 시뮬레이션을 수행하여 이를 실시간으로 반영할 수 있는 3D 얼굴모델을 제공하는 것을 그 목적으로 한다.It is another object of the present invention to provide a 3D face model that can simulate dental procedures and reflect them in real time.

또, 의사의 진단 및 모의시술 결과 등에 의한 데이터를 3D 얼굴모델에 반영한 상태로 시뮬레이션을 수행할 수 있도록 하는 것을 그 목적으로 한다.The object of the present invention is to make it possible to carry out simulation in a state in which the data based on the diagnosis and simulation results of the doctor are reflected on the 3D face model.

이와 같은 목적을 달성하기 위하여 본 발명에 따른 치아 이동에 따른 얼굴 변화 시뮬레이션을 위한 얼굴모델 생성 방법의 일측면에 따르면,According to another aspect of the present invention, there is provided a face model generation method for face change simulation according to the present invention,

치아 이동 시뮬레이션에 따라 얼굴 변형을 반영하는 얼굴모델 생성 방법에 관한 것으로서, 2D 얼굴 사진 데이터와 3D 두부영상을 획득하며, 상기 획득된 3D 두부영상을 이용하여 3D 얼굴표면 모델을 복원하는 제 1단계; 상기 획득된 2D 얼굴 사진 데이터에 표지점을 표시하고, 상기 형성된 3D 얼굴표면 모델에 표지점을 표시하는 제 2단계; 상기 표지점이 표시된 3D 얼굴표면 모델을 상기 2D 얼굴 사진 데이터에 적용하기 위해서 상기 표시된 표지점을 기반으로 회전, 이동 및 임의의 축을 기준으로 크기 변환하여 3D 얼굴표면 모델의 위치와 크기를 2D 얼굴 사진 데이터에 맞추는 작업을 수행함으로써 2D 얼굴 사진 데이터의 얼굴모습에 맞춰지도록 3D 얼굴표면 모델을 생성하는 제 3단계; 상기 2D 얼굴 사진 데이터 기반의 텍스쳐 평면에 상기 3D 얼굴표면 모델을 투영하여 평면 모델을 생성하고, 상기 2D 얼굴 사진 데이터와 상기 3D 얼굴표면 모델에 매개변수화 과정을 거쳐 텍스쳐 매쉬(Texture-Mesh)를 생성하는 제 4단계; 상기 3D 얼굴표면 모델과 상기 텍스쳐 메쉬의 법선벡터를 비교하여 가시성 우선순위를 체크하는 랭크(visibility rank)과정을 수행하는 5단계; 및 상기 2D 얼굴 사진 데이터와 상기 3D 얼굴표면 모델 및 상기 매개 변수화 과정을 통해 생성된 텍스쳐 메쉬를 이용하여 랭크(visibility rank) 과정에 의해 마킹된 최적의 가시성 텍스쳐만을 모아 텍스쳐 매핑(Texture Mapping)을 수행하는 제 6단계; 를 포함한다.A method for generating a face model reflecting facial deformation according to a tooth movement simulation, the method comprising: a first step of acquiring 2D facial photograph data and a 3D head image, and restoring a 3D facial surface model using the obtained 3D head image; Displaying a mark point on the obtained 2D face photograph data and displaying a mark point on the 3D face model; Moving and rotating the 3D face model based on the displayed mark point so as to apply the 3D face model showing the mark point to the 2D face image data to convert the position and size of the 3D face model into the 2D face image data A third step of generating a 3D facial surface model so as to match the facial appearance of the 2D facial photograph data by performing an operation to align the facial image data with the facial image data; The 3D face model is generated by projecting the 3D face model onto the texture plane based on the 2D face image data, and the 2D face image data and the 3D face model are parameterized to generate a texture mesh Step 4; Performing a visibility rank process for comparing visibility priorities by comparing the 3D face surface model with a normal vector of the texture mesh; And texture mapping (Texture Mapping) is performed by collecting only the best visibility textures marked by a visibility rank process using the 2D facial photograph data, the 3D facial surface model, and the texture mesh generated through the parameterization process ; .

상기 제 5단계 중 랭크(visibility rank)과정은, 하나 이상의 2D 얼굴 사진 데이터에 대해 각각 상기 3D 얼굴표면 모델상 텍스쳐 매핑을 위한 일정 영역의 법선벡터와 상기 텍스쳐 메쉬의 법선벡터가 이루는 각을 비교하여 가시성 체크를 하고, 이를 기반으로 영역별 가시성 우선순위 랭크(visibility rank)를 부여하여 해당 영역에 가시성이 가장 높은 2D 이미지를 판별할 수 있으므로, 가시성이 가장 높은 데이터를 이용한 텍스쳐 매핑을 수행할 수 있다.In the fifth step, a visibility rank process compares angles of a normal vector of a predetermined region for texture mapping on the 3D face surface model with respect to one or more 2D face image data and a normal vector of the texture mesh, A visibility check is performed and a visibility rank is assigned to each region based on the visibility rank. Thus, a 2D image having the highest visibility can be identified in the corresponding region, so that texture mapping using data having the highest visibility can be performed .

삭제delete

본 발명에 의하면, 3D CAD 모델 기반 프로세스를 제공하며, 3D 얼굴표면 모델 생성시 3D 두부영상에 포함된 얼굴표면을 구분하는 과정에서 콧구멍 안 빈공간에 포함되는 피부인 비강이나 부비동 등 불필요한 부분이 피부 표면으로 인식되는 문제를 해결함으로써 정밀하고 정확한 시뮬레이션을 수행할 수 있는 데이터를 제공하는 효과가 있다.According to the present invention, a 3D CAD model-based process is provided. In the process of distinguishing facial surfaces included in a 3D head image when a 3D facial surface model is generated, an unnecessary portion such as nasal cavity or sinus, which is included in an empty space in the nostril, It is possible to provide data that can perform precise and accurate simulation by solving the problem recognized as a skin surface.

단층 이미지 촬영(CT 등)과 얼굴 사진 촬영시 서로 다른 장비의 특성, 환자의 움직임, 카메라 렌즈와 환자가 이루는 각도 등에 의한 두 장비의 서로 다른 결과물로부터 발생되는 오차를 해결할 수 있는 텍스쳐 매핑 기술을 제공하는 효과가 있다.Provides texture mapping technology that can solve the errors arising from the different results of the two equipments due to different equipment characteristics, patient's movements, angle between the camera lens and the patient when performing tomographic imaging (CT, etc.) and face photographing .

복수 개의 이미지를 기반으로 가시성이 가장 좋은 이미지만을 이용하여 구성된 3D 얼굴모델을 제공하고, 3D 컬러 스캐너에 의한 결과값을 3D 얼굴표면 모델에 정합함으로써, 텍스쳐 매핑 과정에서 발생할 수 있는 오차 없이 심미적인 3D 얼굴모델을 제공하는 효과가 있다.By providing a 3D face model composed only of images with the best visibility based on a plurality of images and matching the result values by the 3D color scanner with the 3D face surface model, aesthetic 3D There is an effect of providing a face model.

치과 시술에 있어서 시뮬레이션을 수행하여 이를 실시간으로 반영할 수 있는 3D 얼굴모델을 제공하고, 의사의 진단 및 모의시술 결과 등에 의한 데이터를 3D 얼굴모델에 반영한 상태로 시뮬레이션을 수행할 수 있도록 하는 효과가 있다.The present invention provides a 3D face model capable of performing simulation in dental procedures and reflecting it in real time and enables simulation to be performed with the data based on the doctor's diagnosis and simulation results reflected in the 3D face model .

도 1은 2D 얼굴 사진 데이터에 표지점을 표시한 것을 도시한 도면
도 2는 두부 단층 이미지 데이터로부터 부피를 가진 3D 두부영상을 구성하고, 얼굴 피부 영역을 영역화하고 이를 바탕으로 재구성하여 3D 얼굴표면 모델을 복원한 것을 도시한 도면
도 3은 복원된 3D 얼굴표면 모델에 포함된 부비동, 비강 부분을 제거하는 과정을 도시한 도면
도 4는 복원된 3D 얼굴표면 모델에 표지점을 표시한 것을 도시한 도면
도 5는 복원된 3D 얼굴표면 모델을 2D 얼굴 사진 데이터와 매핑될 수 있도록 회전,이동 및 임의의 축을 기준으로 크기 변환하는 3D 표지점 기반의 정합을 수행하여 2D 얼굴 사진 데이터의 얼굴모습에 맞도록 3D 얼굴표면 모델을 생성한 것을 도시한 도면
도 6은 3D 표지점 기반의 정합을 수행하여 3D 얼굴표면 모델을 매개변수화 함으로써 생성되는 텍스쳐 메쉬의 모습을 도시한 도면
도 7은 텍스쳐 매핑 기법을 기반으로 생성된 텍스쳐 된 입체적 얼굴모델을 도시한 도면
도 8은 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법을 순서도로 표시한 도면
Fig. 1 is a diagram showing marking points displayed on 2D face photograph data
FIG. 2 is a diagram showing a reconstruction of a 3D facial surface model by composing a 3D head image having a volume from head tomographic image data,
3 is a view showing a process of removing the nasal cavity and nasal cavity included in the reconstructed 3D facial surface model
Fig. 4 is a view showing marking points on the restored 3D face surface model; Fig.
FIG. 5 is a diagram illustrating a 3D face-point-based registration that performs rotation, movement, and size conversion based on an arbitrary axis so that the restored 3D face surface model can be mapped to 2D face image data, Drawings showing the creation of a 3D face surface model
6 is a view showing a state of a texture mesh generated by performing 3D-point-based-based matching to parameterize a 3D face surface model
7 is a diagram showing a textured three-dimensional face model generated based on a texture mapping technique
8 is a flowchart showing a method of generating a face model for simulating a dental procedure;

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be interpreted in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined. Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 1은 2D 얼굴 사진 데이터(2D Face Picture Image)에 표지점을 표시(10, 2D Landmarks)한 것을 도시한 도면이다.FIG. 1 is a diagram showing marking points (10, 2D Landmarks) on 2D face picture data.

2D 얼굴 사진 데이터(2D Face Picture Image)에 도 1에 도시된 바와 같이, 표지점을 표시(10, 2D Landmarks)한다. 예를 들어, 얼굴 정면 사진의 경우 양쪽 입꼬리에 2개, 양쪽 눈꼬리에 2개의 표지점을 각각 위치시킬 수 있는데, 이는 이후에 진행할 3D 표지점 기반의 정합(3D affine landmark-transform, 3D 표지점을 이용한 좌표정렬)을 통해 텍스쳐 매핑(Texture-Mapping)을 수행하는데 사용 된다. 즉, 단층 이미지 촬영(CT 등)과 얼굴 사진 촬영시 서로 다른 장비의 특성, 환자의 움직임, 카메라 렌즈와 환자가 이루는 각도 등에 의한 두 장비의 서로 다른 결과물로부터 발생되는 텍스쳐 매핑(Texture-Mapping)의 오차를 해결하기 위한 것으로서, 이에 대한 상세한 설명은 후술한다.(10, 2D Landmarks) are displayed on the 2D face image data (2D Face Picture Image) as shown in FIG. For example, in the case of a frontal face, two markers can be placed on both sides of the tail and two markers on both sides of the tail. This will be followed by a 3D affine landmark-transform Is used to perform texture mapping (texture coordinate mapping). In other words, the texture mapping (texture mapping) generated from the different results of the two devices due to the characteristics of the different equipment, the movement of the patient, the angle between the camera lens and the patient during the tomographic (CT) The detailed description thereof will be given later.

도 1을 참조하면, 디지털 카메라, 휴대전화 카메라 등을 이용하여 BMP, JPEG 및 GIF 등의 파일 형식을 가진 2D 얼굴 사진 데이터(2D Face Picture Image)를 획득한다. 이렇게 획득된 데이터는 2D 비트맵(Bitmap) 이미지 형식의 데이터인데, 이는 2차원에 불과하여 얼굴을 입체적으로 볼 수 없다. 또한, 2D 얼굴 사진 데이터(2D Face Picture Image)는 그 자체를 바로 이용하여 새로운 모델을 제작하거나 시뮬레이션을 수행하는 등의 작업이 불가하다는 문제가 있다. 이에, 2D 얼굴 사진 데이터(2D Face Picture Image)와 두부 단층 이미지 데이터(DICOM series)를 입력 데이터로 이용하고 3D CAD 모델 복원 기술 및 텍스쳐 매핑(Texture-Mapping) 기술을 활용한 모델(3D 얼굴표면 모델, 3D 얼굴표면 CAD 모델)을 생성하여 전술한 문제점을 극복한다. 즉, 의료 시술에 있어서, 픽셀(pixel) 또는 복셀(voxel)로 구성된 이미지 데이터 또는 이미지들을 조합하여 생성된 영상 데이터를 응용하여 새로운 모델을 제작하거나 시뮬레이션을 수행하는 것과 같은 3D CAD 모델 기반의 프로세스를 가능하게 한다. 여기서 3D CAD 모델은 점, 선 및 면을 포함하여 구성되는데, 픽셀(pixel)또는 복셀(voxel)로 구성된 이미지 또는 영상을 이러한 3D CAD 모델로 복원한 후에, 복원된 모델에 텍스쳐 매핑(Texture-Mapping) 기술을 적용하여 텍스쳐가 입혀진 입체적인 얼굴모델(Textured Face Surface)을 생성하고, 이를 이용하여 새로운 모델을 제작하거나 시뮬레이션을 실행할 수 있다.Referring to FIG. 1, a 2D face picture image having a file format such as BMP, JPEG, and GIF is acquired using a digital camera, a mobile phone camera, or the like. The data thus obtained is a 2D bitmap image data, which is only two dimensions and can not be viewed three-dimensionally. In addition, 2D face picture data (2D Face Picture Image) can not be used for directly creating a new model or performing simulation. In this paper, we propose a model that uses 2D face image data (2D Face Picture Image) and head 3D image data (DICOM series) as input data and uses 3D CAD model restoration technology and texture mapping technology , 3D facial surface CAD model) to overcome the above-mentioned problems. That is, in the medical treatment, a 3D CAD model-based process such as creating a new model or performing a simulation by applying image data generated by combining image data or images composed of pixels or voxels . Here, the 3D CAD model includes points, lines and faces. After reconstructing an image or an image composed of pixels or voxels into the 3D CAD model, a texture mapping (texture mapping) ) Technology to create a textured face surface, and use it to create a new model or run a simulation.

다만, 텍스쳐가 입혀진 얼굴모델(Textured Face Surface)을 생성하기 위한 방법으로는, 이에 한정되지 않고 3D 컬러 스캐너(3D color scanner, Texture 3D scanner)를 이용하는 방법, 특정 데이터 또는 모델로부터 텍스쳐가 입혀진 3D 표면모델(3D Surface)을 얻을 수 있는 장치나 소프트웨어를 이용하는 방법 등 다양한 방법이 있다. 즉, 3D 얼굴표면 모델(3D Face Surface) 및 3D 컬러 스캐너(3D color scanner, Texture 3D scanner)로 스캔한 데이터를 이용하여 각각의 점군 데이터를 형성하고, 여기서 얻은 데이터를 정리하고 3D 컬러 스캐너(3D color scanner, Texture 3D scanner)로 스캔한 데이터를 3D 얼굴표면 모델(3D Face Surface)에 정합하는 과정을 통해 3D 얼굴모델(Textured Face Surface)을 생성한다. 3D 컬러 스캐너(3D color scanner, Texture 3D scanner)는 얼굴 자체를 스캔하여 텍스쳐가 입혀진 데이터를 획득하므로 텍스쳐를 따로 입히는 작업이 필요 없기 때문에 텍스쳐 매핑 과정에서 발생할 수 있는 오차가 없고, 보다 간단하게 실제 얼굴 모습과 유사한 데이터를 제공할 수 있다. 하지만 적은 수의 다면체(Poly Hedron, Polygonal Surface)로 구성되므로 정밀한 데이터의 표현이 어렵고 추가적인 수정 작업, 즉 시뮬레이션을 구현하기 위해 3D 컬러 스캐너(3D color scanner)를 이용한 결과값을 3D 얼굴표면 모델(3D Face Surface)에 정합하는 과정이 필요하다는 단점이 있다. 또한, 치과에서 일반적으로 갖추고 있는 CBCT 장비 이외에 추가적으로 3D 컬러 스캐너(3D color scanner, Texture 3D scanner)를 구비하는 비용이 필요하다는 단점이 있다.However, the method for generating a textured face surface is not limited to this method. For example, a method using a 3D color scanner (Texture 3D scanner), a method of generating a 3D surface And a method of using a device or software that can obtain a model (3D surface). That is, each of the point cloud data is formed using the data scanned with the 3D face surface and the 3D color scanner, and the obtained data is collected, and the 3D color scanner (3D color scanner, and textured 3D scanner) to the 3D face surface to create a 3D face model (Textured Face Surface). Since the 3D color scanner (3D color scanner) scans the face itself to acquire the data on which the texture is embedded, there is no error that can occur in the texture mapping process because there is no need to apply the texture separately, And can provide data similar to the appearance. However, since it is composed of a small number of polyhedrons (Poly Hedon, Polygonal Surface), it is difficult to express precise data. In order to realize additional correction, that is, simulation, a result using a 3D color scanner is converted into a 3D face surface model Face surface) is required. In addition, there is a disadvantage that it is necessary to additionally provide a 3D color scanner (Texture 3D scanner) in addition to the CBCT equipment generally provided in dentistry.

따라서, 이하에서는 2D 얼굴 사진 데이터(2D Face Picture Image)와 두부 단층 이미지 데이터(DICOM series)를 입력 데이터로 이용하고 3D CAD 모델 복원 기술 및 텍스쳐 매핑(Texture-Mapping) 기술을 적용하여 3D 얼굴모델(Textured Face Surface)을 생성하는 과정을 위주로 설명한다.
Therefore, in the following description, 3D face model (2D face image) and head 3D image data (DICOM series) are used as input data, and 3D CAD model restoration technique and texture mapping technique are applied. Textured Face Surface).

도 2는 두부 단층 이미지 데이터(DICOM series)로부터 부피를 가진 3D 두부영상(3D Head Image)을 구성하고, 얼굴 피부 영역을 영역화(segmentation)하고 이를 바탕으로 재구성(reconstruction)하여 3D 얼굴표면 모델(3D Face Surface)을 복원한 것을 도시한 도면이다.FIG. 2 shows a 3D head image having a volume from the DICOM series, segmentation of the facial skin region, and reconstruction based on the segmentation. 3D Face Surface) is restored.

의료 진료를 위해 CT(computed tomography, 컴퓨터 단층 촬영), MRI(magnetic resonance imaging, 자기공명영상), Ultrasonic diagnostics(초음파 진단) 촬영 등의 장비로부터 두부 단층 이미지 데이터(DICOMseries)를 획득할 수 있는데, 두부 단층 이미지 데이터(DICOMseries)의 획득은 이에 한정되지 아니하고 PET(poisitron emission tomography, 양전자 단층 촬영) 등 다양한 방법으로 가능하다. Head tomography image data (DICOMseries) can be obtained from equipment such as CT (computed tomography), MRI (magnetic resonance imaging), and ultrasonic diagnostics (medical imaging) Acquisition of the tomographic image data (DICOMseries) is not limited to this and can be performed by various methods such as PET (poisitron emission tomography).

이후, 획득된 두부 단층 이미지 데이터(DICOM series)들을 조합하여 부피(volume)를 갖는 3D 두부영상(3D Head Image)을 생성한다.Then, the acquired head tomographic image data (DICOM series) are combined to create a 3D head image having a volume.

그 후, 얼굴 피부 영역을 영역화(segmentation)하여 이를 3D로 재구성(reconstruction)함으로써 3D 얼굴표면 모델(3D Face Surface)로 복원한다.Then, the facial skin area is segmented and reconstructed into 3D to restore the 3D face surface.

여기서 얼굴 피부 영역을 영역화(segmentation)하는 것은 경계선을 형성하여 원하는 영역을 선택하는 작업을 의미한다. 일 예로 3D 두부영상(3D Head Image)은 복수의 이미지를 층층으로 쌓은 것이므로, 각각의 이미지에 대해 공기층과 얼굴 표면이 맞닿는 부분의 픽셀값의 급격한 변화를 찾아 얼굴 표면의 경계를 형성하는 작업을 수행하며, 이러한 작업이 영역화(segmentation)에 해당한다. 즉, 피부, 악골(顎骨), 치관(齒冠), 치근(齒根) 등 CT, MRI 영상으로부터 획득한 영상 중 사용자가 데이터로서 사용할 부분을 구분하는 것을 의미한다. 이후, 영역화(segmentation)된 정보를 기반으로 3D 두부영상(3D Head Image)에 마칭큐브 알고리즘(Marching cube Algorithm)등의 기술을 이용하여 재구성(reconstruction)함으로써, 3D 얼굴표면 모델(3D Face Surface, 3D 얼굴 표면 CAD 모델)데이터를 생성한다. Here, the segmentation of the facial skin region means a task of selecting a desired region by forming a boundary line. For example, a 3D head image is formed by stacking a plurality of images in a layered structure. Thus, a boundary of the surface of the face is formed by finding a sudden change in the pixel value at the portion where the air layer and the face surface are in contact with each other , And this operation corresponds to segmentation. That is, it means that the user uses the data obtained from the CT and MRI images, such as the skin, the jaw bone, the crown, and the root, to distinguish the part to be used as data. Thereafter, reconstruction is performed using a technique such as a Marching cube algorithm on a 3D head image based on the segmented information to generate a 3D face surface model (3D Face Surface) 3D facial surface CAD model) data.

결국, 3D 두부영상(3D Head Image)을 영역화 및 재구성(segmentation and reconstruction) 하여 생성된 3D 얼굴표면 모델(3D Face Surface)은 내부가 비어있는, 즉 얼굴 피부를 표현한 데이터가 된다. 다만, 이러한 3D 얼굴표면 모델(3D Face Surface)은 점, 선 및 면으로 구성되며 방향성을 가지는 3D CAD 모델로서, 이를 활용하여 새로운 모델을 제작하거나 시뮬레이션을 수행하는 것과 같은 CAD 모델 기반의 응용 프로세스가 가능하다.
As a result, the 3D face surface model created by segmentation and reconstruction of the 3D head image is data in which the interior is empty, that is, facial skin. However, such a 3D face surface model is a 3D CAD model having points, lines, and faces and has directionality, and a CAD model-based application process such as creating a new model or performing a simulation using the CAD model It is possible.

도 3은 복원된 3D 얼굴표면 모델(3D Face Surface)에 포함된 부비동, 비강 부분을 제거하는 과정을 도시한 도면이다. 도 4는 복원된 3D 얼굴표면 모델(3D Face Surface)에 표지점을 표시(20, 3D Landmarks)한 것을 도시한 도면이다. 도 5는 복원된 3D 얼굴표면 모델(3D Face Surface)을 2D 얼굴 사진 데이터(2D Face Picture Image)와 매핑(mapping)될 수 있도록 회전(rotate), 이동(translate) 및 임의의 축을 기준으로 크기 변환(scale)하는 3D 표지점 기반의 정합(3D Affine Landmark-Transform)을 수행하여 2D 얼굴 사진 데이터(2D Face Picture Image)의 얼굴모습에 맞도록 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 생성한 것을 도시한 도면이다.FIG. 3 is a diagram illustrating a process of removing the sinus and nasal portions included in the restored 3D face surface model (3D Face Surface). FIG. 4 is a view showing marking points (20, 3D Landmarks) on the restored 3D face surface model (3D Face Surface). FIG. 5 illustrates a method for rotating, translating, and resizing a restored 3D face surface model to be mapped with 2D face picture data. (3D Affine Landmark-Transform) that scales the 3D face image to create a transformed 3D face surface that is converted to the 2D face image. Fig.

도 3을 참조하면, 상기의 과정을 통해 생성된 3D 얼굴표면 모델(3D Face Surface)에는 콧구멍 안 쪽, 예를 들어 콧구멍 안 쪽의 빈 공간을 차지하는 부비동, 비강 부분 등이 포함되어 있다. 부비동, 비강 부분 등은 텍스쳐 매핑 또는 시뮬레이션 수행시 데이터 변형 등에 방해요소로 작용할 수 있다. 따라서, 관심영역 이외의 부분을 삭제하는 기법(예를 들어 P.O.I.; polyhedron of interest)을 이용하여 비교적 계산이 빠르고 간편한 2차식 곡면의 불린연산을 통해 3D 얼굴표면 모델(3D Face Surface) 중 불필요한 부분을 제거함으로써 새로운 모델 제작이나 시뮬레이션에 직접 활용되는 얼굴 피부만을 얻게 된다.Referring to FIG. 3, the 3D face surface model created through the above process includes sinuses, nasal cavities, and the like, which occupy empty space in the inside of the nostril, for example, inside the nostril. Sinuses, nasal cavities, and the like can interfere with data transformation when performing texture mapping or simulation. Therefore, the unnecessary part of the 3D face surface can be obtained through the Boolean operation of the quadratic surface which is relatively easy to calculate using the polyhedron of interest (POI) The face skin that is directly used for new model making or simulation is obtained.

이렇게 생성된 3D 얼굴표면 모델(3D Face Surface)에, 도 4에 도시된 바와 같이 2D 얼굴 사진 데이터(2D Face Picture Image)에 표시한 표지점(10, 2D Landmarks)과 대응되는 위치에 표지점을 표시(20, 3D Landmrks)한다.As shown in Fig. 4, a marking point is located at a position corresponding to the marking point (10, 2D Landmarks) displayed on the 2D face picture image, as shown in Fig. 4, on the thus generated 3D face surface model Mark (20, 3D Landmrks).

이후, 도 5에 도시된 바와 같이 표지점이 표시(20, 3D Landmarks)된 3D 얼굴표면 모델(3D Face Surface)을 표지점이 표시(10, 2D Landmarks)된 2D 얼굴 사진 데이터(2D Face Picture Image)에 적용(Fitting)하는데, 이를 위해서 3D 얼굴표면 모델(3D Face Surface)상 표지점들의 순서와 표지점이 이루는 형태를 2D 얼굴 사진 데이터(2D Face Picture Image)의 표지점들의 순서와 표지들이 이루는 형태에 맞추기 위해 회전(rotate), 이동(translation) 및 임의의 축을 기준으로 크기 변환(scale)하여(Rotate, Translate and Scale To fit 2D Landmarks) 2D 얼굴 사진 데이터(2D Face Picture Image)상의 표지점 집합과 3D 얼굴표면 모델(3D Face Surface)의 표지점 집합의 좌표를 공유시켜 배치의 형태를 동일화하는 (Coordinates Mapping, Shared local Coordinates) 작업을 한다.Then, as shown in FIG. 5, the 3D face surface model (20, 3D Landmarks) is displayed on the 2D face image data (10, 2D Landmarks) In order to do this, the order of the marking points on the 3D Face Surface and the shape of the marking points are matched with the order of the marking points of the 2D face picture image and the shapes of the markings Rotate, Translate, and Scale to fit 2D Landmarks. The set of markers on the 2D Face Picture Image and the 3D face surface (Coordinates Mapping, Shared Local Coordinates) by sharing the coordinates of the set of marking points of the 3D face surface.

위의 작업을 3D 얼굴표면 모델(3D Face Surface)에 동일하게 적용시키면, 2D 얼굴 사진 데이터(2D Face Picture Image)와 3D 얼굴표면 모델(3D Face Surface)의 방향 및 형태가 동일해 진, 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)이 생성 된다. 이와 같은 과정을 3D 표지점 기반의 정합(3D Affine Landmark-Transform)이라고 한다.
Applying the above operations to the 3D Face Surface makes it possible to convert the 2D Face Picture Data and the 3D Face Surface to the same orientation and shape, A Transformed 3D Face Surface is created. This process is called 3D Affine Landmark-Transform.

도 6은 3D 표지점 기반의 정합(3D Affine Landmark-Transform)을 수행하여 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 매개변수화(Parameterization)함으로써 생성되는 텍스쳐 메쉬(Texture-Mesh)의 모습을 도시한 도면이다.FIG. 6 shows the appearance of a texture mesh created by parameterizing a transformed 3D face surface by performing 3D Affine Landmark-Transform (3D) Fig.

이하 매개변수화 과정(Parameterization process)에 대해 설명한다. 도 4의 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 기반으로 매개변수화 과정(Parameterization Process)이 시작되는데, 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 2D 얼굴 사진 데이터(2D Face Picture Image)기반의 텍스쳐 평면에 투영하여 평면 모델을 생성(Project-Plane generation)한다.Hereinafter, the parameterization process will be described. A parameterization process is started based on the transformed 3D face surface of Fig. 4. The transformed 3D face surface is converted into 2D face image data Image-based texture plane to project-plane generation.

이후, 축값을 조정하고 구간을 동기화하며 크기를 조절하는 작업 등을 통해 표준화(정규화, 동기화)하여 2D 얼굴 사진 데이터(2D Face Picture Image)와 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)의 좌표값을 정렬(Texture Paramerter Space Nomalization)하는 과정을 수행한다. 이로써, 3차원의 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 2차원으로 변환시켜 2D 얼굴 사진 데이터와 동일하게 맞추게 되는데, 이를 텍스쳐 메쉬(Texture-Mesh) 데이터라고 한다. (Normalized, synchronized) by adjusting the axis value, synchronizing the sections and adjusting the size, etc., so that the coordinates of the 2D facial image data (2D Face Picture Image) and the transformed 3D facial surface surface (Texture Paramater Space Nomalization). In this way, the transformed 3D facial surface model is transformed into 2D, which is the same as 2D facial image data, which is called texture-mesh data.

여기서 텍스쳐 메쉬(Texture-Mesh) 데이터는 3D CAD 모델로서, 점, 선 및 면으로 구성되고 방향성이 있으며 안과 밖이 존재하는 다면체(Polyhedron, Polygonal Surface)로 구성된다. 본 발명에서는 텍스쳐 메쉬(Texture-Mesh)를 구성하는 면을 수만 내지 수십만 개의 삼각형으로 형성하는데, 이는 프로그램 상에서 사용자가 위치 등의 계산을 편하게 하기 위함이다.Here, the texture-mesh data is a 3D CAD model, which is composed of points, lines and faces, and is made up of polyhedrons and polygonal surfaces that are directional and exist both inside and outside. In the present invention, the surface constituting the texture mesh is formed by tens to hundreds of thousands of triangles so that the user can easily calculate the position and the like on the program.

텍스쳐 매핑(Texture-Mapping)을 수행함에 있어, 보다 실제 얼굴에 가까운 얼굴모델을 생성하기 위해 여러 방향에서 촬영한 사진들을 사용할 수도 있는데, 이와 같은 경우, 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 매개변수화 과정을 거쳐 생성된 텍스쳐 메쉬(Texture-Mesh)의 법선벡터와 3D 얼굴표면 모델(3D Face Surface)의 법선벡터를 이용한 가시성 순위를 체크(Regions Visibility check)한 후 최적의 가시성 부분을 선택하는 과정인 '랭크(visibility rank)'를 수행한다. 이는, 예컨대 콧대, 콧망울, 눈두덩이, 뺨 등이 사진 촬영을 한 방향에 따라 가시성이 달라질 수 있다는 것을 반영한 것이다. 다시 말하면, 3D 얼굴표면 모델(3D Face Surface)의 일정 영역인 하나 이상의 다각형 영역(제 1영역)에 부합(매칭, maching)되는 제 1법선벡터와 텍스쳐 메쉬(Texture-Mesh) 데이터의 일정 영역(제 2영역)에 존재하는 제 2법선벡터가 이루는 각을 판단하여, 제 1법선벡터와 제 2법선벡터가 형성하는 각도가 180도에 가까울수록 가시성이 좋은 데이터로 판단하고 랭크(visibility rank)의 과정을 통해 우선순위를 매긴다. 이 랭크(visibility rank) 과정을 통한 우선순위를 이용하여 텍스쳐 매핑(Texture-Mapping)시 보다 가시성이 뛰어난 텍스쳐를 선별하여 매핑할 수 있다는 장점을 갖는다.
In performing texture mapping, it is possible to use photographs taken in various directions to generate a face model closer to a real face. In such a case, a transformed 3D face surface model may be used. (Regions Visibility check) using the normal vector of the texture mesh (Texture-Mesh) generated through the parametrization process and the normal vector of the 3D face surface model, and then selects the optimal visibility part And a 'visibility rank' process. This reflects, for example, that visibility may vary depending on the direction in which the photographer took the nose, nose, eyes, cheeks, and the like. In other words, the first normal vector matching and matched to at least one polygonal area (first area), which is a predetermined area of the 3D face surface model, and a predetermined area of the texture mesh data The second normal vector existing in the second area) is determined. As the angle formed by the first normal vector and the second normal vector is closer to 180 degrees, the data is judged to have good visibility and the visibility rank Prioritize through the process. It is possible to select and map textures with higher visibility than those in texture mapping using the priority through the visibility rank process.

도 7은 텍스쳐 매핑(Texture-Mapping) 기법을 기반으로 생성된 텍스쳐 된 입체적 얼굴모델(Textured Face Surface)을 도시한 도면이다.7 is a view showing a textured face model generated based on a texture mapping technique.

텍스쳐 매핑(Texture-Mapping)을 위해서는 2D 얼굴 사진 데이터(2D Face Picture Image), 3D 얼굴표면 모델(3D Face Surface)및 텍스쳐 메쉬(Texture-Mesh) 데이터를 이용한다. 텍스쳐 메쉬(Texture-Mesh)를 구성하고 있는 일정 영역(단위)당, 그 각각에 대응하는 2D 얼굴 사진 데이터(2D Face Picture Image)의 영역으로부터 텍스쳐를 추출하고, 이 텍스쳐를 텍스쳐 메쉬(Texture-Mesh)를 이용하여 3D 얼굴표면 모델(3D Face Surface)의 3D 좌표에 대응시키는 텍스쳐 매핑(Texture-Mesh)의 과정을 수행함으로써, 텍스쳐 된 입체적 얼굴모델(Textured Face Surface)데이터를 얻을 수 있다. For texture mapping, 2D face picture data, 3D face surface, and texture-mesh data are used. A texture is extracted from an area of a 2D face picture image corresponding to each of a certain area (unit) constituting a texture mesh, and the texture is extracted from a texture mesh ) Of the 3D face surface to correspond to the 3D coordinates of the 3D face surface to obtain the textured face surface data.

이때, 상기 서술한 랭크(visibility rank)의 우선순위에 따라 다수의 2D 얼굴 사진 데이터(2D Face Picture Image)와 그에 해당하는 다수의 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)에서 우선순위가 높은 것을 취하여 매핑하는 것을 통해 보다 뛰어난 가시성을 갖는 3D 얼굴모델(Textured Face Surface)을 생성할 수 있다.At this time, a plurality of 2D facial image data (2D Face Picture Image) and a plurality of transformed 3D facial surface models (Transformed 3D Face Surfaces) corresponding thereto are sorted according to the priority order of the above-described visibility rank You can create a 3D face model with greater visibility through mapping and mapping.

여기서 텍스쳐 매핑(Texture-Mapping)이란 표현하고자 하는 이미지나 물체의 사실감을 높이기 위해 그 표면에 원하는 무늬나 색채 등과 같은 텍스쳐(Texture)를 입히는 작업으로서, 3D 표면모델(3D Surface Model)에 2D 비트맵 이미지, 3D 영상 데이터를 적용(mapping)하여 사실적이고 정교한 모델을 얻을 수 있는 기술을 의미한다.
Texture-mapping is a technique of applying a texture such as a desired pattern or color to a surface to enhance the realism of an image or an object to be expressed. In the 3D surface model, a 2D bitmap Image, and 3D image data to obtain a realistic and sophisticated model.

도 8은 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법을 순서도로 표시한 도면이다.8 is a flowchart showing a method of generating a face model for dental procedure simulation.

첫째, CT, MRI 등을 이용하여 두부 단층 이미지 데이터(DICOM series)를 획득하고, 이를 이용하여 3D 두부영상(3D Head Image)을 얻은 후, 영역화 및 재구성(segmentation and reconstruction) 과정을 수행하여 3D 얼굴표면 모델(3D Face Surface)을 획득한다. 이후, 텍스쳐 매핑(Texture-Mapping) 또는 시뮬레이션을 수행하는 데 있어 방해요소로 작용하는 코 안쪽의 부비동, 비강 부분등을 제거하여 텍스쳐 매핑(Texture-Mapping) 또는 시뮬레이션에 알맞게 수정된 3D 얼굴표면 모델(3D Face Surface)을 획득한다.First, DICOM series data were acquired using CT, MRI, etc., and 3D head images were obtained using these data. Then, segmentation and reconstruction were performed to obtain 3D head images, Obtain a 3D Face Surface. Thereafter, a 3D facial surface model modified to fit texture mapping (Texture-Mapping) or simulation is created by removing the nasal sinus, nasal cavity, etc., which act as obstacles in performing texture mapping or simulation 3D Face Surface).

둘째, 2D 얼굴 사진 데이터(2D Face Picture Image)를 획득하고, 이에 표지점을 표시(10, 2D Landmarks)한다.Secondly, 2D face picture data (2D Face Picture Image) is obtained and mark points are displayed (10, 2D Landmarks).

셋째, 3D 얼굴표면 모델(3D Face Surface)에 2D 얼굴 사진 데이터(2D Face Picture Image)상 표시한 표지점(10, 2D Landmarks)과 대응하는 위치에 표지점을 표시(20, 3D Landmarks)하고, 3D 표지점 기반의 정합(3D Affine Landmark-Transform)을 수행하여 3D 얼굴표면 모델(3D Face Surface)을 얻는다. 이를 통해 사진 촬영한 2D 얼굴 사진 데이터(2D Face Picture Image)와 3D 얼굴표면 모델(3D Face Surface)간의 얼굴 방향 등을 동일하게 맞출 수 있어, 텍스쳐 매핑(Texture-Mapping)시 2D 얼굴 사진 데이터와 3D 얼굴표면 모델(3D Face Surface)의 불일치에 의한 오차를 해결할 수 있다.Third, marking points (20, 3D Landmarks) are displayed at positions corresponding to the marking points (10, 2D Landmarks) displayed on the 2D face picture data on the 3D face surface model, Perform a 3D Affine Landmark-Transform to obtain a 3D Face Surface. In this way, the face orientation between the 2D face image data (2D Face Picture Image) and the 3D face surface model (3D Face Face) photographed can be matched to the 2D face image data and 3D face image data in texture mapping It is possible to solve the error caused by the inconsistency of the 3D face surface.

넷째, 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)에 매개변수화 과정(Parameterization Process)을 시행하여 텍스쳐 메쉬(Texture-Mesh)데이터를 획득한다. 이는, 2차원인 2D 얼굴 사진 데이터(2D Face Picture Image)에 3차원인 변환된 3D 얼굴표면 모델(Transformed 3D Face Surface)을 맞추기 위해 2차원으로 변형시키는 작업을 의미하며, 이를 통해 생성된 텍스쳐 메쉬(Texture-Mesh)는 2D 얼굴 사진 데이터(2D Face Picture Image)와 동일한 좌표를 갖고 있어 텍스쳐 매핑(Texture-Mapping)이 가능하도록 한다.Fourth, a parameterization process is performed on the transformed 3D face surface to obtain texture-mesh data. This means that the transformed 2D face image data (2D Face Picture Image) is transformed into 2D in order to fit a transformed 3D face surface model, and the generated texture mesh (Texture-Mesh) has the same coordinates as 2D face picture data (2D Face Picture Image), thereby enabling texture mapping.

이때, 하나 이상의 2D 얼굴 사진 데이터(2D Face Picture Image)가 입력 데이터로 제공되는 경우에는 랭크(visibility rank)를 수행하게 되는데, 다양한 방향에서 촬영한 복수 개의 2D 얼굴 사진 데이터(2D Face Picture Image)가 입력되면 입력된 순서에 따라 이전에 입력된 이미지를 기반으로 생성한 텍스쳐 메쉬와 3D 얼굴표면 모델(3D Face Surface)간의 가시성 우선순위와 현재 입력된 이미지를 기반으로 생성한 텍스쳐 메쉬와 3D 얼굴표면 모델간의 가시성 우선순위를 비교하여 가시성 우선순위가 가장 높은 것으로 랭크(visibility rank)를 유지함으로써 이를 텍스쳐 매핑(Texture-Mapping)을 위한 데이터로 준비한다. At this time, when one or more 2D face picture data is provided as input data, a plurality of 2D face picture data (2D Face Picture Images) taken in various directions When input, the visibility priority between the texture mesh created based on the previously input image and the 3D face surface (3D Face Surface), the texture mesh generated based on the currently input image, and the 3D face surface model And visibility rank is maintained as the highest visibility priority so as to prepare it as data for texture mapping.

하나 이상의 2D 얼굴 사진 데이터(2D face picture image)와 상기의 과정을 통하여 획득한 해당 이미지에 해당하는 텍스쳐 메쉬(Texture-Mesh)를 이용하여 텍스쳐 매핑(Texture-Mapping) 과정을 수행하는데 있어, 상기 서술한 랭크(visibility rank)를 이용하여 가시성 우선순위가 높은 텍스쳐가 선택되어 3D 얼굴표면 모델(3D Face Surface)에 입혀 짐으로써 텍스쳐된 입체적 얼굴모델(Textured Face Surface)를 얻게 된다.
In performing a texture mapping process using one or more 2D face picture data and a texture-mesh corresponding to the image obtained through the above process, A texture with a high visibility priority is selected using a visibility rank, and the 3D face surface is modeled to obtain a textured face surface.

결과적으로, 도 7과 같은 텍스쳐된 입체적 얼굴모델(Textured Face Surface) 데이터를 얻게 되는데, 이는 앞의 과정에서 생성된 3D 얼굴표면 모델(3D Face Surface)데이터를 사용하며, 3D 얼굴표면 모델(3D Face Surface)은 3D 두부영상(3D Head Image)을 기반으로 하기 때문에 3D 두부영상(3D Head Image)과 좌표계를 공유하고 있으므로, 3D 두부영상(3D Head Image)의 좌표계를 사용하는 치아 이동에 따른 얼굴형의 변화를 실시간으로 반영하는 얼굴 변화 시뮬레이션을 포함한 모든 작업에 사용이 가능하다. 즉, 치과 시술 시뮬레이션을 위한 실제 얼굴과 유사하도록 사실적이고 입체적인 3D 얼굴모델(3D Face Model)을 생성하게 된다.
As a result, textured face surface data as shown in FIG. 7 is obtained, which uses the 3D face surface data generated in the previous process, and the 3D face surface model (3D Face) (3D head image) and the coordinate system because it is based on the 3D head image. Therefore, the face shape due to the tooth movement using the coordinate system of the 3D head image It can be used for all tasks including face change simulation that reflects changes in real time. That is, a realistic and stereoscopic 3D face model (3D face model) is created so as to be similar to the actual face for dental procedure simulation.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It will be understood that various modifications and changes may be made without departing from the scope of the appended claims.

10: 2D 얼굴 사진 데이터에 표시한 표지점
20: 3D 얼굴 표면 모델에 표시한 표지점
10: Cover point displayed on 2D face photograph data
20: Cover point displayed on the 3D face surface model

Claims (4)

치아 이동 시뮬레이션에 따라 얼굴 변형을 반영하는 얼굴모델 생성 방법에 관한 것으로서,
2D 얼굴 사진 데이터와 3D 두부영상을 획득하며, 상기 획득된 3D 두부영상을 이용하여 3D 얼굴표면 모델을 복원하는 제 1단계;
상기 획득된 2D 얼굴 사진 데이터에 표지점을 표시하고, 상기 형성된 3D 얼굴표면 모델에 표지점을 표시하는 제 2단계;
상기 표지점이 표시된 3D 얼굴표면 모델을 상기 2D 얼굴 사진 데이터에 적용하기 위해서 상기 표시된 표지점을 기반으로 회전, 이동 및 임의의 축을 기준으로 크기 변환하여 3D 얼굴표면 모델의 위치와 크기를 2D 얼굴 사진 데이터에 맞추는 작업을 수행함으로써, 2D 얼굴 사진 데이터의 얼굴모습에 맞춰지도록 변환된 3D 얼굴표면 모델을 생성하는 제 3단계;
상기 2D 얼굴 사진 데이터 기반의 텍스쳐 평면에 상기 변환된 3D 얼굴표면 모델을 투영하여 평면 모델을 생성하고, 상기 2D 얼굴 사진 데이터와 상기 변환된 3D 얼굴표면 모델에 매개변수화 과정을 거쳐 텍스쳐 매쉬(Texture-Mesh)를 생성하는 제 4단계;
상기 3D 얼굴표면 모델과 상기 텍스쳐 메쉬의 법선벡터를 비교하여 가시성 우선순위를 체크하는 랭크(visibility rank)과정을 수행하는 제 5단계; 및
상기 2D 얼굴 사진 데이터와 상기 3D 얼굴표면 모델 및 상기 매개 변수화 과정을 통해 생성된 텍스쳐 메쉬를 이용하여, 랭크(visibility rank) 과정에 의해 마킹된 최적의 가시성 텍스쳐만을 모아 텍스쳐 매핑(Texture Mapping)을 수행하는 제 6단계;
를 포함하는 것을 특징으로 하는 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법.
The present invention relates to a face model generation method that reflects face deformation according to a tooth movement simulation,
A first step of acquiring 2D facial image data and a 3D head image and reconstructing a 3D facial surface model using the obtained 3D head image;
Displaying a mark point on the obtained 2D face photograph data and displaying a mark point on the 3D face model;
Moving and rotating the 3D face model based on the displayed mark point so as to apply the 3D face model showing the mark point to the 2D face image data to convert the position and size of the 3D face model into the 2D face image data A third step of generating a converted 3D facial surface model so as to match the facial appearance of the 2D facial photograph data by performing the operation of fitting the facial model to the facial image data;
Dimensional face image data based on the 2D facial image data to generate a plane model by projecting the converted 3D facial surface model onto a texture plane based on the 2D facial photograph data, and performing a parameterization process on the 2D facial image data and the converted 3D facial surface model to generate a texture- Mesh);
A fifth step of performing a visibility rank process for comparing visibility priorities by comparing the 3D face surface model with a normal vector of the texture mesh; And
Texture mapping is performed by collecting only the optimal visibility textures marked by a visibility rank process using the 2D facial photograph data, the 3D facial surface model, and the texture mesh generated through the parameterization process ;
And generating a face model for the dental procedure simulation.
청구항 1에 있어서,
상기 제 5단계 중 랭크(visibility rank) 과정은,
하나 이상의 2D 얼굴 사진 데이터에 대해, 각각 상기 3D 얼굴표면 모델상 텍스쳐 매핑을 위한 일정 영역의 법선벡터와 상기 텍스쳐 메쉬의 법선벡터가 이루는 각을 비교하여 가시성 체크를 하고, 이를 기반으로 영역별 가시성 우선순위 랭크(visibility rank)를 부여하여 해당 영역에 가시성이 가장 높은 2D 얼굴 사진 데이터를 판별할 수 있으므로, 가시성이 가장 높은 데이터를 이용한 텍스쳐 매핑을 수행할 수 있는 것을 특징으로 하는 치과 기술 시뮬레이션을 위한 얼굴모델 생성 방법.
The method according to claim 1,
In the fifth step, a visibility rank process is performed.
The visibility check is performed for each of the one or more 2D face image data by comparing the angle formed by the normal vector of the predetermined area for the texture mapping on the 3D face surface model with the normal vector of the texture mesh, Dimensional face image data having the highest visibility can be discriminated by giving a visibility rank so that texture mapping using the data having the highest visibility can be performed. How to create a model.
삭제delete 삭제delete
KR1020140084001A 2014-07-04 2014-07-04 The face model generation method for the Dental procedure simulation Active KR101744079B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140084001A KR101744079B1 (en) 2014-07-04 2014-07-04 The face model generation method for the Dental procedure simulation
PCT/KR2015/006976 WO2016003258A1 (en) 2014-07-04 2015-07-06 Face model generation method for dental procedure simulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140084001A KR101744079B1 (en) 2014-07-04 2014-07-04 The face model generation method for the Dental procedure simulation

Publications (2)

Publication Number Publication Date
KR20160004865A KR20160004865A (en) 2016-01-13
KR101744079B1 true KR101744079B1 (en) 2017-06-09

Family

ID=55019687

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140084001A Active KR101744079B1 (en) 2014-07-04 2014-07-04 The face model generation method for the Dental procedure simulation

Country Status (2)

Country Link
KR (1) KR101744079B1 (en)
WO (1) WO2016003258A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023182755A1 (en) 2022-03-22 2023-09-28 주식회사 레이 Method of producing 3-dimensional face scan data
KR20240109416A (en) 2023-01-04 2024-07-11 주식회사 레이 simulation method for prosthodontics

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127122A (en) * 2016-06-16 2016-11-16 厦门道拓科技有限公司 Head portrait detection method based on face action identification, system and intelligent terminal
CN108876886B (en) * 2017-05-09 2021-07-27 腾讯科技(深圳)有限公司 Image processing method and device and computer equipment
CN107748869B (en) * 2017-10-26 2021-01-22 奥比中光科技集团股份有限公司 3D face identity authentication method and device
CN108717730B (en) * 2018-04-10 2023-01-10 福建天泉教育科技有限公司 3D character reconstruction method and terminal
KR102289610B1 (en) * 2019-05-09 2021-08-17 오스템임플란트 주식회사 Method and apparatus for providing additional information of teeth
CN110428491B (en) * 2019-06-24 2021-05-04 北京大学 3D face reconstruction method, device, equipment and medium based on single frame image
CN112819741B (en) * 2021-02-03 2024-03-08 四川大学 Image fusion method and device, electronic equipment and storage medium
WO2022191575A1 (en) * 2021-03-09 2022-09-15 고려대학교 산학협력단 Simulation device and method based on face image matching
CN113112617B (en) * 2021-04-13 2023-04-14 四川大学 A three-dimensional image processing method, device, electronic equipment and storage medium
CN115120372B (en) * 2022-05-25 2023-04-14 北京大学口腔医学院 Three-dimensional prosthesis form and position determining method
CN118334294B (en) * 2024-06-13 2024-08-20 四川大学 A parametric domain interpolation face deformation measurement method based on quasi-conformal mapping

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000008415A1 (en) 1998-08-05 2000-02-17 Cadent Ltd. Imaging a three-dimensional structure by confocal focussing an array of light beams
JP2011004796A (en) 2009-06-23 2011-01-13 Akita Univ Jaw oral cavity model using optical molding technique and method for manufacturing the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100654396B1 (en) * 2005-12-15 2006-12-06 제양수 3D face image conversion device and hair style simulation device using computer
KR20090092473A (en) * 2008-02-27 2009-09-01 오리엔탈종합전자(주) 3D Face Modeling Method based on 3D Morphable Shape Model
KR100942026B1 (en) * 2008-04-04 2010-02-11 세종대학교산학협력단 Virtual 3D Face Makeup System and Method Based on Multi-Sensory Interfaces
JP2011039869A (en) * 2009-08-13 2011-02-24 Nippon Hoso Kyokai <Nhk> Face image processing apparatus and computer program
KR101397476B1 (en) * 2012-11-28 2014-05-20 주식회사 에스하이텍 Virtual cosmetic surgery method by 3d virtual cosmetic surgery device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000008415A1 (en) 1998-08-05 2000-02-17 Cadent Ltd. Imaging a three-dimensional structure by confocal focussing an array of light beams
JP2011004796A (en) 2009-06-23 2011-01-13 Akita Univ Jaw oral cavity model using optical molding technique and method for manufacturing the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023182755A1 (en) 2022-03-22 2023-09-28 주식회사 레이 Method of producing 3-dimensional face scan data
KR20230137779A (en) 2022-03-22 2023-10-05 주식회사 레이 method of producing 3-dimensional face scan data
KR20240109416A (en) 2023-01-04 2024-07-11 주식회사 레이 simulation method for prosthodontics

Also Published As

Publication number Publication date
WO2016003258A1 (en) 2016-01-07
KR20160004865A (en) 2016-01-13

Similar Documents

Publication Publication Date Title
KR101744079B1 (en) The face model generation method for the Dental procedure simulation
US11735306B2 (en) Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches
EP3818500B1 (en) Automated determination of a canonical pose of a 3d objects and superimposition of 3d objects using deep learning
JP4979682B2 (en) Method and system for pre-operative prediction
CN106023288B (en) An Image-Based Dynamic Stand-In Construction Method
CN105427385B (en) A kind of high-fidelity face three-dimensional rebuilding method based on multilayer deformation model
KR101744080B1 (en) Teeth-model generation method for Dental procedure simulation
CN101339670B (en) A computer-aided three-dimensional craniofacial reconstruction method
KR101556992B1 (en) 3d scanning system using facial plastic surgery simulation
US20130107003A1 (en) Apparatus and method for reconstructing outward appearance of dynamic object and automatically skinning dynamic object
CN102663818A (en) Method and device for establishing three-dimensional craniomaxillofacial morphology model
CN117671138A (en) Digital twin modeling method and system based on SAM large model and NeRF
JP7251003B2 (en) Face mesh deformation with fine wrinkles
CN109377563A (en) A method, device, device and storage medium for reconstructing a face mesh model
CN113628327A (en) Head three-dimensional reconstruction method and equipment
Dicko et al. Anatomy transfer
Li et al. ImTooth: Neural implicit tooth for dental augmented reality
Jeong et al. Automatic generation of subdivision surface head models from point cloud data
CN116912433B (en) Three-dimensional model skeleton binding method, device, equipment and storage medium
KR102705610B1 (en) Stereoscopic image capture device and method for multi-joint object based on multi-view camera
Venkateswaran et al. 3D design of orthotic casts and braces in medical applications
Catherwood et al. 3D stereophotogrammetry: post-processing and surface integration
Takács et al. Facial modeling for plastic surgery using magnetic resonance imagery and 3D surface data
JP2025000475A (en) Image processing apparatus, image processing method, and program
CN119941974A (en) Grid reconstruction method and device for digital object and electronic equipment

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140704

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20160318

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20140704

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20161128

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170227

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170531

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170601

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20200529

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210707

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20220530

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20230531

Start annual number: 7

End annual number: 7