KR101556992B1 - 3d scanning system using facial plastic surgery simulation - Google Patents

3d scanning system using facial plastic surgery simulation Download PDF

Info

Publication number
KR101556992B1
KR101556992B1 KR1020140029398A KR20140029398A KR101556992B1 KR 101556992 B1 KR101556992 B1 KR 101556992B1 KR 1020140029398 A KR1020140029398 A KR 1020140029398A KR 20140029398 A KR20140029398 A KR 20140029398A KR 101556992 B1 KR101556992 B1 KR 101556992B1
Authority
KR
South Korea
Prior art keywords
unit
dimensional
camera
mesh
face
Prior art date
Application number
KR1020140029398A
Other languages
Korean (ko)
Other versions
KR20150107063A (en
Inventor
손우람
Original Assignee
손우람
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손우람 filed Critical 손우람
Priority to KR1020140029398A priority Critical patent/KR101556992B1/en
Publication of KR20150107063A publication Critical patent/KR20150107063A/en
Application granted granted Critical
Publication of KR101556992B1 publication Critical patent/KR101556992B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템에 관한 것으로서, 휴대용 장치로서, 얼굴 추적을 수행하여 얼굴의 방향과 카메라의 방향을 인식함으로써 3차원 스캐너 촬영 시점을 가이드 해주고, 미리 정의된 촬영시점들에 도달하면 자동으로 영상을 취득하면서 촬영시점 정보를 동시에 기록하는 3차원 스캔장치; 상기 3차원 스캔장치를 통해 인식된 정보를 바탕으로 메시 형태의 3차원 모델을 생성한 후 재구성하고, 재구성된 메시 모델과 각 RGB 영상들의 촬영시점에서의 텍스처 매핑을 수행하는 3차원 스캔 후처리장치; 및 상기 3차원 스캔 후처리장치를 통해 처리된 3차원 메시 모델을 시각화 하되, 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로 메시 모델의 텍스처를 실시간 변경하며, 얼굴의 각 부위를 시뮬레이션하는 3차원 모델 출력장치; 를 포함한다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional scanning system using facial shaping simulation, and is a portable apparatus that guides a three-dimensional scanner shooting point by recognizing a face direction and a camera direction by performing face tracking, A three-dimensional scanning device for simultaneously recording photographing time point information while acquiring an image automatically; A three-dimensional scanning post-processing device for reconstructing and reconstructing a mesh-like three-dimensional model based on the information recognized by the three-dimensional scanning device, and performing texture mapping at a shooting point of each of the RGB images and the reconstructed mesh model; ; And a 3D model processing unit that visualizes the 3D mesh model processed through the 3D scan after-processing apparatus, changes the texture of the mesh model in real time based on the texture mapping information closest to the camera position, Output device; .

Description

얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템{3D SCANNING SYSTEM USING FACIAL PLASTIC SURGERY SIMULATION}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a 3D scanning system,

본 발명은 3차원 스캔 시스템에 관한 것으로서, 더욱 상세하게는 얼굴의 구조를 정량적으로 측정하고, 성형 결과를 시뮬레이션 하여 환자의 만족도를 높이고, 의사에게는 정량적인 얼굴 형태 정보를 제공함으로써 보다 안전하고 손쉽게 수술계획을 설계할 수 있는 시스템에 관한 것이다. The present invention relates to a three-dimensional scanning system, and more particularly, to a 3D scanning system which quantitatively measures a structure of a face, simulates a molding result to increase a patient's satisfaction and provides quantitative facial information to a doctor, And a system capable of designing a plan.

종래 영상을 렌더링하는 기술 및 3차원 얼굴을 복원하는 기술과 관련해서는, 한국공개특허 제10-2002-0012598호(이하, '선행문헌 1') 및 한국공개특허 제10-2005-0045774호(이하, '선행문헌 2') 외에 다수 등록 및 공개되어 있다.Conventional image rendering techniques and techniques for restoring three-dimensional faces are disclosed in Korean Patent Laid-Open No. 10-2002-0012598 (hereinafter referred to as "Prior Art 1") and Korean Patent Laid-Open No. 10-2005-0045774 , 'Preceding document 2') are registered and disclosed.

상기한 선행문헌 1은, 영상을 렌더링하는 방법에 있어서: 서로 다른 시점들(viewpoints)로부터 관찰된, 단일 객체(OB)의 다수의 텍스처 영상들(texture images)(TGa, TGb, ...)을 발생시키는 단계; 다수의 동일한 객체들(OB)이 렌더링되어야 할 때 소정의 결정 기준에 따라 상세히 플로팅될(plotting) 객체(OB)들 상에 정상적인 렌더링 처리를 실행하는 단계; 및 발생된 텍스처 영상들(TGa, TGb, ...)들로부터 플로팅될 방향에 따라 텍스처 영상을 선택하여 선택된 텍스처 영상을 간단히 플로팅되어야 하는 객체들(OB)에 대한 텍스처로 사용하는 단계를 포함한다. The above prior art document 1 discloses a method of rendering an image comprising the steps of: receiving a plurality of texture images (TGa, TGb, ...) of a single object (OB) observed from different viewpoints, ; Performing normal rendering processing on the objects (OB) to be plotted in detail according to a predetermined determination criterion when a plurality of identical objects (OB) are to be rendered; And selecting a texture image according to the direction in which the generated texture images TGa, TGb, ... are to be floated, and using the selected texture image as a texture for the objects OB to be simply plotted .

또한 상기한 선행문헌 2는, 다양한 시점을 갖는 사용자의 2차원 얼굴 영상을 입력받아 얼굴 영상의 특징점 정보를 기반으로 3차원 얼굴을 생성하는 장치에 있어서, 사용자의 정보와 얼굴 영상 정보를 입력받고 사용자의 요구에 따라 생성된 영상을 전송 받아 출력 또는 저장하는 사용자 인터페이스부와, 상기 다수개의 사용자 인터페이스부로부터 입력된 영상 및 문자 정보에 따라 영상 정보를 처리하고 생성하여 상기 해당 사용자 인터페이스부로 전송하는 중앙 처리 시스템부를 포함하여 구성된 것을 특징으로 한다. Also, in the above-mentioned prior art document 2, an apparatus for generating a three-dimensional face based on feature point information of a face image by receiving a two-dimensional face image of a user having various viewpoints, A central processing unit for processing and generating image information according to image and character information input from the plurality of user interface units and transmitting the generated image information to the corresponding user interface unit; And a system unit.

선행문헌 1 및 2를 포함한 기존의 의료용 3차원 스캔 시스템의 경우, 균일한 빛 조건을 만들어주는 조명 시스템을 구비하여 다양한 시점에서 촬영한 영상으로 3차원 재구성하여 메시(Mesh) 모델을 생성하고, RGB 영상을 병합하여 컬러 텍스처(Texture) 영상을 모델의 표면에 매핑한다. In the conventional medical 3D scanning system including the prior art documents 1 and 2, a mesh system is created by three-dimensionally reconstructing an image photographed at various points of view by providing an illumination system that produces uniform light conditions, and RGB The image is merged to map a color texture image to the surface of the model.

조명 시스템과 다양한 시점에서 촬영하기 위해 고정설치 형태로 제작되고 크기가 커 공간의 제약이 발생하며, 이동하면서 활용이 어려운 문제점이 있다. It is manufactured in a fixed installation form for shooting at various view points with the lighting system, and there is a restriction that the space is large, and it is difficult to use while moving.

그리고, 기존의 이동형 3차원 스캔 시스템의 경우, 미리 정해진 촬영시점들로 사용자가 3차원 스캐너를 위치하여 촬영해 주어야 하는 불편함이 있고, 균일한 빛 조건을 만들어주는 조명 시스템이 부재하여, 텍스처 매핑시 다양한 시점에서 촬영된 RGB 영상의 광도(Luminosity) 차이로 인하여 경계선 색상 차이(Seam Artifact)가 발생되는 문제점이 있다(도 1a 참조). In the case of the conventional mobile 3D scanning system, there is an inconvenience that the user must position and photograph the 3D scanner at predetermined shooting time points, and there is no lighting system that creates a uniform light condition, A seam artifact is generated due to a difference in luminosity between RGB images captured at various points in time (see FIG. 1A).

이러한 문제점을 극복하기 위하여, 블렌딩 알고리즘을 통해 겹친 부분의 색상차이를 줄이게 된다. 그러나, 이 경우에도 알고리즘 수행을 위한 추가적인 계산시간이 필요하며, 원본 영상에 변형이 생겨서 의학적 관찰에 영향을 미치는 문제가 발생한다. In order to overcome this problem, the blending algorithm reduces the color difference of overlapping parts. However, even in this case, additional calculation time is required for executing the algorithm, and distortion occurs in the original image, which causes a problem affecting medical observation.

이런 제한으로 인해 환자의 만족도를 높이고 의사에게 보다 안전하고 편리하게 수술계획을 세울 수 있도록 보조해주는 3차원 스캔 시스템의 보급이 어려운 문제가 있다. There is a problem in that it is difficult to spread a 3D scanning system that increases the patient's satisfaction and assists the surgeon in planning the surgery more safely and conveniently.

한국공개특허 제10-2002-0012598호.Korean Patent Publication No. 10-2002-0012598. 한국공개특허 제10-2005-0045774호.Korean Patent Publication No. 10-2005-0045774.

본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 본 발명의 제 1 목적은, 휴대용(Hand-held) 3차원 스캐너를 이용하여 스캔 시 동시에 얼굴 추적(Face Tracking)을 수행하여 얼굴의 방향과 카메라의 방향을 인식함으로써, 3차원 스캐너 촬영 시점을 가이드 해주고, 미리 정의된 촬영시점들에 도달하면 자동으로 RGB 영상을 취득하면서 촬영시점 정보를 동시에 기록함으로써, Hand-held 3차원 스캐너의 3차원 스캔과정을 손쉽게 하도록 지원함에 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is a first object of the present invention to provide a hand-held three-dimensional scanner capable of performing face tracking simultaneously during a scan, By recognizing the direction of the camera, it is possible to guide the shooting timing of the 3D scanner, automatically record the RGB image while simultaneously recording the shooting time information when reaching the predefined shooting times, To facilitate the process.

그리고 본 발명의 제 2 목적은, 스캔 결과인 3차원 얼굴 모델을 화면에 출력할 경우, 3차원 렌더링에서 카메라 시점과 가장 근접한 위치에서 촬영된 RGB 영상으로 텍스처 매핑을 실시간으로 교체(텍스처 스위칭)함으로써, 사용자가 3차원 모델을 바라보는 시점에서 최적의 컬러 텍스처 영상을 제공할 수 있고, 블렌딩 알고리즘을 생략할 수 있어, 시스템의 계산 시간이 짧아지며 원본 RGB 영상의 변형이 없으므로 의학적 진단에 문제를 발생시키지 않도록 함에 있다. A second object of the present invention is to provide a method and apparatus for performing texture mapping on an RGB image photographed at a position closest to a camera view in 3D rendering (texture switching) , It is possible to provide an optimal color texture image at the time when the user views the three-dimensional model, omit the blending algorithm, shorten the calculation time of the system, and cause problems in medical diagnosis .

이러한 기술적 과제를 달성하기 위한 본 발명은 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템에 관한 것으로서, 휴대용 장치로서, 얼굴 추적을 수행하여 얼굴의 방향과 카메라의 방향을 인식함으로써 3차원 스캐너 촬영 시점을 가이드 해주고, 미리 정의된 촬영시점들에 도달하면 자동으로 영상을 취득하면서 촬영시점 정보를 동시에 기록하는 3차원 스캔장치; 상기 3차원 스캔장치를 통해 인식된 정보를 바탕으로 메시 형태의 3차원 모델을 생성한 후 재구성하고, 재구성된 메시 모델과 각 RGB 영상들의 촬영시점에서의 텍스처 매핑을 수행하는 3차원 스캔 후처리장치; 및 상기 3차원 스캔 후처리장치를 통해 처리된 3차원 메시 모델을 시각화 하되, 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로 메시 모델의 텍스처를 실시간 변경하며, 얼굴의 각 부위를 시뮬레이션하는 3차원 모델 출력장치; 를 포함한다.According to an aspect of the present invention, there is provided a three-dimensional scanning system using facial shaping simulation, which is a portable apparatus that performs face tracking to recognize a face direction and a camera direction, A three-dimensional scanning device that simultaneously records shooting time point information while acquiring an image automatically when a predetermined shooting time point is reached; A three-dimensional scanning post-processing device for reconstructing and reconstructing a mesh-like three-dimensional model based on the information recognized by the three-dimensional scanning device, and performing texture mapping at a shooting point of each of the RGB images and the reconstructed mesh model; ; And a 3D model processing unit that visualizes the 3D mesh model processed through the 3D scan after-processing apparatus, changes the texture of the mesh model in real time based on the texture mapping information closest to the camera position, Output device; .

또한 상기 3차원 스캔장치는, 3차원 공간 상의 위치와 방향을 매 프레임마다 실시간으로 인식하는 스캐너 위치 추적부; 인식된 깊이 맵(Depth Map)을 바탕으로, 매 프레임마다 얼굴의 형태를 분석하여 머리 자세(Head Pose)와, 센서로부터 얼굴까지의 거리를 측정함으로써, 얼굴이 향하는 방향과 거리 정보를 추출하는 얼굴 추적부; 얼굴 전체를 최적으로 촬영하기 위한 카메라 시점을 미리 설정하며, 상기 얼굴 추적부를 통해 추출된 얼굴이 향하는 방향과 거리 정보를 이용하여 기 설정된 카메라 시점에 근접할 경우, RGB 촬영을 자동으로 수행하도록 제어하는 카메라 시점 판단부; 및 상기 카메라 시점 판단부를 통해 판단된 카메라 시점이 만족할 경우, 카메라 시점 판단부의 제어에 의해 RGB 영상을 촬영하며, 촬영 시점의 카메라 내부 파라미터, 장치의 3차원 위치와 방향정보를 함께 저장하는 촬영부; 를 포함하는 것을 특징으로 한다. The three-dimensional scanning device may further include a scanner position-tracking unit for recognizing the position and direction of the three-dimensional space in real time for each frame; Based on the recognized depth map, the shape of the face is analyzed every frame to measure the head pose and the distance from the sensor to the face, A tracking unit; The control unit controls the RGB camera to automatically perform the RGB photographing when the camera camera approaches the preset camera view using the direction and the distance information of the face extracted by the face tracking unit in advance A camera viewpoint determination unit; And a photographing unit photographing the RGB image under the control of the camera view determining unit when the camera view determined by the camera view determining unit is satisfied, storing the camera internal parameters at the photographing time, the three-dimensional position and orientation information of the device together; And a control unit.

또한 상기 얼굴 추적부는, 입력 값으로 깊이 맵(Depth Map) 또는 TSDF(Timed Synchronous Data Flow) Volume에서 재구성된 깊이 맵(Depth Map)을 사용하는 것을 특징으로 한다. The face tracking unit may use a Depth Map or a Depth Map reconstructed from a Volume of TSDF (Timed Synchronous Data Flow) as an input value.

또한 상기 3차원 스캔장치는, TSDF Volume 상에 상기 얼굴 추적부를 통해 얻어진 얼굴 형태를 매핑하여 얼굴의 부위별 복셀(Voxel) 정보를 확인함으로써, 스캔이 되지 않은 부분을 판단하는 스캔 판단부; 를 포함하는 것을 특징으로 한다. In addition, the 3D scanning apparatus may include a scan determination unit for determining a portion that is not scanned by mapping voxel information for each part of the face by mapping a face shape obtained through the face tracking unit on TSDF Volume; And a control unit.

또한 상기 스캔 판단부는, TSDF 값이 업데이트 된 적이 없는지 판단하거나, 가중치(Weight) 값으로 업데이트 횟수를 추정하여 업데이트 횟수가 특정 임계값 이하인지를 판단하여, 스캔이 되지 않는 부분을 판단하는 것을 특징으로 한다.The scan determination unit may determine whether the TSDF value has not been updated or not and determine a portion that is not scanned by estimating an update frequency with a weight value to determine whether the update frequency is less than a specific threshold value do.

또한 상기 3차원 스캔 후처리장치는, 상기 3차원 스캔장치를 통해 인식된 TSDF Volume에서 표면정보를 추출하여, 메시(Mesh) 형태의 3차원 모델을 생성하는 메시 변환부; 상기 메시 변환부를 통해 생성된 3차원 모델에서 불필요한 이중 버텍스(Duplicated Vertex)를 제거하고, 메시 간략화(Mesh Decimation or Mesh Simplication)를 수행하여 폴리곤(Polygon)의 숫자를 줄이고, Hole-filing 알고리즘을 이용하여 스캔이 안 된 부분을 채우는 것을 특징으로 하는 메시 재구성부; 복수개의 RGB 영상의 컬러정보를 개선하는 영상 재구성부; 및 상기 메시(Mesh) 형태의 3차원 모델과 각 RGB 영상들의 텍스처 매핑을 수행하는 텍스처 매핑부; 를 포함하는 것을 특징으로 한다. The 3D scanning post-processing apparatus may further include: a mesh converting unit for extracting surface information from the TSDF volume recognized through the 3D scanning apparatus and generating a three-dimensional mesh-shaped model; A method of removing unnecessary double vertices from a three-dimensional model generated through the mesh transforming unit and performing mesh reduction or mesh simplification to reduce the number of polygons and using a Hole-filing algorithm A mesh reconstruction unit that fills non-scanned portions; An image reconstruction unit for improving color information of a plurality of RGB images; And a texture mapping unit for performing texture mapping of the three-dimensional model of the mesh and the RGB images. And a control unit.

또한 상기 텍스처 매핑부는, RGB 영상을 취득한 촬영시점의 3차원 스캐너 위치와 방향에서 카메라 내부 파라미터에 의해 프로젝션(Projection)을 수행하여, 메시(Mesh)의 각 얼굴(Face)의 버텍스(Vertex)들의 위치정보마다 RGB의 컬러 좌표계와 매핑하는 것을 특징으로 한다. In addition, the texture mapping unit performs projection based on the camera internal parameters in the position and direction of the 3D scanner at the time of photographing at which the RGB image is acquired, and detects the positions of the vertices of each face of the mesh And maps the RGB color coordinate system for each piece of information.

또한 상기 텍스처 매핑부는, 텍스처 매핑을 통해 RGB 영상의 개수만큼 텍스처 매핑정보를 생성하고, 3차원 스캐너 위치와 방향 정보와 함께 저장하는 것을 특징으로 한다.The texture mapping unit generates texture mapping information corresponding to the number of RGB images through texture mapping, and stores texture mapping information together with the 3D scanner position and direction information.

그리고 상기 3차원 모델 출력장치는, 상기 3차원 스캔 후처리장치를 통해 처리된 3차원 메시 모델을 2차원 영상으로 출력하기 위하여, 사용자가 지정한 시점으로 렌더링하는 렌더링부; 상기 렌더링부를 통해 지정된 렌더링 기준이 되는 시점 정보를 이용하여, 카메라 위치와 가장 근접한 시점 위치를 계산하고, 계산된 시점 위치에 따른 카메라 위치와 가장 근접한 텍스처 매핑정보를 추출하는 렌더링 카메라 시점 계산부; 상기 렌더링 카메라 시점 계산부를 통해 추출된 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로, 상기 렌더링부에서 디스플레이 되는 메시(Mesh) 모델의 텍스처를 실시간 변경하는 텍스처 변경부; 상기 3차원 스캔장치를 통해 얻어진 얼굴 형태를 이용하여 기 설정된 부위별 거리를 시각화하고, 상기 렌더링부에서 렌더링된 2차원 영상 위에 오버레이(Overlay)하여 출력하는 부위별 측량부; 및 얼굴의 주요 부위를 분할하고, 각 분할된 영역을 시뮬레이션하는 가상 성형부; 를 포함하는 것을 특징으로 한다. The 3D model output device may include a rendering unit for rendering the 3D mesh model processed through the 3D scanning post-processing apparatus at a time point designated by the user to output the 3D mesh model as a two-dimensional image; A rendering camera viewpoint calculation unit for calculating a viewpoint position closest to the camera position using the viewpoint information as a rendering reference through the rendering unit and extracting texture mapping information that is closest to the camera position according to the calculated viewpoint position; A texture changing unit for changing a texture of a mesh model displayed in the rendering unit in real time based on the texture mapping information closest to the camera position extracted through the rendering camera viewpoint calculating unit; A portion-to-be-measured portion for visualizing the distance for each predetermined region using the face shape obtained through the 3D scanning device, and overlaying the overlapped portion on the two-dimensional image rendered by the rendering portion; A virtual forming unit for dividing a main part of a face and simulating each divided area; And a control unit.

상기와 같은 본 발명에 따르면, 이동이 불가능하고 운영을 위한 공간적 제약을 가지는 기존의 고정형 3차원 스캔 시스템의 문제점을 휴대용(Hand-held) 3차원 스캐너를 채용함으로써 개선하고, 기존의 이동형태의 3차원 스캐너의 RGB 영상 촬영을 위해 미리 정해진 시점으로 사용자가 수동으로 움직여서 촬영을 수행하고 RGB 영상의 겹치는 부분의 블렌딩 알고리즘 수행에 따른 계산량 증가 문제와 블렌딩 적용 영역의 영상 변형 문제를 개선함으로써, 손쉽게 활용 가능한 Hand-held 3차원 스캐너를 제공하여 보다 안전하고 편안한 성형 시뮬레이션 시스템을 구축할 수 있는 효과가 있다. According to the present invention, the problem of the conventional fixed three-dimensional scanning system which can not be moved and has a space limitation for operation is improved by employing a hand-held three-dimensional scanner, Dimensional scanners, the user can manually move to a predetermined point in time, and the problem of increase in the amount of calculation due to the execution of the blending algorithm of the overlapped portion of the RGB image and the problem of image deformation in the blending application region are improved, A hand-held three-dimensional scanner is provided to construct a safe and comfortable molding simulation system.

그리고 본 발명은 휴대용(Hand-held) 3차원 스캐너에 자동화된 텍스처 매핑과 스위칭 시스템을 제공하는 시스템으로서, 실시간 3차원 스캐너 위치 추적 기술, 3차원 복원(Reconstruction) 기술 및 텍스처 매핑(Texture Mapping) 기술 등 복합 기술의 발전에 기여, 국내 취약분야인 3차원 스캔 장비와 의료영상처리 소프트웨어의 개발에 초석을 마련할 수 잇는 효과도 있다.The present invention provides an automated texture mapping and switching system for a hand-held three-dimensional scanner, including a real-time three-dimensional scanner position tracking technique, a three-dimensional reconstruction technique, and a texture mapping technique , And contributes to the development of complex technologies such as 3D scanning equipment and medical image processing software, which are vulnerable in Korea.

도 1a 는 종래의 고정형 3차원 스캐너를 보이는 일예시도.
도 2 는 본 발명에 따른 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템을 개념적으로 도시한 전체 구성도.
도 3 은 본 발명에 따른 얼굴 추적부를 통한 추출한 피치, 롤, 요 등으로 움직이는 머리 자세와 얼굴 방향과 센서로부터 얼굴까지의 거리를 보이는 일예시도.
도 4 는 본 발명에 따른 촬영부를 통해 촬영된 RGB 영상을 보이는 일예시도.
도 5 및 도 6 은 본 발명에 따른 3차원 스캔장치의 형태를 보이는 일예시도.
도 7 은 본 발명에 따른 3차원 스캔장치의 스캔방법을 보이는 일예시도.
도 8 은 본 발명에 따른 메시 재구성부를 통한 메시 간략화를 보이는 일예시도.
도 9 는 본 발명에 따른 메시 재구성부를 통해 스캔이 안 된 부분을 채우는 모습을 보이는 일예시도.
도 10 은 본 발명에 따른 텍스처 변경부를 통해 정면 텍스처에서 우측 텍스처로 텍스처가 실시간 변경됨을 보이는 일예시도.
도 11 은 본 발명에 따른 양 눈 간의 거리, 인중 길이 콧날 직선과 코와 턱 직선의 각도 등의 기 설정된 부위를 보이는 일예시도.
도 12 는 본 발명에 따른 가상 성형부를 통해 코 부위에 관한 시뮬레이션 전 모습과, 메시 변형 방법을 이용하여 시뮬레이션한 모습을 보이는 일예시도.
FIG. 1A is an exemplary view showing a conventional fixed type three-dimensional scanner. FIG.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a three-dimensional scanning system,
FIG. 3 is a view showing an example of a head posture, a face orientation, and a distance from a sensor to a face moved by pitch, roll, and yaw extracted through the face tracking unit according to the present invention.
FIG. 4 illustrates an example of an RGB image captured through a photographing unit according to the present invention. FIG.
FIG. 5 and FIG. 6 are views showing an example of a form of a three-dimensional scanning apparatus according to the present invention.
FIG. 7 illustrates an example of a scanning method of a three-dimensional scanning apparatus according to the present invention. FIG.
FIG. 8 illustrates an example of mesh simplification through a mesh reconstruction unit according to the present invention; FIG.
FIG. 9 is an exemplary view showing a state where a portion not scanned is filled through a mesh reconstruction unit according to the present invention; FIG.
FIG. 10 is a view showing an example in which a texture is changed in real time from a front texture to a right texture through a texture changing unit according to the present invention; FIG.
FIG. 11 is a view showing a predetermined portion such as a distance between two eyes according to the present invention, a straight line of a half-length caret, an angle of a nose and a straight line, and the like.
FIG. 12 is a view showing an example of a simulation before the simulation about the nose region through the virtual forming unit according to the present invention, and a simulation using the mesh deforming method. FIG.

본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.

이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described in detail with reference to the accompanying drawings.

본 발명에 따른 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템에 관하여 도 2 내지 도 12 를 참조하여 설명하면 다음과 같다.
The three-dimensional scanning system using the facial shaping simulation according to the present invention will be described with reference to FIGS. 2 to 12. FIG.

도 2 는 본 발명에 따른 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템(S)을 개념적으로 도시한 전체 구성도로서, 도시된 바와 같이 3차원 스캔장치(100), 3차원 스캔 후처리장치(200) 및 3차원 모델 출력장치(300)를 포함하여 이루어진다.
FIG. 2 is a block diagram schematically showing a three-dimensional scanning system S using a face forming simulation according to the present invention. As shown in FIG. 2, the three-dimensional scanning apparatus 100, the three- And a three-dimensional model output device 300.

3차원 스캔장치(100)는 휴대용(Hand-held) 3차원 스캐너로서, 얼굴 추적을 수행하여 얼굴의 방향과 카메라의 방향을 인식함으로써 3차원 스캐너 촬영 시점을 가이드 해주고, 미리 정의된 촬영시점들에 도달하면 자동으로 영상을 취득하면서 촬영시점 정보를 동시에 기록하는 기능을 수행하는 바, 도시된 바와 같이 스캐너 위치 추적부(110), 얼굴 추적부(120), 카메라 시점 판단부(130), 스캔 판단부(140) 및 촬영부(150)를 포함한다.The three-dimensional scanning device 100 is a hand-held three-dimensional scanner that performs face tracking to recognize the direction of the face and the direction of the camera, thereby guiding the time of shooting the three-dimensional scanner, The face tracking unit 120, the camera-view-point determining unit 130, the scan-position determining unit 130, and the scan-position determining unit 130. [ (140) and a photographing unit (150).

구체적으로, 스캐너 위치 추적부(110)는 ICP(Iterative Closest Point) 알고리즘을 이용하여, 3차원 공간 상의 위치와 방향을 매 프레임마다 실시간으로 인식한다. Specifically, the scanner position locating unit 110 recognizes the position and direction on the three-dimensional space in real time every frame using an ICP (Iterative Closest Point) algorithm.

여기서, ICP(Iterative Closest Point)은 컴퓨터 그래픽스에서 주로 사용되는 알고리즘으로서, 어떠한 모델에 대한 측정 데이터가 있을 때, 이 측정 데이터를 모델에 매칭하기 위해 스케일 변환, 회전 및 이동 등을 계산하는 방법에 관한 것이다.
ICP (Iterative Closest Point) is an algorithm mainly used in computer graphics. It is a method of calculating scale conversion, rotation and movement, etc., in order to match the measurement data to a model when there is measurement data for any model will be.

얼굴 추적부(120)는 인식된 깊이 맵(Depth Map)을 바탕으로, 매 프레임마다 얼굴의 형태를 분석하여 머리 자세(Head Pose)와, 센서로부터 얼굴까지의 거리를 측정함으로써, 얼굴이 향하는 방향과 거리 정보를 추출한다. The face tracking unit 120 analyzes the shape of the face at every frame based on the recognized depth map and measures the head position and the distance from the sensor to the face, And distance information.

여기서, 얼굴 추적부(120)는 입력 값으로 깊이 맵(Depth Map) 또는 TSDF(Timed Synchronous Data Flow) Volume에서 재구성된 깊이 맵(Depth Map)을 사용한다.Here, the face tracking unit 120 uses a depth map (Depth Map) or a reconstructed depth map (TSDF) as an input value.

도 3 에는 피치(Pitch), 롤(Roll), 요(Yaw) 등으로 움직이는 머리 자세(Head Pose)(a)와, 얼굴 방향과 센서로부터 얼굴까지의 거리(b)를 나타낸다.
Fig. 3 shows a head pose (a) moving by pitch, roll, yaw, etc., and a distance b from the face direction to the face from the sensor.

카메라 시점 판단부(130)는 얼굴 전체를 최적으로 촬영하기 위한 카메라 시점을 미리 설정하며, 얼굴 추적부(120)를 통해 추출된 얼굴이 향하는 방향과 거리 정보를 이용하여 기 설정된 카메라 시점에 근접할 경우, RGB 촬영을 자동으로 수행하도록 제어한다. 여기서, 한번 촬영이 수행된 카메라 시점에 다시 도달하게 되면, RGB 촬영을 다시 수행하지 않도록 제어한다. The camera-view-point determining unit 130 previously sets a camera-viewpoint for optimally photographing the entire face, and approximates the camera-viewpoint by using the direction and distance information of the face extracted through the face-tracking unit 120 , It controls to perform RGB shooting automatically. Here, when reaching the camera view point once taken, control is performed so that the RGB photographing is not performed again.

이때, 카메라 시점 판단부(130)는 얼굴 전체를 최적으로 촬영하기 위하여, 정면, 좌, 우 등 여러 위치에 대한 카메라 시점을 미리 설정하며, 이는 의사가 주로 환자를 관찰하는 시점에 관한 정보를 입력받아 생성할 수 있다.
At this time, the camera-view-point determining unit 130 sets camera viewpoints for various positions such as front, left, and right in advance in order to photograph the entire face optimally, Can be generated.

한편, 스캔이 되지 않거나, 미흡한 부분이 발생할 수 있다. 이에 따라, 본 발명에 따른 스캔 판단부(140)는 스캔이 되지 않거나, 미흡한 부분에 대해서 얼굴위치를 도식화하여 스캔 품질 향상을 위한 사용성을 높일 수 있다. On the other hand, the scan may not be performed, or a portion that is insufficient may occur. Accordingly, the scan determination unit 140 according to the present invention can increase the usability for improving the scan quality by schematizing the face position with respect to a portion that is not scanned or is insufficient.

즉, 스캔 판단부(140)는 TSDF Volume 상에 얼굴 추적부(120)를 통해 얻어진 얼굴 형태를 매핑하여 얼굴의 부위별 복셀(Voxel) 정보를 확인함으로써, 스캔이 되지 않은 부분을 판단한다.That is, the scan determination unit 140 determines the non-scanned portion by mapping the face shape obtained through the face tracking unit 120 on the TSDF Volume and checking the voxel information for each part of the face.

더욱 구체적으로, 스캔 판단부(140)는 얼굴의 부위별 복셀(Voxel) 정보를 확인하여, TSDF 값이 업데이트 된 적이 없는지 여부를 판단하여, 없는 경우 해당 부분을 스캔이 되지 않은 부분이라고 판단한다. More specifically, the scan determination unit 140 determines whether the TSDF value has not been updated by checking the voxel information for each part of the face, and determines that the corresponding part is not scanned.

또한, 스캔 판단부(140)는 가중치(Weight) 값으로 업데이트 횟수를 추정하여, 업데이트 횟수가 특정 임계값 이하인지 여부를 판단하여, 이하인 경우 거리측정의 오차가 충분히 퓨전(Fusion)되지 않았다고 판단하여, 해당 부분을 표면이 매끄럽게 스캔되지 않는 부분 즉, 스캔이 미흡한 부분이라고 판단한다.
In addition, the scan determination unit 140 determines whether the update count is less than a specific threshold value by estimating the update count as a weight value. If the update count is less than a specific threshold value, the scan determination unit 140 determines that the error of the distance measurement is not sufficiently fused , It is judged that the corresponding portion is a portion where the surface is not smoothly scanned, that is, a portion where the scan is insufficient.

촬영부(150)는 카메라 시점 판단부(130)를 통해 판단된 카메라 시점이 만족할 경우, 카메라 시점 판단부(130)의 제어에 의해 RGB 영상을 촬영하며, 촬영 시점의 카메라 내부 파라미터, 장치의 3차원 위치와 방향정보를 함께 저장한다. 이때, 촬영된 RGB 영상은 도 4 에 도시된 바와 같으며, 촬영부(150)는 촬영된 정보를 스캐너 위치 추적부(110)로 전송할 수 있다.
When the camera view determined by the camera view determining unit 130 is satisfied, the photographing unit 150 photographs the RGB image under the control of the camera view determining unit 130 and displays the camera internal parameters at the photographing time, Dimensional position and orientation information are stored together. At this time, the photographed RGB image is as shown in FIG. 4, and the photographing unit 150 can transmit the photographed information to the scanner position tracking unit 110.

한편, 3차원 스캔장치(100)의 형태 및 스캔방법은 도 5 내지 도 7 에 도시된 바와 같으며, 도시된 바와 같이, 그 외부에 IR 프로젝션(a), RGB CMOS 센서(b), IR CMOD 센서(c), 배터리가 내장된 LED 조명(d) 등이 형성되어 있으며, 그 하단으로 손잡이(e) 및 기타장치와 인터페이스될 수 있는 USB 인터페이스 장치(f)가 연결될 수 있다. 5 to 7, the IR projection (a), the RGB CMOS sensor (b), the IR CMOD (b), and the IR CMOS A sensor c and an LED lighting d with a built-in battery, and a USB interface device f which can be interfaced with a handle e and other devices can be connected to the lower end thereof.

본 실시예에서, 도 5 에 나타낸 바와 같이 3차원 스캔장치(100)에 Active 방식인 Structure Light 카메라가 적용되는 것으로 설정하였으나, 본 발명이 이에 한정되지 않는 바, Time-of-Flight(TOF) 깊이 카메라, Passive 방식인 Stereo Vision 카메라 등과 같이 깊이 맵(Depth Map)을 출력해주는 카메라는 모두 사용될 수 있다.
5, the structure light camera of the active system is applied to the 3D scanning apparatus 100. However, the present invention is not limited to this, and the time-of-flight (TOF) depth Cameras, and passive Stereo Vision cameras, all of which can output depth maps.

3차원 스캔 후처리장치(200)는 3차원 스캔장치(100)를 통해 인식된 정보를 바탕으로 메시 형태의 3차원 모델을 생성한 후 재구성하고, 재구성된 메시 모델과 각 RGB 영상들의 촬영시점에서의 텍스처 매핑을 수행하는 바, 상기 도 2 에 도시된 바와 같이 메시 변환부(210), 메시 재구성부(220), 영상 재구성부(230) 및 텍스처 매핑부(240)를 포함한다. The 3D scan after-treatment apparatus 200 generates and reconstructs a mesh-like three-dimensional model based on the recognized information through the 3D scanning apparatus 100, and reconstructs the mesh model and the RGB images The mesh reconstructing unit 220, the image reconstructing unit 230, and the texture mapping unit 240, as shown in FIG.

구체적으로, 메시 변환부(210)는 3차원 스캔장치(100)를 통해 인식된 TSDF Volume에서 표면정보를 추출하여, 메시(Mesh) 형태의 3차원 모델을 생성한다.
Specifically, the mesh converting unit 210 extracts surface information from the TSDF volume recognized through the 3D scanning apparatus 100, and generates a three-dimensional model in the form of a mesh.

메시 재구성부(220)는 후술하는 텍스처 매핑부(240)와 3차원 모델 출력장치(300)에서의 데이터 처리 속도를 향상시키기 위하여, 메시 변환부(210)를 통해 생성된 3차원 모델에서 불필요한 이중 버텍스(Duplicated Vertex)를 제거하고, 도 8 에 도시된 바와 같이 메시 간략화(Mesh Decimation or Mesh Simplication)를 수행하여 폴리곤(Polygon)의 숫자를 줄이고, Hole-filing 알고리즘을 이용하여 스캔이 안 된 부분을 채운다(도 9 참조). The mesh reconstructing unit 220 reconstructs an unnecessary double in the three-dimensional model generated through the mesh transform unit 210 to improve the data processing speed in the texture mapping unit 240 and the three-dimensional model output apparatus 300, 8, the number of polygons is reduced by performing mesh decimation or mesh simulation, and a portion not scanned using a Hole-filing algorithm (See FIG. 9).

여기서, 이중 버텍스(Duplicated Vertex)는 3차원 공간 상에 같은 위치좌표를 가지는 버텍스를 말한다.
Here, a Duplicated Vertex refers to a vertex having the same positional coordinates on a three-dimensional space.

영상 재구성부(230)는 의사의 의학적 진단에 도움이 될 수 있도록, 복수개의 RGB 영상에서 화질향상 알고리즘(Image Enhancement)을 이용하여 영상 개선 및 노이즈 제거 등을 수행하여, 컬러정보를 개선한다.
The image reconstructing unit 230 performs image enhancement and noise elimination using an image enhancement algorithm in a plurality of RGB images to improve the color information so as to help a medical diagnosis of a doctor.

텍스처 매핑부(240)는 메시(Mesh) 형태의 3차원 모델과 각 RGB 영상들의 텍스처 매핑을 수행한다. The texture mapping unit 240 performs a texture mapping of the three-dimensional model of the mesh and the RGB images.

더욱 구체적으로, 텍스처 매핑부(240)는 RGB 영상을 취득한 촬영시점의 3차원 스캐너 위치와 방향에서 카메라 내부 파라미터에 의해 프로젝션(Projection)을 수행하여, 메시(Mesh)의 각 얼굴(Face)의 버텍스(Vertex)들의 위치정보마다 RGB의 컬러 좌표계(UV(LUV))와 매핑한다. More specifically, the texture mapping unit 240 performs projection based on the camera internal parameters in the position and orientation of the three-dimensional scanner at the time of photographing, at which the RGB image is acquired, to obtain vertices of each face of the mesh (UV (LUV)) for each position information of the vertices of the vertices.

여기서, 텍스처 매핑정보는, RGB 영상의 개수만큼 생성되고, 3차원 스캐너 위치와 방향 정보와 함께 저장된다.
Here, the texture mapping information is generated by the number of RGB images, and is stored together with the three-dimensional scanner position and orientation information.

3차원 모델 출력장치(300)는 3차원 스캔 후처리장치(200)를 통해 처리된 3차원 메시 모델을 시각화 하되, 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로 메시 모델의 텍스처를 실시간 변경하며, 얼굴의 각 부위를 시뮬레이션하는 기능을 수행하는 바, 상기 도 2 에 도시된 바와 같이 렌더링부(310), 렌더링 카메라 시점 계산부(320), 텍스처 변경부(330), 부위별 측량부(340) 및 가상 성형부(350)를 포함한다. The three-dimensional model output device 300 visualizes the three-dimensional mesh model processed through the three-dimensional post-scan processing device 200, changes the texture of the mesh model in real time based on the texture mapping information closest to the camera position, 2, the rendering unit 310, the rendering camera viewpoint calculation unit 320, the texture modification unit 330, the site-specific survey unit 340, And a virtual forming unit 350. [0035]

구체적으로, 렌더링부(310)는 3차원 스캔 후처리장치(200)를 통해 처리된 3차원 메시 모델을 2차원 영상으로 출력하기 위하여, 사용자가 지정한 시점으로 광선 추적법(Ray-casting) 알고리즘을 이용하여, 렌더링 한다. Specifically, the rendering unit 310 performs a ray-casting algorithm at a time point designated by the user to output a three-dimensional mesh model processed through the three-dimensional scan-after-treatment apparatus 200 as a two-dimensional image And render it.

이때, 키보드, 마우스, 햅틱 디바이스 등을 통해 사용자의 제어정보를 입력받아 시점 이동이 가능하다.
At this time, the user can receive the control information through a keyboard, a mouse, a haptic device, or the like and move the viewpoint.

렌더링 카메라 시점 계산부(320)는 렌더링부(310)를 통해 지정된 렌더링 기준이 되는 시점 정보를 이용하여, 카메라 위치와 가장 근접한 시점 위치를 계산하고, 계산된 시점 위치에 따른 카메라 위치와 가장 근접한 텍스처 매핑정보를 추출한다. The rendering camera viewpoint calculation unit 320 calculates a viewpoint position closest to the camera position by using the viewpoint information that is a rendering reference specified by the rendering unit 310, And extracts the mapping information.

이때, 얼굴 모델을 바라볼 때는 시점의 방향이 얼굴 중심을 향하기 때문에, 렌더링 카메라 시점 계산부(320)는 방향은 무시하고, 렌더링 시점의 위치와 카메라 위치의 거리만 측정하여 근사할 수 있다. At this time, when looking at the face model, the direction of the viewpoint is directed toward the center of the face. Therefore, the rendering camera viewpoint calculator 320 can approximate only the distance between the rendering point and the camera point by ignoring the direction.

즉, 방향과 관계없이 X, Y, Z 좌표만 가지고 렌더링 시점의 위치와 카메라 위치의 유클라디안 거리(Euclidean distance)를 구하거나, 맨하탄(Manhattan Distance)를 구하여 거리가 가장 작은 카메라 위치의 텍스처 매핑정보를 추출한다. That is, regardless of the direction, the Euclidean distance of the position of the rendering point and the camera position is obtained with only the X, Y, and Z coordinates, or the Manhattan distance is obtained, and the texture mapping of the camera position having the smallest distance Information is extracted.

또한, 렌더링 카메라 시점 계산부(320)는 시점에서 광선 추적법(Ray-casting) 알고리즘을 수행, 시점에서 Field-of-view(시야각) 안으로 여러 광선(Ray)을 모델로 발사하여, 표면에 닿는 영역의 집합 수집하고, 렌더링 시점의 집합과 교집합이 가장 많은 카메라 위치를 선정한다.
In addition, the rendering camera viewpoint calculation unit 320 performs a ray-casting algorithm at the viewpoint, and launches a plurality of rays into a model into a field-of-view (viewing angle) at a viewpoint, We collect the set of regions, and select the camera position where the set of rendering points and intersection are the largest.

텍스처 변경부(330)는 렌더링 카메라 시점 계산부(320)를 통해 추출된 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로, 렌더링부(310)에서 디스플레이 되는 메시(Mesh) 모델의 텍스처를 실시간 변경한다.The texture changing unit 330 changes the texture of the mesh model displayed in the rendering unit 310 on the basis of the texture mapping information closest to the extracted camera position through the rendering camera view computing unit 320 .

도 10 은 얼굴 정면 텍스처(a) 및 우측 텍스처(b)를 보이는 일예시도로서, 정면 텍스처(a)에서 우측 텍스처(b)로 텍스처가 실시간 변경됨을 보인다.
Fig. 10 is an example showing a face front texture (a) and a right texture (b), showing that the texture is changed in real time from the front texture (a) to the right texture (b).

부위별 측량부(340)는 3차원 스캔장치(100)의 얼굴 추적부(120)를 통해 얻어진 얼굴 형태를 이용하여 기 설정된 부위별 거리를 시각화하고, 렌더링부(310)에서 렌더링된 2차원 영상 위에 오버레이(Overlay)하여 출력한다. The site-specific surveying unit 340 visualizes the distance of each predetermined site using the face shape obtained through the face-tracking unit 120 of the 3D scanning apparatus 100, And outputs the overlay.

여기서, 기 설정된 부위는 도 11 에 도시된 바와 같이, 양 눈 간의 거리(a), 인중 길이(b), 콧날 직선과 코와 턱 직선의 각도(c) 등이 될 수 있다.
Here, as shown in FIG. 11, the predetermined portion may be a distance (a) between two eyes, a half length (b), a straight line of a cunt and an angle (c) of a straight line of a nose and a jaw.

가상 성형부(350)는 3차원 스캔장치(100)의 얼굴 추적부(120)를 통해 얻어진 얼굴 형태를 이용하여 코, 눈, 이마, 볼 등의 주요 부위를 분할하고, 각 분할된 영역을 메시 변형(Mesh Deformation) 방법을 이용하여 시뮬레이션 한다. The virtual forming unit 350 divides main parts such as nose, eye, forehead, and ball using the face shape obtained through the face tracking unit 120 of the 3D scanning apparatus 100, Simulation is performed using the Mesh Deformation method.

도 12 는 코 부위에 관한 시뮬레이션 전 모습(a)과, 메시 변형 방법을 이용하여 시뮬레이션한 모습(b)을 보이는 일예시도이다. FIG. 12 is a diagram showing an example before a simulation about a nose portion and a view (b) simulating using a mesh deforming method.

여기서, 각 분할된 영역에 대한 메시 변형은, 보형물 또는 보형액체를 특정 량 주입시 부피가 늘어남에 따른 변형이다.
Here, the mesh deformation for each divided region is a deformation as the volume increases when a specific amount of implant or cosmetic liquid is injected.

한편, 가상 성형부(350)는 키보드, 마우스, 햅틱 디바이스 등을 통한 사용자의 제어정보를 바탕으로, 분할된 주요부위의 영역의 형태를 임의로 변형할 수 있다. On the other hand, the virtual forming unit 350 may arbitrarily modify the shape of the divided main region based on user's control information through a keyboard, a mouse, a haptic device, or the like.

즉, 특정 버텍스(Vertex) 또는 원형으로 여러 버텍스(Vertex)를 선택하여, 드래그/스윕(Drag/Sweep) 모션을 취하면, 그 방향으로 선택된 버텍스(Vertex)들이 이동하고, 표면은 연속적이므로 버텍스(Vertex)와 연결된 인접 버텍스(Vertex)들도 운동 벡터의 일정한 비율로 같이 움직이며 따라가게 된다.
That is, if you select a specific vertex or vertices in a circular shape and take a Drag / Sweep motion, the vertices selected in that direction move and the surface is continuous, Vertices are also connected to vertices that are connected with a certain percentage of the motion vector.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. Accordingly, all such appropriate modifications and changes, and equivalents thereof, should be regarded as within the scope of the present invention.

100: 3차원 스캔장치 200: 3차원 스캔 후처리장치
300: 3차원 모델 출력장치 110: 스캐너 위치 추적부
120: 얼굴 추적부 130: 카메라 시점 판단부
140: 스캔 판단부 150: 촬영부
210: 메시 변환부 220: 메시 재구성부
230: 영상 재구성부 240: 텍스처 매핑부
310: 렌더링부 320: 렌더링 카메라 시점 계산부
330: 텍스처 변경부 340: 부위별 측량부
350: 가상 성형부
100: three-dimensional scanning device 200: three-dimensional scanning post-processing device
300: Three-dimensional model output device 110: Scanner positioning part
120: face-tracking unit 130: camera-
140: scan determination unit 150:
210: mesh conversion unit 220: mesh reconstruction unit
230: image reconstruction unit 240: texture mapping unit
310: rendering unit 320: rendering camera viewpoint calculation unit
330: texture changing unit 340:
350: virtual forming part

Claims (9)

휴대용 장치로서, 얼굴 추적을 수행하여 얼굴의 방향과 카메라의 방향을 인식함으로써 3차원 스캐너 촬영 시점을 가이드 해주고, 미리 정의된 촬영시점들에 도달하면 자동으로 영상을 취득하면서 촬영시점 정보를 동시에 기록하는 3차원 스캔장치;
상기 3차원 스캔장치를 통해 인식된 정보를 바탕으로 메시 형태의 3차원 모델을 생성한 후 재구성하고, 재구성된 메시 모델과 각 RGB 영상들의 촬영시점에서의 텍스처 매핑을 수행하는 3차원 스캔 후처리장치; 및
상기 3차원 스캔 후처리장치를 통해 처리된 3차원 메시 모델을 시각화 하되, 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로 메시 모델의 텍스처를 실시간 변경하며, 얼굴의 각 부위를 시뮬레이션하는 3차원 모델 출력장치; 를 포함하되,
상기 3차원 스캔 후처리장치는,
상기 3차원 스캔장치를 통해 인식된 TSDF Volume에서 표면정보를 추출하여, 메시(Mesh) 형태의 3차원 모델을 생성하는 메시 변환부;
상기 메시 변환부를 통해 생성된 3차원 모델에서 불필요한 이중 버텍스(Duplicated Vertex)를 제거하고, 메시 간략화(Mesh Decimation or Mesh Simplication)를 수행하여 폴리곤(Polygon)의 숫자를 줄이고, Hole-filing 알고리즘을 이용하여 스캔이 안 된 부분을 채우는 것을 특징으로 하는 메시 재구성부;
복수개의 RGB 영상의 컬러정보를 개선하는 영상 재구성부; 및
상기 메시(Mesh) 형태의 3차원 모델과 각 RGB 영상들의 텍스처 매핑을 수행하는 텍스처 매핑부; 를 포함하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
As a portable device, a face tracking is performed to recognize a direction of a face and a direction of a camera, thereby guiding a 3D scanner photographing point, and automatically acquiring an image when reaching predefined photographing points, and simultaneously recording photographing point information A three-dimensional scanning device;
A three-dimensional scanning post-processing device for reconstructing and reconstructing a mesh-like three-dimensional model based on the information recognized by the three-dimensional scanning device, and performing texture mapping at a shooting point of each of the RGB images and the reconstructed mesh model; ; And
Dimensional mesh model processed through the 3D scan after-treatment apparatus, the texture of the mesh model is changed in real time based on the texture mapping information closest to the camera position, and a three-dimensional model output Device; , ≪ / RTI &
The three-dimensional post-scan processing apparatus includes:
A mesh transformer for extracting surface information from a TSDF volume recognized through the 3D scanning device and generating a mesh-shaped three-dimensional model;
A method of removing unnecessary double vertices from a three-dimensional model generated through the mesh transforming unit and performing mesh reduction or mesh simplification to reduce the number of polygons and using a Hole-filing algorithm A mesh reconstruction unit that fills non-scanned portions;
An image reconstruction unit for improving color information of a plurality of RGB images; And
A texture mapping unit for performing texture mapping of the three-dimensional model of the mesh type and each RGB image; Dimensional scanning system using a facial shaping simulation.
제 1 항에 있어서,
상기 3차원 스캔장치는,
3차원 공간 상의 위치와 방향을 매 프레임마다 실시간으로 인식하는 스캐너 위치 추적부;
인식된 깊이 맵(Depth Map)을 바탕으로, 매 프레임마다 얼굴의 형태를 분석하여 머리 자세(Head Pose)와, 센서로부터 얼굴까지의 거리를 측정함으로써, 얼굴이 향하는 방향과 거리 정보를 추출하는 얼굴 추적부;
얼굴 전체를 최적으로 촬영하기 위한 카메라 시점을 미리 설정하며, 상기 얼굴 추적부를 통해 추출된 얼굴이 향하는 방향과 거리 정보를 이용하여 기 설정된 카메라 시점에 근접할 경우, RGB 촬영을 자동으로 수행하도록 제어하는 카메라 시점 판단부; 및
상기 카메라 시점 판단부를 통해 판단된 카메라 시점이 만족할 경우, 카메라 시점 판단부의 제어에 의해 RGB 영상을 촬영하며, 촬영 시점의 카메라 내부 파라미터, 장치의 3차원 위치와 방향정보를 함께 저장하는 촬영부; 를 포함하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
The method according to claim 1,
The three-dimensional scanning device includes:
A scanner position tracking unit for recognizing a position and a direction on a three-dimensional space in real time every frame;
Based on the recognized depth map, the shape of the face is analyzed every frame to measure the head pose and the distance from the sensor to the face, A tracking unit;
The control unit controls the RGB camera to automatically perform the RGB photographing when the camera camera approaches the preset camera view using the direction and the distance information of the face extracted by the face tracking unit in advance A camera viewpoint determination unit; And
A photographing unit photographing an RGB image under the control of a camera view judging unit when the camera view determined by the camera view judging unit is satisfied and storing the camera internal parameters at the photographing time and the three-dimensional position and direction information of the device together; Dimensional scanning system using a facial shaping simulation.
제 2 항에 있어서,
상기 얼굴 추적부는,
입력 값으로 깊이 맵(Depth Map) 또는 TSDF(Timed Synchronous Data Flow) Volume에서 재구성된 깊이 맵(Depth Map)을 사용하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
3. The method of claim 2,
The face-
Wherein the depth map is reconstructed from a Depth Map or a Timed Synchronous Data Flow (TSDF) volume as an input value.
제 2 항에 있어서,
상기 3차원 스캔장치는,
TSDF Volume 상에 상기 얼굴 추적부를 통해 얻어진 얼굴 형태를 매핑하여 얼굴의 부위별 복셀(Voxel) 정보를 확인함으로써, 스캔이 되지 않은 부분을 판단하는 스캔 판단부; 를 포함하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
3. The method of claim 2,
The three-dimensional scanning device includes:
A scan determining unit for determining a non-scanned portion by mapping voxel information for each part of the face by mapping a face shape obtained through the face tracking unit on TSDF Volume; Dimensional scanning system using a facial shaping simulation.
제 4 항에 있어서,
상기 스캔 판단부는,
TSDF 값이 업데이트 된 적이 없는지 판단하거나, 가중치(Weight) 값으로 업데이트 횟수를 추정하여 업데이트 횟수가 특정 임계값 이하인지를 판단하여, 스캔이 되지 않는 부분을 판단하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
5. The method of claim 4,
The scan determination unit may determine,
And judges whether the TSDF value has not been updated or whether the update frequency is less than or equal to a specific threshold by estimating the update frequency with a weight value, 3D scanning system.
삭제delete 제 1 항에 있어서,
상기 텍스처 매핑부는,
RGB 영상을 취득한 촬영시점의 3차원 스캐너 위치와 방향에서 카메라 내부 파라미터에 의해 프로젝션(Projection)을 수행하여, 메시(Mesh)의 각 얼굴(Face)의 버텍스(Vertex)들의 위치정보마다 RGB의 컬러 좌표계와 매핑하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
The method according to claim 1,
Wherein the texture mapping unit comprises:
Projection is performed according to the camera internal parameters in the position and orientation of the three-dimensional scanner at the time of photographing at which the RGB image is acquired and the color coordinate system of RGB is set for each position information of the vertices of each face of the mesh. Dimensional scanning system using face-forming simulation.
제 1 항 또는 제 7 항에 있어서,
상기 텍스처 매핑부는,
텍스처 매핑을 통해 RGB 영상의 개수만큼 텍스처 매핑정보를 생성하고, 3차원 스캐너 위치와 방향 정보와 함께 저장하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
8. The method of claim 1 or 7,
Wherein the texture mapping unit comprises:
Wherein the texture mapping information is generated by the texture mapping for the number of RGB images, and the texture mapping information is stored together with the three-dimensional scanner position and orientation information.
제 1 항에 있어서,
상기 3차원 모델 출력장치는,
상기 3차원 스캔 후처리장치를 통해 처리된 3차원 메시 모델을 2차원 영상으로 출력하기 위하여, 사용자가 지정한 시점으로 렌더링하는 렌더링부;
상기 렌더링부를 통해 지정된 렌더링 기준이 되는 시점 정보를 이용하여, 카메라 위치와 가장 근접한 시점 위치를 계산하고, 계산된 시점 위치에 따른 카메라 위치와 가장 근접한 텍스처 매핑정보를 추출하는 렌더링 카메라 시점 계산부;
상기 렌더링 카메라 시점 계산부를 통해 추출된 카메라 위치와 가장 근접한 텍스처 매핑정보를 바탕으로, 상기 렌더링부에서 디스플레이 되는 메시(Mesh) 모델의 텍스처를 실시간 변경하는 텍스처 변경부;
상기 3차원 스캔장치를 통해 얻어진 얼굴 형태를 이용하여 기 설정된 부위별 거리를 시각화하고, 상기 렌더링부에서 렌더링된 2차원 영상 위에 오버레이(Overlay)하여 출력하는 부위별 측량부; 및
얼굴의 주요 부위를 분할하고, 각 분할된 영역을 시뮬레이션하는 가상 성형부; 를 포함하는 것을 특징으로 하는 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템.
The method according to claim 1,
The three-dimensional model output apparatus includes:
A rendering unit for rendering a three-dimensional mesh model processed through the three-dimensional post-scan processing apparatus as a two-dimensional image at a time point designated by the user;
A rendering camera viewpoint calculation unit for calculating a viewpoint position closest to the camera position using the viewpoint information as a rendering reference through the rendering unit and extracting texture mapping information that is closest to the camera position according to the calculated viewpoint position;
A texture changing unit for changing a texture of a mesh model displayed in the rendering unit in real time based on the texture mapping information closest to the camera position extracted through the rendering camera viewpoint calculating unit;
A portion-to-be-measured portion for visualizing the distance for each predetermined region using the face shape obtained through the 3D scanning device, and overlaying the overlapped portion on the two-dimensional image rendered by the rendering portion; And
A virtual forming unit for dividing a main portion of a face and simulating each divided region; Dimensional scanning system using a facial shaping simulation.
KR1020140029398A 2014-03-13 2014-03-13 3d scanning system using facial plastic surgery simulation KR101556992B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140029398A KR101556992B1 (en) 2014-03-13 2014-03-13 3d scanning system using facial plastic surgery simulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140029398A KR101556992B1 (en) 2014-03-13 2014-03-13 3d scanning system using facial plastic surgery simulation

Publications (2)

Publication Number Publication Date
KR20150107063A KR20150107063A (en) 2015-09-23
KR101556992B1 true KR101556992B1 (en) 2015-10-05

Family

ID=54245634

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140029398A KR101556992B1 (en) 2014-03-13 2014-03-13 3d scanning system using facial plastic surgery simulation

Country Status (1)

Country Link
KR (1) KR101556992B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599785A (en) * 2016-11-14 2017-04-26 深圳奥比中光科技有限公司 Method and device for building human body 3D feature identity information database
CN106774879A (en) * 2016-12-12 2017-05-31 大连文森特软件科技有限公司 A kind of plastic operation experiencing system based on AR virtual reality technologies
CN109472820A (en) * 2018-10-19 2019-03-15 清华大学 Monocular RGB-D camera real-time face method for reconstructing and device
US11146774B2 (en) 2017-12-18 2021-10-12 Korea Institute Of Oriental Medicine Operating method of three-dimensional facial diagnosis apparatus

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
WO2018164328A1 (en) * 2017-03-10 2018-09-13 주식회사 모르페우스 Method and system for estimating face by using anatomical layer, and non-transitory computer-readable recording medium
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
KR101950815B1 (en) * 2017-08-25 2019-02-21 뉴로핏 주식회사 Patch guide method and program
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
KR102358854B1 (en) * 2020-05-29 2022-02-04 연세대학교 산학협력단 Apparatus and method for color synthesis of face images
CN112433003A (en) * 2020-11-30 2021-03-02 中广核检测技术有限公司 Three-dimensional simulation method for ultrasonic detection of T-shaped structural part
CN112669447B (en) * 2020-12-30 2023-06-30 网易(杭州)网络有限公司 Model head portrait creation method and device, electronic equipment and storage medium
CN114858086A (en) * 2022-03-25 2022-08-05 先临三维科技股份有限公司 Three-dimensional scanning system, method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222736A (en) * 2011-04-13 2012-11-12 Sony Corp Image processing device, image processing method, and program
JP5318877B2 (en) * 2007-10-09 2013-10-16 アグファ・ヘルスケア・ナームローゼ・フェンノートシャップ Method and apparatus for volume rendering of datasets

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5318877B2 (en) * 2007-10-09 2013-10-16 アグファ・ヘルスケア・ナームローゼ・フェンノートシャップ Method and apparatus for volume rendering of datasets
JP2012222736A (en) * 2011-04-13 2012-11-12 Sony Corp Image processing device, image processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599785A (en) * 2016-11-14 2017-04-26 深圳奥比中光科技有限公司 Method and device for building human body 3D feature identity information database
CN106599785B (en) * 2016-11-14 2020-06-30 深圳奥比中光科技有限公司 Method and equipment for establishing human body 3D characteristic identity information base
CN106774879A (en) * 2016-12-12 2017-05-31 大连文森特软件科技有限公司 A kind of plastic operation experiencing system based on AR virtual reality technologies
CN106774879B (en) * 2016-12-12 2019-09-03 快创科技(大连)有限公司 A kind of plastic operation experiencing system based on AR virtual reality technology
US11146774B2 (en) 2017-12-18 2021-10-12 Korea Institute Of Oriental Medicine Operating method of three-dimensional facial diagnosis apparatus
CN109472820A (en) * 2018-10-19 2019-03-15 清华大学 Monocular RGB-D camera real-time face method for reconstructing and device

Also Published As

Publication number Publication date
KR20150107063A (en) 2015-09-23

Similar Documents

Publication Publication Date Title
KR101556992B1 (en) 3d scanning system using facial plastic surgery simulation
US10102639B2 (en) Building a three-dimensional composite scene
CN111710036B (en) Method, device, equipment and storage medium for constructing three-dimensional face model
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP5818773B2 (en) Image processing apparatus, image processing method, and program
JP5818857B2 (en) Information processing apparatus and control method thereof
CN107484428B (en) Method for displaying objects
KR101560508B1 (en) Method and arrangement for 3-dimensional image model adaptation
KR20210019552A (en) Object modeling and movement methods and devices, and devices
KR101744079B1 (en) The face model generation method for the Dental procedure simulation
CN111862333B (en) Content processing method and device based on augmented reality, terminal equipment and storage medium
KR20170008638A (en) Three dimensional content producing apparatus and three dimensional content producing method thereof
KR101082829B1 (en) The user interface apparatus and method for 3D space-touch using multiple imaging sensors
US9224245B2 (en) Mesh animation
CN113366491B (en) Eyeball tracking method, device and storage medium
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
CN113628327A (en) Head three-dimensional reconstruction method and equipment
KR20190069750A (en) Enhancement of augmented reality using posit algorithm and 2d to 3d transform technique
CN114373043A (en) Head three-dimensional reconstruction method and equipment
KR20200042781A (en) 3d model producing method and apparatus
CN108549484A (en) Man-machine interaction method and device based on human body dynamic posture
KR101569693B1 (en) 3d scanning device for facial plastic surgery simulating
JP2019046096A (en) Information processing device and method thereof
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP2021039563A (en) Program, device, and method for applying label to depth image as teacher data

Legal Events

Date Code Title Description
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee