KR102006593B1 - Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this - Google Patents

Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this Download PDF

Info

Publication number
KR102006593B1
KR102006593B1 KR1020190032732A KR20190032732A KR102006593B1 KR 102006593 B1 KR102006593 B1 KR 102006593B1 KR 1020190032732 A KR1020190032732 A KR 1020190032732A KR 20190032732 A KR20190032732 A KR 20190032732A KR 102006593 B1 KR102006593 B1 KR 102006593B1
Authority
KR
South Korea
Prior art keywords
output
photographed
data
printer
molds
Prior art date
Application number
KR1020190032732A
Other languages
Korean (ko)
Inventor
김숭현
Original Assignee
학교법인 정화예술대학
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인 정화예술대학 filed Critical 학교법인 정화예술대학
Priority to KR1020190032732A priority Critical patent/KR102006593B1/en
Application granted granted Critical
Publication of KR102006593B1 publication Critical patent/KR102006593B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41GARTIFICIAL FLOWERS; WIGS; MASKS; FEATHERS
    • A41G7/00Masks or dominoes for concealing identity, e.g. for theatrical use
    • A41G7/02Masks or dominoes for concealing identity, e.g. for theatrical use with parts for producing a special effect
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y10/00Processes of additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y80/00Products made by additive manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Abstract

The present invention relates to a digital work system for special makeup using a three-dimensional printer and a digital work method using the same. The digital work system for special makeup obtains data from a photographed image of a subject in order to generate an output object for special makeup and output the same to the three-dimensional printer, generates a mesh by post-processing the same, and compares the actual size of the output object, i.e. a plurality of molds and the subject, thereby helping advance the technology in the special makeup by fusing the photogrammetry and the three-dimensional printing technology. In addition, by generating three-dimensional modeling data using a photogrammetry method and outputting a product using the three-dimensional printer, effectiveness for the digital work of the special makeup can be greatly increased.

Description

포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템 및 이것을 이용한 디지털 작업 방법{DIGITAL WAORKING SYSTEM FOR SPECIAL MAKEUP USING PHOTOGRAMMETRY AND 3D PRINTER AND THE DIGITAL WORKING METHOD USING THIS}TECHNICAL FIELD [0001] The present invention relates to a digital working system for a special makeup utilizing a metric and a 3D printer, and a digital working method using the same. [0002]

본 발명은 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템 및 이것을 이용한 디지털 작업 방법에 관한 것으로, 더욱 상세하게는 카메라로 촬영된 2D 사진 이미지로부터 취득된 3D 정보를 3D 프린터에 의하여 실제 형상으로 출력되게 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템 및 이것을 이용한 디지털 작업 방법에 관한 것이다.The present invention relates to a digital working system for a special dress using a photogrammetry and a 3D printer, and a digital working method using the same. More particularly, the present invention relates to a 3D working method using a 3D printer, And a digital work system for a special makeup utilizing a 3D printer and a digital work method using the same.

급격한 과학 기술의 발달로 인간의 평균 수명이 연장됨에 따라 삶의 질을 높이고자 하는 노력이 다방면으로 이루어지고 있다. With the rapid development of science and technology, human life expectancy has been extended, and efforts to improve the quality of life have been made in various directions.

그러나 산업화를 이루면서 예기치 않은 교통사고, 산업재해, 질병 등으로 신체의 일부가 손상되거나, 선천적 장애를 가지고 태어나는 장애인의 수가 증가하고 있는 추세이다. However, in industrialization, the number of persons with disabilities who are injured by unexpected traffic accidents, industrial accidents, illnesses, etc.

질병이나 사고, 선천적 장애로 잃은 신체의 일부를 인공 장치를 이용하여 복원하는 예술 및 과학을 아나플라스톨로지(Anaplastology)라고 하며 안면(facial), 신체(somato), 눈(ocular) 보철을 포함한다.Anaplastology refers to the art and science of restoring parts of a body that have been lost by disease, accident, or inherited disability using artificial devices, including facial, somato, and ocular prostheses .

아나플라스톨로지(이하 성형 보철)를 통해 활동적으로 사회생활에 참여할 수 있는 자신감을 심어주고, 향상된 미적 외관을 통해 삶의 질을 향상시킬 수 있다.Through Ana Plastolojji (Molding Prostheses), you can improve your quality of life through an enhanced aesthetic appearance by instilling confidence to participate actively in social life.

성형 보철은 개인 맞춤형 제작으로 오랜 시간 착용하여도 불편함 없이 자연스러워 보여야 한다.Molded prosthesis is a personalized manufacture and should look natural without discomfort even when worn for a long time.

적용 부위는 주로 의복으로 가리기 힘든 얼굴과 손 부위이므로 실제 피부와 유사한 색채와 질감을 가져야 하며, 보철 장치가 느슨해지거나 의학용 접착제로 부착하여 매일 사용하기 위한 일상적인 관리 때문에 정밀한 작업이 요구된다. Since the application area is mainly face and hand parts which are difficult to cover with clothes, it should have similar color and texture to real skin, and it is required to work precisely because of routine management for daily use by attaching with medical adhesive or loosening of prosthetic device.

분장(扮裝)은 영화나 TV 방송에 등장하는 배우의 모습을 극본이나 시나리오에 어울리도록 표현해주는 것으로 색을 이용하여 착시효과를 주거나 사전에 제작한 보철물(prosthetics appliance)을 배우의 신체에 부착하여 외형을 변화시켜주는 작업 등을 포함한다.The dressing is to express the actors appearing in movies or TV broadcasts appropriately to the screenplay or scenarios. It gives the illusion effect by using color or attaches a prosthetics appliance which is made in advance to the actor's body, And the like.

일반적으로 배우의 신체 부위에 보철물을 부착하여 시각적인 사실감을 극대화시키는 작업을 특수분장이라고 하는 데 실물에 가까운 외모를 만들어주는 성형 보철의 제작과 적용도 특수분장사의 역량을 발휘할 수 있는 업무 영역에 포함될 수 있다.In general, the task of maximizing the visual realism by attaching the prosthesis to the body part of the actor is called the special makeup, and the production and application of the cosmetic prosthesis, which makes the appearance close to the real thing, .

보철물을 제작하기 위해서는 신체 부위를 정확히 재현하는 신체 모형이 필요하므로 인상 채득 과정 즉, 라이프 캐스트(life cast) 과정을 반드시 거쳐야 한다.To make a prosthesis, a body model that accurately reproduces the body part is required, so the impression making process, that is, the life cast process, must be performed.

2018년 국가직무능력표준(National Competency Standards; NCS)에 의하면 특수효과 메이크업의 학습모듈에서 제시하는 라이프 캐스트 과정은 모델의 얼굴 및 헤어를 정리한 후 볼드 캡(bald cap)을 씌우고 스피리트 껌(spirit gum) 등의 접착제로 피부에 고정시킨다.According to the National Competency Standards (NCS) in 2018, the life-casting process presented in the special effects make-up module covers the face and hair of the model, puts a bald cap on it, To the skin.

이후 물과 혼합한 알지네이트(alginate)를 이마부터 흘러내리듯이 일정한 두께로 바른 후 석고붕대로 고정시키는 과정으로 설명하고 있다.After that, alginate mixed with water is applied to a certain thickness as it flows down from forehead, and then fixed with a plaster bandage.

인상 채득에 사용되는 인상재는 알지네이트나 실리콘(silicone)을 사용하게 되는 데 숙달된 전문가가 아니면 알지네이트나 실리콘을 바르는 과정에 모델이 편하게 숨을 쉴 수 없게 되며 스피리트 껌(spirit gum)이나 알지네이트, 실리콘, 석고붕대 등이 피부에 닿으므로 접촉성 피부염이나 알레르기 반응이 일어날 수도 있다.Impression materials used for impression are made of alginate or silicone. If you are not a proficient expert, you will not be able to breathe comfortably in the course of applying alginate or silicone. You can not use spirit gum, Gingival bandages, etc. may contact the skin, causing contact dermatitis or allergic reactions.

안면이 아닌 두상 전체를 캐스팅 하는 경우라면 피시술자가 느끼게 되는 불편함과 위험부담은 커질 수밖에 없다.If you are casting the whole face rather than the face, the inconvenience and the risk burden that you will feel will increase.

특히 사고나 질병으로 인한 안면부 결손이나 기형적 부위를 재건하기 위해 진행하는 라이프 캐스트 과정이라면 피시술자를 보호해야 할 의무가 있고 정확하게 해당 부위를 캐스팅 할 필요가 있다.Particularly if the life-cast process is carried out to reconstruct facial defects or deformities caused by accidents or diseases, it is imperative to protect the physician and precisely cast the site.

한편, 포토그래메트리(Photogrammetry)는 2차원의 사진을 기반으로 3차원 형상 정보를 구축하는 방식으로 여러 장의 사진 정보를 활용하여 물체와 카메라의 위치 정보를 찾아내고 영상 정보의 특정 패턴 및 픽셀에 대한 정보를 찾아서 합성하게 되며, 합성된 데이터는 3D 데이터로 변환되어서 모델링 데이터를 생성하는 방식이다.In the meantime, Photogrammetry is a method of building three-dimensional shape information based on two-dimensional photographs. It uses several pieces of photograph information to find the position information of an object and a camera, And the synthesized data is converted into 3D data to generate modeling data.

2차원의 사진을 기반으로 3차원 형상 정보를 구축하는 포토그래메트리 방식을 특수분장 분야에 접목하여 활용가능성을 찾아보는 것은 레이저 스캐너를 사용하는 과정에 발생하는 문제점을 개선할 수 있는 좋은 방안이 될 수 있다.The use of photogrammetric method to construct three-dimensional shape information based on two-dimensional photographs is a good way to solve the problems that arise in the process of using laser scanner .

상기와 같은 관점에서 발명된 것으로 등록특허 제10-0372811호의 "2차원 얼굴 정면 이미지를 이용한 3차원 얼굴 모델 생성방법"(이하 선행기술)과 같은 것들을 들 수 있다.A method of generating a three-dimensional face model using a two-dimensional face front image "(hereinafter referred to as" prior art ") of Patent No. 10-0372811, which was invented in view of the above.

선행기술은 특정인 얼굴의 2차원 정면사진 이미지를 입력받는 단계와, 입력받은 2차원 이미지에 제어점을 설정해주는 단계와, 이를 이용하여 미리 만들어져 있는 3차원 기본 모델을 2차원 이미지에 일치하도록 변형시키는 단계와, 3차원 변형모델에 상기 2차원 이미지의 텍스쳐(texture)를 매핑하는 단계를 포함한다.The prior art includes a step of inputting a two-dimensional frontal photo image of a specific face, a step of setting control points in the input two-dimensional image, and a step of transforming the three- And mapping a texture of the two-dimensional image to a three-dimensional deformation model.

그러나, 선행기술은 단순히 특정인 얼굴의 2차원 정면사진으로부터 3차원 얼굴 모델을 생성하는 것에 그치고 있으므로, 전술한 바와 같은 포토그래메트리와 아나플라스톨로지에 적용시키기에는 부족한 한계점이 있다.However, since the prior art is merely generating a three-dimensional face model from a two-dimensional frontal face photograph of a specific face, there are limitations in applying it to the photogrammetry and anaoplastology as described above.

즉, 선행기술은 특수분장을 하고자 하는 배우의 얼굴이나, 예기치 않은 교통사고, 산업재해, 질병 등으로 신체의 일부가 손상되거나, 선천적 장애를 가지고 태어나는 장애인의 얼굴의 실측 사이즈와 3차원 변형모델의 크기와 형상 및 위치에 오차가 있으므로, 직접적으로 3차원 얼굴 모델를 기반으로 한 출력 오브젝트를 적용할 수 없기 때문이다.In other words, the prior art is that the face of an actor who wants to make a special makeup, the actual size of the face of the handicapped who is born with a part of the body damaged by unexpected traffic accidents, industrial accidents, diseases, Because the size, shape, and position of the output object are not directly applicable to the output object based on the three-dimensional face model.

등록특허 제10-0372811호Patent No. 10-0372811

본 발명은 상기와 같은 문제점을 개선하기 위하여 발명된 것으로, 포토그래메트리와 3D 프린팅 기술을 융합하여 특수분장 분야의 기술 발전에 도움을 줄 수 있도록 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템 및 이것을 이용한 디지털 작업 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to provide a photomask which combines a photogallery and 3D printing technology, A digital work system for a dressing, and a digital work method using the same.

아울러, 본 발명은 포토그래메트리 방식을 이용하여 3D 모델링 데이터를 생성하고 3D 프린터로 결과물을 출력해봄으로써 특수분장의 디지털 작업에 대한 효율성을 대폭적으로 향상시킬 수 있도록 하는 3D 프린터를 활용한 특수분장용 디지털 작업 시스템 및 이것을 이용한 디지털 작업 방법을 제공하기 위한 것이다.In addition, the present invention generates a 3D modeling data using a photogrammetric method and outputs a result to a 3D printer, thereby making it possible to significantly improve the efficiency of the digital work of a special makeup. And a digital work method using the same.

상기와 같은 목적을 달성하기 위하여, 본 발명은 정, 역회전 가능하게 일정 위치에 정지한 특수분장용 피사체인 피촬영자를 중심으로 일정 크기의 반경을 가진 이동경로를 따라 이동 가능한 이동체와, 상기 이동경로상에 등간격으로 설정된 복수의 정지 위치마다 상기 피촬영자의 안면과 두상 및 목 부분을 촬영 가능하도록 상기 이동체에 장착되는 단일의 카메라와, 상기 복수의 정지 위치 각각에서 상기 피촬영자의 촬영 이미지가 일정 부분 겹쳐지게 상기 카메라를 회전시켜 상기 피촬영자를 촬영하거나 상기 카메라의 줌인 및 줌아웃 기능을 이용하여 상기 복수의 정지 위치 각각에서 상기 피촬영자를 적어도 1회 이상 촬영하도록 상기 카메라를 제어하는 카메라컨트롤러를 포함하는 촬영 유닛; 상기 촬영 유닛에 의하여 상기 복수의 정지 위치 각각에서 적어도 1회 이상 촬영된 복수의 상기 피촬영자의 촬영 이미지 정보를 읽어들여 연산함으로써 포인트 클라우드를 생성하고, 생성된 상기 포인트 클라우드를 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하는 데이터취득 유닛; 상기 데이터취득 유닛에 의하여 형성된 상기 메쉬의 데이터 용량을, 3D 프린터로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 상기 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트(export)시키는 후처리 유닛; 및 상기 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(mold) 형태로 분할되게 데이터 처리한 다음 출력된 상기 복수의 몰드를 서로 조립 가능하도록 상기 복수의 몰드 각각에 키(key)와 키 홀(key hole)을 형성하여 출력하는 3D 프린터와, 출력된 상기 복수의 몰드 중 하나의 몰드 외면에 형성된 적어도 하나의 출력 마커와 상기 촬영 유닛에 의하여 촬영하기 전에 상기 피촬영자의 머리카락을 감추도록 씌워진 두건에 장착된 적어도 하나의 실제 마커와의 치수를 비교하는 분석기를 포함하는 출력비교 유닛을 포함하는 것을 특징으로 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템을 제공할 수 있다.In order to achieve the above object, the present invention provides a moving object which is movable along a moving path having a predetermined radius around a subject to be photographed, which is a subject for special dressing, A single camera mounted on the moving body so as to be capable of photographing the face, head and neck of the person to be photographed for each of a plurality of stop positions set at regular intervals on a path; A camera controller for controlling the camera to photograph the subject to be photographed by rotating the camera to overlap the subject at least once or more at each of the plurality of stop positions using a zoom-in and zoom-out function of the camera A photographing unit including; The point cloud is generated by calculating and reading imaging image information of a plurality of the to-be-photographed persons photographed at least once at each of the plurality of stop positions by the photographing unit, and the created point clouds are matched (matched) a data acquisition unit forming a mesh which is a set of polygons; The data capacity of the mesh formed by the data acquisition unit is exported in the form of output data in which the number of triangles constituting the polygon is reduced within a range that the shape information is not distorted when the 3D shape is outputted by the 3D printer a post-processing unit for exporting the data; And a data processing unit for reading out the output data and processing the output object to be divided into a plurality of molds based on a specific position and then outputting the key to each of the plurality of molds so that the plurality of the output molds can be assembled with each other, And at least one output marker formed on an outer surface of one of the plurality of the molds, and a control unit for controlling the image forming unit to hide the hair of the person to be photographed before photographing by the photographing unit And an output comparing unit including an analyzer for comparing dimensions of the at least one actual marker mounted on the hood and the at least one actual marker mounted on the hood. .

한편, 본 발명은 머리카락을 제외한 안면과 두부 및 목 부분을 포함한 상체를 촬영할 수 있도록 특수분장용 피사체인 피촬영자의 머리카락을 덮어 감싸는 두건을 장착하는 제1 단계; 일정 위치에 정, 역회전 가능하게 정지하여 앉은 상기 피촬영자를 중심으로 일정 크기의 반경을 가진 이동경로를 형성하는 레일과, 상기 레일상을 이동 가능한 이동체를 장착하고, 상기 이동체에 상하 좌우 요동을 억제하는 짐벌에 장착된 카메라를 세팅하는 제2 단계; 상기 레일 상에서 등간격으로 설저된 복수의 정지 위치마다 상기 이동체를 정지시킨 후 상기 피촬영자의 촬영 이미지가 일정 부분 겹쳐지게 상기 카메라를 회전시키거나 상기 카메라의 줌인 및 줌아웃 기능을 이용하여 상기 복수의 정지 위치 각각에서 상기 피촬영자를 적어도 1회 이상 촬영하여 상기 피촬영자의 촬영 이미지를 생성시키는 제3 단계; 데이터취득기가 상기 피촬영자의 복수의 촬영 이미지 정보를 읽어들여 연산기로 연산하여 생성한 포인트 클라우드를 출력데이터생성기가 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하는 제4 단계; 상기 메쉬를 읽어들인 후처리기가 상기 메쉬의 데이터 용량을, 3D 프린터로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 상기 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트(export)시키는 제5 단계; 상기 3D 프린터와 전기적으로 연결되는 형상출력 준비기가 상기 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(mold) 형태로 분할되게 데이터 처리한 다음 출력된 상기 복수의 몰드를 서로 조립 가능하도록 상기 복수의 몰드 각각에 키(key)와 키 홀(key hole)을 형성하여 출력되도록 하는 출력준비 데이터를 제작하는 제6 단계; 상기 3D 프린터가 상기 형상출력 준비기로부터 생성된 상기 출력준비 데이터를 읽어들여 상기 키와 상기 키 홀이 형성된 상기 복수의 몰드를 출력하는 제7 단계; 및 관리 서버와 네트워크로 연결된 분석기가 3D 형상으로 출력된 상기 복수의 몰드 중 하나의 몰드 외면에 형성된 적어도 하나의 출력 마커와, 상기 두건에 장착된 적어도 하나의 실제 마커와의 치수를 비교하는 제8 단계를 포함하는 것을 특징으로 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템을 이용한 디지털 작업 방법을 제공할 수도 있다.According to another aspect of the present invention, there is provided a hair styling method comprising the steps of: attaching a hood for covering a hair of a person to be photographed, which is a subject for special dressing, so that an upper body including a face, A rail which forms a movement path having a radius of a predetermined size centered on the person to be photographed which is stationary and reversibly rotatable at a predetermined position, and a movable member which is movable on the rail, A second step of setting a camera mounted on the gimbal to be restrained; The moving object may be stopped for each of a plurality of stop positions spaced equidistantly on the rail, and then the camera may be rotated so that the photographed image of the to-be-photographed person overlaps a certain portion, or the zoom- A third step of photographing the subject to be photographed at least once at each position to generate a photographed image of the subject to be photographed; A fourth step of the data acquiring unit reading the plurality of photographed image information of the photographee and computing the point clouds generated by the arithmetic operation unit by the output data generator to form a mesh which is a set of polygons; ; When the processor reads the mesh, the processor exports the data capacity of the mesh in the form of output data in which the number of triangles constituting the polygon is reduced to such a degree that the shape information is not distorted when the 3D shape is output to the 3D printer. a fifth step of exporting the data; A shape output prepara- tor electrically connected to the 3D printer reads the output data, processes the output object into a plurality of molds based on a specific position, and then outputs the plurality of molds together A sixth step of producing output preparation data for forming a key and a key hole in each of the plurality of molds so as to be output; A seventh step of the 3D printer reading the output preparation data generated from the shape output prepara- tor and outputting the key and the plurality of molds in which the keyhole is formed; And at least one output marker formed on an outer surface of one of the plurality of molds output from the analyzer connected to the management server via a network in a 3D shape, And a digital work method using a digital work system for a special makeup utilizing a 3D printer and a photogallery.

상기와 같은 구성의 본 발명에 따르면, 다음과 같은 효과를 도모할 수 있다.According to the present invention having the above-described configuration, the following effects can be achieved.

우선, 본 발명은 실제 데이터가 제공되지 않은 사진 정보를 활용하는 포토그래메트리의 기술과 함께 3D 프린터 기술을 이용하므로, 특수분장에서 휴대폰 카메라를 이용한 사진측량, 즉 포토그래메트리를 적용할 수 있기 때문에 디지털 모드의 가능성과 유용성을 대폭적으로 제고할 수 있게 될 것이다.First, since the present invention utilizes the 3D printer technology together with the photogrammetric technology utilizing the photographic information for which no actual data is provided, it is possible to apply photogrammetry using a mobile phone camera This will greatly enhance the possibilities and usability of the digital mode.

특히, 본 발명은 사전에 제어 가능한 실내 인공 조명과 여러대의 카메라가 필요하고 대상물이 촬영되지 않는 한 3차원 형상 정보의 구축 자체가 불가능한 기존의 기술에 비하여, 단일의 카메라, 예를들면 DSLR 카메라는 물론 휴대폰 카메라로도 희망하는 결과물을 얻을 수 있게 될 것이다.Particularly, the present invention is advantageous in that a single camera, for example, a DSLR camera, can be used as a camera, in contrast to the existing technology in which a plurality of cameras are required to control indoor artificial light that can be controlled in advance, Of course, you can get the desired results with your mobile camera.

아울러, 본 발명은 3D 프린터 출력용 데이터와 실체 3D 프린터에 의하여 출력된 출력물과의 비교 분석, 즉 측정된 데이터의 수득을 위하여, 특수분장용 피사체인 피촬영자로서의 사람은 물론 일반적인 다양한 물체를 촬영할 때 그 대상물에 대하여 알려진 차원을 가진 무광택 물체, 예를들면 정육면체 형상의 실제 마커를 부착함으로써 실제 정보를 가질 수 있게 될 것이다.In addition, the present invention is applicable to a person who is a special-purpose photographer, as well as a person who is a photographer, as well as a photographer, a photographer, a photographer, a photographer, By attaching a matte object with a known dimension to the object, for example a real marker in the form of a cube, it will be possible to have real information.

따라서, 본 발명은 전술한 바와 같이 창출된 3D 데이터를 3차원 모델링 프로그램에 의하여 사용자의 단말이나 네트워크 서버 또는 클라우드 서비스에 저장해 두고 장소나 시간에 구애됨없이 편집할 수 있음은 물론, 3D 프린터로 언제든지 출력하여 양각의 몰드 형태로 이용할 수 있을 것이다.Accordingly, the present invention can store 3D data created as described above in a user terminal, a network server, or a cloud service by means of a three-dimensional modeling program, edit without any restriction on the place and time, It can be used as an embossed mold.

이러한 몰드 형태의 실제 형상을 가진 출력물들은 특수분장 뿐만 아니라 인공장치를 이용하여 질병, 사고 또는 선천적 장애로 인하여 소실된 신체 부분을 재구축하기 위한 아나플라스톨로지(anaplastology) 분야에 매우 유용할 것이다.Outputs with these actual shapes in mold form would be very useful in the field of anaplastology to reconstruct body parts that have been lost due to disease, accident, or congenital disorder using artificial devices as well as special makeup.

즉, 본발명에 따른 디지털 작업 시스템에 따르면, 지속적인 기술 발전의 뒷받침만 있다면 앞으로 4차 산업 혁명 시대에 큰 성장 잠재력을 가지고 폭넓은 수요에 따른 관련 직무 분야들의 창출까지 도움을 줄 수 있게 됨은 물론이다.In other words, according to the digital working system according to the present invention, if it is supported by continuous technological development, it is possible to have a great growth potential in the fourth industrial revolution era and help the creation of related job fields according to wide demand .

도 1은 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템을 이용한 디지털 작업 방법을 순차적으로 나타낸 블록선도
도 2는 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템의 데이터 처리 및 작업 계통을 도시한 개념도
도 3은 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템에 의하여 생성된 메쉬 정보로부터 출력준비 데이터의 형태로 수정된 것을 나타낸 프로그램 이미지
도 4는 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템에 의하여 작성된 성된 출력준비 데이터 이미지와, 3D 프린터로 출력된 출력 오브젝트의 사진
도 5는 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템에 의하여 생산된 출력 오브젝트의 출력 마커 사이즈를 측정하는 것을 촬영한 사진
도 6은 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템의 주요부인 촬영 유닛의 전체적인 구조를 도시한 사시도
1 is a block diagram sequentially showing a digital working method using a digital working system for a special dress using a photogrammetry and a 3D printer according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating a data processing and a work system of a digital work system for a special makeup utilizing a photographic matrix and a 3D printer according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a program image that is modified from the mesh information generated by the digital work system for a special makeup using a photographic meth- od and a 3D printer according to an embodiment of the present invention in the form of output preparation data
FIG. 4 is a diagram illustrating an output preparation data image created by a digital working system for a special makeup utilizing a photograemetry and a 3D printer according to an embodiment of the present invention,
FIG. 5 is a photograph of photographing an output marker size of an output object produced by a digital working system for a special makeup utilizing a photogrammetry and a 3D printer according to an embodiment of the present invention
6 is a perspective view showing the overall structure of a photographing unit which is a main part of a digital working system for a special makeup utilizing a photographic matrix and a 3D printer according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 명확해질 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to accomplish them, will become apparent by reference to the embodiments described in detail below with reference to the accompanying drawings.

그러나, 본 발명은 이하에서 개시되는 실시예로 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이다.However, the present invention is not limited to the embodiments described below, but may be embodied in various other forms.

본 명세서에서 본 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.The present embodiments are provided so that the disclosure of the present invention is thoroughly disclosed and that those skilled in the art will fully understand the scope of the present invention.

그리고 본 발명은 청구항의 범주에 의해 정의될 뿐이다.And the present invention is only defined by the scope of the claims.

따라서, 몇몇 실시예에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다.Thus, in some embodiments, well known components, well known operations, and well-known techniques are not specifically described to avoid an undesirable interpretation of the present invention.

또한, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하고, 본 명세서에서 사용된(언급된) 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, throughout the specification, like reference numerals refer to like elements, and the terms (mentioned) used herein are intended to illustrate the embodiments and not to limit the invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함하며, '포함(또는, 구비)한다'로 언급된 구성 요소 및 동작은 하나 이상의 다른 구성요소 및 동작의 존재 또는 추가를 배제하지 않는다.In this specification, the singular forms include plural forms unless the context clearly dictates otherwise, and the constituents and acts referred to as " comprising (or comprising) " do not exclude the presence or addition of one or more other constituents and actions .

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs.

또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Also, commonly used predefined terms are not ideally or excessively interpreted unless they are defined.

이하, 첨부된 도면을 참고로 본 발명의 바람직한 실시예에 대하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

참고로, 도 1은 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템을 이용한 디지털 작업 방법을 순차적으로 나타낸 블록선도이다.1 is a block diagram sequentially illustrating a digital working method using a digital working system for a special makeup utilizing a photogallery and a 3D printer according to an embodiment of the present invention.

그리고, 도 2는 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템의 데이터 처리 및 작업 계통을 도시한 개념도이다.FIG. 2 is a conceptual diagram illustrating a data processing and a work system of a digital work system for a special makeup utilizing a photogallery and a 3D printer according to an embodiment of the present invention.

그리고, 도 3은 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템에 의하여 생성된 메쉬 정보로부터 출력준비 데이터의 형태로 수정된 것을 나타낸 프로그램 이미지이다.FIG. 3 is a program image showing a modification to the form of output preparation data from the mesh information generated by the digital working system for special dressing utilizing the photogrammetry and the 3D printer according to the embodiment of the present invention.

그리고, 도 4는 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템에 의하여 작성된 성된 출력준비 데이터 이미지와, 3D 프린터(510)로 출력된 출력 오브젝트의 사진이다.4 is a view showing an output preparation data image created by the digital working system for special dressing utilizing a photographic matrix and a 3D printer according to an embodiment of the present invention, It is a photograph.

또한, 도 5는 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템에 의하여 생산된 출력 오브젝트의 출력 마커(670) 사이즈를 측정하는 것을 촬영한 사진이다.5 is a photograph of photographing a size of an output marker 670 of an output object produced by a digital work system for a special makeup using a photographic matrix and a 3D printer according to an embodiment of the present invention .

아울러, 도 6은 본 발명의 일 실시예에 따른 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템의 주요부인 촬영 유닛(100)의 전체적인 구조를 도시한 사시도이다.FIG. 6 is a perspective view illustrating the overall structure of the photographing unit 100, which is a principal part of a digital working system for a special makeup utilizing a photographic matrix and a 3D printer according to an embodiment of the present invention.

우선, 본 발명은 도 1 및 도 2에 도시된 바와 같이 특수분장용의 출력 오브젝트를 생성하고 3D 프린터(510)로 출력하기 위하여 피촬영자(400)의 촬영 이미지로부터 데이터를 취득하고, 이를 후처리하여 메쉬를 생성하며, 3D 프린터(510)로 출력한 출력 오브젝트, 즉 복수의 몰드(610, 620, 630, 640)와 피촬영자(400)의 실측 사이즈를 비교하는 순서로 이루어지는 것을 파악할 수 있다.First, as shown in FIG. 1 and FIG. 2, the present invention acquires data from a photographed image of a person to be photographed 400 in order to generate an output object for special distribution and output to the 3D printer 510, 620, 630, and 640 and the actual size of the object 400 to be imaged by the 3D printer 510, that is, a plurality of the molds 610, 620, 630, and 640.

우선, 작업자는 머리카락을 제외한 안면과 두부 및 목 부분을 포함한 상체를 촬영할 수 있도록 특수분장용 피사체인 피촬영자(400)의 머리카락을 덮어 감싸도록 피촬영자(400)에게 두건(410)을 장착한다(S1: 제1 단계).First, the operator attaches the hood 410 to the person 400 to be photographed so as to cover the hair of the person 400 to be photographed, which is a subject for special dressing, so as to be able to photograph the upper body including the face, the head and the neck excluding the hair S1: the first step).

이후, 작업자는 일정 위치에 정, 역회전 가능하게 정지하여 앉은 피촬영자(400)를 중심으로 일정 크기의 반경을 가진 이동경로를 형성하는 레일(140)과, 레일(140)상을 이동 가능한 이동체(110)를 장착하고, 이동체(110)에 상하 좌우 요동을 억제하는 짐벌(114)에 장착된 카메라(120)를 세팅한다(S2: 제2 단계).Thereafter, the worker has a rail 140 for forming a movement path having a radius of a predetermined size centered on the photographed person 400 which is stationary and reversibly rotatable at a predetermined position, And the camera 120 mounted on the gimbals 114 for restricting up / down and left / right rocking of the mobile body 110 is set (S2: second step).

다음으로, 작업자는 레일(140) 상에서 등간격으로 설저된 복수의 정지 위치마다 이동체(110)를 정지시킨 후 피촬영자(400)의 촬영 이미지가 일정 부분 겹쳐지게 카메라(120)를 회전시키(650)거나 카메라(120)의 줌인 및 줌아웃 기능을 이용하여 복수의 정지 위치 각각에서 피촬영자(400)를 적어도 1회 이상 촬영하여 피촬영자(400)의 촬영 이미지를 생성시킨다(S3: 제3 단계).Next, the operator stops the moving body 110 for each of a plurality of stop positions spaced at equal intervals on the rail 140, and rotates the camera 120 so that the photographed image of the subject 400 is overlapped with a certain portion (Step S3), or photographing the subject 400 at least once at each of a plurality of stop positions using the zoom-in and zoom-out functions of the camera 120 to generate a photographed image of the subject 400. [ .

계속하여, 데이터취득기(210)가 피촬영자(400)의 복수의 촬영 이미지 정보를 읽어들여 연산기로 연산하여 생성한 포인트 클라우드를 출력데이터생성기(220)가 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하게 된다(S4: 제4 단계).Subsequently, the data acquirer 210 reads a plurality of photographed image information of the photographed person 400 and computes the photographed image information by using an arithmetic unit to match the point cloud generated by the output data generator 220 to generate polygons Thereby forming a mesh as a set (S4: fourth step).

이후, 메쉬를 읽어들인 후처리기(310)가 메쉬의 데이터 용량을, 3D 프린터(510)로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트(export)시키는 프로세스를 수행하게 된다(S5: 제5 단계).Thereafter, when the processor 310 reads the mesh data, the data amount of the mesh is output to the 3D printer 510 in a manner that the number of triangles forming the polygon is reduced within a range such that the shape information is not distorted. (Step S5: step 5).

다음으로, 3D 프린터(510)와 전기적으로 연결되는 형상출력 준비기(512)가 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(610, 620, 630, 640, mold) 형태로 분할되게 데이터 처리한 다음 출력된 복수의 몰드(610, 620, 630, 640)를 서로 조립 가능하도록 복수의 몰드(610, 620, 630, 640) 각각에 키(650, key)와 키 홀(660, key hole)을 형성하여 출력되도록 하는 출력준비 데이터를 제작하는 프로세스를 수행하게 된다(S6: 제6 단계).Next, the shape output preparing unit 512 electrically connected to the 3D printer 510 reads the output data and divides the output object into a plurality of molds 610, 620, 630, 640, 620, 630 and 640 so that the output molds 610, 620, 630 and 640 can be assembled with each other. (S6: step 6). In this case, as shown in FIG.

계속하여, 3D 프린터(510)가 형상출력 준비기(512)로부터 생성된 출력준비 데이터를 읽어들여 키(650)와 키 홀(660)이 형성된 복수의 몰드(610, 620, 630, 640)를 출력하는 프로세스를 수행하게 된다(S7: 제7 단계).Next, the 3D printer 510 reads the output preparation data generated from the shape output preparation unit 512 and outputs a plurality of molds 610, 620, 630, and 640 having keys 650 and keyholes 660 (Step S7: step 7).

이후, 관리 서버(이하 미도시)와 네트워크(이하 미도시)로 연결된 분석기(520)가 3D 형상으로 출력된 복수의 몰드(610, 620, 630, 640) 중 하나의 몰드(610) 외면에 형성된 적어도 하나의 출력 마커(670)와, 두건(410)에 장착된 적어도 하나의 실제 마커(420)와의 치수를 비교하는 프로세스를 수행하게 된다(S8: 제8 단계).Thereafter, the analyzer 520 connected to the management server (not shown) and the network (not shown) is formed on the outer surface of one of the plurality of molds 610, 620, 630, A process of comparing the dimensions of at least one output marker 670 and at least one actual marker 420 mounted on the hood 410 is performed (S8: step 8).

본 발명은 상기와 같은 실시예의 적용이 가능하며 다음과 같은 다양한 실시예의 적용 또한 가능함은 물론이다.It is to be understood that the present invention may be embodied in many other specific forms without departing from the spirit or scope of the invention.

이하, 전술한 본 발명에 따른 디지털 작업 방법의 구체적인 실시예에 관하여 보다 상세하게 설명할 것이다.Hereinafter, a specific embodiment of the above-described digital working method according to the present invention will be described in more detail.

우선, 본 발명에 따른 디지털 작업은 대한민국 보건복지부 지정 공용기관생명윤리위원회에서 IRB 심의를 받아 2018년 05월 29일 승인(승인번호 P01-201805-13-002) 받은 후 진행하였다. First, the digital work according to the present invention was approved by IRB on May 29, 2018 (Approval No. P01-201805-13-002) at the Bioethics Committee of the Public Health Agency designated by the Ministry of Health and Welfare of the Republic of Korea.

본 발명에 따른 디지털 작업의 진행 방향이 피촬영자의 생김새나 연령, 성별, 피부색을 중심으로 설계하지 않았으므로 피촬영자를 선별하지는 않았지만 안면에 흉터가 있거나 여드름으로 인한 피부 화농이 심한 상태, 피부에 상처가 있거나 아토피 증세가 있는 경우 피촬영자에서 제외하였다.Since the direction of the digital work according to the present invention is not designed mainly on the appearance, age, sex and skin color of the photographer, the photographer is not selected, but there is a scar on the face, a serious condition of acne due to acne, Or atopic symptoms were excluded.

또한, 사진 촬영이 진행되는 약 30분의 시간 동안 피촬영자가 움직이지 않아야 하므로 틱 장애나 이와 유사한 행위의 대상자는 제외하였다. In addition, subjects who had tic disorder or similar behavior were excluded because the photographer should not move for about 30 minutes during the photo shoot.

본 발명은 특수분장을 필요로 하는 일반적인 배우를 기준으로 디지털 작업의 가능성을 파악하고자 하였으므로 20대 미만의 미성년자는 피촬영자에서 제외하였다.Since the present invention was intended to determine the possibility of digital operation based on a general actor who needs special makeup, minors younger than 20 were excluded from the photographer.

참고로, 카메라(120)는 Canon in Korea 사의 제품(EOS 5Ds R BODY, EF24-70mm F2.8L ⅡUSM, Korea)을 이용하였으며, 삼각대(113)는 Vanguardkorea 사의 제품(VEO 2 235CB, Korea)을 이용하였으며, 돌리(111, dolly)는 ACE PHOTO 사의 제품(TMK 삼각대 dolly DL-670, Korea)을 사용하였다.For the reference, the camera 120 is a product of Canon in Korea (EOS 5Ds R BODY, EF24-70mm F2.8L IIUSM, Korea) and the tripod 113 is a product of Vanguardkorea (VEO 2 235CB, Korea) And dolly (111, dolly) was a product of ACE PHOTO (TMK tripod dolly DL-670, Korea).

그리고, 반사판(이하 미도시)은 팜엔고 사의 제품(3 WAY 반사판, Korea)을, 조명(이하 미도시)은 SLRPHOTO 사의 제품(ET4040T 75W, Korea)을, 조명 거치대(이하 미도시)는 SLRPHOTO 사의 제품(ET4040T, Korea)을, 휴대폰 카메라(이하 미도시)는 삼성전자의 제품(갤럭시 S9 플러스 4032×3024, Korea)을 사용하였다.The SLRPHOTO product (ET4040T 75W, Korea) was used for the illumination (hereinafter referred to as "MEASHI"), the SLRPHOTO (ET4040T, Korea), and a mobile phone camera (hereinafter referred to as "the camera") was Samsung Electronics' product (Galaxy S9 Plus 4032 × 3024, Korea).

또한, 워크스테이션(이하 미도시)은 라쿤텍 사의 제품(E-52620 V4 브로드웰, Korea)을, 모니터(이하 미도시)는 삼성전자의 제품(LC32F397F 32형, Korea)을, 타블렛(이하 미도시)은 Wacom 사사의 제품(CTH-690, Korea)을, 3D 프린터(510)는 ㈜Former’s farm 사의 제품(LUGO_XL, Korea)을 사용하였다.A monitor (hereinafter referred to as "LC32F397F 32 type, Korea") of a monitor (hereinafter referred to as "LC32F397F 32", Korea), a tablet (hereinafter referred to as " (CTH-690, Korea) and 3D printer 510 (Former's farm product, LUGO_XL, Korea) were used.

아울러, 포토그래메트리 소프트웨어로는 Capturing Reality 사의 제품(RealityCapture Promo, Slovakia)을, 모델링 소프트웨어는 Pixologic 사의 제품(ZBrush 4R8, United states America)을, 슬라이싱 소프트웨어(Slicing software)는 Raise 3D 사의 제품(Ideamaker 3.1.7, United states America)을 사용하였다. The modeling software is Pixologic's product (ZBrush 4R8, United States America), the slicing software is Raise 3D's product (Ideamaker), the product of Catephant Reality (RealityCapture Promo, Slovakia) 3.1.7, United States America).

전술한 데이터 취득은 카메라(120), 즉 디지털 카메라와 휴대폰 카메라를 이용하여 이용하여 연구대상자의 3차원 형상 구축을 위한 정보를 획득하는 전술한 제1 내지 제3 단계(S1~S3)이다.The data acquisition described above is the first to third steps S1 to S3 for acquiring information for constructing the three-dimensional shape of the study subject using the camera 120, that is, the digital camera and the mobile phone camera.

피촬영자(400)는 하루 3시간씩 총 8일 동안 14외에 걸쳐 실내 직접 조명 아래 설치된 회전 의자(170)에 앉히고 촬영을 실시하였다.The person 400 to be photographed was seated on a rotating chair 170 provided under indoor direct lighting for 14 hours for a total of 8 days for three hours a day and photographed.

카메라(120)는 안정적인 촬영을 위하여 삼각대(113) 위에 고정시키고 삼각대(113)와 돌리(111)를 연결하여 카메라(120)의 이동이 용이하도록 도모하였다.The camera 120 is fixed on the tripod 113 for stable photographing and the tripod 113 and the dolly 111 are connected to facilitate the movement of the camera 120. [

바닥면에 회전 의자(170)를 중심으로 대략 70cm 내외의 원을 그리고 16개 또는 32개의 점을 동일한 간격으로 분할한 후 마킹하여 해당 지점에서 촬영을 실시하였다.Around a circle of about 70 cm around the rotating chair 170 on the floor, 16 or 32 points were divided at the same intervals, and then the marks were shot at the corresponding points.

피촬영자(400)에 대한 촬영은 피촬영자(400)의 이미지가 일정 부분 겹쳐지도록 360도 또는 180도 회전하면서 촬영하였고, 카메라(120)의 줌인 및 줌아웃 기능을 활용하여 한 지점에서 거리의 차등을 두고 3회 연속 촬영(도 2의 좌측 일점 쇄선 박스 안의 이미지들 참조)하거나, 한 지점에서 1회 촬영하는 두 가지 방식으로 이미지 정보를 획득하였다.The photographing of the person 400 to be photographed is performed by rotating 360 degrees or 180 degrees so that the image of the person 400 to be photographed overlaps to a certain extent and the difference of the distances at one point is obtained by using the zoom- The image information was acquired in two ways: three consecutive shots (see the images in the left one-dot chain box in Fig. 2) or one shot at one point.

피촬영자(400)의 머리카락은 무늬가 크고 컬러가 선명한 두건(410) 씌워 보이지 않도록 처리하고 얼굴과 목 부위의 그림자가 드리우지 않도록 상반신 옷은 탈의를 하고 어깨가 없는 가운을 입고 촬영을 하였다. The photographer 400 hair was covered with a hood 410 having a large pattern and a clear color. In order to prevent the shadow of the face and neck from spreading, the upper body was dressed and photographed wearing a shoulderless gown.

사진스캔 프로그램을 통해 생성된 3차원 모델링 데이터에는 절대 좌표 정보가 없는데, 절대 좌표 값은 사진 자료에서 필요하지 않기 때문이다.The 3D modeling data generated by the photo-scanning program does not have absolute coordinate information, because the absolute coordinate values are not needed in the photographic material.

실측자료를 얻기 위해서는 크기를 측정할 수 있는 정보가 입력되어야 하므로 연구대상자의 머리와 가슴에 고속절단기로 자른 정육면체(가로 30mm×세로 30mm×높이 30mm)와 직육면체(가로 80mm×세로 80mm×높이 30mm)모양의 실제 마커(410, 420)를 부착하여 지표로 삼았다. In order to obtain the actual measurement data, information to be able to measure the size must be input. Therefore, a cubic body (30 mm × 30 mm × 30 mm) and a rectangular parallelepiped (80 mm × 80 mm × 30 mm) Shaped actual markers 410 and 420 were attached and used as an index.

사진 정보는 카메라의 종류, 조명의 위치, 카메라의 회전 범위, 회전 반경에 대한 촬영 지점 개수, 촬영 횟수, 촬영 높이(각도)에 대한 변화, 한 지점에서 촬영한 횟수, 피부 질감을 다르게 설정한 후 촬영하였다.The photograph information is set after different setting of the type of the camera, the position of the illumination, the rotation range of the camera, the number of shooting points with respect to the turning radius, the number of shots, the change in shooting height (angle) .

촬영한 이미지 정보는 데이터취득기(210)를 통하여 읽어들여져 연산기(230), 구체적으로는 RealityCapture Promo를 통해 포인트 클라우드를 획득하였고, 연산기(230)로부터 생성된 포인트 클라우드를 출력데이터생성기(220)가 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성한 결과값의 차이를 관찰하였다.The photographed image information is read through the data acquisition unit 210 and obtained a point cloud through the operator 230, specifically, RealityCapture Promo. The point cloud generated from the operator 230 is output to the output data generator 220 We observed the difference in the result of forming a mesh which is a set of polygons by matching.

그 중 출력하여 결과를 확인하기에 가장 적합한 데이터를 선별하여 후처리 유닛(300)의 후처리기(310),즉 ZBrush 4R8로 후처리한 후 3D 프린터(510)로 출력하여 사용 가능성을 확인하였다. And selects the data most suitable for outputting the results, and post-processes the data to the post-processor 310 of the post-processing unit 300, that is, ZBrush 4R8, and outputs the processed data to the 3D printer 510 to check the usability.

본 발명은 촬영한 이미지 정보를 토대로 포인트 클라우드를 획득한 후 메쉬로 가공하여 촬영 조건의 변수에 대한 결과 값의 차이를 관찰한 후 비교 분석하였다. The present invention acquires a point cloud on the basis of photographed image information, processes it with a mesh, and observes the difference of the resultant values of the photographing conditions.

비교 분석한 결과를 토대로 포토그래메트리 방식으로 사람의 두상과 안면에 대한 신체 모형을 3D 모델링으로 생성시키기 위한 최적의 조건을 파악하였으며 특히 레이저 스캐너와 같이 실측자료를 얻을 수 있는 방법을 제시하여 3D 프린터(510)로 출력한 후 사용 가능성을 확인하였다. Based on the results of the comparative analysis, we have identified the optimal conditions for generating 3D modeling of body model for human head and face using photogrammetric method. In particular, And outputted to the printer 510, and confirmed the possibility of use.

모든 디지털 작업의 평가 기준과 평가 방법은 본 발명에 따른 디지털 작업 이후 생성되는 결과물, 즉 복수의 몰드(610, 620, 530, 640)들을 토대로 진행하였다. The evaluation criteria and the evaluation method of all the digital works proceeded on the basis of the result produced after the digital work according to the present invention, namely a plurality of molds 610, 620, 530, 640.

제4 단계(S4)에 관하여 살펴보기에 앞서서, 메쉬를 생성하는 방법은 오랫동안 다양하게 연구되어왔다. Before looking at the fourth step (S4), a method of generating a mesh has been studied for a long time.

주로 2D를 기반으로 연구되어졌으며 3D로 확장시켜 사용하고 있다. It has been studied mainly based on 2D and is being expanded to 3D.

정합과정은 공통되는 세 점을 이용한 이니셜 정합과 소프트웨어적으로 모든 점을 비교하여 보다 정확하게 위치를 맞추어주는 글로벌 정합으로 구분된다.The matching process is divided into initial matching using three common points and global matching by comparing all points by software and matching more precisely.

촬영하는 카메라(120)의 해상도에 따라 포인트 클라우드의 생성 수가 달라지며 포인트 클라우드의 정합과정에 따른 결과가 트라이앵글의 카운트 수치 차이로 나타나는 것을 알 수 있다.It can be seen that the number of point cloud generation is changed according to the resolution of the camera 120 to be photographed and the result of the point cloud matching process is represented by the difference of the count value of the triangle.

카메라의 해상도 이외 사진 촬영 시 메쉬 생성 결과에 주목할 만한 차이를 보인 조건은 피촬영자(400)의 피부와 조명 상태, 그리고 촬영 방법에 따른 결과 값이었다.In addition to the resolution of the camera, the conditions that showed a remarkable difference in the mesh generation result when photographing were the result of the skin, lighting condition, and photographing method of the photographer 400.

피촬영자(400)의 피부는 아무 것도 도포하지 않은 상태로 사진 촬영 시 조명의 반사로 피부 표면 상태가 촬영되었으며, 조명을 받아 광택이 나는 돌출된 부위는 메쉬가 생성되지 않아 비어있거나 조밀하지 않게 생성된 것을 확인하였다.The state of the skin surface was photographed by reflection of illumination when photographing the photograph of the photographer 400 without applying any skin, and the protruding portion which was illuminated by the illumination was not formed in the mesh, .

이러한 결함 부위는 사진으로 정확한 정보를 제공하지 못하게 되어 포인트 클라우드를 형성하지 못하므로 이런 경우 단면 혹은 임의의 중간 데이터를 생성하여 연결시키게 되는데 그 결과 정보를 획득되지 못한 부분은 손상되어 사라지게 되는 것이다.These defects do not provide accurate information on photographs and thus do not form a point cloud. In this case, a cross section or arbitrary intermediate data is generated and connected. As a result, the part where information is not obtained is damaged and disappears.

조명과 피부 질감 표현은 사진 촬영 시 중요한 관계이므로 두 가지의 상황을 고려하여 촬영 환경을 만들어야 한다는 것을 파악할 수 있다.Since the expression of light and skin texture is an important relation in photographing, it can be understood that the shooting environment should be created in consideration of two situations.

포토그래메트리 방식의 3D 스캐닝은 사진 정보를 기준으로 위치 정보를 포인트 클라우드로 만들어 메쉬를 생성하게 되는데 레이저 스캐너와 마찬가지로 표면물질별 반사에 따른 결과가 그대로 표현된 사진 정보는 메쉬 형성에 영향을 미치게 되며 사람의 피부가 가지고 있는 표면 반사율은 포인트 클라우드 형성에 부정적인 영향을 미치는 것으로 파악된다.The 3D meshing of the photogrammetric method creates the meshes by making the position information into the point cloud based on the photographic information. Like the laser scanner, the photographic information that expresses the result according to the reflection of the surface material affects the mesh formation And the surface reflectivity of human skin is found to have a negative influence on point cloud formation.

윤이 나거나 번들거리는 피부의 질감을 매트(matte)하게 변화시키고 조명을 직접적으로 강하게 비추지 않는 것이 좋은 메쉬를 얻을 수 있는 방법임을 확인하였다.It has been confirmed that it is a good way to obtain a good mesh by changing the texture of the glazed or shiny skin to matte and not directly lighting the illumination.

카메라(120)의 회전반경이 360°일 경우 피부 질감에 따른 메쉬 형성의 결과물 차이를 확인할 수 있다. When the rotation radius of the camera 120 is 360 °, the resultant difference of the mesh formation according to the skin texture can be confirmed.

다만, 카메라(120)의 회전반경이 360°인 경우는, 회전반경이 180°인 경우에 비해 촬영시간이 오래 걸리므로 피촬영자(400)가 움직일 수밖에 없고 정확하게 일치하지 않는 사진 때문에 컴퓨터의 연산과정에서 생기는 콤포넌트(component)의 수가 많아져 정확한 데이터를 얻을 수 있는 확률이 낮아지게 된다.However, in the case where the rotation radius of the camera 120 is 360, the photographing time is longer than that in the case where the rotation radius is 180, so that the photographee 400 is forced to move, The number of components generated by the number of components increases and the probability of obtaining accurate data becomes low.

살아있는 사람을 대상으로 포토그래메트리 방식을 적용하고자 한다면 촬영 시간을 가능한 짧게 진행해야 함을 알 수 있는 부분이다.If you want to apply a photogrammetric method to a living person, you know that the shooting time should be as short as possible.

사진 촬영 시 초점의 위치에 따라 메쉬의 생성 결과도 달라지므로 초점이 어디인지 컴퓨터가 정확하게 인지할 수 있는 방법으로 사진을 촬영해야 한다.Because the mesh produces different results depending on the position of the focus when taking a picture, you should shoot the picture in such a way that the computer knows exactly where the focus is.

다음으로, 후처리를 실시하기 위한 제5 단계(S5)를 살펴보기 전에, 스캔 데이터, 역설계를 전문적으로 다루는 InnvMetric Software Inc.의 PolyWorks software와는 달리 지브러시 프로그램은 1.5GB 이상의 3D 데이터를 임포트(import)할 수 없다.Next, before examining the fifth step (S5) for post-processing, unlike the PolyWorks software of InnvMetric Software Inc., which specializes in scan data and reverse design, the Zebra-style program imports more than 1.5 GB of 3D data )Can not.

본 발명에서 취득된 적절한 메쉬 데이터에서 트라이앵글 카운트(triangle’s count)는 24.3M(24258034)로 메쉬로 전환한 후 OBJ 파일로 엑스포트(export)하였을 때 데이터의 크기는 1.77GB 이다.The triangle's count in the mesh data obtained in the present invention is converted to mesh with 24.3M (24258034), and then exported to the OBJ file. The size of the data is 1.77 GB.

지브러시 프로그램을 통해 후처리를 진행하려면 스캔 데이터의 형상 정보가 왜곡되지 않는 상태로 메쉬의 양을 적절하게 줄여 엑스포트 해주어야 하는데, 메쉬의 양을 줄이기 위해서 트라이앵글 카운트를 줄여줘야 한다.To process post-processing through the Zibrisy program, the geometry information of the scan data should be exported with the amount of meshes properly reduced so that the shape information is not distorted. In order to reduce the amount of meshes, the triangle count should be reduced.

트라이앵글 카운트를 줄여도 메쉬의 밀도가 동일하게 줄어들기 때문에 형상 정보는 크게 왜곡되지 않는다. Even if the triangle count is reduced, since the density of the mesh is reduced to the same degree, the shape information is not largely distorted.

본 발명는 피촬영자(400) 얼굴의 정면, 양쪽 측면, 목선과 두상의 흐름을 스캔 데이터로 파악하고자 하였으므로 목 아래 부위는 삭제하고 형상출력 준비기(512), 즉 지브러시에서 제공하는 데모 헤드(demo head)와 병합시켜 라이프 캐스팅 후 양각 몰드(positive mold, 610, 620, 630, 640)로 사용하기에 용이한 형태, 즉 도 3에서 도시된 바와 같은 출력준비 데이터의 형태로 수정하였다.Since the flow of the front face, both sides, the neckline, and the head of the face of the photographer 400 is to be grasped as scan data, the part under the neck is deleted and a demo head (demo head) 620, 630, and 640 after life casting, that is, in the form of output preparation data as shown in FIG.

참고로, 도 3(a) 내지 도 3(c)는 수정전의 데이터이며, 도 3(d) 내지 도 3(f)는 수정후의 데이터이다.3 (a) to 3 (c) are data before modification, and FIGS. 3 (d) to 3 (f) are data after modification.

그리고, 도 3(a) 및 도 3(d)는 정면 데이터를, 도 3(b) 및 도 3(e)는 좌측면 데이터를, 도 3(c) 및 도 3(f)는 우측면 데이터를 각각 나타낸다.3 (a) and Fig. 3 (d) show frontal data, Figs. 3 (b) and 3 (e) show left side data, Respectively.

다음으로, 출력후 비교 분석을 위한 제6 단계(S6) 내지 제8 단계(S8)를 살펴보기에 앞서서, 일반적으로 지브러시 프로그램 안에서 오브젝트의 유닛(unit)은 실제 사이즈와 비례하므로 사이즈 조절을 통해 유닛, 즉 1 유닛을 1mm로 맞춰 준다. Next, since the unit of the object is generally proportional to the actual size before the sixth step (S6) to the eighth step (S8) for the post-output comparative analysis, , That is, one unit is set to 1 mm.

그러나, 본 발명에서의 자료는 실측되어 입력된 것이 아니므로, STL 파일로 전환하여 엑스포트할 때 x, y, z 축에 대한 크기(mm)를 별도로 설정해줘야 한다. However, since the data in the present invention is not actually measured and input, it is necessary to separately set the size (mm) for the x, y, and z axes when converting into the STL file and exporting.

피촬영자(400)의 두건(410)에 부착해 놓은 실제 마커(420)를 활용하기 위해 임의로 y 축을 390mm, 380mm, 350mm로 설정하고 STL 파일로 전환하여 엑스포트를 실행한 후 3D 프린터(510)로 출력하여 가로×세로×높이 30mm인 정육면체 형상인 실제 마커(420)의 크기와 비교하였다. The y axis is arbitrarily set to 390 mm, 380 mm, and 350 mm in order to utilize the actual markers 420 attached to the hood 410 of the photographee 400. After converting the STL files into exported STL files, the 3D printer 510 And compared with the size of a real marker 420 having a shape of a cube having dimensions of length x width x height 30 mm.

스케일(Scale)은 별도의 설정을 하지 않는 한 동일한 비율로 증가 혹은 감소하므로 3개의 축 중 y축 하나의 길이만 설정해도 동일한 비율로 증감한다. Scale is increased or decreased at the same rate unless otherwise specified. Therefore, even if only one length of y axis among three axes is set, the same ratio is increased or decreased.

출력 마커(670)가 부착되어 있는 부위를 슬라이싱 프로그램으로 자룬 후 해당 부위만 출력하여 실제 마커(420)의 크기와 동일한지 측정하였고 측정결과 y축을 350mm로 설정한 STL 파일의 출력물이 도 4에 도시된 바와 같이 실제 크기와 동일함을 확인하였다.A portion where the output marker 670 is attached is cut out by a slicing program, and only the corresponding portion is output to measure whether it is the same as the size of the actual marker 420. The output of the STL file with the y axis set to 350 mm is shown in FIG. As shown in Fig.

참고로, 도 4에서 도 4(a) 내지 도 4(e)는 3D 프린터(510)로 출력하기 전에 작성된 출력준비 데이터를, 도 4(f) 내지 도 4(j)는 3D 프린터(510)로 출력한 결과물인 복수의 몰드(610, 620, 630, 640) 및 이들을 조립하여 촬영한 출력 오브젝트의 사진을 각각 나타낸 것이다.4 (a) to 4 (e) show output preparation data created before outputting to the 3D printer 510, and FIGS. 4 (f) to 4 (j) A plurality of molds 610, 620, 630, and 640 as a result of being output to the molds 610, 620, 630, and 640, respectively.

본 발명에서는 저가의 개인 보급형 FDM 방식의 3D 프린터를 사용하여 3D 스캔 데이터를 출력한 후 활용 가능성을 분석해보고자 하였다. In the present invention, the 3D scanned data is output using a low-cost, low-cost FDM-type 3D printer, and then the possibility of utilization is analyzed.

현재 판매되고 있는 FDM 방식 3D 프린터의 출력 사이즈는 300×300×300mm 미만이 일반적이다. The output size of the FDM type 3D printer currently sold is generally less than 300 x 300 x 300 mm.

사람의 두상을 출력하기 위해서는 300×300×300mm 이상의 빌드 볼륨(build volume)이 필요하며, 빌드 볼륨에 반비례하는 정확도나 출력물의 품질 상태를 고려한다면 고가의 제품이 구비되어야만 원하는 출력물을 확보할 수 있으므로 일반적인 작업자들에에게는 경제적으로 부담이 될 수 있다. A build volume of 300 × 300 × 300mm or more is required to output a person's head, and in consideration of the accuracy in inverse proportion to the build volume and the quality of the output quality, It can be an economical burden for general workers.

또한 300×300×300mm의 크기를 출력하는데 걸리는 시간이 G-code 설정에 따라 달라지지만 최소 72시간 이상 걸리게 되는데 출력하는 동안 베드의 접착력, 레벨링의 문제, G-code 설정 시 출력물의 조형 형태나 배치 등의 문제로 인하여 출력에 실패할 확률이 높다. In addition, although the time required to output the size of 300 × 300 × 300 mm depends on the G-code setting, it takes at least 72 hours. During the output, there is the problem of the bonding strength of the bed, the leveling problem, The output is likely to fail.

따라서 커다란 크기의 출력물은 복수의 몰드(610, 620, 630, 640) 형태로 분할함으로써 출력하는 데 소요되는 시간을 줄이는 것이 일반적인 방법이며 이때 각 출력물을 접합할 수 있도록 키(650) 및 키 홀(660)을 만들어 주는 작업이 필요하다.Accordingly, it is a common practice to reduce the time required for outputting a large-size output by dividing it into a plurality of molds 610, 620, 630, and 640. In this case, the key 650 and the keyhole 660) is required.

이렇게 작성된 출력준비 데이터를 3D 프린터(510)로 출력하여 생산된 복수의 몰드(610, 620, 630, 640)를 접합한 상태로 출력 오브젝트의 정수리부에 있는 출력 마커(670)의 크기를 측정(도 1의 우측 하단 및 도 5 참조)한 결과, 3개의 출력 마커(670) 모두 가로,세로, 높이가 각각 30mm로 피촬영자(400)에게 부착해 둔 실제 마커(420)의 크기와 동일한 것을 확인하였다.The output preparation data thus prepared is outputted to the 3D printer 510 to measure the size of the output marker 670 in the top part of the output object in a state in which the plurality of produced molds 610, 620, 630, and 640 are joined As a result, it is confirmed that the three output markers 670 are equal to the size of the actual marker 420 attached to the photographer 400 as the width, height, and height are respectively 30 mm. Respectively.

한편, 전술한 바와 같은 본 발명에 따른 디지털 작업 방법이 가능하도록 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템은 도 2 및 도 3과 함께, 다음과 같이 촬영 유닛(100)과, 데이터취득 유닛(200)과, 후처리 유닛(300)과, 출력비교 유닛(500)을 포함하는 것을 파악할 수 있다.2 and 3, the digital working system for special dress using the photographic matrix and the 3D printer, which enables the digital working method according to the present invention as described above, A data acquisition unit 200, a post-processing unit 300, and an output comparison unit 500. [0064]

우선, 촬영 유닛(100)은 전술한 바와 같은 피촬영자(400)로부터 복수의 이미지 정보를 획득하기 위한 촬영을 실시하도록 한 것으로, 크게 이동체(110)와, 카메라(120)와, 카메라컨트롤러(130)를 포함하는 구조임을 파악할 수 있다.First, the photographing unit 100 performs photographing for acquiring a plurality of pieces of image information from the person 400 to be photographed as described above. The photographing unit 100 includes a moving body 110, a camera 120, a camera controller 130 ). ≪ / RTI >

여기서, 이동체(110)는 정, 역회전 가능하게 일정 위치에 정지한 특수분장용 피사체인 피촬영자(400)를 중심으로 일정 크기의 반경을 가진 이동경로를 따라 이동 가능한 것이다.Here, the moving body 110 is movable along a moving path having a predetermined radius around the subject 400 as a subject for special dressing, which is stationary at a predetermined position so as to be able to rotate forward and backward.

이때, 카메라(120)는 이동경로상에 등간격으로 설정된 복수의 정지 위치마다 피촬영자(400)의 안면과 두상 및 목 부분을 촬영 가능하도록 이동체(110)에 장착되는 단일로 구비된 것이다.At this time, the camera 120 is provided as a single unit mounted on the moving body 110 so that the face, head, and neck of the subject 400 can be photographed at a plurality of stop positions set at regular intervals on the movement path.

또한, 카메라컨트롤러(130)는 복수의 정지 위치 각각에서 피촬영자(400)의 촬영 이미지가 일정 부분 겹쳐지게 카메라(120)를 회전시켜 피촬영자(400)를 촬영하거나 카메라(120)의 줌인 및 줌아웃 기능을 이용하여 복수의 정지 위치 각각에서 피촬영자(400)를 적어도 1회 이상 촬영하도록 카메라(120)를 제어하는 것이다.The camera controller 130 also controls the camera 120 to rotate the camera 120 so that the photographed image of the person 400 to be photographed overlaps at a plurality of stop positions to photograph the photographer 400 or zoom in and zoom out of the camera 120 Function is used to control the camera 120 to photograph the subject 400 at least one time at each of a plurality of stop positions.

한편, 데이터취득 유닛(200)은 촬영 유닛(100)에 의하여 복수의 정지 위치 각각에서 적어도 1회 이상 촬영된 복수의 피촬영자(400)의 촬영 이미지 정보를 읽어들여 연산함으로써 포인트 클라우드를 생성하고, 생성된 포인트 클라우드를 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하는 것이다.On the other hand, the data acquisition unit 200 reads the image pickup information of the plurality of to-be-photographed persons 400 photographed at least one time at each of the plurality of stop positions by the image pickup unit 100 to generate a point cloud, The generated point clouds are matched to form a mesh, which is a set of polygons.

또한, 후처리 유닛(300)은 데이터취득 유닛(200)에 의하여 형성된 메쉬의 데이터 용량을, 3D 프린터(510)로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트(export)시키는 프로세스를 수행하기 위한 것이다.In addition, the post-processing unit 300 converts the data capacity of the mesh formed by the data acquisition unit 200 into a polygon within a range that the shape information is not distorted when the 3D printer 510 outputs the 3D shape And to export the data in the form of output data for which the number of triangles is reduced.

한편, 출력비교 유닛(500)은 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(610, 620, 630, 640, mold) 형태로 분할되게 데이터 처리한 다음 출력된 복수의 몰드(610, 620, 630, 640)를 서로 조립 가능하도록 복수의 몰드(610, 620, 630, 640) 각각에 키(650, key)와 키 홀(660, key hole)을 형성하여 출력하는 3D 프린터(510)를 포함할 수 있다.On the other hand, the output comparison unit 500 reads the output data, processes the output object in a form of a plurality of molds 610, 620, 630, 640, and mold based on a specific position, A 3D printer (650) for forming a key (650, key) and a key hole (660) in each of a plurality of molds (610, 620, 630, 640) 510).

또한, 출력비교 유닛(500)은 출력된 복수의 몰드(610, 620, 630, 640) 중 하나의 몰드 외면에 형성된 적어도 하나의 출력 마커(670)와 촬영 유닛(100)에 의하여 촬영하기 전에 피촬영자(400)의 머리카락을 감추도록 씌워진 두건(410)에 장착된 적어도 하나의 실제 마커(420)와의 치수를 비교하는 분석기(520)를 포함할 수도 있다.The output comparison unit 500 also includes at least one output marker 670 formed on the outer surface of one of the output molds 610, 620, 630 and 640, And an analyzer 520 for comparing the dimensions of at least one actual marker 420 mounted on the hood 410 which is covered to cover the hair of the photographer 400. [

이때, 실제 마커(420)는 조명과 반사판에 의한 이미지와 이미지 정보의 왜곡을 방지하도록 무광택의 소재로 이루어지도록 하는 것이 바람직하다.At this time, it is preferable that the actual markers 420 are made of a matte material so as to prevent distortion of image and image information due to illumination and reflector.

한편, 전술한 촬영 유닛(100)은, 도 6을 참조하여 더욱 구체적으로 살펴보면, 피촬영자(400)가 정, 역회전 가능하게 일정 위치에 정지하여 앉을 수 있도록 마련된 회전 의자(170)를 더 구비할 수 있다.6, the photographing unit 100 may further include a rotating chair 170 provided to allow the subject 400 to stand and sit at a predetermined position so as to be able to rotate forward and backward can do.

그리고, 촬영 유닛(100)은, 회전 의자(170)를 중심으로 일정 크기의 반경을 가진 이동경로를 형성하는 레일(140)을 더 구비할 수 있다.The photographing unit 100 may further include a rail 140 that forms a movement path having a predetermined radius around the rotary chair 170.

그리고, 촬영 유닛(100)은, 이동체(110)를 구성하는 것으로, 레일(140)을 따라 이동하는 복수의 방향성 캐스터(112)가 장착된 돌리(111, dolly)를 더 구비할 수 있다.The photographing unit 100 constitutes the moving body 110 and may further include a dolly 111 to which a plurality of directional casters 112 moving along the rails 140 are mounted.

그리고, 촬영 유닛(100)은, 이동체(110)를 구성하는 것으로, 돌리(111)의 상부측에 탈착 가능하게 결합되어 높낮이 조절 및 경사각 조절이 가능한 삼각대(113)를 더 구비할 수 있다.The photographing unit 100 constitutes the moving body 110 and may further include a tripod 113 detachably coupled to the upper side of the dolly 111 and capable of adjusting the height and the inclination angle.

그리고, 촬영 유닛(100)은, 이동체(110)를 구성하는 것으로, 카메라(120)가 탈착 결합되도록 삼각대(113)의 상단부에 결합되어 카메라(120)의 촬영셔터 버튼을 수동 또는 자동 원격 조작하거나 줌인 및 줌아웃 또는 팬(PAN)과 틸팅(TILTING)을 제어하는 카메라컨트롤러(130)가 구비되고, 상하 좌우 요동을 억제하는 짐벌(114)을 더 구비할 수 있다.The photographing unit 100 constitutes the moving body 110. The photographing unit 100 is coupled to the upper end of the tripod 113 so that the camera 120 can be detached and attached to manually or automatically remotely operate the photographing shutter button of the camera 120 A camera controller 130 for controlling zooming in and zooming out or PAN and tilting can be further provided and the gimbals 114 for suppressing up, down, left, and right rocking can be further provided.

또한, 촬영 유닛(100)은, 레일(140)을 따라 등간격으로 장착되어 방사상으로 배치되는 복수의 보강 리브(141)들 상에 배치되어 복수의 정지 위치를 정의하고, 돌리(111)가 이동하여 복수의 정지 위치 각각에 위치할 때마다 돌리(111)를 정지시켜 카메라컨트롤러(130)의 가동에 따른 카메라(120)의 촬영을 유도하는 위치결정 수단(150)을 더 구비할 수도 있다.Further, the photographing unit 100 is arranged on the plurality of reinforcing ribs 141 radially disposed at regular intervals along the rail 140 to define a plurality of stop positions, and the dolly 111 is moved And position determining means (150) for stopping the dolly (111) and guiding the photographing of the camera (120) according to the operation of the camera controller (130) whenever the camera (130) is positioned at each of the plurality of stop positions.

아울러, 촬영 유닛(100)은, 회전 의자(170)의 하단부와 돌리(111)를 상호 연결하며, 회전 의자(170)의 정, 역회전과 별개로 구동력을 전달받아 위치결정 수단(150)과 연동하여 돌리(111)를 레일(140)을 따라 이동 및 정지되게 가동시키는 구동전달계(160)를 더 구비할 수도 있음은 물론이다.The photographing unit 100 connects the lower end of the rotating chair 170 and the dolly 111 and receives the driving force separately from the forward and reverse rotations of the rotating chair 170, And a drive transmission system 160 for moving the dolly 111 along the rail 140 and stopping it.

여기서, 위치결정 수단(150)은, 복수의 정지 위치마다 레일(140)에 복수로 구비된 보강 리브(141)상에 장착되며, 경사 회동하여 돌출되는 방향으로 작용력을 발생시키는 위치결정 스위치(151)를 포함할 수 있다.The positioning means 150 includes a positioning switch 151 mounted on a plurality of reinforcing ribs 141 provided on the rails 140 at a plurality of stop positions and generating an action force in a direction of projecting obliquely ).

이때, 위치결정 스위치(151)는 회전 이동하는 구동전달계(160)의 로터 암(162) 단부의 접촉자(163)에 접촉됨으로써, 구동전달계(160)의 스텝모터(161) 가동을 일시 정지시키는 신호를 스텝모터(161)측에 전달하게 되는 것이다.At this time, the positioning switch 151 is brought into contact with the contactor 163 at the end of the rotor arm 162 of the drive transmission system 160, which rotates, so that the signal for temporarily stopping the operation of the step motor 161 of the drive transmission system 160 To the step motor 161 side.

한편, 구동전달계(160)는, 일정 각도만큼 시계방향 또는 반시계방향으로 회전하고 정지하는 구동축(161s)을 구비한 스텝모터(161)를 포함할 수 있다.On the other hand, the drive transmission system 160 may include a step motor 161 having a drive shaft 161s that rotates and stops clockwise or counterclockwise by a predetermined angle.

또한, 구동전달계(160)는, 구동축(161s)에 결합된 회전자(162r)를 구비하고 돌리(111)측으로 연장되며, 회전 의자(170)의 하단부에 배치되어 회전 의자(170)의 정, 역회전과 별개로 스텝모터(161)로부터 구동력을 전달받아 구동축(161s)과 연동 회전하는 로터 암(162)을 포함할 수도 있다.The drive transmission system 160 includes a rotor 162r coupled to the drive shaft 161s and extends toward the dolly 111 and is disposed at the lower end of the rotary chair 170 to rotate the rotary chair 170, And a rotor arm 162 that receives the driving force from the step motor 161 separately from the reverse rotation and rotates in conjunction with the driving shaft 161s.

아울러, 구동전달계(160)는, 로터 암(162)의 단부에 구비되어 돌리(111)와 연결되고, 위치결정 수단(150)과 접촉하는 접촉자(163)를 포함할 수도 있다.The drive transmission system 160 may include a contact 163 provided at the end of the rotor arm 162 and connected to the dolly 111 and in contact with the positioning means 150.

한편, 데이터취득 유닛(200)은, 피촬영자(400)의 복수의 촬영 이미지 정보를 읽어들이는 데이터취득기(210)를 구비할 수 있다.On the other hand, the data acquisition unit 200 may include a data acquisition unit 210 that reads a plurality of pieces of captured image information of the to-be-

그리고, 데이터취득 유닛(200)은, 데이터취득기(210)가 읽어들인 복수의 촬영 이미지 정보를 연산하여 포인트 클라우드를 생성하는 연산기(230)를 포함할 수 있다.The data acquisition unit 200 may include an operation unit 230 that generates a point cloud by calculating a plurality of pieces of captured image information read by the data acquisition unit 210.

또한, 데이터취득 유닛(200)은, 연산기(230)로부터 생성된 포인트 클라우드를 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하는 출력데이터생성기(220)를 포함할 수도 있다.The data acquisition unit 200 may also include an output data generator 220 for matching a point cloud generated from the calculator 230 to form a mesh that is a set of polygons .

한편, 후처리 유닛(300)은, 읽어들인 메쉬의 데이터 용량을, 3D 프린터(510)로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트시키는 후처리기(310)를 포함할 수도 있다.On the other hand, the post-processing unit 300 converts the data capacity of the read mesh into the output capacity of the 3D printer 510, which reduces the number of triangles forming the polygon within a range such that the shape information is not distorted when the 3D printer 510 outputs the 3D shape. Processor 310 for exporting data in the form of data.

또한, 출력비교 유닛(500)은, 3D 프린터(510)와 전기적으로 연결되어 출력준비 데이터를 제작하는 형상출력 준비기(512)를 더 구비할 수도 있을 것이다.The output comparison unit 500 may further include a shape output preparation unit 512 electrically connected to the 3D printer 510 to produce output preparation data.

형상출력 준비기(512)는 후처리기(310)가 내보낸 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(610, 620, 630, 640, mold) 형태로 분할되게 데이터 처리한다.The shape output preparing unit 512 reads the output data output from the post-processor 310 and processes the output object in a form of a plurality of molds 610, 620, 630, 640, mold based on a specific position.

따라서, 형상출력 준비기(512)는 출력된 복수의 몰드(610, 620, 630, 640)를 서로 조립 가능하도록 복수의 몰드(610, 620, 630, 640) 각각에 키(650, key)와 키 홀(660, key hole)을 형성하여 출력되도록 하는 출력준비 데이터를 제작하게 되는 것이다.The shape output preparation unit 512 outputs a key 650 and a key to each of the plurality of molds 610, 620, 630, and 640 so that the output molds 610, 620, 630, So that output preparation data for forming and outputting a hole 660 (key hole) is produced.

이상과 같이 본 발명은 포토그래메트리와 3D 프린팅 기술을 융합하여 특수분장 분야의 기술 발전에 도움을 줄 수 있음은 물론, 포토그래메트리 방식을 이용하여 3D 모델링 데이터를 생성하고 3D 프린터로 결과물을 출력해봄으로써 특수분장의 디지털 작업에 대한 효율성을 대폭적으로 향상시킬 수 있도록 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템 및 이것을 이용한 디지털 작업 방법을 제공하는 것을 기본적인 기술적 사상으로 하고 있음을 알 수 있다.As described above, according to the present invention, a 3D modeling data can be generated by using a photogrammetric method as well as a technology development of a special makeup field by fusing a photogrammetry and a 3D printing technology, To provide a digital work system for a special makeup using a photogrammetric and 3D printer and a digital work method using it, which can greatly improve the efficiency of the digital work of a special makeup by outputting .

그리고, 본 발명의 기본적인 기술적 사상의 범주 내에서 당해 업계 통상의 지식을 가진 자에게 있어서는 다른 많은 변형 및 응용 또한 가능함은 물론이다.It will be apparent to those skilled in the art that many other modifications and applications are possible within the scope of the basic technical idea of the present invention.

100...촬영 유닛
110...이동체
111...돌리
112...방향성 캐스터
113...삼각대
114...짐벌
120...카메라
130...카메라컨트롤러
140...레일
141...보강 리브
150...위치결정 수단
151...위치결정 스위치
160...구동전달계
161...스텝모터
161s...구동축
162...로터 암
162r...회전자
163...접촉자
170...회전 의자
200...데이터취득 유닛
210...데이터취득기
220...출력데이터생성기
230...연산기
300...후처리 유닛
310...후처리기
400...피촬영자
410...두건
420...실제 마커
500...출력비교 유닛
510...3D 프린터
512...형상출력 준비기
520...분석기
610, 620, 630, 640...복수의 몰드
650...키
660...키 홀
670...출력 마커
S1...제1 단계
S2...제2 단계
S3...제3 단계
S4...제4 단계
S5...제5 단계
S6...제6 단계
S7...제7 단계
S8...제8 단계
100 ... shooting unit
110 ... mobile
111 ... Dolly
112 ... directional castor
113 ... Tripod
114 ... gimbal
120 ... camera
130 ... camera controller
140 ... rail
141 ... reinforced rib
150 ... positioning means
151 ... Positioning switch
160 ... drive transmission system
161 ... Step motor
161s ... drive shaft
162 ... rotor arm
162r ... rotor
163 ... contactor
170 ... rotating chair
200 ... data acquisition unit
210 ... data acquisition device
220 ... output data generator
230 ... operator
300 ... post-processing unit
310 ... Post-processor
400 ... photographer
410 ... hood
420 ... actual markers
500 ... output comparison unit
510 ... 3D Printer
512 ... shape output prepara
520 ... Analyzer
610, 620, 630, 640 ... plural molds
650 ... key
660 ... key hole
670 ... output marker
S1 ... Step 1
S2 ... Step 2
S3 ... Step 3
S4 ... Step 4
S5 ... Step 5
S6 ... Step 6
S7 ... Step 7
S8 ... Step 8

Claims (2)

정, 역회전 가능하게 일정 위치에 정지한 특수분장용 피사체인 피촬영자를 중심으로 일정 크기의 반경을 가진 이동경로를 따라 이동 가능한 이동체와, 상기 이동경로상에 등간격으로 설정된 복수의 정지 위치마다 상기 피촬영자의 안면과 두상 및 목 부분을 촬영 가능하도록 상기 이동체에 장착되는 단일의 카메라와, 상기 복수의 정지 위치 각각에서 상기 피촬영자의 촬영 이미지가 일정 부분 겹쳐지게 상기 카메라를 회전시켜 상기 피촬영자를 촬영하거나 상기 카메라의 줌인 및 줌아웃 기능을 이용하여 상기 복수의 정지 위치 각각에서 상기 피촬영자를 적어도 1회 이상 촬영하도록 상기 카메라를 제어하는 카메라컨트롤러를 포함하는 촬영 유닛;
상기 촬영 유닛에 의하여 상기 복수의 정지 위치 각각에서 적어도 1회 이상 촬영된 복수의 상기 피촬영자의 촬영 이미지 정보를 읽어들여 연산함으로써 포인트 클라우드를 생성하고, 생성된 상기 포인트 클라우드를 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하는 데이터취득 유닛;
상기 데이터취득 유닛에 의하여 형성된 상기 메쉬의 데이터 용량을, 3D 프린터로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 상기 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트(export)시키는 후처리 유닛; 및
상기 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(mold) 형태로 분할되게 데이터 처리한 다음 출력된 상기 복수의 몰드를 서로 조립 가능하도록 상기 복수의 몰드 각각에 키(key)와 키 홀(key hole)을 형성하여 출력하는 3D 프린터와, 출력된 상기 복수의 몰드 중 하나의 몰드 외면에 형성된 적어도 하나의 출력 마커와 상기 촬영 유닛에 의하여 촬영하기 전에 상기 피촬영자의 머리카락을 감추도록 씌워진 두건에 장착된 적어도 하나의 실제 마커와의 치수를 비교하는 분석기를 포함하는 출력비교 유닛을 포함하는 것을 특징으로 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템.
A moving object movable along a movement path having a radius of a predetermined size centered on a subject to be photographed which is a subject for special dressing which is stationary at a predetermined position in a forward and reverse directions, A single camera mounted on the moving body so as to be capable of photographing the face, head and neck of the person to be photographed; and a controller that rotates the camera so that the photographed image of the person to be photographed overlaps a certain portion at each of the plurality of stop positions, And a camera controller for controlling the camera to photograph the subject to be photographed at least once at each of the plurality of stop positions using a zoom-in and zoom-out function of the camera.
The point cloud is generated by calculating and reading imaging image information of a plurality of the to-be-photographed persons photographed at least once at each of the plurality of stop positions by the photographing unit, and the generated point cloud is matched (matched) a data acquisition unit forming a mesh which is a set of polygons;
The data capacity of the mesh formed by the data acquisition unit is exported in the form of output data in which the number of triangles constituting the polygon is reduced within a range that the shape information is not distorted when the 3D shape is outputted by the 3D printer a post-processing unit for exporting the data; And
Processing the output data by dividing the output object into a plurality of molds based on a specific position, and then outputting the plurality of molds to a plurality of molds, A 3D printer for forming and outputting a key hole, at least one output marker formed on an outer surface of one of the plurality of the molds outputted, and a control unit for concealing the hair of the person to be photographed before photographing by the photographing unit And an analyzer for comparing the dimensions of the at least one actual marker with the at least one actual marker mounted on the overlayed hood.
머리카락을 제외한 안면과 두부 및 목 부분을 포함한 상체를 촬영할 수 있도록 특수분장용 피사체인 피촬영자의 머리카락을 덮어 감싸는 두건을 장착하는 제1 단계;
일정 위치에 정, 역회전 가능하게 정지하여 앉은 상기 피촬영자를 중심으로 일정 크기의 반경을 가진 이동경로를 형성하는 레일과, 상기 레일상을 이동 가능한 이동체를 장착하고, 상기 이동체에 상하 좌우 요동을 억제하는 짐벌에 장착된 카메라를 세팅하는 제2 단계;
상기 레일 상에서 등간격으로 설저된 복수의 정지 위치마다 상기 이동체를 정지시킨 후 상기 피촬영자의 촬영 이미지가 일정 부분 겹쳐지게 상기 카메라를 회전시키거나 상기 카메라의 줌인 및 줌아웃 기능을 이용하여 상기 복수의 정지 위치 각각에서 상기 피촬영자를 적어도 1회 이상 촬영하여 상기 피촬영자의 촬영 이미지를 생성시키는 제3 단계;
데이터취득기가 상기 피촬영자의 복수의 촬영 이미지 정보를 읽어들여 연산기로 연산하여 생성한 포인트 클라우드를 출력데이터생성기가 정합(整合)하여 폴리곤(polygon)들의 집합인 메쉬(mesh)를 형성하는 제4 단계;
상기 메쉬를 읽어들인 후처리기가 상기 메쉬의 데이터 용량을, 3D 프린터로 3D 형상을 출력할 때 형상 정보가 왜곡되지 않을 정도의 범위 내에서 상기 폴리곤을 이루는 트라이앵글 수를 감소시킨 출력용 데이터의 형태로 엑스포트(export)시키는 제5 단계;
상기 3D 프린터와 전기적으로 연결되는 형상출력 준비기가 상기 출력용 데이터를 읽어들여 출력 오브젝트를 특정 위치를 기준으로 복수의 몰드(mold) 형태로 분할되게 데이터 처리한 다음 출력된 상기 복수의 몰드를 서로 조립 가능하도록 상기 복수의 몰드 각각에 키(key)와 키 홀(key hole)을 형성하여 출력되도록 하는 출력준비 데이터를 제작하는 제6 단계;
상기 3D 프린터가 상기 형상출력 준비기로부터 생성된 상기 출력준비 데이터를 읽어들여 상기 키와 상기 키 홀이 형성된 상기 복수의 몰드를 출력하는 제7 단계; 및
관리 서버와 네트워크로 연결된 분석기가 3D 형상으로 출력된 상기 복수의 몰드 중 하나의 몰드 외면에 형성된 적어도 하나의 출력 마커와, 상기 두건에 장착된 적어도 하나의 실제 마커와의 치수를 비교하는 제8 단계를 포함하는 것을 특징으로 하는 포토그래메트리와 3D 프린터를 활용한 특수분장용 디지털 작업 시스템을 이용한 디지털 작업 방법.
A first step of attaching a hood covering the hair of a person to be photographed, which is a subject for special makeup, so as to be able to take an image of the upper body including the face, head and neck excluding the hair;
A rail which forms a movement path having a radius of a predetermined size centered on the person to be photographed which is stationary and reversibly rotatable at a predetermined position, and a movable member which is movable on the rail, A second step of setting a camera mounted on the gimbal to be restrained;
The moving object may be stopped for each of a plurality of stop positions spaced equidistantly on the rail, and then the camera may be rotated so that the photographed image of the to-be-photographed person overlaps a certain portion, or the zoom- A third step of photographing the subject to be photographed at least once at each position to generate a photographed image of the subject to be photographed;
A fourth step of the data acquiring unit reading the plurality of photographed image information of the photographee and computing the point clouds generated by the arithmetic operation unit by the output data generator to form a mesh which is a set of polygons; ;
When the processor reads the mesh, the processor exports the data capacity of the mesh in the form of output data in which the number of triangles constituting the polygon is reduced to such a degree that the shape information is not distorted when the 3D shape is output to the 3D printer. a fifth step of exporting the data;
A shape output prepara- tor electrically connected to the 3D printer reads the output data, processes the output object into a plurality of molds based on a specific position, and then outputs the plurality of molds together A sixth step of producing output preparation data for forming a key and a key hole in each of the plurality of molds so as to be output;
A seventh step of the 3D printer reading the output preparation data generated from the shape output prepara- tor and outputting the key and the plurality of molds in which the keyhole is formed; And
An eighth step of comparing dimensions of at least one output marker formed on an outer surface of one of the plurality of molds output from the analyzer connected to the management server in a 3D form and at least one actual marker mounted on the hood, A digital working method using a digital working system for a special makeup utilizing a photogrammetry and a 3D printer.
KR1020190032732A 2019-03-22 2019-03-22 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this KR102006593B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190032732A KR102006593B1 (en) 2019-03-22 2019-03-22 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190032732A KR102006593B1 (en) 2019-03-22 2019-03-22 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this

Publications (1)

Publication Number Publication Date
KR102006593B1 true KR102006593B1 (en) 2019-08-01

Family

ID=67615728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190032732A KR102006593B1 (en) 2019-03-22 2019-03-22 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this

Country Status (1)

Country Link
KR (1) KR102006593B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102120610B1 (en) * 2020-03-03 2020-06-08 김숭현 Computer-aided Custom Orbital Prosthesis Fabrication Method
KR102659165B1 (en) 2023-07-20 2024-04-18 학교법인 정화예술대학 Method for creating a prosthetic finger based on digital techniques

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100372811B1 (en) 2000-12-19 2003-02-26 (주) 웹씨인터미디어 Method for Making 3D Face Model by Using a 2D Human Face Image
JP2003090714A (en) * 2001-09-18 2003-03-28 Shigenori Tanaka Image processor and image processing program
US20150382123A1 (en) * 2014-01-16 2015-12-31 Itamar Jobani System and method for producing a personalized earphone
KR20170000237A (en) * 2015-06-23 2017-01-02 캐논코리아비즈니스솔루션 주식회사 Three-dimensional Printer with apparatus which create digital hologram
KR20170011261A (en) * 2015-07-22 2017-02-02 이서진 Apparatus for hair style 3D simulation and method for simulating the same
KR101706626B1 (en) * 2016-08-05 2017-02-14 연재흠 Spall repair method using 3D printing technology for a concrete pavement

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100372811B1 (en) 2000-12-19 2003-02-26 (주) 웹씨인터미디어 Method for Making 3D Face Model by Using a 2D Human Face Image
JP2003090714A (en) * 2001-09-18 2003-03-28 Shigenori Tanaka Image processor and image processing program
US20150382123A1 (en) * 2014-01-16 2015-12-31 Itamar Jobani System and method for producing a personalized earphone
KR20170000237A (en) * 2015-06-23 2017-01-02 캐논코리아비즈니스솔루션 주식회사 Three-dimensional Printer with apparatus which create digital hologram
KR20170011261A (en) * 2015-07-22 2017-02-02 이서진 Apparatus for hair style 3D simulation and method for simulating the same
KR101706626B1 (en) * 2016-08-05 2017-02-14 연재흠 Spall repair method using 3D printing technology for a concrete pavement

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102120610B1 (en) * 2020-03-03 2020-06-08 김숭현 Computer-aided Custom Orbital Prosthesis Fabrication Method
KR102659165B1 (en) 2023-07-20 2024-04-18 학교법인 정화예술대학 Method for creating a prosthetic finger based on digital techniques

Similar Documents

Publication Publication Date Title
US11163976B2 (en) Navigating among images of an object in 3D space
Feng et al. Computer-assisted technique for the design and manufacture of realistic facial prostheses
Cheah et al. Integration of laser surface digitizing with CAD/CAM techniques for developing facial prostheses. Part 1: Design and fabrication of prosthesis replicas.
US8866883B2 (en) Synchronized views of video data and three-dimensional model data
EP2164424B1 (en) Graphical user interface for computer-assisted margin marking on dentition
Runte et al. Optical data acquisition for computer-assisted design of facial prostheses.
US8487962B2 (en) Augmented reality system for a dental laboratory
US20070160957A1 (en) Image based dentition record digitization
US20080015727A1 (en) Local enforcement of accuracy in fabricated models
KR20120106746A (en) Replaceable fairing for prosthetic limb or brace
WO1995015731A1 (en) Method and arrangement for collecting data for production of artificial support members or replacement parts for the human body
US20220233287A1 (en) Dental restoration assessment using virtual model
CN102961201A (en) Method for manufacturing personalized facial prosthesis by laser scanning and quick molding technologies
KR102006593B1 (en) Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this
Chang et al. Digital denture manufacturing-An integrated technologies of abrasive computer tomography, CNC machining and rapid prototyping
JP5362357B2 (en) Capture and process facial movement data
Wu et al. Computer-aided design and rapid manufacture of an orbital prosthesis.
Krajňáková et al. Application of the artec eva scanner for orthotics in practice
CN108992193A (en) A kind of Dental Erosion auxiliary design method
EP4224428A1 (en) Method for generating a virtual 4d head and teeth
KR102659165B1 (en) Method for creating a prosthetic finger based on digital techniques
El-Shewy Assessment of 3D Facial Scan Integration in 3D Digital Workflow Using Radiographic Markers and Iterative Closest Point Algorithm
Sun et al. A preliminary study on maxillofacial prosthesis using structured light three-dimensional scanning and rapid prototyping technique
Kohli et al. Concept of Rapid Protytping in Dentistry.
CN109003676A (en) A kind of Dental Aesthetic design method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant