KR20210023232A - 3d modeling process based on photo scanning technology - Google Patents

3d modeling process based on photo scanning technology Download PDF

Info

Publication number
KR20210023232A
KR20210023232A KR1020190103171A KR20190103171A KR20210023232A KR 20210023232 A KR20210023232 A KR 20210023232A KR 1020190103171 A KR1020190103171 A KR 1020190103171A KR 20190103171 A KR20190103171 A KR 20190103171A KR 20210023232 A KR20210023232 A KR 20210023232A
Authority
KR
South Korea
Prior art keywords
image
modeling
subject
photo scanning
data
Prior art date
Application number
KR1020190103171A
Other languages
Korean (ko)
Other versions
KR102259509B1 (en
Inventor
이준상
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020190103171A priority Critical patent/KR102259509B1/en
Publication of KR20210023232A publication Critical patent/KR20210023232A/en
Application granted granted Critical
Publication of KR102259509B1 publication Critical patent/KR102259509B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N5/23229
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

The present invention relates to a 3D modeling method based on photo scanning. More specifically, the present invention relates to the 3D modeling method based on photo scanning capable of enabling 3D point generation and mesh data conversion of images obtained by aligning with a certain rule to obtain product 3D modeling images and enables redesign to provide easier 3D data. According to the present invention, the 3D modeling method based on photo scanning may comprise: an image photographing step of photographing a subject using a camera having a predetermined height and a position value of an angle and obtaining a plurality of photographed images; an image alignment step of aligning the plurality of photographed images obtained in the image photographing step; an image processing step of generating a point cloud in the photographed images aligned in the image alignment step, and creating a connection point as a dense point; a mesh structure forming step of converting the image, which has undergone the image processing step into mesh data; and a mapping processing step of matching and positioning the mesh data to a position of the subject.

Description

포토 스캐닝 기반의 3D 모델링 방법{3D MODELING PROCESS BASED ON PHOTO SCANNING TECHNOLOGY}3D modeling method based on photo scanning {3D MODELING PROCESS BASED ON PHOTO SCANNING TECHNOLOGY}

본 발명은 포토 스캐닝 기반의 3D 모델링 방법에 관한 것이다. 보다 상세하게는 일정한 규칙으로 정렬하여 얻어진 이미지를 3D 포인트를 생성 및 메쉬 데이터 변환을 통하여 제품 3D 모델링 이미지를 얻을 수 있도록 하고 리디지인(Redesign)이 보다 용이한 3D 데이터를 제공할 수 있도록 하는 포토 스캐닝 기반의 3D 모델링 방법에 관한 것이다.The present invention relates to a photo scanning-based 3D modeling method. In more detail, photo scanning enables product 3D modeling images to be obtained through generating 3D points and mesh data conversion of images obtained by arranging them according to a certain rule, and allowing Redesign to provide easier 3D data. It relates to a 3D modeling method based.

3D 스캐닝은 3D 모델링 데이터를 생성하기 위해 기본적인 시점을 다각화하여 기존의 사물에 대한 표면적 깊이 및 정보를 3D 디지털 데이터로 생성하는 기술이다(M. Jang, “Design of 3D Printer Based on SLA Using LSU and Test of Scanning Mechanism,” Journal of the Korea Institute of Information and Communication Engineering, vol. 21, no.6, pp. 1225-1230, Jun. 2017.). 이러한 기술은 물체에 대한 외형적 데이터를 대상물과 접촉시키거나, 직접 접촉하지 않고 레이저나 거리영상 카메라(range image camera)를 이용해 대상물의 형상정보를 획득한다.3D scanning is a technology that diversifies basic viewpoints to generate 3D modeling data and generates surface area depth and information about existing objects as 3D digital data (M. Jang, “Design of 3D Printer Based on SLA Using LSU and Test. of Scanning Mechanism,” Journal of the Korea Institute of Information and Communication Engineering, vol. 21, no. 6, pp. 1225-1230, Jun. 2017.). In this technology, external data about the object is brought into contact with the object, or shape information of the object is obtained using a laser or a range image camera without direct contact.

종래 3D 모델링 데이터가 필요한 산업영역은 제한적이었으나, 최근 컴퓨터 기술 및 대용량 데이터의 전송, 처리에 관한 기술의 발전과 3D 프린터에 대한 보급 등과 맞물려 보다 다양한 분야에서 3D 모델링이 활용되고 있다.Although the conventional industrial area requiring 3D modeling data has been limited, 3D modeling is being used in a wider variety of fields due to the recent advances in computer technology and technology related to transmission and processing of large-capacity data and the spread of 3D printers.

제품의 기획, 개발 및 생산과 관련된 측면에서, 최근 3D 프린팅 기술이 발달함에 따라 제품디자인 분야 및 제조업에 혁명을 일으키고 있다. 종래 3D 프린터는 기업에서 어떤 물건을 제품화하기 전에 시제품을 만들기 위한 용도로 개발되었으나, 플라스틱 소재에 국한되었던 초기 단계에서 발전하여 나일론과 금속 소재로 범위가 확장되었고, 산업용 시제품뿐만 아니라 여러 방면에서 상용화 단계로 진입하였다.In terms of product planning, development, and production, the recent development of 3D printing technology has revolutionized the product design field and manufacturing industry. Conventionally, 3D printers were developed for the purpose of making prototypes before commercialization of certain objects by companies, but they developed from the initial stage limited to plastic materials and expanded to nylon and metal materials, and commercialized in various fields as well as industrial prototypes. Entered into.

일반적으로 3D 프린터는 입체 형태를 만드는 방식에 따라 크게 한 층씩 쌓아 올리는 적층형(첨가형 또는 쾌속조형 방식)과 큰 덩어리를 깎아가는 절삭형(컴퓨터 수치제어 조각 방식)으로 구분하며, 입체 형상의 대상물은 다양하게 결정될 수 있는데, 예를 들어 인물 또는 사물이 그 대상물일 수 있다. 입체 형태를 제작하는 단계는 모델링(modeling), 프린팅(printing), 피니싱(finishing)으로 이루어진다.In general, 3D printers are classified into a stacking type (additional or rapid prototyping method) and a cutting type (computer numerically controlled engraving method) that is largely stacked one by one according to the method of creating a three-dimensional shape. It may be determined, for example, a person or an object may be the object. The step of producing a three-dimensional shape consists of modeling, printing, and finishing.

상기 모델링(modeling)은 3D 도면을 제작하는 단계로, 3D CAD(computer aided design)나 3D 모델링 프로그램 또는 3D 스캔기기 등을 이용하여 제작한다. 일반적으로 건설업계나 자동차 제조 공장에서와 같이 처음부터 3차원 설계는 하는 곳 이외에는 상기 3D 스캔기기를 이용하는데, 3D 스캔기기는 실제 물건의 모양을 본떠 모니터에 3차원으로 그리는 기계로서, 탐침을 이용하여 물건의 전체를 훑어서 3차원 데이터를 얻거나, 레이져 같은 빛을 물건에 쏜 뒤 반사하는 빛을 받아서 3차원 데이터를 얻거나, 물건의 위와 아래 사면 등 6개의 시각에서 촬영한 사진을 합성하여 3차원 데이터를 얻을 수 있도록 하였다. 그러나, 종래의 스캔 방식은 스캔기기가 비치된 장소로 방문해야 하는 번거로움이 있었으며, 스캔기기의 성능에 따라 스캐닝 데이터의 품질이 달라질 수 있다. 예를 들어, 인물에 대한 스캐닝일 수행한 경우 머리카락 부분은 스캐닝 데이터로서 생성되지 않을 수 있는 것으로서, 이와 같은 스캐닝 데이터로는 올바른 3D 데이터를 생성할 수 없게 되는 것이다.The modeling is a step of producing a 3D drawing, and is produced using a 3D computer aided design (CAD), a 3D modeling program, or a 3D scanning device. In general, the 3D scanning device is used except for places where 3D design is performed from the beginning, such as in the construction industry or automobile manufacturing plant. The 3D scanning device is a machine that draws the shape of a real object in 3D on a monitor, and uses a probe. By scanning the entire object to obtain 3D data, shooting a laser-like light onto the object and receiving the reflected light to obtain 3D data, or by synthesizing photos taken from six perspectives, including the top and bottom slopes of the object. It made it possible to obtain 3D data. However, in the conventional scanning method, there is a hassle of visiting a place where the scanning device is installed, and the quality of the scanning data may vary depending on the performance of the scanning device. For example, when scanning a person is performed, the hair portion may not be generated as scanning data, and correct 3D data cannot be generated with such scanning data.

또한 3D 프린터 분야뿐만 아니라 영화, 영상, 게임 및 건축 분야에서도 3차원 모델링 데이터를 활용하는 사례가 급격하게 증가하고 있다. 이에 따라 해당 분야에서도 다양한 형태로 3D 모델링 데이터를 얻기 위한 노력이 진행되고 있다.In addition, cases of using 3D modeling data are rapidly increasing not only in the 3D printer field, but also in the fields of movies, images, games, and architecture. Accordingly, efforts are being made to obtain 3D modeling data in various forms in the relevant field as well.

관련하여 제품 디자인과 관련된 프로세스를 토대로 3D 설계에 대한 작업을 다음과 같이 이해해 볼 수 있다. 도 1은 기존의 제품디자인 제작 프로세스를 나타낸 것이다. 구체적으로 도 1을 참조하여 설명하면, 일반적으로 시제품 제작은 아이디어에서부터 모델링, Mock up의 단계를 거쳐서 제작된다. 상기 도 1의 프로세스 4단계에서 2D, 3D 설계 및 모델링 데이터를 생성하기 위해서는 많은 시간이 소요된다. 이 과정에서 모델링 데이터를 생성하는데 프로그램의 숙련도에 따라 제품설계의 정확성 및 디자인이 결정된다.Relatedly, the work on 3D design can be understood as follows based on the process related to product design. 1 shows an existing product design manufacturing process. Specifically, referring to FIG. 1, in general, the production of a prototype is produced through the steps of modeling and mock-up from an idea. It takes a lot of time to generate 2D and 3D design and modeling data in step 4 of the process of FIG. 1. In this process, modeling data is generated, and the accuracy and design of the product design are determined according to the proficiency of the program.

일반적으로 제품 디자인분야에서 신제품의 3차원 모델링 데이터를 디자인 하는데 있어서 많은 시간이 소요되는 문제가 있다. 예를 들어 3D 카메라를 이용하여 3D 모델링을 진행하는 경우 스캐닝 하는 피사체가 한정적이어야 하고 가격 장벽이 높다는 문제가 있다. 또한 2D 이미지를 연속적으로 촬영하여 3D 변환을 진행하는 경우 시간이 후공정 등의 시간이 오래 걸리고 정밀도가 낮아진다는 문제가 있다.In general, in the field of product design, there is a problem that it takes a lot of time to design 3D modeling data of a new product. For example, when 3D modeling is performed using a 3D camera, there is a problem that the subject to be scanned must be limited and the price barrier is high. In addition, when performing 3D conversion by continuously photographing 2D images, there is a problem that it takes a long time, such as post-processing, and the precision is lowered.

이에 따라 제작시간의 단축과 리디자인의 설계 데이트를 획득하기 위해 포토스캐닝 기법을 활용하여 리모델링 기법으로 제작시간 단축의 경제적인 측면과 신제품 개발에 대한 새로운 프로세스 모델의 개발이 필요하다.Accordingly, in order to shorten the production time and obtain the design data of the redesign, it is necessary to develop a new process model for the development of new products and the economic aspect of shortening the production time through the remodeling technique using photo scanning techniques.

관련하여 종래의 기술을 살펴보면, 선행기술 1(KR 10-2016-0148885 A, 2016년 12월 27일 공개)은 PC나 모바일 등의 휴대 단말기를 통해 전송받은 2D이미지를 분석하고 편집하여 분석된 심도값을 3D편 집툴에 적용하여 3D 모델링을 형성하고, 3D 형상화 된 이미지에 2D이미지 매칭하여 원본과 동일한 컬러를 가진 3D 형상을 제작하는 2D 이미지를 이용한 3D모델링 및 3차원 형상 제작 기법에 관한 것이다. 그러나 상기 선행기술 1은 단순한 2D 이미지에 심도 값을 추정 및 분석하여 3D 이미지와 하는 것으로 정교한 3D 모델링 데이터를 빠르게 수득하는데 한계를 가진다.Regarding the related art, prior art 1 (KR 10-2016-0148885 A, published on December 27, 2016) analyzes and edits the 2D image transmitted through a mobile terminal such as a PC or mobile. It relates to 3D modeling and 3D shape manufacturing techniques using 2D images that apply values to 3D editing tools to form 3D modeling, and to produce 3D shapes with the same color as the original by matching 2D images to 3D shaped images. However, the prior art 1 has a limitation in quickly obtaining sophisticated 3D modeling data by estimating and analyzing a depth value on a simple 2D image to perform a 3D image.

선행기술 2(KR 10-2011-0119893 A, 2011년 11월 3일)는 두 개의 카메라를 이용하여 획득한 3D 심도 맵(Depth Map) 데이터를 이용하여 움직이는 객체의 면적을 계산하며, 계산된 면적이 기 설정된 범위 내에 포함되는지 여부를 기초로 특정 사물인지 여부를 인식한다. 이를 위해, 영상인식장치는 3D 심도 맵 데이터를 생성하는 과정 이외에도, 움직이는 객체의 추출하는 과정과 추출된 객체의 외곽선을 추출하는 과정을 통해 추출된 객체의 면적을 계산하도록 하는 영상처리장치를 포함하는 3D 카메라를 이용한 영상인식장치 및 방법을 개시하는 것이다. 이는 3D 카메라를 이용한 것으로 3D 카메라를 이용한 심도 분석 및 피사체 인식을 위한 것으로 정교하고 빠른 3D 모델링과는 차이가 있다.Prior Art 2 (KR 10-2011-0119893 A, November 3, 2011) calculates the area of a moving object using 3D depth map data acquired using two cameras, and the calculated area It recognizes whether it is a specific object based on whether it is within the preset range. To this end, the image recognition device includes an image processing device that calculates the area of the extracted object through the process of extracting the moving object and the process of extracting the outline of the extracted object, in addition to the process of generating 3D depth map data. Disclosed is an image recognition apparatus and method using a 3D camera. This is for depth analysis and subject recognition using a 3D camera, which is different from sophisticated and fast 3D modeling.

KR 10-2016-0148885 AKR 10-2016-0148885 A KR 10-2011-0119893 AKR 10-2011-0119893 A

본 발명의 목적은 영상데이터를 조합하여 포인트 클라우드를 생성하고 메쉬 데이터로 변환하여 일반 이미지 촬영으로부터 보다 정교한 3D 모델링 이미지를 수득할 수 있도록 하는 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a photo-scanning-based 3D modeling method that generates a point cloud by combining image data and converts it into mesh data to obtain a more sophisticated 3D modeling image from general image capture.

본 발명의 목적은 리디지인이 보다 용이할 수 있도록 하는 3D 모델링 데이터를 제공할 수 있는 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.It is an object of the present invention to provide a photo scanning-based 3D modeling method capable of providing 3D modeling data that makes redigin easier.

본 발명의 목적은 3D 모델링 데이터를 생성하는데 소요되는 시간을 절감할 수 있고, 상대적으로 적은 이미지를 사용하여 정밀한 3D 모델링 데이터를 완성할 수 있는 효율적인 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.An object of the present invention is to provide an efficient photo scanning-based 3D modeling method that can reduce the time required to generate 3D modeling data and complete precise 3D modeling data using relatively few images.

본 발명의 목적은 이미지 촬영단계에서 빛 반사 및 조도에 의한 접합 오류를 줄이고, 3D 데이터의 후가공에 의한 보정문제를 해소할 수 있도록 하는 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a photo-scanning-based 3D modeling method that reduces bonding errors due to light reflection and illuminance in an image capturing step, and solves a correction problem due to post-processing of 3D data.

상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법은 미리 정해 높이와 각도의 위치 값을 가지는 카메라를 사용하여 피사체를 촬영하고 복수 개의 촬영 이미지를 수득하는 이미지 촬영단계; 상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지를 정렬하는 이미지 정렬단계; 상기 정렬단계에서 정렬된 촬영 이미지에 점 구름(point cloud)을 생성하고, 밀집 점(dense point)으로 연결 점을 생성하는 영상처리 단계; 상기 영상처리 단계를 거친 이미지를 메쉬(Mesh) 데이터로 변환하는 메쉬구조 형성단계; 및 상기 메쉬 데이터를 피사체의 포지션에 매칭시켜 위치시기는 맵핑 프로세싱 단계를 포함하는 것일 수 있다.In order to achieve the above object, a photo scanning-based 3D modeling method according to an embodiment of the present invention uses a camera having a predetermined height and angle position value to photograph a subject and take an image to obtain a plurality of photographed images. step; An image alignment step of aligning a plurality of photographed images obtained in the image photographing step; An image processing step of generating a point cloud on the photographed image aligned in the alignment step, and generating a connection point as a dense point; A mesh structure forming step of converting the image that has undergone the image processing step into mesh data; And matching the mesh data to the position of the subject and positioning timing may include a mapping processing step.

상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 카메라가 피사체를 주변을 3주기 이상으로 회전하면서 촬영되는 것이고, 촬영하는 각 회전 주기는 서로 다른 높이에서 촬영되는 것일 수 있다.In the photo scanning-based 3D modeling method, in the image capturing step, the camera rotates the subject for three or more cycles while photographing, and each rotation cycle for photographing may be photographed at different heights.

상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 1 주기당 10 내지 24개의 촬영 이미지가 얻어지도록 하는 것일 수 있다.In the photo scanning-based 3D modeling method, the image capturing step may be to obtain 10 to 24 captured images per cycle.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 피사체의 재질을 반영하여 영상 데이터를 보정하는 보정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a correction step of correcting image data by reflecting a material of a subject after the mapping processing step.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 완성된 3D 모델링 이미지에서 가상 카메라를 사용하여 이미지 촬영단계에서 설정된 위치 값에 따라 가상 이미지를 촬영하는 제1 가상 이미지 촬영 단계; 상기 가상 이미지를 매칭되는 위치 값의 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제1 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method includes: a first virtual image capturing step of photographing a virtual image according to a position value set in the image capturing step using a virtual camera in the completed 3D modeling image after the mapping processing step; An analysis step of comparing the difference between the virtual image and the photographed image of the matching position value; And a first image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 수정단계 이후에 만들어진 3D 모델링 데이터를 이용하여 상기 이미지 촬영단계에서 입력된 위치 값을 모두 삭제하고 가상 카메라를 사용하여 임의로 설정된 위치 값에 따라 가상 이미지를 촬영하는 제2 가상 이미지 촬영 단계; 상기 제2 가상 이미지 촬영 단계의 위치 값에 따라 카메라가 피사체를 촬영하고 제2 촬영 이미지를 생성하는 제2 촬영 이미지 생성단계; 상기 제2 가상 이미지를 매칭되는 위치 값의 제2 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제2 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method uses 3D modeling data created after the image retouching step to delete all position values input in the image capturing step, and shoots a virtual image according to a randomly set position value using a virtual camera. A second virtual image capturing step; A second photographed image generation step in which a camera photographs a subject and generates a second photographed image according to the position value of the second virtual image photographing step; An analysis step of comparing a difference between the second virtual image and a second photographed image of a matched position value; And a second image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 촬영단계 이전에, 상기 피사체를 광산란 억제 조성물로 코팅하는 피사체 코팅단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a subject coating step of coating the subject with a light scattering suppressing composition before the image capturing step.

본 발명의 다른 일 실시예에 따른 저장매체는 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일이 저장된 것일 수 있다.The storage medium according to another embodiment of the present invention may store an image file produced by the photo scanning-based 3D modeling method.

본 발명의 또 다른 일 실시예에 따른 3D 프린터 출력물은 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일을 사용하여 출력된 것일 수 있다.The 3D printer output according to another embodiment of the present invention may be output using an image file produced by the photo scanning-based 3D modeling method.

이하, 본 발명을 더욱 상세하게 설명한다.Hereinafter, the present invention will be described in more detail.

본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법은 미리 정해 높이와 각도의 위치 값을 가지는 카메라를 사용하여 피사체를 촬영하고 복수 개의 촬영 이미지를 수득하는 이미지 촬영단계; 상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지를 정렬하는 이미지 정렬단계; 상기 정렬단계에서 정렬된 촬영 이미지에 점 구름(point cloud)을 생성하고, 밀집 점(dense point)으로 연결 점을 생성하는 영상처리 단계; 상기 영상처리 단계를 거친 이미지를 메쉬(Mesh) 데이터로 변환하는 메쉬구조 형성단계; 및 상기 메쉬 데이터를 피사체의 포지션에 매칭시켜 위치시기는 맵핑 프로세싱 단계를 포함하는 것일 수 있다.The photo scanning-based 3D modeling method according to an embodiment of the present invention includes an image capturing step of photographing a subject and obtaining a plurality of photographed images using a camera having a predetermined height and angle position value; An image alignment step of aligning a plurality of photographed images obtained in the image photographing step; An image processing step of generating a point cloud on the photographed image aligned in the alignment step, and generating a connection point as a dense point; A mesh structure forming step of converting the image that has undergone the image processing step into mesh data; And matching the mesh data to the position of the subject and positioning timing may include a mapping processing step.

본 발명에서 말하는 3D 모델링이란, 컴퓨터 그래픽스의 분야에서 가상의 3차원 공간속에 재현될 수 있는 수학적 모델을 만들어 가는 과정을 말한다. 이러한 모델링은 컴퓨터가 이해할 수 있는 형태의 데이터로 저장된다. 보통 3차원적인 물체는 3차원선으로 표현되어 나타나며 렌더링 과정을 통해 실제 물체와 비슷한 양감, 질감을 가질 수 있다. 일반적으로 2차원 상의 작도를 통해 공간에 선을 그리고 그려진 선을 이어붙이고 공간에 배치하고 이 선들을 다각형의 면으로 설정하는 방법으로 3차원 모델이 만들어진다. 혹은 3차원 상에 수학적으로 표현되는 기하학 도형으로 표현되거나 도형들을 연산하여 만들어질 수도 있다.3D modeling in the present invention refers to a process of creating a mathematical model that can be reproduced in a virtual three-dimensional space in the field of computer graphics. This modeling is stored as data in a form that can be understood by a computer. Usually, a three-dimensional object is expressed as a three-dimensional line, and through the rendering process, it can have a sense of volume and texture similar to that of a real object. In general, a three-dimensional model is created by drawing a line in space through a two-dimensional construction, splicing the drawn lines, placing them in space, and setting these lines as polygonal surfaces. Alternatively, it may be expressed as a geometric figure that is mathematically expressed on three dimensions, or it may be created by calculating figures.

본 발명에서 말하는 카메라는 이미지를 수득할 수 있는 모든 수단을 포함하는 것으로 스캐너, 이미지 촬영장치 등을 포함하는 개념으로 정의한다.The camera referred to in the present invention is defined as a concept including a scanner, an image photographing device, etc. as including all means capable of obtaining an image.

상기 이미지 촬영단계는 피사체에 대하여 일정한 위치 값의 범위에서 카메라가 피사체를 촬영하는 것을 말하며, 상기 위치 값은 미리 정해 놓은 범위에 따른 것으로 사용되는 스캐너 또는 카메라의 종류 및 구체적인 방법은 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 범위를 모두 포함하는 것으로 한다.The image capturing step refers to photographing a subject by a camera within a range of a certain position value with respect to the subject, and the position value is according to a predetermined range, and the type and specific method of the scanner or camera used are common in the relevant field. It shall include all the ranges that can be used by those with knowledge.

상기 이미지 정렬단계는 미리 정해 놓은 규칙에 따라 이미지가 배치되도록 하여 촬영된 이미지가 피사체의 형태와 매칭될 수 있도록 하는 것을 말한다.The image alignment step refers to arranging images according to a predetermined rule so that the photographed image can match the shape of the subject.

상기 점 구름은 포인트 클라우드(point cloud)라고 불리우며, 어떤 좌표계에 속한 점들의 집합을 말한다. 3차원 좌표계에서 점은 보통 X, Y, Z 좌표로 정의되며 종종 사물의 표면을 나타내기 위해 사용되기도 한다. 이러한 점구름은 상기 이미지 촬영단계에서 얻어진 촬영 이미지로부터 얻어질 수 있다. 상기 촬영단계에서 카메라가 사물의 표면에서 수많은 점을 자동으로 측정하고, 이를 통해 생성한 점구름을 파일로 출력할 수 있고, 일반적인 카메라로 촬영된 이미지에서 영상처리를 통하여 사물의 표면에서 수많은 점을 자동으로 추출하여 생성할 수 있다. 위와 같이 기계가 측정하거나 촬영된 이미지의 분석을 통하여 얻어진 점들의 집합을 점구름으로 표현하며 구체적인 방법은 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 모든 방법을 포함하는 것으로 한다.The point cloud is called a point cloud, and refers to a set of points belonging to a certain coordinate system. In a three-dimensional coordinate system, points are usually defined as X, Y, and Z coordinates and are often used to represent the surface of an object. Such a point cloud may be obtained from a photographed image obtained in the image photographing step. In the photographing step, the camera automatically measures a number of points on the surface of the object, and the point cloud generated through this can be output as a file. It can be automatically extracted and created. As described above, the set of points obtained through the analysis of the image measured or photographed by the machine is expressed as a point cloud, and the specific method includes all methods that can be used by those with ordinary knowledge in the relevant field.

상기 점 구름에서 각 점이 밀집된 배열은 밀집 점(dense point)으로 분류될 수 있다. 상기 밀집 점을 연결하여 메쉬 데이터를 형성함으로서 완성된 이미지의 배열이 피사체의 형태에 맞게 되도록 할 수 있다.In the point cloud, an array in which each point is dense may be classified as a dense point. By connecting the dense points to form mesh data, it is possible to make the arrangement of the completed images fit the shape of the subject.

상기 메쉬구조 형성단계는 점 데이터를 메쉬 데이터로 변환시키는 단계를 말한다. 메쉬구조 형성단계는 각 점을 작은 면단위인 삼각형 등으로 연결하는 것을 말한다. 이 때, 메쉬 데이터 형성을 위한 알고리즘은 해당 분야에서 통상의 지식을 가진 자가 적절하게 선택하여 적용할 수 있는 범위를 모두 포함하는 것으로 한다.The step of forming the mesh structure refers to a step of converting point data into mesh data. The step of forming a mesh structure refers to connecting each point with a triangle, which is a small surface unit. In this case, it is assumed that the algorithm for forming the mesh data includes all the ranges that can be appropriately selected and applied by a person having ordinary knowledge in the relevant field.

상기 맵핑 프로세싱 단계는 상기 메쉬 데이터를 피사체의 형태에 맞게 배치(포지셔닝) 시키는 것으로, 3D 모델링을 위하여 사진을 할당된 위치에 맞도록 배열하는 것을 의미한다.The mapping processing step refers to arranging (positioning) the mesh data according to the shape of the subject, and means arranging the photos to fit the assigned position for 3D modeling.

상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 카메라가 피사체를 주변을 3주기 이상으로 회전하면서 촬영되는 것이고, 촬영하는 각 회전 주기는 서로 다른 높이에서 촬영되는 것일 수 있다.In the photo scanning-based 3D modeling method, in the image capturing step, the camera rotates the subject for three or more cycles while photographing, and each rotation cycle for photographing may be photographed at different heights.

상기 주기는 해당 분야에서 통상의 지식을 가진 자가 피사체의 종류, 표면의 재질, 크기 등을 종합적으로 고려하여 적절하게 선택할 수 있다.The period may be appropriately selected by a person having ordinary knowledge in the relevant field by comprehensively considering the type of the subject, the material of the surface, and the size.

상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 1 주기당 10 내지 24개의 촬영 이미지가 얻어지도록 하는 것일 수 있다.In the photo scanning-based 3D modeling method, the image capturing step may be to obtain 10 to 24 captured images per cycle.

이미지가 10개 미만으로 얻어지는 경우 정교한 3D 모델링이 어렵고, 24개를 초과하는 경우 정밀도가 증가하는 정도에 비하여 각 이미지의 연결과정에서 오류 또는 배열 등에 있어서 소요되는 시간이 지나치게 증가한다는 문제가 있다.When less than 10 images are obtained, it is difficult to elaborate 3D modeling, and when more than 24 images are obtained, there is a problem that the time required for errors or arrangements in the connection process of each image is excessively increased compared to the degree of increasing precision.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 피사체의 재질을 반영하여 영상 데이터를 보정하는 보정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a correction step of correcting image data by reflecting a material of a subject after the mapping processing step.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 완성된 3D 모델링 이미지에서 가상 카메라를 사용하여 이미지 촬영단계에서 설정된 위치 값에 따라 가상 이미지를 촬영하는 제1 가상 이미지 촬영 단계; 상기 가상 이미지를 매칭되는 위치 값의 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제1 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method includes: a first virtual image capturing step of photographing a virtual image according to a position value set in the image capturing step using a virtual camera in the completed 3D modeling image after the mapping processing step; An analysis step of comparing the difference between the virtual image and the photographed image of the matching position value; And a first image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.

상기 제1 이미지 수정단계에 의하는 경우 완성된 3D 모델링의 데이터가 보다 구체적으로 정교하게 되며, 각 이미지의 편집이 보다 용이하게 된다는 장점을 가진다.In the case of the first image modification step, the data of the completed 3D modeling is more specifically elaborated, and it has the advantage that editing of each image is made easier.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 수정단계 이후에 만들어진 3D 모델링 데이터를 이용하여 상기 이미지 촬영단계에서 입력된 위치 값을 모두 삭제하고 가상 카메라를 사용하여 임의로 설정된 위치 값에 따라 가상 이미지를 촬영하는 제2 가상 이미지 촬영 단계; 상기 제2 가상 이미지 촬영 단계의 위치 값에 따라 카메라가 피사체를 촬영하고 제2 촬영 이미지를 생성하는 제2 촬영 이미지 생성단계; 상기 제2 가상 이미지를 매칭되는 위치 값의 제2 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제2 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method uses 3D modeling data created after the image retouching step to delete all position values input in the image capturing step, and shoots a virtual image according to a randomly set position value using a virtual camera. A second virtual image capturing step; A second photographed image generation step in which a camera photographs a subject and generates a second photographed image according to the position value of the second virtual image photographing step; An analysis step of comparing a difference between the second virtual image and a second photographed image of a matched position value; And a second image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.

상기 제2 이미지 수정단계에 의하는 경우 배열 또는 이미지 접합 오류에 의하여 왜곡된 부분이 보정될 수 있다. 이에 따라 피사체의 형상이 정확히 잡히고 각 표면이 왜곡 없이 정교하게 특정될 수 있다. 나타나 해당 이미지를 수정, 편집하여 새로운 디자인으로 3D 모델링을 하는 리디자인 과정이 보다 용이해 지는 장점을 가진다.In the case of the second image correction step, a portion distorted due to an alignment or image bonding error may be corrected. Accordingly, the shape of the subject can be accurately captured and each surface can be precisely specified without distortion. Appears, it has the advantage that the redesign process of 3D modeling with a new design by modifying and editing the corresponding image becomes easier.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 촬영단계 이전에, 상기 피사체를 광산란 억제 조성물로 코팅하는 피사체 코팅단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a subject coating step of coating the subject with a light scattering suppressing composition before the image capturing step.

상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지는 피사의 빛 반사 또는 산란에 의하여 이미지 왜곡이 발생하는 문제가 있다. 이는 카메라의 성능에 따라 달라질 수 있으나 이미지 보정 등 후가공으로 처리하여야 하는 문제가 생기기 때문에 3D 모델링의 정확도를 떨어뜨리고, 3D 모델링 데이터를 생성하는데 소용되는 시간이 지연되게 하는 문제가 있다. 특히 피사체의 종류에 따라서는 빛 반사에 의하여 후가공으로 보정할 수 없을 정도로 큰 왜곡이 발생하는 경우가 있다는 문제가 있다.The plurality of photographed images obtained in the image capturing step has a problem in that image distortion occurs due to light reflection or scattering of the subject. This may vary depending on the performance of the camera, but there is a problem that the accuracy of 3D modeling is degraded and the time used to generate 3D modeling data is delayed because there is a problem that needs to be processed through post-processing such as image correction. In particular, depending on the type of subject, there is a problem that large distortion may occur due to light reflection that cannot be corrected by post-processing.

즉 피사체가 금속이나, 플라스틱과 같은 재료로 구성되어 강한 빛 반사를 발하거나 피사체에 표면이 가공된 형태자체가 빛의 난반사를 이루는 경우 보정할 수 없을 정도의 왜곡으로 3D 모델링 자체가 진행되기 어렵게 된다는 문제가 발생하게 된다.In other words, if the subject is made of a material such as metal or plastic and emits strong light reflection, or if the shape of the processed surface on the subject forms diffuse reflection of light, it is difficult to proceed with 3D modeling itself due to distortion that cannot be corrected. Problems arise.

따라서 상기 광산란 억제 조성물을 상기 피사체에 도포하여 코팅함으로서 빛 반사 또는 산란에 의한 촬영된 이미지의 왜곡 현상을 해소할 수 있다.Therefore, by applying and coating the light scattering suppressing composition on the subject, distortion of a photographed image due to light reflection or scattering may be eliminated.

상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계 및 제2 촬영 이미지 생성단계에서 피사체는 상기 광산란 억제 조성물로 코팅된 것이고 상기 광산란 억제 조성물은 유기화합물을 포함하는 것일 수 있다.In the photo scanning-based 3D modeling method, in the image capturing step and the second capturing image generation step, the subject is coated with the light scattering suppressing composition, and the light scattering suppressing composition may include an organic compound.

한편, 광산란을 억제하기 위하여 처리한 코팅이 피사체 자체의 변형을 초래하는 경우 문제가 된다. 특히 종래의 광산란 억제 조성물의 경우 실리카 기반의 조성물을 사용함으로서 피사체의 색변형 및 영구적인 광산란 억체가 발생하는 문제가 있다.On the other hand, it is a problem when the coating treated to suppress light scattering causes deformation of the subject itself. In particular, in the case of the conventional light scattering suppression composition, there is a problem that the color change of the subject and permanent light scattering suppression occur due to the use of a silica-based composition.

따라서 가시광에서는 눈에 잘 띄지 않아 피사체의 변형을 최소화시킬 수 있으면서도 상기 입력단계에서 광산란이 억제될 수 있도록 하기 위한 유기화합물 조성물을 기반의 광산란 억제 조성물이 필요하다.Accordingly, there is a need for a composition for suppressing light scattering based on an organic compound composition for suppressing light scattering in the input step while being inconspicuous in visible light, so that deformation of the subject can be minimized.

바람직하게, 상기 광산란 억제 조성물은 하기의 화학식 1로 이루어진 코팅제를 포함하는 것일 수 있다.Preferably, the light scattering inhibiting composition may include a coating agent consisting of the following formula (1).

[화학식 1][Formula 1]

Figure pat00001
Figure pat00001

(여기서, n은 2 내지 100의 정수이며, R1은 탄소수 1 내지 5의 알킬기, 탄소수 2 내지 5의 알케닐기 및 탄소수 2 내지 5의 알키닐기로 이루어진 군으로부터 선택되며, R2는 수소, -OH, 할로겐기 및 -NH2로 이루어진 군으로부터 선택된다.)(Wherein, n is an integer of 2 to 100, R 1 is selected from the group consisting of an alkyl group having 1 to 5 carbon atoms, an alkenyl group having 2 to 5 carbon atoms, and an alkynyl group having 2 to 5 carbon atoms, and R 2 is hydrogen,- It is selected from the group consisting of OH, a halogen group and -NH 2 .)

상기 화학식 1로 이루어진 화합물을 사용하는 경우 적절한 광반사로 자연광에서는 코팅층이 잘 보이지 않지만, 피사체의 광산란을 억제하여 상기 이미지 입력단계에서 빛반사 및 광산란에 의한 이미지의 왜곡현상을 줄일 수 있다.When the compound of Formula 1 is used, the coating layer is hardly visible in natural light due to proper light reflection, but it is possible to reduce distortion of the image due to light reflection and light scattering in the image input step by suppressing light scattering of the subject.

바람직하게는, 상기 화학식 1로 표시되는 카바졸계 화합물은 구체적으로 하기 화학식 2 또는 화학식 3으로 표시되는 화합물이다:Preferably, the carbazole-based compound represented by Formula 1 is specifically a compound represented by Formula 2 or Formula 3:

[화학식 2][Formula 2]

Figure pat00002
Figure pat00002

[화학식 3][Formula 3]

Figure pat00003
Figure pat00003

(여기서, n 및 R1은 화학식 1과 같다.)(Where, n and R 1 are the same as in Formula 1.)

[화학식 4][Formula 4]

Figure pat00004
Figure pat00004

(여기서, n은 2 내지 100의 정수이다.) (Here, n is an integer from 2 to 100.)

상기의 R1은 탄소수 1 내지 5의 알킬기, 탄소수 2 내지 5의 알케닐기 및 탄소수 2 내지 5의 알키닐기로 이루어진 군으로부터 선택되며, 바람직하게는 에틸렌기 또는 프로필렌기로 이루어진 군으로부터 선택될 수 있다.The R 1 is selected from the group consisting of an alkyl group having 1 to 5 carbon atoms, an alkenyl group having 2 to 5 carbon atoms, and an alkynyl group having 2 to 5 carbon atoms, and may be preferably selected from the group consisting of an ethylene group or a propylene group.

상기 화학식 2 또는 4에 의하는 경우 피사체에 강하게 부착되어 우수한 내구성을 나타내게 할 수 있다. 특히 금속, 플라스틱, 목재, 제지 및 섬유에 대하여도 강한 코팅 유지력을 나타내므로 상기 피사체를 일상생활에서는 그 용도에 맞게 사용하면서 3D 스캐너로 스캐닝을 진행할 때에는 3D 이미지로 가공하는데 우수한 이미지를 수득하게 할 수 있다.In the case of Formula 2 or 4, it is strongly adhered to the subject, thereby making it possible to exhibit excellent durability. In particular, it shows strong coating retention for metals, plastics, wood, paper and fibers, so it is possible to obtain an excellent image for processing into a 3D image when scanning with a 3D scanner while using the subject according to its purpose in daily life. have.

특히 피사체에 상기 화학식 1 내지 4에 따른 조성물에 의하는 경우 피사체에 매칭 포인트로 표시된 영역을 정확하게 식별되게 하고, 이를 내구성 높은 코팅층으로 보호할 수 있게 하는 장점을 가진다.In particular, in the case of the composition according to Formulas 1 to 4 on the subject, the area indicated by the matching point on the subject can be accurately identified, and it is possible to protect it with a highly durable coating layer.

상기 3D 스캔 및 스캔 이미지 보정 방법에 있어서, 상기 이미지 입력단계는 상기 피사체에 미리 정해놓은 패턴으로 이루어진 적외선 구조광이 조사되는 상태에서 이루어진 것일 수 있다.In the 3D scan and scan image correction method, the image input step may be performed while the subject is irradiated with infrared structured light having a predetermined pattern.

상기 구조광이 조사되는 경우 피사체의 깊이 영상 값을 보정하는데 사용하게 할 수 있어, 보다 정확성이 높은 피사체의 입체 이미지를 수득하게 할 수 있다.When the structured light is irradiated, it can be used to correct the depth image value of the subject, and thus a three-dimensional image of the subject with higher accuracy can be obtained.

상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 피사체 코팅단계 이후에 상기 피사체에 미리 정해 놓은 기준에 따라 임의의 매칭 포인트가 인쇄되도록 하는 매칭포인트 가공단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a matching point processing step of printing an arbitrary matching point according to a predetermined criterion on the subject after the subject coating step.

본 발명에서 말하는 매칭 포인트는 상기 정면, 배면, 좌측면, 우측면, 평면 및 저면의 이미지에 오차가 있는 경우 이를 보완하기 위한 기준점으로 활용하기 위하여 상기 피사체에 미리 정해 놓은 기준에 따라 일정한 간격으로 서로 다른 복수 개의 도형을 인쇄하는 것을 말한다.Matching points in the present invention are different from each other at regular intervals according to the criteria set in advance in the subject in order to use them as a reference point to compensate for errors in the images of the front, rear, left, right, flat and bottom. It refers to printing multiple figures.

상기 매칭 포인트를 사용하는 경우 6면의 이미지 간 오차를 보정함으로서 정확성 높은 3D 이미지가 얻어지게 할 수 있다.In the case of using the matching point, an error between images of six sides is corrected to obtain a highly accurate 3D image.

3D 스캔 및 스캔 이미지 보정 방법에 있어서, 상기 피사체의 정면, 배면, 좌측면, 우측면, 평면 및 저면의 이미지 중 어느 하나 이상은 미리 정해놓은 시간 간격으로 복수 회 촬영된 이미지가 겹쳐진 것일 수 있다.In the 3D scan and scan image correction method, any one or more of the front, rear, left, right, flat, and bottom images of the subject may be overlapped with images taken a plurality of times at predetermined time intervals.

상기 피사체의 정면, 배면, 좌측면, 우측면, 평면 및 저면의 이미지 중 어느 하나 이상에 대하여 각각 일정한 초 간격으로 복수의 이미지가 겹쳐지도록 하여 피사체의 이미지를 보다 명확하게 할 수 있다.The image of the subject can be made more clear by overlapping a plurality of images at regular second intervals with respect to any one or more of the front, rear, left, right, flat, and bottom images of the subject.

상기 범위 및 시간 간격을 해당 분야에서 통상의 지식을 가진 자가 활용할 수 있는 범위를 모두 포함하는 것으로 한다.The above ranges and time intervals are intended to include all ranges that can be utilized by those of ordinary skill in the relevant field.

본 발명의 다른 일 실시예에 따른 저장매체는 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일이 저장된 것일 수 있다.The storage medium according to another embodiment of the present invention may store an image file produced by the photo scanning-based 3D modeling method.

한편, 본 발명에서 말하는 저장매체는 컴팩트디스크(CD;Compact Disc), 디브이디(DVD;Digital Versatile Disc), 고품질 디브이디(HD-DVD;High Definition DVD), 블루레이 디스크(BD; Blue-ray Disc), 홀로그래픽을 이용한 광정보 저장매체(HDDS;Holographic Digital Data Storage) 등을 포함하며, 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 컴퓨터의 자료를 반영구적으로 기록 및 보존할 수 있는 물리적 장치를 의미한다.한편, 본 발명에서 말하는 저장매체는 컴팩트디스크(CD;Compact Disc), 디브이디(DVD;Digital Versatile Disc), 고품질 디브이디(HD-DVD;High Definition DVD), 블루레이 디스크(BD; Blue-ray Disc), 홀로그래픽을 이용한 광정보 저장매체(HDDS;Holographic Digital Data Storage) 등을 포함하며, 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 컴퓨터의 자료를 반영구적으로 기록 및 보존할 수 있는 물리적 장치를 의미한다.Meanwhile, the storage medium referred to in the present invention is a compact disc (CD), a digital versatile disc (DVD), a high definition DVD (HD-DVD), and a blue-ray disc (BD). , It means a physical device that can semi-permanently record and store computer data that can be used by those with ordinary knowledge in the field, including optical information storage media (HDDS) using holographic. On the other hand, the storage medium referred to in the present invention is a compact disc (CD), a digital versatile disc (DVD), a high-definition DVD (HD-DVD), and a blue-ray disc (BD). Disc), a physical device that can semi-permanently record and store computer data that can be used by those with ordinary knowledge in the field, including optical information storage media (HDDS) using holographic Means.

본 발명의 또 다른 일 실시예에 따른 3D 프린터 출력물은 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일을 사용하여 출력된 것일 수 있다.The 3D printer output according to another embodiment of the present invention may be output using an image file produced by the photo scanning-based 3D modeling method.

본 발명에서 말하는 3D 프린터 출력물은 3D 프린터를 사용하여 만들어진 생산품을 말하며, 3D 프린팅의 방식 및 사용하는 재료는 플라스틱, 금속 등을 포함하며, 이에 한정하지 않고 해당 분야에서 통상의 지식을 가진 자가 적절하게 사용할 수 있는 형태의 것을 모두 포함하는 것으로 본다.The 3D printer output referred to in the present invention refers to a product made using a 3D printer, and the method of 3D printing and materials used include plastic, metal, etc. It is considered to include all available forms.

본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법은 영상데이터를 조합하여 포인트 클라우드를 생성하고 메쉬 데이터로 변환하여 일반 이미지 촬영으로부터 보다 정교한 3D 모델링 이미지를 수득할 수 있다.In the photo scanning-based 3D modeling method according to the present invention, a point cloud is generated by combining image data and converted into mesh data to obtain a more sophisticated 3D modeling image from general image capture.

본 발명은 리디지인이 보다 용이할 수 있도록 하는 3D 모델링 데이터를 제공할 수 있는 포토 스캐닝 기반의 3D 모델링 방법을 제공한다.The present invention provides a photo-scanning-based 3D modeling method capable of providing 3D modeling data that makes redigin easier.

본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법은 3D 모델링 데이터를 생성하는데 소요되는 시간을 절감할 수 있고, 상대적으로 적은 이미지를 사용하여 정밀한 3D 모델링 데이터를 완성할 수 있는 효율적인 프로세스를 제공한다.The photo scanning-based 3D modeling method according to the present invention can reduce the time required to generate 3D modeling data, and provides an efficient process for completing precise 3D modeling data using relatively few images.

본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법은 이미지 촬영단계에서 빛 반사 및 조도에 의한 접합 오류를 줄이고, 3D 데이터의 후가공에 의한 보정문제를 해소할 수 있도록 하여 공정의 속도 및 처리 효율을 높일 수 있게 한다.The photo scanning-based 3D modeling method according to the present invention can improve process speed and processing efficiency by reducing bonding errors due to light reflection and illuminance in the image capturing step, and solving correction problems caused by post-processing of 3D data. To be.

도 1은 종래의 제품 디자인 제작을 위한 프로세스를 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 이미지 촬영단계에서 서로 다른 높이에서 피사체를 주변을 회전하면서 피사체에 대한 이미지를 수득하는 과정을 예시한 것이다.
도 3은 본 발명의 일 실시예에 따른 촬영 이미지에서 점 구름을 형성하는 단계를 예시한 것이다.
도 4는 본 발명의 일 실시예에 따른 맵핑 프로세싱 단계를 예시한 것이다.
도 5는 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 6은 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 7은 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 8은 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 9는 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법으로 만들어진 3D 모델링 데이터를 기초로 리디자인 하기 위한 완구자동차의 도면 이미지이다.
도 10은 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법의 데이터를 가지고 완구 자동차의 윗부분을 디자인된 도면에 따라 모델링데이터를 편집하는 과정을 나타낸 것이다.
도 11은 실물 모델의 완구 자동차를 3D MAX 프로그램을 활용하여 리디자인된 모델링데이터에 관한 것이다.
도 12는 3D 프린터가 이해하는 명령어 형태인 G-code로 변환하는 과정이며 적층방식으로 이루어지는 과정을 나타내는 것이다.
도 13은 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법의 데이터를 리디자인 하여 3D 프린터로 출력한 출력물에 관한 사진이다.
1 shows a process for manufacturing a conventional product design.
2 illustrates a process of obtaining an image of a subject while rotating the subject at different heights in the image capturing step according to an embodiment of the present invention.
3 illustrates a step of forming a point cloud in a captured image according to an embodiment of the present invention.
4 illustrates a mapping processing step according to an embodiment of the present invention.
5 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
6 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
7 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
8 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
9 is a drawing image of a toy vehicle for redesigning based on 3D modeling data created by a photo scanning-based 3D modeling method according to the present invention.
10 is a diagram illustrating a process of editing modeling data according to a design drawing of an upper part of a toy vehicle with data of a photo scanning-based 3D modeling method according to the present invention.
11 relates to modeling data redesigned using a 3D MAX program for a real model toy vehicle.
12 is a process of converting to G-code, which is a command format understood by a 3D printer, and shows a process performed in a stacking method.
13 is a photograph of an output product output by a 3D printer after redesigning data of a photo scanning-based 3D modeling method according to the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예에 대하여 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.

[실험예: 3D 모델링 실험][Experimental example: 3D modeling experiment]

1. 피사체 준비 및 이미지 촬영1. Subject preparation and image capture

본 발명에 따른 3D 모델링을 수행하기 위해서 피사체에 대한 여러 장의 영상데이터가 필요하다. 피사체는 선정된 완구 자동차이다. 따라서 이미지를 촬영하는 작업의 경우 피사체를 3차원으로 재구성하는 기술로 3D 스캐너에서 포인트 클라우드를 생성하고 이를 기반으로 3차원 좌표 및 메쉬 데이터를 구할 수 있다. 이를 위해 선정된 완구 자동차를 피사체로 놓고 일정한 거리에서 규칙적인 동선의 카메라 포지션을 정하고 촬영하였다.In order to perform 3D modeling according to the present invention, several pieces of image data for a subject are required. The subject is a selected toy car. Therefore, in the case of image capturing, a point cloud can be created in a 3D scanner as a technology that reconstructs a subject in 3D, and 3D coordinates and mesh data can be obtained based on this. To this end, the selected toy car was set as the subject, and the camera position of the regular moving line was set and photographed at a certain distance.

제품의 완구자동차를 촬영하기 위해서는 고품질의 사진정보가 필요하며 카메라에서 지원되는 화소는 700만 이상의 화소를 가진 카메라로 촬영하였다.To shoot the toy car of the product, high-quality photo information is required, and the pixels supported by the camera were taken with a camera with more than 7 million pixels.

카메라로 촬영된 총 48장의 영상데이터를 가지고 포토스캔(photoscan) 프로그램을 활용하여 데이터를 조합한다. 여러 장의 사진을 모두 선택한 후 이미지를 정렬(align photos)시킨다. 이러한 작업을 통해 카메라의 위치와 방향을 찾고 모델링 데이터를 형상화 하는 포인트 클라우드를 생성한다. 정렬하는 시간은 용량에 따라 지연되기도 한다. 총 48장의 사진으로 3개의 사이클로 1주 기당 16장의 이미지를 획득했다. 이미지의 해상도는 4096×2160 사이즈이다. 대상물과 카메라의 거리는 60cm이다. 최대한 이 거리를 유지할 수 있도록 하였다.Take a total of 48 images of image data taken by the camera and combine the data using a photoscan program. After selecting all of the multiple photos, align the images. Through these tasks, a point cloud is created to shape the modeling data by finding the position and direction of the camera. The alignment time may be delayed depending on the capacity. With a total of 48 photos, 16 images were acquired per week in 3 cycles. The resolution of the image is 4096×2160. The distance between the object and the camera is 60cm. I tried to keep this distance as much as possible.

2. 3D 포인트 클라우드 및 메쉬구조 생성2. 3D point cloud and mesh structure creation

도 3에서는 영상데이터의 align photo작업이 완료되면서 포인트 클라우드가 생성된다. 다음으로 Dense Cloud로 좀 더 정밀한 연결점들을 형성한다. 점으로 이루어진 클라우드 데이터는 실사 이미지 제작을 할 수 있도록 모델링 데이터를 형성하는 기초가 된다. 즉 메쉬(mesh) 데이터로 변환할 수 있는 것이다. 정확한 메쉬 계산을 위하여 고밀도 클라우드를 설정하고 메쉬로 변환한다. 도 3에서 메쉬 데이터를 획득한 후 피사체에 대한 재질 및 텍스쳐 맵핑 과정을 거쳐야 한다. 이 과정에서는 Generic 모드로 설정하는 것이 안정적이다.In FIG. 3, a point cloud is created when the align photo operation of image data is completed. Next, more precise connections are formed with the Dense Cloud. Cloud data made of dots becomes the basis for forming modeling data so that photorealistic images can be produced. That is, it can be converted into mesh data. For accurate mesh calculation, a high-density cloud is set and converted into a mesh. After obtaining the mesh data in FIG. 3, a material and texture mapping process for a subject must be performed. In this process, it is stable to set it to Generic mode.

도 4는 텍스쳐 맵핑 과정이다. 대상물과 카메라 포지션에 대한 정보를 알 수 있다. 이 때 정교한 질감과 색상은 촬영 할 때의 노출과 매우 밀접한 관계가 있다. 생성된 맵 재질과 모델링 데이터는 리디자인의 맵 형성과 데이터의 응용에 활용된다. 3D 모델링 데이터 생성이후 3D MAX에서 다양하게 작업하기 위하여 3ds 파일로 전환하여 export 하였다. 다른 응용소프트웨어를 사용할 경우에는 obj, wrl, stl, fbx, dxf등 다양한 포맷의 데이터로 변환하여 지원한다.4 is a texture mapping process. You can get information about the object and camera position. At this time, the elaborate texture and color are very closely related to the exposure when shooting. The generated map material and modeling data are used for map formation and data application in redesign. After the 3D modeling data was created, it was converted to 3ds file and exported for various work in 3D MAX. In case of using other application software, it is supported by converting data in various formats such as obj, wrl, stl, fbx, dxf.

3. 후처리 공정3. Post-treatment process

획득된 3D 모델 데이터에서 가상 카메라를 사용하여 위 촬영 단계에서의 카메라 위치 값을 입력하여 가상 카메라의 이미지와 실제 촬영된 이미지를 대비하였고, 오차 범위가 큰 이미지의 경우 실제 촬영이미지로 해당 위치 값의 이미를 교체하고 상기 3D 모델링 작업을 완성하였다.From the acquired 3D model data, a virtual camera was used to input the camera position value in the above photographing step to compare the image of the virtual camera and the actual photographed image. In the case of an image with a large error range, the actual photographed image The image was replaced and the 3D modeling work was completed.

이에 따라 생성된 3D 모델링의 이미지가 상당히 정교하게 얻어질 수 있었으며, 모델링을 완성하는데 소요되는 시간도 상당히 줄일 수 있다는 점을 확인할 수 있다.Accordingly, it can be seen that the generated 3D modeling image can be obtained with great precision, and the time required to complete the modeling can be significantly reduced.

4. 리디자인4. Redesign

본 발명에 따라 얻어진 3D 모델링 데이터를 이용하여 리디자인 하는 것이 용이한지 여부를 확인하기 위하여 도 10과 같은 새로운 자동차 이미지를 특정하고 자동차(피사체)에 대하여 포토스캐닝 기술을 이용해서 획득된 3D모델링 데이터를 기초로 리모델링을 진행하였다. 상기 리모델링은 포토스캐닝 기술을 이용해서 획득된 3D모델링 데이터를 사용하여 3D MAX 전문 모델링 프로그램을 이용하여 제작하였다. 완성된 모델링 데이터를 분석하여 디자이너가 원하는 형태의 도면을 바탕으로 재가공할 수 있다. 포토스캐닝으로 획득된 3D 모델링데이터는 폴리곤(polygon)으로 생성되어 있다. import된 3D 데이터는 3D MAX에서 총 48개의 카메라가 설치되어 있다. 가상카메라를 활용하기 위하여 기존의 촬영된 카메라의 위치 값을 모두 삭제하고 새로운 가상카메라로 셋팅 했다. 또한 리디자인을 위한 기본 도면을 가지고 데이터 변형에 들어간다. 이때 폴리곤의 점과 면을 이루는 일정한 간격유지와 점의 추가 및 시그먼트(segment)의 추가는 매우 정교하게 이루어져야 한다. 또한 제품디자인의 품질을 높이기 위해 부분적 노이즈가 생성되어 있는 폴리곤 데이터를 정리 및 추가를 반복하여 완성도를 높일 수 있다. 본 발명에 따란 3D 모델링 데이터를 사용하는 경우 기존 디자인의 변형 및 수정하는 것이 종래 방법들에 비하여 훨씬 편리하였고 리모델링 제작도 효율적으로 이루어질 수 있다는 점을 확인하였다. 리모델링에 소요된 시간은 2시간 이다. 또한 포토스캐닝에서 리모델링까지의 시간은 총 4시간이다. 초기의 모델링 설계시간에 비해 매우 빠르게 제작됨을 알 수 있었다.In order to check whether it is easy to redesign using the 3D modeling data obtained according to the present invention, a new car image as shown in Fig. 10 is specified, and based on the 3D modeling data obtained using the photo-scanning technology for the car (subject). Remodeling was carried out. The remodeling was produced using a 3D MAX professional modeling program using 3D modeling data acquired using photo scanning technology. By analyzing the completed modeling data, the designer can reprocess it based on the desired shape of the drawing. The 3D modeling data acquired by photo scanning is created as a polygon. For imported 3D data, a total of 48 cameras are installed in 3D MAX. In order to use the virtual camera, all the location values of the existing cameras were deleted and set as a new virtual camera. In addition, data transformation begins with a basic drawing for redesign. At this time, it is necessary to maintain a certain distance between the points and sides of the polygon, add points, and add segments very elaborately. In addition, in order to improve the quality of the product design, it is possible to increase the completeness by repeating the arrangement and addition of polygon data in which partial noise is generated. In the case of using the 3D modeling data according to the present invention, it was confirmed that the transformation and modification of the existing design was much more convenient than the conventional methods, and the remodeling and production could be efficiently performed. The time required for remodeling was 2 hours. In addition, the time from photo scanning to remodeling is a total of 4 hours. It can be seen that it is produced very quickly compared to the initial modeling design time.

도 13은 상기 리디자인 된 3D 도면을 사용하여 3D 프린터로 출력된 출력물에 관한 것이다. 이를 도 10의 디자인과 비교하면 매우 정교한 형태로 3D 모델링 이미지가 리디자인 되었다는 점을 알 수 있다. 이에 따라 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법에 의하는 경우 리디자인이 용이한 3D 모델링 데이터를 얻을 수 있다는 점을 확인할 수 있다.13 relates to an output printed by a 3D printer using the redesigned 3D drawing. Comparing this with the design of FIG. 10, it can be seen that the 3D modeling image has been redesigned in a very elaborate form. Accordingly, it can be confirmed that 3D modeling data that can be easily redesigned can be obtained in the case of the photo scanning-based 3D modeling method according to the present invention.

[제조예: 광산란 억제 조성물의 제조][Production Example: Preparation of a composition for inhibiting light scattering]

피사체에 대한 광산란 억제 효과를 확인하기 위하여 금속으로 이루어진 머그컵에 하기의 [표 1]과 같은 조성으로 이루어진 광산란 억제 조성물을 도포하고 건조하였다.In order to confirm the light scattering suppressing effect on the subject, a light scattering suppressing composition composed of the composition shown in [Table 1] below was applied to a mug made of metal and dried.

실시예 1Example 1 실시예 2Example 2 실시예 3Example 3 실시예 4Example 4 실시예 5Example 5 실시예 6Example 6 실시예 7Example 7 화학식 2로 표시되는 카바졸계 화합물Carbazole-based compound represented by Formula 2 -- 1010 -- -- -- -- -- 화학식 3 로 표시되는 카바졸계 화합물Carbazole-based compound represented by Formula 3 -- -- 1010 1010 1010 1010 1010 화학식 4 로 표시되는 카바졸계 화합물Carbazole-based compound represented by Formula 4 -- -- -- 1One 55 1515 2020 테트라하이드로퍼류릴 알코올Tetrahydroperulyl alcohol 1515 1515 1515 1515 1515 1515 1515 퍼퓨릴 알코올Perfuryl alcohol 55 55 55 55 55 55 55 실리카 입자Silica particles 55 55 55 55 55 55 55

(단위: 중량부)(Unit: parts by weight)

[[ 실험예Experimental example : : 부착성Adherence 평가] evaluation]

상기 실시예 1 내지 7에 따라 코팅된 금속 재질의 머그컵을 자연광에서 인식되는 코팅 정도를 유관으로 살펴보고 금속 재질의 색변화 또는 광도 변화 정도를 1 내지 10의 지수로 평가하였다. 하기의 지수는 그 숫자가 높을수록 유관으로 코팅층이 잘 보이지 않고 코팅층에 의한 금속재질의 색별화 또는 코팅층에 의한 표면 변화가 없어 효과가 우수한 것이다.The degree of coating perceived in natural light for the metallic mugs coated according to Examples 1 to 7 was examined as related, and the degree of color change or luminosity change of the metallic material was evaluated with an index of 1 to 10. The index below is the higher the number, the better the effect is that the coating layer is not easily visible due to the related pipe, and there is no color-distinguishment of the metallic material by the coating layer or the surface change by the coating layer.

상기 코팅된 머그컵을 촬영하면서 광산란 정도를 평가하여 1 내지 10의 지수로 나타내었다. 상기 지수는 높을수록 빛 반사가 적은 것으로 촬영이미지의 빛 반사에 의한 왜곡이 적어지기 때문에 우수한 것이다.While photographing the coated mug, the degree of light scattering was evaluated and expressed as an index of 1 to 10. The higher the index, the less light reflection, which is excellent because the distortion caused by the light reflection of the photographed image is reduced.

또한 상기 코팅된 금속 재질의 머그컵 표면에 동일한 정도의 물리력을 가하면서 부착성을 평가하여 지수로 나타내었다. 하기의 지수는 그 숫자가 높을수록 코팅층의 내구성 우수한 것이다.In addition, adhesion was evaluated while applying the same degree of physical force to the surface of the coated metal mug and expressed as an index. The index below is the higher the number, the better the durability of the coating layer.

그 결과를 하기의 [표 2]에 나타내었다.The results are shown in the following [Table 2].

실시예 1Example 1 실시예 2Example 2 실시예 3Example 3 실시예 4Example 4 실시예 5Example 5 실시예 6Example 6 실시예 7Example 7 표면유지 정도Surface maintenance degree 55 88 77 77 77 88 77 광산란 억제 효과Light scattering inhibitory effect 55 77 77 77 88 99 66 내구성 지수Durability index 55 66 66 44 1010 99 77

(단위: 지수)(Unit: index)

상기 [표 2]를 참조하면, 실시예 1를 기준으로 각 실시예 2 내지 7에 관한 핏 매칭 포인트 지수와 내구성을 비교평가한 결과 실시예 2 내지 7의 경우 실시예 1에 비하여 자연광에서 코팅층이 잘 보이지 않을 뿐만 아니라, 금속 표면의 색변화 등이 적다는 것을 확인할 수 있었다.Referring to [Table 2], as a result of comparing and evaluating the fit matching point index and durability for each of Examples 2 to 7 based on Example 1, in the case of Examples 2 to 7 compared to Example 1, the coating layer was In addition to being difficult to see, it was confirmed that there was little change in the color of the metal surface.

또한 카메라로 촬영한 화면에서는 실시예 2 내지 7의 경우 빛 반사가 억제되는 것을 알 수 있다. 따라서 상기 조성물에 의하는 경우 실리카를 사용하지 않아 피사체의 영구적인 표면 색상 등의 변화를 일으키지 않으면서도 광산란을 억제할 수 있어 3D 이미지 촬영을 위한 피사체의 변형이 없는 코팅제로 활용되게 할 수 있다.In addition, in the screen shot with the camera, it can be seen that light reflection is suppressed in Examples 2 to 7. Therefore, in the case of the composition, since silica is not used, light scattering can be suppressed without causing a permanent change in the surface color of the subject, and thus it can be used as a coating agent without deformation of the subject for 3D image capture.

특히 내구성의 경우에 있어서 실시예 5 및 6의 경우에는 아무리 힘을 가하여도 머그컵 표면에 코팅층이 거의 훼손되지 않으므로 매칭 포인트가 인쇄한 경우 이를 보호할 수 있을 뿐만 아니라 피사체의 종류에 따라서는 상기 코팅층에 의하여 피사체가 보호되고 그 일상적인 용도에 따른 사용에 문제를 일으키지 않을 수 있다. 특히 상기 실시예 5 및 6에 의하는 경우 카바이드졸계 화합물에 의한 상호 작용으로 상승효과로 코팅층의 내구성이 크게 높아진다는 점을 확인하였다.In particular, in the case of durability, in the case of Examples 5 and 6, the coating layer is hardly damaged on the surface of the mug no matter how much force is applied, so when a matching point is printed, it can be protected. Thus, the subject is protected and may not cause problems in use according to its daily use. In particular, in the case of Examples 5 and 6, it was confirmed that the durability of the coating layer was greatly increased due to the synergistic effect due to the interaction of the carbide sol-based compound.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also present. It belongs to the scope of rights of

Claims (9)

미리 정해 높이와 각도의 위치 값을 가지는 카메라를 사용하여 피사체를 촬영하고 복수 개의 촬영 이미지를 수득하는 이미지 촬영단계;
상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지를 정렬하는 이미지 정렬단계;
상기 정렬단계에서 정렬된 촬영 이미지에 점 구름(point cloud)을 생성하고, 밀집 점(dense point)으로 연결 점을 생성하는 영상처리 단계;
상기 영상처리 단계를 거친 이미지를 메쉬(Mesh) 데이터로 변환하는 메쉬구조 형성단계; 및
상기 메쉬 데이터를 피사체의 포지션에 매칭시켜 위치시기는 맵핑 프로세싱 단계를 포함하는
포토 스캐닝 기반의 3D 모델링 방법.
An image photographing step of photographing a subject and obtaining a plurality of photographed images using a camera having a predetermined height and angle position value;
An image alignment step of aligning a plurality of photographed images obtained in the image photographing step;
An image processing step of generating a point cloud on the photographed image aligned in the alignment step, and generating a connection point as a dense point;
A mesh structure forming step of converting the image that has undergone the image processing step into mesh data; And
Matching the mesh data to the position of the subject and positioning timing includes a mapping processing step.
Photo scanning-based 3D modeling method.
제 1항에 있어서,
상기 이미지 촬영단계는 카메라가 피사체를 주변을 3주기 이상으로 회전하면서 촬영되는 것이고,
촬영하는 각 회전 주기는 서로 다른 높이에서 촬영되는 것인
포토 스캐닝 기반의 3D 모델링 방법.
The method of claim 1,
The image capturing step is taken while the camera rotates the subject for at least 3 cycles,
Each rotation cycle taken is taken from a different height.
Photo scanning-based 3D modeling method.
제 2항에 있어서,
상기 이미지 촬영단계는 1 주기당 10 내지 24개의 촬영 이미지가 얻어지도록 하는 것인
포토 스캐닝 기반의 3D 모델링 방법.
The method of claim 2,
The image photographing step is to obtain 10 to 24 photographed images per cycle.
Photo scanning-based 3D modeling method.
제 3항에 있어서,
상기 맵핑 프로세싱 단계 이후에,
피사체의 재질을 반영하여 영상 데이터를 보정하는 보정단계를 더 포함하는
포토 스캐닝 기반의 3D 모델링 방법.
The method of claim 3,
After the mapping processing step,
Further comprising a correction step of correcting the image data by reflecting the material of the subject
Photo scanning-based 3D modeling method.
제 3항에 있어서,
상기 맵핑 프로세싱 단계 이후에,
완성된 3D 모델링 이미지에서 가상 카메라를 사용하여 이미지 촬영단계에서 설정된 위치 값에 따라 가상 이미지를 촬영하는 제1 가상 이미지 촬영 단계;
상기 가상 이미지를 매칭되는 위치 값의 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및
상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제1 이미지 수정단계
를 더 포함하는 것인
포토 스캐닝 기반의 3D 모델링 방법.
The method of claim 3,
After the mapping processing step,
A first virtual image capturing step of capturing a virtual image according to a position value set in the image capturing step using a virtual camera in the completed 3D modeling image;
An analysis step of comparing the difference between the virtual image and the photographed image of the matching position value; And
A first image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step
Which further comprises
Photo scanning-based 3D modeling method.
제 5항에 있어서,
이미지 수정단계 이후에 만들어진 3D 모델링 데이터를 이용하여 상기 이미지 촬영단계에서 입력된 위치 값을 모두 삭제하고 가상 카메라를 사용하여 임의로 설정된 위치 값에 따라 가상 이미지를 촬영하는 제2 가상 이미지 촬영 단계;
상기 제2 가상 이미지 촬영 단계의 위치 값에 따라 카메라가 피사체를 촬영하고 제2 촬영 이미지를 생성하는 제2 촬영 이미지 생성단계;
상기 제2 가상 이미지를 매칭되는 위치 값의 제2 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및
상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제2 이미지 수정단계
를 더 포함하는 것인
포토 스캐닝 기반의 3D 모델링 방법.
The method of claim 5,
A second virtual image capturing step of deleting all position values input in the image capturing step by using 3D modeling data created after the image retouching step and capturing a virtual image according to a randomly set position value using a virtual camera;
A second photographed image generation step in which a camera photographs a subject and generates a second photographed image according to the position value of the second virtual image photographing step;
An analysis step of comparing a difference between the second virtual image and a second photographed image of a matched position value; And
A second image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step
Which further comprises
Photo scanning-based 3D modeling method.
제 1항에 있어서,
상기 이미지 촬영단계 이전에,
상기 피사체를 광산란 억제 조성물로 코팅하는 피사체 코팅단계를 더 포함하는
포토 스캐닝 기반의 3D 모델링 방법.
The method of claim 1,
Before the image capturing step,
Further comprising a subject coating step of coating the subject with a light scattering suppressing composition
Photo scanning-based 3D modeling method.
제 1항 내지 제7항 중 어느 한 항에 따른 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일이 저장된 저장매체.A storage medium in which an image file produced by the photo scanning-based 3D modeling method according to any one of claims 1 to 7 is stored. 제 1항 내지 제7항 중 어느 한 항에 따른 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일을 사용하여 출력된 3D 프린터 출력물.A 3D printer output output using an image file produced by the photo scanning-based 3D modeling method according to any one of claims 1 to 7.
KR1020190103171A 2019-08-22 2019-08-22 3d modeling process based on photo scanning technology KR102259509B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190103171A KR102259509B1 (en) 2019-08-22 2019-08-22 3d modeling process based on photo scanning technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190103171A KR102259509B1 (en) 2019-08-22 2019-08-22 3d modeling process based on photo scanning technology

Publications (2)

Publication Number Publication Date
KR20210023232A true KR20210023232A (en) 2021-03-04
KR102259509B1 KR102259509B1 (en) 2021-06-01

Family

ID=75174456

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190103171A KR102259509B1 (en) 2019-08-22 2019-08-22 3d modeling process based on photo scanning technology

Country Status (1)

Country Link
KR (1) KR102259509B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220158879A (en) 2021-05-24 2022-12-02 주식회사 그리드컴 System and construction method 3D modeling

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102547323B1 (en) 2023-03-16 2023-06-22 이채영 Object segmentation device and method formed through 3d scanning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119893A (en) 2010-04-28 2011-11-03 주식회사 아이티엑스시큐리티 Video analysing apparatus and method using 3d camera
KR20140081729A (en) * 2012-12-21 2014-07-01 다솔 시스템즈 델미아 코포레이션 Location correction of virtual objects
KR20150079059A (en) * 2013-12-31 2015-07-08 주식회사 태산솔루젼스 Spray coating composition for 3d scan
KR20160148885A (en) 2015-06-17 2016-12-27 (주)유니드픽쳐 3D modeling and 3D geometry production techniques using 2D image
KR20190014717A (en) * 2017-08-03 2019-02-13 김동호 Anti-bacterial coating composition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119893A (en) 2010-04-28 2011-11-03 주식회사 아이티엑스시큐리티 Video analysing apparatus and method using 3d camera
KR20140081729A (en) * 2012-12-21 2014-07-01 다솔 시스템즈 델미아 코포레이션 Location correction of virtual objects
KR20150079059A (en) * 2013-12-31 2015-07-08 주식회사 태산솔루젼스 Spray coating composition for 3d scan
KR20160148885A (en) 2015-06-17 2016-12-27 (주)유니드픽쳐 3D modeling and 3D geometry production techniques using 2D image
KR20190014717A (en) * 2017-08-03 2019-02-13 김동호 Anti-bacterial coating composition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220158879A (en) 2021-05-24 2022-12-02 주식회사 그리드컴 System and construction method 3D modeling

Also Published As

Publication number Publication date
KR102259509B1 (en) 2021-06-01

Similar Documents

Publication Publication Date Title
Gal et al. Seamless montage for texturing models
US8217931B2 (en) System and method for processing video images
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
Furukawa et al. Accurate camera calibration from multi-view stereo and bundle adjustment
US20120032948A1 (en) System and method for processing video images for camera recreation
US20130162643A1 (en) Physical Three-Dimensional Model Generation Apparatus
JP2008145431A (en) Apparatus and method for 3-dimensional surface geometry reconstruction
WO2018156126A1 (en) Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
JP2005521123A5 (en)
KR101181199B1 (en) Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same
KR102259509B1 (en) 3d modeling process based on photo scanning technology
US9147279B1 (en) Systems and methods for merging textures
KR101715325B1 (en) Method and system for providing Picture lay out drawings by using three dimensional scan technologies
WO2020075252A1 (en) Information processing device, program, and information processing method
CN114022542A (en) Three-dimensional reconstruction-based 3D database manufacturing method
Taubin et al. 3d scanning for personal 3d printing: build your own desktop 3d scanner
Akca et al. High definition 3D-scanning of arts objects and paintings
Adami et al. The bust of Francesco II Gonzaga: from digital documentation to 3D printing
Rossoni et al. Retopology and simplification of reality-based models for finite element analysis
CN101686407A (en) Method and device for acquiring sampling point information
Slabaugh et al. Multi-resolution space carving using level set methods
CN113752544B (en) Bionic 3D printing method based on wood grains
Adamopoulos et al. An updated comparison on contemporary approaches for digitization of heritage objects
Hassanpour et al. Delaunay triangulation based 3d human face modeling from uncalibrated images
CN115272587B (en) Model file generation method and medium for 3D printing and electronic equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant