KR20210023232A - 3d modeling process based on photo scanning technology - Google Patents
3d modeling process based on photo scanning technology Download PDFInfo
- Publication number
- KR20210023232A KR20210023232A KR1020190103171A KR20190103171A KR20210023232A KR 20210023232 A KR20210023232 A KR 20210023232A KR 1020190103171 A KR1020190103171 A KR 1020190103171A KR 20190103171 A KR20190103171 A KR 20190103171A KR 20210023232 A KR20210023232 A KR 20210023232A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- modeling
- subject
- photo scanning
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 230000008569 process Effects 0.000 title description 23
- 238000005516 engineering process Methods 0.000 title description 9
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000013507 mapping Methods 0.000 claims abstract description 14
- 238000000149 argon plasma sintering Methods 0.000 claims description 20
- 238000004458 analytical method Methods 0.000 claims description 14
- 239000011248 coating agent Substances 0.000 claims description 13
- 238000000576 coating method Methods 0.000 claims description 11
- 239000000463 material Substances 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 abstract description 3
- 238000013461 design Methods 0.000 description 19
- 238000004519 manufacturing process Methods 0.000 description 11
- 239000011247 coating layer Substances 0.000 description 9
- UJOBWOGCFQCDNV-UHFFFAOYSA-N 9H-carbazole Chemical compound C1=CC=C2C3=CC=CC=C3NC2=C1 UJOBWOGCFQCDNV-UHFFFAOYSA-N 0.000 description 7
- 150000001875 compounds Chemical class 0.000 description 7
- 125000004432 carbon atom Chemical group C* 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 239000002184 metal Substances 0.000 description 6
- 229910052751 metal Inorganic materials 0.000 description 6
- 238000007634 remodeling Methods 0.000 description 6
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 238000003702 image correction Methods 0.000 description 4
- 239000004033 plastic Substances 0.000 description 4
- 229920003023 plastic Polymers 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000002401 inhibitory effect Effects 0.000 description 3
- 239000007769 metal material Substances 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 238000010146 3D printing Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- 241001025261 Neoraja caerulea Species 0.000 description 2
- 125000003342 alkenyl group Chemical group 0.000 description 2
- 125000000217 alkyl group Chemical group 0.000 description 2
- 125000000304 alkynyl group Chemical group 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 150000002894 organic compounds Chemical class 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 239000000377 silicon dioxide Substances 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- SEPPVOUBHWNCAW-FNORWQNLSA-N (E)-4-oxonon-2-enal Chemical compound CCCCCC(=O)\C=C\C=O SEPPVOUBHWNCAW-FNORWQNLSA-N 0.000 description 1
- LLBZPESJRQGYMB-UHFFFAOYSA-N 4-one Natural products O1C(C(=O)CC)CC(C)C11C2(C)CCC(C3(C)C(C(C)(CO)C(OC4C(C(O)C(O)C(COC5C(C(O)C(O)CO5)OC5C(C(OC6C(C(O)C(O)C(CO)O6)O)C(O)C(CO)O5)OC5C(C(O)C(O)C(C)O5)O)O4)O)CC3)CC3)=C3C2(C)CC1 LLBZPESJRQGYMB-UHFFFAOYSA-N 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 239000004677 Nylon Substances 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 125000000816 ethylene group Chemical group [H]C([H])([*:1])C([H])([H])[*:2] 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 125000005843 halogen group Chemical group 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 229920001778 nylon Polymers 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 125000004805 propylene group Chemical group [H]C([H])([H])C([H])([*:1])C([H])([H])[*:2] 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/001—Image restoration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H04N5/23229—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Abstract
Description
본 발명은 포토 스캐닝 기반의 3D 모델링 방법에 관한 것이다. 보다 상세하게는 일정한 규칙으로 정렬하여 얻어진 이미지를 3D 포인트를 생성 및 메쉬 데이터 변환을 통하여 제품 3D 모델링 이미지를 얻을 수 있도록 하고 리디지인(Redesign)이 보다 용이한 3D 데이터를 제공할 수 있도록 하는 포토 스캐닝 기반의 3D 모델링 방법에 관한 것이다.The present invention relates to a photo scanning-based 3D modeling method. In more detail, photo scanning enables
3D 스캐닝은 3D 모델링 데이터를 생성하기 위해 기본적인 시점을 다각화하여 기존의 사물에 대한 표면적 깊이 및 정보를 3D 디지털 데이터로 생성하는 기술이다(M. Jang, “Design of 3D Printer Based on SLA Using LSU and Test of Scanning Mechanism,” Journal of the Korea Institute of Information and Communication Engineering, vol. 21, no.6, pp. 1225-1230, Jun. 2017.). 이러한 기술은 물체에 대한 외형적 데이터를 대상물과 접촉시키거나, 직접 접촉하지 않고 레이저나 거리영상 카메라(range image camera)를 이용해 대상물의 형상정보를 획득한다.3D scanning is a technology that diversifies basic viewpoints to generate 3D modeling data and generates surface area depth and information about existing objects as 3D digital data (M. Jang, “Design of 3D Printer Based on SLA Using LSU and Test. of Scanning Mechanism,” Journal of the Korea Institute of Information and Communication Engineering, vol. 21, no. 6, pp. 1225-1230, Jun. 2017.). In this technology, external data about the object is brought into contact with the object, or shape information of the object is obtained using a laser or a range image camera without direct contact.
종래 3D 모델링 데이터가 필요한 산업영역은 제한적이었으나, 최근 컴퓨터 기술 및 대용량 데이터의 전송, 처리에 관한 기술의 발전과 3D 프린터에 대한 보급 등과 맞물려 보다 다양한 분야에서 3D 모델링이 활용되고 있다.Although the conventional industrial area requiring 3D modeling data has been limited, 3D modeling is being used in a wider variety of fields due to the recent advances in computer technology and technology related to transmission and processing of large-capacity data and the spread of 3D printers.
제품의 기획, 개발 및 생산과 관련된 측면에서, 최근 3D 프린팅 기술이 발달함에 따라 제품디자인 분야 및 제조업에 혁명을 일으키고 있다. 종래 3D 프린터는 기업에서 어떤 물건을 제품화하기 전에 시제품을 만들기 위한 용도로 개발되었으나, 플라스틱 소재에 국한되었던 초기 단계에서 발전하여 나일론과 금속 소재로 범위가 확장되었고, 산업용 시제품뿐만 아니라 여러 방면에서 상용화 단계로 진입하였다.In terms of product planning, development, and production, the recent development of 3D printing technology has revolutionized the product design field and manufacturing industry. Conventionally, 3D printers were developed for the purpose of making prototypes before commercialization of certain objects by companies, but they developed from the initial stage limited to plastic materials and expanded to nylon and metal materials, and commercialized in various fields as well as industrial prototypes. Entered into.
일반적으로 3D 프린터는 입체 형태를 만드는 방식에 따라 크게 한 층씩 쌓아 올리는 적층형(첨가형 또는 쾌속조형 방식)과 큰 덩어리를 깎아가는 절삭형(컴퓨터 수치제어 조각 방식)으로 구분하며, 입체 형상의 대상물은 다양하게 결정될 수 있는데, 예를 들어 인물 또는 사물이 그 대상물일 수 있다. 입체 형태를 제작하는 단계는 모델링(modeling), 프린팅(printing), 피니싱(finishing)으로 이루어진다.In general, 3D printers are classified into a stacking type (additional or rapid prototyping method) and a cutting type (computer numerically controlled engraving method) that is largely stacked one by one according to the method of creating a three-dimensional shape. It may be determined, for example, a person or an object may be the object. The step of producing a three-dimensional shape consists of modeling, printing, and finishing.
상기 모델링(modeling)은 3D 도면을 제작하는 단계로, 3D CAD(computer aided design)나 3D 모델링 프로그램 또는 3D 스캔기기 등을 이용하여 제작한다. 일반적으로 건설업계나 자동차 제조 공장에서와 같이 처음부터 3차원 설계는 하는 곳 이외에는 상기 3D 스캔기기를 이용하는데, 3D 스캔기기는 실제 물건의 모양을 본떠 모니터에 3차원으로 그리는 기계로서, 탐침을 이용하여 물건의 전체를 훑어서 3차원 데이터를 얻거나, 레이져 같은 빛을 물건에 쏜 뒤 반사하는 빛을 받아서 3차원 데이터를 얻거나, 물건의 위와 아래 사면 등 6개의 시각에서 촬영한 사진을 합성하여 3차원 데이터를 얻을 수 있도록 하였다. 그러나, 종래의 스캔 방식은 스캔기기가 비치된 장소로 방문해야 하는 번거로움이 있었으며, 스캔기기의 성능에 따라 스캐닝 데이터의 품질이 달라질 수 있다. 예를 들어, 인물에 대한 스캐닝일 수행한 경우 머리카락 부분은 스캐닝 데이터로서 생성되지 않을 수 있는 것으로서, 이와 같은 스캐닝 데이터로는 올바른 3D 데이터를 생성할 수 없게 되는 것이다.The modeling is a step of producing a 3D drawing, and is produced using a 3D computer aided design (CAD), a 3D modeling program, or a 3D scanning device. In general, the 3D scanning device is used except for places where 3D design is performed from the beginning, such as in the construction industry or automobile manufacturing plant. The 3D scanning device is a machine that draws the shape of a real object in 3D on a monitor, and uses a probe. By scanning the entire object to obtain 3D data, shooting a laser-like light onto the object and receiving the reflected light to obtain 3D data, or by synthesizing photos taken from six perspectives, including the top and bottom slopes of the object. It made it possible to obtain 3D data. However, in the conventional scanning method, there is a hassle of visiting a place where the scanning device is installed, and the quality of the scanning data may vary depending on the performance of the scanning device. For example, when scanning a person is performed, the hair portion may not be generated as scanning data, and correct 3D data cannot be generated with such scanning data.
또한 3D 프린터 분야뿐만 아니라 영화, 영상, 게임 및 건축 분야에서도 3차원 모델링 데이터를 활용하는 사례가 급격하게 증가하고 있다. 이에 따라 해당 분야에서도 다양한 형태로 3D 모델링 데이터를 얻기 위한 노력이 진행되고 있다.In addition, cases of using 3D modeling data are rapidly increasing not only in the 3D printer field, but also in the fields of movies, images, games, and architecture. Accordingly, efforts are being made to obtain 3D modeling data in various forms in the relevant field as well.
관련하여 제품 디자인과 관련된 프로세스를 토대로 3D 설계에 대한 작업을 다음과 같이 이해해 볼 수 있다. 도 1은 기존의 제품디자인 제작 프로세스를 나타낸 것이다. 구체적으로 도 1을 참조하여 설명하면, 일반적으로 시제품 제작은 아이디어에서부터 모델링, Mock up의 단계를 거쳐서 제작된다. 상기 도 1의 프로세스 4단계에서 2D, 3D 설계 및 모델링 데이터를 생성하기 위해서는 많은 시간이 소요된다. 이 과정에서 모델링 데이터를 생성하는데 프로그램의 숙련도에 따라 제품설계의 정확성 및 디자인이 결정된다.Relatedly, the work on 3D design can be understood as follows based on the process related to product design. 1 shows an existing product design manufacturing process. Specifically, referring to FIG. 1, in general, the production of a prototype is produced through the steps of modeling and mock-up from an idea. It takes a lot of time to generate 2D and 3D design and modeling data in
일반적으로 제품 디자인분야에서 신제품의 3차원 모델링 데이터를 디자인 하는데 있어서 많은 시간이 소요되는 문제가 있다. 예를 들어 3D 카메라를 이용하여 3D 모델링을 진행하는 경우 스캐닝 하는 피사체가 한정적이어야 하고 가격 장벽이 높다는 문제가 있다. 또한 2D 이미지를 연속적으로 촬영하여 3D 변환을 진행하는 경우 시간이 후공정 등의 시간이 오래 걸리고 정밀도가 낮아진다는 문제가 있다.In general, in the field of product design, there is a problem that it takes a lot of time to design 3D modeling data of a new product. For example, when 3D modeling is performed using a 3D camera, there is a problem that the subject to be scanned must be limited and the price barrier is high. In addition, when performing 3D conversion by continuously photographing 2D images, there is a problem that it takes a long time, such as post-processing, and the precision is lowered.
이에 따라 제작시간의 단축과 리디자인의 설계 데이트를 획득하기 위해 포토스캐닝 기법을 활용하여 리모델링 기법으로 제작시간 단축의 경제적인 측면과 신제품 개발에 대한 새로운 프로세스 모델의 개발이 필요하다.Accordingly, in order to shorten the production time and obtain the design data of the redesign, it is necessary to develop a new process model for the development of new products and the economic aspect of shortening the production time through the remodeling technique using photo scanning techniques.
관련하여 종래의 기술을 살펴보면, 선행기술 1(KR 10-2016-0148885 A, 2016년 12월 27일 공개)은 PC나 모바일 등의 휴대 단말기를 통해 전송받은 2D이미지를 분석하고 편집하여 분석된 심도값을 3D편 집툴에 적용하여 3D 모델링을 형성하고, 3D 형상화 된 이미지에 2D이미지 매칭하여 원본과 동일한 컬러를 가진 3D 형상을 제작하는 2D 이미지를 이용한 3D모델링 및 3차원 형상 제작 기법에 관한 것이다. 그러나 상기 선행기술 1은 단순한 2D 이미지에 심도 값을 추정 및 분석하여 3D 이미지와 하는 것으로 정교한 3D 모델링 데이터를 빠르게 수득하는데 한계를 가진다.Regarding the related art, prior art 1 (KR 10-2016-0148885 A, published on December 27, 2016) analyzes and edits the 2D image transmitted through a mobile terminal such as a PC or mobile. It relates to 3D modeling and 3D shape manufacturing techniques using 2D images that apply values to 3D editing tools to form 3D modeling, and to produce 3D shapes with the same color as the original by matching 2D images to 3D shaped images. However, the
선행기술 2(KR 10-2011-0119893 A, 2011년 11월 3일)는 두 개의 카메라를 이용하여 획득한 3D 심도 맵(Depth Map) 데이터를 이용하여 움직이는 객체의 면적을 계산하며, 계산된 면적이 기 설정된 범위 내에 포함되는지 여부를 기초로 특정 사물인지 여부를 인식한다. 이를 위해, 영상인식장치는 3D 심도 맵 데이터를 생성하는 과정 이외에도, 움직이는 객체의 추출하는 과정과 추출된 객체의 외곽선을 추출하는 과정을 통해 추출된 객체의 면적을 계산하도록 하는 영상처리장치를 포함하는 3D 카메라를 이용한 영상인식장치 및 방법을 개시하는 것이다. 이는 3D 카메라를 이용한 것으로 3D 카메라를 이용한 심도 분석 및 피사체 인식을 위한 것으로 정교하고 빠른 3D 모델링과는 차이가 있다.Prior Art 2 (KR 10-2011-0119893 A, November 3, 2011) calculates the area of a moving object using 3D depth map data acquired using two cameras, and the calculated area It recognizes whether it is a specific object based on whether it is within the preset range. To this end, the image recognition device includes an image processing device that calculates the area of the extracted object through the process of extracting the moving object and the process of extracting the outline of the extracted object, in addition to the process of generating 3D depth map data. Disclosed is an image recognition apparatus and method using a 3D camera. This is for depth analysis and subject recognition using a 3D camera, which is different from sophisticated and fast 3D modeling.
본 발명의 목적은 영상데이터를 조합하여 포인트 클라우드를 생성하고 메쉬 데이터로 변환하여 일반 이미지 촬영으로부터 보다 정교한 3D 모델링 이미지를 수득할 수 있도록 하는 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a photo-scanning-based 3D modeling method that generates a point cloud by combining image data and converts it into mesh data to obtain a more sophisticated 3D modeling image from general image capture.
본 발명의 목적은 리디지인이 보다 용이할 수 있도록 하는 3D 모델링 데이터를 제공할 수 있는 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.It is an object of the present invention to provide a photo scanning-based 3D modeling method capable of providing 3D modeling data that makes redigin easier.
본 발명의 목적은 3D 모델링 데이터를 생성하는데 소요되는 시간을 절감할 수 있고, 상대적으로 적은 이미지를 사용하여 정밀한 3D 모델링 데이터를 완성할 수 있는 효율적인 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.An object of the present invention is to provide an efficient photo scanning-based 3D modeling method that can reduce the time required to generate 3D modeling data and complete precise 3D modeling data using relatively few images.
본 발명의 목적은 이미지 촬영단계에서 빛 반사 및 조도에 의한 접합 오류를 줄이고, 3D 데이터의 후가공에 의한 보정문제를 해소할 수 있도록 하는 포토 스캐닝 기반의 3D 모델링 방법을 제공하기 위한 것이다.An object of the present invention is to provide a photo-scanning-based 3D modeling method that reduces bonding errors due to light reflection and illuminance in an image capturing step, and solves a correction problem due to post-processing of 3D data.
상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법은 미리 정해 높이와 각도의 위치 값을 가지는 카메라를 사용하여 피사체를 촬영하고 복수 개의 촬영 이미지를 수득하는 이미지 촬영단계; 상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지를 정렬하는 이미지 정렬단계; 상기 정렬단계에서 정렬된 촬영 이미지에 점 구름(point cloud)을 생성하고, 밀집 점(dense point)으로 연결 점을 생성하는 영상처리 단계; 상기 영상처리 단계를 거친 이미지를 메쉬(Mesh) 데이터로 변환하는 메쉬구조 형성단계; 및 상기 메쉬 데이터를 피사체의 포지션에 매칭시켜 위치시기는 맵핑 프로세싱 단계를 포함하는 것일 수 있다.In order to achieve the above object, a photo scanning-based 3D modeling method according to an embodiment of the present invention uses a camera having a predetermined height and angle position value to photograph a subject and take an image to obtain a plurality of photographed images. step; An image alignment step of aligning a plurality of photographed images obtained in the image photographing step; An image processing step of generating a point cloud on the photographed image aligned in the alignment step, and generating a connection point as a dense point; A mesh structure forming step of converting the image that has undergone the image processing step into mesh data; And matching the mesh data to the position of the subject and positioning timing may include a mapping processing step.
상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 카메라가 피사체를 주변을 3주기 이상으로 회전하면서 촬영되는 것이고, 촬영하는 각 회전 주기는 서로 다른 높이에서 촬영되는 것일 수 있다.In the photo scanning-based 3D modeling method, in the image capturing step, the camera rotates the subject for three or more cycles while photographing, and each rotation cycle for photographing may be photographed at different heights.
상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 1 주기당 10 내지 24개의 촬영 이미지가 얻어지도록 하는 것일 수 있다.In the photo scanning-based 3D modeling method, the image capturing step may be to obtain 10 to 24 captured images per cycle.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 피사체의 재질을 반영하여 영상 데이터를 보정하는 보정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a correction step of correcting image data by reflecting a material of a subject after the mapping processing step.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 완성된 3D 모델링 이미지에서 가상 카메라를 사용하여 이미지 촬영단계에서 설정된 위치 값에 따라 가상 이미지를 촬영하는 제1 가상 이미지 촬영 단계; 상기 가상 이미지를 매칭되는 위치 값의 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제1 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method includes: a first virtual image capturing step of photographing a virtual image according to a position value set in the image capturing step using a virtual camera in the completed 3D modeling image after the mapping processing step; An analysis step of comparing the difference between the virtual image and the photographed image of the matching position value; And a first image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 수정단계 이후에 만들어진 3D 모델링 데이터를 이용하여 상기 이미지 촬영단계에서 입력된 위치 값을 모두 삭제하고 가상 카메라를 사용하여 임의로 설정된 위치 값에 따라 가상 이미지를 촬영하는 제2 가상 이미지 촬영 단계; 상기 제2 가상 이미지 촬영 단계의 위치 값에 따라 카메라가 피사체를 촬영하고 제2 촬영 이미지를 생성하는 제2 촬영 이미지 생성단계; 상기 제2 가상 이미지를 매칭되는 위치 값의 제2 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제2 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method uses 3D modeling data created after the image retouching step to delete all position values input in the image capturing step, and shoots a virtual image according to a randomly set position value using a virtual camera. A second virtual image capturing step; A second photographed image generation step in which a camera photographs a subject and generates a second photographed image according to the position value of the second virtual image photographing step; An analysis step of comparing a difference between the second virtual image and a second photographed image of a matched position value; And a second image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 촬영단계 이전에, 상기 피사체를 광산란 억제 조성물로 코팅하는 피사체 코팅단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a subject coating step of coating the subject with a light scattering suppressing composition before the image capturing step.
본 발명의 다른 일 실시예에 따른 저장매체는 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일이 저장된 것일 수 있다.The storage medium according to another embodiment of the present invention may store an image file produced by the photo scanning-based 3D modeling method.
본 발명의 또 다른 일 실시예에 따른 3D 프린터 출력물은 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일을 사용하여 출력된 것일 수 있다.The 3D printer output according to another embodiment of the present invention may be output using an image file produced by the photo scanning-based 3D modeling method.
이하, 본 발명을 더욱 상세하게 설명한다.Hereinafter, the present invention will be described in more detail.
본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법은 미리 정해 높이와 각도의 위치 값을 가지는 카메라를 사용하여 피사체를 촬영하고 복수 개의 촬영 이미지를 수득하는 이미지 촬영단계; 상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지를 정렬하는 이미지 정렬단계; 상기 정렬단계에서 정렬된 촬영 이미지에 점 구름(point cloud)을 생성하고, 밀집 점(dense point)으로 연결 점을 생성하는 영상처리 단계; 상기 영상처리 단계를 거친 이미지를 메쉬(Mesh) 데이터로 변환하는 메쉬구조 형성단계; 및 상기 메쉬 데이터를 피사체의 포지션에 매칭시켜 위치시기는 맵핑 프로세싱 단계를 포함하는 것일 수 있다.The photo scanning-based 3D modeling method according to an embodiment of the present invention includes an image capturing step of photographing a subject and obtaining a plurality of photographed images using a camera having a predetermined height and angle position value; An image alignment step of aligning a plurality of photographed images obtained in the image photographing step; An image processing step of generating a point cloud on the photographed image aligned in the alignment step, and generating a connection point as a dense point; A mesh structure forming step of converting the image that has undergone the image processing step into mesh data; And matching the mesh data to the position of the subject and positioning timing may include a mapping processing step.
본 발명에서 말하는 3D 모델링이란, 컴퓨터 그래픽스의 분야에서 가상의 3차원 공간속에 재현될 수 있는 수학적 모델을 만들어 가는 과정을 말한다. 이러한 모델링은 컴퓨터가 이해할 수 있는 형태의 데이터로 저장된다. 보통 3차원적인 물체는 3차원선으로 표현되어 나타나며 렌더링 과정을 통해 실제 물체와 비슷한 양감, 질감을 가질 수 있다. 일반적으로 2차원 상의 작도를 통해 공간에 선을 그리고 그려진 선을 이어붙이고 공간에 배치하고 이 선들을 다각형의 면으로 설정하는 방법으로 3차원 모델이 만들어진다. 혹은 3차원 상에 수학적으로 표현되는 기하학 도형으로 표현되거나 도형들을 연산하여 만들어질 수도 있다.3D modeling in the present invention refers to a process of creating a mathematical model that can be reproduced in a virtual three-dimensional space in the field of computer graphics. This modeling is stored as data in a form that can be understood by a computer. Usually, a three-dimensional object is expressed as a three-dimensional line, and through the rendering process, it can have a sense of volume and texture similar to that of a real object. In general, a three-dimensional model is created by drawing a line in space through a two-dimensional construction, splicing the drawn lines, placing them in space, and setting these lines as polygonal surfaces. Alternatively, it may be expressed as a geometric figure that is mathematically expressed on three dimensions, or it may be created by calculating figures.
본 발명에서 말하는 카메라는 이미지를 수득할 수 있는 모든 수단을 포함하는 것으로 스캐너, 이미지 촬영장치 등을 포함하는 개념으로 정의한다.The camera referred to in the present invention is defined as a concept including a scanner, an image photographing device, etc. as including all means capable of obtaining an image.
상기 이미지 촬영단계는 피사체에 대하여 일정한 위치 값의 범위에서 카메라가 피사체를 촬영하는 것을 말하며, 상기 위치 값은 미리 정해 놓은 범위에 따른 것으로 사용되는 스캐너 또는 카메라의 종류 및 구체적인 방법은 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 범위를 모두 포함하는 것으로 한다.The image capturing step refers to photographing a subject by a camera within a range of a certain position value with respect to the subject, and the position value is according to a predetermined range, and the type and specific method of the scanner or camera used are common in the relevant field. It shall include all the ranges that can be used by those with knowledge.
상기 이미지 정렬단계는 미리 정해 놓은 규칙에 따라 이미지가 배치되도록 하여 촬영된 이미지가 피사체의 형태와 매칭될 수 있도록 하는 것을 말한다.The image alignment step refers to arranging images according to a predetermined rule so that the photographed image can match the shape of the subject.
상기 점 구름은 포인트 클라우드(point cloud)라고 불리우며, 어떤 좌표계에 속한 점들의 집합을 말한다. 3차원 좌표계에서 점은 보통 X, Y, Z 좌표로 정의되며 종종 사물의 표면을 나타내기 위해 사용되기도 한다. 이러한 점구름은 상기 이미지 촬영단계에서 얻어진 촬영 이미지로부터 얻어질 수 있다. 상기 촬영단계에서 카메라가 사물의 표면에서 수많은 점을 자동으로 측정하고, 이를 통해 생성한 점구름을 파일로 출력할 수 있고, 일반적인 카메라로 촬영된 이미지에서 영상처리를 통하여 사물의 표면에서 수많은 점을 자동으로 추출하여 생성할 수 있다. 위와 같이 기계가 측정하거나 촬영된 이미지의 분석을 통하여 얻어진 점들의 집합을 점구름으로 표현하며 구체적인 방법은 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 모든 방법을 포함하는 것으로 한다.The point cloud is called a point cloud, and refers to a set of points belonging to a certain coordinate system. In a three-dimensional coordinate system, points are usually defined as X, Y, and Z coordinates and are often used to represent the surface of an object. Such a point cloud may be obtained from a photographed image obtained in the image photographing step. In the photographing step, the camera automatically measures a number of points on the surface of the object, and the point cloud generated through this can be output as a file. It can be automatically extracted and created. As described above, the set of points obtained through the analysis of the image measured or photographed by the machine is expressed as a point cloud, and the specific method includes all methods that can be used by those with ordinary knowledge in the relevant field.
상기 점 구름에서 각 점이 밀집된 배열은 밀집 점(dense point)으로 분류될 수 있다. 상기 밀집 점을 연결하여 메쉬 데이터를 형성함으로서 완성된 이미지의 배열이 피사체의 형태에 맞게 되도록 할 수 있다.In the point cloud, an array in which each point is dense may be classified as a dense point. By connecting the dense points to form mesh data, it is possible to make the arrangement of the completed images fit the shape of the subject.
상기 메쉬구조 형성단계는 점 데이터를 메쉬 데이터로 변환시키는 단계를 말한다. 메쉬구조 형성단계는 각 점을 작은 면단위인 삼각형 등으로 연결하는 것을 말한다. 이 때, 메쉬 데이터 형성을 위한 알고리즘은 해당 분야에서 통상의 지식을 가진 자가 적절하게 선택하여 적용할 수 있는 범위를 모두 포함하는 것으로 한다.The step of forming the mesh structure refers to a step of converting point data into mesh data. The step of forming a mesh structure refers to connecting each point with a triangle, which is a small surface unit. In this case, it is assumed that the algorithm for forming the mesh data includes all the ranges that can be appropriately selected and applied by a person having ordinary knowledge in the relevant field.
상기 맵핑 프로세싱 단계는 상기 메쉬 데이터를 피사체의 형태에 맞게 배치(포지셔닝) 시키는 것으로, 3D 모델링을 위하여 사진을 할당된 위치에 맞도록 배열하는 것을 의미한다.The mapping processing step refers to arranging (positioning) the mesh data according to the shape of the subject, and means arranging the photos to fit the assigned position for 3D modeling.
상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 카메라가 피사체를 주변을 3주기 이상으로 회전하면서 촬영되는 것이고, 촬영하는 각 회전 주기는 서로 다른 높이에서 촬영되는 것일 수 있다.In the photo scanning-based 3D modeling method, in the image capturing step, the camera rotates the subject for three or more cycles while photographing, and each rotation cycle for photographing may be photographed at different heights.
상기 주기는 해당 분야에서 통상의 지식을 가진 자가 피사체의 종류, 표면의 재질, 크기 등을 종합적으로 고려하여 적절하게 선택할 수 있다.The period may be appropriately selected by a person having ordinary knowledge in the relevant field by comprehensively considering the type of the subject, the material of the surface, and the size.
상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계는 1 주기당 10 내지 24개의 촬영 이미지가 얻어지도록 하는 것일 수 있다.In the photo scanning-based 3D modeling method, the image capturing step may be to obtain 10 to 24 captured images per cycle.
이미지가 10개 미만으로 얻어지는 경우 정교한 3D 모델링이 어렵고, 24개를 초과하는 경우 정밀도가 증가하는 정도에 비하여 각 이미지의 연결과정에서 오류 또는 배열 등에 있어서 소요되는 시간이 지나치게 증가한다는 문제가 있다.When less than 10 images are obtained, it is difficult to elaborate 3D modeling, and when more than 24 images are obtained, there is a problem that the time required for errors or arrangements in the connection process of each image is excessively increased compared to the degree of increasing precision.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 피사체의 재질을 반영하여 영상 데이터를 보정하는 보정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a correction step of correcting image data by reflecting a material of a subject after the mapping processing step.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 맵핑 프로세싱 단계 이후에, 완성된 3D 모델링 이미지에서 가상 카메라를 사용하여 이미지 촬영단계에서 설정된 위치 값에 따라 가상 이미지를 촬영하는 제1 가상 이미지 촬영 단계; 상기 가상 이미지를 매칭되는 위치 값의 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제1 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method includes: a first virtual image capturing step of photographing a virtual image according to a position value set in the image capturing step using a virtual camera in the completed 3D modeling image after the mapping processing step; An analysis step of comparing the difference between the virtual image and the photographed image of the matching position value; And a first image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.
상기 제1 이미지 수정단계에 의하는 경우 완성된 3D 모델링의 데이터가 보다 구체적으로 정교하게 되며, 각 이미지의 편집이 보다 용이하게 된다는 장점을 가진다.In the case of the first image modification step, the data of the completed 3D modeling is more specifically elaborated, and it has the advantage that editing of each image is made easier.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 수정단계 이후에 만들어진 3D 모델링 데이터를 이용하여 상기 이미지 촬영단계에서 입력된 위치 값을 모두 삭제하고 가상 카메라를 사용하여 임의로 설정된 위치 값에 따라 가상 이미지를 촬영하는 제2 가상 이미지 촬영 단계; 상기 제2 가상 이미지 촬영 단계의 위치 값에 따라 카메라가 피사체를 촬영하고 제2 촬영 이미지를 생성하는 제2 촬영 이미지 생성단계; 상기 제2 가상 이미지를 매칭되는 위치 값의 제2 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및 상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제2 이미지 수정단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method uses 3D modeling data created after the image retouching step to delete all position values input in the image capturing step, and shoots a virtual image according to a randomly set position value using a virtual camera. A second virtual image capturing step; A second photographed image generation step in which a camera photographs a subject and generates a second photographed image according to the position value of the second virtual image photographing step; An analysis step of comparing a difference between the second virtual image and a second photographed image of a matched position value; And a second image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step.
상기 제2 이미지 수정단계에 의하는 경우 배열 또는 이미지 접합 오류에 의하여 왜곡된 부분이 보정될 수 있다. 이에 따라 피사체의 형상이 정확히 잡히고 각 표면이 왜곡 없이 정교하게 특정될 수 있다. 나타나 해당 이미지를 수정, 편집하여 새로운 디자인으로 3D 모델링을 하는 리디자인 과정이 보다 용이해 지는 장점을 가진다.In the case of the second image correction step, a portion distorted due to an alignment or image bonding error may be corrected. Accordingly, the shape of the subject can be accurately captured and each surface can be precisely specified without distortion. Appears, it has the advantage that the redesign process of 3D modeling with a new design by modifying and editing the corresponding image becomes easier.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 이미지 촬영단계 이전에, 상기 피사체를 광산란 억제 조성물로 코팅하는 피사체 코팅단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a subject coating step of coating the subject with a light scattering suppressing composition before the image capturing step.
상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지는 피사의 빛 반사 또는 산란에 의하여 이미지 왜곡이 발생하는 문제가 있다. 이는 카메라의 성능에 따라 달라질 수 있으나 이미지 보정 등 후가공으로 처리하여야 하는 문제가 생기기 때문에 3D 모델링의 정확도를 떨어뜨리고, 3D 모델링 데이터를 생성하는데 소용되는 시간이 지연되게 하는 문제가 있다. 특히 피사체의 종류에 따라서는 빛 반사에 의하여 후가공으로 보정할 수 없을 정도로 큰 왜곡이 발생하는 경우가 있다는 문제가 있다.The plurality of photographed images obtained in the image capturing step has a problem in that image distortion occurs due to light reflection or scattering of the subject. This may vary depending on the performance of the camera, but there is a problem that the accuracy of 3D modeling is degraded and the time used to generate 3D modeling data is delayed because there is a problem that needs to be processed through post-processing such as image correction. In particular, depending on the type of subject, there is a problem that large distortion may occur due to light reflection that cannot be corrected by post-processing.
즉 피사체가 금속이나, 플라스틱과 같은 재료로 구성되어 강한 빛 반사를 발하거나 피사체에 표면이 가공된 형태자체가 빛의 난반사를 이루는 경우 보정할 수 없을 정도의 왜곡으로 3D 모델링 자체가 진행되기 어렵게 된다는 문제가 발생하게 된다.In other words, if the subject is made of a material such as metal or plastic and emits strong light reflection, or if the shape of the processed surface on the subject forms diffuse reflection of light, it is difficult to proceed with 3D modeling itself due to distortion that cannot be corrected. Problems arise.
따라서 상기 광산란 억제 조성물을 상기 피사체에 도포하여 코팅함으로서 빛 반사 또는 산란에 의한 촬영된 이미지의 왜곡 현상을 해소할 수 있다.Therefore, by applying and coating the light scattering suppressing composition on the subject, distortion of a photographed image due to light reflection or scattering may be eliminated.
상기 포토 스캐닝 기반의 3D 모델링 방법에 있어서, 상기 이미지 촬영단계 및 제2 촬영 이미지 생성단계에서 피사체는 상기 광산란 억제 조성물로 코팅된 것이고 상기 광산란 억제 조성물은 유기화합물을 포함하는 것일 수 있다.In the photo scanning-based 3D modeling method, in the image capturing step and the second capturing image generation step, the subject is coated with the light scattering suppressing composition, and the light scattering suppressing composition may include an organic compound.
한편, 광산란을 억제하기 위하여 처리한 코팅이 피사체 자체의 변형을 초래하는 경우 문제가 된다. 특히 종래의 광산란 억제 조성물의 경우 실리카 기반의 조성물을 사용함으로서 피사체의 색변형 및 영구적인 광산란 억체가 발생하는 문제가 있다.On the other hand, it is a problem when the coating treated to suppress light scattering causes deformation of the subject itself. In particular, in the case of the conventional light scattering suppression composition, there is a problem that the color change of the subject and permanent light scattering suppression occur due to the use of a silica-based composition.
따라서 가시광에서는 눈에 잘 띄지 않아 피사체의 변형을 최소화시킬 수 있으면서도 상기 입력단계에서 광산란이 억제될 수 있도록 하기 위한 유기화합물 조성물을 기반의 광산란 억제 조성물이 필요하다.Accordingly, there is a need for a composition for suppressing light scattering based on an organic compound composition for suppressing light scattering in the input step while being inconspicuous in visible light, so that deformation of the subject can be minimized.
바람직하게, 상기 광산란 억제 조성물은 하기의 화학식 1로 이루어진 코팅제를 포함하는 것일 수 있다.Preferably, the light scattering inhibiting composition may include a coating agent consisting of the following formula (1).
[화학식 1][Formula 1]
(여기서, n은 2 내지 100의 정수이며, R1은 탄소수 1 내지 5의 알킬기, 탄소수 2 내지 5의 알케닐기 및 탄소수 2 내지 5의 알키닐기로 이루어진 군으로부터 선택되며, R2는 수소, -OH, 할로겐기 및 -NH2로 이루어진 군으로부터 선택된다.)(Wherein, n is an integer of 2 to 100, R 1 is selected from the group consisting of an alkyl group having 1 to 5 carbon atoms, an alkenyl group having 2 to 5 carbon atoms, and an alkynyl group having 2 to 5 carbon atoms, and R 2 is hydrogen,- It is selected from the group consisting of OH, a halogen group and -NH 2 .)
상기 화학식 1로 이루어진 화합물을 사용하는 경우 적절한 광반사로 자연광에서는 코팅층이 잘 보이지 않지만, 피사체의 광산란을 억제하여 상기 이미지 입력단계에서 빛반사 및 광산란에 의한 이미지의 왜곡현상을 줄일 수 있다.When the compound of
바람직하게는, 상기 화학식 1로 표시되는 카바졸계 화합물은 구체적으로 하기 화학식 2 또는 화학식 3으로 표시되는 화합물이다:Preferably, the carbazole-based compound represented by
[화학식 2][Formula 2]
[화학식 3][Formula 3]
(여기서, n 및 R1은 화학식 1과 같다.)(Where, n and R 1 are the same as in
[화학식 4][Formula 4]
(여기서, n은 2 내지 100의 정수이다.) (Here, n is an integer from 2 to 100.)
상기의 R1은 탄소수 1 내지 5의 알킬기, 탄소수 2 내지 5의 알케닐기 및 탄소수 2 내지 5의 알키닐기로 이루어진 군으로부터 선택되며, 바람직하게는 에틸렌기 또는 프로필렌기로 이루어진 군으로부터 선택될 수 있다.The R 1 is selected from the group consisting of an alkyl group having 1 to 5 carbon atoms, an alkenyl group having 2 to 5 carbon atoms, and an alkynyl group having 2 to 5 carbon atoms, and may be preferably selected from the group consisting of an ethylene group or a propylene group.
상기 화학식 2 또는 4에 의하는 경우 피사체에 강하게 부착되어 우수한 내구성을 나타내게 할 수 있다. 특히 금속, 플라스틱, 목재, 제지 및 섬유에 대하여도 강한 코팅 유지력을 나타내므로 상기 피사체를 일상생활에서는 그 용도에 맞게 사용하면서 3D 스캐너로 스캐닝을 진행할 때에는 3D 이미지로 가공하는데 우수한 이미지를 수득하게 할 수 있다.In the case of
특히 피사체에 상기 화학식 1 내지 4에 따른 조성물에 의하는 경우 피사체에 매칭 포인트로 표시된 영역을 정확하게 식별되게 하고, 이를 내구성 높은 코팅층으로 보호할 수 있게 하는 장점을 가진다.In particular, in the case of the composition according to
상기 3D 스캔 및 스캔 이미지 보정 방법에 있어서, 상기 이미지 입력단계는 상기 피사체에 미리 정해놓은 패턴으로 이루어진 적외선 구조광이 조사되는 상태에서 이루어진 것일 수 있다.In the 3D scan and scan image correction method, the image input step may be performed while the subject is irradiated with infrared structured light having a predetermined pattern.
상기 구조광이 조사되는 경우 피사체의 깊이 영상 값을 보정하는데 사용하게 할 수 있어, 보다 정확성이 높은 피사체의 입체 이미지를 수득하게 할 수 있다.When the structured light is irradiated, it can be used to correct the depth image value of the subject, and thus a three-dimensional image of the subject with higher accuracy can be obtained.
상기 포토 스캐닝 기반의 3D 모델링 방법은 상기 피사체 코팅단계 이후에 상기 피사체에 미리 정해 놓은 기준에 따라 임의의 매칭 포인트가 인쇄되도록 하는 매칭포인트 가공단계를 더 포함하는 것일 수 있다.The photo scanning-based 3D modeling method may further include a matching point processing step of printing an arbitrary matching point according to a predetermined criterion on the subject after the subject coating step.
본 발명에서 말하는 매칭 포인트는 상기 정면, 배면, 좌측면, 우측면, 평면 및 저면의 이미지에 오차가 있는 경우 이를 보완하기 위한 기준점으로 활용하기 위하여 상기 피사체에 미리 정해 놓은 기준에 따라 일정한 간격으로 서로 다른 복수 개의 도형을 인쇄하는 것을 말한다.Matching points in the present invention are different from each other at regular intervals according to the criteria set in advance in the subject in order to use them as a reference point to compensate for errors in the images of the front, rear, left, right, flat and bottom. It refers to printing multiple figures.
상기 매칭 포인트를 사용하는 경우 6면의 이미지 간 오차를 보정함으로서 정확성 높은 3D 이미지가 얻어지게 할 수 있다.In the case of using the matching point, an error between images of six sides is corrected to obtain a highly accurate 3D image.
3D 스캔 및 스캔 이미지 보정 방법에 있어서, 상기 피사체의 정면, 배면, 좌측면, 우측면, 평면 및 저면의 이미지 중 어느 하나 이상은 미리 정해놓은 시간 간격으로 복수 회 촬영된 이미지가 겹쳐진 것일 수 있다.In the 3D scan and scan image correction method, any one or more of the front, rear, left, right, flat, and bottom images of the subject may be overlapped with images taken a plurality of times at predetermined time intervals.
상기 피사체의 정면, 배면, 좌측면, 우측면, 평면 및 저면의 이미지 중 어느 하나 이상에 대하여 각각 일정한 초 간격으로 복수의 이미지가 겹쳐지도록 하여 피사체의 이미지를 보다 명확하게 할 수 있다.The image of the subject can be made more clear by overlapping a plurality of images at regular second intervals with respect to any one or more of the front, rear, left, right, flat, and bottom images of the subject.
상기 범위 및 시간 간격을 해당 분야에서 통상의 지식을 가진 자가 활용할 수 있는 범위를 모두 포함하는 것으로 한다.The above ranges and time intervals are intended to include all ranges that can be utilized by those of ordinary skill in the relevant field.
본 발명의 다른 일 실시예에 따른 저장매체는 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일이 저장된 것일 수 있다.The storage medium according to another embodiment of the present invention may store an image file produced by the photo scanning-based 3D modeling method.
한편, 본 발명에서 말하는 저장매체는 컴팩트디스크(CD;Compact Disc), 디브이디(DVD;Digital Versatile Disc), 고품질 디브이디(HD-DVD;High Definition DVD), 블루레이 디스크(BD; Blue-ray Disc), 홀로그래픽을 이용한 광정보 저장매체(HDDS;Holographic Digital Data Storage) 등을 포함하며, 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 컴퓨터의 자료를 반영구적으로 기록 및 보존할 수 있는 물리적 장치를 의미한다.한편, 본 발명에서 말하는 저장매체는 컴팩트디스크(CD;Compact Disc), 디브이디(DVD;Digital Versatile Disc), 고품질 디브이디(HD-DVD;High Definition DVD), 블루레이 디스크(BD; Blue-ray Disc), 홀로그래픽을 이용한 광정보 저장매체(HDDS;Holographic Digital Data Storage) 등을 포함하며, 해당 분야에서 통상의 지식을 가진 자가 사용할 수 있는 컴퓨터의 자료를 반영구적으로 기록 및 보존할 수 있는 물리적 장치를 의미한다.Meanwhile, the storage medium referred to in the present invention is a compact disc (CD), a digital versatile disc (DVD), a high definition DVD (HD-DVD), and a blue-ray disc (BD). , It means a physical device that can semi-permanently record and store computer data that can be used by those with ordinary knowledge in the field, including optical information storage media (HDDS) using holographic. On the other hand, the storage medium referred to in the present invention is a compact disc (CD), a digital versatile disc (DVD), a high-definition DVD (HD-DVD), and a blue-ray disc (BD). Disc), a physical device that can semi-permanently record and store computer data that can be used by those with ordinary knowledge in the field, including optical information storage media (HDDS) using holographic Means.
본 발명의 또 다른 일 실시예에 따른 3D 프린터 출력물은 상기 포토 스캐닝 기반의 3D 모델링 방법으로 제작된 이미지 파일을 사용하여 출력된 것일 수 있다.The 3D printer output according to another embodiment of the present invention may be output using an image file produced by the photo scanning-based 3D modeling method.
본 발명에서 말하는 3D 프린터 출력물은 3D 프린터를 사용하여 만들어진 생산품을 말하며, 3D 프린팅의 방식 및 사용하는 재료는 플라스틱, 금속 등을 포함하며, 이에 한정하지 않고 해당 분야에서 통상의 지식을 가진 자가 적절하게 사용할 수 있는 형태의 것을 모두 포함하는 것으로 본다.The 3D printer output referred to in the present invention refers to a product made using a 3D printer, and the method of 3D printing and materials used include plastic, metal, etc. It is considered to include all available forms.
본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법은 영상데이터를 조합하여 포인트 클라우드를 생성하고 메쉬 데이터로 변환하여 일반 이미지 촬영으로부터 보다 정교한 3D 모델링 이미지를 수득할 수 있다.In the photo scanning-based 3D modeling method according to the present invention, a point cloud is generated by combining image data and converted into mesh data to obtain a more sophisticated 3D modeling image from general image capture.
본 발명은 리디지인이 보다 용이할 수 있도록 하는 3D 모델링 데이터를 제공할 수 있는 포토 스캐닝 기반의 3D 모델링 방법을 제공한다.The present invention provides a photo-scanning-based 3D modeling method capable of providing 3D modeling data that makes redigin easier.
본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법은 3D 모델링 데이터를 생성하는데 소요되는 시간을 절감할 수 있고, 상대적으로 적은 이미지를 사용하여 정밀한 3D 모델링 데이터를 완성할 수 있는 효율적인 프로세스를 제공한다.The photo scanning-based 3D modeling method according to the present invention can reduce the time required to generate 3D modeling data, and provides an efficient process for completing precise 3D modeling data using relatively few images.
본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법은 이미지 촬영단계에서 빛 반사 및 조도에 의한 접합 오류를 줄이고, 3D 데이터의 후가공에 의한 보정문제를 해소할 수 있도록 하여 공정의 속도 및 처리 효율을 높일 수 있게 한다.The photo scanning-based 3D modeling method according to the present invention can improve process speed and processing efficiency by reducing bonding errors due to light reflection and illuminance in the image capturing step, and solving correction problems caused by post-processing of 3D data. To be.
도 1은 종래의 제품 디자인 제작을 위한 프로세스를 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 이미지 촬영단계에서 서로 다른 높이에서 피사체를 주변을 회전하면서 피사체에 대한 이미지를 수득하는 과정을 예시한 것이다.
도 3은 본 발명의 일 실시예에 따른 촬영 이미지에서 점 구름을 형성하는 단계를 예시한 것이다.
도 4는 본 발명의 일 실시예에 따른 맵핑 프로세싱 단계를 예시한 것이다.
도 5는 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 6은 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 7은 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 8은 본 발명의 일 실시예에 따른 포토 스캐닝 기반의 3D 모델링 방법을 나타내는 순서도에 관한 것이다.
도 9는 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법으로 만들어진 3D 모델링 데이터를 기초로 리디자인 하기 위한 완구자동차의 도면 이미지이다.
도 10은 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법의 데이터를 가지고 완구 자동차의 윗부분을 디자인된 도면에 따라 모델링데이터를 편집하는 과정을 나타낸 것이다.
도 11은 실물 모델의 완구 자동차를 3D MAX 프로그램을 활용하여 리디자인된 모델링데이터에 관한 것이다.
도 12는 3D 프린터가 이해하는 명령어 형태인 G-code로 변환하는 과정이며 적층방식으로 이루어지는 과정을 나타내는 것이다.
도 13은 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법의 데이터를 리디자인 하여 3D 프린터로 출력한 출력물에 관한 사진이다.1 shows a process for manufacturing a conventional product design.
2 illustrates a process of obtaining an image of a subject while rotating the subject at different heights in the image capturing step according to an embodiment of the present invention.
3 illustrates a step of forming a point cloud in a captured image according to an embodiment of the present invention.
4 illustrates a mapping processing step according to an embodiment of the present invention.
5 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
6 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
7 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
8 is a flowchart illustrating a photo scanning-based 3D modeling method according to an embodiment of the present invention.
9 is a drawing image of a toy vehicle for redesigning based on 3D modeling data created by a photo scanning-based 3D modeling method according to the present invention.
10 is a diagram illustrating a process of editing modeling data according to a design drawing of an upper part of a toy vehicle with data of a photo scanning-based 3D modeling method according to the present invention.
11 relates to modeling data redesigned using a 3D MAX program for a real model toy vehicle.
12 is a process of converting to G-code, which is a command format understood by a 3D printer, and shows a process performed in a stacking method.
13 is a photograph of an output product output by a 3D printer after redesigning data of a photo scanning-based 3D modeling method according to the present invention.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예에 대하여 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.
[실험예: 3D 모델링 실험][Experimental example: 3D modeling experiment]
1. 피사체 준비 및 이미지 촬영1. Subject preparation and image capture
본 발명에 따른 3D 모델링을 수행하기 위해서 피사체에 대한 여러 장의 영상데이터가 필요하다. 피사체는 선정된 완구 자동차이다. 따라서 이미지를 촬영하는 작업의 경우 피사체를 3차원으로 재구성하는 기술로 3D 스캐너에서 포인트 클라우드를 생성하고 이를 기반으로 3차원 좌표 및 메쉬 데이터를 구할 수 있다. 이를 위해 선정된 완구 자동차를 피사체로 놓고 일정한 거리에서 규칙적인 동선의 카메라 포지션을 정하고 촬영하였다.In order to perform 3D modeling according to the present invention, several pieces of image data for a subject are required. The subject is a selected toy car. Therefore, in the case of image capturing, a point cloud can be created in a 3D scanner as a technology that reconstructs a subject in 3D, and 3D coordinates and mesh data can be obtained based on this. To this end, the selected toy car was set as the subject, and the camera position of the regular moving line was set and photographed at a certain distance.
제품의 완구자동차를 촬영하기 위해서는 고품질의 사진정보가 필요하며 카메라에서 지원되는 화소는 700만 이상의 화소를 가진 카메라로 촬영하였다.To shoot the toy car of the product, high-quality photo information is required, and the pixels supported by the camera were taken with a camera with more than 7 million pixels.
카메라로 촬영된 총 48장의 영상데이터를 가지고 포토스캔(photoscan) 프로그램을 활용하여 데이터를 조합한다. 여러 장의 사진을 모두 선택한 후 이미지를 정렬(align photos)시킨다. 이러한 작업을 통해 카메라의 위치와 방향을 찾고 모델링 데이터를 형상화 하는 포인트 클라우드를 생성한다. 정렬하는 시간은 용량에 따라 지연되기도 한다. 총 48장의 사진으로 3개의 사이클로 1주 기당 16장의 이미지를 획득했다. 이미지의 해상도는 4096×2160 사이즈이다. 대상물과 카메라의 거리는 60cm이다. 최대한 이 거리를 유지할 수 있도록 하였다.Take a total of 48 images of image data taken by the camera and combine the data using a photoscan program. After selecting all of the multiple photos, align the images. Through these tasks, a point cloud is created to shape the modeling data by finding the position and direction of the camera. The alignment time may be delayed depending on the capacity. With a total of 48 photos, 16 images were acquired per week in 3 cycles. The resolution of the image is 4096×2160. The distance between the object and the camera is 60cm. I tried to keep this distance as much as possible.
2. 3D 포인트 클라우드 및 메쉬구조 생성2. 3D point cloud and mesh structure creation
도 3에서는 영상데이터의 align photo작업이 완료되면서 포인트 클라우드가 생성된다. 다음으로 Dense Cloud로 좀 더 정밀한 연결점들을 형성한다. 점으로 이루어진 클라우드 데이터는 실사 이미지 제작을 할 수 있도록 모델링 데이터를 형성하는 기초가 된다. 즉 메쉬(mesh) 데이터로 변환할 수 있는 것이다. 정확한 메쉬 계산을 위하여 고밀도 클라우드를 설정하고 메쉬로 변환한다. 도 3에서 메쉬 데이터를 획득한 후 피사체에 대한 재질 및 텍스쳐 맵핑 과정을 거쳐야 한다. 이 과정에서는 Generic 모드로 설정하는 것이 안정적이다.In FIG. 3, a point cloud is created when the align photo operation of image data is completed. Next, more precise connections are formed with the Dense Cloud. Cloud data made of dots becomes the basis for forming modeling data so that photorealistic images can be produced. That is, it can be converted into mesh data. For accurate mesh calculation, a high-density cloud is set and converted into a mesh. After obtaining the mesh data in FIG. 3, a material and texture mapping process for a subject must be performed. In this process, it is stable to set it to Generic mode.
도 4는 텍스쳐 맵핑 과정이다. 대상물과 카메라 포지션에 대한 정보를 알 수 있다. 이 때 정교한 질감과 색상은 촬영 할 때의 노출과 매우 밀접한 관계가 있다. 생성된 맵 재질과 모델링 데이터는 리디자인의 맵 형성과 데이터의 응용에 활용된다. 3D 모델링 데이터 생성이후 3D MAX에서 다양하게 작업하기 위하여 3ds 파일로 전환하여 export 하였다. 다른 응용소프트웨어를 사용할 경우에는 obj, wrl, stl, fbx, dxf등 다양한 포맷의 데이터로 변환하여 지원한다.4 is a texture mapping process. You can get information about the object and camera position. At this time, the elaborate texture and color are very closely related to the exposure when shooting. The generated map material and modeling data are used for map formation and data application in redesign. After the 3D modeling data was created, it was converted to 3ds file and exported for various work in 3D MAX. In case of using other application software, it is supported by converting data in various formats such as obj, wrl, stl, fbx, dxf.
3. 후처리 공정3. Post-treatment process
획득된 3D 모델 데이터에서 가상 카메라를 사용하여 위 촬영 단계에서의 카메라 위치 값을 입력하여 가상 카메라의 이미지와 실제 촬영된 이미지를 대비하였고, 오차 범위가 큰 이미지의 경우 실제 촬영이미지로 해당 위치 값의 이미를 교체하고 상기 3D 모델링 작업을 완성하였다.From the acquired 3D model data, a virtual camera was used to input the camera position value in the above photographing step to compare the image of the virtual camera and the actual photographed image. In the case of an image with a large error range, the actual photographed image The image was replaced and the 3D modeling work was completed.
이에 따라 생성된 3D 모델링의 이미지가 상당히 정교하게 얻어질 수 있었으며, 모델링을 완성하는데 소요되는 시간도 상당히 줄일 수 있다는 점을 확인할 수 있다.Accordingly, it can be seen that the generated 3D modeling image can be obtained with great precision, and the time required to complete the modeling can be significantly reduced.
4. 리디자인4. Redesign
본 발명에 따라 얻어진 3D 모델링 데이터를 이용하여 리디자인 하는 것이 용이한지 여부를 확인하기 위하여 도 10과 같은 새로운 자동차 이미지를 특정하고 자동차(피사체)에 대하여 포토스캐닝 기술을 이용해서 획득된 3D모델링 데이터를 기초로 리모델링을 진행하였다. 상기 리모델링은 포토스캐닝 기술을 이용해서 획득된 3D모델링 데이터를 사용하여 3D MAX 전문 모델링 프로그램을 이용하여 제작하였다. 완성된 모델링 데이터를 분석하여 디자이너가 원하는 형태의 도면을 바탕으로 재가공할 수 있다. 포토스캐닝으로 획득된 3D 모델링데이터는 폴리곤(polygon)으로 생성되어 있다. import된 3D 데이터는 3D MAX에서 총 48개의 카메라가 설치되어 있다. 가상카메라를 활용하기 위하여 기존의 촬영된 카메라의 위치 값을 모두 삭제하고 새로운 가상카메라로 셋팅 했다. 또한 리디자인을 위한 기본 도면을 가지고 데이터 변형에 들어간다. 이때 폴리곤의 점과 면을 이루는 일정한 간격유지와 점의 추가 및 시그먼트(segment)의 추가는 매우 정교하게 이루어져야 한다. 또한 제품디자인의 품질을 높이기 위해 부분적 노이즈가 생성되어 있는 폴리곤 데이터를 정리 및 추가를 반복하여 완성도를 높일 수 있다. 본 발명에 따란 3D 모델링 데이터를 사용하는 경우 기존 디자인의 변형 및 수정하는 것이 종래 방법들에 비하여 훨씬 편리하였고 리모델링 제작도 효율적으로 이루어질 수 있다는 점을 확인하였다. 리모델링에 소요된 시간은 2시간 이다. 또한 포토스캐닝에서 리모델링까지의 시간은 총 4시간이다. 초기의 모델링 설계시간에 비해 매우 빠르게 제작됨을 알 수 있었다.In order to check whether it is easy to redesign using the 3D modeling data obtained according to the present invention, a new car image as shown in Fig. 10 is specified, and based on the 3D modeling data obtained using the photo-scanning technology for the car (subject). Remodeling was carried out. The remodeling was produced using a 3D MAX professional modeling program using 3D modeling data acquired using photo scanning technology. By analyzing the completed modeling data, the designer can reprocess it based on the desired shape of the drawing. The 3D modeling data acquired by photo scanning is created as a polygon. For imported 3D data, a total of 48 cameras are installed in 3D MAX. In order to use the virtual camera, all the location values of the existing cameras were deleted and set as a new virtual camera. In addition, data transformation begins with a basic drawing for redesign. At this time, it is necessary to maintain a certain distance between the points and sides of the polygon, add points, and add segments very elaborately. In addition, in order to improve the quality of the product design, it is possible to increase the completeness by repeating the arrangement and addition of polygon data in which partial noise is generated. In the case of using the 3D modeling data according to the present invention, it was confirmed that the transformation and modification of the existing design was much more convenient than the conventional methods, and the remodeling and production could be efficiently performed. The time required for remodeling was 2 hours. In addition, the time from photo scanning to remodeling is a total of 4 hours. It can be seen that it is produced very quickly compared to the initial modeling design time.
도 13은 상기 리디자인 된 3D 도면을 사용하여 3D 프린터로 출력된 출력물에 관한 것이다. 이를 도 10의 디자인과 비교하면 매우 정교한 형태로 3D 모델링 이미지가 리디자인 되었다는 점을 알 수 있다. 이에 따라 본 발명에 따른 포토 스캐닝 기반의 3D 모델링 방법에 의하는 경우 리디자인이 용이한 3D 모델링 데이터를 얻을 수 있다는 점을 확인할 수 있다.13 relates to an output printed by a 3D printer using the redesigned 3D drawing. Comparing this with the design of FIG. 10, it can be seen that the 3D modeling image has been redesigned in a very elaborate form. Accordingly, it can be confirmed that 3D modeling data that can be easily redesigned can be obtained in the case of the photo scanning-based 3D modeling method according to the present invention.
[제조예: 광산란 억제 조성물의 제조][Production Example: Preparation of a composition for inhibiting light scattering]
피사체에 대한 광산란 억제 효과를 확인하기 위하여 금속으로 이루어진 머그컵에 하기의 [표 1]과 같은 조성으로 이루어진 광산란 억제 조성물을 도포하고 건조하였다.In order to confirm the light scattering suppressing effect on the subject, a light scattering suppressing composition composed of the composition shown in [Table 1] below was applied to a mug made of metal and dried.
(단위: 중량부)(Unit: parts by weight)
[[ 실험예Experimental example : : 부착성Adherence 평가] evaluation]
상기 실시예 1 내지 7에 따라 코팅된 금속 재질의 머그컵을 자연광에서 인식되는 코팅 정도를 유관으로 살펴보고 금속 재질의 색변화 또는 광도 변화 정도를 1 내지 10의 지수로 평가하였다. 하기의 지수는 그 숫자가 높을수록 유관으로 코팅층이 잘 보이지 않고 코팅층에 의한 금속재질의 색별화 또는 코팅층에 의한 표면 변화가 없어 효과가 우수한 것이다.The degree of coating perceived in natural light for the metallic mugs coated according to Examples 1 to 7 was examined as related, and the degree of color change or luminosity change of the metallic material was evaluated with an index of 1 to 10. The index below is the higher the number, the better the effect is that the coating layer is not easily visible due to the related pipe, and there is no color-distinguishment of the metallic material by the coating layer or the surface change by the coating layer.
상기 코팅된 머그컵을 촬영하면서 광산란 정도를 평가하여 1 내지 10의 지수로 나타내었다. 상기 지수는 높을수록 빛 반사가 적은 것으로 촬영이미지의 빛 반사에 의한 왜곡이 적어지기 때문에 우수한 것이다.While photographing the coated mug, the degree of light scattering was evaluated and expressed as an index of 1 to 10. The higher the index, the less light reflection, which is excellent because the distortion caused by the light reflection of the photographed image is reduced.
또한 상기 코팅된 금속 재질의 머그컵 표면에 동일한 정도의 물리력을 가하면서 부착성을 평가하여 지수로 나타내었다. 하기의 지수는 그 숫자가 높을수록 코팅층의 내구성 우수한 것이다.In addition, adhesion was evaluated while applying the same degree of physical force to the surface of the coated metal mug and expressed as an index. The index below is the higher the number, the better the durability of the coating layer.
그 결과를 하기의 [표 2]에 나타내었다.The results are shown in the following [Table 2].
(단위: 지수)(Unit: index)
상기 [표 2]를 참조하면, 실시예 1를 기준으로 각 실시예 2 내지 7에 관한 핏 매칭 포인트 지수와 내구성을 비교평가한 결과 실시예 2 내지 7의 경우 실시예 1에 비하여 자연광에서 코팅층이 잘 보이지 않을 뿐만 아니라, 금속 표면의 색변화 등이 적다는 것을 확인할 수 있었다.Referring to [Table 2], as a result of comparing and evaluating the fit matching point index and durability for each of Examples 2 to 7 based on Example 1, in the case of Examples 2 to 7 compared to Example 1, the coating layer was In addition to being difficult to see, it was confirmed that there was little change in the color of the metal surface.
또한 카메라로 촬영한 화면에서는 실시예 2 내지 7의 경우 빛 반사가 억제되는 것을 알 수 있다. 따라서 상기 조성물에 의하는 경우 실리카를 사용하지 않아 피사체의 영구적인 표면 색상 등의 변화를 일으키지 않으면서도 광산란을 억제할 수 있어 3D 이미지 촬영을 위한 피사체의 변형이 없는 코팅제로 활용되게 할 수 있다.In addition, in the screen shot with the camera, it can be seen that light reflection is suppressed in Examples 2 to 7. Therefore, in the case of the composition, since silica is not used, light scattering can be suppressed without causing a permanent change in the surface color of the subject, and thus it can be used as a coating agent without deformation of the subject for 3D image capture.
특히 내구성의 경우에 있어서 실시예 5 및 6의 경우에는 아무리 힘을 가하여도 머그컵 표면에 코팅층이 거의 훼손되지 않으므로 매칭 포인트가 인쇄한 경우 이를 보호할 수 있을 뿐만 아니라 피사체의 종류에 따라서는 상기 코팅층에 의하여 피사체가 보호되고 그 일상적인 용도에 따른 사용에 문제를 일으키지 않을 수 있다. 특히 상기 실시예 5 및 6에 의하는 경우 카바이드졸계 화합물에 의한 상호 작용으로 상승효과로 코팅층의 내구성이 크게 높아진다는 점을 확인하였다.In particular, in the case of durability, in the case of Examples 5 and 6, the coating layer is hardly damaged on the surface of the mug no matter how much force is applied, so when a matching point is printed, it can be protected. Thus, the subject is protected and may not cause problems in use according to its daily use. In particular, in the case of Examples 5 and 6, it was confirmed that the durability of the coating layer was greatly increased due to the synergistic effect due to the interaction of the carbide sol-based compound.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also present. It belongs to the scope of rights of
Claims (9)
상기 이미지 촬영단계에서 얻어진 복수 개의 촬영 이미지를 정렬하는 이미지 정렬단계;
상기 정렬단계에서 정렬된 촬영 이미지에 점 구름(point cloud)을 생성하고, 밀집 점(dense point)으로 연결 점을 생성하는 영상처리 단계;
상기 영상처리 단계를 거친 이미지를 메쉬(Mesh) 데이터로 변환하는 메쉬구조 형성단계; 및
상기 메쉬 데이터를 피사체의 포지션에 매칭시켜 위치시기는 맵핑 프로세싱 단계를 포함하는
포토 스캐닝 기반의 3D 모델링 방법.An image photographing step of photographing a subject and obtaining a plurality of photographed images using a camera having a predetermined height and angle position value;
An image alignment step of aligning a plurality of photographed images obtained in the image photographing step;
An image processing step of generating a point cloud on the photographed image aligned in the alignment step, and generating a connection point as a dense point;
A mesh structure forming step of converting the image that has undergone the image processing step into mesh data; And
Matching the mesh data to the position of the subject and positioning timing includes a mapping processing step.
Photo scanning-based 3D modeling method.
상기 이미지 촬영단계는 카메라가 피사체를 주변을 3주기 이상으로 회전하면서 촬영되는 것이고,
촬영하는 각 회전 주기는 서로 다른 높이에서 촬영되는 것인
포토 스캐닝 기반의 3D 모델링 방법.The method of claim 1,
The image capturing step is taken while the camera rotates the subject for at least 3 cycles,
Each rotation cycle taken is taken from a different height.
Photo scanning-based 3D modeling method.
상기 이미지 촬영단계는 1 주기당 10 내지 24개의 촬영 이미지가 얻어지도록 하는 것인
포토 스캐닝 기반의 3D 모델링 방법.The method of claim 2,
The image photographing step is to obtain 10 to 24 photographed images per cycle.
Photo scanning-based 3D modeling method.
상기 맵핑 프로세싱 단계 이후에,
피사체의 재질을 반영하여 영상 데이터를 보정하는 보정단계를 더 포함하는
포토 스캐닝 기반의 3D 모델링 방법.The method of claim 3,
After the mapping processing step,
Further comprising a correction step of correcting the image data by reflecting the material of the subject
Photo scanning-based 3D modeling method.
상기 맵핑 프로세싱 단계 이후에,
완성된 3D 모델링 이미지에서 가상 카메라를 사용하여 이미지 촬영단계에서 설정된 위치 값에 따라 가상 이미지를 촬영하는 제1 가상 이미지 촬영 단계;
상기 가상 이미지를 매칭되는 위치 값의 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및
상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제1 이미지 수정단계
를 더 포함하는 것인
포토 스캐닝 기반의 3D 모델링 방법.The method of claim 3,
After the mapping processing step,
A first virtual image capturing step of capturing a virtual image according to a position value set in the image capturing step using a virtual camera in the completed 3D modeling image;
An analysis step of comparing the difference between the virtual image and the photographed image of the matching position value; And
A first image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step
Which further comprises
Photo scanning-based 3D modeling method.
이미지 수정단계 이후에 만들어진 3D 모델링 데이터를 이용하여 상기 이미지 촬영단계에서 입력된 위치 값을 모두 삭제하고 가상 카메라를 사용하여 임의로 설정된 위치 값에 따라 가상 이미지를 촬영하는 제2 가상 이미지 촬영 단계;
상기 제2 가상 이미지 촬영 단계의 위치 값에 따라 카메라가 피사체를 촬영하고 제2 촬영 이미지를 생성하는 제2 촬영 이미지 생성단계;
상기 제2 가상 이미지를 매칭되는 위치 값의 제2 촬영 이미지와 대비하여 차이를 비교하는 분석단계; 및
상기 분석단계에서 미리 정해놓은 범위 이상으로 차이가 발생한 경우 상기 가상 이미지를 매칭되는 촬영 이미지로 교체하는 제2 이미지 수정단계
를 더 포함하는 것인
포토 스캐닝 기반의 3D 모델링 방법.The method of claim 5,
A second virtual image capturing step of deleting all position values input in the image capturing step by using 3D modeling data created after the image retouching step and capturing a virtual image according to a randomly set position value using a virtual camera;
A second photographed image generation step in which a camera photographs a subject and generates a second photographed image according to the position value of the second virtual image photographing step;
An analysis step of comparing a difference between the second virtual image and a second photographed image of a matched position value; And
A second image modification step of replacing the virtual image with a matching photographed image when a difference occurs beyond a predetermined range in the analysis step
Which further comprises
Photo scanning-based 3D modeling method.
상기 이미지 촬영단계 이전에,
상기 피사체를 광산란 억제 조성물로 코팅하는 피사체 코팅단계를 더 포함하는
포토 스캐닝 기반의 3D 모델링 방법.The method of claim 1,
Before the image capturing step,
Further comprising a subject coating step of coating the subject with a light scattering suppressing composition
Photo scanning-based 3D modeling method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190103171A KR102259509B1 (en) | 2019-08-22 | 2019-08-22 | 3d modeling process based on photo scanning technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190103171A KR102259509B1 (en) | 2019-08-22 | 2019-08-22 | 3d modeling process based on photo scanning technology |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210023232A true KR20210023232A (en) | 2021-03-04 |
KR102259509B1 KR102259509B1 (en) | 2021-06-01 |
Family
ID=75174456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190103171A KR102259509B1 (en) | 2019-08-22 | 2019-08-22 | 3d modeling process based on photo scanning technology |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102259509B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220158879A (en) | 2021-05-24 | 2022-12-02 | 주식회사 그리드컴 | System and construction method 3D modeling |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102547323B1 (en) | 2023-03-16 | 2023-06-22 | 이채영 | Object segmentation device and method formed through 3d scanning |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110119893A (en) | 2010-04-28 | 2011-11-03 | 주식회사 아이티엑스시큐리티 | Video analysing apparatus and method using 3d camera |
KR20140081729A (en) * | 2012-12-21 | 2014-07-01 | 다솔 시스템즈 델미아 코포레이션 | Location correction of virtual objects |
KR20150079059A (en) * | 2013-12-31 | 2015-07-08 | 주식회사 태산솔루젼스 | Spray coating composition for 3d scan |
KR20160148885A (en) | 2015-06-17 | 2016-12-27 | (주)유니드픽쳐 | 3D modeling and 3D geometry production techniques using 2D image |
KR20190014717A (en) * | 2017-08-03 | 2019-02-13 | 김동호 | Anti-bacterial coating composition |
-
2019
- 2019-08-22 KR KR1020190103171A patent/KR102259509B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110119893A (en) | 2010-04-28 | 2011-11-03 | 주식회사 아이티엑스시큐리티 | Video analysing apparatus and method using 3d camera |
KR20140081729A (en) * | 2012-12-21 | 2014-07-01 | 다솔 시스템즈 델미아 코포레이션 | Location correction of virtual objects |
KR20150079059A (en) * | 2013-12-31 | 2015-07-08 | 주식회사 태산솔루젼스 | Spray coating composition for 3d scan |
KR20160148885A (en) | 2015-06-17 | 2016-12-27 | (주)유니드픽쳐 | 3D modeling and 3D geometry production techniques using 2D image |
KR20190014717A (en) * | 2017-08-03 | 2019-02-13 | 김동호 | Anti-bacterial coating composition |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220158879A (en) | 2021-05-24 | 2022-12-02 | 주식회사 그리드컴 | System and construction method 3D modeling |
Also Published As
Publication number | Publication date |
---|---|
KR102259509B1 (en) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gal et al. | Seamless montage for texturing models | |
US8217931B2 (en) | System and method for processing video images | |
US9438878B2 (en) | Method of converting 2D video to 3D video using 3D object models | |
Furukawa et al. | Accurate camera calibration from multi-view stereo and bundle adjustment | |
US20120032948A1 (en) | System and method for processing video images for camera recreation | |
US20130162643A1 (en) | Physical Three-Dimensional Model Generation Apparatus | |
JP2008145431A (en) | Apparatus and method for 3-dimensional surface geometry reconstruction | |
WO2018156126A1 (en) | Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation | |
JP2005521123A5 (en) | ||
KR101181199B1 (en) | Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same | |
KR102259509B1 (en) | 3d modeling process based on photo scanning technology | |
US9147279B1 (en) | Systems and methods for merging textures | |
KR101715325B1 (en) | Method and system for providing Picture lay out drawings by using three dimensional scan technologies | |
WO2020075252A1 (en) | Information processing device, program, and information processing method | |
CN114022542A (en) | Three-dimensional reconstruction-based 3D database manufacturing method | |
Taubin et al. | 3d scanning for personal 3d printing: build your own desktop 3d scanner | |
Akca et al. | High definition 3D-scanning of arts objects and paintings | |
Adami et al. | The bust of Francesco II Gonzaga: from digital documentation to 3D printing | |
Rossoni et al. | Retopology and simplification of reality-based models for finite element analysis | |
CN101686407A (en) | Method and device for acquiring sampling point information | |
Slabaugh et al. | Multi-resolution space carving using level set methods | |
CN113752544B (en) | Bionic 3D printing method based on wood grains | |
Adamopoulos et al. | An updated comparison on contemporary approaches for digitization of heritage objects | |
Hassanpour et al. | Delaunay triangulation based 3d human face modeling from uncalibrated images | |
CN115272587B (en) | Model file generation method and medium for 3D printing and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |