KR20240079402A - 3D Modeling Photography System - Google Patents

3D Modeling Photography System Download PDF

Info

Publication number
KR20240079402A
KR20240079402A KR1020220162272A KR20220162272A KR20240079402A KR 20240079402 A KR20240079402 A KR 20240079402A KR 1020220162272 A KR1020220162272 A KR 1020220162272A KR 20220162272 A KR20220162272 A KR 20220162272A KR 20240079402 A KR20240079402 A KR 20240079402A
Authority
KR
South Korea
Prior art keywords
shooting
cloud server
photographing
modeling
determination unit
Prior art date
Application number
KR1020220162272A
Other languages
Korean (ko)
Inventor
김태웅
송우경
Original Assignee
김태웅
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태웅 filed Critical 김태웅
Priority to KR1020220162272A priority Critical patent/KR20240079402A/en
Publication of KR20240079402A publication Critical patent/KR20240079402A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 3D 모델링 촬영 시스템에 관한 것으로, 그 구성은 3D 모델링 대상을 촬영하는 촬영장치, 3D 모델링 대상의 밝기 조절을 위한 조명장치, 상기 촬영장치에서 3D 모델링 대상까지의 거리 또는 3D 모델링 대상의 형태, 크기를 판단하기 위한 측정장치, 상기 촬영장치, 상기 조명장치, 상기 측정장치와 연동되어, 각종 정보를 저장하고, 3D 모델링 대상의 촬영을 제어하는 클라우드 서버; 및 사용자에 의해 조작될 수 있으며, 상기 촬영장치, 상기 조명장치, 상기 측정장치 및 상기 클라우드 서버와 연동되고, 앱 또는 웹을 통해서 각종 정보를 입출력할 수 있는 사용자 단말기;를 포함하고, 상기 클라우드 서버는, 상기 3D 모델링 촬영의 경로가 지정되거나, 입력되는 경로부, 상기 조명장치를 제어할 수 있는 조명 제어부, 상기 3D 모델링 대상의 촬영 횟수, 한 촬영 당 상기 촬영장치의 이동 거리를 산정하는 촬영 조건 산정부, 상기 3D 모델링 대상의 촬영 조건이 적절히 갖춰졌는지의 판단을 통해, 촬영을 지시하는 촬영 조건 판단부, 상기 3D 모델링 대상의 촬영이 적절히 진행되었는지의 판단을 통해, 재촬영 또는 해당 단계 촬영 중단을 지시하는 촬영 중단 판단부, 상기 경로부, 상기 조명 제어부, 상기 촬영 조건 산정부, 상기 촬영 조건 판단부, 상기 촬영 중단 판단부의 정보가 저장되고, 각종 정보의 입출력이 가능한 저장부;를 포함하여 구성되는 것을 특징으로 한다. The present invention relates to a 3D modeling imaging system, which consists of a photographing device for photographing a 3D modeling object, a lighting device for controlling the brightness of the 3D modeling object, the distance from the photographing device to the 3D modeling object, or the shape of the 3D modeling object. , a cloud server that is linked with a measuring device for determining the size, the photographing device, the lighting device, and the measuring device, stores various information, and controls photographing of a 3D modeling object; and a user terminal that can be operated by the user, is linked with the photographing device, the lighting device, the measuring device, and the cloud server, and is capable of inputting and outputting various information through an app or the web. is a path unit in which the path of the 3D modeling shooting is designated or input, a lighting control unit capable of controlling the lighting device, the number of shots of the 3D modeling object, and shooting conditions for calculating the moving distance of the photographing device per shot. Calculation unit, through judgment whether the shooting conditions of the 3D modeling object are appropriately met, a shooting condition determination unit that instructs shooting, through judgment whether the shooting of the 3D modeling object has been appropriately progressed, reshooting or stopping filming at the relevant stage A storage unit that stores information from the shooting stop determination unit instructing, the path unit, the lighting control unit, the shooting condition calculation unit, the shooting condition determination unit, and the shooting stop determination unit, and is capable of inputting and outputting various types of information. It is characterized by being composed.

Description

3D 모델링 촬영 시스템{3D Modeling Photography System}3D Modeling Photography System

본 발명은 3D 모델링 촬영 시스템에 관한 것으로, 더욱 상세하게는 2차원 이미지를 이용하여 3차원 객체를 얻기 위한 3D 모델링 촬영 시스템에 관한 것이다.The present invention relates to a 3D modeling imaging system, and more specifically, to a 3D modeling imaging system for obtaining a 3D object using a 2D image.

일반적으로 3차원 모델링(3D modeling)이란 컴퓨터 그래픽스의 분야에서 가상의 3차원 공간속에 재현될 수 있는 수학적 모델을 만들어 가는 과정을 말한다. 이러한 모델링은 컴퓨터가 이해할 수 있는 형태의 데이터로 저장된다.In general, 3D modeling refers to the process of creating a mathematical model that can be reproduced in a virtual 3D space in the field of computer graphics. This modeling is stored as data in a form that computers can understand.

보통 3차원적인 물체는 3차원의 선으로 표현되며 렌더링 과정을 통해 실제 물체와 비슷한 양감, 질감을 가질 수 있다. 일반적으로 2차원 상의 작도를 통해 공간에 선을 그리고 그려진 선을 이어 붙이고 공간에 배치하고 이 선 들을 다각형의 면으로 설정하는 방법으로 3차원 모델이 만들어진다. 혹은 3차원 상에 수학적으로 표현되는 기하학 도형으로 표현되거나 도형들을 연산하여 만들어질 수도 있다.Usually, three-dimensional objects are expressed as three-dimensional lines, and through the rendering process, they can have volume and texture similar to real objects. In general, a three-dimensional model is created by drawing lines in space through two-dimensional drawing, connecting the drawn lines, arranging them in space, and setting these lines as polygon faces. Alternatively, it may be expressed as a geometric figure expressed mathematically in three dimensions or created by calculating the figures.

특히 이러한 3차원 모델을 효율적으로 표현하기 위해 가상공간의 3차원 모델을 통해 실세계의 물체를 묘사하거나 혹은 물리적 환경을 모델링하여 가상환경 속에서 물체의 모습을 만들어낼 수도 있다.In particular, in order to efficiently express these 3D models, objects in the real world can be depicted through 3D models in virtual space, or the physical environment can be modeled to create the appearance of the object in the virtual environment.

최근 3차원 모델링은 영화, 애니메이션, 광고 등의 엔터테인먼트 분야와 물리적 실험 시뮬레이션, 건축, 디자인 등의 설계 및 예술의 표현 수단으로 각광 받고 있으며, 3D 프린터 분야에서도 활용도가 높아지고 있다.Recently, 3D modeling has been in the spotlight as a means of expressing design and art in entertainment fields such as movies, animations, and advertisements, as well as physical experiment simulations, architecture, and design, and its use in the 3D printer field is also increasing.

3차원 모델링을 위해서는 다수의 이미지가 필요하며, 이를 이용하여 소프트웨어에 의해 3차원 모델링을 하게 된다. 오브젝트의 모든 방향에서의 정보를 입수하기 위해 여러 방향에서의 스캔 작업이 필요하며, 이러한 작업은 상당한 비용과 작업시간을 필요로 하는 문제가 있었다.For 3D modeling, multiple images are required, and 3D modeling is performed using software. In order to obtain information from all directions of an object, scanning in multiple directions is necessary, and this work requires considerable cost and time.

대한민국 등록특허 공보 제 10-2200866호Republic of Korea Patent Publication No. 10-2200866

상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 2차원 이미지를 이용하여 3차원 객체를 얻기 위한 3D 모델링 촬영 시스템을 제공하는 것이다. In order to solve the above-mentioned problems, the purpose of the present invention is to provide a 3D modeling imaging system for obtaining a 3D object using a 2D image.

상술한 목적을 달성하기 위한 것으로, 본 발명인 3D 모델링 촬영 시스템은, 3D 모델링 대상을 촬영하는 촬영장치, 3D 모델링 대상의 밝기 조절을 위한 조명장치, 상기 촬영장치에서 3D 모델링 대상까지의 거리 또는 3D 모델링 대상의 형태, 크기를 판단하기 위한 측정장치, 상기 촬영장치, 상기 조명장치, 상기 측정장치와 연동되어, 각종 정보를 저장하고, 3D 모델링 대상의 촬영을 제어하는 클라우드 서버; 및 사용자에 의해 조작될 수 있으며, 상기 촬영장치, 상기 조명장치, 상기 측정장치 및 상기 클라우드 서버와 연동되고, 앱 또는 웹을 통해서 각종 정보를 입출력할 수 있는 사용자 단말기;를 포함하고, 상기 클라우드 서버는, 상기 3D 모델링 촬영의 경로가 지정되거나, 입력되는 경로부, 상기 조명장치를 제어할 수 있는 조명 제어부, 상기 3D 모델링 대상의 촬영 횟수, 한 촬영 당 상기 촬영장치의 이동 거리를 산정하는 촬영 조건 산정부, 상기 3D 모델링 대상의 촬영 조건이 적절히 갖춰졌는지의 판단을 통해, 촬영을 지시하는 촬영 조건 판단부, 상기 3D 모델링 대상의 촬영이 적절히 진행되었는지의 판단을 통해, 재촬영 또는 해당 단계 촬영 중단을 지시하는 촬영 중단 판단부, 상기 경로부, 상기 조명 제어부, 상기 촬영 조건 산정부, 상기 촬영 조건 판단부, 상기 촬영 중단 판단부의 정보가 저장되고, 각종 정보의 입출력이 가능한 저장부;를 포함하여 구성되는 것을 특징으로 한다. In order to achieve the above-described object, the 3D modeling imaging system of the present invention includes an imaging device for photographing a 3D modeling object, a lighting device for controlling the brightness of a 3D modeling object, and a distance from the photographing device to a 3D modeling object or 3D modeling A cloud server that is linked with a measuring device for determining the shape and size of an object, the photographing device, the lighting device, and the measuring device, stores various information, and controls photographing of the 3D modeling object; and a user terminal that can be operated by the user, is linked with the photographing device, the lighting device, the measuring device, and the cloud server, and is capable of inputting and outputting various information through an app or the web. is a path unit in which the path of the 3D modeling shooting is designated or input, a lighting control unit capable of controlling the lighting device, the number of shots of the 3D modeling object, and shooting conditions for calculating the moving distance of the photographing device per shot. Calculation unit, through judgment whether the shooting conditions of the 3D modeling object are appropriately met, a shooting condition determination unit that instructs shooting, through judgment whether the shooting of the 3D modeling object has been appropriately progressed, reshooting or stopping filming at the relevant stage A storage unit that stores information from the shooting stop determination unit instructing, the path unit, the lighting control unit, the shooting condition calculation unit, the shooting condition determination unit, and the shooting stop determination unit, and is capable of inputting and outputting various types of information. It is characterized by being composed.

상기 3D 모델링 촬영 시스템에 있어서, 상기 측정장치의 정보를 받아, 상기 클라우드 서버의 경로부에 3D 모델링 촬영 경로가 입력되고, 상기 클라우드 서버의 저장부에 저장되는 제 1 단계, 상기 측정장치에 의해 3D 모델링 대상에서 한 면의 세로 길이 L1과 가로 길이 L2가 측정되고, 상기 클라우드 서버의 저장부에 저장되는 제 2 단계, 상기 촬영장치가 촬영 시작 위치로 이동되는 제 3 단계, 상기 측정장치에 의해 상기 촬영장치에서 3D 모델링 대상까지의 평행 거리 D1이 측정되고, 상기 클라우드 서버의 저장부에 저장되는 제 4 단계, 사용자가 상기 사용자단말기의 앱 또는 웹을 이용하여, 촬영 중복도 값 A%와 (촬영장치의 화각/2)값인 θ를 입력하여, 상기 클라우드 서버의 저장부에 저장하는 제 5 단계, 상기 클라우드 서버의 촬영 조건 산정부에서 상기 클라우드 서버 저장부에 저장된 L1, L2, D1, A, θ 값을 이용하여, 세로촬영횟수 n1, 한 컷당 세로 이동 거리 m1, 가로촬영횟수 n2, 한 컷당 가로 이동 거리 m2를 산정하여 상기 클라우드 서버의 저장부에 저장하는 제 6 단계, 상기 클라우드 서버의 조명 제어부에서 상기 조명장치의 필요성을 판단하는 제 7 단계, 상기 제 7 단계에서 상기 조명장치가 필요하다고 판단한 경우, 상기 클라우드 서버의 조명 제어부가 상기 조명장치의 광량, 각도, 색온도를 조절하는 제 8 단계, 상기 클라우드 서버의 촬영 조건 확인부에서 상기 제 1 내지 제 8 단계가 적절히 수행되었는지 확인한 후, 촬영 시작 지시를 내리는 제 9 단계, 상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 n1, m1 값에 맞춰 세로방향으로의 촬영을 진행하는 제 10 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n1 횟수만큼 촬영을 진행했다고 판단하는 제 11 단계, 상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 m2 값 만큼 가로 방향으로 1회 이동하는 제 12 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 m2 값만큼 촬영을 진행했다고 판단하는 제 13 단계, 상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 n1, m1 값에 맞춰 상기 제 10 단계의 반대방향으로 촬영을 진행하는 제 14 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n1 횟수만큼 촬영을 진행했다고 판단하는 제 15 단계, 상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 m2 값 만큼 가로 방향으로 1회 이동하는 제 16 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 m2 값만큼 촬영을 진행했다고 판단하는 제 17 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n2 횟수만큼 촬영이 진행되었다고 판단할때까지, 상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 촬영 경로를 따라 n1, m1, m2 값 만큼 이동하며 상기 제 10 단계에서 상기 제 17 단계까지를 반복 진행하는 제 18 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n2 횟수만큼 촬영이 진행되었다고 판단하는 제 19 단계, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 사용자단말기로 촬영 완료 알림을 송부하는 제 20 단계, 사용자가 상기 사용자단말기의 앱 또는 웹을 이용하여 촬영 결과물을 확인한 후 촬영을 종료시키는 제 21 단계;를 포함하여 구성되는 것을 특징으로 한다. In the 3D modeling shooting system, a first step of receiving information from the measuring device, inputting the 3D modeling shooting path to the path section of the cloud server, and storing it in the storage section of the cloud server, 3D shooting by the measuring device A second step in which the vertical length L 1 and the horizontal length L 2 of one side of the modeling object are measured and stored in the storage of the cloud server; a third step in which the photographing device is moved to the photographing start position; In the fourth step, the parallel distance D 1 from the photographing device to the 3D modeling object is measured and stored in the storage of the cloud server, the user uses the app or web of the user terminal to capture the photographing redundancy value A% A fifth step of inputting θ, which is the angle of view of the photographing device/2, and storing it in the storage of the cloud server, L 1 stored in the cloud server storage in the shooting condition calculation unit of the cloud server, L 2 , D 1 , Using the A and θ values, the number of vertical shots n 1 , the vertical movement distance per cut m 1 , the number of horizontal shots n 2 , and the horizontal movement distance per cut m 2 are calculated and stored in the storage of the cloud server. , a seventh step in which the lighting control unit of the cloud server determines the necessity of the lighting device. If the lighting control unit of the cloud server determines that the lighting device is necessary in the seventh step, the lighting control unit of the cloud server determines the light quantity, angle, and color temperature of the lighting device. An eighth step of adjusting, a ninth step of issuing an instruction to start shooting after checking whether the first to eighth steps have been properly performed in the shooting condition confirmation unit of the cloud server, the shooting device is stored in the storage of the cloud server. A tenth step of performing shooting in the vertical direction according to the stored n 1 and m 1 values, and an eleventh step where the shooting stop determination unit of the cloud server determines that shooting has been performed as many times as n 1 stored in the storage of the cloud server. Step, a twelfth step in which the photographing device moves once in the horizontal direction by the m 2 value stored in the storage of the cloud server, the photographing interruption determination unit of the cloud server moves by the m 2 value stored in the storage of the cloud server A 13th step of determining that photography has been performed, a 14th step of the photographing device proceeding to photograph in the opposite direction of the 10th step according to the n 1 and m 1 values stored in the storage of the cloud server, and A 15th step in which the shooting interruption determination unit determines that shooting has been performed as many times as n 1 stored in the storage of the cloud server, and the photographing device moves once in the horizontal direction by the m 2 value stored in the storage of the cloud server. Step 16, the shooting stop determination unit of the cloud server determines that shooting has progressed to the m 2 value stored in the storage unit of the cloud server. Step 17, the shooting stop determination unit of the cloud server determines that the storage unit of the cloud server Until it is determined that the shooting has progressed as many times as n 2 stored in An 18th step of repeating steps up to 17, a 19th step where the shooting stop determination unit of the cloud server determines that shooting has progressed as many times as n 2 stored in the storage of the cloud server, and a shoot stop determination unit of the cloud server A 20th step of sending a shooting completion notification to the user terminal, and a 21st step of ending shooting after the user checks the shooting result using an app or web of the user terminal.

상기 제 11 단계, 상기 제 15 단계 이후, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 촬영장치를 m1 값 만큼 세로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하고, 촬영이 적절치 않았다면 각각 상기 제 10 단계, 상기 제 15 단계로 되돌아가고, 촬영이 적절하였다면 상기 촬영장치를 각각 상기 제 11 단계, 상기 제 15 단계 위치로 이동시킨 후 다음 단계로 진행하는 단계가 더 이뤄질 수 있고, 상기 제 19 단계 이후, 상기 클라우드 서버의 촬영 중단 판단부에서 상기 촬영장치를 m2 값 만큼 가로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하고, 촬영이 적절치 않았다면 상기 제 18 단계로 되돌아가고, 촬영이 적절하였다면 다음 단계로 진행하는 단계가 더 이뤄질 수 있는 것을 특징으로 한다. After the 11th step and the 15th step, the photographing interruption determination unit of the cloud server moves the photographing device one more time in the vertical direction by the value m 1 to determine whether the photographing was performed smoothly, and if the photographing was not appropriate, respectively. Returning to the 10th step and the 15th step, and if the photographing was appropriate, moving the photographing device to the 11th step and the 15th step position, respectively, and then proceeding to the next step may be further performed. After step 19, the shooting interruption determination unit of the cloud server moves the shooting device one more time in the horizontal direction by the m 2 value to determine whether shooting was performed smoothly, and if shooting was not appropriate, returns to step 18, If the filming was appropriate, further steps can be taken to proceed to the next stage.

상기 제 11 단계, 상기 제 15 단계에서, 상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 각각 상기 제 10 단계, 상기 제 14 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있고, 상기 제 13 단계, 상기 제 17 단계에서, 상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 각각 상기 제 12 단계, 상기 제 16 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있으며, 상기 제 19 단계에서, 상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 상기 제 18 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있고, 상기 제 21 단계에서, 사용자가 상기 사용자단말기의 앱 또는 웹을 이용하여 촬영이 부족했다고 판단되는 부분을 클릭하면, 해당 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있는 것을 특징으로 한다.In the 11th step and the 15th step, if the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, a step of returning to the 10th step and the 14th step, respectively, and reshooting may be further included, In the 13th step and the 17th step, if the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, a step of returning to the 12th step and the 16th step, respectively, and reshooting may be further included, In the 19th step, if the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, a step of returning to the 18th step and reshooting may be further included, and in the 21st step, the user uses the user terminal. If you click on a part that is judged to have been insufficiently shot using the app or web, a step of returning to that step and reshooting may be further included.

상기 제 19 단계 이후에, 상기 측정장치가 돌출부 또는 곡면부가 있었다고 판단하면, 상기 돌출부 또는 곡면부에 대한 촬영이 진행되는 단계가 더 포함될 수 있는 것을 특징으로 한다. After the 19th step, if the measuring device determines that there is a protrusion or curved surface, a step of photographing the protrusion or curved surface may be further included.

본 발명에 의한 3D 모델링 촬영 시스템에서는 다음과 같은 효과가 있다. 편리한 방법을 통해 정확도가 높은 3차원 모델링이 가능하다는 이점이 있다. The 3D modeling imaging system according to the present invention has the following effects. It has the advantage of enabling highly accurate three-dimensional modeling through a convenient method.

도 1은 본 발명인 3D 모델링 촬영 시스템의 촬영 도면이다.
도 2는 본 발명인 3D 모델링 촬영 시스템의 구성도이다.
도 3은 본 발명인 3D 모델링 촬영 시스템의 3D 모델링 대상이다.
도 4는 본 발명인 3D 모델링 촬영 시스템의 3D 모델링 대상의 돌출부 사각박스이다.
도 5는 본 발명인 3D 모델링 촬영 시스템의 순서도이다.
도 6은 본 발명인 3D 모델링 촬영 시스템 촬영 조건 산정부의 촬영 조건 산정 방법이다.
1 is a photographic diagram of the 3D modeling imaging system of the present invention.
Figure 2 is a configuration diagram of the 3D modeling imaging system of the present invention.
Figure 3 is a 3D modeling object of the 3D modeling imaging system of the present invention.
Figure 4 shows a protruding square box as a 3D modeling object of the 3D modeling imaging system of the present invention.
Figure 5 is a flowchart of the 3D modeling imaging system of the present invention.
Figure 6 is a method of calculating shooting conditions in the shooting condition calculation unit of the 3D modeling shooting system of the present invention.

이하, 본 발명에 의한 3D 모델링 촬영 시스템의 바람직한 실시예가 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, a preferred embodiment of the 3D modeling imaging system according to the present invention will be described in detail with reference to the attached drawings.

본 발명인 3D 모델링 촬영 시스템은, 3D 모델링 대상(10)을 촬영하는 촬영장치(20), 3D 모델링 대상(10)의 밝기 조절을 위한 조명장치(30), 상기 촬영장치(20)에서 3D 모델링 대상(10)까지의 거리 또는 3D 모델링 대상(10)의 형태, 크기를 판단하기 위한 측정장치(40), 상기 촬영장치(20), 상기 조명장치(30), 상기 측정장치(40)와 연동되어, 각종 정보를 저장하고, 3D 모델링 대상(10)의 촬영을 제어하는 클라우드 서버(50); 및 사용자에 의해 조작될 수 있으며, 상기 촬영장치(20), 상기 조명장치(30), 상기 측정장치(40) 및 상기 클라우드 서버(50)와 연동되고, 앱 또는 웹을 통해서 각종 정보를 입출력할 수 있는 사용자 단말기(60);를 포함하고, 상기 클라우드 서버는(50), 상기 3D 모델링 촬영의 경로가 지정되거나, 입력되는 경로부(51), 상기 조명장치(30)를 제어할 수 있는 조명 제어부(52), 상기 3D 모델링 대상(10)의 촬영 횟수, 한 촬영 당 상기 촬영장치(20)의 이동 거리를 산정하는 촬영 조건 산정부(53), 상기 3D 모델링 대상(10)의 촬영 조건이 적절히 갖춰졌는지의 판단을 통해, 촬영을 지시하는 촬영 조건 판단부(54), 상기 3D 모델링 대상(10)의 촬영이 적절히 진행되었는지의 판단을 통해, 재촬영 또는 해당 단계 촬영 중단을 지시하는 촬영 중단 판단부(55), 상기 경로부(51), 상기 조명 제어부(52), 상기 촬영 조건 산정부(53), 상기 촬영 조건 판단부(54), 상기 촬영 중단 판단부(55)의 정보가 저장되고, 각종 정보의 입출력이 가능한 저장부(56);를 포함하여 구성되는 것을 특징으로 한다. The 3D modeling imaging system of the present invention includes an imaging device 20 for photographing a 3D modeling object 10, a lighting device 30 for controlling the brightness of the 3D modeling object 10, and a 3D modeling object in the photographing device 20. It is linked with the measuring device 40, the imaging device 20, the lighting device 30, and the measuring device 40 to determine the distance to (10) or the shape and size of the 3D modeling object (10). , a cloud server 50 that stores various information and controls filming of the 3D modeling object 10; and can be operated by the user, linked with the photographing device 20, the lighting device 30, the measuring device 40, and the cloud server 50, and inputting and outputting various information through an app or the web. It includes a user terminal 60 capable of controlling the cloud server 50, a path unit 51 through which the path of the 3D modeling shot is designated or input, and a lighting device capable of controlling the lighting device 30. A control unit 52, a shooting condition calculation unit 53 that calculates the number of shots of the 3D modeling object 10, the moving distance of the photographing device 20 per shot, and a photographing condition of the 3D modeling object 10. A shooting condition determination unit 54 that instructs shooting by determining whether the equipment is properly equipped, and a shooting stoppage that instructs re-shooting or stopping the corresponding stage of shooting by determining whether the shooting of the 3D modeling object 10 has been appropriately progressed. Information of the determination unit 55, the path unit 51, the lighting control unit 52, the shooting condition calculation unit 53, the shooting condition determination unit 54, and the shooting stop determination unit 55 are stored. and a storage unit 56 capable of inputting and outputting various types of information.

먼저, 본 발명인 3D 모델링 촬영 시스템에는 3D 모델링 대상(10)을 촬영하는 촬영장치(20)가 마련된다.First, the 3D modeling imaging system of the present invention is provided with an imaging device 20 for photographing a 3D modeling object 10.

상기 촬영장치(20)는 높이 조절이 가능한 카메라, 카메라를 탑재한 드론 등 3D 모델링 대상(10)을 촬영할 수 있는 것이면 어느 것이든 한정되지 않는다.The photographing device 20 is not limited to any device that can photograph the 3D modeling object 10, such as a height-adjustable camera or a drone equipped with a camera.

또한, 여기서 상기 촬영장치(20)는 세로 방향으로의 촬영을 진행할 경우 45°각도를 부여할 수 있도록 마련될 수 있다. 이는 세로 방향으로의 촬영을 진행하면서 달라지는 초점을 맞춰주기 위함이다. In addition, here, the photographing device 20 may be provided to provide a 45° angle when photographing in the vertical direction. This is to accommodate changes in focus while shooting in the vertical direction.

다음으로, 3D 모델링 대상(10)의 밝기 조절을 위한 조명장치(30)가 마련된다.Next, a lighting device 30 is provided to adjust the brightness of the 3D modeling object 10.

상기 조명장치(30)은 상기 촬영장치(20)를 통해 3D 모델링 대상(10)을 촬영할 시, 야외에서 이뤄져 3D 모델링 대상(10)의 밝기가 충분하지 않거나, 3D 모델링 대상(10)에 그림자 등이 생기는 경우 작동될 수 있다. 본 발명에서 상기 조명장치(30)는 상기 촬영장치(20)의 상단, 하단, 좌우측에 마련될 수 있으나 이에 한정되지 않고 상기 3D 모델링 대상(10)의 밝기가 일정하게 만들어주는 것과 방법이면 어느 것이든 가능하다.When photographing the 3D modeling object 10 through the photographing device 20, the lighting device 30 is used outdoors, so the brightness of the 3D modeling object 10 is not sufficient, or a shadow, etc. appears on the 3D modeling object 10. If this happens, it can work. In the present invention, the lighting device 30 may be provided at the top, bottom, and left and right sides of the imaging device 20, but is not limited to this, and which method is used to make the brightness of the 3D modeling object 10 constant. Anything is possible.

다음으로, 상기 촬영장치(20)에서 3D 모델링 대상(10)까지의 거리 또는 3D 모델링 대상(10)의 형태, 크기를 판단하기 위한 측정장치(40)가 마련된다.Next, a measuring device 40 is provided to determine the distance from the imaging device 20 to the 3D modeling object 10 or the shape and size of the 3D modeling object 10.

상기 측정장치(40)는 라이더나 위성 지도 등으로 될 수 있고, 길이 측정, 형태 판단, 크기 판단 등이 가능한 어느 것이든 가능하다. The measuring device 40 can be a lidar or a satellite map, and can be any device that can measure length, determine shape, or determine size.

다음으로, 상기 촬영장치(20), 상기 조명장치(30), 상기 측정장치(40)와 연동되어, 각종 정보를 저장하고, 3D 모델링 대상(10)의 촬영을 제어하는 클라우드 서버(50)가 마련된다.Next, a cloud server 50 is linked with the photographing device 20, the lighting device 30, and the measuring device 40, stores various information, and controls photographing of the 3D modeling object 10. It is prepared.

상기 클라우드 서버(50)는, 상기 3D 모델링 촬영의 경로가 지정되거나, 입력되는 경로부(51), 상기 조명장치(30)를 제어할 수 있는 조명 제어부(52), 상기 3D 모델링 대상(10)의 촬영 횟수, 한 촬영 당 상기 촬영장치(20)의 이동 거리를 산정하는 촬영 조건 산정부(53), 상기 3D 모델링 대상(10)의 촬영 조건이 적절히 갖춰졌는지의 판단을 통해, 촬영을 지시하는 촬영 조건 판단부(54), 상기 3D 모델링 대상(10)의 촬영이 적절히 진행되었는지의 판단을 통해, 재촬영 또는 해당 단계 촬영 중단을 지시하는 촬영 중단 판단부(55), 상기 경로부(51), 상기 조명 제어부(52), 상기 촬영 조건 산정부(53), 상기 촬영 조건 판단부(54), 상기 촬영 중단 판단부(55)의 정보가 저장되고, 각종 정보의 입출력이 가능한 저장부(56);를 포함하여 구성되는 것을 특징으로 한다. The cloud server 50 includes a path unit 51 through which the path for 3D modeling photography is designated or input, a lighting control unit 52 capable of controlling the lighting device 30, and the 3D modeling object 10. A shooting condition calculation unit 53 that calculates the number of shots, the moving distance of the photographing device 20 per shot, and determines whether the photographing conditions of the 3D modeling object 10 are appropriately met, and instructs photographing. A shooting condition determination unit 54, a shooting stop determination unit 55 that determines whether the shooting of the 3D modeling object 10 has been appropriately progressed and instructs re-shooting or stopping shooting at the corresponding stage, and the path unit 51 , a storage unit 56 that stores the information of the lighting control unit 52, the shooting condition calculation unit 53, the shooting condition determination unit 54, and the shooting stop determination unit 55, and is capable of inputting and outputting various types of information. ); It is characterized in that it is composed of a.

상기 경로부(51)는, 상기 3D 모델링 촬영의 경로가 지정되거나 입력되는 곳이다. 경로는 상기 측정장치(40)의 정보를 통해 상기 경로부(51)에서 장애물 등을 피하고 상기 3D 모델링 대상(10) 형태에 맞춰 자동으로 지정할 수 있고, 사용자가 상기 측정장치(40)의 정보를 확인한 후 하기에서 설명될 사용자단말기(60)의 앱 또는 웹을 통해 촬영 경로를 직접 입력할 수 있으며 이에 한정되지는 않는다.The path unit 51 is where the path for 3D modeling photography is designated or input. The path can be automatically designated according to the shape of the 3D modeling object 10 to avoid obstacles in the path unit 51 through the information of the measuring device 40, and the user can use the information of the measuring device 40 After confirmation, the shooting path can be entered directly through the app or web of the user terminal 60, which will be described below, but is not limited to this.

상기 조명 제어부(52)는, 상기 조명장치(30)를 제어하는 곳으로, 3D 모델링 대상(10)의 밝기가 충분하지 않거나, 3D 모델링 대상(10)에 그림자 등이 생기는지 의 판단을 통해 상기 조명장치(30)의 각도, 광량, 조명 색 온도 조절을 진행한다. 여기서, 그 외에도 더 필요한 조건이 있다면, 사용자가 하기에서 설명될 사용자단말기(60)의 앱 또는 웹을 이용하여 판단해야할 조건과 판단의 기준값을 더 입력하여 상기 조명장치(30)를 제어할 수 있다. The lighting control unit 52 controls the lighting device 30 and controls the lighting by determining whether the brightness of the 3D modeling object 10 is insufficient or whether a shadow, etc. is formed on the 3D modeling object 10. Proceed with adjusting the angle, light amount, and lighting color temperature of the device 30. Here, if there are other necessary conditions, the user can control the lighting device 30 by further inputting the conditions to be judged and the reference value for judgment using the app or web of the user terminal 60, which will be described below. .

상기 촬영 조건 산정부(53)는, 상기 3D 모델링 대상(10)의 촬영 횟수, 한 촬영 당 상기 촬영장치(20)의 이동 거리를 산정하는 역할을 수행한다. 더욱 상세하게, 도 6과 같이 상기 3D 모델링 대상(10)과 상기 촬영장치(20)의 평행거리 D1, 상기 3D 모델링 대상(10)의 높이 L1, 상기 3D 모델링 대상(10)의 가로 길이 L2,상기 촬영장치(20)의 화각/2 인 θ값, 촬영에서 화면 당 중복되어야 하는 중복값 A%를 이용하여 촬영횟수를 산정한다. 여기서 1번째 촬영본, 2번째 촬영본에서 겹쳐야하는 값을 중복값이라고 표현하며, 중복값을 부여함으로써 모델링 된 3D 객체는 더 높은 정확도를 갖게 된다. 그리고, 도 6은 보기 쉽게 중복도값을 부여하지 않은 도면이다. The shooting condition calculation unit 53 serves to calculate the number of shots of the 3D modeling object 10 and the moving distance of the photographing device 20 per shot. In more detail, as shown in Figure 6, the parallel distance D 1 between the 3D modeling object 10 and the imaging device 20, the height L 1 of the 3D modeling object 10, and the horizontal length of the 3D modeling object 10 The number of shots is calculated using L 2 , the θ value which is the angle of view/2 of the photographing device 20, and the overlap value A% that must be overlapped per screen in shooting. Here, the values that must overlap between the first and second shots are expressed as duplicate values, and by assigning duplicate values, the modeled 3D object has higher accuracy. And, Figure 6 is a diagram without a redundancy value given for easy viewing.

먼저, 세로 촬영횟수는, 아래의 수식을 만족하는 최소의 n1값으로 결정된다. First, the number of vertical shots is determined by the minimum n 1 value that satisfies the formula below.

그에 따라, 세로 촬영거리는 L1/n1값인 m1으로 결정된다. Accordingly, the vertical shooting distance is determined as m 1 , which is the L 1 /n 1 value.

다음으로, 가로 촬영횟수는, 아래의 수식을 만족하는 최소의 n2 값으로 결정된다.Next, the number of horizontal shots is determined by the minimum n 2 value that satisfies the formula below.

그에 따라, 가로 촬영거리는 L2/n2값인 m2으로 결정된다.Accordingly, the horizontal shooting distance is determined by m 2 , which is the L 2 /n 2 value.

상기와 같이, 상기 촬영 조건 산정부(53)는, 다양한 값을 통해 기존에 정해진 또는 하기에서 설명될 사용자단말기(60)를 통한 수식으로 촬영 조건을 계산하여 촬영에 필요한 n1, m1, n2, m2 결과값을 도출하는 역할을 수행한다. As described above, the shooting condition calculation unit 53 calculates the shooting conditions using various values, either previously determined or using a formula through the user terminal 60 to be described below, and calculates the shooting conditions n 1 , m 1 , and n required for shooting. 2 , m 2 Plays the role of deriving the result.

상기 촬영 조건 판단부(54)는, 촬영을 시작하기 전까지의 모든 단계가 적절히 이뤄졌는지를 판단하여 촬영을 시작하는 곳으로, 본 발명에서는 상기 측정장치(40)가 적절히 작동하였는지, 상기 조명장치(30)의 광량, 각도, 색온도가 적절한지, 상기 촬영장치(20)가 옳바른 위치에 있는지, 상기 촬영 조건 산정부(53)에서 값을 산출하였는지를 확인할 수 있으며, 이에 한정되지 않고 더 다양한 조건을 판단할 수 있다. The shooting condition determination unit 54 is a place to start shooting by determining whether all steps before starting shooting have been properly completed. In the present invention, it determines whether the measuring device 40 has operated properly and the lighting device ( It is possible to check whether the amount of light, angle, and color temperature of 30) are appropriate, whether the photographing device 20 is in the correct position, and whether the value has been calculated by the photographing condition calculation unit 53. It is not limited to this and determines more diverse conditions. can do.

상기 촬영 중단 판단부(55)는, 촬영이 모두 적절히 이뤄졌는지를 판단하여 촬영을 이어나가거나 재촬영을 진행시키거나 촬영을 완료시키는 곳으로, 본 발명에서는 상기 촬영장치(20)가 옳바른 방향과 값만큼 적절히 이동하였는지, 적절한 촬영 결과물인지, 카메라 화각 중앙부 초점에서 대상이 0.1% 이상 벗어났는지를 확인하며, 이에 한정되지 않고 더 다양한 조건을 판단할 수 있다. The shooting interruption determination unit 55 determines whether all shooting has been properly completed and continues shooting, re-shoots, or completes shooting. In the present invention, the shooting device 20 is set in the correct direction and It checks whether it has moved appropriately by the value, whether the shooting result is appropriate, and whether the subject is out of focus by more than 0.1% in the center of the camera's field of view. It is not limited to this and can determine a wider range of conditions.

상기 저장부(56)는, 상기 경로부(51), 상기 조명 제어부(52), 상기 촬영 조건 산정부(53), 상기 촬영 조건 판단부(54), 상기 촬영 중단 판단부(55)의 정보가 저장되며, 각종 정보의 입출력이 가능하다.The storage unit 56 includes information from the path unit 51, the lighting control unit 52, the shooting condition calculation unit 53, the shooting condition determination unit 54, and the shooting interruption determination unit 55. is stored, and input and output of various information is possible.

상기 클라우드 서버(500)는 상기 앱을 제 3자(third party) 앱스토어를 통하여 상기 제 3자 앱스토어 접속자에게 배포할 수 있다. 본 발명의 일예로서 상기 앱을 공급하는 제 3자 앱스토어는 안드로이드 기반 또는 iOS 기반 등 스마트폰 단말기용 앱스토어는 물론 유선기반 인터넷 앱스토어를 포함한다. 또한, 상기 앱과 웹은 유상 또는 무상으로 제공될 수 있으며, 본 발명에서는 유무선상의 네트워크에 접속한 단말기에 무상으로 제공된다.The cloud server 500 may distribute the app to users accessing the third party app store through a third party app store. As an example of the present invention, third-party app stores that provide the apps include app stores for smartphone terminals, such as Android-based or iOS-based, as well as wired-based Internet app stores. Additionally, the app and web may be provided for a fee or free of charge, and in the present invention, they are provided free of charge to terminals connected to a wired or wireless network.

다음으로, 사용자에 의해 조작될 수 있으며, 상기 촬영장치(20), 상기 조명장치(30), 상기 측정장치(40) 및 상기 클라우드 서버(50)와 연동되고, 앱 또는 웹을 통해서 각종 정보를 입출력할 수 있는 사용자 단말기(60)가 마련된다.Next, it can be operated by the user, linked with the photographing device 20, the lighting device 30, the measuring device 40, and the cloud server 50, and provides various information through an app or the web. A user terminal 60 capable of input and output is provided.

상기 사용자 단말기(60)는 상기 촬영장치(20), 상기 조명장치(30), 상기 측정장치(40) 및 상기 클라우드 서버(50)의 정보를 확인할 수 있으며, 중복도 값 입력, 상기 촬영장치(20)의 화각 입력, 재촬영 요청, 재촬영 단계 입력 등을 수행할 수 있으며, 이에 한정되지 않는다. The user terminal 60 can check information on the photographing device 20, the lighting device 30, the measuring device 40, and the cloud server 50, input a redundancy value, and input the photographing device ( 20), inputting the angle of view, requesting re-shooting, entering the re-shooting step, etc. can be performed, but is not limited to this.

상기 사용자 단말기(60)는, 스마트폰, 노트북, PDA(Personal Digital Assistant) 등과 같은 휴대단말기뿐 아니라 PC(Personal Computer)와 같은 유선통신이 가능한 단말기도 포함될 수 있다.The user terminal 60 may include not only portable terminals such as smartphones, laptops, and personal digital assistants (PDAs), but also terminals capable of wired communication such as personal computers (PCs).

그리고, 본 발명에 의한 3D 모델링 촬영 시스템 방법에 대해 구체적으로 설명한다.Then, the 3D modeling imaging system method according to the present invention will be described in detail.

먼저, 상기 측정장치(20)의 정보를 받아, 상기 클라우드 서버의 경로부에 3D 모델링 촬영 경로가 입력되고, 상기 클라우드 서버(50)의 저장부(56)에 저장되는 제 1 단계가 이뤄진다. First, the first step is to receive information from the measuring device 20, enter the 3D modeling shooting path into the path section of the cloud server, and store it in the storage section 56 of the cloud server 50.

여기서, 상기 경로부(51)에 입력되는 경로는, 상기 측정장치(40)의 정보를 통해 상기 경로부(51)에서 자동으로 입력될 수 있다. 상기 경로부(51)에서 경로를 자동으로 입력하는 것은, 장애물, 3D 모델링 대상(10)의 형태 등을 자동으로 인식하여 경로를 생성하는 것일 수 있다. 또한, 사용자가 상기 측정장치(40)를 통해 정보를 확인한 후 하기에서 설명될 사용자단말기(60)의 앱 또는 웹을 통해 촬영 경로를 직접 입력할 수도 있다. 상기 경로부(51)에 입력되는 경로는 상기 방법에 한정되지는 않는다.Here, the path input to the path unit 51 may be automatically input in the path unit 51 through information from the measuring device 40. Automatically inputting a path in the path unit 51 may mean automatically recognizing obstacles, the shape of the 3D modeling object 10, etc., and generating the path. In addition, after the user confirms the information through the measuring device 40, the user may directly input the shooting path through the app or web of the user terminal 60, which will be described below. The path input to the path unit 51 is not limited to the above method.

다음으로, 상기 측정장치(20)에 의해 3D 모델링 대상(10)에서 한 면의 세로 길이 L1과 가로 길이 L2가 측정되고, 상기 클라우드 서버(50)의 저장부(56)에 저장되는 제 2 단계가 이뤄진다.Next, the vertical length L 1 and the horizontal length L 2 of one side of the 3D modeling object 10 are measured by the measuring device 20, and the data is stored in the storage unit 56 of the cloud server 50. Two steps take place.

상기 3D 모델링 대상(10)에서 한 면의 세로 길이 L1과 가로 길이 L2는 도 1 및 도 6에 나타난 바와 같고, 이를 측정하는 것은 상기 촬영 조건 산정부(53)에서 n1값, m1값, n2값, m2값을 산정하기 위함이다. The vertical length L 1 and the horizontal length L 2 of one side of the 3D modeling object 10 are as shown in Figures 1 and 6, and these are measured using the n 1 value and m 1 in the shooting condition calculation unit 53. This is to calculate the value, n 2 value, and m 2 value.

다음으로, 상기 촬영장치(20)가 촬영 시작 위치로 이동되는 제 3 단계가 이뤄진다. Next, a third step occurs in which the photographing device 20 is moved to the photographing start position.

여기서, 촬영 시작 위치는 상기 클라우드 서버(50)의 저장부(56)에 저장된 저장된 경로의 촬영 시작 위치로 상기 촬영장치(20)가 이동하는 것이다. Here, the photographing start position means that the photographing device 20 moves to the photographing start position of the saved path stored in the storage unit 56 of the cloud server 50.

다음으로, 상기 측정장치(40)에 의해 상기 촬영장치(20)에서 3D 모델링 대상(10)까지의 평행 거리 D1이 측정되고, 상기 클라우드 서버(50)의 저장부(56)에 저장되는 제 4 단계가 이뤄진다.Next, the parallel distance D 1 from the imaging device 20 to the 3D modeling object 10 is measured by the measuring device 40, and the first data stored in the storage unit 56 of the cloud server 50 is measured. There are 4 steps:

상기 측정장치(40)에 의해 상기 촬영장치(20)에서 3D 모델링 대상(10)까지의 평행 거리 D1은 도 1 및 도 6에 나타난 바와 같고, 이를 측정하는 것은 상기 촬영 조건 산정부(53)에서 n1값, m1값, n2값, m2값을 산정하기 위함이다. The parallel distance D 1 from the photographing device 20 to the 3D modeling object 10 by the measuring device 40 is as shown in FIGS. 1 and 6, and this is measured by the photographing condition calculation unit 53. This is to calculate the n 1 value, m 1 value, n 2 value, and m 2 value.

다음으로, 사용자가 상기 사용자단말기(60)의 앱 또는 웹을 이용하여, 촬영 중복도 값 A%와 (촬영장치의 화각/2)값인 θ를 입력하여, 상기 클라우드 서버(50)의 저장부(56)에 저장하는 제 5 단계가 이뤄진다.Next, the user uses the app or web of the user terminal 60 to input the shooting redundancy value A% and the value θ (view angle of the shooting device/2), and enter the storage unit of the cloud server 50 ( The fifth step of saving in 56) takes place.

촬영 중복도 값 A%와 (촬영장치의 화각/2)값인 θ를 입력하는 것은 상기 촬영 조건 산정부(53)에서 n1값, m1값, n2값, m2값을 산정하기 위함이다. Inputting the shooting redundancy value A% and the (angle of view of the shooting device/2) value θ is to calculate the n 1 value, m 1 value, n 2 value, and m 2 value in the shooting condition calculation unit 53. .

여기서, 촬영 중복도 값이란 한 촬영에서 다른 촬영으로 넘어갈 때 촬영본의 중복도를 뜻하며, 더욱 정확한 결과물을 얻기 위한 과정이다. Here, the shooting redundancy value refers to the degree of redundancy of the shot when moving from one shot to another, and is a process for obtaining more accurate results.

다음으로, 상기 클라우드 서버(50)의 촬영 조건 산정부(53)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 L1, L2, D1, A, θ 값을 이용하여, 세로촬영횟수 n1, 한 컷당 세로 이동 거리 m1, 가로촬영횟수 n2, 한 컷당 가로 이동 거리 m2를 산정하여 상기 클라우드 서버의 저장부에 저장하는 제 6 단계가 이뤄진다.Next, L 1 stored in the storage unit 56 of the cloud server 50 in the shooting condition calculation unit 53 of the cloud server 50, L 2 , D 1 , Using the A and θ values, the number of vertical shots n 1 , the vertical movement distance per cut m 1 , the number of horizontal shots n 2 , and the horizontal movement distance per cut m 2 are calculated and stored in the storage of the cloud server. comes true.

여기서, 상기 클라우드 서버(50)의 촬영 조건 산정부(53)에서 세로촬영횟수 n1, 한 컷당 세로 이동 거리 m1, 가로촬영횟수 n2, 한 컷당 가로 이동 거리 m2를 산정하는 것은 앞에서 상세히 설명하였으므로 생략한다. Here, in the shooting condition calculation unit 53 of the cloud server 50, the number of vertical shots n 1 , the vertical movement distance per cut m 1 , the number of horizontal shots n 2 , and the horizontal movement distance per cut m 2 are calculated as detailed above. Since it has been explained, it is omitted.

다음으로, 상기 클라우드 서버(50)의 조명 제어부(52)에서 상기 조명장치(30)의 필요성을 판단하는 제 7 단계가 이뤄진다.Next, a seventh step is performed in which the lighting control unit 52 of the cloud server 50 determines the necessity of the lighting device 30.

여기서, 상기 조명 제어부(52)는 촬영물의 밝기가 충분히 밝은지, 3D 촬영 대상(10)에 그림자가 없는지의 두 단계의 판단을 진행할 수 있으며, 그 외에도 더 필요한 조건이 있다면 사용자가 상기 사용자단말기(60)를 통해 판단해야할 조건과 판단의 기준값을 더 입력할 수 있다. Here, the lighting control unit 52 can proceed with a two-step judgment of whether the brightness of the photographed object is sufficiently bright and whether there is no shadow on the 3D photographed object 10, and if there are other necessary conditions, the user can use the user terminal ( 60), you can further enter the conditions to be judged and the standard value for judgment.

여기서, 상기 조명 제어부(52)에서 상기 조명장치(30)가 필요없다고 판단하면 바로 제 9 단계로 넘어간다. Here, if the lighting control unit 52 determines that the lighting device 30 is not needed, the process immediately proceeds to step 9.

다음으로, 상기 제 7 단계에서 상기 조명장치(30)가 필요하다고 판단한 경우, 상기 클라우드 서버(50)의 조명 제어부(52)가 상기 조명장치(30)의 광량, 각도, 색온도를 조절하는 제 8 단계가 이뤄진다.Next, when it is determined that the lighting device 30 is necessary in the seventh step, the lighting control unit 52 of the cloud server 50 performs the eighth step to adjust the light amount, angle, and color temperature of the lighting device 30. Steps are accomplished.

여기서, 상기 조명장치(30)의 광량, 각도, 색온도를 미세하게 조절하면서, 상기 3D 촬영 대상(10)에 밝기가 밝아지는지, 그림자가 없어지는지 등의 판단을 진행한다. 상기 조명 제어부(52)가 상기 조명장치(30)를 조절하는 것은 단순히 광량, 각도, 색온도에만 한정되지는 않는다. Here, while finely adjusting the light quantity, angle, and color temperature of the lighting device 30, it is determined whether the brightness of the 3D photographing target 10 becomes brighter or whether shadows disappear. The lighting control unit 52's control of the lighting device 30 is not limited to simply the amount of light, angle, and color temperature.

다음으로, 상기 클라우드 서버(50)의 촬영 조건 확인부(54)에서 상기 제 1 내지 제 8 단계가 적절히 수행되었는지 확인한 후, 촬영 시작 지시를 내리는 제 9 단계가 이뤄진다.Next, after the shooting condition confirmation unit 54 of the cloud server 50 checks whether the first to eighth steps have been properly performed, the ninth step of giving an instruction to start shooting is performed.

여기서 상기 촬영 조건 확인부(54)는 촬영을 시작하기 전까지의 모든 단계가 적절히 이뤄졌는지를 판단하는 것으로, 본 발명에서는 상기 측정장치(40)가 적절히 작동하였는지, 상기 조명장치(30)의 광량, 각도, 색온도가 적절한지, 상기 촬영장치(20)가 옳바른 위치에 있는지, 상기 촬영 조건 산정부(53)에서 값을 산출하였는지를 확인할 수 있으며, 이에 한정되지 않고 더 다양한 조건을 판단을 통해 촬영 시작을 지시할 수 있다. Here, the shooting condition confirmation unit 54 determines whether all steps before starting shooting have been properly performed. In the present invention, whether the measuring device 40 has operated properly, the light amount of the lighting device 30, It is possible to check whether the angle and color temperature are appropriate, whether the photographing device 20 is in the correct position, and whether the value has been calculated in the photographing condition calculation unit 53. It is not limited to this, and various conditions can be determined to start shooting. You can instruct.

다음으로, 상기 촬영장치(20)가 상기 클라우드 서버(50)의 저장부(56)에 저장된 n1, m1 값에 맞춰 세로방향으로의 촬영을 진행하는 제 10 단계가 이뤄진다.Next, a tenth step is performed in which the photographing device 20 performs photographing in the vertical direction according to the n 1 and m 1 values stored in the storage unit 56 of the cloud server 50.

상기 제 10 단계는 도 3의 ⓐ 방향으로의 촬영이라고 볼 수 있다. The tenth step can be viewed as shooting in the direction ⓐ of FIG. 3.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 n1 횟수만큼 촬영을 진행했다고 판단하는 제 11 단계가 이뤄진다.Next, an 11th step is performed in which the shooting interruption determination unit 55 of the cloud server 50 determines that shooting has been performed as many times as n 1 stored in the storage unit 56 of the cloud server 50.

여기서 상기 촬영 중단 판단부(55)가 n1 횟수만큼 촬영을 진행했다고 판단하는 것은, ⓐ 방향으로의 촬영이 끝났다고 판단하는 것이다. Here, when the shooting interruption determination unit 55 determines that shooting has been performed n 1 times, it determines that shooting in the direction ⓐ has ended.

그러나, 상기 제 11 단계에서 상기 클라우드 서버(50)의 촬영 중단 판단부(55)가 촬영이 적절하지 못하였다고 판단하면, 상기 제 10 단계로 돌아가 재촬영하는 단계가 진행될 수 있다. 여기서 상기 촬영 중단 판단부(55)가 촬영이 적절하지 못했다고 판단하는 것은, 촬영 갯수가 n1개 보다 부족하다던지, 촬영 결과물의 선명도가 떨어지는 등의 경우가 될 수 있으며 이에 한정되지 않고 결과가 적절하지 않은 모든 경우를 포함한다. 여기서, 건축물에 그림자가 있는 등의 문제가 있는 경우는 상기 제 8 단계로 돌아갈 수도 있다. However, if the shooting interruption determination unit 55 of the cloud server 50 determines that the shooting was not appropriate in the 11th step, the process may return to the 10th step and re-shooting. Here, the fact that the shooting stop determination unit 55 determines that the shooting is not appropriate may be due to the fact that the number of shots is less than n 1 or the sharpness of the shooting result is low, but is not limited to this and the result is appropriate. Includes all cases where this is not done. Here, if there is a problem such as a shadow on the building, you can return to step 8 above.

여기서, 상기 제 11 단계 이후, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 촬영장치(20)를 m1 값 만큼 세로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하여 촬영이 적절치 않았다면 상기 제 10 단계로 되돌아가고, 촬영이 적절하였다면 상기 촬영장치(20)를 상기 제 11 단계 위치로 이동시킨 후 다음 단계로 진행하는 단계가 더 이뤄질 수 있다. Here, after the 11th step, the photographing interruption determination unit 55 of the cloud server 50 moves the photographing device 20 one more time in the vertical direction by the value m 1 to determine whether the photographing was performed smoothly. If the photographing is not appropriate, the process returns to step 10. If the imaging is appropriate, the photographing device 20 is moved to the 11th stage position and then the next step can be performed.

상기 단계는, 도 3의 ⓑ 방향으로의 촬영이라고 볼 수 있다. The above step can be viewed as shooting in the direction ⓑ of FIG. 3.

상기 단계에서는 상기 촬영장치(20)를 1회 더 진행방향으로 이동시켜, 상기 촬영장치(20) 화각 중앙부 초점에서 상기 3D 모델링 대상(10)이 0.1% 이상 벗어났는지 확인하여 촬영이 상기 3D 모델링 대상(10)의 ⓐ 방향 전체를 촬영한게 맞는지 확인하는 과정이다. 상기 단계를 통해, 촬영이 충분히 이뤄지지 않았다고 판단되면, 제 10 단계로 돌아가 촬영을 재진행하고, 촬영이 충분히 이뤄졌다고 판단되면 상기 제 11 단계의 위치로, 즉 상기 촬영장치(20)를 ⓑ-1 의 위치로 이동시킨 후 다음단계가 진행된다. In the above step, the photographing device 20 is moved in the forward direction one more time to check whether the 3D modeling object 10 deviates by more than 0.1% from the central focus of the field of view of the photographing device 20, and the photographing is performed on the 3D modeling object. This is the process of checking whether the entire direction ⓐ in (10) was photographed correctly. If it is determined through the above steps that the photographing has not been sufficiently accomplished, return to the 10th step and re-proceed the photographing, and if it is determined that the photographing has been sufficiently accomplished, move the photographing device 20 to the position of the 11th step, i.e., ⓑ-1. After moving to the location, the next step proceeds.

여기서, 1회 더 이동하면 바닥이 닿는다던지 등의 이유로 이동이 불가한 경우는 상기 단계를 진행하지 않고 넘어간다. Here, if it is impossible to move due to reasons such as reaching the floor after moving one more time, the above step is skipped.

다음으로, 상기 촬영장치(20)가 상기 클라우드 서버(50)의 저장부(56)에 저장된 m2 값 만큼 가로 방향으로 1회 이동하는 제 12 단계가 이뤄진다.Next, a twelfth step is performed in which the photographing device 20 moves once in the horizontal direction by the m 2 value stored in the storage unit 56 of the cloud server 50.

상기 제 12 단계는 도 3의 ⓒ 방향으로의 촬영이라고 볼 수 있다. The twelfth step can be viewed as shooting in the direction ⓒ of FIG. 3.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 m2 값만큼 촬영을 진행했다고 판단하는 제 13 단계가 이뤄진다.Next, a thirteenth step is performed in which the shooting interruption determination unit 55 of the cloud server 50 determines that shooting has progressed to the value m 2 stored in the storage unit 56 of the cloud server 50.

여기서 상기 촬영 중단 판단부(55)가 m2 값만큼 촬영을 진행했다고 판단하는 것은, ⓒ 방향으로의 촬영이 끝났다고 판단하는 것이다. Here, when the shooting interruption determination unit 55 determines that shooting has progressed to the m 2 value, it determines that shooting in direction ⓒ has ended.

그러나, 상기 제 13 단계 상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 상기 제 12 단계로 돌아가 재촬영하는 단계가 진행될 수 있다. 여기서 상기 촬영 중단 판단부(55)가 촬영이 적절하지 못했다고 판단하는 것은, 촬영 이동 거리가 m2값 보다 짧았다던지, 촬영 결과물의 선명도가 떨어지는 등의 경우가 될 수 있으며 이에 한정되지 않고 결과가 적절하지 않은 모든 경우를 포함한다. 여기서, 건축물에 그림자가 있는 등의 문제가 있는 경우는 상기 제 8 단계로 돌아갈 수도 있다. However, if the shooting interruption determination unit of the cloud server in the 13th step determines that the shooting was not appropriate, the process may return to the 12th step and re-shooting. Here, the fact that the shooting interruption determination unit 55 determines that the shooting is not appropriate may be due to a case where the shooting moving distance is shorter than the m 2 value or the sharpness of the shooting result is low, but is not limited to this and the result is appropriate. Includes all cases where this is not done. Here, if there is a problem such as a shadow on the building, you can return to step 8 above.

다음으로, 상기 촬영장치(20)가 상기 클라우드 서버(50)의 저장부(56)에 저장된 n1, m1 값에 맞춰 상기 제 10 단계의 반대방향으로 촬영을 진행하는 제 14 단계가 이뤄진다. Next, a fourteenth step is performed in which the photographing device 20 performs photographing in the opposite direction of the tenth step according to the n 1 and m 1 values stored in the storage unit 56 of the cloud server 50.

상기 제 14 단계는 도 3의 ⓓ 방향으로의 촬영이라고 볼 수 있다. The 14th step can be viewed as shooting in the direction ⓓ of FIG. 3.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 n1 횟수만큼 촬영을 진행했다고 판단하는 제 15 단계가 이뤄진다.Next, a fifteenth step is performed in which the shooting interruption determination unit 55 of the cloud server 50 determines that shooting has been performed as many times as n 1 stored in the storage unit 56 of the cloud server 50.

여기서 상기 촬영 중단 판단부(55)가 n1 횟수만큼 촬영을 진행했다고 판단하는 것은, ⓓ 방향으로의 촬영이 끝났다고 판단하는 것이다. Here, when the shooting interruption determination unit 55 determines that shooting has been performed n 1 times, it determines that shooting in the direction ⓓ has ended.

그러나, 상기 제 15 단계에서, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)가 촬영이 적절하지 못하였다고 판단하면, 상기 제 14 단계로 돌아가 재촬영하는 단계가 진행될 수 있다. 여기서 상기 촬영 중단 판단부(55)가 촬영이 적절하지 못했다고 판단하는 것은, 촬영 갯수가 n1개 보다 부족하다던지, 촬영 결과물의 선명도가 떨어지는 등의 경우가 될 수 있으며 이에 한정되지 않고 결과가 적절하지 않은 모든 경우를 포함한다. 여기서, 건축물에 그림자가 있는 등의 문제가 있는 경우는 상기 제 8 단계로 돌아갈 수도 있다. However, in step 15, if the shooting interruption determination unit 55 of the cloud server 50 determines that the shooting was not appropriate, the process may return to step 14 and re-shooting. Here, the fact that the shooting stop determination unit 55 determines that the shooting is not appropriate may be due to the fact that the number of shots is less than n 1 or the sharpness of the shooting result is low, but is not limited to this and the result is appropriate. Includes all cases where this is not done. Here, if there is a problem such as a shadow on the building, you can return to step 8 above.

여기서, 상기 제 15 단계 이후, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 촬영장치를 m1 값 만큼 세로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하여 촬영이 적절치 않았다면 상기 제 14 단계로 되돌아가고, 촬영이 적절하였다면 상기 촬영장치(20)를 상기 제 15 단계 위치로 이동시킨 후 다음 단계로 진행하는 단계가 더 이뤄질 수 있다. Here, after the 15th step, the photographing interruption determination unit 55 of the cloud server 50 moves the photographing device one more time in the vertical direction by the value m 1 to determine whether the photographing was performed smoothly and determines whether the photographing is appropriate. If not, the process returns to the 14th step, and if the photographing was appropriate, the photographing device 20 can be moved to the 15th step position and then proceed to the next step.

상기 단계에서는 상기 촬영장치(20)를 1회 더 진행방향으로 이동시켜, 상기 촬영장치(20) 화각 중앙부 초점에서 상기 3D 모델링 대상(10)이 0.1% 이상 벗어났는지 확인하여 촬영이 상기 3D 모델링 대상(10)의 ⓓ 방향 전체를 촬영한게 맞는지 확인하는 과정이다. 상기 단계를 통해, 촬영이 충분히 이뤄지지 않았다고 판단되면, 제 14 단계로 돌아가 촬영을 재진행하고, 촬영이 충분히 이뤄졌다고 판단되면 상기 제 15 단계의 위치로 상기 촬영장치(20)를 이동시킨 후 다음단계가 진행된다. In the above step, the photographing device 20 is moved in the forward direction one more time to check whether the 3D modeling object 10 deviates by more than 0.1% from the central focus of the field of view of the photographing device 20, and the photographing is performed on the 3D modeling object. This is the process of checking whether the entire direction ⓓ in (10) was photographed correctly. If it is determined through the above steps that the photographing has not been sufficiently achieved, return to the 14th step and re-proceed the photographing, and if it is determined that the photographing has been sufficiently accomplished, move the photographing device 20 to the position of the 15th step and proceed to the next step. is in progress.

여기서, 1회 더 이동하면 바닥이 닿는다던지 등의 이유로 이동이 불가한 경우는 상기 단계를 진행하지 않고 넘어간다. Here, if it is impossible to move due to reasons such as reaching the floor after moving one more time, the above step is skipped.

다음으로, 상기 촬영장치(20)가 상기 클라우드 서버(50)의 저장부(56)에 저장된 m2 값 만큼 가로 방향으로 1회 이동하는 제 16 단계가 이뤄진다.Next, a 16th step is performed in which the photographing device 20 moves once in the horizontal direction by the m 2 value stored in the storage unit 56 of the cloud server 50.

상기 제 16 단계는 도 3의 ⓔ 방향으로의 촬영이라고 볼 수 있다. The 16th step can be viewed as shooting in the direction ⓔ of FIG. 3.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 m2 값만큼 촬영을 진행했다고 판단하는 제 17 단계가 이뤄진다.Next, a 17th step is performed in which the shooting interruption determination unit 55 of the cloud server 50 determines that shooting has progressed as much as the m 2 value stored in the storage unit 56 of the cloud server 50.

여기서 상기 촬영 중단 판단부(55)가 m2 값만큼 촬영을 진행했다고 판단하는 것은, ⓔ 방향으로의 촬영이 끝났다고 판단하는 것이다. Here, when the shooting interruption determination unit 55 determines that shooting has progressed as much as the m 2 value, it determines that shooting in the direction ⓔ has ended.

그러나, 상기 제 17 단계에서, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)가 촬영이 적절하지 못하였다고 판단하면, 상기 제 16 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있다. 여기서 상기 촬영 중단 판단부(55)가 촬영이 적절하지 못했다고 판단하는 것은, 촬영 이동 거리가 m2값 보다 짧았다던지, 촬영 결과물의 선명도가 떨어지는 등의 경우가 될 수 있으며 이에 한정되지 않고 결과가 적절하지 않은 모든 경우를 포함한다. 여기서, 건축물에 그림자가 있는 등의 문제가 있는 경우는 상기 제 8 단계로 돌아갈 수도 있다. However, in the 17th step, if the shooting interruption determination unit 55 of the cloud server 50 determines that the shooting was not appropriate, returning to the 16th step and reshooting may be further included. Here, the fact that the shooting interruption determination unit 55 determines that the shooting is not appropriate may be due to a case where the shooting moving distance is shorter than the m 2 value or the sharpness of the shooting result is low, but is not limited to this and the result is appropriate. Includes all cases where this is not done. Here, if there is a problem such as a shadow on the building, you can return to step 8 above.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 n2 횟수만큼 촬영이 진행되었다고 판단할때까지, 상기 촬영장치(20)가 상기 클라우드 서버(50)의 저장부(56)에 저장된 촬영 경로를 따라 n1, m1, m2 값 만큼 이동하며 상기 제 10 단계에서 상기 제 17 단계까지를 반복 진행하는 제 18 단계가 이뤄진다.Next, until the shooting interruption determination unit 55 of the cloud server 50 determines that shooting has progressed as many times as n 2 stored in the storage unit 56 of the cloud server 50, the shooting device 20 ) moves by the values n 1 , m 1 , and m 2 along the shooting path stored in the storage unit 56 of the cloud server 50 and repeats the steps from the 10th step to the 17th step. It comes true.

상기 제 18 단계는 도 3에서 ⓕ 모두로, ⓐ~ⓔ 까지의 방향으로의 촬영을, 총 n2값 만큼 진행하는 것이다. The 18th step is to carry out shooting in the direction ⓐ to ⓔ, all ⓕ in FIG. 3, for a total of n 2 values.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 클라우드 서버(50)의 저장부(56)에 저장된 n2 횟수만큼 촬영이 진행되었다고 판단하는 제 19 단계가 이뤄진다. Next, a 19th step is performed in which the shooting interruption determination unit 55 of the cloud server 50 determines that shooting has progressed as many times as n 2 stored in the storage unit 56 of the cloud server 50.

여기서 상기 촬영 중단 판단부(55)가 n2 횟수만큼 촬영을 진행했다고 판단하는 것은, 3D 모델링 대상(10)의 한 면 촬영이 끝났다고 판단하는 것이다. Here, when the photographing stop determination unit 55 determines that photographing has been performed n 2 times, it determines that photographing one side of the 3D modeling object 10 has ended.

그러나, 상기 제 19 단계에서, 상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 상기 제 18 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있다. 여기서 상기 촬영 중단 판단부(55)가 촬영이 적절하지 못했다고 판단하는 것은, 촬영 횟수가 n2값 보다 적었다던지, 촬영 결과물의 선명도가 떨어지는 등의 경우가 될 수 있으며 이에 한정되지 않고 결과가 적절하지 않은 모든 경우를 포함한다. 여기서, 건축물에 그림자가 있는 등의 문제가 있는 경우는 상기 제 8 단계로 돌아갈 수도 있다. However, in the 19th step, if the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, a step of returning to the 18th step and reshooting may be further included. Here, when the shooting interruption determination unit 55 determines that the shooting is not appropriate, it may be the case that the number of shootings is less than the n 2 value or the sharpness of the shooting result is low, but is not limited to this and the result is not appropriate. Includes all cases that are not included. Here, if there is a problem such as a shadow on the building, you can return to step 8 above.

여기서 상기 제 19 단계 이후, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 촬영장치(20)를 m2 값 만큼 가로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하고, 촬영이 적절치 않았다면 상기 제 18 단계로 되돌아가고, 촬영이 적절하였다면 다음 단계로 진행하는 단계가 더 이뤄질 수 있다.Here, after the 19th step, the photographing interruption determination unit 55 of the cloud server 50 moves the photographing device 20 one more time in the horizontal direction by the m 2 value to determine whether the photographing was performed smoothly, If the shooting was not appropriate, the process may return to step 18, and if the shooting was appropriate, the process may proceed to the next step.

상기 단계는 도 3의 ⓖ 방향으로의 촬영이라고 볼 수 있다. The above step can be viewed as shooting in the direction ⓖ of FIG. 3.

상기 단계에서는 상기 촬영장치(20)를 1회 더 진행방향으로 이동시켜, 상기 촬영장치(20) 화각 중앙부 초점에서 상기 3D 모델링 대상(10)이 0.1% 이상 벗어났는지 확인하여 촬영이 상기 3D 모델링 대상(10)의 한 면 전체를 촬영한게 맞는지 확인하는 과정이다. 상기 단계를 통해, 촬영이 충분히 이뤄지지 않았다고 판단되면, 제 18 단계로 돌아가 촬영을 재진행하고, 촬영이 충분히 이뤄졌다고 판단되면 다음단계가 진행된다. In the above step, the photographing device 20 is moved in the forward direction one more time to check whether the 3D modeling object 10 deviates by more than 0.1% from the central focus of the field of view of the photographing device 20, and the photographing is performed on the 3D modeling object. This is the process of checking whether the entire side of (10) was photographed. If it is determined through the above steps that sufficient filming has not been achieved, the process returns to step 18 and re-proceeds filming, and if it is determined that sufficient filming has been achieved, the next step proceeds.

여기서, 상기 측정장치(20)가 돌출부 또는 곡면부(12)가 있었다고 판단하면, 상기 돌출부 또는 곡면부(12)에 대한 촬영이 진행되는 단계가 더 포함될 수 있는 것을 특징으로 한다. Here, if the measuring device 20 determines that there is a protrusion or curved portion 12, a step of photographing the protrusion or curved portion 12 may be further included.

더욱 상세하게, 상기 측정장치(20)가 상기 돌출부 또는 곡면부(12)가 있었다고 판단하면, 상기 촬영 조건 판단부(54)에서 도 4와 같이 상기 돌출부 또는 곡면부(12)를 모두를 포함시키는 사각박스(542)를 설정하고, 상기 사각박스(542)에 대한 길이 측정을 통해, 상기 제 1 단계 내지 상기 제 19 단계와 같이 촬영을 진행할 수 있으며 이에 한정되지 않는다. More specifically, if the measuring device 20 determines that the protrusion or curved portion 12 is present, the shooting condition determination unit 54 includes all of the protrusion or curved portion 12 as shown in FIG. 4. By setting up a square box 542 and measuring the length of the square box 542, photography can be performed as in steps 1 to 19, but is not limited thereto.

다음으로, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)에서 상기 사용자단말기(60)로 촬영 완료 알림을 송부하는 제 20 단계가 이뤄진다.Next, a 20th step is performed in which a shooting completion notification is sent from the shooting interruption determination unit 55 of the cloud server 50 to the user terminal 60.

여기서, 상기 클라우드 서버(50)의 촬영 중단 판단부(55)는, 평면부, 곡면부 또는 돌출부 모든 면의 촬영이 끝났다고 판단하는 것으로, 촬영 조건 산정부(53)에서 산정한 값만큼 촬영이 진행되었는지, 방향이 옳바르게 진행되었는지, 촬영 결과물의 선명도가 떨어지지 않는지, 상기 촬영장치(20) 화각 중앙부 초점에서 상기 3D 모델링 대상(10)이 0.1% 이상 벗어났는지 등의 확인을 통해 촬영이 끝났다고 판단하여 촬영 완료 알림을 송부한다. 단순히 이에 한정되지 않고 더 다양한 조건을 확인할 수 있다. 더 다양한 조건과 기준값은 사용자가 상기 사용자단말기(60)의 앱 또는 웹을 이용하여 입력할 수 있다.Here, the shooting stop determination unit 55 of the cloud server 50 determines that shooting of all surfaces of the flat part, curved part, or protrusion is completed, and the shooting progresses by the value calculated by the shooting condition calculation unit 53. It is determined that the shooting is completed by checking whether the direction is correct, whether the sharpness of the shooting result is not deteriorated, and whether the 3D modeling object 10 deviates by more than 0.1% from the central focus of the angle of view of the shooting device 20. A notification of completion of filming is sent. It is not simply limited to this and a wider variety of conditions can be checked. More diverse conditions and reference values can be entered by the user using the app or web of the user terminal 60.

다음으로, 사용자가 상기 사용자단말기(60)의 앱 또는 웹을 이용하여 촬영 결과물을 확인한 후 촬영을 종료시키는 제 21 단계가 이뤄진다.Next, the 21st step is performed in which the user checks the shooting results using the app or web of the user terminal 60 and ends the shooting.

상기 단계를 통해, 촬영이 완전히 종료된다. 그러나, 상기 제 21 단계에서, 사용자가 상기 사용자단말기(60)의 앱 또는 웹을 이용하여 촬영이 부족했다고 판단되는 부분을 클릭하면, 해당 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있는 것을 특징으로 한다.Through the above steps, filming is completely terminated. However, in the 21st step, if the user clicks on a part that is judged to have been insufficiently photographed using the app or web of the user terminal 60, a step of returning to the corresponding step and reshooting may be further included. do.

상기에서 설명한 제 1 내지 제 21 단계는 3D 모델링 대상(10)의 한 면 촬영 방법에 대한 설명이다. 즉, 3D 모델링 대상(10)이 다면체라면, 상기 제 1 내지 상기 제 21 단계까지가 반복 진행됨에 따라 상기 3D 모델링 대상(10)의 전체 면을 촬영할 수 있는 것을 특징으로 한다. The first to twenty-first steps described above are a description of a method for photographing one side of a 3D modeling object 10. That is, if the 3D modeling object 10 is a polyhedron, the entire surface of the 3D modeling object 10 can be photographed as the first to 21st steps are repeated.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented within a medium readable by a computer or similar device, for example, using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 관리서버 및/또는 시스템 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). In some cases, it may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. The described embodiments may be implemented as a management server and/or the system itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 씌여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 관리서버 및/또는 데이터베이스에 저장되고, 앱에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented as a software application written in an appropriate programming language. The software code may be stored in a management server and/or database and executed by an app.

한편, 여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터 판독가능한 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터 판독가능한 매체는 자기 저장장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립,등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. 용어 "기계-판독가능한 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.Meanwhile, the various embodiments presented herein may be implemented as a method, device, or article manufactured using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program, carrier, or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CDs, DVDs, etc.), smart cards, and flash memory devices. (e.g., EEPROM, card, stick, key drive, etc.), but is not limited to these. Additionally, various storage media presented herein include one or more devices and/or other machine-readable media for storing information. The term “machine-readable media” includes, but is not limited to, wireless channels and various other media capable of storing, retaining, and/or transmitting instruction(s) and/or data.

제시된 실시예들에 대한 설명은 임의의 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these embodiments will be apparent to those skilled in the art, and the general principles defined herein may be applied to other embodiments without departing from the scope of the invention. Thus, the present invention is not limited to the embodiments presented herein, but is to be construed in the broadest scope consistent with the principles and novel features presented herein.

10 : 3D 모델링 대상 12 : 돌출부 또는 곡면부
20 : 촬영장치 30 : 조명장치
40 : 측정장치 50 : 클라우드 서버
51 : 경로부 52 : 조명장치 제어부
53 : 촬영 조건 산정부 54 : 촬영 조건 판단부
542 : 사각박스 55 : 촬영 중단 판단부
56 : 저장부 60 : 사용자단말기
10: 3D modeling object 12: Protrusion or curved surface
20: photographing device 30: lighting device
40: measuring device 50: cloud server
51: path unit 52: lighting device control unit
53: Shooting condition calculation unit 54: Shooting condition determination unit
542: Square box 55: Filming interruption judgment unit
56: storage unit 60: user terminal

Claims (5)

3D 모델링 대상을 촬영하는 촬영장치;
3D 모델링 대상의 밝기 조절을 위한 조명장치;
상기 촬영장치에서 3D 모델링 대상까지의 거리 또는 3D 모델링 대상의 형태, 크기를 판단하기 위한 측정장치;
상기 촬영장치, 상기 조명장치, 상기 측정장치와 연동되어, 각종 정보를 저장하고, 3D 모델링 대상의 촬영을 제어하는 클라우드 서버; 및
사용자에 의해 조작될 수 있으며, 상기 촬영장치, 상기 조명장치, 상기 측정장치 및 상기 클라우드 서버와 연동되고, 앱 또는 웹을 통해서 각종 정보를 입출력할 수 있는 사용자 단말기;를 포함하고,
상기 클라우드 서버는,
상기 3D 모델링 촬영의 경로가 지정되거나, 입력되는 경로부;
상기 조명장치를 제어할 수 있는 조명 제어부;
상기 3D 모델링 대상의 촬영 횟수, 한 촬영 당 상기 촬영장치의 이동 거리를 산정하는 촬영 조건 산정부;
상기 3D 모델링 대상의 촬영 조건이 적절히 갖춰졌는지의 판단을 통해, 촬영을 지시하는 촬영 조건 판단부;
상기 3D 모델링 대상의 촬영이 적절히 진행되었는지의 판단을 통해, 재촬영 또는 해당 단계 촬영 중단을 지시하는 촬영 중단 판단부;
상기 경로부, 상기 조명 제어부, 상기 촬영 조건 산정부, 상기 촬영 조건 판단부, 상기 촬영 중단 판단부의 정보가 저장되고, 각종 정보의 입출력이 가능한 저장부;를 포함하여 구성되는 것을 특징으로 하는 3D 모델링 촬영 시스템.
A photographing device for photographing a 3D modeling object;
Lighting device for controlling the brightness of 3D modeling objects;
A measuring device for determining the distance from the imaging device to the 3D modeling object or the shape and size of the 3D modeling object;
A cloud server that is linked with the photographing device, the lighting device, and the measuring device, stores various information, and controls photographing of a 3D modeling object; and
A user terminal that can be operated by the user, is linked with the photographing device, the lighting device, the measuring device, and the cloud server, and is capable of inputting and outputting various information through an app or the web.
The cloud server is,
a path unit where the path of the 3D modeling photograph is designated or input;
a lighting control unit capable of controlling the lighting device;
a shooting condition calculation unit that calculates the number of shots of the 3D modeling object and the moving distance of the photographing device per shot;
a shooting condition determination unit that instructs shooting by determining whether the shooting conditions of the 3D modeling target are appropriately met;
a filming interruption determination unit that determines whether filming of the 3D modeling object has been appropriately progressed and instructs refilming or stopping filming at the relevant stage;
3D modeling characterized by comprising a storage unit that stores information from the path unit, the lighting control unit, the shooting condition calculation unit, the shooting condition determination unit, and the shooting stop determination unit, and is capable of inputting and outputting various types of information. shooting system.
제 1항으로 구성되는 3D 모델링 촬영 시스템에 있어서,
상기 측정장치의 정보를 받아, 상기 클라우드 서버의 경로부에 3D 모델링 촬영 경로가 입력되고, 상기 클라우드 서버의 저장부에 저장되는 제 1 단계;
상기 측정장치에 의해 3D 모델링 대상에서 한 면의 세로 길이 L1과 가로 길이 L2가 측정되고, 상기 클라우드 서버의 저장부에 저장되는 제 2 단계;
상기 촬영장치가 촬영 시작 위치로 이동되는 제 3 단계;
상기 측정장치에 의해 상기 촬영장치에서 3D 모델링 대상까지의 평행 거리 D1이 측정되고, 상기 클라우드 서버의 저장부에 저장되는 제 4 단계;
사용자가 상기 사용자단말기의 앱 또는 웹을 이용하여, 촬영 중복도 값 A%와 (촬영장치의 화각/2)값인 θ를 입력하여, 상기 클라우드 서버의 저장부에 저장하는 제 5 단계;
상기 클라우드 서버의 촬영 조건 산정부에서 상기 클라우드 서버 저장부에 저장된 L1, L2, D1, A, θ 값을 이용하여, 세로촬영횟수 n1, 한 컷당 세로 이동 거리 m1, 가로촬영횟수 n2, 한 컷당 가로 이동 거리 m2를 산정하여 상기 클라우드 서버의 저장부에 저장하는 제 6 단계;
상기 클라우드 서버의 조명 제어부에서 상기 조명장치의 필요성을 판단하는 제 7 단계;
상기 제 7 단계에서 상기 조명장치가 필요하다고 판단한 경우, 상기 클라우드 서버의 조명 제어부가 상기 조명장치의 광량, 각도, 색온도를 조절하는 제 8 단계;
상기 클라우드 서버의 촬영 조건 확인부에서 상기 제 1 내지 제 8 단계가 적절히 수행되었는지 확인한 후, 촬영 시작 지시를 내리는 제 9 단계;
상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 n1, m1 값에 맞춰 세로방향으로의 촬영을 진행하는 제 10 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n1 횟수만큼 촬영을 진행했다고 판단하는 제 11 단계;
상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 m2 값 만큼 가로 방향으로 1회 이동하는 제 12 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 m2 값만큼 촬영을 진행했다고 판단하는 제 13 단계;
상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 n1, m1 값에 맞춰 상기 제 10 단계의 반대방향으로 촬영을 진행하는 제 14 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n1 횟수만큼 촬영을 진행했다고 판단하는 제 15 단계;
상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 m2 값 만큼 가로 방향으로 1회 이동하는 제 16 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 m2 값만큼 촬영을 진행했다고 판단하는 제 17 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n2 횟수만큼 촬영이 진행되었다고 판단할때까지, 상기 촬영장치가 상기 클라우드 서버의 저장부에 저장된 촬영 경로를 따라 n1, m1, m2 값 만큼 이동하며 상기 제 10 단계에서 상기 제 17 단계까지를 반복 진행하는 제 18 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 클라우드 서버의 저장부에 저장된 n2 횟수만큼 촬영이 진행되었다고 판단하는 제 19 단계;
상기 클라우드 서버의 촬영 중단 판단부에서 상기 사용자단말기로 촬영 완료 알림을 송부하는 제 20 단계;
사용자가 상기 사용자단말기의 앱 또는 웹을 이용하여 촬영 결과물을 확인한 후 촬영을 종료시키는 제 21 단계;를 포함하여 구성되는 것을 특징으로 하는 3D 모델링 촬영 시스템.
In the 3D modeling imaging system consisting of claim 1,
A first step of receiving information from the measuring device, inputting a 3D modeling shooting path into the path section of the cloud server, and storing it in the storage section of the cloud server;
A second step in which the vertical length L 1 and the horizontal length L 2 of one side of the 3D modeling object are measured by the measuring device and stored in the storage of the cloud server;
A third step in which the photographing device is moved to the photographing start position;
A fourth step in which the parallel distance D 1 from the imaging device to the 3D modeling object is measured by the measuring device and stored in the storage of the cloud server;
A fifth step in which the user inputs the shooting redundancy value A% and the (viewing angle of the shooting device/2) value θ using the app or web of the user terminal and stores them in the storage of the cloud server;
L 1 stored in the cloud server storage unit in the shooting condition calculation unit of the cloud server, L 2 , D 1 , Using the A and θ values, the number of vertical shots n 1 , the vertical movement distance per cut m 1 , the number of horizontal shots n 2 , and the horizontal movement distance per cut m 2 are calculated and stored in the storage of the cloud server. ;
A seventh step of determining the necessity of the lighting device in the lighting control unit of the cloud server;
If it is determined in the seventh step that the lighting device is necessary, an eighth step in which the lighting control unit of the cloud server adjusts the light quantity, angle, and color temperature of the lighting device;
A ninth step of issuing an instruction to start shooting after checking whether the first to eighth steps have been properly performed in the shooting condition confirmation unit of the cloud server;
A tenth step in which the photographing device performs photographing in the vertical direction according to the n 1 and m 1 values stored in the storage of the cloud server;
An 11th step of determining, in the shooting interruption determination unit of the cloud server, that shooting has been performed n 1 times stored in the storage of the cloud server;
A twelfth step of moving the photographing device once in the horizontal direction by the m 2 value stored in the storage of the cloud server;
A 13th step of determining, in the shooting interruption determination unit of the cloud server, that shooting has progressed as much as the m 2 value stored in the storage unit of the cloud server;
A fourteenth step in which the photographing device performs photographing in the opposite direction of the tenth step according to the n 1 and m 1 values stored in the storage of the cloud server;
A 15th step of determining, in the shooting interruption determination unit of the cloud server, that shooting has been performed n 1 times stored in the storage of the cloud server;
A 16th step of moving the photographing device once in the horizontal direction by the m 2 value stored in the storage of the cloud server;
A 17th step of determining, in the shooting interruption determination unit of the cloud server, that shooting has progressed as much as the m 2 value stored in the storage unit of the cloud server;
Until the shooting interruption determination unit of the cloud server determines that shooting has progressed as many times as n 2 stored in the storage of the cloud server, the photographing device follows the shooting path stored in the storage of the cloud server n 1 , m An 18th step of moving by the value 1 , m 2 and repeating the steps from the 10th step to the 17th step;
A 19th step of determining, in the shooting interruption determination unit of the cloud server, that shooting has been performed as many times as n 2 stored in the storage of the cloud server;
A 20th step of sending a shooting completion notification from the shooting interruption determination unit of the cloud server to the user terminal;
A 21st step in which the user terminates the shooting after checking the shooting results using the app or web of the user terminal. 3D modeling shooting system comprising a.
제 2항에 있어서,
상기 제 11 단계, 상기 제 15 단계 이후,
상기 클라우드 서버의 촬영 중단 판단부에서 상기 촬영장치를 m1 값 만큼 세로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하고, 촬영이 적절치 않았다면 각각 상기 제 10 단계, 상기 제 14 단계로 되돌아가고, 촬영이 적절하였다면 상기 촬영장치를 각각 상기 제 11 단계, 상기 제 15 단계 위치로 이동시킨 후 다음 단계로 진행하는 단계가 더 이뤄질 수 있고,
상기 제 19 단계 이후,
상기 클라우드 서버의 촬영 중단 판단부에서 상기 촬영장치를 m2 값 만큼 가로 진행방향으로 1회 더 이동시켜 촬영이 원활히 이뤄졌는지 판단하고, 촬영이 적절치 않았다면 상기 제 18 단계로 되돌아가고, 촬영이 적절하였다면 다음 단계로 진행하는 단계가 더 이뤄질 수 있는 것을 특징으로 하는 3D 모델링 촬영 시스템.
According to clause 2,
After the 11th step and the 15th step,
The shooting interruption determination unit of the cloud server moves the shooting device one more time in the vertical direction by the m 1 value to determine whether shooting was performed smoothly, and if shooting was not appropriate, returns to the 10th step and the 14th step, respectively. If the shooting is appropriate, moving the imaging device to the 11th step and the 15th step position and then proceeding to the next step can be further performed,
After the 19th step,
The shooting interruption determination unit of the cloud server moves the shooting device one more time in the horizontal direction by the m 2 value to determine whether shooting was performed smoothly. If the shooting was not appropriate, the process returns to step 18. If the shooting was appropriate, the operation returns to step 18. A 3D modeling filming system characterized in that further steps can be taken to proceed to the next step.
제 3항에 있어서,
상기 제 11 단계, 상기 제 15 단계에서,
상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 각각 상기 제 10 단계, 상기 제 14 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있고,
상기 제 13 단계, 상기 제 17 단계에서,
상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 각각 상기 제 12 단계, 상기 제 16 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있으며,
상기 제 19 단계에서,
상기 클라우드 서버의 촬영 중단 판단부가 촬영이 적절하지 못하였다고 판단하면, 상기 제 18 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있고,
상기 제 21 단계에서,
사용자가 상기 사용자단말기의 앱 또는 웹을 이용하여 촬영이 부족했다고 판단되는 부분을 클릭하면, 해당 단계로 돌아가 재촬영하는 단계가 더 포함될 수 있는 것을 특징으로 하는 3D 모델링 촬영 시스템.
According to clause 3,
In the 11th step and the 15th step,
If the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, the step of returning to the 10th step and the 14th step, respectively, and reshooting may be further included,
In the 13th step and the 17th step,
If the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, the step of returning to the 12th step and the 16th step, respectively, and reshooting may be further included,
In the 19th step,
If the shooting interruption determination unit of the cloud server determines that the shooting was not appropriate, a step of returning to the 18th step and reshooting may be further included,
In the 21st step,
A 3D modeling shooting system that may further include a step of returning to the relevant step and reshooting when the user clicks on an area judged to have been insufficiently captured using the app or web of the user terminal.
제 4항에 있어서,
상기 제 19 단계 이후에,
상기 측정장치가 돌출부 또는 곡면부가 있었다고 판단하면, 상기 돌출부 또는 곡면부에 대한 촬영이 진행되는 단계가 더 포함될 수 있는 것을 특징으로 하는 3D 모델링 촬영 시스템.










According to clause 4,
After the 19th step,
A 3D modeling imaging system, wherein if the measuring device determines that there is a protrusion or a curved surface, a step of photographing the protrusion or the curved surface may be further included.










KR1020220162272A 2022-11-29 2022-11-29 3D Modeling Photography System KR20240079402A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220162272A KR20240079402A (en) 2022-11-29 2022-11-29 3D Modeling Photography System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220162272A KR20240079402A (en) 2022-11-29 2022-11-29 3D Modeling Photography System

Publications (1)

Publication Number Publication Date
KR20240079402A true KR20240079402A (en) 2024-06-05

Family

ID=91470809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220162272A KR20240079402A (en) 2022-11-29 2022-11-29 3D Modeling Photography System

Country Status (1)

Country Link
KR (1) KR20240079402A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102200866B1 (en) 2019-02-25 2021-01-11 주식회사 레이젠 3-dimensional modeling method using 2-dimensional image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102200866B1 (en) 2019-02-25 2021-01-11 주식회사 레이젠 3-dimensional modeling method using 2-dimensional image

Similar Documents

Publication Publication Date Title
Carroll et al. Image warps for artistic perspective manipulation
US11527009B2 (en) Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
CN101918983B (en) Three-dimensional annotations for street view data
CN109887003A (en) A kind of method and apparatus initialized for carrying out three-dimensional tracking
US8487927B2 (en) Validating user generated three-dimensional models
CN110168614B (en) Apparatus and method for generating dynamic virtual content in mixed reality
US20120081357A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
US10417833B2 (en) Automatic 3D camera alignment and object arrangment to match a 2D background image
US20160247313A1 (en) Methods and Systems for Viewing a Three-Dimensional (3D) Virtual Object
CN113689578B (en) Human body data set generation method and device
US20140184596A1 (en) Image based rendering
CN109688343A (en) The implementation method and device of augmented reality studio
KR101875047B1 (en) System and method for 3d modelling using photogrammetry
JP2006098256A (en) Three-dimensional surface model preparing system, image processing system, program, and information recording medium
CN112862861B (en) Camera motion path determining method, determining device and shooting system
US10748333B2 (en) Finite aperture omni-directional stereo light transport
CN117456076A (en) Material map generation method and related equipment
WO2023056879A1 (en) Model processing method and apparatus, device, and medium
KR20240079402A (en) 3D Modeling Photography System
CA2716257A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
WO2020173222A1 (en) Object virtualization processing method and device, electronic device and storage medium
CN110853143B (en) Scene realization method, device, computer equipment and storage medium
KR102149105B1 (en) Mixed reality based 3D sketching device and method
Ehtemami et al. Overview of Visualizing Historical Architectural Knowledge through Virtual Reality
Ehtemami et al. Review of Visualizing Historical Architectural Knowledge through Virtual Reality