KR102177289B1 - Simulating method of 3D moedels in factory using drones - Google Patents

Simulating method of 3D moedels in factory using drones Download PDF

Info

Publication number
KR102177289B1
KR102177289B1 KR1020190112083A KR20190112083A KR102177289B1 KR 102177289 B1 KR102177289 B1 KR 102177289B1 KR 1020190112083 A KR1020190112083 A KR 1020190112083A KR 20190112083 A KR20190112083 A KR 20190112083A KR 102177289 B1 KR102177289 B1 KR 102177289B1
Authority
KR
South Korea
Prior art keywords
factory
model
control unit
data
drone
Prior art date
Application number
KR1020190112083A
Other languages
Korean (ko)
Inventor
태현철
정재욱
안세환
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020190112083A priority Critical patent/KR102177289B1/en
Application granted granted Critical
Publication of KR102177289B1 publication Critical patent/KR102177289B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

The present invention relates to a three-dimensional factory model describing method using a drone. The method includes: (a) a step wherein at least one drone (100) collects boundary data of a factory through early flight; (b) a step wherein a control part (200) determines a factory space by determining the boundary of the factory through analysis on the boundary data, and divides the determined factory space in accordance with a predetermined method; (c) a step wherein the at least one drone (100) is placed in each divided factory space and collects exploration data including size, shape, and position of an object through primary flight; (d) a step wherein the control part (200) determines the size, shape, and position of the object by analyzing the exploration data; (e) a step wherein the at least one drone (100) is placed in each divided factory space to collect precise data including images of each object through secondary flight flying over each object one by one; (f) a step wherein the control part (f) individually describes three-dimensional models of each object by using the precise data and the exploration data; and (g) a step wherein the control part (200) describes a three-dimensional factory model by connecting the individually described three-dimensional models of each object through a predetermined method. Therefore, the present invention is capable of preventing drones from being unnecessarily placed by placing drones considering the size of a factory.

Description

드론을 이용한 공장 3D 모델 묘사방법{Simulating method of 3D moedels in factory using drones}Simulating method of 3D moedels in factory using drones

본 발명은 드론을 이용한 공장 3D 모델 묘사방법에 관한 것이다. 구체적으로, 제어부가 산업현장에 드론이 비행하며 생성된 탐색데이터 및 정밀데이터를 이용하여 각각의 객체의 3D모델을 묘사하고 이를 기반으로, 공장의 3D 모델을 묘사하는 방법에 관한 것이다.The present invention relates to a method for describing a 3D model of a factory using a drone. Specifically, it relates to a method for the control unit to describe a 3D model of each object using the exploration data and precision data generated by the drone flying over the industrial site and, based on this, to describe the 3D model of the factory.

크기가 큰 공장을 한눈에 파악하고 예측하기 위해서는 그 공장을 똑같이 묘사할 수 있는 가상공장이 필요하다. 가상공장은 3D 모델로 이루어져 있는데, 3D 모델은 현실공장과 가상공장간 일치성, 직관성을 높이기 위해 필요하다.In order to understand and predict a large factory at a glance, you need a virtual factory that can describe the same factory. The virtual factory consists of 3D models, which are necessary to increase the consistency and intuition between the real factory and the virtual factory.

3D 모델을 얻기 위해 사람이 직접 프로그래밍, 인터뷰, 자료 조사 등을 통해 직접 수행하는 방식은, 인력, 시간, 자원의 소요가 큼에 따라 시뮬레이션 확산이 한계적으로 진행된 문제가 있었다.There was a problem in that the diffusion of simulation was limited due to the large demands of manpower, time, and resources in the way that humans directly perform programming, interviews, and data research to obtain 3D models.

예를 들어, 한국공개특허문헌 제10-2014-0087533호는 시뮬레이션 시스템에 관한 것으로서, 보다 구체적으로 제조설비 시뮬레이션 시스템에 관한 것이다. 실제 설비를 각각의 가상 설비로 모델링하고, 각각의 가상 설비들을 조합하여 연속 공정 구현이 가능한 가상 공장을 구축할 수 있으나, 직접 프로그래밍하여 모델링하여야 하므로 인력, 시간, 자원 등 소요가 큰 문제가 있다.For example, Korean Patent Publication No. 10-2014-0087533 relates to a simulation system, and more specifically, to a manufacturing facility simulation system. A virtual factory capable of implementing a continuous process can be built by modeling an actual facility as each virtual facility, and combining each virtual facility, but it has to be modeled by direct programming, so there is a big problem in manpower, time, and resources.

예를 들어, 한국등록특허문헌 제10-1873289호는 해양 플랜트의 제작공정관리를 위한 3D 시뮬레이션 및 모니터링 시스템 및 방법에 관한 것으로, 3D 설계 데이터와 맵핑(Mapping)하는 단계, 상기 프로세서가 상기 갱신 데이터 및 상기 3D 설계 데이터를 통합 데이터베이스(Database)에 저장하는 단계 및 상기 프로세서가 상기 3D 설계 데이터 및 상기 갱신 데이터에 기초하여 3D 시뮬레이션 모델을 묘사하는 단계를 포함하나, 직접 프로그래밍하여 모델링하여야 하므로 인력, 시간, 자원 등 소요가 큰 문제가 있다.For example, Korean Patent Document No. 10-1873289 relates to a 3D simulation and monitoring system and method for manufacturing process management of an offshore plant, the step of mapping with 3D design data, the processor being the update data And storing the 3D design data in an integrated database, and the processor describing a 3D simulation model based on the 3D design data and the updated data. However, since the model must be directly programmed and modeled, manpower and time , There is a big problem with resources, etc.

(특허문헌 1) 한국공개특허문헌 제10-2014-0087533호(Patent Document 1) Korean Patent Publication No. 10-2014-0087533

(특허문헌2) 한국등록특허문헌 제10-1873289호(Patent Document 2) Korean Patent Document No. 10-1873289

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다. The present invention was devised to solve the above problems.

구체적으로, 3D모델링할 때 필요한 시간과 비용을 최소화하여 공장 내 3D모델링을 하기 위한 것이다.Specifically, it is for 3D modeling in the factory by minimizing the time and cost required for 3D modeling.

드론을 이용하여 3D모델링에 필요한 이미지 및 데이터를 용이하게 생성하기 위함이다.This is to easily create images and data necessary for 3D modeling using a drone.

3D모델링의 제작과정 상에 오류를 최소화하기 위함이다.This is to minimize errors in the manufacturing process of 3D modeling.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, An embodiment of the present invention for solving the above problems,

촬영장치와 센서가 포함되어 바운더리 데이터, 탐색데이터 및 정밀데이터를 수집할 수 있는 드론을 이용하여, 공장의 3D 모델을 묘사(simulate)하는 방법으로서, (a)1개 이상의 드론(100)이 초기비행하여 공장의 바운더리 데이터를 수집하는 단계;(b)상기 제어부(200)가 상기 바운더리 데이터를 분석하여 공장의 바운더리를 결정하므로써 공장 공간을 판단하고, 미리 결정된 방법에 따라 상기 판단된 공장 공간을 분할하는 단계;(c)상기 1개 이상의 드론(100)이 각각 상기 분할된 공장 공간에 각각 배치되고 1차비행하여 객체의 크기, 형상 및 위치를 포함하는 탐색데이터를 수집하는 단계;(d)상기 제어부(200)가 상기 탐색데이터를 분석하여, 객체의 크기, 형상 및 위치를 판단하는 단계;(e) 상기 1개 이상의 드론(100)이 상기 분할된 공장 공간에 각각에 배치되어, 각각의 객체를 하나씩 비행하는 2차비행하여 각각의 객체의 이미지를 포함한 정밀데이터를 수집하는 단계;(f)상기 제어부(200)가 상기 탐색데이터와 상기 정밀데이터를 이용하여, 각각의 객체의 3D 모델을 각각 묘사하는 단계; 및 (g)상기 제어부(200)가 각각 묘사된 상기 객체의 3D모델을 미리 결정된 방식으로 연결하여 공장 3D 모델을 묘사하는 단계;를 포함하는, 상기 (g)단계에서, (g1)상기 제어부(200)는 상기 (c)단계에서 판단된 상기 탐색데이터인 객체마다 상기 각각 묘사된 3D모델이 서로 연결되도록 배열하는 단계; 및 (g2)상기 제어부(200)가 상기 (g1)단계의 결과를 이용하여 상기 공장 3D 모델을 묘사하는 단계; 를 포함하는 드론을 이용한 공장 3D 모델 묘사방법에 관한 것이다.It is a method of simulating a 3D model of a factory by using a drone that can collect boundary data, exploration data, and precision data that includes a photographing device and a sensor, and (a) one or more drones 100 are initially Collecting the boundary data of the factory by flying; (b) The control unit 200 analyzes the boundary data to determine the boundary of the factory to determine the factory space, and divides the determined factory space according to a predetermined method. (C) collecting search data including the size, shape, and location of the object by placing the at least one drone 100 in each of the divided factory spaces and making a primary flight; (d) the control unit (200) analyzing the search data to determine the size, shape, and position of the object; (e) the one or more drones 100 are disposed in each of the divided factory spaces, and each object is Collecting precision data including an image of each object by performing a second flight flying one by one; (f) The control unit 200 uses the search data and the precision data to describe each 3D model of each object. step; And (g) describing the factory 3D model by connecting the 3D models of the objects depicted by the control unit 200 in a predetermined manner; including, in step (g), (g1) the control unit ( 200) arranging the 3D models to be connected to each other for each object that is the search data determined in step (c); And (g2) describing, by the control unit 200, the 3D model of the factory using the result of the step (g1). It relates to a method of depicting a 3D model of a factory using a drone including.

또한, 상기 (c)단계에서, 상기 탐색데이터는 객체가 서로 직렬방식(311) 또는 병렬방식(312)으로 연결되는 방식인 객체의 연결방식을 더 포함하고, 상기 (d)단계는, 상기 제어부(200)가 상기 탐색데이터를 이용하여, 객체의 크기, 형상 및 위치, 객체의 연결방식을 판단하는 단계인 것이 바람직하다.In addition, in the step (c), the search data further includes an object connection method, which is a method in which objects are connected to each other in a serial method 311 or a parallel method 312, and in step (d), the control unit It is preferable that the step 200 is a step of determining the size, shape and position of the object, and a connection method of the object using the search data.

또한, 상기 (g)단계에서, (g3)상기 제어부(200)가 상기 정밀데이터를 이용하여, 상기 객체의 종류를 제품이 진입하여 조립되는 제1객체(301), 제품이 진입하여 분해되는 제2객체(302) 및 제품이 진입하여 가공되는 제3객체(303) 중 어느 하나로 판단하는 단계;를 더 포함하고, 상기 (g1)단계에서, 상기 제어부(200)가 상기 (g3)단계로 판단된 객체의 종류, 객체의 연결방식으로, 각각 묘사된 3D 모델이 서로 연결되도록 배열하는 단계인 것이 바람직하다.In addition, in step (g), (g3) the control unit 200 uses the precision data to determine the type of the object as a first object 301 that is assembled by entering a product, and a first object that is disassembled by entering the product. The step of determining any one of the second object 302 and the third object 303 processed by entering the product; further comprising, in the step (g1), the control unit 200 determines that the step (g3) It is preferable that it is a step of arranging each depicted 3D model to be connected to each other as the type of object and the connection method of the object.

또한, 상기(g)단계에서, (g4)상기 제어부(200)가 상기 정밀데이터를 이용하여, 상기 (g3)단계로 판단된 객체의 종류, 객체의 연결방식을 분석하여 실제 공장 모델과 묘사된 공장 3D모델과 비교하는 단계;(g5)상기 제어부(200)가 상기 (g4)단계에서 실제 공장 모델과 차이가 있는 상기 묘사된 공장 3D모델의 객체의 종류, 객체의 연결방식을 판단하는 단계;(g6)상기 제어부(200)가 실제 공장 모델과 상기 차이가 있는 객체의 종류, 객체의 연결방식 중 어느 하나 이상의 정밀데이터를 재수집하여 수정된 3D모델을 묘사하는 단계; 및 (g7)상기 제어부(200)가 상기 수정된 3D 모델을 상기 묘사된 공장 3D모델과 연결되도록 배열하는 단계;를 포함하는 것이 바람직하다.In addition, in the step (g), (g4) the control unit 200 analyzes the type of the object determined in step (g3) and the connection method of the object using the precision data, Comparing with the factory 3D model; (g5) determining, by the control unit 200, the type of the object of the depicted factory 3D model and a connection method of the objects that are different from the actual factory model in step (g4); (g6) the control unit 200 re-collecting one or more of the types of objects that differ from the actual factory model, the object connection method, and describing the corrected 3D model; And (g7) arranging, by the control unit 200, the modified 3D model to be connected to the depicted factory 3D model.

또한, 상기 (g8)단계에서, 상기 제어부(200)는 실제 공장 모델과 상기 차이가 있는 객체의 종류, 객체의 연결방식은 상기 묘사된 공장 3D모델에서 제거하는 단계를 더 포함하는 것이 바람직하다.In addition, in step (g8), it is preferable that the control unit 200 further comprises a step of removing the type of the object having the difference from the actual factory model and the connection method of the object from the depicted factory 3D model.

또한, 상기 (b)단계는, 상기 제어부(200)가 상기 드론(100)의 개수만큼 각각 동일면적으로 공장 공간을 분할하는 단계인 것이 바람직하다.In addition, the step (b) is preferably a step of dividing the factory space into the same area by the number of the drones 100 by the control unit 200.

또한, 상기 (e)단계에서, 상기 2차비행은 객체 하나를 360도 회전한 후, 다른 객체로 이동하여 상기 다른 객체를 360도 회전하는 방식으로 비행하는 것인 것이 바람직하다.In addition, in step (e), it is preferable that the secondary flight is to rotate one object by 360 degrees, then move to another object, and then fly in a manner of rotating the other object by 360 degrees.

본 발명에 따른 방법은, The method according to the invention,

공장의 크기를 고려하여 드론을 배치하여, 불필요한 드론의 배치를 방지할 수 있다.By deploying drones in consideration of the size of the factory, unnecessary drone deployment can be prevented.

드론이 3차원으로 비행하며 조사하는 초음파, 적외선과 이미지 촬영 등을 이용하여 용이하게 3D 모델링에 필요한 데이터 및 이미지를 생성할 수 있다.It is possible to easily create data and images necessary for 3D modeling by using ultrasonic waves, infrared rays and image capturing that the drones fly and irradiate in 3D.

드론이 공장 내 객체에 대한 탐색데이터 및 정밀데이터를 생성하여, 이를 3바탕으로 3D 모델로 변환할 수 있다.Drones can generate exploration data and precision data for objects in the factory and convert them into a 3D model based on 3 dimensions.

제어부가 각 개체의 이미지에 해당 객체의 3D 프레임을 덧씌우는 방식으로 가상 모델 묘사할 수 있다.The control unit can describe the virtual model in such a way that the 3D frame of the object is overlaid on the image of each object.

묘사된 3D 모델을 실제 공장 모델과 비교하는 과정을 포함하여, 3D모델링의 제작과정 상에 오류를 최소화할 수 있다.Errors in the manufacturing process of 3D modeling can be minimized, including the process of comparing the depicted 3D model with the actual factory model.

도 1은 본 발명에 따른 3D 모델을 묘사하는 방법을 도시한 도면이다.
도 2는 드론이 비행하여, 바운더리 데이터를 생성하는 과정을 도시한 도면이다.
도 3은 드론이 비행하여, 탐색데이터를 생성하는 과정을 도시한 도면이다.
도 4는 드론이 비행하여, 탐색데이터를 생성하는 과정을 도시한 도면이다.
도 5는 본 발명에 따른 객체를 나타낸 도면이다.
도 6은 본 발명에 따라, 묘사된 가상공장의 3D모델을 나타낸 도면이다.
1 is a diagram illustrating a method of depicting a 3D model according to the present invention.
2 is a diagram showing a process of generating boundary data by flying a drone.
3 is a diagram illustrating a process of generating search data by flying a drone.
4 is a diagram illustrating a process of generating search data by flying a drone.
5 is a diagram showing an object according to the present invention.
6 is a diagram showing a 3D model of a depicted virtual factory according to the present invention.

"드론"은 X, Y, Z축으로 비행하며 이동할 수 있는 물체를 의미하는 것이고, 특정 제품에 제한되는 것은 아니다."Drone" refers to an object that can move while flying in the X, Y, and Z axes, and is not limited to a specific product.

"공장"은 작업대, 설비, 컨베이어벨트 등이 위치하여 제품이 제작되는 공간을 의미하는 것으로, 어느 특정한 공장에 제한되는 것은 아니고, 본 발명은 공장을 비롯한 모든 산업현장에 적용될 수 있다."Factory" refers to a space where a workbench, equipment, conveyor belt, etc. are located and products are manufactured, and is not limited to any specific factory, and the present invention can be applied to all industrial sites including factories.

"객체"는 작업대, 설비, 컨베이어벨트를 모두 포함하여 공정이 이루어지는 기계 또는 장치를 의미하는 것으로, 조립, 가공, 분해, 화학 공정 등의 다수 공정이 이루어질 수 있으며 어느 특정한 공정이 이루어지는 기계 또는 장치에 제한되는 것은 아니다."Object" refers to a machine or device in which a process is performed, including all worktables, facilities, and conveyor belts, and a number of processes such as assembly, processing, disassembly, and chemical processes can be performed. It is not limited.

"제어부"는 드론(100)이 수집한 바운더리 데이터, 탐색데이터, 정밀데이터 등의 다수의 데이터를 처리하고 연산할 수 있는 장치, 프로그램 또는 중앙서버를 의미한다.The “control unit” refers to a device, program, or central server capable of processing and calculating a plurality of data such as boundary data, search data, and precision data collected by the drone 100.

이하, 도면을 참조하여 본 발명을 보다 상세히 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.

1. 1개 이상의 드론(100)이 초기비행하여 공장의 바운더리 데이터를 수집하는 단계 1. A step in which one or more drones 100 initially fly to collect factory boundary data

도 1은 하기의 과정을 거쳐 공장의 3D모델을 묘사하는 것을 도시하는 도면이다.1 is a diagram illustrating depicting a 3D model of a factory through the following process.

공장의 3D모델을 묘사하기 위해서는, 드론(100)을 공장 내에 배치해야 하고, 이 때, 공장 내 배치할 드론(100)의 개수가 문제된다.In order to describe the 3D model of the factory, the drone 100 must be placed in the factory, and at this time, the number of drones 100 to be deployed in the factory becomes a problem.

드론(100)의 개수는 공장의 면적을 고려하여 결정할 수 있다. 공장의 크기마다, 공장 내 3D모델을 형성하기 위해 필요한 드론(100)의 개수는 상이할 수 있다. 또한, 드론(100)의 개수가 증가할수록 동일한 공장 면적 당, 3D모델의 묘사속도가 증가하는 바, 이를 고려하여 드론(100)의 개수를 결정할 수 있다. 공장면적과 묘사속도 그 외에도 공장 내 3D 모델을 묘사하는데 필요한 요소를 고려하여, 드론(100)의 개수는 1개 이상으로 기설정될 수 있다.The number of drones 100 may be determined in consideration of the area of the factory. According to the size of the factory, the number of drones 100 required to form a 3D model in the factory may be different. In addition, as the number of drones 100 increases, the speed of depicting the 3D model per the same factory area increases, and the number of drones 100 may be determined in consideration of this. In consideration of factors required to describe the 3D model in the factory in addition to the factory area and the speed of description, the number of drones 100 may be preset to one or more.

1개 이상의 드론(100)은 각각 공장의 바운더리 데이터를 생성한다. 바운더리 데이터는 공장 내의 전체 둘레 및 면적을 의미하고, 공장의 둘레를 형성하는 내벽을 기준으로 생성된다.At least one drone 100 generates boundary data of each factory. Boundary data refers to the total perimeter and area within the factory, and is generated based on the inner wall that forms the perimeter of the factory.

바운더리 데이터를 수집하기 위해, 1개 이상의 드론(100)은 공장 내 중앙에서 방사형으로 퍼트려져, 초기비행을 시작한다. 각각의 드론(100)은 방사형으로 퍼트려져 서로 상이한 방향으로 이동한 후 내벽으로부터 일정 거리에 위치되면, 각각의 드론(100)은 내벽을 따라 같은 방향으로 이동하면서, 서로 다른 내벽을 따라 이동할 수 있다. 각각의 드론(100)은 각각 내벽을 따라 직접 이동한 둘레 및 면적에 대한 바운더리 데이터를 생성할 수 있다. 이 때, 공장의 형상에 따라, 각각의 드론(100)은 각각 같은 둘레 및 면적을 이동할 수 있으나, 이에 제한되는 것은 아니다.In order to collect boundary data, one or more drones 100 are spread radially from the center of the factory, and start initial flight. When each drone 100 is spread radially and moves in different directions and is located at a certain distance from the inner wall, each drone 100 can move along different inner walls while moving in the same direction along the inner wall. . Each of the drones 100 may generate boundary data for a perimeter and an area directly moved along an inner wall, respectively. At this time, depending on the shape of the factory, each drone 100 may move the same perimeter and area, but is not limited thereto.

예를 들어, 도 2(a), (b)는 드론(100)의 개수가 2개인 것을 도시한다. 2개의 드론(100)은 서로에 대해 180도의 각도를 이루며 서로 상이한 방향으로 비행을 시작한 후, 공장 내벽을 따라 같은 방향으로 이동하고, 각각 다른 위치에 있는 공장 내벽에 대한 둘레 및 면적을 이동할 수 있다. 각각의 드론(100)은 공장 내벽을 따라 이동하여 각각에 대한 바운더리 데이터를 생성할 수 있다. 즉, 각각의 드론(100)은 공장의 둘레 및 면적의 절반에 해당하는 바운더리 데이터를 각각 생성한다.For example, Figures 2(a) and (b) show that the number of drones 100 is two. The two drones 100 form an angle of 180 degrees to each other and start flying in different directions, then move in the same direction along the inner wall of the factory, and can move the perimeter and area of the inner wall of the factory at different locations. . Each drone 100 may move along the inner wall of the factory to generate boundary data for each. That is, each drone 100 generates boundary data corresponding to the perimeter and half of the area of the factory, respectively.

또한, 예를 들어, 도 2(c), (d)는 드론(100)의 개수 3개인 것을 도시한다. 3개의 드론(100)은 서로에 대해 120도의 각도를 이루며 서로 상이한 방향으로 비행을 시작한다. 각각의 드론(100)은 공장의 둘레 및 면적의 삼분의 일에 해당하는 바운더리 데이터를 각각 생성한다.In addition, for example, Figures 2(c) and (d) show that the number of drones 100 is three. The three drones 100 form an angle of 120 degrees to each other and start flying in different directions. Each drone 100 generates boundary data corresponding to a third of the perimeter and area of the factory, respectively.

이 때, 드론(100)에는 실시간 위치센서와 거리측정 센서가 부착될 수 있다. 드론(100)은 공장 내벽을 비행하면서, 초음파와 레이저를 조사하여, 공장의 둘레 및 면적에 대한 바운더리 데이터를 생성할 수 있다.In this case, a real-time position sensor and a distance measurement sensor may be attached to the drone 100. The drone 100 may generate boundary data on the perimeter and area of the factory by irradiating ultrasonic waves and lasers while flying over the inner wall of the factory.

각각의 드론(100)은 각각 생성한 바운더리 데이터를 제어부(200)로 전송할 수 있고, 제어부(200)는 드론(100)이 각각 생성한 바운더리 데이터를 전송받을 수 있다. Each of the drones 100 may transmit each generated boundary data to the control unit 200, and the control unit 200 may receive the respective boundary data generated by the drone 100.

2. 상기 제어부(200)가 상기 바운더리 데이터를 분석하여, 공장 공간을 분할하는 단계2. The step of dividing the factory space by analyzing the boundary data by the control unit 200

제어부(200)는 각각의 드론(100)으로부터 전송받은 각각의 바운더리 데이터를 종합하여 전체 공장의 면적 및 둘레를 판단할 수 있다.The controller 200 may determine the area and perimeter of the entire factory by synthesizing each boundary data transmitted from each of the drones 100.

제어부(200)는 바운더리 데이터를 분석하여, 공장 공간을 분할할 수 있다. 이때, 제어부(200)는 드론(100)의 개수에 따라, 공장 공간을 분할할 수 있다. 예를 들어, 제어부(200)는 드론(100)이 3개일 경우, 공장 공간을 3등분할 수 있다. 제어부(200)는 드론(100)의 개수에 따라, 각각 드론(100) 당 균등한 면적으로 공간을 분할할 수 있으나, 이에 제한되는 것은 아니다.The control unit 200 may divide the factory space by analyzing the boundary data. In this case, the control unit 200 may divide the factory space according to the number of drones 100. For example, when the number of drones 100 is three, the control unit 200 may divide the factory space into three. The control unit 200 may divide the space into an equal area per drone 100 according to the number of drones 100, but is not limited thereto.

예를 들어, 제어부(200)는 공장에 위치하는 객체의 배치에 따라, 공장 공간을 동일한 면적으로 배치하지 않을 수 있다. 하나의 객체가 서로 다른 공간으로 분리되어 각각의 드론(100)에 의해 탐색되면, 이후 각각 묘사되는 3D 모델을 합성하는 등 별도의 절차가 필요할 수 있다. 따라서, 이 경우, 하나의 객체가 분리되지 않도록 공간을 분할할 수 있다.For example, the control unit 200 may not arrange the factory space in the same area according to the arrangement of objects located in the factory. When one object is separated into different spaces and is searched by each drone 100, a separate procedure may be required, such as synthesizing each of the 3D models depicted thereafter. Thus, in this case, the space can be divided so that one object is not separated.

또한, 예를 들어, 해당 면적에 위치하는 객체의 개수 또는 객체가 다수의 부품으로 이루어진 경우, 공간마다 3D모델의 묘사속도가 증가할 수 있다. 이 경우에는 해당 공간을 비행하는 드론(100)에 할당하는 공간의 면적을 적게 분할할 수 있다.In addition, for example, when the number of objects located in a corresponding area or the object is made of a plurality of parts, the speed of describing the 3D model may increase for each space. In this case, the area of the space allocated to the drone 100 flying the space can be divided into a small amount.

3. 1개 이상의 드론(100)이 각각 분할된 공장 공간에 각각 배치되고 1차비행하여 탐색데이터를 수집하는 단계/ 제어부(200)가 탐색데이터를 분석하는 단계3. At least one drone 100 is disposed in each divided factory space, and the first flight is performed to collect search data / the control unit 200 analyzes the search data

드론(100)은 각각의 분할된 공간에 배치되어 1차비행을 한다. 드론(100)은 비행하며, 각각의 공간에 위치한 객체의 크기, 형상 및 위치에 대한 탐색데이터를 수집한다.The drone 100 is disposed in each divided space to make a primary flight. The drone 100 flies and collects search data on the size, shape, and location of objects located in each space.

이 때, 1차비행은 다수의 객체를 이동하면서 비행하는 것을 의미한다.At this time, the primary flight means flying while moving a number of objects.

탐색데이터는 이는 이후 정밀데이터와 함께 3D 모델을 생성하기 위한 데이터로, 이로 인해 3D 모델링할 객체의 대략적인 크기, 형상을 파악할 수 있다. The exploration data is data for generating a 3D model along with the precision data thereafter, so that the approximate size and shape of the object to be 3D modeled can be identified.

제어부(200)는 탐색데이터로 객체가 위치하는 곳을 파악하여, 후에 정밀한 촬영을 위해 이를 고려하여 드론(100)을 배치할 수 있다. 또한, 제어부(200)는 탐색데이터로 객체의 더미(dummy)를 생성하는 작업을 수행할 수 있으나, 이에 제한되는 것은 아니고, 제어부(200)는 후술하는 정밀데이터를 통해 객체의 더미를 생성할 수 있다.The controller 200 may determine where the object is located using the search data, and then place the drone 100 in consideration of this for precise photographing. In addition, the control unit 200 may perform a task of generating a dummy of objects using the search data, but is not limited thereto, and the control unit 200 may generate a dummy of objects through precision data to be described later. have.

도 3은 1개 이상의 드론(100)이 분할된 공간마다 배치되어 1차비행하는 것을 나타낸 도면이다. 도 3(a)에서는 2개의 드론(100)이 상하좌우를 움직이는 것을 도시하고, 도 3(b)는 3개의 드론(100)이 상하좌우를 움직이는 것을 도시한 도면이다.3 is a diagram showing that one or more drones 100 are arranged for each divided space to perform primary flight. In FIG. 3(a), two drones 100 move up and down, left and right, and FIG. 3(b) is a diagram showing three drones 100 move up and down, left and right.

도 4는 드론(100)이 움직이면서 각각의 객체를 탐색하는 것을 도시한 도면이다.4 is a diagram illustrating that the drone 100 searches for each object while moving.

드론(100)은 실시간 위치센서, 거리측정센서를 이용하여 객체의 위치를 탐색하고, 객체의 형상과 크기를 탐색하여, 탐색데이터를 생성할 수 있다. 초음파와 레이저를 조사하여, 빈 공간과 객체가 위치하는 공간을 구분할 수 있으며, 객체의 말단 꼭짓점들을 인식하여 객체의 형상과 크기를 탐색할 수 있으나, 이에 제한되는 것은 아니다.The drone 100 may search for a location of an object using a real-time position sensor and a distance measurement sensor, search for a shape and size of the object, and generate search data. By irradiating ultrasonic waves and lasers, an empty space and a space in which the object is located can be distinguished, and the shape and size of the object can be searched by recognizing the distal vertices of the object, but is not limited thereto.

이 때, 거리측정센서는 일반적으로 사용되는 초음파를 발생시키는 센서를 의미할 수 있으나, 이에 제한되는 것은 아니다. 드론(100)은 객체를 촬영하여 탐색데이터를 생성할 수 있다. In this case, the distance measuring sensor may mean a sensor that generates ultrasonic waves that are generally used, but is not limited thereto. The drone 100 may generate search data by photographing an object.

제어부(200)가 각각의 드론(100)이 생성한 제품이 처리되는 각각의 객체의 크기 및 형상에 대한 탐색데이터를 종합하여 수집할 수 있다.The controller 200 may aggregate and collect search data for the size and shape of each object to which the products generated by each drone 100 are processed.

도 5는 객체(301, 302, 303)의 연결방식을 설명하기 위한 도면으로, 도시된 객체의 배열 방식 및 객체의 종류에 제한되는 것은 아니다.5 is a diagram for explaining a connection method of objects 301, 302, and 303, and is not limited to the illustrated object arrangement method and object type.

이 때, 객체의 종류는 제품이 진입하여 조립되는 제1객체(301), 제품이 진입하여 분해되는 제2객체(302), 제품이 진입하여 가공되는 제3객체(303) 및, 객체 사이를 연결하는, 즉 컨베이어 벨트와 같은 역할을 하는 제4객체(304)를 포함하나, 이는 공정의 예시일 뿐이고, 공장 및 산업현장에서 이루어질 수 있는 공정이라면 상기 종류에 제한되는 것은 아니다. At this time, the type of object is the first object 301 that the product enters and is assembled, the second object 302 that the product enters and disassembles, the third object 303 that the product enters and processes, and between the objects. It includes a fourth object 304 that connects, that is, acts like a conveyor belt, but this is only an example of a process, and any process that can be performed in factories and industrial sites is not limited to the above type.

각각의 제1객체(301), 제2객체(302), 제3객체(303)는 모두 동일한 과정의 공정을 거치는 것을 의미하는 것은 아니고, 각각 조립, 분해, 가공의 공정에 포함될 수 있는 공정을 모두 포함할 수 있고, 각각 다른 대상의 제품이 진입할 수 있다. 즉, 동일한 제3객체(303A, 303B, 303C, 303B, 303C, 303F)라도, 조립되는 방식과 조립되는 대상이 다를 수 있다. 예를 들어, 제3객체(303A)는 가공의 공정 중 도색작업을 수행할 수 있고, 제3객체(303B)는 가공의 공정 중 가열작업을 수행할 수 있다.Each of the first object 301, the second object 302, and the third object 303 does not mean that they all go through the same process, but each process that can be included in the processes of assembling, disassembling and processing It can contain all, and products of different targets can enter. That is, even with the same third objects 303A, 303B, 303C, 303B, 303C, and 303F, the method of being assembled and the object being assembled may be different. For example, the third object 303A may perform a painting operation during the processing process, and the third object 303B may perform a heating operation during the processing process.

또한, 드론(100)은 객체 간의 연결방식을 더 탐색할 수 있다. 객체의 연결방식은 제4객체(304)의 전후로 객체의 개수가 변화하지 않고 순차적으로 연결되는 직렬방식과 제4객체(304)의 전후로 객체의 개수가 변화하여 연결되는 병렬방식을 포함할 수 있다.In addition, the drone 100 may further search for a connection method between objects. The connection method of the objects may include a serial method in which the number of objects does not change before and after the fourth object 304 is sequentially connected, and a parallel method in which the number of objects is changed before and after the fourth object 304 is connected. .

도 5(a)에서는, 2개의 제3객체(303A, 303B)가 제4객체(304B)에 의해 연결되고, 제3객체(303A)는 그 전에 제4객체(304A)에 연결되는 것을 도시한다. 제4객체(304B)의 전후로 객체가 모두 하나로 도시되는 바, 직렬방식(311)인 것을 도시한다.In Fig. 5(a), two third objects 303A and 303B are connected by the fourth object 304B, and the third object 303A is connected to the fourth object 304A before that. . All of the objects before and after the fourth object 304B are shown as one bar, which is a serial method 311.

이 때, 제3객체(303A, 303B)는 모두 가공공정을 의미하는 것으로 동일한 방식일 수 있으나, 이에 제한되는 것은 아니고 전술한 바와 같이 각기 다른 방식의 가공공정을 의미할 수 있다.In this case, the third objects 303A and 303B all refer to a processing process and may be in the same manner, but are not limited thereto, and may mean different processing processes as described above.

도 5(b)에서는, 제4객체(304D)의 전에는 제2객체(302), 후로는 제4객체(304E, 304F)로 연결되어, 병렬방식(312)인 것을 도시한다. In FIG. 5(b), the second object 302 before the fourth object 304D is connected to the fourth object 304E and 304F after the fourth object 304D, and the parallel method 312 is shown.

도 5(c)에서는, 제4객체(304K)의 전에는 제4객체(304I, 304J), 후로는 제1객체(301)로 연결되어 병렬방식(312)인 것을 도시한다. In FIG. 5C, the fourth object 304I and 304J before the fourth object 304K and the first object 301 after the fourth object 304K are connected to each other in a parallel manner 312.

4. 1개 이상의 드론(100)이 상기 분할된 공간마다 배치되어 2차비행하여, 하나의 객체마다 각각 촬영한 정밀데이터를 수집하는 단계/ 제어부(200)는 객체의 3D 모델을 각각 묘사하는 단계 4. At least one drone 100 is arranged for each of the divided spaces to make a secondary flight, and collects precise data captured for each object / the control unit 200 describes each 3D model of the object

제어부(200)가 탐색데이터를 수집하면, 드론(100)은 생성된 탐색데이터에 포함된 객체를 촬영한다.When the control unit 200 collects the search data, the drone 100 photographs an object included in the generated search data.

이 때, 각각의 드론(100)은 상기한 바와 같이, 제어부(200)는 드론(100)의 개수에 따라, 각각 드론(100) 당 균등한 면적으로 공간을 분할할 수 있으나, 이에 제한되는 것은 아니다.At this time, as described above, each of the drones 100 may divide the space into an equal area per drone 100 according to the number of drones 100, but the limitation is no.

예를 들어, 해당 면적에 위치하는 객체의 개수 또는 객체가 다수의 부품으로 이루어진 경우, 공간마다 3D모델의 묘사속도가 증가할 수 있다. 이 경우에는 해당 공간을 비행하는 드론(100)에 할당하는 공간의 면적을 적게 분할할 수 있다.For example, when the number of objects located in a corresponding area or an object is made of a large number of parts, the speed of describing the 3D model may increase for each space. In this case, the area of the space allocated to the drone 100 flying the space can be divided into a small amount.

드론(100)은 객체를 정밀 촬영하여 정밀데이터를 생성한다. The drone 100 precisely photographs an object and generates precise data.

2차비행은, 드론(100)이 객체를 비행할 때, 하나의 객체를 360도 회전하며 비행한 후 다른 객체로 이동하여 360도 회전하며 비행하는 방식을 의미한다. 드론(100)은 하나의 객체를 360도 회전하면서 객체에 대한 무수히 많은 이미지를 촬영한, 각 객체에 대한 정밀데이터를 수집할 수 있다.Secondary flight refers to a method in which the drone 100 rotates one object 360 degrees and flies, then moves to another object and rotates 360 degrees when the drone 100 flies an object. The drone 100 may collect precision data for each object by rotating one object by 360 degrees and taking countless images of the object.

도 6(a)은 촬영된 이미지로부터 3D모델을 묘사하는 것을 도시한다.Fig. 6(a) shows depicting a 3D model from a captured image.

제어부(200)는 드론(100)이 촬영하여 묘사한 정밀데이터를 이용하여, 각각의 정밀데이터에 3D프레임을 덧씌우는 방식으로 3D모델을 제작할 수 있다.The control unit 200 may create a 3D model by using the precision data photographed and described by the drone 100 to overlay a 3D frame on each of the precision data.

이 때, 이미지를 통해 3D 모델링을 하는 과정은, 잘 알려진 기술인 바, 그 외의 구체적 설명은 생략하기로 한다. In this case, the process of performing 3D modeling through an image is a well-known technique, and other detailed descriptions will be omitted.

5. 제어부(200)가 각각 묘사된 상기 객체의 3D모델을 미리 결정된 방식으로 연결하여 공장 3D 모델을 묘사하는 단계 5. The step of describing the factory 3D model by connecting the 3D model of the object depicted by the control unit 200 in a predetermined manner

제어부(200)는 객체마다 상기 각각 묘사된 3D모델이 서로 연결되도록 배열할 수 있다.The control unit 200 may arrange each object so that the depicted 3D models are connected to each other.

제어부(200)는 객체의 크기, 형상 및 위치와 객체의 연결방식에 대한 탐색데이터 및 정밀데이터를 이용하여 모든 객체들이 서로 연결되도록 각각 묘사된 3D모델을 배열할 수 있다.The control unit 200 may arrange 3D models each depicted so that all objects are connected to each other by using search data and precision data on the size, shape and position of the object and the connection method of the objects.

이 때, 제어부(200)는 실제 공장 모델과 묘사된 공장 3D모델과 차이가 있는 객체의 종류, 객체의 연결방식을 판단할 수 있다.In this case, the control unit 200 may determine the type of object that is different from the actual factory model and the depicted factory 3D model, and a connection method of the objects.

제어부(200)가 묘사된 3D모델과 상기 차이가 있는 객체의 종류, 객체의 연결방식 중 어느 하나 이상의 정밀데이터를 재수집하여 수정된 3D모델을 묘사하는 단계를 더 포함하여, 실제 공장 모델과 비교할 수 있다. 제어부(200)가 수정된 3D모델을 묘사된 공장 3D모델과 연결되도록 배열하는 단계를 더 포함하여, 실제 공장 모델과 부합하는 3D모델을 묘사할 수 있다.The control unit 200 further comprises the step of re-collecting at least one of the described 3D model and the type of object that has the difference, and any one or more of the object connection method to describe the corrected 3D model, and comparing it with the actual factory model. I can. The control unit 200 may further include arranging the modified 3D model to be connected to the depicted factory 3D model, thereby describing a 3D model that matches the actual factory model.

도 6(b)는 각각 묘사한 3D모델을 배치하여 공장의 3D모델을 묘사한 것을 도시하는 도면이다.Fig. 6(b) is a diagram showing a 3D model of a factory by arranging each depicted 3D model.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but this is only exemplary, and those skilled in the art can use various modifications and equivalents from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the scope of protection of the present invention should be determined by the claims.

100: 드론
200: 제어부
301: 제1객체
302: 제2객체
303, 303A, 303B, 303C, 303D, 303E, 303F: 제3객체
304, 304A, 304B, 304C, 304D, 304E, 304F, 303G, 303H, 303I, 303J, 303K: 제4객체
311: 직렬방식
312: 병렬방식
100: drone
200: control unit
301: first object
302: second object
303, 303A, 303B, 303C, 303D, 303E, 303F: third object
304, 304A, 304B, 304C, 304D, 304E, 304F, 303G, 303H, 303I, 303J, 303K: fourth object
311: serial method
312: parallel method

Claims (7)

촬영장치와 센서가 포함되어 바운더리 데이터, 탐색데이터 및 정밀데이터를 수집할 수 있는 드론을 이용하여, 공장의 3D 모델을 묘사(simulate)하는 방법으로서,
(a)1개 이상의 드론(100)이 초기비행하여 공장의 바운더리 데이터를 수집하는 단계;
(b)제어부(200)가 상기 바운더리 데이터를 분석하여 공장의 바운더리를 결정하므로써 공장 공간을 판단하고, 미리 결정된 방법에 따라 상기 판단된 공장 공간을 분할하는 단계;
(c)상기 1개 이상의 드론(100)이 각각 상기 분할된 공장 공간에 각각 배치되고 1차비행하여 객체의 크기, 형상 및 위치를 포함하는 탐색데이터를 수집하는 단계;
(d)상기 제어부(200)가 상기 탐색데이터를 분석하여, 객체의 크기, 형상 및 위치를 판단하는 단계;
(e) 상기 1개 이상의 드론(100)이 상기 분할된 공장 공간에 각각에 배치되어, 각각의 객체를 하나씩 비행하는 2차비행하여 각각의 객체의 이미지를 포함한 정밀데이터를 수집하는 단계;
(f)상기 제어부(200)가 상기 탐색데이터와 상기 정밀데이터를 이용하여, 각각의 객체의 3D 모델을 각각 묘사하는 단계; 및
(g)상기 제어부(200)가 각각 묘사된 상기 객체의 3D모델을 미리 결정된 방식으로 연결하여 공장 3D 모델을 묘사하는 단계;를 포함하며,
상기 (g)단계에서,
(g1)상기 제어부(200)는 상기 (f)단계에서 묘사된 각각의 3D모델이 서로 연결되도록 배열하는 단계; 및
(g2)상기 제어부(200)가 상기 (g1)단계의 결과를 이용하여 상기 공장 3D 모델을 묘사하는 단계; 를 포함하고,
상기 (c)단계에서,
상기 탐색데이터는 객체가 서로 직렬방식(311) 또는 병렬방식(312)으로 연결되는 방식인 객체의 연결방식을 더 포함하고,
상기 (d)단계는,
상기 제어부(200)가 상기 탐색데이터를 이용하여, 객체의 크기, 형상 및 위치, 객체의 연결방식을 판단하는 단계;를 더 포함하고,
상기 (f)단계 이후 상기 (g1)단계 이전에,
상기 제어부(200)가 상기 정밀데이터를 이용하여, 상기 객체의 종류를 제품이 진입하여 조립되는 제1객체(301), 제품이 진입하여 분해되는 제2객체(302) 및 제품이 진입하여 가공되는 제3객체(303) 중 어느 하나로 판단하는 단계;를 더 포함하고,
상기 (g1)단계는,
상기 제어부(200)가 상기 판단된 객체의 종류 및 상기 판단된 객체의 연결방식으로, 상기 (f)단계에서 묘사된 각각의 3D 모델이 서로 연결되도록 배열하는 단계;를 포함하는,
드론을 이용한 공장 3D 모델 묘사방법.
As a method of simulating a 3D model of a factory using a drone that includes an imaging device and a sensor and can collect boundary data, exploration data, and precision data,
(a) at least one drone 100 is initially flying to collect boundary data of the factory;
(b) determining the factory space by analyzing the boundary data and determining the boundary of the factory by the control unit 200, and dividing the determined factory space according to a predetermined method;
(c) collecting search data including the size, shape, and location of the object by first flying the one or more drones 100 respectively disposed in the divided factory spaces;
(d) determining, by the controller 200, the size, shape, and position of the object by analyzing the search data;
(e) the one or more drones 100 are disposed in each of the divided factory spaces to perform a secondary flight of flying each object one by one to collect precise data including images of each object;
(f) describing, by the control unit 200, a 3D model of each object using the search data and the precision data, respectively; And
(g) the control unit 200 connecting the 3D models of the objects each depicted in a predetermined manner to describe the factory 3D model; includes,
In step (g),
(g1) arranging the control unit 200 to connect each of the 3D models described in step (f) to each other; And
(g2) the control unit 200 depicting the factory 3D model using the result of the (g1) step; Including,
In step (c),
The search data further includes a connection method of objects, which is a method in which objects are connected to each other in a serial method 311 or a parallel method 312,
The step (d),
Determining, by the control unit 200, the size, shape and position of the object, and a connection method of the object, using the search data,
After the step (f) and before the step (g1),
The control unit 200 uses the precision data to determine the type of the object as a first object 301 that is assembled by entering the product, a second object 302 that is disassembled by entering the product, and The step of determining any one of the third objects 303; further includes,
The (g1) step,
Arranging, by the control unit 200, a type of the determined object and a connection method of the determined object, so that each of the 3D models described in step (f) are connected to each other; including,
A method of describing a 3D model of a factory using a drone.
삭제delete 삭제delete 제1항에 있어서,
상기(g)단계에서,
(g3)상기 제어부(200)가 상기 정밀데이터를 이용하여, 상기 판단된 객체의 종류, 객체의 연결방식을 분석하여 실제 공장 모델과 묘사된 공장 3D모델과 비교하는 단계;
(g4)상기 제어부(200)가 상기 (g3)단계에서 실제 공장 모델과 차이가 있는 상기 묘사된 공장 3D모델의 객체의 종류, 객체의 연결방식을 판단하는 단계;
(g5)상기 제어부(200)가 실제 공장 모델과 상기 차이가 있는 객체의 종류, 객체의 연결방식 중 어느 하나 이상의 정밀데이터를 재수집하여 수정된 3D모델을 묘사하는 단계; 및
(g6)상기 제어부(200)가 상기 수정된 3D 모델을 상기 묘사된 공장 3D모델과 연결되도록 배열하는 단계;를 포함하는,
드론을 이용한 공장 3D 모델 묘사방법.
The method of claim 1,
In step (g),
(g3) analyzing, by the control unit 200, the type of the determined object and the connection method of the object using the precision data, and comparing the actual factory model with the depicted factory 3D model;
(g4) determining, by the control unit 200, a type of an object of the depicted factory 3D model and a connection method of the objects that are different from the actual factory model in step (g3);
(g5) the control unit 200 re-collects one or more of the types of objects that have the difference from the actual factory model and the object connection method to describe the corrected 3D model; And
(g6) arranging, by the control unit 200, the modified 3D model to be connected to the depicted factory 3D model; including,
A method of describing a 3D model of a factory using a drone.
제4항에 있어서,
상기 (g)단계에서,
(g7)상기 제어부(200)가 실제 공장 모델과 상기 차이가 있는 객체의 종류, 객체의 연결방식을 상기 묘사된 공장 3D모델에서 제거하는 단계를 더 포함하는,
드론을 이용한 공장 3D 모델 묘사방법.
The method of claim 4,
In step (g),
(g7) further comprising the step of removing, by the control unit 200, the type of the object having the difference from the actual factory model and the connection method of the object from the depicted factory 3D model,
How to describe a 3D model of a factory using a drone.
제1항에 있어서,
상기 (b)단계는,
상기 제어부(200)가 상기 드론(100)의 개수만큼 각각 동일면적으로 공장 공간을 분할하는 단계인,
드론을 이용한 공장 3D 모델 묘사방법.
The method of claim 1,
The step (b),
The control unit 200 is a step of dividing the factory space into the same area by the number of the drones 100,
How to describe a 3D model of a factory using a drone.
제1항에 있어서,
상기 (e)단계에서,
상기 2차비행은 객체 하나를 360도 회전한 후, 다른 객체로 이동하여 상기 다른 객체를 360도 회전하는 방식으로 비행하는 것인,
드론을 이용한 공장 3D 모델 묘사방법.
The method of claim 1,
In step (e),
The secondary flight is to fly in a manner of rotating one object 360 degrees and then moving to another object and rotating the other object 360 degrees,
How to describe a 3D model of a factory using a drone.
KR1020190112083A 2019-09-10 2019-09-10 Simulating method of 3D moedels in factory using drones KR102177289B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190112083A KR102177289B1 (en) 2019-09-10 2019-09-10 Simulating method of 3D moedels in factory using drones

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190112083A KR102177289B1 (en) 2019-09-10 2019-09-10 Simulating method of 3D moedels in factory using drones

Publications (1)

Publication Number Publication Date
KR102177289B1 true KR102177289B1 (en) 2020-11-12

Family

ID=73398692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190112083A KR102177289B1 (en) 2019-09-10 2019-09-10 Simulating method of 3D moedels in factory using drones

Country Status (1)

Country Link
KR (1) KR102177289B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101783585B1 (en) * 2017-06-02 2017-10-10 김창수 Method for managing plant facilities
KR101993755B1 (en) * 2018-10-23 2019-07-01 주식회사 씨엠월드 Method and apparatus for managing spatial information using 3D cube

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101783585B1 (en) * 2017-06-02 2017-10-10 김창수 Method for managing plant facilities
KR101993755B1 (en) * 2018-10-23 2019-07-01 주식회사 씨엠월드 Method and apparatus for managing spatial information using 3D cube

Similar Documents

Publication Publication Date Title
US11504853B2 (en) Robotic system architecture and control processes
JP6797556B2 (en) Management device, management method and management program
EP3270247B1 (en) System and method for generating enhanced stereographic videos of aircraft build processes
US20160195390A1 (en) Inspecting components using mobile robotic inspection systems
US20130015596A1 (en) Robotic fabricator
CN107206594A (en) Instruct equipment, method taught and robot system
CN106170676B (en) Method, equipment and the system of movement for determining mobile platform
CN104908038A (en) Robot simulation system which simulates takeout process of workpieces
CN108627515B (en) Device and method for calculating image area outside inspection object of inspection system
JP2023548983A (en) Method and system for improved automatic calibration of robotic cells
US11360456B2 (en) Apparatus and method for identifying differences between a real installation and a digital twin of the installation
WO2019171824A1 (en) Photographing device, photographing method, photographing program, and photographing system
CN116972855B (en) BIM-based coal preparation plant equipment three-dimensional roaming inspection method and system
JP7330970B2 (en) Machine vision system with computer-generated reference object
JP2009503711A (en) Method and system for determining the relative position of a first object with respect to a second object, a corresponding computer program and a corresponding computer-readable recording medium
Noichl et al. " BIM-to-Scan" for Scan-to-BIM: Generating Realistic Synthetic Ground Truth Point Clouds based on Industrial 3D Models
KR102177289B1 (en) Simulating method of 3D moedels in factory using drones
TW202014278A (en) Data generating device, data generating method, data generating program, and remote operation system
Góbin et al. HAL robotics framework
WO2019171823A1 (en) Photographing evaluation map, photographing evaluation map generation device, photographing evaluation map generation method, and photographing evaluation map generation program
Cooper et al. Development of a fast inspection system for aerospace composite materials-the IntACom project
US20200201268A1 (en) System and method for guiding a sensor around an unknown scene
Lupi et al. A framework for flexible and reconfigurable vision inspection systems
Au et al. Integration of stereo vision system calibration and kinematic calibration for an autonomous kiwifruit harvesting system
EP4019894B1 (en) Method of measuring a workpiece by using a coordinate measuring machine, and arrangement comprising a coordinate measuring machine

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant