KR102001143B1 - Apparatus for 3d printer on drone and method for controlling there of - Google Patents

Apparatus for 3d printer on drone and method for controlling there of Download PDF

Info

Publication number
KR102001143B1
KR102001143B1 KR1020170146529A KR20170146529A KR102001143B1 KR 102001143 B1 KR102001143 B1 KR 102001143B1 KR 1020170146529 A KR1020170146529 A KR 1020170146529A KR 20170146529 A KR20170146529 A KR 20170146529A KR 102001143 B1 KR102001143 B1 KR 102001143B1
Authority
KR
South Korea
Prior art keywords
unit
injection
target point
drone
drones
Prior art date
Application number
KR1020170146529A
Other languages
Korean (ko)
Other versions
KR20190051172A (en
Inventor
김남훈
임가을
김해량
강동훈
김지민
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020170146529A priority Critical patent/KR102001143B1/en
Publication of KR20190051172A publication Critical patent/KR20190051172A/en
Application granted granted Critical
Publication of KR102001143B1 publication Critical patent/KR102001143B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • B29C64/393Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/20Apparatus for additive manufacturing; Details thereof or accessories therefor
    • B29C64/205Means for applying layers
    • B29C64/209Heads; Nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/20Apparatus for additive manufacturing; Details thereof or accessories therefor
    • B29C64/227Driving means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/20Apparatus for additive manufacturing; Details thereof or accessories therefor
    • B29C64/227Driving means
    • B29C64/232Driving means for motion along the axis orthogonal to the plane of a layer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y40/00Auxiliary operations or equipment, e.g. for material handling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • B33Y50/02Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/16Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
    • B64D1/18Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting by spraying, e.g. insecticides
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • B64C2201/12

Abstract

본 발명의 일 실시예에 따른 드론형 3D 프린터는 드론유닛 및 사출유닛을 포함하는 드론형 3D 프린터에 있어서, 외부로부터 위치 정보 신호들을 수신하는 수신부; 영상을 촬영하는 촬영부; 및 상기 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛의 이동, 상기 사출유닛의 분사 방향 및 분사 위치를 제어하는 제어부를 포함하는 드론유닛; 및 상기 드론유닛에 결합되어, 목표 지점에 저장된 원료를 분사하는 사출유닛을 포함한다.According to an aspect of the present invention, there is provided a drone type 3D printer including a drone unit and an injection unit, the drone type 3D printer comprising: a receiver for receiving position information signals from outside; A photographing unit for photographing an image; And a control unit for controlling the movement of the drone unit, the injection direction of the injection unit, and the injection position based on the position information signals and the photographed image. And an injection unit coupled to the dron unit for injecting a raw material stored at a target point.

Description

드론형 3D 프린터 및 이의 제어 방법 {APPARATUS FOR 3D PRINTER ON DRONE AND METHOD FOR CONTROLLING THERE OF}TECHNICAL FIELD [0001] The present invention relates to a 3D printer and a control method thereof,

본 발명은 드론형 3D 프린터 및 이의 제어 방법에 관한 것으로, 상세하게는 드론유닛에 3D 프린팅이 가능한 사출유닛이 결합된 드론형 3D 프린터 및 이의 제어 방법에 관한 것이다.The present invention relates to a drone type 3D printer and a control method thereof, and more particularly to a drone type 3D printer having an injection unit capable of 3D printing on a drone unit and a control method thereof.

3D 프린터는 3차원으로 디자인된 디지털 도면 정보를 3D 프린터에 입력하여 입체적인 형태로 출력하는 기술이며, 기존 산업의 패러다임을 변화시켜 제조업 혁신 및 창조경제 신시장을 창출할 핵심기술로 평가되고 있다.The 3D printer is a technology that inputs 3D digital design information into a 3D printer and outputs it in a stereoscopic form. It is evaluated as a key technology for creating a new market for manufacturing innovation and creative economy by changing the paradigm of existing industry.

3D 프린팅은 소재형태(액체, 필라멘트, 분말, 시트 등)와 출력방식(압출, 소결, 경화, 분사 등)에 따라 크게 7가지 기술방식이 존재한다.There are seven major technologies for 3D printing, depending on the material type (liquid, filament, powder, sheet, etc.) and the output method (extrusion, sintering, curing, spraying, etc.).

3D 프린터는 자동차, 의료, 항공우주, 산업장비, 건축, 소비자 가전 등 광범위한 분야에서 활용되고 있으며, 3D 프린터의 시장은 앞으로도 더 커질 것으로 예상되고 있다.3D printers are being used in a wide range of applications including automotive, medical, aerospace, industrial equipment, construction, and consumer electronics, and the market for 3D printers is expected to grow in the future.

하지만, 종래의 3D 프린터는 프레임 내에 설치된 압축기가 제한된 작업 공간 내에서 이동하면서 용융된 필라멘트를 압출하여 제품을 성형해야 하는 구조이다.However, the conventional 3D printer is a structure in which a compressor installed in a frame is required to extrude melted filaments and mold a product while moving within a limited working space.

따라서, 작업공간의 크기에 따라 성형가능한 제품의 크기가 제한되고, 작업자가 접근하기 어려운 높은 장소나 재난 지역과 같은 경우, 3D 프린터의 설치가 어려우므로 3D 프린터를 이용한 성형작업을 수행할 수 있는 장소도 제한적이라는 문제점이 있다.Therefore, since the size of the moldable product is limited according to the size of the work space and it is difficult to install the 3D printer in the case of a high place or a disaster area where the worker can not access, Is also limited.

KRKR 10201400592431020140059243 AA

본 발명은 드론유닛에 3D 프린팅이 가능한 사출유닛을 결합하여 공간의 제약을 받지 않고 3D 프린팅이 가능하며, 드론유닛의 위치 및 사출유닛의 분사방향 및 사출유닛의 분사 위치를 정밀하게 제어하여, 보다 정확한 3D 프린팅을 수행할 수 있는 드론형 3D 프린터 및 이의 제어 방법에 관한 것이다.The present invention relates to a 3D printing machine capable of 3D printing without space limitation by combining an injection unit capable of 3D printing with a drone unit and precisely controlling the position of the drone unit, the injection direction of the injection unit and the injection position of the injection unit, To a drone type 3D printer capable of performing accurate 3D printing and a control method thereof.

본 발명의 일 실시예에 따른 드론형 3D 프린터는, 외부로부터 위치 정보 신호들을 수신하는 수신부; 영상을 촬영하는 촬영부; 및 상기 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛의 이동, 상기 사출유닛의 분사 방향 및 상기 사출유닛의 분사 위치를 제어하는 제어부를 포함하는 드론유닛; 및 상기 드론유닛에 결합되어, 목표 지점에 저장된 원료를 분사하는 사출유닛을 포함할 수 있다.According to an embodiment of the present invention, there is provided a drone type 3D printer including: a receiver for receiving position information signals from outside; A photographing unit for photographing an image; And a control unit for controlling the movement of the drone unit, the injection direction of the injection unit, and the injection position of the injection unit based on the position information signals and the photographed image. And an injection unit coupled to the dron unit for injecting a raw material stored at a target point.

상기 제어부는, 상기 촬영된 영상에서 마커를 검출하고, 상기 마커와 상기 드론유닛 간 거리를 계산하여, 상기 마커의 위치로 상기 드론유닛을 이동시킬 수 있다. The control unit may detect the marker in the photographed image, calculate the distance between the marker and the dron unit, and move the dron unit to the position of the marker.

상기 마커는, 상기 목표 지점의 주위에 표시되어, 상기 촬영된 영상을 통해 상기 제어부가 인식 가능한 이미지일 수 있다.The marker may be displayed around the target point and may be an image recognizable by the control unit through the photographed image.

상기 수신부는, 상기 마커의 위치에서 상기 위치 정보 신호들 수신할 수 있다.The receiving unit may receive the position information signals at a position of the marker.

상기 위지 정보 신호들은,상기 목표 지점 주위에 기설치된 신호 송신기들로부터 수신한 위치 정보 신호들일 수 있다. The ward information signals may be position information signals received from signal transmitters installed around the target point.

상기 제어부는, 상기 수신한 위치 정보 신호들에 기반하여 상기 목표 지점과 상기 드론 유닛 간 거리를 계산하여, 상기 드론유닛을 상기 목표 지점으로 이동시킬 수 있다.The control unit may calculate the distance between the target point and the drone unit based on the received position information signals, and move the drone unit to the target point.

상기 촬영부는, 상기 사출유닛이 원료를 분사할 때, 상기 분사된 원료로 형성되는 출력물의 영상을 촬영할 수 있다.When the injection unit injects the raw material, the photographing unit can photograph an image of the output formed by the injected raw material.

상기 제어부는, 상기 촬영된 영상에서 상기 출력물을 식별하고, 상기 식별된 출력물을 기저장된 모델과 비교하여, 상기 출력물과 기저장된 모델 간 오차를 측정할 수 있다.The control unit may identify the output from the photographed image, compare the identified output with a pre-stored model, and measure an error between the output and the pre-stored model.

상기 제어부는, 상기 오차가 측정된 경우, 상기 기저장된 모델과 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 상기 사출유닛의 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정할 수 있다.The control unit may correct at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position of the injection unit so as to correspond to the pre-stored model, when the error is measured .

상기 제어부는, 상기 드론유닛이 상기 목표 지점으로 이동한 경우, 상기 촬영된 영상에서 상기 목표 지점을 식별하여, 상기 목표 지점의 지면의 경사를 측정할 수 있다.The control unit may identify the target point on the photographed image and measure the slope of the ground surface of the target point when the drone unit has moved to the target point.

상기 제어부는, 상기 측정된 경사에 기반하여, 상기 목표 지점에서 상기 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정할 수 있다.The control unit may adjust the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination.

상기 제어부는, 상기 조정된 분사 방향을 향해 상기 원료를 분사하도록 상기 사출유닛을 제어할 수 있다.The control unit may control the injection unit to inject the raw material toward the adjusted injection direction.

상기 드론형 3D 프린터는, 상기 드론유닛의 하단에 구비되어, 상기 사출유닛이 결합되는 결합부를 더 포함할 수 있다.The drone type 3D printer may further include a coupling unit provided at a lower end of the drone unit and coupled to the injection unit.

상기 제어부는, 상기 결합부를 회전시킴으로써, 상기 사출유닛의 분사 방향을 조정할 수 있다.The control unit may adjust the injection direction of the injection unit by rotating the engagement unit.

상기 제어부는, 상기 결합부를 회전시킬 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 상기 결합부의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정할 수 있다.Wherein the controller moves the position of the engaging portion in a direction perpendicular to the paper surface of the target point when the rotation axis of the engaging portion is parallel to the paper surface of the target point or forms an acute angle, Can be adjusted.

본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법은, 수신한 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛을 목표 지점으로 이동시키는 단계; 상기 드론유닛이 상기 목표 지점으로 이동한 후, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 저장된 원료를 분사하는 단계; 및 상기 원료가 분사될 때, 상기 분사된 원료에 의해 형성되는 출력물과 기저장된 모델을 비교하여, 오차를 보정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a drone type 3D printer, the method comprising: moving the drones unit to a target point based on received position information signals and a photographed image; Adjusting at least one of an injection direction or an injection position of the injection unit to inject the stored raw material after the drone unit moves to the target point; And comparing the output formed by the injected raw material with the pre-stored model when the raw material is injected, thereby correcting the error.

상기 목표 지점으로 이동시키는 단계는, 상기 촬영된 영상에서 마커를 추출하는 단계; 및 상기 드론유닛을 상기 추출된 마커의 위치인 제1 위치로 이동시키는 단계를 포함할 수 있다.The step of moving to the target point may include: extracting a marker from the photographed image; And moving the drone unit to a first position, which is the position of the extracted marker.

상기 제1 위치로 이동시키는 단계는, 상기 추출된 마커와 상기 드론유닛 간 제1 거리를 계산하는 단계; 및 상기 제1 거리에 기반하여, 상기 드론유닛을 상기 마커의 위치인 제1 위치로 이동시키는 단계를 포함할 수 있다.Wherein the moving to the first position comprises: calculating a first distance between the extracted marker and the dron unit; And moving the drones unit to a first position, which is the position of the marker, based on the first distance.

상기 목표 지점으로 이동시키는 단계는, 상기 제1 위치에서 상기 위치 정보 신호들을 수신하는 단계; 및 상기 수신한 위치 정보 신호들에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 더 포함할 수 있다.Wherein the step of moving to the target point comprises: receiving the position information signals at the first position; And moving the drone unit to a second position that is the target point, based on the received position information signals.

상기 제2 위치로 이동시키는 단계는, 상기 수신한 위치 정보 신호들에 기반하여, 상기 목표 지점과 상기 드론 유닛 간 제2 거리를 계산하는 단계; 및 상기 제2 거리에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 포함할 수 있다.The step of moving to the second position may include calculating a second distance between the target point and the dron unit based on the received position information signals. And moving the drone unit to a second position, the target point, based on the second distance.

상기 분사하는 단계는, 상기 촬영된 영상에서 상기 목표 지점을 추출하여, 상기 목표 지점의 지면의 경사를 측정하는 단계; 상기 측정된 경사에 기반하여, 상기 목표 지점에서 상기 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정하는 단계; 및 상기 조정된 사출유닛의 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함할 수 있다.The step of injecting may include extracting the target point from the photographed image and measuring a slope of the ground of the target point; Adjusting the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination; And injecting the stored raw material toward the injection direction of the adjusted injection unit.

상기 분사하는 단계는, 상기 저장된 원료를 분사하는 과정에서 상기 사출유닛의 분사 방향이 변경된 경우, 상기 변경된 분사 방향에 기반하여 상기 사출유닛의 분사 위치를 조정하는 단계; 및 상기 조정된 사출유닛의 분사 위치에서, 상기 변경된 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함할 수 있다.Wherein the injecting step comprises the steps of: adjusting the injection position of the injection unit based on the changed injection direction when the injection direction of the injection unit is changed in the process of injecting the stored raw material; And injecting the stored raw material toward the modified injection direction at an injection position of the adjusted injection unit.

상기 분사 위치를 조정하는 단계는, 상기 사출유닛의 분사 방향이 변경될 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 상기 사출유닛의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정하는 단계를 포함할 수 있다.Wherein the step of adjusting the injection position includes a step of adjusting the position of the injection unit in a direction perpendicular to the paper surface of the target point when the rotation axis when the injection direction of the injection unit is changed is parallel or acute to the paper surface of the target point And adjusting the injection position of the injection unit by moving the injection unit.

상기 오차를 보정하는 단계는, 상기 원료가 분사될 때, 상기 출력물의 영상을 촬영하는 단계; 상기 영상에서 출력물을 식별하여, 식별된 출력물과 상기 기저장된 모델을 비교하는 단계; 및 상기 비교의 결과로 오차가 측정된 경우, 상기 기저장된 모델에 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정하는 단계를 포함할 수 있다.The step of correcting the error may include: photographing the output image when the raw material is injected; Identifying an output from the image and comparing the identified output with the pre-stored model; And correcting the error by adjusting at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position so as to correspond to the pre-stored model when the error is measured as a result of the comparison have.

본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 따르면, 공간적 제약을 받지 않고 3D 프린팅을 수행할 수 있는 효과가 있다.According to the drone type 3D printer and the control method thereof according to an embodiment of the present invention, 3D printing can be performed without being limited by the space.

또한, 위치 정보 신호들 및 촬영된 영상에 기반하여, 드론유닛의 위치 및 사출유닛의 위치와 분사 방향을 정밀하게 제어하여, 보다 정확한 3D 프린팅을 할 수 있는 효과가 있다.Further, based on the position information signals and the photographed image, the position of the drone unit, the position of the injection unit, and the injection direction are precisely controlled, thereby achieving more accurate 3D printing.

또한, 프린팅 과정에서 출력물의 영상을 촬영하고, 기저장된 모델과 비교함으로써 오차를 보정하여, 프린팅 과정에서 발생하는 오차를 최소화할 수 있는 효과가 있다.Also, there is an effect that an error occurring in the printing process can be minimized by correcting an error by taking an image of an output during a printing process and comparing it with a pre-stored model.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 블록도를 간략히 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 모식도를 간략히 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법의 순서도를 간략히 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사방향이 목표 지점을 향하도록 조정하는 예시를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 3D 프린팅 과정에서 출력물과 기저장된 모델을 비교하여 오차를 보정하는 예시를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사 위치를 조정하는 예시를 도시한 도면이다.
The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the technical features of the invention.
1 is a block diagram of a drone type 3D printer according to an embodiment of the present invention.
FIG. 2 is a schematic diagram illustrating a drone type 3D printer according to an embodiment of the present invention. Referring to FIG.
3 is a flowchart briefly showing a method of controlling a drone type 3D printer according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of adjusting the injection direction of the injection unit so as to face the target point in the drone type 3D printer and the control method thereof according to the embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of correcting an error by comparing an output and a pre-stored model in a 3D printing process in a drone type 3D printer and a control method thereof according to an embodiment of the present invention.
6 is a diagram illustrating an example of adjusting the injection position of the injection unit in the drone type 3D printer and the control method thereof according to an embodiment of the present invention.

본 명세서에서 제1 및/또는 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 즉, 구성요소들을 상기 용어들에 의해 한정하고자 함이 아니다.The terms first and / or second in this specification are used only for the purpose of distinguishing one element from another. That is, the components are not intended to be limited by the terms.

본 명세서에서 '포함하다' 라는 표현으로 언급되는 구성요소, 특징, 및 단계는 해당 구성요소, 특징 및 단계가 존재함을 의미하며, 하나 이상의 다른 구성요소, 특징, 단계 및 이와 동등한 것을 배제하고자 함이 아니다.The components, features, and steps referred to in the specification as " comprising " in this specification are intended to mean that there are corresponding components, features, and steps, and do not preclude the presence of one or more other components, features, steps, and the like Is not.

본 명세서에서 단수형으로 특정되어 언급되지 아니하는 한, 복수의 형태를 포함한다. 즉, 본 명세서에서 언급된 구성요소 등은 하나 이상의 다른 구성요소 등의 존재나 추가를 의미할 수 있다.Includes plural forms as long as it is not specified and specified in the singular form herein. That is, the components and the like referred to in this specification may mean the presence or addition of one or more other components or the like.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함하여, 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(통상의 기술자)에 의하여 일반적으로 이해되는 것과 동일한 의미이다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs to be.

즉, 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.That is, terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the related art, and unless otherwise expressly defined herein, interpreted in an ideal or overly formal sense It does not.

이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 대해 상세하게 설명한다.Hereinafter, a drone type 3D printer according to an embodiment of the present invention and a control method thereof will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 블록도를 간략히 도시한 도면이다.1 is a block diagram of a drone type 3D printer according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 모식도를 간략히 도시한 도면이다.FIG. 2 is a schematic diagram illustrating a drone type 3D printer according to an embodiment of the present invention. Referring to FIG.

구체적으로, 도 2a는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 정면도이고, 도 2b는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 측면도를 도시한 도면이다.2A is a front view of a drone type 3D printer according to an embodiment of the present invention, and FIG. 2B is a side view of a drone type 3D printer according to an embodiment of the present invention.

도 1 및 2를 참조하면, 본 발명의 일 실시예에 따른 드론형 3D 프린터는 드론유닛(100) 및 사출유닛(110)을 포함할 수 있다.Referring to FIGS. 1 and 2, a drone type 3D printer according to an embodiment of the present invention may include a dron unit 100 and an injection unit 110.

드론유닛(100)은 드론형 3D 프린터의 기체 부분에 해당하며, 촬영부(101), 수신부(103), 결합부(105), 제어부(107) 및 추진부(109)를 포함할 수 있다.The drone unit 100 corresponds to a base portion of a drone type 3D printer and may include a photographing unit 101, a receiving unit 103, a coupling unit 105, a control unit 107, and a propulsion unit 109.

촬영부(101)는 드론유닛(100)에 결합되어, 목표 지점, 마커 및 출력물의 영상을 촬영할 수 있다.The photographing unit 101 is coupled to the drone unit 100, and can photograph an image of a target point, a marker, and an output object.

촬영부(101)는 사출유닛(110)보다 아래쪽에 위치하여, 촬영되는 영상에서 사출유닛(110)이 노출되지 않을 수 있다.The photographing unit 101 is positioned below the injection unit 110, and the injection unit 110 may not be exposed in the photographed image.

또한, 촬영부(101)는 드론유닛(100)의 이동 및 사출유닛(110)의 분사 방향 또는 분사 위치 조정에 영향을 받지 않기 위하여, 예컨대, 짐벌(Gimbal)과 같은 수평을 유지할 수 있고, 회전이 가능한 결합장치에 결합될 수 있다.The photographing unit 101 can maintain the horizontal position such as a gimbal in order to avoid the influence of the movement of the dron unit 100 and the injection direction or the injection position of the injection unit 110, Can be coupled to a possible coupling device.

촬영부(101)는 결합부(105)의 회전 및 이동 범위 밖에 결합되어, 제어부(107)가 결합부(105)를 회전 또는 이동시켜 사출유닛(110)의 분사 방향 또는 분사 위치를 조정할 때 영향을 끼치지 않는다.When the control unit 107 rotates or moves the coupling unit 105 to adjust the injection direction or the injection position of the injection unit 110, .

또한, 제어부(107)는 결합부(105)를 회전 또는 이동시켜 사출유닛(110)의 분사 방향 또는 분사 위치를 조정할 때, 사출유닛(110)을 통해 출력되는 출력물의 영상을 촬영하기 위하여, 결합부(105)의 회전 또는 이동과 대응되도록 촬영부(101)를 회전 또는 이동시킬 수 있다.The control unit 107 controls the operation of the injection unit 110 in order to photograph an output image output through the injection unit 110 when the injection unit 110 or the injection unit 110 is rotated or moved by rotating the joint unit 105, The photographing unit 101 can be rotated or moved so as to correspond to the rotation or the movement of the unit 105. [

마커는 목표 지점의 주위에 표시된 것으로서, 예컨대 QR code, Flash code, Bar code일 수 있으며, 마커에는 마커의 좌표에 대한 위치 정보가 포함될 수 있다.The marker may be a QR code, a Flash code, or a Bar code, which is displayed around the target point, and the marker may include positional information on the coordinates of the marker.

촬영부(101)가 마커의 영상을 촬영하면, 제어부(107)는 촬영된 영상에서 마커를 검출할 수 있다.When the photographing section 101 photographs the image of the marker, the control section 107 can detect the marker in the photographed image.

제어부(107)는 검출된 마커를 통해 마커와 드론유닛(100) 간의 거리를 계산하여, 드론유닛(100)을 마커의 위치로 이동시킬 수 있다.The control unit 107 can calculate the distance between the marker and the drones unit 100 through the detected marker and move the drones unit 100 to the position of the marker.

예컨대, 촬영된 영상에서 드론유닛(100)으로부터 서쪽방향 10m 떨어진 거리에서 마커가 검출된 경우, 제어부(107)는 추진부(109)를 제어하여 드론유닛(100)을 서쪽방향으로 10m 이동시켜, 마커의 위치인 제1 지점으로 이동시킬 수 있다.For example, when a marker is detected at a distance of 10 m in the west direction from the dron unit 100 in the photographed image, the control unit 107 controls the propulsion unit 109 to move the dron unit 100 in the west direction by 10 m, It is possible to move to the first point, which is the position of the marker.

촬영부(101)는 드론유닛(100)이 목표 지점인 제2 지점에 위치했을 때, 목표 지점의 영상을 촬영할 수 있다. The photographing unit 101 can photograph an image of the target point when the dron unit 100 is located at the second point, which is the target point.

목표 지점은 사출유닛(110)이 저장된 원료를 분사하는 프린팅 과정을 통해 결과물을 생성하기 위해 설정된 공정 지점이다. The target point is a processing point set for generating an output through a printing process in which the injection unit 110 injects the stored raw material.

제어부(107)는 촬영부(101)가 목표 지점을 촬영한 영상에서 목표 지점의 지면의 경사를 측정하여, 사출유닛(110)의 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.The control unit 107 measures the inclination of the ground surface of the target point in the image taken by the photographing unit 101 of the target point and rotates the engaging unit 105 so that the injection direction of the injection unit 110 is directed to the target point .

여기서, 목표 지점의 지면의 경사는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 간의 각도와 동일하므로, 제어부(107)는 목표 지점의 지면의 경사를 측정함으로써, 사출유닛(110)의 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.Here, the inclination of the ground surface of the target point is equal to the angle between the vertical axis of the dron unit 100 and the vertical axis of the ground surface of the target point, so that the control unit 107 measures the inclination of the ground surface of the target point, The engaging portion 105 can be rotated such that the ejecting direction is directed to the target point.

또한, 촬영부(101)는 프린팅 과정을 실시간으로 촬영할 수 있다.In addition, the photographing unit 101 can photograph the printing process in real time.

제어부(107)는 촬영된 영상에서 출력물을 식별하고, 식별된 출력물을 기저장된 모델과 비교하여 오차가 측정된 경우, 기저장된 모델과 대응되도록 드론유닛(100)을 이동시키거나, 사출출유닛(110)의 분사 방향 또는 분사 위치를 조정함으로써, 출력물과 기저장된 모델 간의 오차를 보정할 수 있다.The control unit 107 identifies the output from the photographed image, and when the error is measured by comparing the identified output with the pre-stored model, the controller 107 moves the drone unit 100 to correspond to the pre-stored model, 110), it is possible to correct the error between the output product and the pre-stored model.

기저장된 모델은 캐드 도면 등 3D 프린팅을 수행하기 위한 도면에 포함된 결과물에 대한 모델일 수 있다.The pre-stored model may be a model for the result included in the drawing for performing 3D printing such as a CAD drawing.

예컨대, 제어부(107)는 프린팅 과정을 촬영한 영상에서 1초 마다 출력물을 식별하여, 기저장된 모델과 치수, 형태 등을 비교하여, 오차를 보정할 수 있다.For example, the control unit 107 can identify an output item every one second in the image of the printing process, compare the model with the previously stored model, and correct the error.

즉, 제어부(107)는 프린팅 과정을 촬영한 영상에서, 제어부(107)의 연산 속도 등을 고려하여 기설정된 주기마다 출력물을 식별하고, 기저장된 모델과 비교하여, 출력물과 기저장된 모델 간의 오차를 보정할 수 있다.That is, the control unit 107 identifies the printout at predetermined intervals in consideration of the operation speed of the control unit 107, etc. in the image photographed by the printing process, and compares the output with the pre-stored model, Can be corrected.

수신부(103)는 드론유닛(100)이 제1 위치에 있을 때, 유선 또는 무선 통신을 통해 목표 지점의 주위에 설치된 복수 개의 위치 정보 송신기들로부터 신호를 전송받을 수 있다.When the drones 100 are in the first position, the receiving unit 103 can receive a signal from a plurality of position information transmitters provided around the target point via wired or wireless communication.

수신부(103)에서 수신한 복수 개의 위치 정보 신호들에 기반하여, 제어부(107)는 위치 정보 송신기들과 드론유닛(100)의 상대적 거리를 계산함으로써, 드론유닛(100)의 위치를 측정하고, 목표 지점과 드론유닛(100) 간의 거리를 계산하여, 드론유닛(100)의 위치를 목표 지점인 제2 위치로 이동시키기 위하여 추진부(109)를 제어할 수 있다.The control unit 107 measures the position of the drones unit 100 by calculating the relative distance between the position information transmitters and the drones 100 based on the plurality of position information signals received by the receiving unit 103, The distance between the target point and the drone unit 100 may be calculated and the propulsion unit 109 may be controlled to move the position of the drone unit 100 to the target position.

예컨대, 복수 개의 비콘들이 목표 지점의 주위에 설치되어 비콘 신호들을 송신하면, 수신부(103)는 비콘 신호들을 수신하고, 제어부(107)는 수신한 비콘 신호들에 기반하여, 각 비콘과 드론유닛(100)의 상대적 거리를 계산함으로써, 드론유닛(100)의 현재 위치를 측정할 수 있다.For example, when a plurality of beacons are installed around the target point to transmit beacon signals, the receiving unit 103 receives the beacon signals, and the control unit 107 determines, based on the received beacon signals, 100, the current position of the drones unit 100 can be measured.

그 후, 제어부(107)는 목표 지점과 드론유닛(100) 간의 거리를 측정하여, 드론유닛(100)을 목표 지점인 제2 위치로 이동시키기 위해 추진부(109)를 제어할 수 있다.Thereafter, the control unit 107 may control the propelling unit 109 to measure the distance between the target point and the drones unit 100 and move the drones unit 100 to the target position, i.e., the second position.

결합부(105)는 드론유닛(100)의 하단부에 구비되어 드론유닛(100)과 사출유닛(200)이 결합되는 부분으로, 제어부(107)의 제어에 의하여 요(yaw), 롤(roll), 피치(pitch) 회전을 통해 사출 유닛을 x, y, z축으로의 이동시킬 수 있다.The coupling unit 105 is provided at the lower end of the dron unit 100 and is a part where the dron unit 100 and the injection unit 200 are coupled to each other. The control unit 107 controls the yaw, roll, , The pitch can be rotated to move the injection unit in the x, y, and z axes.

결합부(105)의 회전을 통해 사출유닛(110)의 분사 방향이 결정될 수 있고, 결합부(105)의 이동을 통해 사출유닛(110)의 분사 위치가 결정될 수 있으므로, 드론유닛(100)의 이동과 독립적으로 제어부(107)에 의해서 제어될 수 있다. The injection direction of the injection unit 110 can be determined through the rotation of the engagement part 105 and the injection position of the injection unit 110 can be determined through the movement of the engagement part 105, And can be controlled by the control unit 107 independently of movement.

예컨대, 제어부(107)는 드론유닛(100)이 제1 또는 제2 위치로 이동할 때는 결합부(105)를 회전시키지 않을 수 있고, 드론유닛(100)이 왼쪽으로 이동하더라도 결합부(105)를 왼쪽이 아닌 오른쪽으로 회전시킬 수 있다.For example, the control unit 107 may not rotate the coupling unit 105 when the drill unit 100 moves to the first or second position, and may rotate the coupling unit 105 even if the drill unit 100 moves to the left. You can rotate it to the right rather than to the left.

즉, 제어부(107)는 드론유닛(100)의 이동 방향과 무관하게 결합부(105)를 회전시키거나 이동시킴으로써, 사출유닛(110)의 원료 분사 방향 또는 분사 위치를 제어할 수 있다.That is, the control unit 107 can control the raw material injection direction or the injection position of the injection unit 110 by rotating or moving the coupling unit 105 regardless of the moving direction of the dron unit 100.

제어부(107)는 촬영부(101)에서 촬영된 영상에서 마커를 추출하여, 마커와 드론유닛(100) 간의 제1 거리를 계산하여, 드론유닛(100)이 마커의 위치인 제1 위치로 이동하게끔 추진부(109)를 제어할 수 있다.The control unit 107 extracts a marker from the image photographed by the photographing unit 101 and calculates a first distance between the marker and the dron unit 100 so that the dron unit 100 moves to the first position, The propulsion unit 109 can be controlled.

제어부(107)는 드론유닛(100)이 제1 위치에 위치하면, 수신부(103)에서 수신하는 복수 개의 위치 정보 신호들을 통해, 각 송신기와 드론유닛(100) 간 상대적인 거리를 계산하여, 드론유닛(100)의 현재 위치를 측정하고, 드론유닛(100)이 목표 지점인 제2 위치로 이동하게끔 추진부(109)를 제어할 수 있다.The control unit 107 calculates the relative distance between each transmitter and the dron unit 100 through the plurality of position information signals received by the receiver 103 when the dron unit 100 is located at the first position, It is possible to measure the current position of the drill unit 100 and to control the propulsion unit 109 to move the dron unit 100 to the second position as the target position.

드론유닛(100)이 제2 위치에 있을 때, 촬영부(101)에서 촬영된 목표 지점의 영상에 기반하여, 제어부(107)는 사출유닛(110)의 원료 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.When the drone unit 100 is in the second position, the control unit 107 controls the injection unit 110 to inject the raw material into the injection unit 110 based on the image of the target point photographed by the photographing unit 101 The portion 105 can be rotated.

즉, 목표 지점의 지면의 경사는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 간의 각도와 동일하므로, 제어부(107)는 목표 지점의 지면의 경사를 측정하고, 측정된 경사에 기반하여 결합부(105)를 회전시킴으로써 사출유닛(110)의 분사 방향이 목표 지점을 향하게 할 수 있다.That is, since the inclination of the ground surface of the target point is equal to the angle between the vertical axis of the drones unit 100 and the vertical axis of the ground surface of the target point, the control unit 107 measures the inclination of the ground surface of the target point, The injection direction of the injection unit 110 can be directed to the target point by rotating the engagement portion 105. [

또한, 제어부(107)는 사출유닛(110)이 목표 지점에 저장된 원료를 분사하는 과정에서, 결합부(105)를 회전시켜 사출유닛(110)의 분사 방향이 변경된 경우, 결합부(105)를 회전시킬 때의 회전축에 따라 결합부(105)를 이동시킬 수 있다.When the injection direction of the injection unit 110 is changed by rotating the coupling unit 105 in the process of injecting the raw material stored at the target point, the control unit 107 controls the coupling unit 105 The engaging portion 105 can be moved along the rotation axis when rotating.

예컨대, 결합부(105)가 회전을 하면, 진자의 운동처럼 최저점과 양끝점의 높이가 달라서, 오차가 발생할 수 있다. For example, when the engaging portion 105 rotates, the height of the lowermost point and the height of both ends of the pendulum are different from each other, as in the motion of the pendulum, and an error may occur.

따라서, 제어부(107)는 결합부(105)를 회전시킬 때의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 결합부(105)가 회전한 정도에 따라 결합부(105)의 위치를 목표 지점의 지면과 수직인 방향으로 이동시켜, 사출유닛(110)의 분사 위치를 조정함으로써 오차를 줄일 수 있다.The controller 107 controls the position of the coupling part 105 in accordance with the degree of rotation of the coupling part 105 when the rotation axis of the coupling part 105 is parallel or acute to the ground of the target point The error can be reduced by moving the injection unit 110 in the direction perpendicular to the paper surface of the target point and adjusting the injection position of the injection unit 110. [

또한, 제어부(107)는 사출유닛(110)이 목표 지점에 저장된 원료를 분사하는 프린팅 과정에서, 촬영부(101)를 통해 실시간으로 촬영되는 영상을 분석하여 드론유닛(100)의 위치, 사출유닛(110)의 분사 방향 또는 사출유닛(110)의 분사 위치 중 적어도 하나를 조정하여 출력물과 기저장된 모델 간의 오차를 보정할 수 있다.The control unit 107 analyzes the image photographed in real time through the photographing unit 101 in the printing process of injecting the raw material stored at the target point by the injection unit 110 and outputs the position of the drone unit 100, At least one of the injection direction of the injection unit 110 and the injection position of the injection unit 110 may be adjusted to correct an error between the output and the pre-stored model.

촬영부(101)는 프린팅 과정에서 출력물에 대한 영상을 실시간으로 촬영하고, 제어부(107)는 기설정된 주기마다 영상을 분석하여 출력물을 식별할 수 있다. 그 후, 제어부(107)는 식별한 출력물을 기저장된 모델과 비교할 수 있다.The photographing unit 101 photographs the image of the output in real time during the printing process, and the controller 107 analyzes the image every predetermined period to identify the output. Thereafter, the control unit 107 can compare the identified output with the pre-stored model.

비교 결과, 출력물과 기저장된 모델 간 오차가 측정된 경우, 제어부(107)는 측정된 오차에 기반하여, 드론유닛(100)을 이동시키거나, 사출유닛(110)의 분사 방향을 조정하기 위하여 결합부(105)를 회전시키거나, 사출유닛(110)의 분사 위치를 조정하기 위하여 결합부(105)를 이동시킬 수 있다.When the error between the output product and the pre-stored model is measured as a result of the comparison, the control unit 107 controls the injection unit 110 to move the drone unit 100 based on the measured error, The engaging part 105 can be moved to rotate the part 105 or adjust the injection position of the injection unit 110. [

예컨대, 제어부(107)는 영상을 분석하여 식별한 추출물이 기저장된 모델에 대비하여 10mm 왼쪽에 형성되었다면, 드론유닛(100)을 10mm 오른쪽으로 이동시키거나, 결합부(105)를 오른쪽 10mm에 대응되는 각도만큼 회전시키는 동시에 결합부(105)의 위치를 이동시켜 사출유닛(100)의 분사 방향 및 분사 위치를 조정할 수 있다.For example, if the extracted extract analyzed by image analysis is formed on the left side by 10 mm with respect to the pre-stored model, the control unit 107 may move the drone unit 100 to the right by 10 mm or correspond to the right side 10 mm The injection direction and the injection position of the injection unit 100 can be adjusted by moving the position of the engagement portion 105. [

즉, 제어부(107)는 촬영된 영상에서 마커를 검출하여, 마커의 위치인 제1 위치로 드론유닛(100)을 이동시키고, 위치 정보 신호들에 기반하여 목표 지점인 제2 위치로 드론유닛(100)을 재차 이동시킨다. That is, the control unit 107 detects the marker in the photographed image, moves the drone unit 100 to the first position, which is the position of the marker, and moves the drone unit 100 to the second position, 100 again.

그 후, 프린팅 과정의 영상에서 출력물을 식별하여 기저장된 모델과 비교하고, 오차가 측정된 경우 드론유닛(100)의 위치, 사출유닛(110)의 분사 방향 또는 사출유닛(110)의 분사 위치를 조정함으로써, 출력물과 기저장된 모델 간의 오차를 보정하여, 보다 정밀하게 3D 프린팅을 제어할 수 있다.Then, when the error is measured, the position of the drone unit 100, the injection direction of the injection unit 110, or the injection position of the injection unit 110 is determined It is possible to correct the error between the output product and the pre-stored model to control the 3D printing more precisely.

예컨대, 영상을 통한 마커 추출 및 복수 개의 위치 정보 신호들에만 기반하여 드론유닛(100)의 위치를 제어할 경우, 기저장된 모델에 대하여 1cm 이상 10cm 이하의 오차 범위 내에서 제어가 가능하다. For example, when the position of the drone unit 100 is controlled based on marker extraction using an image and a plurality of position information signals, control is possible within an error range of 1 cm to 10 cm with respect to the pre-stored model.

하지만, 프린팅 과정에서 출력물과 기저장된 모델 간의 비교를 통해서, 기저장된 모델에 대하여 0.1mm 이상 10mm 이하의 오차 범위 내에서 정밀 제어가 가능하다.However, it is possible to precisely control the pre-stored model within a tolerance range of 0.1 mm or more and 10 mm or less, by comparing the output and pre-stored models during the printing process.

또한, 3D 프린팅 과정에서 드론유닛(100)은 정지 비행(Hovering) 상태이기 때문에, 바람 등의 영향을 받아 복수 개의 위치 정보 신호들로는 측정되지 않는 미세한 오차가 발생할 수 있다.Also, in the 3D printing process, since the drone unit 100 is in a hovering state, slight errors that are not measured by a plurality of position information signals due to the influence of wind or the like may occur.

3D 프린팅은 2D 프린팅과 달리, 미세한 오차라도 출력물에 큰 영향을 미칠 수 있기 때문에, 위치 정보 신호들만을 통한 드론유닛(100)의 위치 측정은 출력물에 큰 영향을 미칠 수 있다.Since 3D printing, unlike 2D printing, can have a significant impact on the output even with small errors, the positioning of the drones unit 100 through the location information signals alone can have a significant impact on the output.

따라서, 프린팅 과정에서 출력물을 기저장된 모델과 실시간으로 비교하여, 위치 정보 신호들이 측정할 수 없는 미세한 오차들을 측정하고, 측정된 오차에 기반하여 드론유닛(100)의 위치, 사출유닛(110)의 분사 방향 또는 사출유닛(110)의 분사 위치를 실시간으로 조정함으로써, 최종적으로 생성된 결과물의 오차를 줄일 수 있다.Accordingly, in the printing process, the output is compared with the pre-stored model in real time, and fine errors that can not be measured by the position information signals are measured. Based on the measured error, the position of the dron unit 100, By adjusting the injection direction or the injection position of the injection unit 110 in real time, it is possible to reduce the error of the finally produced result.

추진부(109)는 드론유닛(100)을 비행시킬 수 있는 프로펠러를 포함하며, 제어부(107)는 추진부(109)를 제어하여 제1 위치 또는 제2 위치로 드론유닛(100)을 이동시킬 수 있다.The propulsion unit 109 includes a propeller capable of flying the dron unit 100 and the control unit 107 controls the propulsion unit 109 to move the dron unit 100 to the first or second position .

또한, 제어부(107)는 프린팅 과정에서 출력물과 기저장된 모델과 비교하여 오차가 측정된 경우, 추진부(109)를 제어하여 기저장된 모델과 대응되도록 드론유닛(100)를 이동시킬 수 있다.In addition, when the error is measured by comparing the output and the pre-stored model in the printing process, the control unit 107 controls the propelling unit 109 to move the drones unit 100 in correspondence with the pre-stored model.

도 3은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법의 순서도를 간략히 도시한 도면이다.3 is a flowchart briefly showing a method of controlling a drone type 3D printer according to an embodiment of the present invention.

구체적으로, 도 3a는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법의 전체 흐름에 대한 순서도를 간략히 도시한 도면이다.3A is a flowchart briefly showing an overall flow of a method of controlling a drone type 3D printer according to an embodiment of the present invention.

도 3b는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법에 있어서, 드론유닛의 위치를 이동시키는 단계의 순서도를 도시한 도면이다.FIG. 3B is a flowchart illustrating steps of moving a position of a drone unit in a method of controlling a drone type 3D printer according to an exemplary embodiment of the present invention. Referring to FIG.

도 3c는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법에 있어서, 원료를 분사하는 단계의 순서도를 도시한 도면이다.FIG. 3C is a flowchart illustrating a step of spraying a raw material in a method of controlling a drone type 3D printer according to an embodiment of the present invention.

도 3d는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법에 있어서, 오차를 보정하는 단계의 순서도를 도시한 도면이다.FIG. 3D is a flowchart showing a step of correcting an error in a method of controlling a drone type 3D printer according to an embodiment of the present invention.

도 3a 내지 3d를 참조하면, 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법은 이동시키는 단계(S101), 분사하는 단계(S103) 및 오차를 보정하는 단계(S105)를 포함할 수 있다.3A to 3D, a method of controlling a drone type 3D printer according to an embodiment of the present invention may include a step of moving (S101), a step of injecting (S103), and a step of correcting an error (S105) have.

이동시키는 단계(S101)는 드론유닛(100)을 제1 위치 및 제2 위치로 이동시키는 단계로서, 마커를 추출하는 단계(S201), 제1 위치로 이동시키는 단계(S203), 위치 정보 신호들을 수신하는 단계(S205) 및 제2 위치로 이동시키는 단계(S207)을 포함할 수 있다.The moving step S101 is a step of moving the drones 100 to the first position and the second position. The step of extracting the marker (S201), the step of moving to the first position (S203) Receiving step S205 and moving to the second position S207.

마커를 추출하는 단계(S201)는 제어부(107)가 촬영된 영상에서 마커를 추출하는 단계이다. 제어부(107)는 촬영된 영상에서 마커를 추출할 수 있다.The step of extracting the marker (S201) is a step of the controller 107 extracting the marker from the photographed image. The control unit 107 can extract the marker from the photographed image.

제1 위치로 이동시키는 단계(S203)는 제어부(107)에서 추출된 마커와 드론유닛(100) 간의 제1 거리를 계산한 후, 제1 거리에 기반하여 드론유닛(100)을 마커의 위치인 제1 위치로 이동시키는 단계이다.The step of moving the drones 100 to the first position (S203) calculates the first distance between the marker extracted by the controller 107 and the drones 100, and then, based on the first distance, To the first position.

제어부(107)는 영상에서 마커를 추출하고, 추출된 마커와 드론유닛(100) 간의 제1 거리를 측정할 수 있다.The control unit 107 may extract the marker from the image and measure the first distance between the extracted marker and the dron unit 100. [

예컨대, 제어부(107)는 마커를 추출한 영상의 프레임의 픽셀 정보에 기반하여 마커와 드론유닛(100) 간의 거리를 측정하거나, 마커가 위치에 대한 좌표 정보를 포함하고 있으면 제어부(107)는 마커에 포함된 데이터를 인식하여 마커의 좌표 정보와 드론유닛(100)의 좌표 정보를 비교함으로써 거리를 측정할 수 있다.For example, the control unit 107 measures the distance between the marker and the drones 100 based on the pixel information of the frame of the image extracted from the marker, or if the marker includes the coordinate information about the position, The distance can be measured by recognizing the included data and comparing the coordinate information of the marker with the coordinate information of the dron unit 100.

제어부(107)는 측정된 마커와 드론유닛(100) 간의 제1 거리에 기반하여, 추진부(109)를 제어함으로써 드론유닛(100)을 마커의 위치인 제1 위치로 이동시킬 수 있다.The control unit 107 can move the drones unit 100 to the first position, which is the position of the marker, by controlling the pushing unit 109 based on the first distance between the measured marker and the dron unit 100. [

위치 정보들을 수신하는 단계(S205)는 드론유닛(100)이 제1 위치에 있을 때, 목표 지점 주위에 설치된 복수 개의 위치 정보 송신기들로부터 위치 정보 신호를 수신하는 단계이다.The step S205 of receiving the position information is a step of receiving the position information signal from the plurality of position information transmitters provided around the target point when the drone unit 100 is in the first position.

예컨대, 목표 지점 주위에 복수 개의 초음파 비콘(Ultra sonic beacon)들이 설치되고, 수신부(103)는 각 비콘으로부터 전송되는 비콘 신호들을 수신할 수 있다.For example, a plurality of ultrasonic beacons may be installed around the target point, and the receiving unit 103 may receive beacon signals transmitted from each beacon.

제2 위치로 이동시키는 단계(S207)는 수신한 위치 정보 신호들에 기반하여, 목표 지점과 드론유닛(100) 간의 제2 거리를 계산하여, 드론유닛(100)을 목표 지점인 제2 위치로 이동시키는 단계이다.The step of moving to the second position (S207) calculates a second distance between the target point and the drones unit 100 based on the received position information signals, Respectively.

제어부(107)는 수신부(103)가 수신한 복수개의 위치 정보 신호들에 기반하여, 각 위치 정보 송신기와 드론유닛(100) 간의 상대적인 거리를 측정함으로써 드론유닛(100)의 현재 위치를 측정하여, 목표 지점과 드론유닛(100) 간의 제2 거리를 측정할 수 있다.The control unit 107 measures the current position of the drones 100 by measuring the relative distance between each position information transmitter and the drones 100 based on the plurality of position information signals received by the receiver 103, The second distance between the target point and the drones unit 100 can be measured.

제어부(107)는 측정된 제2 거리에 기반하여, 추진부(109)를 제어함으로써 드론유닛(100)을 목표 지점인 제2 위치로 이동시킬 수 있다.The control unit 107 can move the dron unit 100 to the target position, i.e., the second position, by controlling the propelling unit 109 based on the measured second distance.

분사하는 단계(S103)는 드론유닛(100)이 목표 지점인 제2 위치로 이동했을 때, 목표 지점을 향해 사출유닛(110)의 분사 방향을 조정하고, 저장된 원료를 분사하는 단계이다.The injecting step S103 is a step of adjusting the injection direction of the injection unit 110 toward the target point and injecting the stored raw material when the drone unit 100 moves to the target position.

분사하는 단계(S103)는 목표 지점의 지면의 경사를 측정하는 단계(S301), 사출유닛의 분사 방향을 조정하는 단계(S303), 사출유닛의 분사 위치를 조정하는 단계(S305) 및 저장된 원료를 분사하는 단계(S307)을 포함할 수 있다.The step of injecting S103 includes steps S301, S303, S305, S305, S305, S302, S304, S302, (S307). ≪ / RTI >

목표 지점의 지면의 경사를 측정하는 단계(S301)는 제어부(107)가 촬영부(101)를 통해 촬영된 영상에서 목표 지점을 추출하여, 목표 지점의 지면의 경사를 측정하는 단계이다.The step S301 of measuring the inclination of the ground of the target point is a step of the control unit 107 extracting the target point from the image photographed through the photographing unit 101 and measuring the inclination of the ground of the target point.

촬영부(101)는 드론유닛(100)이 제2 위치에 위치했을 때, 목표 지점의 영상을 촬영할 수 있다. 제어부(107)는 촬영된 영상에서 목표 지점을 추출하여, 목표 지점의 지면의 경사를 측정할 수 있다. The photographing unit 101 can photograph an image of the target point when the dron unit 100 is located at the second position. The control unit 107 can extract the target point from the photographed image and measure the inclination of the ground surface of the target point.

드론유닛(100)의 수직축은 연직축과 일치하기 때문에, 목표 지점의 지면의 경사는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 사이의 각도와 동일하다.Since the vertical axis of the drone unit 100 coincides with the vertical axis, the inclination of the ground surface of the target point is the same as the angle between the vertical axis of the drones unit 100 and the vertical axis of the ground surface of the target point.

따라서, 제어부(107)는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 사이의 각도를 측정함으로써, 목표 지점의 지면의 경사를 측정할 수 있다.Therefore, the control unit 107 can measure the inclination of the ground surface of the target point by measuring the angle between the vertical axis of the dron unit 100 and the vertical axis of the ground surface of the target point.

사출유닛(110)의 분사 방향을 조정하는 단계(S303)는 측정된 목표 지점의 지면의 경사에 기반하여 사출유닛(110)의 분사 방향을 조정하는 단계이다.The step S303 of adjusting the injection direction of the injection unit 110 is a step of adjusting the injection direction of the injection unit 110 based on the inclination of the ground of the measured target point.

제어부(107)는 측정한 목표 지점의 지면의 경사에 기반하여, 사출유닛(110)의 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.The control unit 107 can rotate the coupling unit 105 so that the injection direction of the injection unit 110 is directed to the target point based on the inclination of the ground surface of the measured target point.

예컨대, 측정된 경사가 동쪽으로 10°인 경우, 제어부(107)는 결합부(105)를 동쪽으로 10°만큼 회전시켜서, 목표 지점을 향하도록 사출유닛(110)의 분사 방향이 조정할 수 있다.For example, when the measured inclination is 10 degrees to the east, the control unit 107 rotates the engaging unit 105 by 10 degrees to the east so that the injection direction of the injection unit 110 can be adjusted so as to face the target point.

사출유닛의 분사 위치를 조정하는 단계(S305)는 결합부(105)를 회전시켜 조정된 사출유닛(110)의 분사 방향에 기반하여, 사출유닛(110)의 분사 위치를 조정하는 단계이다.The step S305 of adjusting the injection position of the injection unit is a step of adjusting the injection position of the injection unit 110 based on the injection direction of the injection unit 110 adjusted by rotating the engagement portion 105. [

결합부(105)는 회전하기 때문에, 예컨대 진자 운동처럼 최저점과 양끝점의 높이가 달라서 출력 시, 오차가 발생할 수 있다. 따라서 제어부(107)는 결합부(105)를 회전시킬 때 결합부(105)의 위치를 이동시켜서 이러한 오차를 보정할 수 있다.Since the engaging portion 105 rotates, the height of the lowermost point and the height of the both end portions are different from each other, for example, as in a pendulum movement, so that an error may occur at the time of outputting. Therefore, the control unit 107 can correct the error by moving the position of the coupling unit 105 when the coupling unit 105 is rotated.

제어부(107)는 결합부(105)를 회전시킬 때의 회전축이 추출한 목표 지점의 지면과 평행하거나, 예각을 이루는 경우, 결합부(105)의 위치를 이동시킬 수 있다.The control unit 107 can move the position of the coupling unit 105 when the rotation axis when rotating the coupling unit 105 is parallel to the ground of the target point extracted or has an acute angle.

예컨대, 목표 지점의 지면이 수평면상에 있고, 결합부(105)의 회전축이 목표 지점의 지면의 수직축과 일치하면, 사출유닛(110)과 목표 지점의 지면 간의 거리가 변하지 않으므로, 제어부(107)는 결합부(105)의 위치를 이동시키지 않는다.For example, if the ground surface of the target point is on a horizontal plane and the rotational axis of the engaging portion 105 coincides with the vertical axis of the ground of the target point, the distance between the injection unit 110 and the ground of the target point does not change, The position of the engaging portion 105 is not moved.

반대로, 결합부(105)의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 결합부(105)의 회전에 따라 사출유닛(110)과 목표 지점의 지면 간의 거리가 변하므로, 제어부(107)는 결합부(105)를 목표 지점의 지면과 수직인 방향으로 이동시켜서, 사출유닛(110)과 목표 지점의 지면 간의 거리를 일정하게 유지할 수 있다.The distance between the injection unit 110 and the ground of the target point changes in accordance with the rotation of the coupling unit 105. In contrast, when the rotation axis of the coupling unit 105 is parallel or acute to the ground of the target point, Can move the coupling portion 105 in a direction perpendicular to the plane of the target point so that the distance between the injection unit 110 and the ground of the target point can be kept constant.

저장된 원료를 분사하는 단계(S307)는 사출유닛(110)의 분사 방향 또는 분사 위치 중 적어도 하나가 목표 지점에서 기저장된 모델에 대응되는 위치를 향하면, 제어부(107)는 저장된 원료를 분사하도록 사출유닛(110)을 제어할 수 있다.When at least one of the injection direction or the injection position of the injection unit 110 is directed to a position corresponding to the pre-stored model at the target position, the control unit 107 injects the stored raw material (S307) (110).

오차를 보정하는 단계(S105)는 프린팅 과정에서 사출유닛(110)을 통해 출력되는 출력물과 기저장된 모델을 비교하여 오차가 측정된 경우, 드론유닛(100)의 위치 또는 사출유닛(110)의 분사 방향 중 적어도 하나를 조정하여 오차를 보정하는 단계이다.The step of correcting the error (S105) compares the output outputted through the injection unit 110 and the pre-stored model in the printing process to determine the position of the dron unit 100 or the injection of the injection unit 110 Direction and correcting the error by adjusting at least one of the directions.

오차를 보정하는 단계(S105)는 프린팅 과정에서 출력물의 영상을 촬영하는 단계(S401), 출력물과 기저장된 모델을 비교하는 단계(S403) 및 조정하는 단계(S405)를 포함할 수 있다.The step of correcting the error (S105) may include a step S401 of photographing the output in the printing process, a step S403 of comparing the output and the pre-stored model, and an adjusting step S405.

출력물의 영상을 촬영하는 단계(S401)는 촬영부(101)가 3D 프린팅 과정에서 사출유닛(110)이 원료를 분사하여 출력물이 형성되는 과정을 촬영하는 단계이다.A step S401 of photographing an output image is a step of photographing a process of forming an output by the injection unit 110 injecting a raw material in the 3D printing process of the photographing unit 101. [

출력물과 기저장된 모델을 비교하는 단계(S403)는 3D 프린팅 과정에서 촬영된 영상에서 출력물을 식별하여, 식별된 출력물과 기저장된 모델을 비교하는 단계이다.In step S403, the output is compared with the pre-stored model, and the output is identified from the photographed image in the 3D printing process, and the identified output is compared with the pre-stored model.

제어부(107)는 3D 프린팅 과정을 촬영한 영상에서 출력물을 식별하고, 출력물과 기저장된 모델을 비교함으로써, 출력과정에서 발생하는 오차를 측정할 수 있다.The control unit 107 can identify the output from the image photographed by the 3D printing process, and compare the output with the pre-stored model, thereby measuring an error occurring in the output process.

예컨대, 제어부(107)는 1초 마다 촬영된 영상에서 출력물을 식별하고, 출력물과 기저장된 모델을 비교하여 오차를 측정할 수 있다.For example, the control unit 107 can identify the output from the image photographed every second, and compare the output with the pre-stored model to measure the error.

조정하는 단계(S405)는 측정된 오차에 기반하여, 드론유닛 또는 사출유닛 중 적어도 하나를 조정하여 오차를 보정하는 단계이다.The adjusting step S405 is a step of adjusting at least one of the drones or the injection units to correct the error based on the measured error.

예컨대, 기저장된 모델에 대하여 왼쪽으로 1cm 치우쳐서 출력물이 출력되면, 측정된 오차인 1cm만큼 드론유닛(100)을 오른쪽으로 이동시키거나, 사출유닛(110)의 분사 방향 또는 분사 위치를 조정하여 오차를 보정할 수 있다.For example, when the output product is output with a 1 cm position to the left with respect to the pre-stored model, the droplet unit 100 is moved to the right by 1 cm, which is the measured error, or the error is corrected by adjusting the injection direction or injection position of the injection unit 110 Can be corrected.

프린팅 과정에서 드론유닛(100)은 정지 비행 상태이므로, 위치 정보 신호들로 측정할 수 없는 오차가 발생할 수 있고, 프린팅 과정에서 이러한 오차들은 결과물에 큰 영향을 미칠 수 있다. Since the drone unit 100 is in a stationary flying state during the printing process, an error that can not be measured with the position information signals may occur, and these errors may have a large influence on the result during the printing process.

따라서, 제어부(107)는 프린팅 과정에서 발생하는 오차를 측정하고, 드론유닛(100)을 이동시키거나 사출유닛(110)의 분사 방향 또는 분사 위치를 조정하여, 오차를 보정함으로써 보다 정밀하고 정확한 결과물을 생성할 수 있다.Therefore, the control unit 107 measures the error generated in the printing process, and adjusts the injection direction or injection position of the drones 100 or the injection unit 110 to correct the error, Can be generated.

예컨대, 위치 정보 신호들에 기반하여 3D 프린팅을 수행하면, 제어부(107)는 기저장된 모델에 대하여 1cm 이상 10cm 이하의 오차 범위 내에서 프린팅을 수행할 수 있다.For example, when 3D printing is performed based on the position information signals, the control unit 107 can perform printing within a tolerance range of 1 cm or more and 10 cm or less with respect to the pre-stored model.

하지만, 3D 프린팅에서는 이러한 오차 범위가 결과에 매우 큰 영향을 미칠 수 있으므로, 오차를 보정하는 단계(S105)를 통해 제어부(107)는 프린팅 과정에서 발생하는 오차를 즉시 보정함으로써, 기저장된 모델에 대하여 0.1mm 이상 10mm 이하의 오차 범위 내에서 프린팅을 수행할 수 있다.However, in the 3D printing, such an error range can greatly affect the result. Therefore, the control unit 107 corrects the error occurring in the printing process through the correction of the error (S105) Printing can be performed within an error range of 0.1 mm or more and 10 mm or less.

도 4는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사방향이 목표 지점을 향하도록 조정하는 예시를 도시한 도면이다.FIG. 4 is a diagram illustrating an example of adjusting the injection direction of the injection unit so as to face the target point in the drone type 3D printer and the control method thereof according to the embodiment of the present invention.

도 4를 참조하면, 드론유닛(100)의 수직축(209)은 연직축과 동일하기 때문에, 수평면(205)에 대한 목표 지점의 지면(203)의 경사(207)는 드론유닛(100)의 수직축(209)과 목표 지점의 지면(203)의 수직축(211)과 동일하다.4, since the vertical axis 209 of the dron unit 100 is the same as the vertical axis, the slope 207 of the ground surface 203 at the target point with respect to the horizontal plane 205 is perpendicular to the vertical axis of the dron unit 100 209 and the vertical axis 211 of the land 203 of the target point.

따라서, 제어부(107)는 목표 지점(201)을 촬영한 영상에서 수평면(205)에 대한 목표 지점의 지면(203)의 경사(207)를 측정하고, 측정된 경사(207)에 기반하여, 사출유닛(110)의 분사 방향이 목표 지점(201)을 향하도록 결합부(109)를 회전시킬 수 있다.Therefore, the control unit 107 measures the slope 207 of the ground surface 203 of the target point with respect to the horizontal plane 205 in the image of the target point 201, and based on the measured slope 207, The engaging portion 109 can be rotated such that the ejecting direction of the unit 110 is directed to the target point 201. [

본 발명의 일 실시예에 따른 드론형 3D 프린터는 드론유닛(100)의 이동과 사출유닛(110)의 분사 방향을 독립적으로 제어할 수 있기 때문에, 목표 지점(201)이 수평면(205)상에 위치하지 않더라도 사출유닛(110)의 분사 방향을 제어하여 3D 프린팅을 수행할 수 있다.The drone type 3D printer according to the embodiment of the present invention can independently control the movement of the dron unit 100 and the injection direction of the injection unit 110 so that the target point 201 is located on the horizontal plane 205 The 3D printing can be performed by controlling the injection direction of the injection unit 110 even if it is not positioned.

또한, 프린팅 과정에서 출력되는 출력물의 오차가 실시간으로 보정되기 때문에, 보다 정밀하고 정확한 결과물을 생성할 수 있다.In addition, since the error of the output output in the printing process is corrected in real time, more accurate and precise results can be generated.

도 5는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 3D 프린팅 과정에서 출력물과 기저장된 모델을 비교하여 오차를 보정하는 예시를 도시한 도면이다.FIG. 5 is a diagram illustrating an example of correcting an error by comparing an output and a pre-stored model in a 3D printing process in a drone type 3D printer and a control method thereof according to an embodiment of the present invention.

3D 프린팅 과정에서 출력물과 기저장된 모델을 비교하여 오차를 보정하는 예시에서, 도 5a는 목표 지점 및 드론형 3D 프린터를 도시한 도면이고, 도 5b는 목표 지점을 도시한 도면이다.5A is a diagram showing a target point and a drone type 3D printer, and FIG. 5B is a diagram showing a target point. In the example in which an error is corrected by comparing an output and a pre-stored model in a 3D printing process, FIG.

도 5를 참조하면, 제어부(107)는 프린팅 과정을 촬영한 영상에서 보정 전 출력물(303)을 식별하여, 기저장된 모델(301)과 보정 전 출력물(303)을 비교하여 오차를 측정할 수 있다.5, the control unit 107 can identify the pre-correction output 303 from the image of the printing process, compare the pre-correction model 301 with the pre-correction output 303, and measure the error .

예시에서와 같이, 기저장된 모델(301)과 보정 전 출력물(303) 간의 오차가 측정되는 경우, 제어부(107)는 보정 위치(305)을 기준으로 출력물이 기저장된 모델(301)과 대응되도록 드론유닛(100)의 위치를 이동시킬 수 있다.When the error between the pre-stored model 301 and the pre-correction output 303 is measured, as shown in the figure, the control unit 107 controls the drones 301 and 302 to correspond to the pre- The position of the unit 100 can be moved.

여기서, 보정 위치(305)는 제어부(107)가 기설정된 주기마다 영상에서 출력물을 식별하여, 기저장된 모델(301)과 비교하는 어느 한 시점에서의 드론유닛(100)의 위치를 의미한다.Here, the correction position 305 means the position of the drones unit 100 at a certain point in time when the control unit 107 identifies the output from the image every predetermined period and compares it with the pre-stored model 301. [

예컨대, 제어부(107)의 연산 속도 등을 고려하여 기설정된 주기가 1초로 설정되었다면, 제어부(107)는 1초 마다 영상에서 보정 전 출력물(303)을 식별할 수 있다.For example, if the preset period is set to 1 second in consideration of the operation speed of the control unit 107, the control unit 107 can identify the pre-correction output 303 in the image every one second.

보정 위치(305) 이후, 드론 이동 방향에 따라 출력되는 보정 후 출력물(307)을 보면 기저장된 모델(307)과 대응되도록 출력되어, 오차가 점점 줄어드는 것을 알 수 있다.After the correction position 305, the post-correction output 307 output in accordance with the direction of the dragon movement is output so as to correspond to the pre-stored model 307, and the error is gradually decreased.

3D 프린팅에서는 1cm 정도의 오차가 결과물에 큰 영향을 미치므로, 촬영부(103)는 프린팅 과정을 촬영하고, 제어부(107)는 기설정된 주기마다 영상에서 출력물을 식별하여 기저장된 모델(301)과 비교하여, 오차를 보정할 수 있다.In 3D printing, an error of about 1 cm has a great influence on the result, so that the photographing unit 103 photographs the printing process, the control unit 107 identifies the output from the image every predetermined period, The error can be corrected.

본 예시에서는, 드론유닛(100)의 이동을 보정하여 기저장된 모델(301)에 대응되도록 보정 후 출력물(307)을 출력하였지만, 제어부(107)는 결합부(105)를 회전시키거나 이동시켜서 사출유닛(110)의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 보정 후 출력물(307)을 출력할 수도 있다.In this example, the post-correction output 307 is outputted so as to correspond to the pre-stored model 301 by correcting the movement of the drill unit 100. However, the control unit 107 rotates or moves the coupling unit 105, At least one of the ejection direction or the ejection position of the unit 110 may be adjusted to output the corrected output 307.

이와 같은 캘리브레이션(Calibration) 과정을 통해 제어부(107)는 기저장된 모델(301)에 대하여 1mm 이상 10mm 이하의 오차 범위 내에서 프린팅을 수행할 수 있으므로, 위치 정보 신호들에만 기반하여 프린팅을 수행할 때보다 보다 정밀한 제어가 가능하다.Through such a calibration process, the control unit 107 can perform printing within an error range of 1 mm or more and 10 mm or less with respect to the pre-stored model 301. Therefore, when printing is performed based only on the position information signals More precise control is possible.

도 6은 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사 위치를 조정하는 예시를 도시한 도면이다.6 is a diagram illustrating an example of adjusting the injection position of the injection unit in the drone type 3D printer and the control method thereof according to an embodiment of the present invention.

도 6을 참조하면, 제어부(107)가 결합부(105)를 회전시켜 사출유닛(110)의 분사 방향(405)을 조정하면, 결합부(105)의 회전에 의하여 기저장된 모델(301)과 출력물(401) 간의 오차(403)가 생길 수 있다.6, when the control unit 107 rotates the coupling unit 105 to adjust the injection direction 405 of the injection unit 110, the pre-stored model 301 and the pre- An error 403 may be generated between the prints 401.

예컨대, 결합부(105)의 회전은 진자운동과 유사하여, 최저점과 양 끝점에서의 높이가 차이나기 때문에, 결합부(105)가 회전할 때의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우에 오차(403)가 생길 수 있다.For example, since the rotation of the coupling portion 105 is similar to the pendulum movement and the heights at the lowest point and the both end points are different from each other, the rotation axis when the coupling portion 105 rotates is parallel or acute to the ground of the target point An error 403 may be generated.

따라서, 결합부(105)의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 결합부(105)의 위치를 목표 지점의 지면과 수직인 방향(407)으로 이동시켜 사출유닛(110)의 분사 위치를 조정함으로써, 오차(403)를 보정한 출력물(409)을 출력할 수 있다.When the rotation axis of the coupling portion 105 is parallel or acute to the plane of the target point, the position of the coupling portion 105 is moved in the direction 407 perpendicular to the plane of the target point, By adjusting the injection position, it is possible to output the output item 409 in which the error 403 is corrected.

본 예시에서는 목표 지점의 지면이 수평면상에 위치할 때를 나타냈지만, 목표 지점이 수평면에 대하여 경사진 지면에 위치한 경우에도, 제어부(107)는 결합부(105)의 위치를 경사진 목표 지점의 지면과 수직인 방향(407)으로 이동시켜서 오차(403)를 보정하여, 오차를 보정한 출력물(409)을 출력할 수 있다.In this example, the target position is shown on the horizontal plane. However, even when the target position is located on the inclined plane with respect to the horizontal plane, the control unit 107 determines the position of the engagement unit 105 at the inclination of the target point It is possible to correct the error 403 by moving it in the direction 407 perpendicular to the paper surface and output the output 409 corrected for the error.

이렇듯, 제어부(107)는 결합부(105)의 회전에 의해 사출유닛(110)의 분사 방향(405)이 변경될 때, 결합부(105)를 목표 지점의 지면과 수직인 방향(407)으로 이동시킴으로써 사출유닛(110)의 분사 위치를 조정하여, 보다 정밀한 프린팅을 수행할 수 있다.When the injection direction 405 of the injection unit 110 is changed by the rotation of the coupling part 105 as described above, the control part 107 controls the coupling part 105 in the direction 407 perpendicular to the paper of the target point The injection position of the injection unit 110 can be adjusted by moving it, so that more precise printing can be performed.

비록 본 명세서에서의 설명은 예시적인 몇 가지 양상으로 나타났지만, 다양한 수정이나 변경이 후술되는 특허청구범위에 의해 정의되는 범주로부터 이루어질 수 있으며, 본 발명의 기술적인 보호범위는 다음의 특허청구범위에 의하여 정해져야 할 것이다.Although the description herein has been made in some illustrative aspects, various modifications and variations can be made from the categories defined by the following claims, and the technical scope of the invention is defined in the following claims It should be decided by.

100 : 드론유닛
101 : 촬영부
103 : 수신부
105 : 결합부
107 : 제어부
109 : 추진부
110 : 사출유닛
201 : 목표 지점
203 : 목표 지점의 지면
205 : 수평면
207 : 목표 지점의 지면의 경사
209 : 드론유닛의 수직축
211 : 목표 지점의 지면의 수직축
301 : 기저장된 모델
303 : 보정 전 출력물
305 : 보정 위치
307 : 보정 후 출력물
401 : 출력물
403 : 오차
405 : 사출유닛의 분사 방향
407 : 목표 지점의 지면과 수직인 방향
409 : 오차를 보정한 출력물
100: Drone unit
101:
103: Receiver
105:
107:
109: Propulsion unit
110: Injection unit
201: Target point
203: Ground of target point
205: Horizontal plane
207: Slope of the ground of the target point
209: Vertical axis of the drone unit
211: vertical axis of the ground of the target point
301: Pre-stored model
303: Output before correction
305: correction position
307: Output after correction
401: Output
403: Error
405: injection direction of the injection unit
407: direction perpendicular to the ground of the target point
409: Error corrected output

Claims (21)

드론유닛 및 사출유닛을 포함하는 드론형 3D 프린터에 있어서,
외부로부터 위치 정보 신호들을 수신하는 수신부;
영상을 촬영하는 촬영부; 및
상기 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛의 이동, 상기 사출유닛의 분사 방향 및 상기 사출유닛의 분사 위치를 제어하는 제어부를 포함하는 드론유닛;
상기 드론유닛에 마련되어, 목표 지점에 저장된 원료를 분사하는 사출유닛; 및
상기 사출유닛을 지지할 수 있도록 상기 드론유닛에 설치되며, 상기 사출유닛의 분사 방향 또는 분사 위치가 변경되도록 상기 사출유닛이 이동될 수 있게 상기 제어부의 제어에 의해 회전하는 결합부;를 구비하고,
상기 제어부는 상기 결합부의 회전에 의해 발생되는 상기 목표 지점의 지면에 대한 상기 사출유닛의 분사위치의 오차를 줄일 수 있도록 상기 결합부가 회전시, 상기 결합부를 상기 목표 지점의 지면에 대해 수직인 방향으로 이동시키는,
드론형 3D 프린터.
In a drone type 3D printer including a drone unit and an injection unit,
A receiving unit for receiving position information signals from outside;
A photographing unit for photographing an image; And
And a control unit for controlling the movement of the drone unit, the injection direction of the injection unit, and the injection position of the injection unit based on the position information signals and the photographed image.
An injection unit provided in the dron unit for injecting a raw material stored at a target point; And
And a coupling unit installed in the drone unit to support the injection unit and rotated by the control unit so that the injection unit can be moved so that the injection direction or the injection position of the injection unit is changed,
The control unit controls the coupling unit to rotate in a direction perpendicular to the ground surface of the target point so that the error of the injection position of the injection unit with respect to the ground surface of the target point generated by the rotation of the coupling unit can be reduced. Moving,
Drones 3D printers.
제1항에 있어서,
상기 제어부는,
상기 촬영된 영상에서 마커를 검출하고,
상기 마커와 상기 드론유닛 간 거리를 계산하여, 상기 마커의 위치로 상기 드론유닛을 이동시키며,
상기 마커는,
상기 목표 지점의 주위에 표시되어, 상기 촬영된 영상을 통해 상기 제어부가 인식 가능한 이미지인,
드론형 3D 프린터.
The method according to claim 1,
Wherein,
Detecting a marker in the photographed image,
Calculating a distance between the marker and the drone unit, moving the drone unit to a position of the marker,
The marker
Wherein the control unit displays an image that is displayed around the target point,
Drones 3D printers.
제2항에 있어서,
상기 수신부는,
상기 마커의 위치에서 상기 위치 정보 신호들 수신하는,
드론형 3D 프린터.
3. The method of claim 2,
The receiver may further comprise:
And receiving the position information signals at a position of the marker,
Drones 3D printers.
제1항에 있어서,
상기 위치 정보 신호들은,
상기 목표 지점 주위에 기설치된 신호 송신기들로부터 수신한 위치 정보 신호들이며,
상기 제어부는,
상기 수신한 위치 정보 신호들에 기반하여 상기 목표 지점과 상기 드론 유닛 간 거리를 계산하여, 상기 드론유닛을 상기 목표 지점으로 이동시키는,
드론형 3D 프린터.
The method according to claim 1,
The position information signals,
And position information signals received from signal transmitters installed around the target point,
Wherein,
Calculating a distance between the target point and the dronon unit based on the received position information signals, and moving the dronon unit to the target point,
Drones 3D printers.
제1항에 있어서,
상기 촬영부는,
상기 사출유닛이 원료를 분사할 때, 상기 분사된 원료로 형성되는 출력물의 영상을 촬영하는,
드론형 3D 프린터.
The method according to claim 1,
Wherein,
And an image of an output formed of the injected raw material is taken when the injection unit injects the raw material,
Drones 3D printers.
제5항에 있어서,
상기 제어부는,
상기 촬영된 영상에서 상기 출력물을 식별하고,
상기 식별된 출력물을 기저장된 모델과 비교하여, 상기 출력물과 기저장된 모델 간 오차를 측정하는,
드론형 3D 프린터.
6. The method of claim 5,
Wherein,
Identifying the output from the photographed image,
Comparing the identified output with a pre-stored model, and measuring an error between the output and the pre-stored model,
Drones 3D printers.
제6항에 있어서,
상기 제어부는,
상기 오차가 측정된 경우, 상기 기저장된 모델과 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 상기 사출유닛의 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정하는,
드론형 3D 프린터.
The method according to claim 6,
Wherein,
And correcting the error by adjusting at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position of the injection unit so as to correspond to the pre-stored model when the error is measured,
Drones 3D printers.
제1항에 있어서,
상기 제어부는,
상기 드론유닛이 상기 목표 지점으로 이동한 경우, 상기 촬영된 영상에서 상기 목표 지점을 식별하여, 상기 목표 지점의 지면의 경사를 측정하는,
드론형 3D 프린터.
The method according to claim 1,
Wherein,
And when the drone unit moves to the target point, identifying the target point in the photographed image, and measuring a slope of the ground of the target point,
Drones 3D printers.
제8항에 있어서,
상기 제어부는,
상기 측정된 경사에 기반하여, 상기 목표 지점에서 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정하는,
드론형 3D 프린터.
9. The method of claim 8,
Wherein,
And adjusting the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination,
Drones 3D printers.
제9항에 있어서,
상기 제어부는,
상기 조정된 분사 방향을 향해 상기 원료를 분사하도록 상기 사출유닛을 제어하는,
드론형 3D 프린터.
10. The method of claim 9,
Wherein,
And controls the injection unit to inject the raw material toward the adjusted injection direction.
Drones 3D printers.
삭제delete 제1항에 있어서,
상기 드론형 3D 프린터는,
상기 드론유닛의 하단에 구비되어, 상기 사출유닛이 결합되는 결합부를 더 포함하며,
상기 제어부는,
상기 결합부를 회전시킬 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우,
상기 결합부의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정하는,
드론형 3D 프린터.
The method according to claim 1,
The above-mentioned drone type 3D printer,
And a coupling unit provided at a lower end of the drone unit and coupled to the injection unit,
Wherein,
When the rotation axis when rotating the engaging portion is parallel or acute to the ground of the target point,
And the injection position of the injection unit is adjusted by moving the position of the engagement portion in a direction perpendicular to the paper surface of the target point,
Drones 3D printers.
드론유닛 및 사출유닛을 포함하는 드론형 3D 프린터의 제어 방법에 있어서,
수신한 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛을 목표 지점으로 이동시키는 단계;
상기 드론유닛이 상기 목표 지점으로 이동한 후, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 저장된 원료를 분사하는 단계; 및
상기 원료가 분사될 때, 상기 분사된 원료에 의해 형성되는 출력물과 기저장된 모델을 비교하여, 오차를 보정하는 단계를 포함하고,
상기 분사하는 단계는
상기 저장된 원료를 분사하는 과정에서 상기 사출유닛의 분사 방향이 변경된 경우, 상기 변경된 분사 방향에 기반하여 상기 사출유닛의 분사 위치를 조정하는 단계; 및
상기 조정된 사출유닛의 분사 위치에서, 상기 변경된 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함하고,
상기 분사 위치를 조정하는 단계는,
상기 사출유닛을 지지하기 위해 상기 드론유닛에 설치된 결합부의 회전에 의해 발생되는 상기 목표 지점의 지면에 대한 상기 사출유닛의 분사위치의 오차를 줄일 수 있도록 상기 결합부가 회전시 상기 결합부를 상기 목표 지점의 지면에 대해 수직인 방향으로 이동시켜 상기 사출유닛의 분사위치를 조정하는,
드론형 3D 프린터의 제어 방법
A method of controlling a drone type 3D printer including a drone unit and an injection unit,
Moving the dron unit to a target point based on the received position information signals and the photographed image;
Adjusting at least one of an injection direction or an injection position of the injection unit to inject the stored raw material after the drone unit moves to the target point; And
And correcting an error by comparing an output formed by the injected raw material with a pre-stored model when the raw material is injected,
The step of spraying
Adjusting the injection position of the injection unit based on the changed injection direction when the injection direction of the injection unit is changed in the process of injecting the stored raw material; And
Injecting the stored raw material toward the modified injection direction at an injection position of the adjusted injection unit,
Wherein the step of adjusting the injection position comprises:
Wherein when the coupling unit is rotated to reduce an error of the injection position of the injection unit with respect to the ground surface of the target point generated by rotation of the coupling unit provided on the drone unit to support the injection unit, And the injection position of the injection unit is adjusted by moving the injection unit in a direction perpendicular to the paper surface,
Control method of drones 3D printer
제13항에 있어서,
상기 목표 지점으로 이동시키는 단계는,
상기 촬영된 영상에서 마커를 추출하는 단계; 및
상기 드론유닛을 상기 추출된 마커의 위치인 제1 위치로 이동시키는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
14. The method of claim 13,
Wherein the step of moving to the target point comprises:
Extracting a marker from the photographed image; And
And moving the drones unit to a first position that is a position of the extracted marker.
A method of controlling a drone type 3D printer.
제14항에 있어서,
상기 제1 위치로 이동시키는 단계는,
상기 추출된 마커와 상기 드론유닛 간 제1 거리를 계산하는 단계; 및
상기 제1 거리에 기반하여, 상기 드론유닛을 상기 마커의 위치인 제1 위치로 이동시키는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
15. The method of claim 14,
Wherein the step of moving to the first position comprises:
Calculating a first distance between the extracted marker and the dron unit; And
Moving the drones unit to a first position, which is a position of the marker, based on the first distance;
A method of controlling a drone type 3D printer.
제15항에 있어서,
상기 목표 지점으로 이동시키는 단계는,
상기 제1 위치에서 상기 위치 정보 신호들을 수신하는 단계; 및
상기 수신한 위치 정보 신호들에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 더 포함하는,
드론형 3D 프린터의 제어 방법.
16. The method of claim 15,
Wherein the step of moving to the target point comprises:
Receiving the position information signals at the first position; And
Further comprising moving the dron unit to a second position, the target position, based on the received position information signals.
A method of controlling a drone type 3D printer.
제16항에 있어서,
상기 제2 위치로 이동시키는 단계는,
상기 수신한 위치 정보 신호들에 기반하여, 상기 목표 지점과 상기 드론 유닛 간 제2 거리를 계산하는 단계; 및
상기 제2 거리에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
17. The method of claim 16,
Wherein the step of moving to the second position comprises:
Calculating a second distance between the target point and the dron unit based on the received position information signals; And
And moving the drones unit to a second position, the target point, based on the second distance.
A method of controlling a drone type 3D printer.
제13항에 있어서,
상기 분사하는 단계는,
상기 촬영된 영상에서 상기 목표 지점을 추출하여, 상기 목표 지점의 지면의 경사를 측정하는 단계;
상기 측정된 경사에 기반하여, 상기 목표 지점에서 상기 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정하는 단계; 및
상기 조정된 사출유닛의 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
14. The method of claim 13,
Wherein the step of injecting comprises:
Extracting the target point from the photographed image and measuring a slope of the ground of the target point;
Adjusting the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination; And
And injecting the stored raw material toward the injection direction of the adjusted injection unit.
A method of controlling a drone type 3D printer.
삭제delete 제13항에 있어서,
상기 분사 위치를 조정하는 단계는,
상기 사출유닛의 분사 방향이 변경될 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우,
상기 사출유닛의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정하는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
14. The method of claim 13,
Wherein the step of adjusting the injection position comprises:
When the rotation axis when the injection direction of the injection unit is changed is parallel or acute to the ground of the target point,
And adjusting the injection position of the injection unit by moving the position of the injection unit in a direction perpendicular to the plane of the target point.
A method of controlling a drone type 3D printer.
제13항에 있어서,
상기 오차를 보정하는 단계는,
상기 원료가 분사될 때, 상기 출력물의 영상을 촬영하는 단계;
상기 영상에서 출력물을 식별하여, 식별된 출력물과 상기 기저장된 모델을 비교하는 단계; 및
상기 비교의 결과로 오차가 측정된 경우, 상기 기저장된 모델에 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정하는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
14. The method of claim 13,
The step of correcting the error includes:
Capturing an image of the output when the raw material is injected;
Identifying an output from the image and comparing the identified output with the pre-stored model; And
And correcting the error by adjusting at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position so as to correspond to the pre-stored model when the error is measured as a result of the comparison.
A method of controlling a drone type 3D printer.
KR1020170146529A 2017-11-06 2017-11-06 Apparatus for 3d printer on drone and method for controlling there of KR102001143B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170146529A KR102001143B1 (en) 2017-11-06 2017-11-06 Apparatus for 3d printer on drone and method for controlling there of

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170146529A KR102001143B1 (en) 2017-11-06 2017-11-06 Apparatus for 3d printer on drone and method for controlling there of

Publications (2)

Publication Number Publication Date
KR20190051172A KR20190051172A (en) 2019-05-15
KR102001143B1 true KR102001143B1 (en) 2019-07-17

Family

ID=66579385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170146529A KR102001143B1 (en) 2017-11-06 2017-11-06 Apparatus for 3d printer on drone and method for controlling there of

Country Status (1)

Country Link
KR (1) KR102001143B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022317A1 (en) * 2021-08-18 2023-02-23 주식회사 아이지아이에스 System for providing panoramic image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104760280A (en) * 2014-12-24 2015-07-08 上海大学 Flying 3D printing robot
KR101754599B1 (en) * 2015-12-08 2017-07-07 가톨릭대학교 산학협력단 System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140059243A (en) 2011-08-29 2014-05-15 셰브런 유.에스.에이.인크. Attrition selective particles
US10252466B2 (en) * 2014-07-28 2019-04-09 Massachusetts Institute Of Technology Systems and methods of machine vision assisted additive fabrication
US9359074B2 (en) * 2014-09-08 2016-06-07 Qualcomm Incorporated Methods, systems and devices for delivery drone security
KR20160042724A (en) * 2014-10-11 2016-04-20 쓰리디토시스 주식회사 3d printing system using paper pipe block type structure and the method for paper pipe block 3d printing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104760280A (en) * 2014-12-24 2015-07-08 上海大学 Flying 3D printing robot
KR101754599B1 (en) * 2015-12-08 2017-07-07 가톨릭대학교 산학협력단 System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022317A1 (en) * 2021-08-18 2023-02-23 주식회사 아이지아이에스 System for providing panoramic image

Also Published As

Publication number Publication date
KR20190051172A (en) 2019-05-15

Similar Documents

Publication Publication Date Title
CN109753076B (en) Unmanned aerial vehicle visual tracking implementation method
JP6404770B2 (en) System for adjusting printer operation during 3D object printing using an optical sensor
EP2711895B1 (en) Calibration method and apparatus for in-vehicle camera
US9738032B2 (en) System for controlling operation of a printer during three-dimensional object printing with reference to a distance from the surface of object
CN100453966C (en) Spatial three-dimensional position attitude measurement method for video camera
US11906305B2 (en) Movable marking system, controlling method for movable marking apparatus, and computer readable recording medium
EP2527787A2 (en) Aerial photograph image pickup method and aerial photograph image pickup apparatus
EP3461954A1 (en) Pile head analysis system, pile head analysis method, and pile head analysis program
CN103075999B (en) Real-time multi-target position detection method and system based on image
CN109501241B (en) Stereoscopic vision monitoring high-intensity multidirectional FDM 3D printing method
CN205024576U (en) Self -walking -type building machine
KR102001143B1 (en) Apparatus for 3d printer on drone and method for controlling there of
TW201617202A (en) Three-dimensional printer with adjustment function and operation method thereof
CN115683062B (en) Territorial space planning detection analysis system
CN106646441A (en) Indoor mobile robot positioning system combining environment information and indoor mobile robot positioning method thereof
CN114667541A (en) Calibrating cameras on unmanned aerial vehicles using body joints
KR102152720B1 (en) Photographing apparatus and method for 3d modeling
CN108051821B (en) A kind of aircraft and modeling method for cave three-dimensional modeling
US20190035144A1 (en) Method for creating a 3d model of an object
CN110945510A (en) Method for spatial measurement by means of a measuring vehicle
CN107885220A (en) Unmanned plane can precisely landing system and its method of work on a kind of naval vessel
JP6770826B2 (en) Automatic collimation method and automatic collimation device for measuring the placement position of structures
KR102318841B1 (en) Movable Marking System, Controlling Method For Movable Marking Apparatus and Computer Readable Recording Medium
CN108733075A (en) Flight system and its flight control method of the continuous fixed point of unmanned plane around shooting
CN105323571A (en) Image phase correction method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant