KR102001143B1 - Apparatus for 3d printer on drone and method for controlling there of - Google Patents
Apparatus for 3d printer on drone and method for controlling there of Download PDFInfo
- Publication number
- KR102001143B1 KR102001143B1 KR1020170146529A KR20170146529A KR102001143B1 KR 102001143 B1 KR102001143 B1 KR 102001143B1 KR 1020170146529 A KR1020170146529 A KR 1020170146529A KR 20170146529 A KR20170146529 A KR 20170146529A KR 102001143 B1 KR102001143 B1 KR 102001143B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- injection
- target point
- drone
- drones
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/386—Data acquisition or data processing for additive manufacturing
- B29C64/393—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/20—Apparatus for additive manufacturing; Details thereof or accessories therefor
- B29C64/205—Means for applying layers
- B29C64/209—Heads; Nozzles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/20—Apparatus for additive manufacturing; Details thereof or accessories therefor
- B29C64/227—Driving means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/20—Apparatus for additive manufacturing; Details thereof or accessories therefor
- B29C64/227—Driving means
- B29C64/232—Driving means for motion along the axis orthogonal to the plane of a layer
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y30/00—Apparatus for additive manufacturing; Details thereof or accessories therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y40/00—Auxiliary operations or equipment, e.g. for material handling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
- B33Y50/02—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/16—Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
- B64D1/18—Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting by spraying, e.g. insecticides
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B64C2201/12—
Abstract
본 발명의 일 실시예에 따른 드론형 3D 프린터는 드론유닛 및 사출유닛을 포함하는 드론형 3D 프린터에 있어서, 외부로부터 위치 정보 신호들을 수신하는 수신부; 영상을 촬영하는 촬영부; 및 상기 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛의 이동, 상기 사출유닛의 분사 방향 및 분사 위치를 제어하는 제어부를 포함하는 드론유닛; 및 상기 드론유닛에 결합되어, 목표 지점에 저장된 원료를 분사하는 사출유닛을 포함한다.According to an aspect of the present invention, there is provided a drone type 3D printer including a drone unit and an injection unit, the drone type 3D printer comprising: a receiver for receiving position information signals from outside; A photographing unit for photographing an image; And a control unit for controlling the movement of the drone unit, the injection direction of the injection unit, and the injection position based on the position information signals and the photographed image. And an injection unit coupled to the dron unit for injecting a raw material stored at a target point.
Description
본 발명은 드론형 3D 프린터 및 이의 제어 방법에 관한 것으로, 상세하게는 드론유닛에 3D 프린팅이 가능한 사출유닛이 결합된 드론형 3D 프린터 및 이의 제어 방법에 관한 것이다.The present invention relates to a drone type 3D printer and a control method thereof, and more particularly to a drone type 3D printer having an injection unit capable of 3D printing on a drone unit and a control method thereof.
3D 프린터는 3차원으로 디자인된 디지털 도면 정보를 3D 프린터에 입력하여 입체적인 형태로 출력하는 기술이며, 기존 산업의 패러다임을 변화시켜 제조업 혁신 및 창조경제 신시장을 창출할 핵심기술로 평가되고 있다.The 3D printer is a technology that inputs 3D digital design information into a 3D printer and outputs it in a stereoscopic form. It is evaluated as a key technology for creating a new market for manufacturing innovation and creative economy by changing the paradigm of existing industry.
3D 프린팅은 소재형태(액체, 필라멘트, 분말, 시트 등)와 출력방식(압출, 소결, 경화, 분사 등)에 따라 크게 7가지 기술방식이 존재한다.There are seven major technologies for 3D printing, depending on the material type (liquid, filament, powder, sheet, etc.) and the output method (extrusion, sintering, curing, spraying, etc.).
3D 프린터는 자동차, 의료, 항공우주, 산업장비, 건축, 소비자 가전 등 광범위한 분야에서 활용되고 있으며, 3D 프린터의 시장은 앞으로도 더 커질 것으로 예상되고 있다.3D printers are being used in a wide range of applications including automotive, medical, aerospace, industrial equipment, construction, and consumer electronics, and the market for 3D printers is expected to grow in the future.
하지만, 종래의 3D 프린터는 프레임 내에 설치된 압축기가 제한된 작업 공간 내에서 이동하면서 용융된 필라멘트를 압출하여 제품을 성형해야 하는 구조이다.However, the conventional 3D printer is a structure in which a compressor installed in a frame is required to extrude melted filaments and mold a product while moving within a limited working space.
따라서, 작업공간의 크기에 따라 성형가능한 제품의 크기가 제한되고, 작업자가 접근하기 어려운 높은 장소나 재난 지역과 같은 경우, 3D 프린터의 설치가 어려우므로 3D 프린터를 이용한 성형작업을 수행할 수 있는 장소도 제한적이라는 문제점이 있다.Therefore, since the size of the moldable product is limited according to the size of the work space and it is difficult to install the 3D printer in the case of a high place or a disaster area where the worker can not access, Is also limited.
본 발명은 드론유닛에 3D 프린팅이 가능한 사출유닛을 결합하여 공간의 제약을 받지 않고 3D 프린팅이 가능하며, 드론유닛의 위치 및 사출유닛의 분사방향 및 사출유닛의 분사 위치를 정밀하게 제어하여, 보다 정확한 3D 프린팅을 수행할 수 있는 드론형 3D 프린터 및 이의 제어 방법에 관한 것이다.The present invention relates to a 3D printing machine capable of 3D printing without space limitation by combining an injection unit capable of 3D printing with a drone unit and precisely controlling the position of the drone unit, the injection direction of the injection unit and the injection position of the injection unit, To a drone type 3D printer capable of performing accurate 3D printing and a control method thereof.
본 발명의 일 실시예에 따른 드론형 3D 프린터는, 외부로부터 위치 정보 신호들을 수신하는 수신부; 영상을 촬영하는 촬영부; 및 상기 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛의 이동, 상기 사출유닛의 분사 방향 및 상기 사출유닛의 분사 위치를 제어하는 제어부를 포함하는 드론유닛; 및 상기 드론유닛에 결합되어, 목표 지점에 저장된 원료를 분사하는 사출유닛을 포함할 수 있다.According to an embodiment of the present invention, there is provided a drone type 3D printer including: a receiver for receiving position information signals from outside; A photographing unit for photographing an image; And a control unit for controlling the movement of the drone unit, the injection direction of the injection unit, and the injection position of the injection unit based on the position information signals and the photographed image. And an injection unit coupled to the dron unit for injecting a raw material stored at a target point.
상기 제어부는, 상기 촬영된 영상에서 마커를 검출하고, 상기 마커와 상기 드론유닛 간 거리를 계산하여, 상기 마커의 위치로 상기 드론유닛을 이동시킬 수 있다. The control unit may detect the marker in the photographed image, calculate the distance between the marker and the dron unit, and move the dron unit to the position of the marker.
상기 마커는, 상기 목표 지점의 주위에 표시되어, 상기 촬영된 영상을 통해 상기 제어부가 인식 가능한 이미지일 수 있다.The marker may be displayed around the target point and may be an image recognizable by the control unit through the photographed image.
상기 수신부는, 상기 마커의 위치에서 상기 위치 정보 신호들 수신할 수 있다.The receiving unit may receive the position information signals at a position of the marker.
상기 위지 정보 신호들은,상기 목표 지점 주위에 기설치된 신호 송신기들로부터 수신한 위치 정보 신호들일 수 있다. The ward information signals may be position information signals received from signal transmitters installed around the target point.
상기 제어부는, 상기 수신한 위치 정보 신호들에 기반하여 상기 목표 지점과 상기 드론 유닛 간 거리를 계산하여, 상기 드론유닛을 상기 목표 지점으로 이동시킬 수 있다.The control unit may calculate the distance between the target point and the drone unit based on the received position information signals, and move the drone unit to the target point.
상기 촬영부는, 상기 사출유닛이 원료를 분사할 때, 상기 분사된 원료로 형성되는 출력물의 영상을 촬영할 수 있다.When the injection unit injects the raw material, the photographing unit can photograph an image of the output formed by the injected raw material.
상기 제어부는, 상기 촬영된 영상에서 상기 출력물을 식별하고, 상기 식별된 출력물을 기저장된 모델과 비교하여, 상기 출력물과 기저장된 모델 간 오차를 측정할 수 있다.The control unit may identify the output from the photographed image, compare the identified output with a pre-stored model, and measure an error between the output and the pre-stored model.
상기 제어부는, 상기 오차가 측정된 경우, 상기 기저장된 모델과 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 상기 사출유닛의 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정할 수 있다.The control unit may correct at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position of the injection unit so as to correspond to the pre-stored model, when the error is measured .
상기 제어부는, 상기 드론유닛이 상기 목표 지점으로 이동한 경우, 상기 촬영된 영상에서 상기 목표 지점을 식별하여, 상기 목표 지점의 지면의 경사를 측정할 수 있다.The control unit may identify the target point on the photographed image and measure the slope of the ground surface of the target point when the drone unit has moved to the target point.
상기 제어부는, 상기 측정된 경사에 기반하여, 상기 목표 지점에서 상기 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정할 수 있다.The control unit may adjust the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination.
상기 제어부는, 상기 조정된 분사 방향을 향해 상기 원료를 분사하도록 상기 사출유닛을 제어할 수 있다.The control unit may control the injection unit to inject the raw material toward the adjusted injection direction.
상기 드론형 3D 프린터는, 상기 드론유닛의 하단에 구비되어, 상기 사출유닛이 결합되는 결합부를 더 포함할 수 있다.The drone type 3D printer may further include a coupling unit provided at a lower end of the drone unit and coupled to the injection unit.
상기 제어부는, 상기 결합부를 회전시킴으로써, 상기 사출유닛의 분사 방향을 조정할 수 있다.The control unit may adjust the injection direction of the injection unit by rotating the engagement unit.
상기 제어부는, 상기 결합부를 회전시킬 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 상기 결합부의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정할 수 있다.Wherein the controller moves the position of the engaging portion in a direction perpendicular to the paper surface of the target point when the rotation axis of the engaging portion is parallel to the paper surface of the target point or forms an acute angle, Can be adjusted.
본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법은, 수신한 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛을 목표 지점으로 이동시키는 단계; 상기 드론유닛이 상기 목표 지점으로 이동한 후, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 저장된 원료를 분사하는 단계; 및 상기 원료가 분사될 때, 상기 분사된 원료에 의해 형성되는 출력물과 기저장된 모델을 비교하여, 오차를 보정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a drone type 3D printer, the method comprising: moving the drones unit to a target point based on received position information signals and a photographed image; Adjusting at least one of an injection direction or an injection position of the injection unit to inject the stored raw material after the drone unit moves to the target point; And comparing the output formed by the injected raw material with the pre-stored model when the raw material is injected, thereby correcting the error.
상기 목표 지점으로 이동시키는 단계는, 상기 촬영된 영상에서 마커를 추출하는 단계; 및 상기 드론유닛을 상기 추출된 마커의 위치인 제1 위치로 이동시키는 단계를 포함할 수 있다.The step of moving to the target point may include: extracting a marker from the photographed image; And moving the drone unit to a first position, which is the position of the extracted marker.
상기 제1 위치로 이동시키는 단계는, 상기 추출된 마커와 상기 드론유닛 간 제1 거리를 계산하는 단계; 및 상기 제1 거리에 기반하여, 상기 드론유닛을 상기 마커의 위치인 제1 위치로 이동시키는 단계를 포함할 수 있다.Wherein the moving to the first position comprises: calculating a first distance between the extracted marker and the dron unit; And moving the drones unit to a first position, which is the position of the marker, based on the first distance.
상기 목표 지점으로 이동시키는 단계는, 상기 제1 위치에서 상기 위치 정보 신호들을 수신하는 단계; 및 상기 수신한 위치 정보 신호들에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 더 포함할 수 있다.Wherein the step of moving to the target point comprises: receiving the position information signals at the first position; And moving the drone unit to a second position that is the target point, based on the received position information signals.
상기 제2 위치로 이동시키는 단계는, 상기 수신한 위치 정보 신호들에 기반하여, 상기 목표 지점과 상기 드론 유닛 간 제2 거리를 계산하는 단계; 및 상기 제2 거리에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 포함할 수 있다.The step of moving to the second position may include calculating a second distance between the target point and the dron unit based on the received position information signals. And moving the drone unit to a second position, the target point, based on the second distance.
상기 분사하는 단계는, 상기 촬영된 영상에서 상기 목표 지점을 추출하여, 상기 목표 지점의 지면의 경사를 측정하는 단계; 상기 측정된 경사에 기반하여, 상기 목표 지점에서 상기 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정하는 단계; 및 상기 조정된 사출유닛의 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함할 수 있다.The step of injecting may include extracting the target point from the photographed image and measuring a slope of the ground of the target point; Adjusting the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination; And injecting the stored raw material toward the injection direction of the adjusted injection unit.
상기 분사하는 단계는, 상기 저장된 원료를 분사하는 과정에서 상기 사출유닛의 분사 방향이 변경된 경우, 상기 변경된 분사 방향에 기반하여 상기 사출유닛의 분사 위치를 조정하는 단계; 및 상기 조정된 사출유닛의 분사 위치에서, 상기 변경된 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함할 수 있다.Wherein the injecting step comprises the steps of: adjusting the injection position of the injection unit based on the changed injection direction when the injection direction of the injection unit is changed in the process of injecting the stored raw material; And injecting the stored raw material toward the modified injection direction at an injection position of the adjusted injection unit.
상기 분사 위치를 조정하는 단계는, 상기 사출유닛의 분사 방향이 변경될 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 상기 사출유닛의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정하는 단계를 포함할 수 있다.Wherein the step of adjusting the injection position includes a step of adjusting the position of the injection unit in a direction perpendicular to the paper surface of the target point when the rotation axis when the injection direction of the injection unit is changed is parallel or acute to the paper surface of the target point And adjusting the injection position of the injection unit by moving the injection unit.
상기 오차를 보정하는 단계는, 상기 원료가 분사될 때, 상기 출력물의 영상을 촬영하는 단계; 상기 영상에서 출력물을 식별하여, 식별된 출력물과 상기 기저장된 모델을 비교하는 단계; 및 상기 비교의 결과로 오차가 측정된 경우, 상기 기저장된 모델에 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정하는 단계를 포함할 수 있다.The step of correcting the error may include: photographing the output image when the raw material is injected; Identifying an output from the image and comparing the identified output with the pre-stored model; And correcting the error by adjusting at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position so as to correspond to the pre-stored model when the error is measured as a result of the comparison have.
본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 따르면, 공간적 제약을 받지 않고 3D 프린팅을 수행할 수 있는 효과가 있다.According to the drone type 3D printer and the control method thereof according to an embodiment of the present invention, 3D printing can be performed without being limited by the space.
또한, 위치 정보 신호들 및 촬영된 영상에 기반하여, 드론유닛의 위치 및 사출유닛의 위치와 분사 방향을 정밀하게 제어하여, 보다 정확한 3D 프린팅을 할 수 있는 효과가 있다.Further, based on the position information signals and the photographed image, the position of the drone unit, the position of the injection unit, and the injection direction are precisely controlled, thereby achieving more accurate 3D printing.
또한, 프린팅 과정에서 출력물의 영상을 촬영하고, 기저장된 모델과 비교함으로써 오차를 보정하여, 프린팅 과정에서 발생하는 오차를 최소화할 수 있는 효과가 있다.Also, there is an effect that an error occurring in the printing process can be minimized by correcting an error by taking an image of an output during a printing process and comparing it with a pre-stored model.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 블록도를 간략히 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 모식도를 간략히 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법의 순서도를 간략히 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사방향이 목표 지점을 향하도록 조정하는 예시를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 3D 프린팅 과정에서 출력물과 기저장된 모델을 비교하여 오차를 보정하는 예시를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사 위치를 조정하는 예시를 도시한 도면이다.The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the technical features of the invention.
1 is a block diagram of a drone type 3D printer according to an embodiment of the present invention.
FIG. 2 is a schematic diagram illustrating a drone type 3D printer according to an embodiment of the present invention. Referring to FIG.
3 is a flowchart briefly showing a method of controlling a drone type 3D printer according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of adjusting the injection direction of the injection unit so as to face the target point in the drone type 3D printer and the control method thereof according to the embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of correcting an error by comparing an output and a pre-stored model in a 3D printing process in a drone type 3D printer and a control method thereof according to an embodiment of the present invention.
6 is a diagram illustrating an example of adjusting the injection position of the injection unit in the drone type 3D printer and the control method thereof according to an embodiment of the present invention.
본 명세서에서 제1 및/또는 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 즉, 구성요소들을 상기 용어들에 의해 한정하고자 함이 아니다.The terms first and / or second in this specification are used only for the purpose of distinguishing one element from another. That is, the components are not intended to be limited by the terms.
본 명세서에서 '포함하다' 라는 표현으로 언급되는 구성요소, 특징, 및 단계는 해당 구성요소, 특징 및 단계가 존재함을 의미하며, 하나 이상의 다른 구성요소, 특징, 단계 및 이와 동등한 것을 배제하고자 함이 아니다.The components, features, and steps referred to in the specification as " comprising " in this specification are intended to mean that there are corresponding components, features, and steps, and do not preclude the presence of one or more other components, features, steps, and the like Is not.
본 명세서에서 단수형으로 특정되어 언급되지 아니하는 한, 복수의 형태를 포함한다. 즉, 본 명세서에서 언급된 구성요소 등은 하나 이상의 다른 구성요소 등의 존재나 추가를 의미할 수 있다.Includes plural forms as long as it is not specified and specified in the singular form herein. That is, the components and the like referred to in this specification may mean the presence or addition of one or more other components or the like.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함하여, 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(통상의 기술자)에 의하여 일반적으로 이해되는 것과 동일한 의미이다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs to be.
즉, 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.That is, terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the related art, and unless otherwise expressly defined herein, interpreted in an ideal or overly formal sense It does not.
이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 대해 상세하게 설명한다.Hereinafter, a drone type 3D printer according to an embodiment of the present invention and a control method thereof will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 블록도를 간략히 도시한 도면이다.1 is a block diagram of a drone type 3D printer according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 모식도를 간략히 도시한 도면이다.FIG. 2 is a schematic diagram illustrating a drone type 3D printer according to an embodiment of the present invention. Referring to FIG.
구체적으로, 도 2a는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 정면도이고, 도 2b는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 측면도를 도시한 도면이다.2A is a front view of a drone type 3D printer according to an embodiment of the present invention, and FIG. 2B is a side view of a drone type 3D printer according to an embodiment of the present invention.
도 1 및 2를 참조하면, 본 발명의 일 실시예에 따른 드론형 3D 프린터는 드론유닛(100) 및 사출유닛(110)을 포함할 수 있다.Referring to FIGS. 1 and 2, a drone type 3D printer according to an embodiment of the present invention may include a
드론유닛(100)은 드론형 3D 프린터의 기체 부분에 해당하며, 촬영부(101), 수신부(103), 결합부(105), 제어부(107) 및 추진부(109)를 포함할 수 있다.The
촬영부(101)는 드론유닛(100)에 결합되어, 목표 지점, 마커 및 출력물의 영상을 촬영할 수 있다.The photographing
촬영부(101)는 사출유닛(110)보다 아래쪽에 위치하여, 촬영되는 영상에서 사출유닛(110)이 노출되지 않을 수 있다.The photographing
또한, 촬영부(101)는 드론유닛(100)의 이동 및 사출유닛(110)의 분사 방향 또는 분사 위치 조정에 영향을 받지 않기 위하여, 예컨대, 짐벌(Gimbal)과 같은 수평을 유지할 수 있고, 회전이 가능한 결합장치에 결합될 수 있다.The photographing
촬영부(101)는 결합부(105)의 회전 및 이동 범위 밖에 결합되어, 제어부(107)가 결합부(105)를 회전 또는 이동시켜 사출유닛(110)의 분사 방향 또는 분사 위치를 조정할 때 영향을 끼치지 않는다.When the
또한, 제어부(107)는 결합부(105)를 회전 또는 이동시켜 사출유닛(110)의 분사 방향 또는 분사 위치를 조정할 때, 사출유닛(110)을 통해 출력되는 출력물의 영상을 촬영하기 위하여, 결합부(105)의 회전 또는 이동과 대응되도록 촬영부(101)를 회전 또는 이동시킬 수 있다.The
마커는 목표 지점의 주위에 표시된 것으로서, 예컨대 QR code, Flash code, Bar code일 수 있으며, 마커에는 마커의 좌표에 대한 위치 정보가 포함될 수 있다.The marker may be a QR code, a Flash code, or a Bar code, which is displayed around the target point, and the marker may include positional information on the coordinates of the marker.
촬영부(101)가 마커의 영상을 촬영하면, 제어부(107)는 촬영된 영상에서 마커를 검출할 수 있다.When the photographing
제어부(107)는 검출된 마커를 통해 마커와 드론유닛(100) 간의 거리를 계산하여, 드론유닛(100)을 마커의 위치로 이동시킬 수 있다.The
예컨대, 촬영된 영상에서 드론유닛(100)으로부터 서쪽방향 10m 떨어진 거리에서 마커가 검출된 경우, 제어부(107)는 추진부(109)를 제어하여 드론유닛(100)을 서쪽방향으로 10m 이동시켜, 마커의 위치인 제1 지점으로 이동시킬 수 있다.For example, when a marker is detected at a distance of 10 m in the west direction from the
촬영부(101)는 드론유닛(100)이 목표 지점인 제2 지점에 위치했을 때, 목표 지점의 영상을 촬영할 수 있다. The photographing
목표 지점은 사출유닛(110)이 저장된 원료를 분사하는 프린팅 과정을 통해 결과물을 생성하기 위해 설정된 공정 지점이다. The target point is a processing point set for generating an output through a printing process in which the
제어부(107)는 촬영부(101)가 목표 지점을 촬영한 영상에서 목표 지점의 지면의 경사를 측정하여, 사출유닛(110)의 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.The
여기서, 목표 지점의 지면의 경사는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 간의 각도와 동일하므로, 제어부(107)는 목표 지점의 지면의 경사를 측정함으로써, 사출유닛(110)의 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.Here, the inclination of the ground surface of the target point is equal to the angle between the vertical axis of the
또한, 촬영부(101)는 프린팅 과정을 실시간으로 촬영할 수 있다.In addition, the photographing
제어부(107)는 촬영된 영상에서 출력물을 식별하고, 식별된 출력물을 기저장된 모델과 비교하여 오차가 측정된 경우, 기저장된 모델과 대응되도록 드론유닛(100)을 이동시키거나, 사출출유닛(110)의 분사 방향 또는 분사 위치를 조정함으로써, 출력물과 기저장된 모델 간의 오차를 보정할 수 있다.The
기저장된 모델은 캐드 도면 등 3D 프린팅을 수행하기 위한 도면에 포함된 결과물에 대한 모델일 수 있다.The pre-stored model may be a model for the result included in the drawing for performing 3D printing such as a CAD drawing.
예컨대, 제어부(107)는 프린팅 과정을 촬영한 영상에서 1초 마다 출력물을 식별하여, 기저장된 모델과 치수, 형태 등을 비교하여, 오차를 보정할 수 있다.For example, the
즉, 제어부(107)는 프린팅 과정을 촬영한 영상에서, 제어부(107)의 연산 속도 등을 고려하여 기설정된 주기마다 출력물을 식별하고, 기저장된 모델과 비교하여, 출력물과 기저장된 모델 간의 오차를 보정할 수 있다.That is, the
수신부(103)는 드론유닛(100)이 제1 위치에 있을 때, 유선 또는 무선 통신을 통해 목표 지점의 주위에 설치된 복수 개의 위치 정보 송신기들로부터 신호를 전송받을 수 있다.When the
수신부(103)에서 수신한 복수 개의 위치 정보 신호들에 기반하여, 제어부(107)는 위치 정보 송신기들과 드론유닛(100)의 상대적 거리를 계산함으로써, 드론유닛(100)의 위치를 측정하고, 목표 지점과 드론유닛(100) 간의 거리를 계산하여, 드론유닛(100)의 위치를 목표 지점인 제2 위치로 이동시키기 위하여 추진부(109)를 제어할 수 있다.The
예컨대, 복수 개의 비콘들이 목표 지점의 주위에 설치되어 비콘 신호들을 송신하면, 수신부(103)는 비콘 신호들을 수신하고, 제어부(107)는 수신한 비콘 신호들에 기반하여, 각 비콘과 드론유닛(100)의 상대적 거리를 계산함으로써, 드론유닛(100)의 현재 위치를 측정할 수 있다.For example, when a plurality of beacons are installed around the target point to transmit beacon signals, the receiving
그 후, 제어부(107)는 목표 지점과 드론유닛(100) 간의 거리를 측정하여, 드론유닛(100)을 목표 지점인 제2 위치로 이동시키기 위해 추진부(109)를 제어할 수 있다.Thereafter, the
결합부(105)는 드론유닛(100)의 하단부에 구비되어 드론유닛(100)과 사출유닛(200)이 결합되는 부분으로, 제어부(107)의 제어에 의하여 요(yaw), 롤(roll), 피치(pitch) 회전을 통해 사출 유닛을 x, y, z축으로의 이동시킬 수 있다.The
결합부(105)의 회전을 통해 사출유닛(110)의 분사 방향이 결정될 수 있고, 결합부(105)의 이동을 통해 사출유닛(110)의 분사 위치가 결정될 수 있으므로, 드론유닛(100)의 이동과 독립적으로 제어부(107)에 의해서 제어될 수 있다. The injection direction of the
예컨대, 제어부(107)는 드론유닛(100)이 제1 또는 제2 위치로 이동할 때는 결합부(105)를 회전시키지 않을 수 있고, 드론유닛(100)이 왼쪽으로 이동하더라도 결합부(105)를 왼쪽이 아닌 오른쪽으로 회전시킬 수 있다.For example, the
즉, 제어부(107)는 드론유닛(100)의 이동 방향과 무관하게 결합부(105)를 회전시키거나 이동시킴으로써, 사출유닛(110)의 원료 분사 방향 또는 분사 위치를 제어할 수 있다.That is, the
제어부(107)는 촬영부(101)에서 촬영된 영상에서 마커를 추출하여, 마커와 드론유닛(100) 간의 제1 거리를 계산하여, 드론유닛(100)이 마커의 위치인 제1 위치로 이동하게끔 추진부(109)를 제어할 수 있다.The
제어부(107)는 드론유닛(100)이 제1 위치에 위치하면, 수신부(103)에서 수신하는 복수 개의 위치 정보 신호들을 통해, 각 송신기와 드론유닛(100) 간 상대적인 거리를 계산하여, 드론유닛(100)의 현재 위치를 측정하고, 드론유닛(100)이 목표 지점인 제2 위치로 이동하게끔 추진부(109)를 제어할 수 있다.The
드론유닛(100)이 제2 위치에 있을 때, 촬영부(101)에서 촬영된 목표 지점의 영상에 기반하여, 제어부(107)는 사출유닛(110)의 원료 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.When the
즉, 목표 지점의 지면의 경사는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 간의 각도와 동일하므로, 제어부(107)는 목표 지점의 지면의 경사를 측정하고, 측정된 경사에 기반하여 결합부(105)를 회전시킴으로써 사출유닛(110)의 분사 방향이 목표 지점을 향하게 할 수 있다.That is, since the inclination of the ground surface of the target point is equal to the angle between the vertical axis of the
또한, 제어부(107)는 사출유닛(110)이 목표 지점에 저장된 원료를 분사하는 과정에서, 결합부(105)를 회전시켜 사출유닛(110)의 분사 방향이 변경된 경우, 결합부(105)를 회전시킬 때의 회전축에 따라 결합부(105)를 이동시킬 수 있다.When the injection direction of the
예컨대, 결합부(105)가 회전을 하면, 진자의 운동처럼 최저점과 양끝점의 높이가 달라서, 오차가 발생할 수 있다. For example, when the engaging
따라서, 제어부(107)는 결합부(105)를 회전시킬 때의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 결합부(105)가 회전한 정도에 따라 결합부(105)의 위치를 목표 지점의 지면과 수직인 방향으로 이동시켜, 사출유닛(110)의 분사 위치를 조정함으로써 오차를 줄일 수 있다.The
또한, 제어부(107)는 사출유닛(110)이 목표 지점에 저장된 원료를 분사하는 프린팅 과정에서, 촬영부(101)를 통해 실시간으로 촬영되는 영상을 분석하여 드론유닛(100)의 위치, 사출유닛(110)의 분사 방향 또는 사출유닛(110)의 분사 위치 중 적어도 하나를 조정하여 출력물과 기저장된 모델 간의 오차를 보정할 수 있다.The
촬영부(101)는 프린팅 과정에서 출력물에 대한 영상을 실시간으로 촬영하고, 제어부(107)는 기설정된 주기마다 영상을 분석하여 출력물을 식별할 수 있다. 그 후, 제어부(107)는 식별한 출력물을 기저장된 모델과 비교할 수 있다.The photographing
비교 결과, 출력물과 기저장된 모델 간 오차가 측정된 경우, 제어부(107)는 측정된 오차에 기반하여, 드론유닛(100)을 이동시키거나, 사출유닛(110)의 분사 방향을 조정하기 위하여 결합부(105)를 회전시키거나, 사출유닛(110)의 분사 위치를 조정하기 위하여 결합부(105)를 이동시킬 수 있다.When the error between the output product and the pre-stored model is measured as a result of the comparison, the
예컨대, 제어부(107)는 영상을 분석하여 식별한 추출물이 기저장된 모델에 대비하여 10mm 왼쪽에 형성되었다면, 드론유닛(100)을 10mm 오른쪽으로 이동시키거나, 결합부(105)를 오른쪽 10mm에 대응되는 각도만큼 회전시키는 동시에 결합부(105)의 위치를 이동시켜 사출유닛(100)의 분사 방향 및 분사 위치를 조정할 수 있다.For example, if the extracted extract analyzed by image analysis is formed on the left side by 10 mm with respect to the pre-stored model, the
즉, 제어부(107)는 촬영된 영상에서 마커를 검출하여, 마커의 위치인 제1 위치로 드론유닛(100)을 이동시키고, 위치 정보 신호들에 기반하여 목표 지점인 제2 위치로 드론유닛(100)을 재차 이동시킨다. That is, the
그 후, 프린팅 과정의 영상에서 출력물을 식별하여 기저장된 모델과 비교하고, 오차가 측정된 경우 드론유닛(100)의 위치, 사출유닛(110)의 분사 방향 또는 사출유닛(110)의 분사 위치를 조정함으로써, 출력물과 기저장된 모델 간의 오차를 보정하여, 보다 정밀하게 3D 프린팅을 제어할 수 있다.Then, when the error is measured, the position of the
예컨대, 영상을 통한 마커 추출 및 복수 개의 위치 정보 신호들에만 기반하여 드론유닛(100)의 위치를 제어할 경우, 기저장된 모델에 대하여 1cm 이상 10cm 이하의 오차 범위 내에서 제어가 가능하다. For example, when the position of the
하지만, 프린팅 과정에서 출력물과 기저장된 모델 간의 비교를 통해서, 기저장된 모델에 대하여 0.1mm 이상 10mm 이하의 오차 범위 내에서 정밀 제어가 가능하다.However, it is possible to precisely control the pre-stored model within a tolerance range of 0.1 mm or more and 10 mm or less, by comparing the output and pre-stored models during the printing process.
또한, 3D 프린팅 과정에서 드론유닛(100)은 정지 비행(Hovering) 상태이기 때문에, 바람 등의 영향을 받아 복수 개의 위치 정보 신호들로는 측정되지 않는 미세한 오차가 발생할 수 있다.Also, in the 3D printing process, since the
3D 프린팅은 2D 프린팅과 달리, 미세한 오차라도 출력물에 큰 영향을 미칠 수 있기 때문에, 위치 정보 신호들만을 통한 드론유닛(100)의 위치 측정은 출력물에 큰 영향을 미칠 수 있다.Since 3D printing, unlike 2D printing, can have a significant impact on the output even with small errors, the positioning of the
따라서, 프린팅 과정에서 출력물을 기저장된 모델과 실시간으로 비교하여, 위치 정보 신호들이 측정할 수 없는 미세한 오차들을 측정하고, 측정된 오차에 기반하여 드론유닛(100)의 위치, 사출유닛(110)의 분사 방향 또는 사출유닛(110)의 분사 위치를 실시간으로 조정함으로써, 최종적으로 생성된 결과물의 오차를 줄일 수 있다.Accordingly, in the printing process, the output is compared with the pre-stored model in real time, and fine errors that can not be measured by the position information signals are measured. Based on the measured error, the position of the
추진부(109)는 드론유닛(100)을 비행시킬 수 있는 프로펠러를 포함하며, 제어부(107)는 추진부(109)를 제어하여 제1 위치 또는 제2 위치로 드론유닛(100)을 이동시킬 수 있다.The
또한, 제어부(107)는 프린팅 과정에서 출력물과 기저장된 모델과 비교하여 오차가 측정된 경우, 추진부(109)를 제어하여 기저장된 모델과 대응되도록 드론유닛(100)를 이동시킬 수 있다.In addition, when the error is measured by comparing the output and the pre-stored model in the printing process, the
도 3은 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법의 순서도를 간략히 도시한 도면이다.3 is a flowchart briefly showing a method of controlling a drone type 3D printer according to an embodiment of the present invention.
구체적으로, 도 3a는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법의 전체 흐름에 대한 순서도를 간략히 도시한 도면이다.3A is a flowchart briefly showing an overall flow of a method of controlling a drone type 3D printer according to an embodiment of the present invention.
도 3b는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법에 있어서, 드론유닛의 위치를 이동시키는 단계의 순서도를 도시한 도면이다.FIG. 3B is a flowchart illustrating steps of moving a position of a drone unit in a method of controlling a drone type 3D printer according to an exemplary embodiment of the present invention. Referring to FIG.
도 3c는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법에 있어서, 원료를 분사하는 단계의 순서도를 도시한 도면이다.FIG. 3C is a flowchart illustrating a step of spraying a raw material in a method of controlling a drone type 3D printer according to an embodiment of the present invention.
도 3d는 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법에 있어서, 오차를 보정하는 단계의 순서도를 도시한 도면이다.FIG. 3D is a flowchart showing a step of correcting an error in a method of controlling a drone type 3D printer according to an embodiment of the present invention.
도 3a 내지 3d를 참조하면, 본 발명의 일 실시예에 따른 드론형 3D 프린터의 제어 방법은 이동시키는 단계(S101), 분사하는 단계(S103) 및 오차를 보정하는 단계(S105)를 포함할 수 있다.3A to 3D, a method of controlling a drone type 3D printer according to an embodiment of the present invention may include a step of moving (S101), a step of injecting (S103), and a step of correcting an error (S105) have.
이동시키는 단계(S101)는 드론유닛(100)을 제1 위치 및 제2 위치로 이동시키는 단계로서, 마커를 추출하는 단계(S201), 제1 위치로 이동시키는 단계(S203), 위치 정보 신호들을 수신하는 단계(S205) 및 제2 위치로 이동시키는 단계(S207)을 포함할 수 있다.The moving step S101 is a step of moving the
마커를 추출하는 단계(S201)는 제어부(107)가 촬영된 영상에서 마커를 추출하는 단계이다. 제어부(107)는 촬영된 영상에서 마커를 추출할 수 있다.The step of extracting the marker (S201) is a step of the
제1 위치로 이동시키는 단계(S203)는 제어부(107)에서 추출된 마커와 드론유닛(100) 간의 제1 거리를 계산한 후, 제1 거리에 기반하여 드론유닛(100)을 마커의 위치인 제1 위치로 이동시키는 단계이다.The step of moving the
제어부(107)는 영상에서 마커를 추출하고, 추출된 마커와 드론유닛(100) 간의 제1 거리를 측정할 수 있다.The
예컨대, 제어부(107)는 마커를 추출한 영상의 프레임의 픽셀 정보에 기반하여 마커와 드론유닛(100) 간의 거리를 측정하거나, 마커가 위치에 대한 좌표 정보를 포함하고 있으면 제어부(107)는 마커에 포함된 데이터를 인식하여 마커의 좌표 정보와 드론유닛(100)의 좌표 정보를 비교함으로써 거리를 측정할 수 있다.For example, the
제어부(107)는 측정된 마커와 드론유닛(100) 간의 제1 거리에 기반하여, 추진부(109)를 제어함으로써 드론유닛(100)을 마커의 위치인 제1 위치로 이동시킬 수 있다.The
위치 정보들을 수신하는 단계(S205)는 드론유닛(100)이 제1 위치에 있을 때, 목표 지점 주위에 설치된 복수 개의 위치 정보 송신기들로부터 위치 정보 신호를 수신하는 단계이다.The step S205 of receiving the position information is a step of receiving the position information signal from the plurality of position information transmitters provided around the target point when the
예컨대, 목표 지점 주위에 복수 개의 초음파 비콘(Ultra sonic beacon)들이 설치되고, 수신부(103)는 각 비콘으로부터 전송되는 비콘 신호들을 수신할 수 있다.For example, a plurality of ultrasonic beacons may be installed around the target point, and the receiving
제2 위치로 이동시키는 단계(S207)는 수신한 위치 정보 신호들에 기반하여, 목표 지점과 드론유닛(100) 간의 제2 거리를 계산하여, 드론유닛(100)을 목표 지점인 제2 위치로 이동시키는 단계이다.The step of moving to the second position (S207) calculates a second distance between the target point and the
제어부(107)는 수신부(103)가 수신한 복수개의 위치 정보 신호들에 기반하여, 각 위치 정보 송신기와 드론유닛(100) 간의 상대적인 거리를 측정함으로써 드론유닛(100)의 현재 위치를 측정하여, 목표 지점과 드론유닛(100) 간의 제2 거리를 측정할 수 있다.The
제어부(107)는 측정된 제2 거리에 기반하여, 추진부(109)를 제어함으로써 드론유닛(100)을 목표 지점인 제2 위치로 이동시킬 수 있다.The
분사하는 단계(S103)는 드론유닛(100)이 목표 지점인 제2 위치로 이동했을 때, 목표 지점을 향해 사출유닛(110)의 분사 방향을 조정하고, 저장된 원료를 분사하는 단계이다.The injecting step S103 is a step of adjusting the injection direction of the
분사하는 단계(S103)는 목표 지점의 지면의 경사를 측정하는 단계(S301), 사출유닛의 분사 방향을 조정하는 단계(S303), 사출유닛의 분사 위치를 조정하는 단계(S305) 및 저장된 원료를 분사하는 단계(S307)을 포함할 수 있다.The step of injecting S103 includes steps S301, S303, S305, S305, S305, S302, S304, S302, (S307). ≪ / RTI >
목표 지점의 지면의 경사를 측정하는 단계(S301)는 제어부(107)가 촬영부(101)를 통해 촬영된 영상에서 목표 지점을 추출하여, 목표 지점의 지면의 경사를 측정하는 단계이다.The step S301 of measuring the inclination of the ground of the target point is a step of the
촬영부(101)는 드론유닛(100)이 제2 위치에 위치했을 때, 목표 지점의 영상을 촬영할 수 있다. 제어부(107)는 촬영된 영상에서 목표 지점을 추출하여, 목표 지점의 지면의 경사를 측정할 수 있다. The photographing
드론유닛(100)의 수직축은 연직축과 일치하기 때문에, 목표 지점의 지면의 경사는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 사이의 각도와 동일하다.Since the vertical axis of the
따라서, 제어부(107)는 드론유닛(100)의 수직축과 목표 지점의 지면의 수직축 사이의 각도를 측정함으로써, 목표 지점의 지면의 경사를 측정할 수 있다.Therefore, the
사출유닛(110)의 분사 방향을 조정하는 단계(S303)는 측정된 목표 지점의 지면의 경사에 기반하여 사출유닛(110)의 분사 방향을 조정하는 단계이다.The step S303 of adjusting the injection direction of the
제어부(107)는 측정한 목표 지점의 지면의 경사에 기반하여, 사출유닛(110)의 분사 방향이 목표 지점을 향하도록 결합부(105)를 회전시킬 수 있다.The
예컨대, 측정된 경사가 동쪽으로 10°인 경우, 제어부(107)는 결합부(105)를 동쪽으로 10°만큼 회전시켜서, 목표 지점을 향하도록 사출유닛(110)의 분사 방향이 조정할 수 있다.For example, when the measured inclination is 10 degrees to the east, the
사출유닛의 분사 위치를 조정하는 단계(S305)는 결합부(105)를 회전시켜 조정된 사출유닛(110)의 분사 방향에 기반하여, 사출유닛(110)의 분사 위치를 조정하는 단계이다.The step S305 of adjusting the injection position of the injection unit is a step of adjusting the injection position of the
결합부(105)는 회전하기 때문에, 예컨대 진자 운동처럼 최저점과 양끝점의 높이가 달라서 출력 시, 오차가 발생할 수 있다. 따라서 제어부(107)는 결합부(105)를 회전시킬 때 결합부(105)의 위치를 이동시켜서 이러한 오차를 보정할 수 있다.Since the engaging
제어부(107)는 결합부(105)를 회전시킬 때의 회전축이 추출한 목표 지점의 지면과 평행하거나, 예각을 이루는 경우, 결합부(105)의 위치를 이동시킬 수 있다.The
예컨대, 목표 지점의 지면이 수평면상에 있고, 결합부(105)의 회전축이 목표 지점의 지면의 수직축과 일치하면, 사출유닛(110)과 목표 지점의 지면 간의 거리가 변하지 않으므로, 제어부(107)는 결합부(105)의 위치를 이동시키지 않는다.For example, if the ground surface of the target point is on a horizontal plane and the rotational axis of the engaging
반대로, 결합부(105)의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 결합부(105)의 회전에 따라 사출유닛(110)과 목표 지점의 지면 간의 거리가 변하므로, 제어부(107)는 결합부(105)를 목표 지점의 지면과 수직인 방향으로 이동시켜서, 사출유닛(110)과 목표 지점의 지면 간의 거리를 일정하게 유지할 수 있다.The distance between the
저장된 원료를 분사하는 단계(S307)는 사출유닛(110)의 분사 방향 또는 분사 위치 중 적어도 하나가 목표 지점에서 기저장된 모델에 대응되는 위치를 향하면, 제어부(107)는 저장된 원료를 분사하도록 사출유닛(110)을 제어할 수 있다.When at least one of the injection direction or the injection position of the
오차를 보정하는 단계(S105)는 프린팅 과정에서 사출유닛(110)을 통해 출력되는 출력물과 기저장된 모델을 비교하여 오차가 측정된 경우, 드론유닛(100)의 위치 또는 사출유닛(110)의 분사 방향 중 적어도 하나를 조정하여 오차를 보정하는 단계이다.The step of correcting the error (S105) compares the output outputted through the
오차를 보정하는 단계(S105)는 프린팅 과정에서 출력물의 영상을 촬영하는 단계(S401), 출력물과 기저장된 모델을 비교하는 단계(S403) 및 조정하는 단계(S405)를 포함할 수 있다.The step of correcting the error (S105) may include a step S401 of photographing the output in the printing process, a step S403 of comparing the output and the pre-stored model, and an adjusting step S405.
출력물의 영상을 촬영하는 단계(S401)는 촬영부(101)가 3D 프린팅 과정에서 사출유닛(110)이 원료를 분사하여 출력물이 형성되는 과정을 촬영하는 단계이다.A step S401 of photographing an output image is a step of photographing a process of forming an output by the
출력물과 기저장된 모델을 비교하는 단계(S403)는 3D 프린팅 과정에서 촬영된 영상에서 출력물을 식별하여, 식별된 출력물과 기저장된 모델을 비교하는 단계이다.In step S403, the output is compared with the pre-stored model, and the output is identified from the photographed image in the 3D printing process, and the identified output is compared with the pre-stored model.
제어부(107)는 3D 프린팅 과정을 촬영한 영상에서 출력물을 식별하고, 출력물과 기저장된 모델을 비교함으로써, 출력과정에서 발생하는 오차를 측정할 수 있다.The
예컨대, 제어부(107)는 1초 마다 촬영된 영상에서 출력물을 식별하고, 출력물과 기저장된 모델을 비교하여 오차를 측정할 수 있다.For example, the
조정하는 단계(S405)는 측정된 오차에 기반하여, 드론유닛 또는 사출유닛 중 적어도 하나를 조정하여 오차를 보정하는 단계이다.The adjusting step S405 is a step of adjusting at least one of the drones or the injection units to correct the error based on the measured error.
예컨대, 기저장된 모델에 대하여 왼쪽으로 1cm 치우쳐서 출력물이 출력되면, 측정된 오차인 1cm만큼 드론유닛(100)을 오른쪽으로 이동시키거나, 사출유닛(110)의 분사 방향 또는 분사 위치를 조정하여 오차를 보정할 수 있다.For example, when the output product is output with a 1 cm position to the left with respect to the pre-stored model, the
프린팅 과정에서 드론유닛(100)은 정지 비행 상태이므로, 위치 정보 신호들로 측정할 수 없는 오차가 발생할 수 있고, 프린팅 과정에서 이러한 오차들은 결과물에 큰 영향을 미칠 수 있다. Since the
따라서, 제어부(107)는 프린팅 과정에서 발생하는 오차를 측정하고, 드론유닛(100)을 이동시키거나 사출유닛(110)의 분사 방향 또는 분사 위치를 조정하여, 오차를 보정함으로써 보다 정밀하고 정확한 결과물을 생성할 수 있다.Therefore, the
예컨대, 위치 정보 신호들에 기반하여 3D 프린팅을 수행하면, 제어부(107)는 기저장된 모델에 대하여 1cm 이상 10cm 이하의 오차 범위 내에서 프린팅을 수행할 수 있다.For example, when 3D printing is performed based on the position information signals, the
하지만, 3D 프린팅에서는 이러한 오차 범위가 결과에 매우 큰 영향을 미칠 수 있으므로, 오차를 보정하는 단계(S105)를 통해 제어부(107)는 프린팅 과정에서 발생하는 오차를 즉시 보정함으로써, 기저장된 모델에 대하여 0.1mm 이상 10mm 이하의 오차 범위 내에서 프린팅을 수행할 수 있다.However, in the 3D printing, such an error range can greatly affect the result. Therefore, the
도 4는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사방향이 목표 지점을 향하도록 조정하는 예시를 도시한 도면이다.FIG. 4 is a diagram illustrating an example of adjusting the injection direction of the injection unit so as to face the target point in the drone type 3D printer and the control method thereof according to the embodiment of the present invention.
도 4를 참조하면, 드론유닛(100)의 수직축(209)은 연직축과 동일하기 때문에, 수평면(205)에 대한 목표 지점의 지면(203)의 경사(207)는 드론유닛(100)의 수직축(209)과 목표 지점의 지면(203)의 수직축(211)과 동일하다.4, since the
따라서, 제어부(107)는 목표 지점(201)을 촬영한 영상에서 수평면(205)에 대한 목표 지점의 지면(203)의 경사(207)를 측정하고, 측정된 경사(207)에 기반하여, 사출유닛(110)의 분사 방향이 목표 지점(201)을 향하도록 결합부(109)를 회전시킬 수 있다.Therefore, the
본 발명의 일 실시예에 따른 드론형 3D 프린터는 드론유닛(100)의 이동과 사출유닛(110)의 분사 방향을 독립적으로 제어할 수 있기 때문에, 목표 지점(201)이 수평면(205)상에 위치하지 않더라도 사출유닛(110)의 분사 방향을 제어하여 3D 프린팅을 수행할 수 있다.The drone type 3D printer according to the embodiment of the present invention can independently control the movement of the
또한, 프린팅 과정에서 출력되는 출력물의 오차가 실시간으로 보정되기 때문에, 보다 정밀하고 정확한 결과물을 생성할 수 있다.In addition, since the error of the output output in the printing process is corrected in real time, more accurate and precise results can be generated.
도 5는 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 3D 프린팅 과정에서 출력물과 기저장된 모델을 비교하여 오차를 보정하는 예시를 도시한 도면이다.FIG. 5 is a diagram illustrating an example of correcting an error by comparing an output and a pre-stored model in a 3D printing process in a drone type 3D printer and a control method thereof according to an embodiment of the present invention.
3D 프린팅 과정에서 출력물과 기저장된 모델을 비교하여 오차를 보정하는 예시에서, 도 5a는 목표 지점 및 드론형 3D 프린터를 도시한 도면이고, 도 5b는 목표 지점을 도시한 도면이다.5A is a diagram showing a target point and a drone type 3D printer, and FIG. 5B is a diagram showing a target point. In the example in which an error is corrected by comparing an output and a pre-stored model in a 3D printing process, FIG.
도 5를 참조하면, 제어부(107)는 프린팅 과정을 촬영한 영상에서 보정 전 출력물(303)을 식별하여, 기저장된 모델(301)과 보정 전 출력물(303)을 비교하여 오차를 측정할 수 있다.5, the
예시에서와 같이, 기저장된 모델(301)과 보정 전 출력물(303) 간의 오차가 측정되는 경우, 제어부(107)는 보정 위치(305)을 기준으로 출력물이 기저장된 모델(301)과 대응되도록 드론유닛(100)의 위치를 이동시킬 수 있다.When the error between the
여기서, 보정 위치(305)는 제어부(107)가 기설정된 주기마다 영상에서 출력물을 식별하여, 기저장된 모델(301)과 비교하는 어느 한 시점에서의 드론유닛(100)의 위치를 의미한다.Here, the
예컨대, 제어부(107)의 연산 속도 등을 고려하여 기설정된 주기가 1초로 설정되었다면, 제어부(107)는 1초 마다 영상에서 보정 전 출력물(303)을 식별할 수 있다.For example, if the preset period is set to 1 second in consideration of the operation speed of the
보정 위치(305) 이후, 드론 이동 방향에 따라 출력되는 보정 후 출력물(307)을 보면 기저장된 모델(307)과 대응되도록 출력되어, 오차가 점점 줄어드는 것을 알 수 있다.After the
3D 프린팅에서는 1cm 정도의 오차가 결과물에 큰 영향을 미치므로, 촬영부(103)는 프린팅 과정을 촬영하고, 제어부(107)는 기설정된 주기마다 영상에서 출력물을 식별하여 기저장된 모델(301)과 비교하여, 오차를 보정할 수 있다.In 3D printing, an error of about 1 cm has a great influence on the result, so that the photographing
본 예시에서는, 드론유닛(100)의 이동을 보정하여 기저장된 모델(301)에 대응되도록 보정 후 출력물(307)을 출력하였지만, 제어부(107)는 결합부(105)를 회전시키거나 이동시켜서 사출유닛(110)의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 보정 후 출력물(307)을 출력할 수도 있다.In this example, the
이와 같은 캘리브레이션(Calibration) 과정을 통해 제어부(107)는 기저장된 모델(301)에 대하여 1mm 이상 10mm 이하의 오차 범위 내에서 프린팅을 수행할 수 있으므로, 위치 정보 신호들에만 기반하여 프린팅을 수행할 때보다 보다 정밀한 제어가 가능하다.Through such a calibration process, the
도 6은 본 발명의 일 실시예에 따른 드론형 3D 프린터 및 이의 제어 방법에 있어서, 사출유닛의 분사 위치를 조정하는 예시를 도시한 도면이다.6 is a diagram illustrating an example of adjusting the injection position of the injection unit in the drone type 3D printer and the control method thereof according to an embodiment of the present invention.
도 6을 참조하면, 제어부(107)가 결합부(105)를 회전시켜 사출유닛(110)의 분사 방향(405)을 조정하면, 결합부(105)의 회전에 의하여 기저장된 모델(301)과 출력물(401) 간의 오차(403)가 생길 수 있다.6, when the
예컨대, 결합부(105)의 회전은 진자운동과 유사하여, 최저점과 양 끝점에서의 높이가 차이나기 때문에, 결합부(105)가 회전할 때의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우에 오차(403)가 생길 수 있다.For example, since the rotation of the
따라서, 결합부(105)의 회전축이 목표 지점의 지면과 평행하거나 예각을 이루는 경우, 결합부(105)의 위치를 목표 지점의 지면과 수직인 방향(407)으로 이동시켜 사출유닛(110)의 분사 위치를 조정함으로써, 오차(403)를 보정한 출력물(409)을 출력할 수 있다.When the rotation axis of the
본 예시에서는 목표 지점의 지면이 수평면상에 위치할 때를 나타냈지만, 목표 지점이 수평면에 대하여 경사진 지면에 위치한 경우에도, 제어부(107)는 결합부(105)의 위치를 경사진 목표 지점의 지면과 수직인 방향(407)으로 이동시켜서 오차(403)를 보정하여, 오차를 보정한 출력물(409)을 출력할 수 있다.In this example, the target position is shown on the horizontal plane. However, even when the target position is located on the inclined plane with respect to the horizontal plane, the
이렇듯, 제어부(107)는 결합부(105)의 회전에 의해 사출유닛(110)의 분사 방향(405)이 변경될 때, 결합부(105)를 목표 지점의 지면과 수직인 방향(407)으로 이동시킴으로써 사출유닛(110)의 분사 위치를 조정하여, 보다 정밀한 프린팅을 수행할 수 있다.When the
비록 본 명세서에서의 설명은 예시적인 몇 가지 양상으로 나타났지만, 다양한 수정이나 변경이 후술되는 특허청구범위에 의해 정의되는 범주로부터 이루어질 수 있으며, 본 발명의 기술적인 보호범위는 다음의 특허청구범위에 의하여 정해져야 할 것이다.Although the description herein has been made in some illustrative aspects, various modifications and variations can be made from the categories defined by the following claims, and the technical scope of the invention is defined in the following claims It should be decided by.
100 : 드론유닛
101 : 촬영부
103 : 수신부
105 : 결합부
107 : 제어부
109 : 추진부
110 : 사출유닛
201 : 목표 지점
203 : 목표 지점의 지면
205 : 수평면
207 : 목표 지점의 지면의 경사
209 : 드론유닛의 수직축
211 : 목표 지점의 지면의 수직축
301 : 기저장된 모델
303 : 보정 전 출력물
305 : 보정 위치
307 : 보정 후 출력물
401 : 출력물
403 : 오차
405 : 사출유닛의 분사 방향
407 : 목표 지점의 지면과 수직인 방향
409 : 오차를 보정한 출력물100: Drone unit
101:
103: Receiver
105:
107:
109: Propulsion unit
110: Injection unit
201: Target point
203: Ground of target point
205: Horizontal plane
207: Slope of the ground of the target point
209: Vertical axis of the drone unit
211: vertical axis of the ground of the target point
301: Pre-stored model
303: Output before correction
305: correction position
307: Output after correction
401: Output
403: Error
405: injection direction of the injection unit
407: direction perpendicular to the ground of the target point
409: Error corrected output
Claims (21)
외부로부터 위치 정보 신호들을 수신하는 수신부;
영상을 촬영하는 촬영부; 및
상기 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛의 이동, 상기 사출유닛의 분사 방향 및 상기 사출유닛의 분사 위치를 제어하는 제어부를 포함하는 드론유닛;
상기 드론유닛에 마련되어, 목표 지점에 저장된 원료를 분사하는 사출유닛; 및
상기 사출유닛을 지지할 수 있도록 상기 드론유닛에 설치되며, 상기 사출유닛의 분사 방향 또는 분사 위치가 변경되도록 상기 사출유닛이 이동될 수 있게 상기 제어부의 제어에 의해 회전하는 결합부;를 구비하고,
상기 제어부는 상기 결합부의 회전에 의해 발생되는 상기 목표 지점의 지면에 대한 상기 사출유닛의 분사위치의 오차를 줄일 수 있도록 상기 결합부가 회전시, 상기 결합부를 상기 목표 지점의 지면에 대해 수직인 방향으로 이동시키는,
드론형 3D 프린터.In a drone type 3D printer including a drone unit and an injection unit,
A receiving unit for receiving position information signals from outside;
A photographing unit for photographing an image; And
And a control unit for controlling the movement of the drone unit, the injection direction of the injection unit, and the injection position of the injection unit based on the position information signals and the photographed image.
An injection unit provided in the dron unit for injecting a raw material stored at a target point; And
And a coupling unit installed in the drone unit to support the injection unit and rotated by the control unit so that the injection unit can be moved so that the injection direction or the injection position of the injection unit is changed,
The control unit controls the coupling unit to rotate in a direction perpendicular to the ground surface of the target point so that the error of the injection position of the injection unit with respect to the ground surface of the target point generated by the rotation of the coupling unit can be reduced. Moving,
Drones 3D printers.
상기 제어부는,
상기 촬영된 영상에서 마커를 검출하고,
상기 마커와 상기 드론유닛 간 거리를 계산하여, 상기 마커의 위치로 상기 드론유닛을 이동시키며,
상기 마커는,
상기 목표 지점의 주위에 표시되어, 상기 촬영된 영상을 통해 상기 제어부가 인식 가능한 이미지인,
드론형 3D 프린터.The method according to claim 1,
Wherein,
Detecting a marker in the photographed image,
Calculating a distance between the marker and the drone unit, moving the drone unit to a position of the marker,
The marker
Wherein the control unit displays an image that is displayed around the target point,
Drones 3D printers.
상기 수신부는,
상기 마커의 위치에서 상기 위치 정보 신호들 수신하는,
드론형 3D 프린터.3. The method of claim 2,
The receiver may further comprise:
And receiving the position information signals at a position of the marker,
Drones 3D printers.
상기 위치 정보 신호들은,
상기 목표 지점 주위에 기설치된 신호 송신기들로부터 수신한 위치 정보 신호들이며,
상기 제어부는,
상기 수신한 위치 정보 신호들에 기반하여 상기 목표 지점과 상기 드론 유닛 간 거리를 계산하여, 상기 드론유닛을 상기 목표 지점으로 이동시키는,
드론형 3D 프린터.The method according to claim 1,
The position information signals,
And position information signals received from signal transmitters installed around the target point,
Wherein,
Calculating a distance between the target point and the dronon unit based on the received position information signals, and moving the dronon unit to the target point,
Drones 3D printers.
상기 촬영부는,
상기 사출유닛이 원료를 분사할 때, 상기 분사된 원료로 형성되는 출력물의 영상을 촬영하는,
드론형 3D 프린터.The method according to claim 1,
Wherein,
And an image of an output formed of the injected raw material is taken when the injection unit injects the raw material,
Drones 3D printers.
상기 제어부는,
상기 촬영된 영상에서 상기 출력물을 식별하고,
상기 식별된 출력물을 기저장된 모델과 비교하여, 상기 출력물과 기저장된 모델 간 오차를 측정하는,
드론형 3D 프린터.6. The method of claim 5,
Wherein,
Identifying the output from the photographed image,
Comparing the identified output with a pre-stored model, and measuring an error between the output and the pre-stored model,
Drones 3D printers.
상기 제어부는,
상기 오차가 측정된 경우, 상기 기저장된 모델과 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 상기 사출유닛의 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정하는,
드론형 3D 프린터.The method according to claim 6,
Wherein,
And correcting the error by adjusting at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position of the injection unit so as to correspond to the pre-stored model when the error is measured,
Drones 3D printers.
상기 제어부는,
상기 드론유닛이 상기 목표 지점으로 이동한 경우, 상기 촬영된 영상에서 상기 목표 지점을 식별하여, 상기 목표 지점의 지면의 경사를 측정하는,
드론형 3D 프린터.The method according to claim 1,
Wherein,
And when the drone unit moves to the target point, identifying the target point in the photographed image, and measuring a slope of the ground of the target point,
Drones 3D printers.
상기 제어부는,
상기 측정된 경사에 기반하여, 상기 목표 지점에서 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정하는,
드론형 3D 프린터.9. The method of claim 8,
Wherein,
And adjusting the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination,
Drones 3D printers.
상기 제어부는,
상기 조정된 분사 방향을 향해 상기 원료를 분사하도록 상기 사출유닛을 제어하는,
드론형 3D 프린터.
10. The method of claim 9,
Wherein,
And controls the injection unit to inject the raw material toward the adjusted injection direction.
Drones 3D printers.
상기 드론형 3D 프린터는,
상기 드론유닛의 하단에 구비되어, 상기 사출유닛이 결합되는 결합부를 더 포함하며,
상기 제어부는,
상기 결합부를 회전시킬 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우,
상기 결합부의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정하는,
드론형 3D 프린터.The method according to claim 1,
The above-mentioned drone type 3D printer,
And a coupling unit provided at a lower end of the drone unit and coupled to the injection unit,
Wherein,
When the rotation axis when rotating the engaging portion is parallel or acute to the ground of the target point,
And the injection position of the injection unit is adjusted by moving the position of the engagement portion in a direction perpendicular to the paper surface of the target point,
Drones 3D printers.
수신한 위치 정보 신호들 및 촬영된 영상에 기반하여, 상기 드론유닛을 목표 지점으로 이동시키는 단계;
상기 드론유닛이 상기 목표 지점으로 이동한 후, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 저장된 원료를 분사하는 단계; 및
상기 원료가 분사될 때, 상기 분사된 원료에 의해 형성되는 출력물과 기저장된 모델을 비교하여, 오차를 보정하는 단계를 포함하고,
상기 분사하는 단계는
상기 저장된 원료를 분사하는 과정에서 상기 사출유닛의 분사 방향이 변경된 경우, 상기 변경된 분사 방향에 기반하여 상기 사출유닛의 분사 위치를 조정하는 단계; 및
상기 조정된 사출유닛의 분사 위치에서, 상기 변경된 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함하고,
상기 분사 위치를 조정하는 단계는,
상기 사출유닛을 지지하기 위해 상기 드론유닛에 설치된 결합부의 회전에 의해 발생되는 상기 목표 지점의 지면에 대한 상기 사출유닛의 분사위치의 오차를 줄일 수 있도록 상기 결합부가 회전시 상기 결합부를 상기 목표 지점의 지면에 대해 수직인 방향으로 이동시켜 상기 사출유닛의 분사위치를 조정하는,
드론형 3D 프린터의 제어 방법
A method of controlling a drone type 3D printer including a drone unit and an injection unit,
Moving the dron unit to a target point based on the received position information signals and the photographed image;
Adjusting at least one of an injection direction or an injection position of the injection unit to inject the stored raw material after the drone unit moves to the target point; And
And correcting an error by comparing an output formed by the injected raw material with a pre-stored model when the raw material is injected,
The step of spraying
Adjusting the injection position of the injection unit based on the changed injection direction when the injection direction of the injection unit is changed in the process of injecting the stored raw material; And
Injecting the stored raw material toward the modified injection direction at an injection position of the adjusted injection unit,
Wherein the step of adjusting the injection position comprises:
Wherein when the coupling unit is rotated to reduce an error of the injection position of the injection unit with respect to the ground surface of the target point generated by rotation of the coupling unit provided on the drone unit to support the injection unit, And the injection position of the injection unit is adjusted by moving the injection unit in a direction perpendicular to the paper surface,
Control method of drones 3D printer
상기 목표 지점으로 이동시키는 단계는,
상기 촬영된 영상에서 마커를 추출하는 단계; 및
상기 드론유닛을 상기 추출된 마커의 위치인 제1 위치로 이동시키는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.14. The method of claim 13,
Wherein the step of moving to the target point comprises:
Extracting a marker from the photographed image; And
And moving the drones unit to a first position that is a position of the extracted marker.
A method of controlling a drone type 3D printer.
상기 제1 위치로 이동시키는 단계는,
상기 추출된 마커와 상기 드론유닛 간 제1 거리를 계산하는 단계; 및
상기 제1 거리에 기반하여, 상기 드론유닛을 상기 마커의 위치인 제1 위치로 이동시키는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.15. The method of claim 14,
Wherein the step of moving to the first position comprises:
Calculating a first distance between the extracted marker and the dron unit; And
Moving the drones unit to a first position, which is a position of the marker, based on the first distance;
A method of controlling a drone type 3D printer.
상기 목표 지점으로 이동시키는 단계는,
상기 제1 위치에서 상기 위치 정보 신호들을 수신하는 단계; 및
상기 수신한 위치 정보 신호들에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 더 포함하는,
드론형 3D 프린터의 제어 방법.16. The method of claim 15,
Wherein the step of moving to the target point comprises:
Receiving the position information signals at the first position; And
Further comprising moving the dron unit to a second position, the target position, based on the received position information signals.
A method of controlling a drone type 3D printer.
상기 제2 위치로 이동시키는 단계는,
상기 수신한 위치 정보 신호들에 기반하여, 상기 목표 지점과 상기 드론 유닛 간 제2 거리를 계산하는 단계; 및
상기 제2 거리에 기반하여, 상기 드론유닛을 상기 목표 지점인 제2 위치로 이동시키는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.17. The method of claim 16,
Wherein the step of moving to the second position comprises:
Calculating a second distance between the target point and the dron unit based on the received position information signals; And
And moving the drones unit to a second position, the target point, based on the second distance.
A method of controlling a drone type 3D printer.
상기 분사하는 단계는,
상기 촬영된 영상에서 상기 목표 지점을 추출하여, 상기 목표 지점의 지면의 경사를 측정하는 단계;
상기 측정된 경사에 기반하여, 상기 목표 지점에서 상기 기저장된 모델과 대응되는 위치를 향하도록 상기 사출유닛의 분사 방향을 조정하는 단계; 및
상기 조정된 사출유닛의 분사 방향을 향하여 상기 저장된 원료를 분사하는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.14. The method of claim 13,
Wherein the step of injecting comprises:
Extracting the target point from the photographed image and measuring a slope of the ground of the target point;
Adjusting the injection direction of the injection unit so as to face the position corresponding to the pre-stored model at the target point, based on the measured inclination; And
And injecting the stored raw material toward the injection direction of the adjusted injection unit.
A method of controlling a drone type 3D printer.
상기 분사 위치를 조정하는 단계는,
상기 사출유닛의 분사 방향이 변경될 때의 회전축이 상기 목표 지점의 지면과 평행하거나 예각을 이루는 경우,
상기 사출유닛의 위치를 상기 목표 지점의 지면과 수직인 방향으로 이동시킴으로써, 상기 사출유닛의 분사 위치를 조정하는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.14. The method of claim 13,
Wherein the step of adjusting the injection position comprises:
When the rotation axis when the injection direction of the injection unit is changed is parallel or acute to the ground of the target point,
And adjusting the injection position of the injection unit by moving the position of the injection unit in a direction perpendicular to the plane of the target point.
A method of controlling a drone type 3D printer.
상기 오차를 보정하는 단계는,
상기 원료가 분사될 때, 상기 출력물의 영상을 촬영하는 단계;
상기 영상에서 출력물을 식별하여, 식별된 출력물과 상기 기저장된 모델을 비교하는 단계; 및
상기 비교의 결과로 오차가 측정된 경우, 상기 기저장된 모델에 대응되도록 상기 드론유닛의 위치, 상기 사출유닛의 분사 방향 또는 분사 위치 중 적어도 하나를 조정하여 상기 오차를 보정하는 단계를 포함하는,
드론형 3D 프린터의 제어 방법.
14. The method of claim 13,
The step of correcting the error includes:
Capturing an image of the output when the raw material is injected;
Identifying an output from the image and comparing the identified output with the pre-stored model; And
And correcting the error by adjusting at least one of the position of the drone unit, the injection direction of the injection unit, or the injection position so as to correspond to the pre-stored model when the error is measured as a result of the comparison.
A method of controlling a drone type 3D printer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170146529A KR102001143B1 (en) | 2017-11-06 | 2017-11-06 | Apparatus for 3d printer on drone and method for controlling there of |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170146529A KR102001143B1 (en) | 2017-11-06 | 2017-11-06 | Apparatus for 3d printer on drone and method for controlling there of |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190051172A KR20190051172A (en) | 2019-05-15 |
KR102001143B1 true KR102001143B1 (en) | 2019-07-17 |
Family
ID=66579385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170146529A KR102001143B1 (en) | 2017-11-06 | 2017-11-06 | Apparatus for 3d printer on drone and method for controlling there of |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102001143B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023022317A1 (en) * | 2021-08-18 | 2023-02-23 | 주식회사 아이지아이에스 | System for providing panoramic image |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104760280A (en) * | 2014-12-24 | 2015-07-08 | 上海大学 | Flying 3D printing robot |
KR101754599B1 (en) * | 2015-12-08 | 2017-07-07 | 가톨릭대학교 산학협력단 | System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140059243A (en) | 2011-08-29 | 2014-05-15 | 셰브런 유.에스.에이.인크. | Attrition selective particles |
US10252466B2 (en) * | 2014-07-28 | 2019-04-09 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
US9359074B2 (en) * | 2014-09-08 | 2016-06-07 | Qualcomm Incorporated | Methods, systems and devices for delivery drone security |
KR20160042724A (en) * | 2014-10-11 | 2016-04-20 | 쓰리디토시스 주식회사 | 3d printing system using paper pipe block type structure and the method for paper pipe block 3d printing |
-
2017
- 2017-11-06 KR KR1020170146529A patent/KR102001143B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104760280A (en) * | 2014-12-24 | 2015-07-08 | 上海大学 | Flying 3D printing robot |
KR101754599B1 (en) * | 2015-12-08 | 2017-07-07 | 가톨릭대학교 산학협력단 | System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023022317A1 (en) * | 2021-08-18 | 2023-02-23 | 주식회사 아이지아이에스 | System for providing panoramic image |
Also Published As
Publication number | Publication date |
---|---|
KR20190051172A (en) | 2019-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109753076B (en) | Unmanned aerial vehicle visual tracking implementation method | |
JP6404770B2 (en) | System for adjusting printer operation during 3D object printing using an optical sensor | |
EP2711895B1 (en) | Calibration method and apparatus for in-vehicle camera | |
US9738032B2 (en) | System for controlling operation of a printer during three-dimensional object printing with reference to a distance from the surface of object | |
CN100453966C (en) | Spatial three-dimensional position attitude measurement method for video camera | |
US11906305B2 (en) | Movable marking system, controlling method for movable marking apparatus, and computer readable recording medium | |
EP2527787A2 (en) | Aerial photograph image pickup method and aerial photograph image pickup apparatus | |
EP3461954A1 (en) | Pile head analysis system, pile head analysis method, and pile head analysis program | |
CN103075999B (en) | Real-time multi-target position detection method and system based on image | |
CN109501241B (en) | Stereoscopic vision monitoring high-intensity multidirectional FDM 3D printing method | |
CN205024576U (en) | Self -walking -type building machine | |
KR102001143B1 (en) | Apparatus for 3d printer on drone and method for controlling there of | |
TW201617202A (en) | Three-dimensional printer with adjustment function and operation method thereof | |
CN115683062B (en) | Territorial space planning detection analysis system | |
CN106646441A (en) | Indoor mobile robot positioning system combining environment information and indoor mobile robot positioning method thereof | |
CN114667541A (en) | Calibrating cameras on unmanned aerial vehicles using body joints | |
KR102152720B1 (en) | Photographing apparatus and method for 3d modeling | |
CN108051821B (en) | A kind of aircraft and modeling method for cave three-dimensional modeling | |
US20190035144A1 (en) | Method for creating a 3d model of an object | |
CN110945510A (en) | Method for spatial measurement by means of a measuring vehicle | |
CN107885220A (en) | Unmanned plane can precisely landing system and its method of work on a kind of naval vessel | |
JP6770826B2 (en) | Automatic collimation method and automatic collimation device for measuring the placement position of structures | |
KR102318841B1 (en) | Movable Marking System, Controlling Method For Movable Marking Apparatus and Computer Readable Recording Medium | |
CN108733075A (en) | Flight system and its flight control method of the continuous fixed point of unmanned plane around shooting | |
CN105323571A (en) | Image phase correction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |