KR102075441B1 - Image processing system using drone - Google Patents

Image processing system using drone Download PDF

Info

Publication number
KR102075441B1
KR102075441B1 KR1020190131141A KR20190131141A KR102075441B1 KR 102075441 B1 KR102075441 B1 KR 102075441B1 KR 1020190131141 A KR1020190131141 A KR 1020190131141A KR 20190131141 A KR20190131141 A KR 20190131141A KR 102075441 B1 KR102075441 B1 KR 102075441B1
Authority
KR
South Korea
Prior art keywords
image
drone
buffer
camera
photographing
Prior art date
Application number
KR1020190131141A
Other languages
Korean (ko)
Inventor
김건
최정규
Original Assignee
주식회사 미래지중정보
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 미래지중정보 filed Critical 주식회사 미래지중정보
Priority to KR1020190131141A priority Critical patent/KR102075441B1/en
Application granted granted Critical
Publication of KR102075441B1 publication Critical patent/KR102075441B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C25/00Alighting gear
    • B64C25/32Alighting gear characterised by elements which contact the ground or similar surface 
    • B64C25/58Arrangements or adaptations of shock-absorbers or springs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/13Propulsion using external fans or propellers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2252
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C25/00Alighting gear
    • B64C25/32Alighting gear characterised by elements which contact the ground or similar surface 
    • B64C2025/325Alighting gear characterised by elements which contact the ground or similar surface  specially adapted for helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Remote Sensing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

The present invention relates to an image processing system. More particularly, the present invention relates to the image processing system capable of obtaining stereoscopic information of a geographical feature using a drone which can obtain a 360° video image of the geographical feature and obtain a stereoscopic video image through an image processing process. The image processing system comprises: a number of shooting drones which are spaced with a predetermined distance from a geographical feature, fly around the geographical feature, and acquire a video image; a wireless control device which controls operation of the shooting drones and receives and stores the video images captured by the shooting drones; and an image processing device which receives multiple video images and matches the same to be one stereoscopic video image.

Description

드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템{IMAGE PROCESSING SYSTEM USING DRONE}Image processing system that can acquire stereoscopic information of features using drones {IMAGE PROCESSING SYSTEM USING DRONE}

본 발명은 영상처리시스템에 관한 것으로, 보다 상세하게는 다수의 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에 관한 것이다.The present invention relates to an image processing system, and more particularly, to an image processing system capable of acquiring stereoscopic information of a feature using a plurality of drones.

정사영상은 중심투영인 항공사진을 편위수정하여 지도와 같이 정사투영의 형태로 보정함으로써 확보된다. 여기에서 편위수정은 카메라를 이용한 촬영시에 발생된 경사(기울기)와 축척(촬영배율) 등을 수정하는 작업이다.Ortho-images are secured by declination correction of aerial projections, which are the central projections, and corrected in the form of orthographic projections as maps. Here, the deviation correction is a task of correcting the tilt (tilt) and the scale (shooting magnification) generated when the camera is photographed.

이러한 정사영상은 정사항공투영으로 지상 이미지를 확보하고, 확보된 정사항공촬영 사진이미지에 수치표고모델(DEM)을 활용하여 오류 없는 정사영상을 추출하고, 다시 정사영상의 색상을 보정하며 집성하고 오류 보정과 최종 품질검사를 거쳐 정리하는 일련의 과정에 의하여 구축된다.These ortho images secure the ground image by corrected projection, extract the error-free orthoimage using the digital elevation model (DEM) on the acquired still-photographed photographic image, correct the color of the orthoimage, aggregate and errors It is constructed by a series of processes that are organized after calibration and final quality inspection.

영상이미지(정사영상이미지) 확보를 위한 정사항공투영은 항공기 노선에 의해 세로 방향으로 60% 이상 중복하는 동시에 가로 방향으로는 30% 이상을 중복하여 투영된 사진이미지를 확보한다. Correction projection for securing image image (ortho image) secures the projected photo image by overlapping more than 60% in the vertical direction by the aircraft route and at least 30% in the horizontal direction.

수치표고모델은 중심투영으로 항공투영된 사진이미지의 기하학적인 왜곡을 보정하기 위하여 정사영상 사진이미지 제작 과정에서 필수적으로 활용된다. 그리고 추출된 정사영상의 사진이미지는 색상, 명암 등을 보정하는 색상보정과정 및 낱장 단위의 영상이미지를 이웃한 영상이미지와 합성하는 영상집성과정을 거친다.The digital elevation model is essentially used in the process of producing orthoimages to correct the geometric distortion of the aerial images projected by the central projection. The photographic image of the extracted orthoimage is subjected to a color correction process for correcting color and contrast, and an image aggregation process for synthesizing a sheet image image with a neighboring image image.

정사항공투영으로 확보된 정사영상 이미지의 색상보정과 영상집성 등이 포함되는 영상처리를 통하여 최종적인 정사영상지도 이미지가 완성되고, 정사영상지도의 각 지점에 대응되는 지상 각 위치에서 정밀하게 측량된 좌표정보(위치정보)를 합성하는 것이 일반적이다.The final orthoimage map image is completed through image processing including color correction and image aggregation of the orthoimage image secured by the normal aerial projection, and precisely surveyed at each ground position corresponding to each point of the orthoimage map. It is common to synthesize coordinate information (positional information).

그런데, 항공기를 이용한 정사항공투영으로 확보되는 영상이미지는 연직 방향에서 촬영되므로 사용자는 지형지물의 평면만을 확인할 수밖에 없다. 그러나 대부분의 사용자는 지형지물의 모습을 실제로 본 경험이 없고, 단지 지형지물의 위치와 배치 구조 등에 대한 연상만으로 지형지물을 파악하여야 하므로 실제 지형에 적용하면서 이해하는데 어려움이 있다.However, since the image image secured by the airspace projection using the aircraft is taken in the vertical direction, the user has no choice but to check the plane of the feature. However, most users do not have the experience of actually seeing the features of the feature, and have to grasp the feature only by associating the feature of the feature and the location of the layout, so it is difficult to understand it while applying it to the actual feature.

특히, 관광 명소, 사찰, 탑, 지역의 랜드마크 건물 등 그 지역에서 특색있고 여러 사용자가 찾는 장소 및 건축물 등의 경우, 단순히 평면만을 확인할 수 있는 기존의 영상이미지는 지형지물의 특색을 나타내기에는 매우 부족한 것이 현실이다.In particular, in the case of tourist attractions, temples, towers, and landmark buildings in the area, and the places and buildings that many users are looking for, existing video images that can only be identified on the flat surface are very difficult to represent the features of the feature. What is lacking is the reality.

아울러, 항공기에서 연직방향으로 촬영되어 평면 모습만이 표시된 영상이미지는 지형지물의 높이가 모두 동일해 보이므로 해당 지역을 익숙하게 알고 있는 사용자도 실제 지형지물을 파악하는데 어려울 수 있다.In addition, since the height of the features are all the same as the image image taken only in the plane view in the vertical direction from the aircraft, even users familiar with the area may be difficult to identify the actual features.

위의 배경기술로서 설명된 사항들은 본 발명의 배경에 대해 이해 증진을 위한 것일 뿐, 이 기술분야에서 통상의 지식을 가진자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안 될 것이다.The matters described as the background art are only for the purpose of improving the understanding of the background of the present invention, and should not be taken as acknowledging that they correspond to the related art already known to those skilled in the art.

본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로서, 다수의 촬영드론을 이용하여 지형지물에 대한 360° 영상이미지를 획득하고 영상처리 과정을 통해 입체 영상이미지를 획득할 수 있는 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템을 제공하는데 그 목적이 있다.The present invention is to solve the above-mentioned problems of the prior art, by using a drone that can obtain a 360 ° image image of a feature using a plurality of shooting drones and obtain a stereoscopic image image through an image processing process Its purpose is to provide an image processing system capable of acquiring stereoscopic information of a feature.

또한, 본 발명은 촬영드론의 지상카메라를 원하는 시점에 외부로 노출시킬 수 있으며, 촬영드론이 안정적으로 지상에 안착할 수 있도록 한 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템을 제공하는데 또 다른 목적이 있다.In addition, the present invention provides an image processing system that can expose the ground camera of the shooting drone to the outside at a desired time point, and to obtain stereoscopic information of the feature using a drone that allows the shooting drone to rest on the ground stably. There is another purpose to provide.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved by the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description of the present invention. .

위와 같은 목적을 달성하기 위한 본 발명의 구성은, 지형지물로부터 미리 정해진 거리만큼 이격되어 지형지물을 중심으로 비행하며 영상이미지를 획득하는 다수의 촬영드론; 촬영드론의 운행을 제어하며 촬영드론이 촬영한 영상이미지를 수신·저장하는 무선조정장치; 및 다수의 영상이미지를 입력 받아 하나의 입체 영상이미지로 정합하는 영상처리장치; 를 포함하는 것을 특징으로 한다.The configuration of the present invention for achieving the above object, a plurality of shooting drones to be separated from the feature by a predetermined distance to fly around the feature to obtain a video image; A radio controller for controlling the operation of the photographing drone and receiving and storing a video image photographed by the photographing drone; And an image processing apparatus for receiving a plurality of image images and matching the same stereoscopic image images. Characterized in that it comprises a.

본 발명의 실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에서 상기 무선조정장치는, 촬영드론과 통신하여 비행을 위한 제어신호를 송출하고, 촬영드론으로부터 위치정보와 영상이미지를 수신하는 무선통신부; 수신된 영상이미지를 저장하는 저장부; 촬영드론의 위치정보에 대응하여 촬영드론의 현재 위치를 판단하고, 촬영드론의 비행 경로를 산출하는 비행제어부; 영상이미지를 표시하는 디스플레이부; 사용자의 조작에 대응하는 입력신호를 생성하는 조작부; 및 무선통신부 및 비행제어부를 제어하는 장치제어부; 를 포함하는 것이 바람직하다.In the image processing system capable of acquiring stereoscopic information of a feature using a drone according to an embodiment of the present invention, the radio controller transmits a control signal for flight by communicating with a photographing drone, A wireless communication unit for receiving an image image; A storage unit for storing the received image image; A flight control unit for determining a current position of the photographing drone in response to the location information of the photographing drone, and calculating a flight path of the photographing drone; A display unit displaying an image image; An operation unit generating an input signal corresponding to a user's operation; And a device controller for controlling the wireless communication unit and the flight control unit. It is preferable to include.

본 발명의 실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에서 상기 영상처리장치는, 다수의 촬영드론으로부터 촬영된 다수의 영상이미지를 전처리하는 전처리모듈; 전처리된 다수의 영상이미지에 각각 촬영 시점에 따라 라벨을 설정하는 라벨링모듈; 영상이미지에 등장하는 지형지물을 기준으로 하여 라벨링된 영상이미지들의 시점을 식별하고, 0° 부터 360°까지 각 시점에 대응하는 영상이미지를 분류하는 이미지분석모듈; 및 이미지분석모듈에 의해 판단된 영상이미지들을 정합하여 하나의 입체 영상이미지를 생성하는 이미지정합모듈; 을 포함하는 것이 바람직하다.In an image processing system capable of acquiring stereoscopic information of a feature using a drone according to an embodiment of the present invention, the image processing apparatus includes: a preprocessing module configured to preprocess a plurality of image images photographed from a plurality of photographing drones; A labeling module for setting a label in each of a plurality of pre-processed video images according to a photographing time point; An image analysis module for identifying the viewpoints of the labeled image images based on the feature appearing in the image image, and classifying the image image corresponding to each viewpoint from 0 ° to 360 °; And an image registration module for generating one stereoscopic image by matching the image images determined by the image analysis module. It is preferable to include.

본 발명의 실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에서 상기 촬영드론은, 드론본체의 측부로 연장되는 다수의 드론날개부의 단부에 각각 결합되는 다수의 프로펠러; 드론본체 하부에 결합되며 지형지물을 촬영하는 지상카메라가 내장된 드론카메라부; 및 드론날개부의 하부에 결합되며 촬영드론의 지상 안착시 충격을 완화하는 드론완충부; 를 포함하는 것이 바람직하다.In the image processing system capable of acquiring stereoscopic information of a feature using a drone according to an embodiment of the present invention, the photographing drone includes: a plurality of propellers respectively coupled to end portions of a plurality of drone wings extending to the side of the drone body; A drone camera unit coupled to the bottom of the drone body and having a ground camera for photographing a feature; And a drone buffer unit coupled to the lower portion of the drone wing to mitigate an impact when the ground drone is seated. It is preferable to include.

본 발명의 실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에서 상기 드론카메라부는, 드론본체 하부에 결합되며 내부가 비어있는 카메라케이스; 카메라케이스의 내부 일측에 결합되며 지상을 촬영하는 지상카메라; 카메라케이스의 내부 타측에 결합되며 상하로 이동 가능한 실린더; 및 카메라케이스의 내부에 카메라스프링을 매개로 결합되며 좌우로 이동 가능한 카메라개폐부; 를 포함하고, 상기 카메라케이스의 하부에는 지상카메라를 외부로 노출시키는 개방홀이 형성되고, 카메라개폐부에는 개방홀과 이격되어 있다가 카메라개폐부의 이동에 따라 선택적으로 개방홀과 포개어지는 개폐홀이 형성되며, 실린더의 측부에는 역삼각형 형태의 누름부가 형성되고, 카메라개폐부의 단부에는 누름부에 대응하여 삼각형 형태의 이동부가 형성되며, 실린더의 하단에는 초음파발사기가 결합되는 것이 바람직하다.In the image processing system capable of acquiring stereoscopic information of a feature using a drone according to an embodiment of the present invention, the drone camera unit is coupled to the bottom of the drone main body, the camera case is empty; A ground camera coupled to an inner side of the camera case and photographing the ground; A cylinder coupled to the other side of the camera case and movable up and down; And a camera opening / closing unit coupled to the inside of the camera case via a camera spring and movable left and right; It includes, the lower part of the camera case is formed with an opening opening for exposing the ground camera to the outside, the camera opening and closing portion is spaced apart from the opening opening and the opening and closing hole is selectively formed in accordance with the movement of the camera opening and closing portion In the side of the cylinder, an inverted triangular pressing part is formed, and at the end of the camera opening and closing part is formed a triangular moving part corresponding to the pressing part, the lower end of the cylinder is preferably coupled to the ultrasonic launcher.

본 발명의 실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에서 상기 드론완충부는, 드론날개부의 하부에 결합되며 나사산이 형성된 완충결합홀이 형성되는 완충지지부; 완충지지부의 하부에 결합되며 완충관통홀이 형성되는 직육면체 형태의 완충본체부; 완충본체부의 하부면을 덮을 수 있도록 결합되며 완충헤드홀이 형성되는 완충덮개부; 및 완충헤드홀 및 완충관통홀을 관통하여 완충결합홀에 체결되며 완충덮개부, 완충본체부 및 완충지지부를 하나로 이어주는 완충볼트; 를 포함하는 것이 바람직하다.In the image processing system capable of acquiring stereoscopic information of a feature using a drone according to an embodiment of the present invention, the drone buffer unit includes: a buffer support unit coupled to a lower portion of a drone wing and having a buffer coupling hole formed with a thread; A cushioning body portion coupled to a lower portion of the buffer support portion and having a rectangular parallelepiped shape in which a buffer through hole is formed; A buffer cover portion coupled to cover the lower surface of the buffer body portion and having a buffer head hole formed therein; And a buffer bolt that penetrates the buffer head hole and the buffer through hole, and is connected to the buffer coupling hole and connects the buffer cover part, the buffer body part, and the buffer support part into one. It is preferable to include.

본 발명의 실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템에서 상기 완충볼트는, 완충결합홀과 동일한 직경을 가지며 외주면에 나사산이 형성되는 볼트나사부; 완충관통홀과 동일한 직경을 가지며 외주면에 나사산이 형성되지 않는 볼트관통부; 및 완충헤드홀과 동일한 직경을 가지며 외주면에 나사산이 형성되지 않는 볼트헤드부; 를 포함하는 것이 바람직하다.In the image processing system capable of acquiring stereoscopic information of a feature using a drone according to an embodiment of the present invention, the buffer bolt includes a bolt screw portion having a diameter equal to that of the buffer coupling hole and a thread formed on an outer circumferential surface thereof; A bolt through portion having the same diameter as the buffer through hole and having no thread formed on its outer circumferential surface; And a bolt head portion having the same diameter as that of the buffer head hole and having no thread formed on the outer circumferential surface thereof. It is preferable to include.

위와 같은 구성을 가지는 본 발명은, 다수의 촬영드론을 이용하여 지형지물에 대한 360° 영상이미지를 획득할 수 있으며, 이를 영상처리장치를 통해 정합하여 입체 영상이미지를 생성할 수 있으므로 장소에 구애받지 않고 저비용으로 좋은 품질의 입체 영상이미지를 획득할 수 있다는 장점이 있다.The present invention having the configuration as described above, by using a plurality of shooting drones can obtain a 360 ° image image of the feature, can be matched through the image processing device to generate a three-dimensional image image regardless of location There is an advantage in that it is possible to obtain a high quality stereoscopic image image at low cost without.

아울러, 본 발명은 지상카메라가 원하는 시점에만 노출되므로 외부 이물질로부터 오염되는 것을 방지할 수 있으며, 드론완충부를 이용하여 촬영드론의 지상 안착시 충격을 완화하여 안정적으로 안착되도록 할 수 있다.In addition, the present invention can be prevented from being contaminated from external foreign matters because the ground camera is exposed only at the desired time point, it can be stabilized by relieving the impact when the ground drone of the shooting drone using the drone shock absorber.

도 1은 본 발명의 일실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템의 전체적인 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 무선조정장치의 각 구성을 도시한 블록도.
도 3은 본 발명의 일실시예에 따른 영상처리장치의 각 구성을 도시한 블록도.
도 4는 본 발명의 일실시예에 따른 영상처리장치의 영상 처리 방법을 도시한 순서도.
도 5는 본 발명의 일실시예에 따른 촬영드론의 전체적인 모습을 도시한 도면.
도 6은 본 발명의 일실시예에 따른 드론카메라부의 단면 모습을 도시한 도면.
도 7은 본 발명의 일실시예에 따른 드론완충부의 각 부품이 분해된 모습을 도시한 도면.
1 is a view showing the overall configuration of an image processing system that can obtain stereoscopic information of a feature using a drone according to an embodiment of the present invention.
Figure 2 is a block diagram showing each configuration of a radio control apparatus according to an embodiment of the present invention.
3 is a block diagram showing each configuration of an image processing apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating an image processing method of an image processing apparatus according to an embodiment of the present invention.
5 is a view showing the overall appearance of the shooting drone according to an embodiment of the present invention.
6 is a view showing a cross-sectional view of the drone camera unit according to an embodiment of the present invention.
Figure 7 is a view showing a disassembled state of each component of the drone buffer unit according to an embodiment of the present invention.

이하, 첨부된 도면에 의거하여 본 발명에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily practice the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly describe the present invention, parts irrelevant to the description are omitted, and like reference numerals designate like elements throughout the specification.

또한, 본 명세서 및 특허청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 안 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. In addition, the terms or words used in the specification and claims should not be construed as being limited to the common or dictionary meanings, and the inventors should properly explain the concept of terms in order to best explain their own inventions. It should be interpreted as meaning and concept corresponding to the technical idea of the present invention based on the principle that it can be defined.

도 1은 본 발명의 일실시예에 따른 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템의 전체적인 구성을 도시한 도면이다.1 is a view showing the overall configuration of an image processing system that can obtain stereoscopic information of a feature using a drone according to an embodiment of the present invention.

도시된 바와 같이, 본 발명의 일실시예에 따른 영상처리시스템은 무선조정장치(1000), 영상처리장치(2000) 및 다수의 촬영드론(3000)을 포함하여 이루어진다.As shown, the image processing system according to an embodiment of the present invention includes a radio control apparatus 1000, an image processing apparatus 2000, and a plurality of photographing drones 3000.

상기 무선조정장치(1000)는 사용자에 의해 조작되며, 하나 이상의 촬영드론(3000)을 제어할 수 있다. 무선조정장치(1000)는 촬영드론(3000)과 통신하여 그의 비행경로를 제어하게 되며, 촬영드론(3000)으로부터 건축물 등의 지형지물(A)을 촬영한 원 영상이미지를 수신하고, 이를 실시간으로 표시 및 탑재된 메모리 장치에 저장할 수 있다.The radio controller 1000 may be manipulated by a user and control one or more imaging drones 3000. The radio control apparatus 1000 communicates with the photographing drone 3000 to control its flight path, and receives the original image image photographing the feature A such as a building from the photographing drone 3000, and in real time. Can be stored on the displayed and mounted memory device.

또한, 촬영드론(3000)이 다수일 경우, 어느 하나의 촬영드론은 마스터로 설정될 수 있고, 나머지 타 촬영드론은 슬레이브로 설정될 수 있다. 무선조정장치(1000)는 각 촬영드론(3000)으로부터 그 위치정보를 수신하고, 마스터 촬영드론을 기준으로 하여 각 촬영드론 간 거리를 산출하고 그 거리가 일정간격이 유지되도록 하는 항로를 산출하여 각 촬영드론의 제어신호에 반영할 수 있다. 이에 따라, 무선조정장치(1000)는 하나의 마스터 장치의 비행을 제어함으로써 장치로 다수의 촬영드론(3000)을 제어할 수 있게 된다.In addition, when there are a plurality of photographing drones 3000, any one photographing drone may be set as a master, and the other photographing drones may be set as slaves. The radio control apparatus 1000 receives the location information from each of the photographing drones 3000, calculates a distance between the photographing drones based on the master photographing drone, and calculates a route for maintaining the distance between the photographing drones. It can be reflected in the control signal of the imaging drone. Accordingly, the radio control apparatus 1000 may control the plurality of photographing drones 3000 by the device by controlling the flight of one master device.

사용자는 자신이 입체영상을 생성하고자 하는 대상인 지형지물(A)에 대하여 그 주변으로 하나 이상의 촬영드론(3000)을 배치하고, 지형지물(A)을 중심으로 소정의 방향으로 회전 이동하여 일정한 높이마다 지형지물(A)에 대한 360° 영상이미지를 획득할 수 있다.The user places one or more photographing drones 3000 around the feature A, which is the object for which the user wants to create a stereoscopic image, and rotates the feature A around a feature A at a predetermined height. A 360 ° image of the feature A may be acquired.

촬영드론(3000)은 무선조정장치(1000)의 제어에 따라 해당하는 지형지물(A)을 촬영할 수 있다. 이러한 촬영드론(3000)은 무선통신수단, 비행수단 및 전원공급수단을 탑재할 수 있고, 특히 촬영수단을 탑재하고 있어 무선조정장치(1000)의 제어에 의해 비행 중 일정구역을 촬영하여 획득된 영상을 무선조정장치(1000)에 전송할 수 있다.The photographing drone 3000 may photograph the corresponding feature A under the control of the radio controller 1000. The photographing drone 3000 may be equipped with a wireless communication means, a flight means and a power supply means, and in particular, it is equipped with a photographing means, and the image obtained by photographing a certain area during the flight under the control of the radio controller 1000. It can be transmitted to the radio controller 1000.

또한, 촬영드론(3000)은 복수개가 구비될 수 있고, 지형지물을 중심으로 각 촬영드론(3000) 간 한 쌍이 대향 하도록 비행함에 따라, 동일 지형지물에 대하여 한 쌍의 촬영드론(3000)이 서로 대한 시점에서 촬영하고, 시계방향 또는 반시계 방향으로 일정하게 회전하면 촬영함에 따라 대한 360° 영상을 획득하게 된다.In addition, a plurality of photographing drones 3000 may be provided, and as a pair of photographing drones 3000 are opposed to each other about a feature, a pair of photographing drones 3000 may correspond to the same feature. If you take a picture from a viewpoint, and rotate it clockwise or counterclockwise, you get a 360 ° image.

예컨대, 다수의 촬영드론(3000)은 4개로 구성되고, 제1드론이 지형지물에 대하여 0°에 위치한다고 하면, 제2드론은 90°에 위치하며, 제3드론은 180°, 제4드론은 270°에 대응하여 위치할 수 있다. 두 쌍의 촬영드론(3000)들은 하나의 군집을 이루며 동일 경로로 이동할 수 있고, 지형지물을 중심으로 하여 동일 거리에 배치되어 영상이미지를 획득할 수 있다.For example, if the plurality of photographing drones 3000 is composed of four, and the first drone is located at 0 ° with respect to the feature, the second drone is located at 90 °, and the third drone is 180 ° and the fourth drone. May be positioned corresponding to 270 °. The two pairs of photographing drones 3000 may move in the same path by forming a cluster, and may be disposed at the same distance around a feature to obtain an image image.

이러한 방식으로 획득된 영상이미지는 실시간으로 무선조정장치(1000)에 전송되어 저장될 수 있고, 저장된 영상이미지는 이후 영상처리장치(2000)를 통해 분석 및 정합되어 입체 영상이미지로 변환될 수 있다.The image image obtained in this manner may be transmitted and stored in real time to the radio controller 1000, and the stored image image may be analyzed and matched through the image processing apparatus 2000 and then converted into a stereoscopic image image.

도 2는 본 발명의 일실시예에 따른 무선조정장치의 각 구성을 도시한 블록도이다.2 is a block diagram showing each configuration of a radio controller according to an embodiment of the present invention.

도시된 바와 같이, 상기 무선조정장치(1000)는, 촬영드론(3000)과 정보통신망을 통해 통신하여 비행을 위한 제어신호를 송출하고, 촬영드론(3000)으로부터 위치정보 및 원 영상이미지를 수신하는 무선통신부(1100), 원 영상이미지을 저장하는 저장부(1200), 위치정보에 대응하여 촬영드론(3000)의 현재 위치를 판단하고, 촬영드론(3000)의 비행 경로를 산출하는 비행제어부(1300), 영상이미지를 표시하는 디스플레이부(1400), 사용자의 조작에 대응하는 입력신호를 생성하는 조작부(1500) 및 비행제어부(1300)를 통해 비행 경로에 따른 제어신호를 생성하고, 입력신호를 제어신호에 반영하는 장치제어부(1600)를 포함할 수 있다.As shown, the radio control apparatus 1000 transmits a control signal for flight by communicating with the photographing drone 3000 through an information communication network, and receives the location information and the original image image from the photographing drone 3000. The wireless communication unit 1100, the storage unit 1200 storing the original image image, the flight control unit 1300 for determining the current position of the shooting drone 3000 in response to the position information, and calculates the flight path of the shooting drone 3000 The control unit 1400 generates an input signal corresponding to a flight path through the display unit 1400 for displaying an image image, an operation unit 1500 for generating an input signal corresponding to a user's operation, and a flight control unit 1300, and converts the input signal into a control signal. It may include a device controller 1600 reflected in.

무선통신부(1100)는 정보통신망을 통해 촬영드론(3000)과 연결되어 제어를 위한 제어신호를 송출하고, 그로부터 획득된 지형지물에 대한 원 영상이미지를 수신할 수 있다.The wireless communication unit 1100 may be connected to the photographing drone 3000 through an information communication network to transmit a control signal for control, and receive an original image image of the feature obtained therefrom.

저장부(1200)는 무선통신부(1100)를 통해 수신한 원 영상이미지를 저장할 수 있다. 이러한 저장부(1200)에는 분할된 복수의 저장소가 정의되는 파일 시스템으로 초기화될 수 있고, 복수의 저장소에는 각각 복수의 촬영드론(3000)이 획득한 영상들이 각각 제1 내지 제4 영상으로 구분되어 저장될 수 있다.The storage unit 1200 may store the original image image received through the wireless communication unit 1100. The storage unit 1200 may be initialized with a file system in which a plurality of divided storages are defined, and the images acquired by the plurality of photographing drones 3000 are respectively divided into first to fourth images in the plurality of storages. Can be stored.

또한, 저장부(1200)는 무선조정장치(1000)의 구동을 위한 환경설정 값 등을 저장할 수 있다. 이러한 저장부(1200)는 플래시 메모리(flash memory)와 같이 무선조정장치(1000)로부터 탈착 가능한 메모리장치로 구현될 수 있다.In addition, the storage unit 1200 may store an environment setting value for driving the radio controller 1000. The storage unit 1200 may be implemented as a memory device detachable from the radio controller 1000 such as a flash memory.

비행제어부(1300)는 촬영드론(3000)으로부터 위치신호를 수신하여 현재 위치를 식별할 수 있고, 군집 비행으로 설정된 복수의 촬영드론(3000) 각각의 항로를 산출하고, 이에 대응하는 제어신호를 생성할 수 있다. The flight controller 1300 may receive a location signal from the photographing drone 3000 to identify a current location, calculate a route of each of the plurality of photographing drones 3000 set to a group flight, and generate a control signal corresponding thereto. can do.

이러한 기능을 구현하기 위해, 본 발명의 실시예에 따른 비행제어부(1300)는 각각의 촬영드론(3000)의 위치를 식별하는 위치식별모듈, 복수의 촬영드론(3000) 간 위치에 따라 일정 간격이 유지되는 군집항로를 산출하는 항로산출모듈 및 조작신호에 따라, 복수의 촬영드론(3000) 중, 어느 하나의 비행경로를 결정하고, 하나에 대한 비행경로에 따라 나머지 촬영드론(3000)의 비행경로를 산출하여 제어신호를 생성하는 항로결정모듈을 포함할 수 있다.In order to implement such a function, the flight control unit 1300 according to an embodiment of the present invention has a predetermined distance according to the position identification module for identifying the position of each photographing drone 3000 and a plurality of photographing drones 3000. According to the route calculation module and the operation signal for calculating the maintained cluster route, one of the plurality of photographing drones 3000 determines a flight path, and according to the flight path for one flight path of the remaining photographing drone 3000 It may include a route determination module for generating a control signal by calculating a.

디스플레이부(1400)는 촬영드론(3000)에 탑재된 지상카메라(3420)로부터 촬영되는 영상이미지를 실시간으로 표시할 수 있다. 사용자는 현재 자신이 조종하는 하나 이상의 촬영드론(3000)이 의도한 지형지물을 적절하게 촬영하고 있는지 확인할 수 있다. The display unit 1400 may display an image image captured by the ground camera 3420 mounted on the imaging drone 3000 in real time. The user may check whether the one or more photographing drones 3000 that he or she currently controls are properly photographing the intended feature.

조작부(1500)는 사용자의 조작에 따라 촬영드론(3000)의 비행과 지형지물 촬영을 제어하는 입력신호를 생성할 수 있다. 이러한 조작부(1500)는 소정의 방향 및 높이를 지정하는 하나 이상의 스틱 또는 버튼을 포함할 수 있고, 조작부(1500)에 의한 입력신호는 제어신호에 반영되게 된다. The manipulation unit 1500 may generate an input signal for controlling the flight of the photographing drone 3000 and the photographing of the feature according to a user's manipulation. The operation unit 1500 may include one or more sticks or buttons for designating a predetermined direction and height, and the input signal by the operation unit 1500 is reflected in the control signal.

장치제어부(1600)는 무선조정장치(1000)의 각 구성부를 제어하는 역할을 하는 것으로, 무선통신부(1100)에 의해 촬영드론(3000)과 통신이 가능하도록 제어할 수 있고, 사용자의 조작에 따른 입력신호를 제어신호에 반영하여 촬영드론(3000)을 사용자의 의도에 따라 해당 위치로 비행하도록 할 수 있다.The device controller 1600 controls each component of the radio controller 1000, and may control to communicate with the photographing drone 3000 by the wireless communication unit 1100. The input signal may be reflected in the control signal to allow the photographing drone 3000 to fly to a corresponding position according to a user's intention.

또한, 장치제어부(1600)는 비행제어부(1300)를 제어하여 군집 비행에 따른 항로를 산출하고, 이에 따른 제어신호를 생성하도록 제어할 수 있다. 이러한 장치제어부(1600)는 전술한 기능들이 프로그래밍된 MCU 등으로 구현될 수 있다.In addition, the device controller 1600 may control the flight controller 1300 to calculate a route according to a group flight, and generate a control signal accordingly. The device controller 1600 may be implemented as an MCU in which the above functions are programmed.

전술한 구조에 따라, 본 발명의 실시예에 따른 무선조정장치(1000)는, 하나 또는 둘 이상의 촬영드론(3000)에 대한 비행을 제어할 수 있고, 촬영드론(3000)이 복수개일 경우 군집 비행을 구현할 수 있으며, 각 촬영드론(3000)이 촬영한 지형지물에 대한 원 영상이미지를 수신 및 저장할 수 있다.According to the above-described structure, the radio control apparatus 1000 according to an embodiment of the present invention, can control the flight to one or more than one shooting drone 3000, when there are a plurality of shooting drones 3000, the group flight It may be implemented, and can receive and store the original image image of the feature taken by each shooting drone (3000).

도 3은 본 발명의 일실시예에 따른 영상처리장치의 각 구성을 도시한 블록도이다.3 is a block diagram showing each configuration of an image processing apparatus according to an embodiment of the present invention.

도시된 바와 같이, 상기 영상처리장치(2000)는 다수의 원 영상이미지를 전처리하는 전처리모듈(2100), 전처리된 복수의 영상이미지 각각에 촬영 시점에 따라 라벨을 설정하는 라벨링모듈(2200), 영상이미지 내 등장하는 지형지물을 기준으로 하여 라벨링된 영상이미지들의 시점을 식별하고, 0°부터 360°까지 각 시점에 대응하는 영상이미지를 분류하는 이미지분석모듈(2300) 및 각 시점별 영상이미지를 정합하여 하나의 입체 영상이미지를 생성하는 이미지정합모듈(2400)을 포함할 수 있다.As shown, the image processing apparatus 2000 includes a preprocessing module 2100 for preprocessing a plurality of original image images, a labeling module 2200 for setting a label in each of the preprocessed plurality of image images according to a photographing time point, and an image. Identifies the viewpoints of the labeled image images based on the feature appearing in the image, and matches the image analysis module 2300 and the image images for each viewpoint from 0 ° to 360 ° to classify the image images corresponding to each viewpoint. It may include an image registration module 2400 for generating one stereoscopic image.

전처리모듈(2100)은 다양한 포맷을 갖는 원 영상이미지들을 영상처리장치(2000)가 처리할 수 있는 형태로 변환할 수 있다. 이러한 전처리모듈(2100)은 원 영상이미지에 대하여 필터링에 의한 노이즈 제거 기능을 포함할 수 있다.The preprocessing module 2100 may convert original image images having various formats into a form that may be processed by the image processing apparatus 2000. The preprocessing module 2100 may include a noise removing function by filtering the original image image.

라벨링모듈(2200)은 복수의 촬영드론(3000)으로부터 각각 획득된 복수의 영상이미지들에 라벨을 설정할 수 있다. 이러한 라벨 과정은 이후 정합 과정에서 각 영상이미지들을 식별하는 데 이용될 수 있다. The labeling module 2200 may set a label on a plurality of image images respectively obtained from the plurality of photographing drones 3000. This labeling process can then be used to identify each image in the registration process.

이미지분석모듈(2300)은 각 영상이미지 내에 등장하는 지형지물의 형태에 따라 해당 영상이미지가 지형지물의 0°부터 360°까지 어느 시점에 대응하는지 분류할 수 있다.The image analysis module 2300 may classify which point the corresponding image image corresponds to from 0 ° to 360 ° of the feature according to the shape of the feature appearing in each image.

이미지정합모듈(2400)은 이미지분석모듈(2300)에 의해 판단된 영상이미지들을 정합하여 하나의 입체 영상이미지를 생성할 수 있다. 하나의 입체 영상이미지는 지형지물에 대한 모든 시점에 대한 영상이미지를 하나로 결합함으로써 생성될 수 있고, 이러한 입체 영상이미지는 사용자에 의해 재생될 수 있다.The image matching module 2400 may generate one stereoscopic image by matching the image images determined by the image analysis module 2300. One stereoscopic image may be generated by combining image images of all views of a feature into one, and such stereoscopic image may be reproduced by a user.

전술한 바와 같이, 본 발명의 실시예에 따른 영상처리시스템의 영상처리장치(2000)는 입력되는 하나 이상의 원 영상이미지를 분석 및 정합하여 하나의 입체 영상이미지를 생성할 수 있다.As described above, the image processing apparatus 2000 of the image processing system according to the exemplary embodiment of the present invention may generate one stereoscopic image by analyzing and matching one or more input original image images.

이하, 도면을 참조하여 본 발명의 실시예에 따른 영상처리시스템의 영상처리장치(2000)에 의한 영상 처리 방법을 설명한다. Hereinafter, an image processing method by an image processing apparatus 2000 of an image processing system according to an exemplary embodiment of the present invention will be described with reference to the drawings.

도 4는 본 발명의 일실시예에 따른 영상처리장치의 영상 처리 방법을 도시한 순서도이다. 이하의 설명에서는 별도의 기재가 없다 하더라도 각 단계별 실행주체는 전술한 영상처리장치(2000) 및 이의 구성부가 된다. 4 is a flowchart illustrating an image processing method of an image processing apparatus according to an embodiment of the present invention. In the following description, even if there is no separate description, the execution subject for each step is the above-described image processing apparatus 2000 and components thereof.

도시된 바와 같이, 본 발명에 따른 영상처리장치(2000)의 영상 처리 방법은, 다수의 촬영드론(3000)으로부터 획득된 지형지물에 대한 다수의 원 영상이미지를 입력 받는 단계(S100), 입력된 다수의 원 영상이미지들을 전처리하는 단계(S200), 전처리된 다수의 영상이미지 각각에 촬영시점에 따라 라벨을 설정하는 단계(S300), 원 영상이미지 내 등장하는 지형지물을 기준으로 하여 라벨링된 영상이미지의 시점을 식별하는 단계(S400), 지형지물에 대한 0°부터 360°까지 각 시점에 대응하는 영상이미지를 분류하는 단계(S500) 및 각 시점별 영상이미지들을 정합하여 하나의 입체 영상이미지를 생성하는 단계(S600)를 포함할 수 있다.As shown, the image processing method of the image processing apparatus 2000 according to the present invention, the step of receiving a plurality of original image images for the features obtained from the plurality of photographing drones (S100), Pre-processing a plurality of original image images (S200), setting a label according to a photographing time point in each of the preprocessed plurality of image images (S300), and labeling the image image based on a feature appearing in the original image image Identifying a viewpoint of the image (S400), classifying the image image corresponding to each viewpoint from 0 ° to 360 ° of the feature (S500), and matching the image images of each viewpoint to generate one stereoscopic image image It may include the step (S600).

다수의 원 영상이미지를 입력 받는 단계(S100)는 영상처리장치(2000)가 다수의 촬영드론(3000)에 의해 획득된 지형지물에 대한 원 영상이미지를 입력받는 단계이다. 이때, 원 영상이미지는 무선조정장치(1000)로부터 유, 무선망을 통해 수신하거나, 또는 메모리장치를 매개로 하여 입력될 수 있다.The step S100 of receiving a plurality of original image images is a step in which the image processing apparatus 2000 receives an original image image of a feature acquired by a plurality of photographing drones 3000. In this case, the original image image may be received from the radio controller 1000 through a wired or wireless network, or may be input through a memory device.

다수의 원 영상이미지들을 전처리하는 단계(S200)는 전처리모듈(2100)이 원 영상이미지에 대한 노이즈 제거 등의 영상 가공 과정을 진행하여 정합에 적합하도록 처리하는 단계이다.The preprocessing of the plurality of original image images (S200) is a step in which the preprocessing module 2100 performs an image processing process such as noise removal on the original image image to be suitable for matching.

영상이미지에 라벨을 설정하는 단계(S300)는 라벨링모듈(2200)이 전처리된 영상이미지들에 대하여 각각 식별을 위해 라벨을 설정하는 단계이다. The setting of the label on the image image (S300) is a step in which the labeling module 2200 sets a label for identification of each of the pre-processed image images.

영상이미지의 시점을 식별하는 단계(S400)는 이미지분석모듈(2300)이 각 영상이미지 내 등장하는 지형지물의 형태를 분석하여 이를 기준으로 하여 각 영상이미지들이 촬영된 시점을 식별하는 단계이다.Identifying the viewpoint of the image image (S400) is a step in which the image analysis module 2300 analyzes the shape of the feature appearing in each image image and identifies the viewpoint at which each image image is photographed based on this.

또한, 영상이미지를 분류하는 단계(S500)는 이미지분석모듈(2300)이 지형지물에 대한 0°부터 360°까지 식별된 시점에 따라 그에 해당하는 영상이미지를 분류하는 단계이다.In addition, the step of classifying the image image (S500) is the step of classifying the image image corresponding to the image analysis module 2300 according to the time point identified from 0 ° to 360 ° for the feature.

입체 영상이미지를 생성하는 단계(S600)는 이미지정합모듈(2400)이 S500 단계에서 분류된 영상이미지들을 시점에 따라 정합하여 하나의 입체 영상이미지를 생성하는 단계이다.The generating of the stereoscopic image image (S600) is a step in which the image matching module 2400 generates one stereoscopic image image by matching the image images classified in operation S500 according to a viewpoint.

도 5는 본 발명의 일실시예에 따른 촬영드론의 전체적인 모습을 도시한 도면이다.5 is a view showing the overall appearance of the shooting drone according to an embodiment of the present invention.

도시된 바와 같이, 촬영드론(3000)은 중앙에 배치되는 드론본체(3100), 드론본체의 측부로부터 연장되는 4개의 드론날개부(3200) 및 드론날개부 단부에 각각 결합되는 4개의 프로펠러(3300)를 기본적으로 포함한다.As shown, the photographing drone 3000 has a drone main body 3100 disposed in the center, four drone wings 3200 extending from the side of the drone main body, and four propellers 3300 coupled to the drone wing end, respectively. ) Is included by default.

상기 프로펠러(3300)가 작동함에 따라 촬영드론(3000)은 상승 또는 하강할 수 있으며, 원하는 지점으로 이동할 수 있다. 도시되어 있지는 않지만, 드론본체(3100)의 내부에는 제어부, 통신부 등이 내장되어 무선조정장치(1000)와 통신할 수 있으며, 적외선 또는 초음파 센서 등이 내장되어 지형지물, 타 드론 및 기타 주변의 장애물과의 거리를 감지하여 비행 경로를 산출할 수 있다. 적외선 센서는 군집 비행을 제어하는데에도 활용된다.As the propeller 3300 operates, the imaging drone 3000 may move up or down and move to a desired point. Although not shown, a drone main body 3100 may include a controller, a communication unit, and the like, which may communicate with the radio controller 1000, and an infrared or ultrasonic sensor may be embedded to prevent a feature, a tadron, and other obstacles around the drone. The flight path can be calculated by detecting the distance to the. Infrared sensors are also used to control crowded flights.

구체적으로 상기 프로펠러(3300)는 중앙에 배치되어 회전모터(미도시)와 연결되는 중앙부(3310) 및 중앙부의 외측을 감싸도록 결합되어 중앙부로부터 회전력을 전달받으며 외측에 회전날개(3330)가 결합되는 날개회전부(3320)를 포함한다.Specifically, the propeller 3300 is disposed in the center is coupled to surround the center portion 3310 and the outside of the central portion connected to the rotary motor (not shown) to receive a rotational force from the central portion and the rotary blade 3330 is coupled to the outside It includes a wing rotating part 3320.

상기 날개회전부(3320)는 링 형태로 형성되며, 날개회전부(3320)의 내측에는 다수의 'T'자형 멜팅부(3321)가 돌출 형성된다. 상기 중앙부(3310)에는 'T'자형 멜팅부(3321)가 삽입될 수 있도록 대응되는 형태로 홈이 형성되고, 이러한 홈에 멜팅부(3321)가 맞물림에 따라 회전모터의 회전력이 날개회전부(3320)로 전달된다.The blade rotation part 3320 is formed in a ring shape, a plurality of 'T'-shaped melting part 3321 is formed to protrude inside the blade rotation part 3320. The center portion 3310 has a groove formed in a corresponding shape so that the 'T'-shaped melting portion 3331 can be inserted therein. As the melting portion 3331 is engaged with the groove, the rotational force of the rotating motor is rotated by the blade rotation portion 3320. Is delivered.

이때, 상기 멜팅부(3321)는 중앙부(3310) 및 날개회전부(3320)보다 상대적으로 용융점이 낮은 소재로 이루어지는 것이 바람직하다. 즉, 프로펠러(3300)에 이물질이 끼여 프로펠러가 제대로 회전하지 못하고 과전류에 의해 열이 발생하는 경우, 용융점이 낮은 멜팅부(3321)가 먼저 녹아서 끊어짐에 따라 고가의 회전모터와 날개회전부(3320) 사이가 분리될 수 있다. In this case, the melting part 3321 may be formed of a material having a lower melting point than the center part 3310 and the wing rotation part 3320. That is, when foreign matter is stuck in the propeller 3300 and the propeller does not rotate properly and heat is generated due to overcurrent, the melting part 3321 having a low melting point is melted and broken between the expensive rotary motor and the blade rotating part 3320. Can be separated.

상기 멜팅부(3321)는 폴리프로필렌(Polypropylene) 소재로 이루어질 수 있고, 중앙부(3310) 및 날개회전부(3320)는 폴리아미드(Polyamide) 소재로 이루어질 수 있다. 폴리프로필렌 소재는 용융점이 약 160℃ 정도로 폴리아미드 소재에 비해 약 80℃ 정도 낮은 용융점을 가진다.The melting part 3321 may be made of a polypropylene material, and the center part 3310 and the wing rotating part 3320 may be made of a polyamide material. The polypropylene material has a melting point about 80 ° C. lower than that of the polyamide material.

이에 따라, 고가의 회전모터가 열에 의해 손상되지 않고 사용자는 날개회전부(3320) 부분과 회전날개(3330) 부분만 교체하여 다시 프로펠러(3300)를 재사용할 수 있게 된다.Accordingly, the expensive rotary motor is not damaged by heat, and the user can reuse the propeller 3300 again by replacing only the blade rotation part 3320 and the rotor blade 3330 part.

한편, 상기 드론본체(3100) 하부에는 드론카메라부(3400)가 결합되며, 드론날개부(3200)의 하부에는 드론완충부(3500)가 결합된다. 드론카메라부(3400)는 지상카메라(3420)가 내장되어 지상의 지형지물을 촬영하여 영상이미지를 획득하고, 드론완충부(3500)는 촬영드론(3000)의 지상 안착시 충격을 완화한다.On the other hand, the drone main body 3100 is coupled to the drone camera unit 3400, the lower portion of the drone wings 3200, the drone buffer unit 3500 is coupled. The drone camera unit 3400 has a built-in ground camera 3420 to capture a feature of the ground to obtain an image image, the drone buffer unit 3500 to mitigate the impact when the ground drone (3000).

도 6은 본 발명의 일실시예에 따른 드론카메라부의 단면 모습을 도시한 도면이다.6 is a view showing a cross-sectional view of the drone camera unit according to an embodiment of the present invention.

도시된 바와 같이, 상기 드론카메라부(3400)는 카메라케이스(3410), 지상카메라(3420), 실린더(3430) 및 카메라개폐부(3440)를 포함하여 이루어진다.As shown, the drone camera unit 3400 includes a camera case 3410, a ground camera 3420, a cylinder 3430, and a camera opening and closing unit 3440.

상기 카메라케이스(3410)는 드론본체(3100) 하부에 결합되며, 내부가 비어있는 원통형 또는 사각통형 등으로 이루어진다.The camera case 3410 is coupled to the bottom of the drone body 3100, and is made of a cylindrical or square cylinder shape and the like empty.

상기 지상카메라(3420)는 카메라케이스(3410)의 내부 일측에 결합되며, 지상을 향하도록 연직 방향으로 배치되어 지상의 지형지물을 촬영한다. 본 발명에서 지상카메라(3420)는 입체 영상을 획득하고자 하는 지형지물의 원 영상이미지를 획득하는데 활용된다.The ground camera 3420 is coupled to an inner side of the camera case 3410, and is disposed in a vertical direction to face the ground to photograph ground features of the ground. In the present invention, the ground camera 3420 is used to obtain the original image of the feature to obtain a three-dimensional image.

상기 실린더(3430)는 카메라케이스(3410)의 내부 타측에 결합되며, 상하로 이동 가능하다. 카메라케이스(3410)의 하부에는 초음파홀이 형성되고, 실린더(3430)의 하단에는 초음파발사기(3432)가 결합되어 있으므로 실린더(3430)가 하부로 이동되었을 때 초음파발사기(3432)가 카메라케이스(3410)의 외부로 노출될 수 있고, 실린더(3430)가 상부로 이동되었을 때 초음파발사기(3432)가 카메라케이스(3410)의 내부에 수납될 수 있다.The cylinder 3430 is coupled to the other side of the camera case 3410, and is movable up and down. An ultrasonic hole is formed in the lower portion of the camera case 3410, and an ultrasonic launcher 3432 is coupled to the lower end of the cylinder 3430, so that the ultrasonic launcher 3432 is moved to the camera case 3410 when the cylinder 3430 is moved downward. It may be exposed to the outside of the), and when the cylinder 3430 is moved upward, the ultrasonic launcher 3432 may be stored inside the camera case 3410.

상기 초음파발사기(3432)는 사람의 가청 주파수보다 상대적으로 높은 주파수를 발생시켜 촬영드론(3000) 주변으로 조류가 접근하는 것을 방지할 수 있으며, 이에 따라 지형지물이 정확하게 촬영되도록 할 수 있다.The ultrasonic launcher 3432 generates a frequency relatively higher than an audible frequency of a person, thereby preventing algae from approaching the photographing drone 3000, thereby allowing the feature to be accurately photographed.

상기 카메라개폐부(3440)는 카메라케이스(3410)의 내부에 카메라스프링(3441)을 매개로 좌우로 이동 가능하도록 결합된다. 카메라개폐부(3440)의 중앙 부분에는 개폐홀(3442)이 천공된다. The camera opening and closing part 3440 is coupled to the inside of the camera case 3410 so as to be movable from side to side through the camera spring 3401. The opening and closing hole 3442 is perforated in the central portion of the camera opening and closing portion 3440.

상기 카메라케이스(3410)의 하부에는 지상카메라(3420)의 위치에 대응하여 지상카메라(3420)를 외부로 노출시키는 개방홀(3411)이 형성되는데, 개폐홀(3442)은 카메라개폐부(3440)의 이동에 따라 개방홀(3411)로부터 이격되거나 포개어 겹쳐질 수 있다.An opening hole 3411 exposing the ground camera 3420 to the outside is formed at a lower portion of the camera case 3410 in response to the position of the ground camera 3420. In accordance with the movement may be spaced apart or overlapped from the opening (3411).

즉, 카메라개폐부(3440)가 카메라스프링(3441)의 탄성력에 의해 우측으로 이동되어 있을 때, 개폐홀(3442)은 개방홀(3411)로부터 우측으로 이격되어 있으며, 이에 따라 카메라개폐부(3440)가 개방홀(3411)을 덮어 지상카메라(3420)가 외부로 노출되지 않도록 한다.That is, when the camera opening / closing portion 3440 is moved to the right side by the elastic force of the camera spring 341, the opening / closing hole 3442 is spaced to the right from the opening hole 3411, and thus the camera opening / closing portion 3440 is Cover the opening hole 3411 so that the ground camera 3420 is not exposed to the outside.

카메라개폐부(3440)가 카메라스프링(3441)의 탄성력을 이겨내고 좌측으로 이동되면, 개폐홀(3442)은 개방홀(3411)과 겹쳐지도록 배치되고, 이에 따라 지상카메라(3420)가 개폐홀(3442) 및 개방홀(3411)을 통해 외부로 노출될 수 있다.When the camera opening / closing portion 3440 overcomes the elastic force of the camera spring 341 and moves to the left side, the opening / closing hole 3442 is disposed to overlap with the opening hole 3411, and thus the ground camera 3420 opens and closes the opening 3344. And it can be exposed to the outside through the opening hole (3411).

이때, 상기 실린더(3430)의 측부에는 역삼각형 형태의 누름부(3431)가 형성되고, 카메라개폐부(3440)의 우측 단부에는 누름부(3431)에 대응하여 삼각형 형태의 이동부(3443)가 형성된다.In this case, an inverted triangular pressing portion 3431 is formed at the side of the cylinder 3430, and a triangular moving portion 3443 is formed at the right end of the camera opening and closing portion 3440 corresponding to the pressing portion 3431. do.

상기 실린더(3430)가 하부로 이동됨에 따라 누름부(3431)가 이동부(3443)를 눌러서 이동부(3443)는 좌측으로 이동되고, 카메라개폐부(3440)는 카메라스프링(3441)의 탄성력을 이겨내고 좌측으로 이동할 수 있다.As the cylinder 3430 is moved downward, the pressing part 3431 presses the moving part 3443 to move the moving part 3443 to the left side, and the camera opening / closing part 3440 overcomes the elastic force of the camera spring 3431. You can move to the left.

실린더(3430)가 상부로 이동되면 누름부(3431)가 더 이상 이동부(3443)를 누르지 않게 되므로 카메라스프링(3441)의 탄성력에 의해 카메라개폐부(3440)는 우측으로 자연스럽게 이동하게 된다.When the cylinder 3430 is moved upward, the pressing part 3431 no longer presses the moving part 3443, so that the camera opening and closing part 3440 naturally moves to the right by the elastic force of the camera spring 341.

이와 같이, 본 발명은 사용자가 지상카메라(3420)의 노출을 원하는 시점에만 지상카메라가 노출되도록 할 수 있으므로 외부 이물질로부터 지상카메라가 노출되는 것을 방지할 수 있으며, 지상카메라의 수명을 더욱 늘릴 수 있다.As described above, the present invention may allow the ground camera to be exposed only when the user wants the ground camera 3420 to be exposed, thereby preventing the ground camera from being exposed to external foreign matters and further increasing the life of the ground camera. .

도 7은 본 발명의 일실시예에 따른 드론완충부의 각 부품이 분해된 모습을 도시한 도면이다.FIG. 7 is a view illustrating an exploded state of each component of the drone buffer unit according to the exemplary embodiment of the present invention.

도시된 바와 같이, 상기 드론완충부(3500)는 완충지지부(3510), 완충본체부(3520), 완충덮개부(3530) 및 완충볼트(3540)를 포함한다.As shown, the drone buffer unit 3500 includes a buffer support unit 3510, a buffer body unit 3520, a buffer cover unit 3530, and a buffer bolt 3540.

상기 완충지지부(3510)는 드론날개부(3200)의 하부에 수직방향으로 결합되며, 중앙에 완충결합홀(3511)이 형성된다. 완충결합홀(3511)의 내경에는 길이방향을 따라 다수의 나사산이 형성된다.The buffer support part 3510 is vertically coupled to the lower portion of the drone wing 3200, and a buffer coupling hole 3511 is formed at the center thereof. A plurality of threads are formed in the inner diameter of the buffer coupling hole 3511 along the longitudinal direction.

도시된 실시예에서 상기 완충지지부(3510)는 원통형으로 형성되어 있으나, 이에 한정되는 것은 아니고, 직육면체 등 다양한 형태로 형성될 수 있다. 완충지지부(3510)는 촬영드론(3000)이 지면에 내려앉았을 때, 드론카메라부(3400) 등의 부품이 지면에 닿지 않을 정도의 길이를 가진다.In the illustrated embodiment, the buffer support part 3510 is formed in a cylindrical shape, but is not limited thereto, and may be formed in various shapes such as a rectangular parallelepiped. The buffer support part 3510 has a length such that a component such as the drone camera part 3400 does not touch the ground when the photographing drone 3000 sits on the ground.

상기 완충본체부(3520)는 완충지지부(3510)의 하부에 결합되며, 중앙에 완충관통홀(3521)이 형성된다. 완충관통홀(3521)의 내경에는 나사산이 형성되지 않는다는 점에서 완충결합홀(3511)과 차이가 있다.The buffer body portion 3520 is coupled to the lower portion of the buffer support portion 3510, and a buffer through hole 3351 is formed at the center thereof. The inner diameter of the buffer through hole (3521) is different from the buffer coupling hole (3511) in that no thread is formed.

상기 완충본체부(3520)는 직육면체 형태로 형성되며, 탄성을 지니는 소재로 이루어져서 촬영드론(3000)의 착륙 또는 고장으로 인한 추락시 지면으로부터 촬영드론(3000)에 충격이나 진동이 가해지는 것을 방지한다.The buffer body part 3520 is formed in a rectangular parallelepiped shape and is made of a material having elasticity to prevent shock or vibration from being applied to the shooting drone 3000 from the ground when the landing drone of the shooting drone 3000 falls or falls. .

예컨대, 상기 완충본체부(3520)는 열가소성 엘라스토머(thermoplastic elastomer)로 이루어지는 것이 바람직하다. 열가소성 엘라스토머는 실온에서는 고무의 기능을 갖고 있지만 고온에서는 가소화되어 각종 성형 가공이 가능한 고분자 재료이다.For example, the buffer body part 3520 is preferably made of a thermoplastic elastomer. Thermoplastic elastomers have a function of rubber at room temperature but are plasticized at high temperatures to enable various molding processes.

상기 완충덮개부(3530)는 완충본체부(3520)의 하부면을 덮을 수 있도록 결합되며, 중앙에 완충헤드홀(3531)이 형성된다. 완충관통홀(3521)과 마찬가지로 완충헤드홀(3531)의 내경에는 나사산이 형성되지 않는다.The buffer cover part 3530 is coupled to cover the lower surface of the buffer body part 3520, and a buffer head hole 3531 is formed at the center thereof. Similar to the buffer through-hole 3351, no thread is formed in the inner diameter of the buffer head hole 3531.

상기 완충덮개부(3530)는 완충본체부(3520)의 하부면 형상에 대응하여 'ㄷ'자 형태의 단면을 가지도록 형성된다. 완충덮개부(3530)는 완충본체부(3520)가 외부와 접촉되어 쉽게 마모되는 것을 방지한다.The buffer cover portion 3530 is formed to have a cross-section of the 'c' shape corresponding to the shape of the lower surface of the buffer body portion 3520. The shock absorbing cover part 3530 prevents the shock absorbing body part 3520 from being easily contacted with the outside.

다시 말하면, 상기 완충덮개부(3530)는 완충본체부(3520)보다 상대적으로 높은 경도를 지니는 소재로 이루어진다. 완충덮개부(3530)는 높은 경도의 플라스틱 또는 금속 등 다양한 소재로 이루어질 수 있다.In other words, the buffer cover part 3530 is made of a material having a relatively higher hardness than the buffer body part 3520. The buffer cover part 3530 may be made of various materials such as plastic or metal of high hardness.

위에서 살펴본 것처럼 상기 완충본체부(3520)는 외부의 충격을 완충하는 기능을 수행하는데, 너무 높은 경도를 지니면 완충 기능을 거의 수행할 수 없고, 너무 낮은 경도를 지니면 지나치게 부드러워 쉽게 마모될 수 있다. 즉, 2가지 성능을 한꺼번에 만족시키기 매우 어렵다.As described above, the shock absorbing body part 3520 performs a function of buffering an external shock. If the hardness is too high, the shock absorbing body part 3520 may hardly perform the shock absorbing function. . That is, it is very difficult to satisfy both performances at once.

본 발명에서는 이러한 문제를 개선하여 완충본체부(3520)는 최대한 부드럽고 탄성이 있는 소재로 구성하여 완충 기능을 극대화시키고, 완충덮개부(3530)는 높은 경도의 소재로 구성하여 마모가 방지되도록 함으로써, 2가지 기능을 동시에 만족시킬 수 있다.In the present invention, by improving the problem, the buffer body part 3520 is made of a material that is as smooth and elastic as possible to maximize the cushioning function, and the buffer cover part 3530 is made of a material of high hardness to prevent wear, Both functions can be satisfied at the same time.

상기 완충볼트(3540)는 완충헤드홀(3531) 및 완충관통홀(3521)을 관통하여 완충결합홀(3511)에 체결되며 완충덮개부(3530), 완충본체부(3520) 및 완충지지부(3510)를 하나로 이어준다.The buffer bolt 3540 is fastened to the buffer coupling hole 3511 by passing through the buffer head hole 3531 and the buffer through hole 3531, and the buffer cover part 3530, the buffer body part 3520, and the buffer support part 3510. )) Into one.

구체적으로 상기 완충볼트(3540)는 완충결합홀(3511)과 동일한 직경을 가지며 외주면에 나사산이 형성되는 볼트나사부(3541), 완충관통홀(3521)과 동일한 직경을 가지며 외주면에 나사산이 형성되지 않는 볼트관통부(3542) 및 완충헤드홀(3531)과 동일한 직경을 가지며 외주면에 나사산이 형성되지 않는 볼트헤드부(3543)를 포함한다.Specifically, the buffer bolt 3540 has the same diameter as the buffer coupling hole (3511) and has the same diameter as the bolt screw portion (3541), the threaded through hole 3351, the thread is formed on the outer peripheral surface and the thread is not formed on the outer peripheral surface It includes a bolt head portion 3543 having the same diameter as the bolt through portion (3542) and the buffer head hole (3531), the thread is not formed on the outer peripheral surface.

상기 볼트관통부(3542)의 길이는 완충관통홀(3521)의 높이와 동일하게 형성되어 완충볼트(3540)에 의해 완충본체부(3520)가 압착되지 않고 경도를 유지할 수 있다. 또한, 볼트헤드부(3543)의 길이는 완충헤드홀(3531)의 높이와 동일하게 형성되어 볼트헤드부(3543)가 완충헤드홀(3531) 바깥으로 돌출되지 않는다.The length of the bolt through portion (3542) is formed to be the same as the height of the buffer through hole (3521) can maintain the hardness without the buffer body portion 3520 is pressed by the buffer bolt (3540). In addition, the length of the bolt head portion 3543 is the same as the height of the buffer head hole 3531, so that the bolt head portion 3543 does not protrude out of the buffer head hole 3531.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경할 수 있다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiment and the accompanying drawings, and it is common in the art that various substitutions, modifications, and changes can be made without departing from the technical spirit of the present invention. It will be apparent to those who have the knowledge of.

1000 : 무선조정장치 1100 : 무선통신부
1200 : 저장부 1300 : 비행제어부
1400 : 디스플레이부 1500 : 조작부
1600 : 장치제어부 2000 : 영상처리장치
2100 : 전처리모듈 2200 : 라벨링모듈
2300 : 이미지분석모듈 2400 : 이미지정합모듈
3000 : 촬영드론 3100 : 드론본체
3200 : 드론날개부 3300 : 프로펠러
3310 : 중앙부 3320 : 날개회전부
3321 : 멜팅부 3330 : 회전날개
3400 : 드론카메라부 3410 : 카메라케이스
3411 : 개방홀 3420 : 지상카메라
3430 : 실린더 3431 : 누름부
3432 : 초음파발사기 3440 : 카메라개폐부
3441 : 카메라스프링 3442 : 개폐홀
3443 : 이동부 3500 : 드론완충부
3510 : 완충지지부 3511 : 완충결합홀
3520 : 완충본체부 3521 : 완충관통홀
3530 : 완충덮개부 3531 : 완충헤드홀
3540 : 완충볼트 3541 : 볼트나사부
3542 : 볼트관통부 3543 : 볼트헤드부
1000: radio controller 1100: wireless communication unit
1200: storage unit 1300: flight control unit
1400: display unit 1500: operation unit
1600: device control unit 2000: image processing device
2100: pretreatment module 2200: labeling module
2300: image analysis module 2400: image registration module
3000: Shooting Drone 3100: Drone Body
3200: Drone wing 3300: Propeller
3310: center part 3320: wing rotation part
3321: melting part 3330: rotary wing
3400: drone camera unit 3410: camera case
3411: open hole 3420: ground camera
3430 cylinder 3431 push part
3432: ultrasonic launcher 3440: camera opening and closing
3441: camera spring 3442: opening and closing hole
3443: moving unit 3500: drone buffer unit
3510: buffer support portion 3511: buffer coupling hole
3520: buffer body portion 3521: buffer through hole
3530: buffer cover 3531: buffer head hole
3540: buffer bolt 3541: bolt screw part
3542: bolt through part 3543: bolt head part

Claims (1)

지형지물로부터 미리 정해진 거리만큼 이격되어 지형지물을 중심으로 비행하며 영상이미지를 획득하는 다수의 촬영드론; 촬영드론의 운행을 제어하며 촬영드론이 촬영한 영상이미지를 수신·저장하는 무선조정장치; 및 다수의 영상이미지를 입력 받아 하나의 입체 영상이미지로 정합하는 영상처리장치; 를 포함하되,
상기 무선조정장치는,
촬영드론과 통신하여 비행을 위한 제어신호를 송출하고, 촬영드론으로부터 위치정보와 영상이미지를 수신하는 무선통신부; 수신된 영상이미지를 저장하는 저장부; 촬영드론의 위치정보에 대응하여 촬영드론의 현재 위치를 판단하고, 촬영드론의 비행 경로를 산출하는 비행제어부; 영상이미지를 표시하는 디스플레이부; 사용자의 조작에 대응하는 입력신호를 생성하는 조작부; 및 무선통신부 및 비행제어부를 제어하는 장치제어부; 를 포함하고,
상기 영상처리장치는,
다수의 촬영드론으로부터 촬영된 다수의 영상이미지를 전처리하는 전처리모듈; 전처리된 다수의 영상이미지에 각각 촬영 시점에 따라 라벨을 설정하는 라벨링모듈; 영상이미지에 등장하는 지형지물을 기준으로 하여 라벨링된 영상이미지들의 시점을 식별하고, 0° 부터 360°까지 각 시점에 대응하는 영상이미지를 분류하는 이미지분석모듈; 및 이미지분석모듈에 의해 판단된 영상이미지들을 정합하여 하나의 입체 영상이미지를 생성하는 이미지정합모듈; 을 포함하며,
상기 촬영드론은,
드론본체의 측부로 연장되는 다수의 드론날개부의 단부에 각각 결합되는 다수의 프로펠러; 드론본체 하부에 결합되며 지형지물을 촬영하는 지상카메라가 내장된 드론카메라부; 및 드론날개부의 하부에 결합되며 촬영드론의 지상 안착시 충격을 완화하는 드론완충부; 를 포함하며,
상기 드론카메라부는,
드론본체 하부에 결합되며 내부가 비어있는 카메라케이스; 카메라케이스의 내부 일측에 결합되며 지상을 촬영하는 지상카메라; 카메라케이스의 내부 타측에 결합되며 상하로 이동 가능한 실린더; 및 카메라케이스의 내부에 카메라스프링을 매개로 결합되며 좌우로 이동 가능한 카메라개폐부; 를 포함하고,
상기 카메라케이스의 하부에는 지상카메라를 외부로 노출시키는 개방홀이 형성되고, 카메라개폐부에는 개방홀과 이격되어 있다가 카메라개폐부의 이동에 따라 선택적으로 개방홀과 포개어지는 개폐홀이 형성되며, 실린더의 측부에는 역삼각형 형태의 누름부가 형성되고, 카메라개폐부의 단부에는 누름부에 대응하여 삼각형 형태의 이동부가 형성되며, 실린더의 하단에는 초음파발사기가 결합되고,
상기 드론완충부는,
드론날개부의 하부에 결합되며 나사산이 형성된 완충결합홀이 형성되는 완충지지부; 완충지지부의 하부에 결합되며 완충관통홀이 형성되는 직육면체 형태의 완충본체부; 완충본체부의 하부면을 덮을 수 있도록 결합되며 완충헤드홀이 형성되는 완충덮개부; 및 완충헤드홀 및 완충관통홀을 관통하여 완충결합홀에 체결되며 완충덮개부, 완충본체부 및 완충지지부를 하나로 이어주는 완충볼트; 를 포함하며,
상기 완충볼트는,
완충결합홀과 동일한 직경을 가지며 외주면에 나사산이 형성되는 볼트나사부; 완충관통홀과 동일한 직경을 가지며 외주면에 나사산이 형성되지 않는 볼트관통부; 및 완충헤드홀과 동일한 직경을 가지며 외주면에 나사산이 형성되지 않는 볼트헤드부; 를 포함하는 것을 특징으로 하는 드론을 이용하여 지형지물의 입체 정보를 획득할 수 있는 영상처리시스템.
A plurality of photographing drones spaced apart from the feature by a predetermined distance and flying around the feature to obtain a video image; A radio controller for controlling the operation of the photographing drone and receiving and storing a video image photographed by the photographing drone; And an image processing apparatus for receiving a plurality of image images and matching the same stereoscopic image images. Including but not limited to:
The radio control device,
A wireless communication unit which transmits a control signal for flight by communicating with a photographing drone, and receives position information and an image image from the photographing drone; A storage unit for storing the received image image; A flight control unit for determining a current position of the photographing drone in response to the location information of the photographing drone, and calculating a flight path of the photographing drone; A display unit displaying an image image; An operation unit generating an input signal corresponding to a user's operation; And a device controller for controlling the wireless communication unit and the flight control unit. Including,
The image processing apparatus,
A preprocessing module for preprocessing a plurality of image images photographed from a plurality of photographing drones; A labeling module for setting a label in each of a plurality of pre-processed video images according to a photographing time point; An image analysis module for identifying the viewpoints of the labeled image images based on the feature appearing in the image image, and classifying the image image corresponding to each viewpoint from 0 ° to 360 °; And an image registration module for generating one stereoscopic image by matching the image images determined by the image analysis module. Including;
The shooting drone,
A plurality of propellers each coupled to an end portion of the plurality of drone wings extending to the side of the drone body; A drone camera unit coupled to the bottom of the drone body and having a ground camera for photographing a feature; And a drone buffer unit coupled to the lower portion of the drone wing to mitigate an impact when the ground drone is seated. Including;
The drone camera unit,
A camera case coupled to the bottom of the drone body and having an empty interior; A ground camera coupled to an inner side of the camera case and photographing the ground; A cylinder coupled to the other side of the camera case and movable up and down; And a camera opening / closing unit coupled to the inside of the camera case via a camera spring and movable left and right; Including,
The lower part of the camera case is formed with an opening opening for exposing the ground camera to the outside, the camera opening and closing portion is spaced apart from the opening and the opening and closing hole is selectively formed in accordance with the movement of the camera opening and closing is formed, the cylinder The side portion is formed with an inverted triangular press portion, the end of the camera opening and closing portion is formed in a triangular shape corresponding to the pressing portion, the lower end of the cylinder is coupled to the ultrasonic launcher,
The drone buffer unit,
A buffer support portion coupled to a lower portion of the drone wing portion and having a threaded buffer coupling hole formed therein; A cushioning body portion coupled to a lower portion of the buffer support portion and having a rectangular parallelepiped shape in which a buffer through hole is formed; A buffer cover portion coupled to cover the lower surface of the buffer body portion and having a buffer head hole formed therein; And a buffer bolt that is fastened to the buffer coupling hole through the buffer head hole and the buffer through hole, and connects the buffer cover part, the buffer body part, and the buffer support part into one. Including;
The buffer bolt,
A bolt screw part having the same diameter as the buffer coupling hole and having a thread formed on an outer circumferential surface thereof; A bolt through portion having the same diameter as the buffer through hole and having no thread formed on its outer circumferential surface; And a bolt head portion having the same diameter as that of the buffer head hole and having no thread formed on the outer circumferential surface thereof. Image processing system capable of acquiring stereoscopic information of a feature using a drone characterized in that it comprises a.
KR1020190131141A 2019-10-22 2019-10-22 Image processing system using drone KR102075441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190131141A KR102075441B1 (en) 2019-10-22 2019-10-22 Image processing system using drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190131141A KR102075441B1 (en) 2019-10-22 2019-10-22 Image processing system using drone

Publications (1)

Publication Number Publication Date
KR102075441B1 true KR102075441B1 (en) 2020-02-11

Family

ID=69568927

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190131141A KR102075441B1 (en) 2019-10-22 2019-10-22 Image processing system using drone

Country Status (1)

Country Link
KR (1) KR102075441B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111688936A (en) * 2020-06-29 2020-09-22 成都柏阳林商贸有限公司 Community security protection unmanned aerial vehicle
KR102338779B1 (en) * 2021-05-20 2021-12-15 (주)미도지리정보 Spatial Image Renewal System
KR20210156506A (en) * 2020-06-18 2021-12-27 금오공과대학교 산학협력단 Multiple UAV control systems and control methods for ground control

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170138238A (en) * 2016-06-07 2017-12-15 에스아이에스 주식회사 Drone for Precasting Red Tied, System and Method for Precasting Red Tied Using Thereof
KR20190032667A (en) * 2017-09-18 2019-03-28 주식회사 이지스로직 Unmanned induction docking system for charging long distance drones

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170138238A (en) * 2016-06-07 2017-12-15 에스아이에스 주식회사 Drone for Precasting Red Tied, System and Method for Precasting Red Tied Using Thereof
KR20190032667A (en) * 2017-09-18 2019-03-28 주식회사 이지스로직 Unmanned induction docking system for charging long distance drones

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210156506A (en) * 2020-06-18 2021-12-27 금오공과대학교 산학협력단 Multiple UAV control systems and control methods for ground control
KR102425372B1 (en) 2020-06-18 2022-07-25 금오공과대학교 산학협력단 Multiple UAV control systems and control methods for ground control
CN111688936A (en) * 2020-06-29 2020-09-22 成都柏阳林商贸有限公司 Community security protection unmanned aerial vehicle
CN111688936B (en) * 2020-06-29 2021-12-03 王冬芳 Community security protection unmanned aerial vehicle
KR102338779B1 (en) * 2021-05-20 2021-12-15 (주)미도지리정보 Spatial Image Renewal System

Similar Documents

Publication Publication Date Title
KR102075441B1 (en) Image processing system using drone
KR102065758B1 (en) Image processing system using drone
KR101896654B1 (en) Image processing system using drone and method of the same
CN111567032B (en) Specifying device, moving body, specifying method, and computer-readable recording medium
CN110383812B (en) Control device, system, control method, and program
CN111356954B (en) Control device, mobile body, control method, and program
WO2019230604A1 (en) Inspection system
JP6630939B2 (en) Control device, imaging device, moving object, control method, and program
US20200410219A1 (en) Moving object detection device, control device, movable body, moving object detection method and program
US20210105411A1 (en) Determination device, photographing system, movable body, composite system, determination method, and program
KR102186199B1 (en) Image processing system based on screen division
JP6481228B1 (en) Determination device, control device, imaging system, flying object, determination method, and program
US20210092282A1 (en) Control device and control method
CN110785997B (en) Control device, imaging device, mobile body, and control method
CN111357271B (en) Control device, mobile body, and control method
JP6641574B1 (en) Determination device, moving object, determination method, and program
CN112335230A (en) Control device, imaging device, mobile body, control method, and program
US20200241570A1 (en) Control device, camera device, flight body, control method and program
JP2020016703A (en) Control device, moving body, control method, and program
JP6710863B2 (en) Aircraft, control method, and program
WO2021249245A1 (en) Device, camera device, camera system, and movable member
JP6896963B1 (en) Control devices, imaging devices, moving objects, control methods, and programs
JP6798072B2 (en) Controls, mobiles, control methods, and programs
JP2020052255A (en) Mobile body, method for control, and program
JP2020052220A (en) Controller, imaging device, mobile body, method for control, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant