KR20220118008A - Multiple drone positioning and video shooting system - Google Patents

Multiple drone positioning and video shooting system Download PDF

Info

Publication number
KR20220118008A
KR20220118008A KR1020210021580A KR20210021580A KR20220118008A KR 20220118008 A KR20220118008 A KR 20220118008A KR 1020210021580 A KR1020210021580 A KR 1020210021580A KR 20210021580 A KR20210021580 A KR 20210021580A KR 20220118008 A KR20220118008 A KR 20220118008A
Authority
KR
South Korea
Prior art keywords
drone
positioning
beacon
unmanned aerial
aerial vehicle
Prior art date
Application number
KR1020210021580A
Other languages
Korean (ko)
Other versions
KR102562672B1 (en
Inventor
이재경
손진희
안효성
오국환
전영훈
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020210021580A priority Critical patent/KR102562672B1/en
Publication of KR20220118008A publication Critical patent/KR20220118008A/en
Application granted granted Critical
Publication of KR102562672B1 publication Critical patent/KR102562672B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/68Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • B64C2201/12
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a multiple drone positioning and photographing system, comprising: at least one beacon drone, which flies over an area to be measured including a landmark, for detecting the landmark and generating location information with respect to the landmark; and a photographing drone, which photographs the area to be measured while flying over the area to be measured, for receiving the corresponding location information from the beacon drone, and determining the location within area to be measured based on the received location information and detection information for detecting the beacon drone to fly. The multiple drone positioning and photographing system according to the present invention has a plurality of beacon drones performing positioning using images and RF information with respect to a landmark having directivity, and a plurality of photographing drones can perform positioning using the RF information of the beacon drones, thereby enabling drones to operate more accurately even in a region where absolute positioning is not available. Moreover, the present invention can additionally measure a distance between adjacent drones based on determined network topology or can share obtained information and accordingly corrects existing predicted position and azimuth, thereby enabling more accurate measurement values to be yielded. In addition, the present invention can control the position and posture of multiple unmanned aircrafts to correspond to a given rendering task, can set the direction of an image photographing sensor accordingly to photograph a target, and can perform rendering in real time or after the completion of the task.

Description

다중 드론 측위 및 촬영 시스템{Multiple drone positioning and video shooting system}Multiple drone positioning and video shooting system

본 발명은 다중 드론 측위 및 촬영 시스템에 관한 것으로서, 더욱 상세하게는 방향성을 갖는 랜드마크(Landmark)를 기준으로 복수의 비컨 드론(Beacon drone)이 영상 및 RF 정보를 활용하여 측위를 하며, 복수의 촬영 드론은 비컨 드론들의 RF 정보를 통해 측위를 할 수 있는 다중 드론 측위 및 촬영 시스템에 관한 것이다. The present invention relates to a multi-drone positioning and imaging system, and more particularly, a plurality of beacon drones based on a landmark having a direction, positioning using images and RF information, and a plurality of The shooting drone relates to a multi-drone positioning and shooting system capable of positioning through RF information of beacon drones.

IT기술과 비행체의 동체에 대한 경량화 기술이 발전하면서 인간의 제어가 필요하지 않은 소형 무인 비행체(Unmanned Aerial Vehicle: UAV)인 드론(Drone)에 대한 연구가 활발하게 진행되고 있다.With the development of IT technology and light-weight technology for the fuselage of the aircraft, research on drones, which are small unmanned aerial vehicles (UAVs) that do not require human control, is being actively conducted.

20세기 초반에 등장한 소형 무인 비행체는 최초에는 군사용 무인항공기로 개발되었다. 지금도 소형 무인 비행체는 군사용으로 주로 사용되고 있다. 하지만 최근 소형 무인 비행체가 산업용, 레저용, 방송용, 배송용 등과 같이 다양한 분야에서 사용되고 있다.Small unmanned aerial vehicles that appeared in the early 20th century were initially developed as military unmanned aerial vehicles. Even today, small unmanned aerial vehicles are mainly used for military purposes. However, recently, small unmanned aerial vehicles are being used in various fields such as industrial, leisure, broadcasting, and delivery.

또한 소형 무인 비행체는 작은 크기로 인해 자유롭게 이동할 수 있는 특징이 있으며, 그 용도에 대한 다양한 연구가 진행 중이다.In addition, the small unmanned aerial vehicle has the characteristic of being able to move freely due to its small size, and various studies on its use are in progress.

그런데, 종래의 다중 무인비행체 시스템의 운용에서는 각 드론의 측위를 하기 위해 절대 좌표계를 기준으로 하는 GPS를 활용하거나, 지역 좌표계를 사용하는 비컨 & 타겟(Beacon & Target)을 활용한다. However, in the operation of the conventional multi-unmanned aerial vehicle system, a GPS based on an absolute coordinate system is used to position each drone, or a Beacon & Target using a local coordinate system is used.

종래의 시스템에서 GPS를 활용하는 측위 방법은 절대 측위를 사용할 수 없는 숲, 동굴, 오지 등의 환경에서 사용이 불가하다. 또한, 비컨 & 타겟을 활용하는 시스템의 경우 시스템 운용 지역에 비컨을 설치해야 하며, 고정되어 있어야 한다는 단점이 있다.The positioning method using GPS in the conventional system cannot be used in environments such as forests, caves, and remote areas where absolute positioning cannot be used. In addition, in the case of a system using beacon & target, there is a disadvantage that a beacon must be installed in the system operation area and must be fixed.

등록특허공보 제10-2210083호: 드론 제어 시스템Registered Patent Publication No. 10-2210083: Drone Control System

본 발명은 상기와 같은 문제점을 개선하기 위해 창안된 것으로서, 방향성을 갖는 랜드마크(Landmark)를 기준으로 복수의 비컨 드론(Beacon drone)이 영상 및 RF 정보를 활용하여 측위를 하며, 복수의 촬영 드론은 비컨 드론들의 RF 정보를 통해 측위를 할 수 있는 다중 드론 측위 및 촬영 시스템을 제공하는데 그 목적이 있다. The present invention was created to improve the above problems, and a plurality of beacon drones based on a landmark having directionality perform positioning using images and RF information, and a plurality of photographing drones The purpose of this is to provide a multi-drone positioning and shooting system capable of positioning through RF information of beacon drones.

또한, 본 발명은 정해진 네트워크 토폴로지를 바탕으로 이웃 드론들까지의 거리를 추가로 측정하거나 획득한 정보를 공유할 수 있으며, 이를 통해 기존에 예측된 위치 및 방위 값을 보정하여 더 정확한 시스템을 구현하기 위한 목적을 갖는다. In addition, the present invention can additionally measure the distance to neighboring drones or share the acquired information based on a determined network topology, and through this, it is possible to implement a more accurate system by correcting the previously predicted position and azimuth values. have a purpose for

또한, 본 발명은 주어진 렌더링 임무에 맞게 다중 무인비행체의 위치 및 자세를 제어하고, 이에 맞게 영상 촬영 센서의 방향을 설정하여 목표 대상을 촬영하고 실시간 또는 임무 종료 후 렌더링을 진행하는 시스템을 제안한다. In addition, the present invention proposes a system for controlling the positions and postures of multiple unmanned aerial vehicles in accordance with a given rendering task, setting the direction of an image capturing sensor accordingly, photographing a target object, and rendering in real time or after the mission is completed.

상기 목적을 달성하기 위한 본 발명에 따른 다중 드론 측위 및 촬영 시스템은 랜드마크가 포함된 측정대상 영역을 비행하는 것으로서, 상기 랜드마크를 감지하여 해당 랜드마크를 기준으로 위치정보를 생성하는 적어도 하나의 비컨 드론과, 상기 측정대상 영역을 비행하며, 해당 측정대상 영역을 촬영하는 것으로서, 상기 비컨 드론으로부터 해당 위치정보를 수신하고, 수신된 위치정보 및 상기 비컨드론을 감지한 감지정보를 토대로 상기 측정대상 영역 내 위치를 판별하여 비행하는 촬영 드론을 구비한다. The multi-drone positioning and shooting system according to the present invention for achieving the above object is to fly a measurement target area including a landmark, and at least one of detecting the landmark and generating location information based on the landmark A beacon drone, flying over the measurement target area, and photographing the corresponding measurement target area, receiving the corresponding location information from the beacon drone, and the measurement target based on the received location information and sensing information for detecting the beacon drone A photographing drone that flies by determining a location within an area is provided.

상기 비컨 드론은 상기 측정대상 영역을 비행하는 제1무인 비행체와, 상기 제1무인 비행체에 설치되어 상기 랜드마크를 감지하는 제1센서부와, 상기 제1센서부에서 제공되는 감지정보를 토대로 상기 랜드마크를 기준으로 해당 제1무인 비행체의 위치를 산출하는 제1측위부와, 상기 제1측위부에서 산출된 위치 정보를 토대로 상기 제1무인 비행체의 비행을 제어하는 제1제어부를 구비한다. The beacon drone includes a first unmanned aerial vehicle flying over the measurement target area, a first sensor unit installed in the first unmanned vehicle to detect the landmark, and the detection information provided by the first sensor unit. A first positioning unit for calculating the position of the first unmanned aerial vehicle based on the landmark, and a first control unit for controlling the flight of the first unmanned aerial vehicle based on the position information calculated by the first positioning unit.

상기 제1센서부는 상기 제1무인 비행체에 설치되어 상기 랜드마크를 촬영하는 제1카메라를 구비한다. The first sensor unit includes a first camera installed in the first unmanned aerial vehicle to photograph the landmark.

상기 랜드마크는 식별신호를 방출하는 식별태그를 구비하고, 상기 제1센서부는 상기 식별태그에서 송출되는 상기 식별신호를 수신할 수 있도록 상기 제1무인 비행체에 설치되는 신호 리시버를 더 구비할 수 있다. The landmark may include an identification tag emitting an identification signal, and the first sensor unit may further include a signal receiver installed in the first unmanned aerial vehicle to receive the identification signal transmitted from the identification tag. .

상기 식별태그는 RF(Radio Frequency) 식별 신호를 송출하는 것이 바람직하다. Preferably, the identification tag transmits a radio frequency (RF) identification signal.

상기 제1측위부는 상기 제1카메라에서 제공되는 촬영 영상 및 상기 신호 리시버에서 수신된 식별신호에 대한 정보를 토대로 상기 랜드마크를 기준으로 설정된 공통 좌표계 내에서 상기 제1무인 비행체의 위치 정보를 생성한다. The first positioning unit generates position information of the first unmanned aerial vehicle within a common coordinate system set based on the landmark based on the information on the identification signal received from the signal receiver and the captured image provided by the first camera. .

상기 제1측위부는 상기 제1카메라에서 제공받은 촬영 영상에서 상기 랜드마크를 식별하는 식별모듈과, 상기 신호 리시버에서 수신된 식별신호에 대한 정보를 토대로 상기 랜드마크로부터 상기 제1무인 비행체까지의 거리에 대한 정보를 산출하는 거리산출모듈과, 상기 식별모듈 및 거리산출모듈에서 제공되는 식별 정보 및 산출 정보를 토대로 상기 제1무인 비행체의 위치 정보를 생성하는 측위모듈을 구비한다. The first positioning unit is the distance from the landmark to the first unmanned aerial vehicle based on the identification module for identifying the landmark in the captured image provided by the first camera, and the information on the identification signal received from the signal receiver and a distance calculation module for calculating information on , and a positioning module for generating position information of the first unmanned aerial vehicle based on the identification information and calculation information provided from the identification module and the distance calculation module.

상기 측위모듈은 상기 식별모듈에서 제공되는 상기 촬영 영상 내의 상기 랜드마크에 대한 식별 정보를 토대로 상기 제1무인 비행체의 위치 정보를 생성하고, 상기 거리산출모듈에서 제공되는 상기 랜드마크와 제1무인 비행체 사이의 거리 정보를 토대로 해당 위치 정보를 보정할 수 있다. The positioning module generates location information of the first unmanned aerial vehicle based on identification information on the landmark in the captured image provided by the identification module, and the landmark and the first unmanned aerial vehicle provided by the distance calculation module The corresponding location information may be corrected based on the distance information between them.

상기 비컨 드론은 다수개가 상기 측정대상 영역에 상호 이격되게 비행하고, 상호 인접된 상기 비컨 드론들 사이에 데이터 통신이 가능할 수 있도록 상기 제1무인 비행체에 설치되는 제1통신모듈을 더 구비할 수도 있다. The beacon drones may further include a first communication module installed in the first unmanned aerial vehicle so that a plurality of the beacon drones are spaced apart from each other in the measurement target area, and data communication is possible between the adjacent beacon drones. .

상기 측위모듈은 상기 제1통신모듈을 통해 인접된 상기 비컨 드론의 측위모듈로부터 해당 비컨 드론의 위치 정보를 수신받고, 수신받은 인접된 상기 비컨 드론의 위치 정보를 토대로 상기 제1무인 비행체의 위치 정보를 보정할 수 있다. The positioning module receives the location information of the corresponding beacon drone from the positioning module of the adjacent beacon drone through the first communication module, and the location information of the first unmanned aerial vehicle based on the received location information of the adjacent beacon drone can be corrected.

상기 제1통신모듈은 RF(Radio Frequency) 신호를 이용하여 통신을 수행할 수 있다. The first communication module may perform communication using a radio frequency (RF) signal.

상기 측위모듈은 상기 제1통신모듈을 통해 인접된 상기 비컨 드론으로부터 수신된 신호에 대한 정보를 토대로 인접된 상기 비컨 드론까지의 이격 거리를 산출하고, 산출된 해당 인접된 상기 비컨 드론까지의 이격 거리 및 인접된 상기 비컨 드론의 위치정보를 토대로 상기 제1무인 비행체의 위치 정보를 보정할 수 있다. The positioning module calculates a separation distance to the adjacent beacon drone based on information about a signal received from the adjacent beacon drone through the first communication module, and calculates the calculated separation distance to the adjacent beacon drone and correcting the position information of the first unmanned aerial vehicle based on the position information of the adjacent beacon drone.

상기 촬영 드론은 상기 측정대상 영역을 비행하는 제2무인 비행체와, 상기 측정대상 영역을 촬영할 수 있도록 상기 제2무인 비행체에 설치되는 제2카메라와, 상기 제1무인 비행체를 감지할 수 있도록 상기 제2무인 비행체에 마련된 제2센서부와, 상기 제2센서부에서 제공되는 감지정보를 토대로 상기 제2무인 비행체의 위치를 산출하는 제2측위부와, 상기 제2측위부에서 산출된 위치정보를 토대로 상기 제2무인 비행체의 비행을 제어하는 제2제어부를 구비한다. The photographing drone includes a second unmanned aerial vehicle flying over the measurement target area, a second camera installed on the second unmanned aerial vehicle to photograph the measurement target area, and the first unmanned aerial vehicle to detect the first unmanned aerial vehicle. 2 A second sensor unit provided in the unmanned vehicle, a second positioning unit that calculates the position of the second unmanned vehicle based on the sensing information provided by the second sensor unit, and the position information calculated by the second positioning unit Based on the second control unit for controlling the flight of the second unmanned aerial vehicle is provided.

상기 촬영 드론은 상기 비컨 드론으로부터 전송되는 해당 비컨 드론의 위치정보를 수신할 수 있도록 상기 제2무인 비행체에 마련되는 제2통신모듈을 더 구비할 수 있다. The photographing drone may further include a second communication module provided in the second unmanned aerial vehicle to receive location information of the corresponding beacon drone transmitted from the beacon drone.

상기 제2측위부는 상기 제2센서부에서 제공되는 감지정보와 함께 상기 제2통신모듈을 통해 수신된 상기 비컨 드론의 위치정보를 토대로 상기 제2무인 비행체의 위치를 산출한다. The second positioning unit calculates the position of the second unmanned aerial vehicle based on the position information of the beacon drone received through the second communication module together with the detection information provided by the second sensor unit.

상기 제2통신모듈은 RF(Radio Frequency) 신호를 이용하여 통신을 수행하는 것이 바람직하다. Preferably, the second communication module performs communication using a radio frequency (RF) signal.

상기 제2센서부는 상기 제2통신모듈을 통해 상기 비컨 드론으로부터 수신된 신호에 대한 정보를 토대로 상기 비컨 드론에서 상기 제2무인 비행체까지의 이격거리를 산출할 수 있다. The second sensor unit may calculate a separation distance from the beacon drone to the second unmanned aerial vehicle based on information about a signal received from the beacon drone through the second communication module.

상기 제2측위부는 상기 제2카메라에서 상기 비컨 드론이 촬영될 경우, 상기 제2카메라에서 제공되는 촬영 영상에서 상기 비컨 드론을 식별하고, 해당 촬영 영상에서 식별된 비컨 드론을 토대로 상기 비컨 드론과의 이격거리를 산출하며, 산출된 상기 비컨 드론과의 이격거리를 토대로 상기 제2무인 비행체의 위치를 보정한다. When the beacon drone is photographed by the second camera, the second positioning unit identifies the beacon drone from the captured image provided by the second camera, and communicates with the beacon drone based on the beacon drone identified in the captured image. The separation distance is calculated, and the position of the second unmanned aerial vehicle is corrected based on the calculated separation distance from the beacon drone.

상기 랜드마크는 상기 측정대상 영역 내에서 이동하는 운반유닛과, 상기 비컨 드론에 의해 촬영될 수 있도록 상기 운반유닛에 설치되는 인식대상체를 구비한다. The landmark includes a transport unit moving within the measurement target area, and a recognition object installed in the transport unit to be photographed by the beacon drone.

상기 제1제어부는 상기 제1카메라에서 제공되는 영상을 토대로 해당 제1카메라에 상기 랜드마크가 촬영될 수 있도록 상기 제1무인 비행체의 비행을 제어할 수 있다. The first controller may control the flight of the first unmanned aerial vehicle so that the landmark may be photographed by the first camera based on the image provided from the first camera.

본 발명에 따른 다중 드론 측위 및 촬영 시스템은 방향성을 갖는 랜드마크(Landmark)를 기준으로 복수의 비컨 드론(Beacon drone)이 영상 및 RF 정보를 활용하여 측위를 하며, 복수의 촬영 드론은 비컨 드론들의 RF 정보를 통해 측위를 할 수 있으므로 절대 측위를 사용할 수 없는 지역에서도 보다 정확하게 드론의 작동이 가능하다는 장점이 있다. In the multi-drone positioning and shooting system according to the present invention, a plurality of beacon drones perform positioning using images and RF information based on a landmark having a direction, and the plurality of shooting drones are the beacon drones. Since positioning can be performed through RF information, it has the advantage that the drone can be operated more accurately even in an area where absolute positioning cannot be used.

또한, 본 발명은 정해진 네트워크 토폴로지를 바탕으로 이웃 드론들까지의 거리를 추가로 측정하거나 획득한 정보를 공유할 수 있으며, 이를 통해 기존에 예측된 위치 및 방위 값을 보정하므로 보다 정확한 측정 값을 산출할 수 있다. In addition, the present invention can additionally measure the distance to neighboring drones based on a determined network topology or share the acquired information, and through this, a more accurate measurement value is calculated because the previously predicted position and azimuth values are corrected. can do.

그리고, 본 발명은 주어진 렌더링 임무에 맞게 다중 무인비행체의 위치 및 자세를 제어하고, 이에 맞게 영상 촬영 센서의 방향을 설정 하여 목표 대상을 촬영하고 실시간 또는 임무 종료 후 렌더링을 진행할 수 있다는 장점이 있다. In addition, the present invention has the advantage of being able to control the position and posture of multiple unmanned aerial vehicles according to a given rendering task, set the direction of the image capturing sensor accordingly, shoot the target object, and perform rendering in real time or after the mission is finished.

도 1은 본 발명에 따른 다중 드론 측위 및 촬영 시스템에 대한 개념도이고,
도 2는 도 1의 다중 드론 측위 및 촬영 시스템의 비컨 드론에 대한 블럭도이고,
도 3은 도 1의 다중 드론 측위 및 촬영 시스템의 촬영 드론에 대한 블럭도이고,
도 4는 상기 촬영 드론의 위치 제어 알고리즘에 따른 순서도이고,
도 5는 상기 촬영 드론의 임무 결정에 대한 알고리즘의 순서도이고,
도 6 내지 도 9는 본 발명의 촬영 드론들이 수행할 수 있는 렌더링 임무의 예시도이다.
1 is a conceptual diagram of a multi-drone positioning and shooting system according to the present invention;
2 is a block diagram of a beacon drone of the multi-drone positioning and imaging system of FIG. 1;
FIG. 3 is a block diagram of a photographing drone of the multi-drone positioning and photographing system of FIG. 1;
4 is a flowchart according to the position control algorithm of the photographing drone,
5 is a flowchart of an algorithm for determining the mission of the shooting drone;
6 to 9 are exemplary views of rendering tasks that can be performed by the photographing drones of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 실시예에 따른 다중 드론 측위 및 촬영 시스템에 대해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하여 도시한 것이다. Hereinafter, a multi-drone positioning and imaging system according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Since the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements. In the accompanying drawings, the dimensions of the structures are enlarged than the actual size for clarity of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It is to be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1 내지 도 3에는 본 발명에 따른 다중 드론 측위 및 촬영 시스템(100)이 도시되어 있다. 1 to 3 show a multi-drone positioning and imaging system 100 according to the present invention.

도면을 참조하면, 상기 다중 드론 측위 및 촬영 시스템(100)은 랜드마크(20)가 포함된 측정대상 영역을 비행하는 것으로서, 상기 랜드마크(20)를 감지하여 해당 랜드마크(20)를 기준으로 위치정보를 생성하는 다수의 비컨드론과, 상기 측정대상 영역을 비행하며, 해당 측정대상 영역을 촬영하는 것으로서, 상기 비컨 드론(200)으로부터 해당 위치정보를 수신하고, 수신된 위치정보 및 상기 비컨 드론(200)을 감지한 감지정보를 토대로 상기 측정대상 영역 내 위치를 판별하여 비행하는 촬영 드론(300)을 구비한다. Referring to the drawings, the multi-drone positioning and photographing system 100 flies over a measurement target area including a landmark 20 , and detects the landmark 20 based on the landmark 20 . A plurality of beacon drones generating location information, flying over the measurement target area, and photographing the measurement target area, receive the location information from the beacon drone 200, and receive the location information and the beacon drone A photographing drone 300 that flies by determining a location within the measurement target area based on the sensing information detected 200 is provided.

여기서, 랜드마크(20)는 측정대상 영역에 설치되는 것으로서, 대칭성을 띠지 않으며, 방향에 따라 상호 상이한 특이점을 갖는 구조물이다. 상기 랜드마크(20)는 소정의 조각상, 건축물 등이 적용될 수 있으나, 이에 한정하는 것이 아니라 다수의 특이점을 갖는 외형으로 형성된 구조물이면 무엇이든 적용가능하다. 이때, 랜드마크(20)는 일측에, 식별신호를 방출할 수 있는 식별태그(21)가 설치되어 있다. Here, the landmark 20 is installed in the area to be measured, has no symmetry, and is a structure having mutually different singularities according to directions. The landmark 20 may be a predetermined statue, a building, etc., but is not limited thereto, and any structure formed in an external shape having a number of singularities is applicable. At this time, the landmark 20 is provided with an identification tag 21 capable of emitting an identification signal on one side.

여기서, 식별태그(21)는 RF(Radio Frequency) 식별 신호를 송출할 수 있도록 RFID(radio frequency identification) 태그가 적용된다.Here, a radio frequency identification (RFID) tag is applied to the identification tag 21 to transmit a radio frequency (RF) identification signal.

한편, 랜드마크(20)는 도면에 도시되진 않았지만, 상기 측정대상 영역 내에서 이동하는 운반유닛과, 상기 비컨 드론(200)에 의해 촬영될 수 있도록 상기 운반유닛에 설치되는 인식대상체를 구비한다. 상기 운반유닛은 해당 측정대상 영역을 비행할 수 있도록 드론이 적용되며, 상기 인식대상체는 다수의 특이점이 마련된 외형을 갖도록 형성된 구조물이 적용된다. 여기서, 운반유닛은 드론으로 한정하는 것이 아니라 인식대상체를 운반할 수 있는 운반수단이면 무엇이든 적용가능하다. 작업자는 해당 운반유닛을 제어하여 측정대상 영역 중 어느 한 위치에 인식대상체를 이동시킬 수 있다. Meanwhile, although not shown in the drawing, the landmark 20 includes a transport unit moving within the measurement target area, and a recognition object installed in the transport unit to be photographed by the beacon drone 200 . A drone is applied to the transport unit to fly over a corresponding measurement target area, and a structure formed to have an external shape provided with a plurality of singularities is applied to the recognition target. Here, the transport unit is not limited to drones, and any transport means capable of transporting the recognition object is applicable. The operator may control the carrying unit to move the recognition object to any one position in the measurement target area.

상기 비컨 드론(200)은 상기 측정대상 영역을 비행하는 제1무인 비행체(210)와, 상기 제1무인 비행체(210)에 설치되어 상기 랜드마크(20)를 감지하는 제1센서부(220)와, 상호 인접된 상기 비컨 드론(200)들 사이에 데이터 통신이 가능할 수 있도록 상기 제1무인 비행체(210)에 설치되는 제1통신모듈(230)과, 상기 제1센서부(220)에서 제공되는 감지정보를 토대로 상기 랜드마크(20)를 기준으로 해당 제1무인 비행체(210)의 위치를 산출하는 제1측위부(240)와, 상기 제1측위부(240)에서 산출된 위치 정보를 토대로 상기 제1무인 비행체(210)의 비행을 제어하는 제1제어부(250)를 구비한다. The beacon drone 200 includes a first unmanned aerial vehicle 210 flying over the measurement target area, and a first sensor unit 220 installed on the first unmanned aerial vehicle 210 to detect the landmark 20 and a first communication module 230 installed in the first unmanned aerial vehicle 210 to enable data communication between the beacon drones 200 adjacent to each other, and the first sensor unit 220 provided The first positioning unit 240 for calculating the position of the first unmanned aerial vehicle 210 based on the landmark 20 based on the detected information, and the position information calculated by the first positioning unit 240 Based on the first control unit 250 for controlling the flight of the first unmanned aerial vehicle 210 is provided.

상기 제1무인 비행체(210)는 제1비행몸체와, 상기 제1비행몸체에 설치되어 상기 제1비행몸체의 비행이 가능하도록 추진력을 제공하는 제1추진부(212)를 구비한다. The first unmanned aerial vehicle 210 includes a first flight body and a first propulsion unit 212 that is installed on the first flight body and provides propulsion to enable the first flight body to fly.

상기 제1비행몸체는 제1메인바디(211)와, 상기 제1메인바디(211)의 중심부를 기준으로 방사상으로 연장되며, 단부에 상기 제1추진부(212)가 설치되는 다수의 제1지지대를 구비한다. 상기 제1메인바디(211)는 내부에 후술되는 제1추진부(212)의 제1회전모터들에 전원을 공급하기 위한 배터리가 수용될 수 있는 수용공간이 마련된다. 상기 제1메인바디(211)는 소정의 강도를 갖고, 성형성이 우수한 플라스틱과 같은 합성수지재로 형성되는 것이 바람직하다. The first flight body includes a first main body 211 and a plurality of first parts extending radially with respect to the center of the first main body 211 and having the first propulsion unit 212 installed at the ends. Provide support. The first main body 211 is provided with an accommodating space in which a battery for supplying power to the first rotating motors of the first propulsion unit 212 to be described later is accommodated therein. The first main body 211 is preferably formed of a synthetic resin material such as plastic having a predetermined strength and excellent moldability.

상기 제1추진부(212)는 상기 제1지지대들의 단부에 각각 설치되는 다수의 제1회전모터와, 상기 제1회전모터들에 의해 회전가능하게 설치된 다수의 제1프로펠러를 구비한다. 한편, 상기 제1무인 비행체(210)는 측정대상 영역을 비행하기 위해 종래에 일반적으로 사용되는 드론이 적용되므로 상세한 설명은 생략한다. The first propulsion unit 212 includes a plurality of first rotation motors respectively installed at the ends of the first supports, and a plurality of first propellers rotatably installed by the first rotation motors. On the other hand, the first unmanned aerial vehicle 210 is a drone that is generally used in the prior art to fly over the measurement target area, so a detailed description thereof will be omitted.

제1센서부(220)는 상기 제1무인 비행체(210)에 설치되어 상기 랜드마크(20)를 촬영하는 제1카메라(221)와, 상기 식별태그(21)에서 송출되는 상기 식별신호를 수신할 수 있도록 상기 제1무인 비행체(210)에 설치되는 신호 리시버(222)를 구비한다. The first sensor unit 220 is installed in the first unmanned aerial vehicle 210 and receives the first camera 221 for photographing the landmark 20 and the identification signal transmitted from the identification tag 21 . and a signal receiver 222 installed in the first unmanned aerial vehicle 210 to do so.

제1카메라(221)는 제1무인 비행체(210)의 제1비행몸체에 설치되는 것으로서, 제1무인 비행체(210) 주위를 촬영하기 위해 종래에 일반적으로 사용되는 카메라가 적용되므로 상세한 설명은 생략한다. 상기 제1카메라(221)는 촬영된 영상을 제1측위부(240)에 제공한다. The first camera 221 is installed on the first flight body of the first unmanned aerial vehicle 210, and a conventionally used camera for photographing around the first unmanned aerial vehicle 210 is applied, so detailed description is omitted. do. The first camera 221 provides the captured image to the first positioning unit 240 .

신호 리시버(222)는 제1무인 비행체(210)의 제1비행몸체에 설치되어 랜드마크(20)에 설치된 식별태그(21)로부터 송출되는 RF 식별 신호를 수신한다. 여기서, 신호 리시버(222)는 RF 리시버가 적용되는 것이 바람직하다. 해당 신호 리시버(222)는 식별태그(21)로부터 수신된 식별신호에 대한 정보를 제1측위부(240)에 전달한다. 여기서, 식별태그(21)로부터 수신된 식별신호에 대한 정보에는, 수신된 신호의 왕복시간(TOF: Time of Flight), 식별신호에 포함된 식별 정보 등이 포함될 수 있다. The signal receiver 222 is installed on the first flight body of the first unmanned aerial vehicle 210 and receives the RF identification signal transmitted from the identification tag 21 installed on the landmark 20 . Here, the signal receiver 222 is preferably applied to the RF receiver. The corresponding signal receiver 222 transmits information about the identification signal received from the identification tag 21 to the first positioning unit 240 . Here, the information on the identification signal received from the identification tag 21 may include a time of flight (TOF) of the received signal, identification information included in the identification signal, and the like.

제1통신모듈(230)은 상기 제1무인 비행체(210)에 설치되어 인접된 비컨 드론(200)과의 통신을 수행한다. 여기서, 제1통신모듈(230)은 RF(Radio Frequency) 신호를 이용하여 통신을 수행하는 것이 바람직하다. 한편, 제1통신모듈(230)은 인접한 촬영 드론(300)과 데이터 통신을 수행할 수 있다. 이때, 비컨 드론(200)들과 촬영 드론(300)들은 상호 데이터 통신이 가능하도록 연결되어 네트워크 토폴로지를 형성할 수 있다. 여기서, 네트워크 토폴로지는 다수의 드론 사이에 센싱 및 정보 송수신으로 연결된 선들의 집합이 적용된다. The first communication module 230 is installed in the first unmanned aerial vehicle 210 and performs communication with the adjacent beacon drone 200 . Here, the first communication module 230 preferably performs communication using a radio frequency (RF) signal. Meanwhile, the first communication module 230 may perform data communication with the adjacent photographing drone 300 . In this case, the beacon drones 200 and the photographing drones 300 may be connected to enable mutual data communication to form a network topology. Here, the network topology applies a set of lines connected by sensing and information transmission/reception between a plurality of drones.

상기 제1측위부(240)는 상기 제1카메라(221)에서 제공되는 촬영 영상 및 상기 신호 리시버(222)에서 수신된 식별신호에 대한 정보를 토대로 상기 랜드마크(20)를 기준으로 설정된 공통 좌표계 내에서 상기 제1무인 비행체(210)의 위치 정보를 생성한다. 여기서, 상기 제1측위부(240)는 상기 제1카메라(221)에서 제공받은 촬영 영상에서 상기 랜드마크(20)를 식별하는 식별모듈(241)과, 상기 신호 리시버(222)에서 수신된 식별신호에 대한 정보를 토대로 상기 랜드마크(20)로부터 상기 제1무인 비행체(210)까지의 거리에 대한 정보를 산출하는 거리산출모듈(242)과, 상기 식별모듈(241) 및 거리산출모듈(242)에서 제공되는 식별 정보 및 산출 정보를 토대로 상기 제1무인 비행체(210)의 위치 정보를 생성하는 측위모듈(243)을 구비한다. The first positioning unit 240 is a common coordinate system set based on the landmark 20 based on the information on the identification signal received from the signal receiver 222 and the photographed image provided by the first camera 221 . The location information of the first unmanned aerial vehicle 210 is generated in the . Here, the first positioning unit 240 includes an identification module 241 that identifies the landmark 20 in the captured image provided by the first camera 221 , and the identification received from the signal receiver 222 . A distance calculation module 242 for calculating information on the distance from the landmark 20 to the first unmanned aerial vehicle 210 based on the information about the signal, the identification module 241 and the distance calculation module 242 ) and a positioning module 243 for generating position information of the first unmanned aerial vehicle 210 based on the identification information and calculation information provided in the .

식별모듈(241)은 제1카메라(221)에서 촬영된 영상에서 랜드마크(20)를 식별하며, 식별된 정보를 측위모듈(243)에 제공한다. 여기서, 상기 식별모듈(241)은 영상에서 특정 오브젝트를 식별하기 위해 종래에 일반적으로 사용되는 영상분석수단이므로 상세한 설명은 생략한다. The identification module 241 identifies the landmark 20 in the image taken by the first camera 221 , and provides the identified information to the positioning module 243 . Here, since the identification module 241 is an image analysis means generally used in the prior art to identify a specific object in an image, a detailed description thereof will be omitted.

거리산출모듈(242)은 신호 리시버(222)에서 제공받은 식별신호에 대한 정보를 토대로 해당 비컨 드론(200)과 랜드마크(20) 사이의 이격거리를 산출한다. 거리산출모듈(242)은 산출된 이격거리에 대한 정보를 측위모듈(243)에 전송한다. The distance calculation module 242 calculates the separation distance between the corresponding beacon drone 200 and the landmark 20 based on the information on the identification signal provided from the signal receiver 222 . The distance calculation module 242 transmits information on the calculated separation distance to the positioning module 243 .

측위모듈(243)은 식별모듈(241)에서 제공되는 촬영 영상 내의 랜드마크(20)에 대한 식별정보를 토대로 제1무인 비행체(210)의 위치 정보를 생성한다. 여기서, 측위모듈(243)은 도면에 도시되진 않았지만, 랜드마크(20)에 대한 정보가 저장된 데이터베이스를 더 구비할 수 있다. 해당 데이터베이스에는 상기 랜드마크(20)의 외형이나 특이점에 대한 정보가 저장되어 있다. 측위모듈(243)은 제1카메라(221)에서 촬영된 영상에서 식별된 랜드마크(20)의 외형이나 특이점을 데이터베이스에 저장된 정보와 비교하여 해당 랜드마크(20)를 기준으로 해당 제1무인 비행체(210)의 위치 정보를 생성한다. 여기서, 제1무인 비행체(210)의 위치 정보는 랜드마크(20)를 기준으로하는 공통 좌표계에서의 해당 비컨 드론(200)의 위치 좌표가 적용되는 것이 바람직하다. The positioning module 243 generates location information of the first unmanned aerial vehicle 210 based on the identification information on the landmark 20 in the captured image provided by the identification module 241 . Here, although not shown in the drawing, the positioning module 243 may further include a database in which information about the landmark 20 is stored. Information on the appearance or singularity of the landmark 20 is stored in the database. The positioning module 243 compares the appearance or singularity of the landmark 20 identified in the image taken by the first camera 221 with information stored in the database, and the corresponding first unmanned aerial vehicle based on the landmark 20 . The location information of 210 is generated. Here, the location information of the first unmanned aerial vehicle 210 is preferably applied to the location coordinates of the corresponding beacon drone 200 in the common coordinate system based on the landmark 20 .

또한, 측위모듈(243)은 거리산출모듈(242)에서 제공되는 랜드마크(20)와 제1무인 비행체(210)의 이격거리에 대한 정보를 토대로 판별된 제1무인 비행체(210)의 위치 정보를 보정할 수 있다. In addition, the positioning module 243 is the location information of the first unmanned aerial vehicle 210 determined based on the information on the separation distance between the landmark 20 and the first unmanned aerial vehicle 210 provided from the distance calculating module 242 . can be corrected.

한편, 측위모듈(243)은 제1통신모듈(230)을 통해 인접된 비컨 드론(200)의 위치정보를 수신할 수 있다. 즉, 측위모듈(243)은 이웃 비컨 드론(200)으로부터 해당 비컨 드론(200)의 위치정보를 수신할 수 있다. 이때, 이웃 비컨 드론(200)은 기설정된 네트워크 토폴로지에서, 해당 비컨 드론(200)과 직접 연결된 비컨 드론(200)이 적용된다. Meanwhile, the positioning module 243 may receive location information of the adjacent beacon drone 200 through the first communication module 230 . That is, the positioning module 243 may receive location information of the corresponding beacon drone 200 from the neighboring beacon drone 200 . In this case, the beacon drone 200 directly connected to the beacon drone 200 is applied to the neighbor beacon drone 200 in a preset network topology.

여기서, 측위모듈(243)은 수신받은 인접된 비컨 드론(200)의 위치 정보를 토대로 해당 제1무인 비행체(210)의 위치 정보를 보정할 수 있다. 상술된 바와 같이 기설정된 네트워크 토폴로지를 바탕으로 비컨 드론(200)들은 위치정보를 상호 공유할 수 있으므로 비컨 드론(200)의 위치를 보다 정확하게 파악할 수 있다. Here, the positioning module 243 may correct the location information of the first unmanned aerial vehicle 210 based on the received location information of the adjacent beacon drone 200 . As described above, based on the preset network topology, the beacon drones 200 can share location information with each other, so that the location of the beacon drone 200 can be more accurately identified.

제1제어부(250)는 측위모듈(243)에서 제공되는 제1무인 비행체(210)의 위치 정보를 토대로 해당 비컨 드론(200)의 비행 즉, 드론의 위치 및 자세를 제어한다. 이때, 제1제어부(250)는 해당 위치정보를 토대로 작업자에 의해 기설정된 패턴으로 비행하도록 제어할 수도 있다. The first controller 250 controls the flight of the corresponding beacon drone 200 , that is, the position and posture of the drone, based on the position information of the first unmanned aerial vehicle 210 provided from the positioning module 243 . In this case, the first control unit 250 may control to fly in a pattern preset by the operator based on the corresponding position information.

이때, 제1제어부(250)는 제1카메라(221)에서 제공되는 영상을 토대로, 해당 제1카메라(221)에 랜드마크(20)가 촬영될 수 있도록 제1무인 비행체(210)의 비행을 제어한다. 즉, 제1제어부(250)는 제1카메라(221)에서 제공되는 영상에 랜드마크(20)가 미촬영될 경우, 해당 랜드마크(20)가 촬영되는 위치로 해당 제1무인 비행체(210)를 이동시킨다. At this time, the first control unit 250 controls the flight of the first unmanned aerial vehicle 210 so that the landmark 20 can be photographed by the first camera 221 based on the image provided by the first camera 221 . Control. That is, when the landmark 20 is not photographed in the image provided by the first camera 221 , the first control unit 250 sets the first unmanned aerial vehicle 210 to the location where the landmark 20 is photographed. move the

한편, 촬영 드론(300)은 상기 측정대상 영역을 비행하는 제2무인 비행체(310)와, 상기 측저대상 영역을 촬영할 수 있도록 상기 제2무인 비행체(310)에 설치되는 제2카메라(313)와, 상기 비컨 드론(200)으로부터 전송되는 해당 비컨 드론(200)의 위치정보를 수신할 수 있도록 상기 제2무인 비행체(310)에 마련되는 제2통신모듈(320)과, 상기 제1무인 비행체(210)를 감지할 수 있도록 상기 제2무인 비행체(310)에 마련된 제2센서부(330)와, 상기 제2센서부(330)에서 제공되는 감지정보를 토대로 상기 제2무인 비행체(310)의 위치를 산출하는 제2측위부(340)와, 상기 제2측위부(340)에서 산출된 위치정보를 토대로 상기 제2무인 비행체(310)의 비행을 제어하는 제2제어부(350)를 구비한다. On the other hand, the photographing drone 300 includes a second unmanned aerial vehicle 310 flying over the measurement target area, and a second camera 313 installed on the second unmanned aerial vehicle 310 so as to photograph the measurement target area and , a second communication module 320 provided in the second unmanned aerial vehicle 310 to receive the location information of the corresponding beacon drone 200 transmitted from the beacon drone 200, and the first unmanned aerial vehicle ( 210) based on the detection information provided by the second sensor unit 330 provided in the second unmanned aerial vehicle 310 and the second sensor unit 330 to detect the second unmanned aerial vehicle 310 of the A second positioning unit 340 for calculating a position, and a second control unit 350 for controlling the flight of the second unmanned aerial vehicle 310 based on the position information calculated by the second positioning unit 340 is provided. .

상기 제2무인 비행체(310)는 제2비행몸체와, 상기 제2비행몸체에 설치되어 상기 제2비행몸체의 비행이 가능하도록 추진력을 제공하는 제2추진부(312)를 구비한다. The second unmanned aerial vehicle 310 includes a second flight body and a second propulsion unit 312 that is installed on the second flight body and provides propulsion to enable the second flight body to fly.

상기 제2비행몸체는 제2메인바디(311)와, 상기 제2메인바디(311)의 중심부를 기준으로 방사상으로 연장되며, 단부에 상기 제2추진부(312)가 설치되는 다수의 제2지지대를 구비한다. 상기 제2메인바디(311)는 내부에 후술되는 제2추진부(312)의 제2회전모터들에 전원을 공급하기 위한 배터리가 수용될 수 있는 수용공간이 마련된다. 상기 제2메인바디(311)는 소정의 강도를 갖고, 성형성이 우수한 플라스틱과 같은 합성수지재로 형성되는 것이 바람직하다. 여기서, 제2메인바디(311)에는 측정대상 영역 내의 목표물을 촬영할 수 있도록 제2카메라(313)가 설치되어 있다. 이때, 제2카메라(313)는 도면에 도시되진 않았지만, 촬영된 영상을 관리서버에 전송할 수 있다. The second flight body has a second main body 311 and a plurality of second parts extending radially with respect to the center of the second main body 311 and having the second propulsion unit 312 installed at the ends. Provide support. The second main body 311 is provided with an accommodating space in which a battery for supplying power to the second rotating motors of the second propulsion unit 312 to be described later is accommodated therein. The second main body 311 is preferably formed of a synthetic resin material such as plastic having a predetermined strength and excellent moldability. Here, a second camera 313 is installed on the second main body 311 to photograph a target within the measurement target area. At this time, although not shown in the drawing, the second camera 313 may transmit the captured image to the management server.

상기 제2추진부(312)는 상기 제2지지대들의 단부에 각각 설치되는 다수의 제2회전모터와, 상기 제2회전모터들에 의해 회전가능하게 설치된 다수의 제2프로펠러를 구비한다. 한편, 상기 제2무인 비행체(310)는 측정대상 영역을 비행하기 위해 종래에 일반적으로 사용되는 드론이 적용되므로 상세한 설명은 생략한다. The second propulsion unit 312 includes a plurality of second rotation motors respectively installed at the ends of the second supports, and a plurality of second propellers rotatably installed by the second rotation motors. On the other hand, the second unmanned aerial vehicle 310 is a drone that is generally used in the prior art to fly over the measurement target area, so a detailed description thereof will be omitted.

제2통신모듈(320)은 인접된 비컨 드론(200)과 촬영 드론(300)과 통신하며, 인접된 비컨 드론(200)과 촬영 드론(300)의 위치정보를 수신할 수 있다. 여기서, 제2통신모듈(320)은 RF(Radio Frequency) 신호를 이용하여 통신을 수행하는 것이 바람직하다. The second communication module 320 may communicate with the adjacent beacon drone 200 and the photographing drone 300 , and may receive location information of the adjacent beacon drone 200 and the photographing drone 300 . Here, the second communication module 320 preferably performs communication using a radio frequency (RF) signal.

제2센서부(330)는 상기 제2통신모듈(320)을 통해 상기 비컨 드론(200)으로부터 수신된 신호에 대한 정보를 토대로 상기 비컨 드론(200)에서 상기 제2무인 비행체(310)까지의 이격거리를 산출한다. 여기서, 제2센서부(330)는 비컨 드론(200)으로부터 수신되는 신호에 대한 정보 즉, 수신된 신호의 왕복시간(TOF: Time of Flight) 등과 같은 정보를 토대로 해당 비컨 드론(200)과의 이격거리를 산출할 수 있다. 또한, 제2센서부(330)는 인접된 촬영 드론(300) 즉, 이웃 촬영 드론(300)으로부터 수신되는 신호에 대한 정보를 토대로 해당 촬영 드론(300)과, 인접된 이웃 촬영 드론(300)과의 이격거리를 산출할 수도 있다. 제2센서부(330)는 산출된 비컨 드론(200) 및 촬영 드론(300)과의 이격거리에 대한 정보를 제2측위부(340) 또는 제2제어부(350)에 전송한다. The second sensor unit 330 moves from the beacon drone 200 to the second unmanned aerial vehicle 310 based on the information on the signal received from the beacon drone 200 through the second communication module 320 . Calculate the separation distance. Here, the second sensor unit 330 communicates with the corresponding beacon drone 200 based on information about the signal received from the beacon drone 200 , that is, information such as a time of flight (TOF) of the received signal. The separation distance can be calculated. In addition, the second sensor unit 330 includes the corresponding photographing drone 300 and the neighboring photographing drone 300 based on information on signals received from the adjacent photographing drone 300 , that is, the neighboring photographing drone 300 . It is also possible to calculate the separation distance from The second sensor unit 330 transmits information on the calculated separation distance between the beacon drone 200 and the photographing drone 300 to the second positioning unit 340 or the second control unit 350 .

제2측위부(340)는 상기 제2센서부(330)에서 제공되는 감지정보와 함께 상기 제2통신모듈(320)을 통해 수신된 상기 비컨 드론(200)의 위치정보를 토대로 상기 제2무인 비행체(310)의 위치를 산출한다. 즉, 제2측위부(340)는 제2센서부(330)에서 제공되는 인접된 비컨 드론(200) 및 촬영 드론(300)과의 이격거리에 대한 정보로부터 삼변 측량법을 포함하는 측위 방법을 이용하여 해당 촬영 드론(300)의 위치 정보를 생성한다. 해당 촬영 드론(300)의 위치 정보는 랜드마크(20)를 기준으로하는 공통 좌표계에서의 해당 촬영 드론(300)의 위치 좌표가 적용되는 것이 바람직하다. The second positioning unit 340 is the second unmanned based on the location information of the beacon drone 200 received through the second communication module 320 together with the detection information provided by the second sensor unit 330 . The position of the aircraft 310 is calculated. That is, the second positioning unit 340 uses a positioning method including trilateration from information on the separation distance from the adjacent beacon drone 200 and the photographing drone 300 provided from the second sensor unit 330 . to generate location information of the corresponding photographing drone 300 . The location information of the corresponding photographing drone 300 is preferably applied to the location coordinates of the corresponding photographing drone 300 in a common coordinate system based on the landmark 20 .

한편, 제2측위부(340)는 상기 제2카메라(313)에서 상기 비컨 드론(200)이 촬영될 경우, 상기 제2카메라(313)에서 제공되는 촬영 영상에서 상기 비컨 드론(200)을 식별할 수 있다. 이때, 제2측위부(340)는 해당 비컨 드론(200)의 외형 또는 특이점에 대한 정보가 기저장되어 있고, 해당 정보와 제2카메라(313)의 촬영 영상에서의 비컨 드론(200)을 비교하여 해당 비컨 드론(200)과의 이격거리를 산출할 수 있다. 여기서, 제2측위부(340)는 산출된 상기 비컨 드론(200)과의 이격거리를 토대로 상기 제2무인 비행체(310)의 위치 정보를 보정할 수 있다. Meanwhile, when the beacon drone 200 is photographed by the second camera 313 , the second positioning unit 340 identifies the beacon drone 200 from the captured image provided by the second camera 313 . can do. At this time, the second positioning unit 340 pre-stores information on the appearance or singularity of the beacon drone 200, and compares the information with the beacon drone 200 in the captured image of the second camera 313. Thus, the separation distance from the corresponding beacon drone 200 may be calculated. Here, the second positioning unit 340 may correct the location information of the second unmanned aerial vehicle 310 based on the calculated separation distance from the beacon drone 200 .

제2제어부(350)는 제2측위부(340)에서 제공되는 제2무인 비행체(310)의 위치 정보를 토대로 해당 촬영 드론(300)의 비행 즉, 촬영 드론(300)의 위치 및 자세를 제어한다. 이때, 제2제어부(350)는 기설정된 촬영 드론(300) 위치 제어 알고리즘에 따라 해당 촬영 드론(300)을 제어할 수 있다. 여기서, 각 제2제어부(350)의 제어에 의해 다수의 촬영 드론(300)은 편대 비행하며 측정대상 영역 내의 목표물을 촬영한다. The second control unit 350 controls the flight of the corresponding photographing drone 300 , that is, the position and posture of the photographing drone 300 , based on the position information of the second unmanned aerial vehicle 310 provided from the second positioning unit 340 . do. In this case, the second control unit 350 may control the corresponding photographing drone 300 according to a preset photographing drone 300 position control algorithm. Here, a plurality of photographing drones 300 fly in formation under the control of each second controller 350 to photograph a target within the measurement target area.

도 4에는 상기 촬영 드론(300) 위치 제어 알고리즘에 따른 순서도가 도시되어 있다. 여기서, 촬영 드론(300)의 목표 편대 및 영상 센서 즉, 제2카메라(313)의 방향은 렌더링 임무에 기반하여 설정된다. 여기서, 이웃 드론은 기설정된 네트워크 토폴로지에서, 해당 촬영 드론(300)과 직접 연결된 비컨 드론(200) 또는 촬영 드론(300)이 적용된다. 4 is a flowchart according to the position control algorithm of the photographing drone 300 is shown. Here, the target squadron of the shooting drone 300 and the direction of the image sensor, that is, the second camera 313 are set based on the rendering task. Here, the beacon drone 200 or the photographing drone 300 directly connected to the corresponding photographing drone 300 is applied to the neighboring drone in a preset network topology.

이때, 작업자는 촬영 드론(300)의 임무를 할당할 수 있으며, 촬영드론은 도 5에 도시된 알고리즘에 따라 임무를 결정할 수 있다. 여기서, 작업자는 관리서버(미도시)를 통해 해당 촬영 드론(300)들의 임무를 할당할 수 있고, 관리서버는 할당된 임무에 따라 각 촬영드론들을 제어할 수 있다. In this case, the operator may allocate a mission of the imaging drone 300 , and the imaging drone may determine the mission according to the algorithm shown in FIG. 5 . Here, the operator may allocate the tasks of the corresponding photographing drones 300 through the management server (not shown), and the management server may control each of the photographing drones according to the assigned task.

도 6에는 본 발명의 촬영 드론(300)들이 수행할 수 있는 렌더링 임무의 예시가 도시되어 있다. 여기서, 도면을 참조하면, 다수의 촬영 드론(300)이 일렬로 위치하여 같은 방향을 제2카메라(313)로 촬영하는 임무에 관한 것이다. 이때, 관리서버는 촬영 드론(300)의 편대 위치 제어를 위해 각 촬영 드론(300)에게 순서를 할당하며, 순서가 매겨진 드론을 태그 드론으로 정의한다. 6 shows an example of a rendering task that can be performed by the photographing drones 300 of the present invention. Here, referring to the drawings, a plurality of photographing drones 300 are positioned in a line and it relates to a task of photographing the same direction with the second camera 313 . At this time, the management server allocates an order to each of the shooting drones 300 to control the formation position of the shooting drones 300 , and defines the ordered drones as tag drones.

각 태그 드론이 촬영한 영상은 인접한 태그 드론의 촬영 영상과 겹치는 부분이 존재하여 렌더링을 수행한다. 각 촬영 드론(300)들의 위치 및 촬영방향은 하기의 수학식 1과 같다. An image captured by each tag drone has a portion overlapping with an image captured by an adjacent tag drone, so that rendering is performed. The position and the shooting direction of each of the shooting drones 300 are as shown in Equation 1 below.

Figure pat00001
Figure pat00001

여기서, i는 태크 드론의 넘버이고, a는 비행 편대의 기준이 되는 태그 드론의 넘버이고,

Figure pat00002
는 넘버링 n에 해당하는 태그 드론의 위치이고,
Figure pat00003
은 넘버링 n에 해당하는 태그 드론의 제2카메라(313)의 촬영 방향이고, d는 렌더링을 위해 각 태그 드론이 촬영한 영상이 서로 겹치도록 미리 설정된 인접 드론과의 거리이고, w는 작업자가 원하는 일자형 편대의 방향을 나타내는 단위벡터인데, 해당 단위벡터의 방향은 낮은 넘버링을 갖는 태그 드론부터 높은 넘버링을 갖는 태그 드론을 향한다. Here, i is the number of the tag drone, a is the number of the tag drone that is the standard of the squadron,
Figure pat00002
is the location of the tag drone corresponding to numbering n,
Figure pat00003
is the shooting direction of the second camera 313 of the tag drone corresponding to the numbering n, d is the distance from the adjacent drone preset so that the images captured by each tag drone for rendering overlap each other, and w is the desired It is a unit vector indicating the direction of a straight flight, and the direction of the unit vector is from a tag drone with a low numbering to a tag drone with a high numbering.

도 7에는 본 발명의 촬영 드론(300)들이 수행할 수 있는 렌더링 임무의 또 다른 예시가 도시되어 있다. 도면을 참조하면, 태그 드론들이 격자 형태의 진형을 유지하며, 하방의 목표 대상을 촬영하는 임무에 관한 것이다. 이때, 상호 인접한 태그 드론들에서 촬영된 영상은 일부분이 서로 겹치도록 촬영된다. 7 shows another example of a rendering task that can be performed by the photographing drones 300 of the present invention. Referring to the drawings, the tag drones maintain a grid-like formation, and relate to a mission of photographing a target object below. In this case, the images taken by the tag drones adjacent to each other are taken so that a part overlaps each other.

각 촬영 드론(300)들의 위치 및 촬영 방향은 하기의 수학식 2와 같다. The position and the shooting direction of each of the shooting drones 300 are as shown in Equation 2 below.

앞서 도시된 수학식에서와 동일한 기능을 하는 요소는 동일 기호로 표기한다.Elements having the same function as in the above equation are denoted by the same symbol.

Figure pat00004
Figure pat00004

여기서,

Figure pat00005
는 렌더링을 위해 촬영 영상이 상호 겹쳐지도록 미리 설정된 인접 드론 간의 격자 모형의 가로, 세로의 거리,
Figure pat00006
는 작업자가 원하는 격자 모형 편대의 가로 방향, 세로 방향을 나타내는 단위벡터(태그 드론의 넘버링이 낮은 번호에서 높은 번호 측으로의 방향), sgn(x)는 부호함수이고, rem(x,y)는 x를 y로 나눈 나머지를 반환하는 함수이고, floor(x)는 바닥함수(x를 넘지 않는 최대 정수를 반환)이고, k는 가로열의 격자 개수이다. here,
Figure pat00005
is the horizontal and vertical distance of the grid model between adjacent drones preset so that the captured images overlap each other for rendering;
Figure pat00006
is the unit vector indicating the horizontal and vertical directions of the grid model squadron desired by the operator (the direction from the low numbering to the high numbering of the tag drone), sgn(x) is the sign function, and rem(x,y) is x is a function that returns the remainder of dividing by y, floor(x) is a floor function (returns the maximum integer that does not exceed x), and k is the number of grids in a row.

도 8에는 본 발명의 촬영 드론(300)들이 수행할 수 있는 렌더링 임무의 또 다른 예시가 도시되어 있다. 도면을 참조하면, 태그 드론들이 가상의 호를 이루며, 각각의 태그 드론이 가상의 호의 외측을 향하여 영상의 일부분이 상호 겹치도록 촬영하는 임무에 관한 것이다. 8 shows another example of a rendering task that can be performed by the photographing drones 300 of the present invention. Referring to the drawings, it relates to a task in which tag drones form a virtual arc, and each tag drone takes a picture so that a portion of an image overlaps each other toward the outside of the virtual arc.

각 촬영 드론(300)들의 위치 및 촬영 방향은 하기의 수학식 3과 같다. The position and the shooting direction of each of the shooting drones 300 are as shown in Equation 3 below.

Figure pat00007
Figure pat00007

여기서,

Figure pat00008
는 렌더링을 위해 촬영 영상이 서로 겹쳐지도록 미리 설정된 인접된 드론들 간의 가상의 호 위에서의 거리이고, r은 가상의 호 중심에서 태그 드론까지의 거리이고,
Figure pat00009
는 비행 편대에서 기준이 되는 태그 드론의 높이이고,
Figure pat00010
는 미리 설정된 비행 편대를 이루는 가상의 호의 원점이고,
Figure pat00011
는 기준 태그 드론이
Figure pat00012
를 원점으로 가지는 극좌표에서의 각도이다. here,
Figure pat00008
is the distance on a virtual arc between adjacent drones preset so that the captured images overlap each other for rendering, r is the distance from the center of the virtual arc to the tag drone,
Figure pat00009
is the height of the tag drone as a reference in the flight squadron,
Figure pat00010
is the origin of an imaginary arc forming a preset flight squadron,
Figure pat00011
is based on tag drones
Figure pat00012
It is the angle in polar coordinates with the origin.

도 9에는 본 발명의 촬영 드론(300)들이 수행할 수 있는 렌더링 임무의 또 다른 예시가 도시되어 있다. 도면을 참조하면, 태그 드론들이 하나의 목표 대상물을 기준으로 가상의 원을 이루며 3D 렌더링을 위해 촬영하는 임무에 관한 것이다. 9 shows another example of a rendering task that can be performed by the photographing drones 300 of the present invention. Referring to the drawings, it relates to a mission in which tag drones form a virtual circle based on one target object and shoot for 3D rendering.

각 촬영 드론(300)들의 위치 및 촬영 방향은 하기의 수학식 4와 같다. The position and the shooting direction of each of the shooting drones 300 are as shown in Equation 4 below.

Figure pat00013
Figure pat00013

여기서,

Figure pat00014
은 3D 렌더링 촬영을 하고자 하는 목표 대상물의 중심점이고,
Figure pat00015
은 렌더링을 위해 촬영 영상이 서로 겹쳐지도록 미리 설정된 인접 촬영 드론(300) 간의 가상의 원 위에서의 거리이고,
Figure pat00016
는 비행 편대의 기준 태그 드론이
Figure pat00017
을 원점으로 가지는 극좌표에서의 각도이다. here,
Figure pat00014
is the center point of the target object for 3D rendering,
Figure pat00015
is a distance on a virtual circle between adjacent shooting drones 300 preset so that the shooting images overlap each other for rendering,
Figure pat00016
is the standard tag drone of the squadron
Figure pat00017
is the angle in polar coordinates with the origin.

상술된 바와 같이 구성된 본 발명에 따른 다중 드론 측위 및 촬영 시스템(100)은 방향성을 갖는 랜드마크(20)(Landmark)를 기준으로 복수의 비컨 드론(200)(Beacon drone)이 영상 및 RF 정보를 활용하여 측위를 하며, 복수의 촬영 드론(300)은 비컨 드론(200)들의 RF 정보를 통해 측위를 할 수 있으므로 절대 측위를 사용할 수 없는 지역에서도 보다 정확하게 드론의 작동이 가능하다는 장점이 있다. The multi-drone positioning and imaging system 100 according to the present invention configured as described above uses a plurality of beacon drones 200 (Beacon drones) based on a landmark 20 (Landmark) having directionality to receive images and RF information. Positioning is carried out by utilizing it, and since the plurality of photographing drones 300 can perform positioning through RF information of the beacon drones 200, there is an advantage that the drone can be operated more accurately even in an area where absolute positioning cannot be used.

또한, 본 발명은 정해진 네트워크 토폴로지를 바탕으로 이웃 드론들까지의 거리를 추가로 측정하거나 획득한 정보를 공유할 수 있으며, 이를 통해 기존에 예측된 위치 및 방위 값을 보정하므로 보다 정확한 측정 값을 산출할 수 있다. In addition, the present invention can additionally measure the distance to neighboring drones based on a determined network topology or share the acquired information, and through this, a more accurate measurement value is calculated because the previously predicted position and azimuth values are corrected. can do.

그리고, 본 발명은 주어진 렌더링 임무에 맞게 다중 무인비행체의 위치 및 자세를 제어하고, 이에 맞게 영상 촬영 센서의 방향을 설정 하여 목표 대상을 촬영하고 실시간 또는 임무 종료 후 렌더링을 진행할 수 있다는 장점이 있다. In addition, the present invention has the advantage of being able to control the position and posture of multiple unmanned aerial vehicles according to a given rendering task, set the direction of the image capturing sensor accordingly, shoot the target object, and perform rendering in real time or after the mission is finished.

제시된 실시예들에 대한 설명은 임의의 본 발명의 기술분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the invention. Thus, the present invention is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

100: 다중 드론 측위 및 촬영 시스템
200: 비컨 드론
210: 제1무인 비행체
220: 제1센서부
221: 제1카메라
222: 신호 리시버
230: 제1통신모듈
240: 제1측위부
250: 제1제어부
300: 촬영 드론
310: 제2무인 비행체
320: 제2통신모듈
330: 제2센서부
340: 제2측위부
350: 제2제어부
100: Multiple drone positioning and shooting system
200: beacon drone
210: first unmanned aerial vehicle
220: first sensor unit
221: first camera
222: signal receiver
230: first communication module
240: first positioning unit
250: first control unit
300: shooting drone
310: second unmanned aerial vehicle
320: second communication module
330: second sensor unit
340: second positioning unit
350: second control unit

Claims (20)

랜드마크가 포함된 측정대상 영역을 비행하는 것으로서, 상기 랜드마크를 감지하여 해당 랜드마크를 기준으로 위치정보를 생성하는 적어도 하나의 비컨 드론; 및
상기 측정대상 영역을 비행하며, 해당 측정대상 영역을 촬영하는 것으로서, 상기 비컨 드론으로부터 해당 위치정보를 수신하고, 수신된 위치정보 및 상기 비컨드론을 감지한 감지정보를 토대로 상기 측정대상 영역 내 위치를 판별하여 비행하는 촬영 드론;을 구비하는,
다중 드론 측위 및 촬영 시스템.
at least one beacon drone flying over a measurement target area including a landmark, detecting the landmark and generating location information based on the landmark; and
Flying over the measurement target area and photographing the corresponding measurement target area, receiving the corresponding location information from the beacon drone, and determining the location within the measurement target area based on the received location information and sensing information for detecting the beacon drone A photographing drone that discriminates and flies; having;
Multiple drone positioning and imaging system.
제1항에 있어서,
상기 비컨 드론은
상기 측정대상 영역을 비행하는 제1무인 비행체;
상기 제1무인 비행체에 설치되어 상기 랜드마크를 감지하는 제1센서부;
상기 제1센서부에서 제공되는 감지정보를 토대로 상기 랜드마크를 기준으로 해당 제1무인 비행체의 위치를 산출하는 제1측위부;
상기 제1측위부에서 산출된 위치 정보를 토대로 상기 제1무인 비행체의 비행을 제어하는 제1제어부;를 구비하는,
다중 드론 측위 및 촬영 시스템.
According to claim 1,
The beacon drone
a first unmanned aerial vehicle flying over the measurement target area;
a first sensor unit installed on the first unmanned aerial vehicle to detect the landmark;
a first positioning unit for calculating a position of the first unmanned aerial vehicle based on the landmark based on the detection information provided by the first sensor unit;
A first control unit for controlling the flight of the first unmanned aerial vehicle based on the position information calculated by the first positioning unit;
Multiple drone positioning and imaging system.
제2항에 있어서,
상기 제1센서부는 상기 제1무인 비행체에 설치되어 상기 랜드마크를 촬영하는 제1카메라;를 구비하는,
다중 드론 측위 및 촬영 시스템.
3. The method of claim 2,
The first sensor unit is installed in the first unmanned aerial vehicle and a first camera for photographing the landmark;
Multiple drone positioning and imaging system.
제3항에 있어서,
상기 랜드마크는 식별신호를 방출하는 식별태그;를 구비하고,
상기 제1센서부는 상기 식별태그에서 송출되는 상기 식별신호를 수신할 수 있도록 상기 제1무인 비행체에 설치되는 신호 리시버;를 구비하는,
다중 드론 측위 및 촬영 시스템.
4. The method of claim 3,
The landmark includes an identification tag that emits an identification signal;
The first sensor unit includes a signal receiver installed in the first unmanned aerial vehicle so as to receive the identification signal transmitted from the identification tag;
Multiple drone positioning and imaging system.
제4항에 있어서,
상기 식별태그는 RF(Radio Frequency) 식별 신호를 송출하는,
다중 드론 측위 및 촬영 시스템.
5. The method of claim 4,
The identification tag transmits an RF (Radio Frequency) identification signal,
Multiple drone positioning and imaging system.
제4항에 있어서,
상기 제1측위부는 상기 제1카메라에서 제공되는 촬영 영상 및 상기 신호 리시버에서 수신된 식별신호에 대한 정보를 토대로 상기 랜드마크를 기준으로 설정된 공통 좌표계 내에서 상기 제1무인 비행체의 위치 정보를 생성하는,
다중 드론 측위 및 촬영 시스템.
5. The method of claim 4,
The first positioning unit generates position information of the first unmanned aerial vehicle within a common coordinate system set based on the landmark based on the information about the identification signal received from the signal receiver and the captured image provided by the first camera. ,
Multiple drone positioning and imaging system.
제6항에 있어서,
상기 제1측위부는
상기 제1카메라에서 제공받은 촬영 영상에서 상기 랜드마크를 식별하는 식별모듈;
상기 신호 리시버에서 수신된 식별신호에 대한 정보를 토대로 상기 랜드마크로부터 상기 제1무인 비행체까지의 거리에 대한 정보를 산출하는 거리산출모듈; 및
상기 식별모듈 및 거리산출모듈에서 제공되는 식별 정보 및 산출 정보를 토대로 상기 제1무인 비행체의 위치 정보를 생성하는 측위모듈;을 구비하는,
다중 드론 측위 및 촬영 시스템.
7. The method of claim 6,
The first positioning unit
an identification module for identifying the landmark in the captured image provided by the first camera;
a distance calculation module for calculating information on the distance from the landmark to the first unmanned aerial vehicle based on the information on the identification signal received from the signal receiver; and
A positioning module for generating the position information of the first unmanned aerial vehicle based on the identification information and calculation information provided by the identification module and the distance calculation module;
Multiple drone positioning and imaging system.
제7항에 있어서,
상기 측위모듈은 상기 식별모듈에서 제공되는 상기 촬영 영상 내의 상기 랜드마크에 대한 식별 정보를 토대로 상기 제1무인 비행체의 위치 정보를 생성하고, 상기 거리산출모듈에서 제공되는 상기 랜드마크와 제1무인 비행체 사이의 거리 정보를 토대로 해당 위치 정보를 보정하는,
다중 드론 측위 및 촬영 시스템.
8. The method of claim 7,
The positioning module generates location information of the first unmanned aerial vehicle based on identification information on the landmark in the captured image provided by the identification module, and the landmark and the first unmanned aerial vehicle provided by the distance calculation module Correcting the location information based on the distance information between them,
Multiple drone positioning and imaging system.
제7항에 있어서,
상기 비컨 드론은 다수개가 상기 측정대상 영역에 상호 이격되게 비행하고, 상호 인접된 상기 비컨 드론들 사이에 데이터 통신이 가능할 수 있도록 상기 제1무인 비행체에 설치되는 제1통신모듈;을 더 구비하는,
다중 드론 측위 및 촬영 시스템.
8. The method of claim 7,
A plurality of the beacon drones fly apart from each other in the measurement target area, and a first communication module installed in the first unmanned aerial vehicle to enable data communication between the adjacent beacon drones; further comprising,
Multiple drone positioning and imaging system.
제9항에 있어서,
상기 측위모듈은 상기 제1통신모듈을 통해 인접된 상기 비컨 드론의 측위모듈로부터 해당 비컨 드론의 위치 정보를 수신받고, 수신받은 인접된 상기 비컨 드론의 위치 정보를 토대로 상기 제1무인 비행체의 위치 정보를 보정하는,
다중 드론 측위 및 촬영 시스템.
10. The method of claim 9,
The positioning module receives the location information of the corresponding beacon drone from the positioning module of the adjacent beacon drone through the first communication module, and the location information of the first unmanned aerial vehicle based on the received location information of the adjacent beacon drone to correct
Multiple drone positioning and imaging system.
제10항에 있어서,
상기 제1통신모듈은 RF(Radio Frequency) 신호를 이용하여 통신을 수행하는,
다중 드론 측위 및 촬영 시스템.
11. The method of claim 10,
The first communication module performs communication using an RF (Radio Frequency) signal,
Multiple drone positioning and imaging system.
제11항에 있어서,
상기 측위모듈은 상기 제1통신모듈을 통해 인접된 상기 비컨 드론으로부터 수신된 신호에 대한 정보를 토대로 인접된 상기 비컨 드론까지의 이격 거리를 산출하고, 산출된 해당 인접된 상기 비컨 드론까지의 이격 거리 및 인접된 상기 비컨 드론의 위치정보를 토대로 상기 제1무인 비행체의 위치 정보를 보정하는,
다중 드론 측위 및 촬영 시스템.
12. The method of claim 11,
The positioning module calculates a separation distance to the adjacent beacon drone based on information about a signal received from the adjacent beacon drone through the first communication module, and calculates the calculated separation distance to the adjacent beacon drone and correcting the position information of the first unmanned aerial vehicle based on the position information of the adjacent beacon drone.
Multiple drone positioning and imaging system.
제1항에 있어서,
상기 촬영 드론은
상기 측정대상 영역을 비행하는 제2무인 비행체;
상기 측정대상 영역을 촬영할 수 있도록 상기 제2무인 비행체에 설치되는 제2카메라;
상기 제1무인 비행체를 감지할 수 있도록 상기 제2무인 비행체에 마련된 제2센서부;
상기 제2센서부에서 제공되는 감지정보를 토대로 상기 제2무인 비행체의 위치를 산출하는 제2측위부;
상기 제2측위부에서 산출된 위치정보를 토대로 상기 제2무인 비행체의 비행을 제어하는 제2제어부;를 구비하는,
다중 드론 측위 및 촬영 시스템.
According to claim 1,
The shooting drone
a second unmanned aerial vehicle flying over the measurement target area;
a second camera installed in the second unmanned aerial vehicle to photograph the measurement target area;
a second sensor unit provided in the second unmanned aerial vehicle to detect the first unmanned aerial vehicle;
a second positioning unit for calculating the position of the second unmanned aerial vehicle based on the sensing information provided by the second sensor unit;
A second control unit for controlling the flight of the second unmanned aerial vehicle based on the position information calculated by the second positioning unit;
Multiple drone positioning and imaging system.
제13항에 있어서,
상기 촬영 드론은 상기 비컨 드론으로부터 전송되는 해당 비컨 드론의 위치정보를 수신할 수 있도록 상기 제2무인 비행체에 마련되는 제2통신모듈;을 더 구비하는,
다중 드론 측위 및 촬영 시스템.
14. The method of claim 13,
The photographing drone further includes a second communication module provided in the second unmanned aerial vehicle so as to receive the location information of the corresponding beacon drone transmitted from the beacon drone.
Multiple drone positioning and imaging system.
제14항에 있어서,
상기 제2측위부는 상기 제2센서부에서 제공되는 감지정보와 함께 상기 제2통신모듈을 통해 수신된 상기 비컨 드론의 위치정보를 토대로 상기 제2무인 비행체의 위치를 산출하는,
다중 드론 측위 및 촬영 시스템.
15. The method of claim 14,
The second positioning unit calculates the position of the second unmanned aerial vehicle based on the position information of the beacon drone received through the second communication module together with the detection information provided by the second sensor unit,
Multiple drone positioning and imaging system.
제15항에 있어서,
상기 제2통신모듈은 RF(Radio Frequency) 신호를 이용하여 통신을 수행하는,
다중 드론 측위 및 촬영 시스템.
16. The method of claim 15,
The second communication module performs communication using an RF (Radio Frequency) signal,
Multiple drone positioning and imaging system.
제16항에 있어서,
상기 제2센서부는 상기 제2통신모듈을 통해 상기 비컨 드론으로부터 수신된 신호에 대한 정보를 토대로 상기 비컨 드론에서 상기 제2무인 비행체까지의 이격거리를 산출하는,
다중 드론 측위 및 촬영 시스템.
17. The method of claim 16,
The second sensor unit calculates a separation distance from the beacon drone to the second unmanned aerial vehicle based on information about a signal received from the beacon drone through the second communication module,
Multiple drone positioning and imaging system.
제15항에 있어서,
상기 제2측위부는 상기 제2카메라에서 상기 비컨 드론이 촬영될 경우, 상기 제2카메라에서 제공되는 촬영 영상에서 상기 비컨 드론을 식별하고, 해당 촬영 영상에서 식별된 비컨 드론을 토대로 상기 비컨 드론과의 이격거리를 산출하며, 산출된 상기 비컨 드론과의 이격거리를 토대로 상기 제2무인 비행체의 위치를 보정하는,
다중 드론 측위 및 촬영 시스템.
16. The method of claim 15,
When the beacon drone is photographed by the second camera, the second positioning unit identifies the beacon drone from the captured image provided by the second camera, and communicates with the beacon drone based on the beacon drone identified in the captured image. calculating the separation distance and correcting the position of the second unmanned aerial vehicle based on the calculated separation distance with the beacon drone,
Multiple drone positioning and imaging system.
제1항에 있어서,
상기 랜드마크는
상기 측정대상 영역 내에서 이동하는 운반유닛; 및
상기 비컨 드론에 의해 촬영될 수 있도록 상기 운반유닛에 설치되는 인식대상체;를 구비하는,
다중 드론 측위 및 촬영 시스템.
According to claim 1,
The landmark is
a transport unit moving within the measurement target area; and
A recognition object installed in the transport unit so as to be photographed by the beacon drone;
Multiple drone positioning and imaging system.
제2항에 있어서,
상기 제1제어부는 상기 제1카메라에서 제공되는 영상을 토대로 해당 제1카메라에 상기 랜드마크가 촬영될 수 있도록 상기 제1무인 비행체의 비행을 제어하는,
다중 드론 측위 및 촬영 시스템.
3. The method of claim 2,
The first control unit controls the flight of the first unmanned aerial vehicle so that the landmark can be photographed by the first camera based on the image provided from the first camera,
Multiple drone positioning and imaging system.
KR1020210021580A 2021-02-18 2021-02-18 Multiple drone positioning and video shooting system KR102562672B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210021580A KR102562672B1 (en) 2021-02-18 2021-02-18 Multiple drone positioning and video shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210021580A KR102562672B1 (en) 2021-02-18 2021-02-18 Multiple drone positioning and video shooting system

Publications (2)

Publication Number Publication Date
KR20220118008A true KR20220118008A (en) 2022-08-25
KR102562672B1 KR102562672B1 (en) 2023-08-02

Family

ID=83111259

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210021580A KR102562672B1 (en) 2021-02-18 2021-02-18 Multiple drone positioning and video shooting system

Country Status (1)

Country Link
KR (1) KR102562672B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116048117A (en) * 2022-12-31 2023-05-02 众芯汉创(北京)科技有限公司 Intelligent real-time monitoring system applied to unmanned aerial vehicle
CN116307619A (en) * 2023-03-29 2023-06-23 邦邦汽车销售服务(北京)有限公司 Rescue vehicle allocation method and system based on data identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180063595A (en) * 2016-12-02 2018-06-12 순천향대학교 산학협력단 Drone automatic flight system using beacon signal and method thereof
KR20180074325A (en) * 2016-12-23 2018-07-03 삼성전자주식회사 Electronic apparatus for controlling a plurality of drones and method for controlling thereof
JP2018185167A (en) * 2017-04-24 2018-11-22 三菱電機株式会社 Flying control device and shape measurement device
JP6525291B2 (en) * 2015-08-03 2019-06-05 Necソリューションイノベータ株式会社 Location management apparatus, location management method, and program
JP2020138681A (en) * 2019-03-01 2020-09-03 三菱自動車工業株式会社 Control system for unmanned flight vehicle
KR102210083B1 (en) 2020-01-02 2021-02-01 고한결 Drone Control System

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6525291B2 (en) * 2015-08-03 2019-06-05 Necソリューションイノベータ株式会社 Location management apparatus, location management method, and program
KR20180063595A (en) * 2016-12-02 2018-06-12 순천향대학교 산학협력단 Drone automatic flight system using beacon signal and method thereof
KR20180074325A (en) * 2016-12-23 2018-07-03 삼성전자주식회사 Electronic apparatus for controlling a plurality of drones and method for controlling thereof
JP2018185167A (en) * 2017-04-24 2018-11-22 三菱電機株式会社 Flying control device and shape measurement device
JP2020138681A (en) * 2019-03-01 2020-09-03 三菱自動車工業株式会社 Control system for unmanned flight vehicle
KR102210083B1 (en) 2020-01-02 2021-02-01 고한결 Drone Control System

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116048117A (en) * 2022-12-31 2023-05-02 众芯汉创(北京)科技有限公司 Intelligent real-time monitoring system applied to unmanned aerial vehicle
CN116048117B (en) * 2022-12-31 2023-10-27 众芯汉创(北京)科技有限公司 Intelligent real-time monitoring system and method applied to unmanned aerial vehicle
CN116307619A (en) * 2023-03-29 2023-06-23 邦邦汽车销售服务(北京)有限公司 Rescue vehicle allocation method and system based on data identification
CN116307619B (en) * 2023-03-29 2023-09-26 邦邦汽车销售服务(北京)有限公司 Rescue vehicle allocation method and system based on data identification

Also Published As

Publication number Publication date
KR102562672B1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
US9013576B2 (en) Aerial photograph image pickup method and aerial photograph image pickup apparatus
US11120560B2 (en) System and method for real-time location tracking of a drone
JP7263630B2 (en) Performing 3D reconstruction with unmanned aerial vehicles
EP3540550B1 (en) Method for acquiring images from arbitrary perspectives with uavs equipped with fixed imagers
JP5748561B2 (en) Aerial photography imaging method and aerial photography imaging apparatus
Cui et al. Drones for cooperative search and rescue in post-disaster situation
CN109643129A (en) The method and system of independent landing
US10852723B2 (en) Unmanned aerial vehicle swarm photography
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
CN109219785A (en) Simple multisensor calibration
KR102562672B1 (en) Multiple drone positioning and video shooting system
Suzuki et al. Vision based localization of a small UAV for generating a large mosaic image
JP2020023283A (en) Flight control device, method, and program
US11095870B1 (en) Calibration of cameras on unmanned aerial vehicles using human joints
JP6934116B1 (en) Control device and control method for controlling the flight of an aircraft
CN116830057A (en) Unmanned Aerial Vehicle (UAV) cluster control
JP2020138681A (en) Control system for unmanned flight vehicle
JP6530212B2 (en) Autonomous mobile robot
WO2021250914A1 (en) Information processing device, movement device, information processing system, method, and program
CN108225316B (en) Carrier attitude information acquisition method, device and system
KR102169512B1 (en) Localization system and method using uav and rfid platform
WO2022000245A1 (en) Aircraft positioning method, and control method and apparatus for assisted positioning system
CN110892353A (en) Control method, control device and control terminal of unmanned aerial vehicle
JP2020160019A (en) Method for measuring three-dimensional shape of object
KR20230115042A (en) Collision avoidance drone and control method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right