KR102504743B1 - Position correction device and correction method of inspection drone based on the model of the facility - Google Patents

Position correction device and correction method of inspection drone based on the model of the facility Download PDF

Info

Publication number
KR102504743B1
KR102504743B1 KR1020210111737A KR20210111737A KR102504743B1 KR 102504743 B1 KR102504743 B1 KR 102504743B1 KR 1020210111737 A KR1020210111737 A KR 1020210111737A KR 20210111737 A KR20210111737 A KR 20210111737A KR 102504743 B1 KR102504743 B1 KR 102504743B1
Authority
KR
South Korea
Prior art keywords
drone
modeling
facility
unit
inspection
Prior art date
Application number
KR1020210111737A
Other languages
Korean (ko)
Inventor
박찬호
윤혁진
김대현
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020210111737A priority Critical patent/KR102504743B1/en
Application granted granted Critical
Publication of KR102504743B1 publication Critical patent/KR102504743B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/393Trajectory determination or predictive tracking, e.g. Kalman filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to an autonomous flight of a drone inspecting a facility and, more specifically, to an apparatus and a method for correcting the position of an inspection drone based on modeling of a facility when a positioning algorithm of a drone does not operate smoothly due to a GPS shadow area during the inspection of the facility. To this end, provided is a position correction apparatus for an inspection drone based on modeling of a facility which includes a drone (100) and a drone control unit (200) which are wirelessly communicable with each other The drone control unit (200) includes: (i-1) a three-dimensional modeling unit (230) storing modeling (10a) data of the facility (10) to be inspected; (i-2) a path generation unit (260) that generates a flight path (30) of the drone (100) with respect to the modeling (10a); (i-3) a keyframe extraction unit (280) that extracts a frame image (55) for a camera pose (60) at a random location on the flight path (30); (i-4) a feature extraction unit (290) that extracts features of the facility (10) from the frame image (55); and (i-5) a control communication unit (220) that communicates wirelessly with the drone (100). The drone (100) includes: (ii-1) a wireless communication unit (140) that communicates wirelessly with the control communication unit (220); (ii-2) a path storage unit (190) storing the flight path (30); and (ii-3) a drone control unit (110) that corrects the predicted position (102) of the drone (100) based on the features received from the feature extraction unit (290).

Description

시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치 및 보정방법{Position correction device and correction method of inspection drone based on the model of the facility}Position correction device and correction method of inspection drone based on the model of the facility {Position correction device and correction method of inspection drone based on the model of the facility}

본 발명은 시설물 점검하는 드론의 자율비행에 관한 것으로, 보다 상세하게는 시설물 점검 중인 드론이 GPS 음영지역으로 인해 측위 알고리즘이 원활히 동작되지 않을 때 시설물의 모델링을 기반으로 점검 드론의 위치를 보정하는 장치 및 방법에 관한 것이다. The present invention relates to the autonomous flight of a drone inspecting a facility, and more particularly, a device for correcting the position of a drone inspecting a facility based on facility modeling when a positioning algorithm does not operate smoothly due to a GPS shaded area. and methods.

일반적으로, 열차 선로, 교량 등에 대해서는 드론(또는 멀티콥터 등과 같은 무인비행체)를 이용하여 거더, 하부 구조물, 교대 등을 촬영한 뒤 균열, 변형, 기울어짐 등을 점검한다. 이러한 촬영과 점검은 정기적으로 수행되며, 시간과 비용이 단축되기 때문에 최근 크게 각광을 받으면서 널리 행해지고 있다. In general, for train tracks, bridges, etc., girders, substructures, abutments, etc. are photographed using a drone (or an unmanned aerial vehicle such as a multicopter) and then cracks, deformations, tilts, etc. are inspected. Such photographing and inspection are performed on a regular basis, and since time and cost are reduced, it has recently been greatly spotlighted and widely performed.

즉, 드론을 탑재한 차량으로 시설물 근처까지 이동한 후, 드론을 띄운다. 조작자는 차량 내부에서 드론을 통제하며, 촬영과 점검 과정을 모니터링하게 된다. That is, after moving to the vicinity of the facility with a vehicle equipped with a drone, the drone is launched. The operator controls the drone from inside the vehicle and monitors the filming and inspection process.

그런데, 철도교량이나 거더의 하부 구조물 검사 중에서는 시설물로 인해 드론의 위성항법정보(GPS신호)의 음영지역이 발생하여 수신율이 저하되는 문제점이 있다. 이러한 수신율의 저하로 인해, 드론이 현재 위치를 정확히 인식하기 어렵고, 시설물에 충돌하거나 오작동하는 사례가 있었다. 종래에는 이러한 문제점이 발생하는 경우 조작자가 자동비행을 끄고 수동으로 드론을 조정했어야만 했다. 따라서, 조작자의 비행조작 숙련도가 필요했으며, 자동 점검과 수동점검이 혼재되어 혼선을 일으키고, 점검시간이 증가하는 단점들이 있었다. However, during inspection of the lower structure of a railway bridge or a girder, there is a problem in that a reception rate is lowered due to a shadow area of the satellite navigation information (GPS signal) of the drone due to the facility. Due to such deterioration in the reception rate, it is difficult for the drone to accurately recognize the current location, and there have been cases where the drone collides with a facility or malfunctions. Conventionally, when this problem occurs, the operator has to turn off the automatic flight and manually adjust the drone. Therefore, the operator's flight control skill was required, and there were disadvantages in that automatic inspection and manual inspection were mixed, causing confusion and increasing inspection time.

1. 대한민국 특허등록 제10-1782039호(드론을 이용한 하천 및 하천시설물 측량장치 및 위치 측정방법),1. Republic of Korea Patent Registration No. 10-1782039 (River and river facility surveying device and location measurement method using drone), 2. 대한민국 특허등록 제10-1881121호(거리를 측량하는 드론 및 드론의 제어 방법),2. Republic of Korea Patent Registration No. 10-1881121 (drones measuring distances and drone control methods), 3. 대한민국 특허공개 제10-2019-0092789호(드론의 위치 측정 방법 및 이를 이용한 드론의 위치 보정 시스템).3. Republic of Korea Patent Publication No. 10-2019-0092789 (Drone position measurement method and drone position correction system using the same).

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 시설물의 음영 등으로 인해 위성항법정보의 수신이 원활하지 않고 이로 인해 드론의 측위가 부정확할 때 대상물의 3D 모델링을 기반으로 드론의 위치를 보정할 수 있는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치 및 보정방법을 제공하는 것이다. Therefore, the present invention has been devised to solve the above problems, and the problem to be solved by the present invention is that the reception of satellite navigation information is not smooth due to the shadow of the facility, and as a result, the positioning of the drone is inaccurate. To provide a position correction device and correction method for inspection drones based on modeling of a facility capable of correcting the location of a drone based on 3D modeling.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clear to those skilled in the art from the description below. You will be able to understand.

상기의 기술적 과제를 달성하기 위하여, 상호 무선통신이 가능한 드론(100)과 드론관제부(200)에 있어서, (i-1) 점검할 시설물(10)의 모델링(10a) 데이터가 저장된 3D모델링부(230); (i-2) 모델링(10a)에 대한 드론(100)의 비행경로(30)를 생성하는 경로생성부(260); (i-3) 비행경로(30) 상의 임의 위치에서 카메라 포즈(60)에 대한 프레임 이미지(55)를 추출하는 키프레임 추출부(280); (i-4) 프레임 이미지(55)로부터 시설물(10)의 특징을 추출하는 특징추출부(290); 및 (i-5) 드론(100)과 무선 통신하는 관제통신부(220);를 포함하는 드론관제부(200); 및 (ii-1) 관제통신부(220)와 무선 통신하는 무선통신부(140); (ii-2) 비행경로(30)가 저장되는 경로저장부(190); 및 (ii-3) 특징추출부(290)로부터 수신된 특징에 기초하여 드론(100)의 예측위치(102)를 보정하는 드론제어부(110);를 포함하는 드론(100);으로 구성되는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치에 의해 달성될 수 있다.In order to achieve the above technical task, in the drone 100 and the drone control unit 200 capable of wireless communication with each other, (i-1) a 3D modeling unit in which modeling (10a) data of the facility 10 to be inspected is stored (230); (i-2) a path generator 260 generating a flight path 30 of the drone 100 for the modeling 10a; (i-3) a key frame extractor 280 for extracting a frame image 55 for the camera pose 60 at an arbitrary position on the flight path 30; (i-4) a feature extraction unit 290 extracting features of the facility 10 from the frame image 55; and (i-5) a control communication unit 220 that wirelessly communicates with the drone 100; a drone control unit 200 including; and (ii-1) a wireless communication unit 140 that wirelessly communicates with the control communication unit 220; (ii-2) a path storage unit 190 in which the flight path 30 is stored; and (ii-3) a drone control unit 110 that corrects the predicted position 102 of the drone 100 based on the features received from the feature extraction unit 290. This can be achieved by a device for correcting the position of an inspection drone based on the modeling of a characteristic facility.

또한, 특징추출부(290)는, 카메라 포즈(60)에 관한 정보를 추출하는 카메라 포즈 추출부(292); 프레임 이미지로부터 촬영평면(80, 82)을 추출하는 촬영평면 추출부(294); 및 촬영평면(80, 82)으로부터 외곽선(84)을 추출하는 외곽선 추출부(296);를 포함할 수 있다.In addition, the feature extraction unit 290 includes a camera pose extraction unit 292 that extracts information about the camera pose 60; an imaging plane extraction unit 294 for extracting the imaging planes 80 and 82 from the frame image; and an outline extraction unit 296 for extracting an outline 84 from the photographing planes 80 and 82 .

또한, 드론(100)은 예측위치(102)를 산출하기 위해, 카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나를 더 포함한다.In addition, the drone 100 further includes at least one of a camera 120, a GPS 130, and an IMU 160 to calculate the predicted location 102.

또한, 드론제어부(110)는 예측위치(102)를 보정하기 위해 깊이센서(150)를 더 포함한다. In addition, the drone controller 110 further includes a depth sensor 150 to correct the predicted position 102 .

또한, 드론제어부(110)는 예측위치(102)를 보정하기 위해, 예측위치(102)로부터 보정위치(104)까지의 상대거리(Dx, Dy, Dz); 및 드론(100)의 기수 회전각(θyaw);을 산출한다.In addition, in order to correct the predicted position 102, the drone control unit 110 includes relative distances (Dx, Dy, Dz) from the predicted position 102 to the corrected position 104; and the nose rotation angle (θyaw) of the drone 100.

상기와 같은 본 발명의 목적은 또 다른 카테고리로써, 전술한 위치 보정장치를 이용한 보정방법에 있어서, 드론제어부(110)가 드론관제부(200)로부터 비행경로(30)를 수신하여 경로저장부(190)에 저장하는 사전단계(S90); 드론제어부(110)가 카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나의 출력신호에 기초하여 예측위치(102)를 산출하고, 카메라(120)의 포즈를 추출하는 단계(S100); 카메라(120) 포즈가 상방 촬영인 경우, 드론관제부(200)의 특징추출부(290)로부터 수신된 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 Z축 상대거리(Dz)를 보정하는 단계(S130); 및 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx), Y축 상대거리(Dy) 및 드론(100)의 기수 회전각(θyaw)을 보정하는 단계(S140);를 포함하고, 카메라(120) 포즈가 전방 촬영인 경우, 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx) 및 기수 회전각(θyaw)을 보정하는 단계(S160); 및 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 Y축 상대거리(Dy) 및 Z축 상대거리(Dz)를 보정하는 단계(S170);를 포함하고, 드론제어부(110)가 보정위치(104)로 비행하는 단계(S150);를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법에 의해서도 달성될 수 있다.Another object of the present invention as described above is another category, and in the correction method using the above-described position correction device, the drone control unit 110 receives the flight path 30 from the drone control unit 200, and the path storage unit ( 190) pre-step (S90) to store; The step of the drone controller 110 calculating the predicted position 102 based on the output signal of at least one of the camera 120, the GPS 130, and the IMU 160, and extracting the pose of the camera 120 ( S100); When the pose of the camera 120 is upward shooting, the Z-axis relative distance from the predicted position 102 to the corrected position 104 based on the modeling features received from the feature extraction unit 290 of the drone controller 200 Correcting (Dz) (S130); And correcting the X-axis relative distance (Dx), Y-axis relative distance (Dy) and nose rotation angle (θyaw) of the drone 100 from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling Step (S140); including, when the camera 120 pose is forward shooting, the X-axis relative distance (Dx) and nose rotation angle from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling Correcting (θyaw) (S160); And correcting the Y-axis relative distance (Dy) and the Z-axis relative distance (Dz) from the predicted position 102 to the corrected position 104 based on the characteristics of modeling (S170); including, a drone control unit ( 110) flying to the correction position 104 (S150); it can also be achieved by a method for correcting the position of an inspection drone based on modeling of a facility, characterized in that it includes.

또한, 보정단계(S130, S160)에서 모델링의 특징은, 특징추출부(290) 중 촬영평면 추출부(294)가 모델링(10a)으로부터 추출한 촬영평면(80, 82) 데이터를 포함한다.Also, in the correction steps S130 and S160, the modeling features include data of the imaging planes 80 and 82 extracted from the modeling 10a by the imaging plane extraction unit 294 of the feature extraction unit 290.

또한, 보정단계(S140, S170)에서 모델링의 특징은, 특징추출부(290) 중 촬영평면의 외곽선 추출부(296)가 모델링(10a)으로부터 추출한 외곽선(84) 데이터를 포함한다.Further, in the correction steps S140 and S170, the modeling features include outline 84 data extracted from the modeling 10a by the outline extractor 296 of the feature extractor 290.

또한, 카메라(120) 포즈가 상방 촬영인 경우, 드론(100)은 시설물(10)의 하부를 비행한다. Also, when the pose of the camera 120 is upward shooting, the drone 100 flies below the facility 10 .

또한, 보정단계(S130, S140, S160, S170)에서, 드론제어부(110)는 깊이센서(150)의 출력신호를 더 기초로 하여 보정할 수 있다.Also, in the calibration steps (S130, S140, S160, and S170), the drone control unit 110 may perform correction based on the output signal of the depth sensor 150.

또한, 모델링은 시설물의 3-D 모델링이다. Also, modeling is 3-D modeling of facilities.

본 발명의 일실시예에 따르면, 시설물의 점검 도중 위성항법정보(GPS신호)의 수신율이 저하되거나 음영지역을 비행하더라도 시설물의 모델링을 기반으로 드론이 위치를 보정함으로써 정확한 위치를 산출할 수 있다. According to one embodiment of the present invention, even if the reception rate of satellite navigation information (GPS signal) decreases during facility inspection or flies in a shaded area, the drone corrects the location based on facility modeling to calculate an accurate location.

이를 통해, 원활하고 신속한 시설물의 점검이 이루어질 수 있으며, 조작자는 드론의 비행 보다는 시설물의 점검이나 판정에 더욱 신경을 집중할 수 있다. Through this, facilities can be inspected smoothly and quickly, and the operator can focus more on inspecting or determining the facilities rather than flying the drone.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명에 따른 드론이 시설물을 점검하는 상태를 나타내는 동작 상태도,
도 2는 본 발명에 사용되는 시설물의 3D 모델링(50) 중 일부를 나타내는 사시도면,
도 3은 본 발명에 따른, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정에서 드론(100)의 예측위치(102)와 보정위치(104)를 개념적으로 나타내는 평면도,
도 4는 본 발명의 일실시예에 따른, 시설물의 모델링을 기반으로 하는 점검 드론(100) 및 드론관제부(200)의 개략적인 블록도,
도 5는 도 4 중 특징추출부(290)의 세부적인 블록도,
도 6은 촬영평면추출부(294)와 촬영평면의 외곽선 추출부(296)가 프레임 이미지(55)로부터 촬영평면과 외곽선을 추출하는 일예를 도시한 정면도,
도 7은 본 발명의 일실시예에 따라, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법을 나타내는 흐름도이다.
The following drawings attached to this specification illustrate preferred embodiments of the present invention, and together with the detailed description of the present invention serve to further understand the technical idea of the present invention, the present invention is the details described in such drawings should not be construed as limited to
1 is an operating state diagram showing a state in which a drone inspects a facility according to the present invention;
2 is a perspective view showing some of the 3D modeling 50 of the facility used in the present invention;
3 is a plan view conceptually showing a predicted position 102 and a corrected position 104 of a drone 100 in position correction of an inspection drone based on facility modeling according to the present invention;
4 is a schematic block diagram of an inspection drone 100 and a drone control unit 200 based on facility modeling according to an embodiment of the present invention;
5 is a detailed block diagram of the feature extraction unit 290 in FIG. 4;
6 is a front view showing an example in which the capturing plane extraction unit 294 and the capturing plane outline extracting unit 296 extract the capturing plane and outline from the frame image 55;
7 is a flowchart illustrating a method for calibrating the position of an inspection drone based on facility modeling according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element. It should be understood that when an element is referred to as “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being “directly connected” to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to a described feature, number, step, operation, component, part, or It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of the related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present invention.

실시예의 구성Configuration of the embodiment

이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다. 도 1은 본 발명에 따른 드론이 시설물을 점검하는 상태를 나타내는 동작 상태도이다. 도 1에 도시된 바와 같이, 시설물(10)은 열차 선로, 교량, 교각(20), 거더, 하부 구조물, 교대 등이 될 수 있다. 드론(100)은 소형의 무인비행체이며, 무인헬기, 멀티콥터 등이 될 수 있다. 이러한 드론(50)은 시설물(10) 주변에 주차된 차량형 드론관제부(200)에 의해 이동, 회수, 관제되고 통신된다. 도 1에 도시된 바와 같이 드론(100)은 미리 정해진 비행경로(30)를 따라 이동하면서 시설물(10)의 측면, 하부를 촬영하고, 촬영된 영상으로부터 균열, 기울어짐, 변형, 이물질, 박리, 누수 등을 점검한다.Hereinafter, the configuration of a preferred embodiment will be described in detail with reference to the accompanying drawings. 1 is an operational state diagram showing a state in which a drone inspects a facility according to the present invention. As shown in FIG. 1 , the facilities 10 may be train tracks, bridges, piers 20, girders, substructures, abutments, and the like. The drone 100 is a small unmanned aerial vehicle, and may be an unmanned helicopter or a multicopter. These drones 50 are moved, collected, controlled, and communicated by the vehicle-type drone control unit 200 parked around the facility 10 . As shown in FIG. 1, the drone 100 photographs the side and bottom of the facility 10 while moving along a predetermined flight path 30, and cracks, tilts, deformations, foreign substances, peeling, Check for leaks, etc.

도 2는 본 발명에 사용되는 시설물의 3D 모델링(50) 중 일부를 나타내는 사시도면이다. 도 2에 도시된 바와 같이, 드론관제부(200)의 3D모델링부(230)에는 점검하고자 하는 해당 시설물(10)의 시설물 모델링(10a)이 3D 형태로 저장되어 있다. Figure 2 is a perspective view showing a part of the 3D modeling 50 of the facility used in the present invention. As shown in FIG. 2 , in the 3D modeling unit 230 of the drone control unit 200, the facility modeling 10a of the corresponding facility 10 to be inspected is stored in 3D form.

3D 모델링(50) 중 드론위치(70)는 비행경로(30)를 따라 이동 가능하고, 카메라 포즈(60)는 드론(100) 카메라(120)의 촬영방향을 나타낸다. 3D모델링부(230)에서는 드론위치(70)에 대한 좌표 데이터 및 카메라 포즈(60)에 대한 방향 데이터가 발생된다. In the 3D modeling 50, the drone position 70 is movable along the flight path 30, and the camera pose 60 represents the shooting direction of the camera 120 of the drone 100. In the 3D modeling unit 230, coordinate data for the drone position 70 and direction data for the camera pose 60 are generated.

도 3은 본 발명에 따른, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정에서 드론(100)의 예측위치(102)와 보정위치(104)를 개념적으로 나타내는 평면도이다. 도 3에 도시된 바와 같이, 예측위치(102)는 드론(100)이 카메라(120), GPS(130) 및 IMU(160)의 출력신호에 기초하여 측정한 위치이다. 이러한 예측위치(102)는 GPS의 수신율 저하 또는 음영지역으로 인해 실제 드론(100)의 위치와 차이나게 된다. 이러한 위치의 차이는 점검이 진행됨에 따라 점차 확대될 수 있다. 3 is a plan view conceptually showing a predicted position 102 and a corrected position 104 of a drone 100 in position correction of an inspection drone based on facility modeling according to the present invention. As shown in FIG. 3, the predicted position 102 is a position measured by the drone 100 based on output signals of the camera 120, the GPS 130, and the IMU 160. This predicted position 102 differs from the actual position of the drone 100 due to a drop in GPS reception or a shadow area. This difference in location may gradually widen as the inspection progresses.

보정위치(104)는 본 발명의 보정방법에 따라 보정된 드론(100)의 위치이며, 실제 드론(100)의 위치에 더 부합된다. 상대거리(Dx, Dy, Dz)는 X-Y-Z축 공간상에서 예측위치(102)로부터 보정위치(104)까지의 상대 거리이다. The correction position 104 is the position of the drone 100 corrected according to the correction method of the present invention, and more closely matches the actual position of the drone 100. The relative distances (Dx, Dy, Dz) are relative distances from the predicted position 102 to the corrected position 104 in the space of the X-Y-Z axes.

드론(100)의 기수 회전각(θyaw)은 X-Y 평면상에서 예측위치(102)에 있는 드론(100)의 선단부(기수)가 향하는 방향과 보정위치(104)에 있는 드론(100)의 선단부가 향하는 방향 사이의 사이각이다. 드론(100)은 자율비행중 스스로 수평상태를 유지하므로 Z축 방향의 회전인 기수 회전각(θyaw)의 보정으로 충분할 수 있다. 보정위치가 산출되면 드론(100)은 보정위치(104)로 비행한다. The nose rotation angle (θyaw) of the drone 100 is the direction in which the front end (nose) of the drone 100 at the predicted position 102 faces on the X-Y plane and the front end of the drone 100 at the corrected position 104 faces. is the angle between the directions. Since the drone 100 maintains a horizontal state by itself during autonomous flight, correction of the nose rotation angle θyaw, which is a rotation in the Z-axis direction, may be sufficient. When the corrected position is calculated, the drone 100 flies to the corrected position 104 .

도 4는 본 발명의 일실시예에 따른, 시설물의 모델링을 기반으로 하는 점검 드론(100) 및 드론관제부(200)의 개략적인 블록도이다. 도 4에 도시된 바와 같이, 본 발명은 크게 드론(100)과 드론관제부(200)로 구성된다. 4 is a schematic block diagram of an inspection drone 100 and a drone control unit 200 based on facility modeling according to an embodiment of the present invention. As shown in FIG. 4, the present invention is largely composed of a drone 100 and a drone control unit 200.

드론(100)의 드론제어부(110)는 마이크로프로세서 또는 CPU가 될 수 있으며, 점검, 촬영, 및 비행에 필요한 프로그램이 탑재되고 실행된다. The drone control unit 110 of the drone 100 may be a microprocessor or a CPU, and programs necessary for inspection, filming, and flight are loaded and executed.

카메라(120)는 시설물(10)을 촬영하고, 드론제어부(110)는 촬영된 영상을 영상처리하여 균열, 기울어짐, 변형, 이물질, 박리, 누수 등을 검출할 수 있다. 선택적으로, 촬영된 영상을 드론관제부(200)로 전송하여 검출할 수도 있다. 특히, 카메라(120)의 포즈(X, Y, Z 축 방향의 회전 정보과 줌 정보) 데이터가 드론제어부(110)로 전송된다. The camera 120 photographs the facility 10, and the drone control unit 110 processes the photographed image to detect cracks, tilts, deformations, foreign substances, peeling, water leakage, and the like. Optionally, the captured image may be transmitted to the drone control unit 200 for detection. In particular, pose (rotation information and zoom information in the X, Y, and Z axis directions) data of the camera 120 is transmitted to the drone controller 110 .

GPS(130)는 위성항법정보를 수신하여 위치정보를 출력한다. The GPS 130 receives satellite navigation information and outputs location information.

무선통신부(140)는 드론관제부(200)의 관제통신부(220)와 양방향 무선 데이터 통신이 가능하다. 이를 위해 무선통신부(140)는 와이파이모듈, 블루투스모듈, 4G통신모듈, 무선인터넷모듈, 무선-LAN모듈, 지그비통신모듈 중 하나를 포함한다. The wireless communication unit 140 can perform two-way wireless data communication with the control communication unit 220 of the drone control unit 200. To this end, the wireless communication unit 140 includes one of a Wi-Fi module, a Bluetooth module, a 4G communication module, a wireless Internet module, a wireless-LAN module, and a ZigBee communication module.

깊이센서(Depth Sensor, 150)는 TOF(time-Of-flight) 측정 방식을 이용하여 영상이나 이미지의 깊이를 측정한다. 즉, 깊이센서(150)는 소스로부터 방사된 신호가 시설물에 의해 반사되어 되돌아 올 때까지의 지연 시간을 측정하여 깊이센서(150)와 시설물까지의 거리를 산출한다. 깊이센서(150)의 출력신호는 드론제어부(110)로 입력되어 특징추출부(290)로부터 전송된 데이터와 함께 위치 측정에 사용된다. The depth sensor 150 measures the depth of a video or image using a time-of-flight (TOF) measurement method. That is, the depth sensor 150 calculates the distance between the depth sensor 150 and the facility by measuring the delay time until the signal emitted from the source is reflected by the facility and returns. The output signal of the depth sensor 150 is input to the drone control unit 110 and used for location measurement along with data transmitted from the feature extraction unit 290.

IMU(Inertial Measurement Unit, 관성측정장치, 160)는 드론(100)의 3축 가속도계와 3축 각가속도계가 내장되어 드론(100)의 비행, 회전, 선회, 가감속 등을 감지하여 드론제어부(110)로 전송한다. IMU(160)의 일예로는 자이로센서가 될 수 있다. The IMU (Inertial Measurement Unit, inertial measurement unit, 160) has a built-in 3-axis accelerometer and a 3-axis angular accelerometer of the drone 100 to detect the flight, rotation, turning, acceleration and deceleration of the drone 100, and the drone control unit 110 ) is sent to An example of the IMU 160 may be a gyro sensor.

블레이드모터(170)는 드론(100)의 비행을 위한 블레이드에 회전을 제공한다. 블레이드모터(170)는 블레이드의 개수에 따라 2개 ~ 8개가 구비될 수 있다. The blade motor 170 provides rotation to blades for flight of the drone 100 . Two to eight blade motors 170 may be provided according to the number of blades.

전원부(180)는 드론(100)의 비행, 통신, 제어, 촬영, 저장 등을 위한 전력을 제공한다. 전원부(180)는 착탈식 2차전지가 될 수 있다. The power supply unit 180 provides power for flight, communication, control, filming, and storage of the drone 100 . The power supply unit 180 may be a removable secondary battery.

경로저장부(190)는 드론(100)이 시설물(10) 점검을 위해 비행하여야 하는 경로를 저장한다. 경로저장부(190)에는 경로의 위치, 속도, 방향, 카메라의 포즈 등이 저장된다. 경로는 비행전 드론관제부(200)로부터 수신하여 저장한다. The route storage unit 190 stores a route on which the drone 100 should fly to inspect the facility 10 . The route storage unit 190 stores the location, speed, direction, camera pose, and the like of the route. The route is received and stored from the drone control unit 200 before flight.

드론관제부(200)의 제어부(210)는 마이크로프로세서 또는 CPU가 될 수 있으며, 드론관제부(200)의 운영, 드론(100)의 통제와 모니터링 등에 필요한 프로그램이 탑재되고 실행된다. The control unit 210 of the drone control unit 200 may be a microprocessor or a CPU, and programs necessary for operation of the drone control unit 200 and control and monitoring of the drone 100 are loaded and executed.

관제통신부(220)는 무선통신부(140)와 양방향 무선 데이터 통신이 가능하다. 이를 위해 관제통신부(220)는 와이파이모듈, 블루투스모듈, 4G통신모듈, 무선인터넷모듈, 무선-LAN모듈, 지그비통신모듈 중 하나를 포함한다. The control communication unit 220 is capable of two-way wireless data communication with the wireless communication unit 140 . To this end, the control communication unit 220 includes one of a Wi-Fi module, a Bluetooth module, a 4G communication module, a wireless Internet module, a wireless-LAN module, and a ZigBee communication module.

3D모델링부(230)는 도 2에 도시된 바와 같이 시설물(10)의 3D 모델링 정보를 저장한다. 즉, 3D모델링부(230)는 열차 선로, 교량, 교대, 교각(20), 거더, 하부 구조물, 타워 등의 3D 모델링 정보를 가지고 있다. The 3D modeling unit 230 stores 3D modeling information of the facility 10 as shown in FIG. 2 . That is, the 3D modeling unit 230 has 3D modeling information such as train tracks, bridges, abutments, piers 20, girders, lower structures, and towers.

디스플레이(240)는 드론(100)의 촬영한 영상, 시설물(10)의 점검 과정, 3D모델링 정보 등이 표출된다. 디스플레이(240)는 터치스크린 기능을 갖는 모니터나 LCD 패널이 될 수 있다. The display 240 displays an image captured by the drone 100, an inspection process of the facility 10, 3D modeling information, and the like. The display 240 may be a monitor or LCD panel having a touch screen function.

입력부(250)는 조작자가 필요한 정보를 입력하기 위한 것으로 마우스, 키보드, USB포트, 터치스크린, 수동비행을 위한 드론 리모트콘트롤러 등이 될 수 있다. The input unit 250 is for inputting necessary information by the operator, and may be a mouse, keyboard, USB port, touch screen, drone remote controller for manual flight, and the like.

경로생성부(260)는 시설물(10)의 주변을 비행하는 드론의 경로를 지정하거나 생성하고, 저장한다. 경로생성부(260)에서 생성된 경로정보는 드론(100)의 경로저장부(190)로 전송된다. The route generator 260 designates or creates a route for a drone flying around the facility 10 and stores the route. Route information generated by the route generator 260 is transmitted to the route storage unit 190 of the drone 100.

가상깊이 이미지생성부(270)는 3D모델링부(230)의 해당 시설물 모델링(10a)으로부터 특정 부위, 특정 줌인(Zoom-in) 및 특정 카메라 포즈의 3D 이미지를 생성(예 : 캡쳐, 변환)한다. 생성된 가상깊이 이미지는 JPG파일이 될 수 있다. 이때, 특정 부위는 GPS 음영지역에 있는 시설물 중 카메라 식별이 용이한 부분(예 : 돌출부위, 모서리, 벽면, 경사면, 기둥 등)이 될 수 있다.The virtual depth image generation unit 270 generates (eg, captures and converts) 3D images of a specific part, a specific zoom-in, and a specific camera pose from the corresponding facility modeling 10a of the 3D modeling unit 230. . The created virtual depth image may be a JPG file. In this case, the specific part may be a part (eg, a protruding part, a corner, a wall, an inclined surface, a pillar, etc.) that is easily identified by the camera among facilities in the GPS shaded area.

키프레임 추출부(280)는 생성된 가상깊이 이미지로부터 특정 부위를 프레임으로 추출(예 : 크롭, cropping)한다.The key frame extractor 280 extracts (eg, cropping) a specific part as a frame from the generated virtual depth image.

특징추출부(290)는 추출된 프레임 이미지로부터 특징(예 : 촬영평면 또는 외곽선)을 추출한다. The feature extraction unit 290 extracts a feature (eg, a photographing plane or an outline) from the extracted frame image.

도 5는 도 4 중 특징추출부(290)의 세부적인 블록도이고, 도 6은 촬영평면추출부(294)와 촬영평면의 외곽선 추출부(296)가 프레임 이미지(55)로부터 촬영평면과 외곽선을 추출하는 일예를 도시한 정면도이다. 도 5 및 도 6에 도시된 바와 같이, 특징추출부(290)의 카메라포즈 추출부(292)는 가상깊이 이미지 생성부(270)에서 생성된 특정 카메라 포즈(60)를 추출한다. 카메라 포즈(60)는 특정 위치(예 : 드론위치, 70)로부터 카메라가 바라보는 방향의 X, Y, Z축 카메라 회전 정보과 줌 정보를 포함한다. 5 is a detailed block diagram of the feature extraction unit 290 in FIG. 4, and FIG. 6 shows the capturing plane extracting unit 294 and the capturing plane outline extracting unit 296 capturing the capturing plane and outlines from the frame image 55. It is a front view showing an example of extracting. As shown in FIGS. 5 and 6 , the camera pose extractor 292 of the feature extractor 290 extracts the specific camera pose 60 generated by the virtual depth image generator 270 . The camera pose 60 includes X, Y, and Z-axis camera rotation information and zoom information in a direction in which the camera looks from a specific position (eg, drone position 70).

촬영평면(Planar Feature) 추출부(294)는 프레임 이미지(55)로부터 촬영평면을 추출한다. 도 6은 철도교량과 교각 부위의 확대 프레임 이미지(55)이고, 촬영평면 추출부(294)가 이러한 프레임 이미지(55)로부터 제 1 촬영평면(80)과 제 2 촬영평면(82)을 각각 추출한다. The planar feature extraction unit 294 extracts a capturing plane from the frame image 55 . 6 is an enlarged frame image 55 of a railroad bridge and a pier, and the imaging plane extractor 294 extracts a first imaging plane 80 and a second imaging plane 82 from these frame images 55, respectively. do.

촬영평면의 외곽선 추출부(296)는 촬영평면으로부터 외곽선(Edge)을 추출한다. 도 6에서 외곽선 추출부(296)는 제 2 촬영평면(82)으로부터 다수의 외곽선(84)을 인식하여 추출한다. 외곽선(84)은 복수개의 직선으로 구성될 수 있다. The capturing plane outline extraction unit 296 extracts an outline (Edge) from the capturing plane. In FIG. 6 , the outline extraction unit 296 recognizes and extracts a plurality of outlines 84 from the second imaging plane 82 . The outline 84 may be composed of a plurality of straight lines.

촬영평면 추출부(294)는 정밀한 보정을 위해 깊이센서(150)의 출력신호를 이용하며, 제 1, 2 촬영평면(80, 85)에 깊이 데이터를 포함할 수 있다. The imaging plane extractor 294 uses the output signal of the depth sensor 150 for precise correction, and may include depth data in the first and second imaging planes 80 and 85 .

실시예의 동작Operation of the embodiment

이하에서는 상기와 같은 구성을 갖는 본 발명의 동작에 관하여 상세히 설명하도록 한다. 도 7은 본 발명의 일실시예에 따라, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법을 나타내는 흐름도이다. Hereinafter, the operation of the present invention having the above configuration will be described in detail. 7 is a flowchart illustrating a method for calibrating the position of an inspection drone based on facility modeling according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 먼저, 드론제어부(110)가 드론관제부(200)로부터 비행경로(30)를 수신하여 경로저장부(190)에 저장한다(S90).As shown in FIG. 7, first, the drone control unit 110 receives the flight path 30 from the drone control unit 200 and stores it in the path storage unit 190 (S90).

그 다음, 드론제어부(110)가 경로정보, 카메라(120), GPS(130)의 위치신호 및 IMU(160)의 출력신호에 기초하여 예측위치(102)를 산출하고, 카메라(120)의 포즈를 추출한다(S100). 카메라의 포즈에는 현재 카메라의 촬영방향이 포함된다. Next, the drone control unit 110 calculates the predicted position 102 based on the route information, the position signal of the camera 120 and the GPS 130, and the output signal of the IMU 160, and the pose of the camera 120 Extract (S100). The pose of the camera includes the current shooting direction of the camera.

만약, 카메라(120) 포즈가 상방 촬영인 경우, 드론(100)은 시설물(10)의 하부를 비행하면서, 교량의 저면을 상향 촬영한다. 이때, 드론관제부(200)의 특징추출부(290)로부터 수신된 모델링의 특징(예 : 촬영평면) 및 깊이센서(150)의 출력신호에 기초하여 예측위치(102)로부터 Z축 상대거리(Dz)를 보정한다(S130). Z축 상대거리(Dz)는 드론(100)과 교량 저면 사이의 높이 방향(Z축 방향)에 대해 드론(100)의 예측높이과 실제 비행중인 높이의 차이가 된다. 이러한 Z축 상대거리(Dz)의 발생은 드론(100)이 교량의 하부로 진입함에 따라 GPS 음영이 발생하거나 그밖의 다른 오차 들이 중첩됨으로써 발생된다. If the pose of the camera 120 is upward shooting, the drone 100 photographs the lower surface of the bridge upward while flying the lower part of the facility 10 . At this time, the Z-axis relative distance ( Dz) is corrected (S130). The Z-axis relative distance (Dz) is the difference between the predicted height of the drone 100 and the actual flight height with respect to the height direction (Z-axis direction) between the drone 100 and the bottom of the bridge. The Z-axis relative distance (Dz) is caused by GPS shadowing or overlapping of other errors as the drone 100 enters the lower part of the bridge.

그 다음, 모델링의 특징(예 : 외곽선)에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx), Y축 상대거리(Dy) 및 드론(100)의 기수 회전각(θyaw)을 보정한다(S140). 이 단계에서 드론은 수평면(X-Y평면) 상에서 위치와 기수 방향을 정확히 보정한다. 기수 회전각(θyaw)을 보정함으로써 카메라(120)의 포즈도 함께 보정되는 효과가 있다. Then, the X-axis relative distance (Dx), Y-axis relative distance (Dy), and nose rotation of the drone 100 from the predicted position 102 to the corrected position 104 based on the characteristics of modeling (eg, outline) The angle (θyaw) is corrected (S140). At this stage, the drone precisely corrects its position and heading direction on the horizontal plane (X-Y plane). By correcting the nose rotation angle θyaw, the pose of the camera 120 is also corrected.

만약, 카메라(120) 포즈가 전방 촬영인 경우, 드론(100)은 시설물(10)의 측면을 비행하면서 교량의 측면, 교각(20)의 측면을 촬영한다. 이때, 비행방향을 수평방향이나 수직방향 또는 원형 경로가 될 수 있다. 모델링의 특징 및 깊이센서(150)의 출력신호에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx) 및 기수 회전각(θyaw)을 보정한다(S160). X축 상대거리(Dx)는 드론(100)과 교량 측면 사이의 수평(X축 방향) 거리에 대해 드론(100)의 예측거리과 실제 비행중인 거리의 차이가 된다. If the pose of the camera 120 is forward shooting, the drone 100 photographs the side of the bridge and the side of the pier 20 while flying on the side of the facility 10 . At this time, the flight direction may be a horizontal direction, a vertical direction, or a circular path. Based on the characteristics of the modeling and the output signal of the depth sensor 150, the X-axis relative distance (Dx) and nose rotation angle (θyaw) from the predicted position 102 to the corrected position 104 are corrected (S160). The X-axis relative distance (Dx) is the difference between the predicted distance of the drone 100 and the actual flight distance with respect to the horizontal (X-axis direction) distance between the drone 100 and the side of the bridge.

그 다음, 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 Y축 상대거리(Dy) 및 Z축 상대거리(Dz)를 보정한다(S170).Then, the Y-axis relative distance (Dy) and Z-axis relative distance (Dz) from the predicted position 102 to the corrected position 104 are corrected based on the characteristics of the modeling (S170).

이와 같이 각축의 상대거리와 기수 회전각(θyaw)가 보정되면, 이러한 보정위치를 현재의 예측위치로 갱신한다. 그 다음, 드론은 보정위치로 보정비행함으로써(S150), 드론은 정확한 경로 상에 놓이게 된다. In this way, when the relative distance of each axis and the nose rotation angle (θyaw) are corrected, this corrected position is updated to the current predicted position. Then, by correcting the drone to the corrected position (S150), the drone is placed on an accurate path.

이와 같은 과정은 일정 간격으로 수행될 수 있고, GPS의 수신율에 따라 수행될 수도 있으며, 특정 경로에서 수행되도록 할 수도 있다. Such a process may be performed at regular intervals, may be performed according to a GPS reception rate, or may be performed on a specific route.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a manner of combining with each other. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.

10 : 시설물,
10a : 시설물 모델링,
20 : 교각,
30 : 비행경로,
50 : 3D 모델링,
55 : 프레임 이미지,
60 : 카메라 포즈,
70 : 드론 위치,
80 : 제 1 촬영평면,
82 : 제 2 촬영평면,
84 : 외곽선,
100 : 드론,
102 : 예측위치,
104 : 보정위치,
110 : 드론제어부,
120 : 카메라,
130 : GPS,
140 : 무선통신부,
150 : 깊이센서,
160 : IMU,
170 : 블레이드 모터,
180 : 전원부,
190 : 경로저장부,
200 : 드론관제부,
210 : 제어부,
220 : 관제통신부,
230 : 3D모델링부,
240 : 디스플레이,
250 : 입력부,
260 : 경로생성부,
270 : 가상깊이 이미지 생성부,
280 : 키프레임 추출부,
290 : 특징 추출부,
292 : 카메라 포즈 추출부,
294 : 촬영평면 추출부,
296 : 촬영평면의 외곽선 추출부,
Dx, Dy, Dz : X축, Y축, Z축 상의 보정거리,
θyaw : 드론의 기수 회전각.
10: facilities,
10a: facility modeling,
20: piers,
30: flight path,
50: 3D modeling,
55: frame image,
60: camera pose,
70: drone location,
80: 1st shooting plane,
82: second shooting plane,
84: outline,
100: drone,
102: predicted position,
104: correction position,
110: drone control unit,
120: camera,
130: GPS,
140: wireless communication unit,
150: depth sensor,
160: IMU,
170: blade motor,
180: power supply,
190: path storage unit,
200: drone control department,
210: control unit,
220: control and communication department,
230: 3D modeling unit,
240: display,
250: input unit,
260: path creation unit,
270: virtual depth image generation unit,
280: key frame extraction unit,
290: feature extraction unit,
292: camera pose extraction unit,
294: shooting plane extraction unit,
296: outline extraction unit of the shooting plane,
Dx, Dy, Dz: Compensation distance on X-axis, Y-axis, Z-axis,
θyaw: The angle of rotation of the nose of the drone.

Claims (11)

상호 무선통신이 가능한 드론(100)과 드론관제부(200)에 있어서,
(i-1) 점검할 시설물(10)의 모델링(10a) 데이터가 저장된 3D모델링부(230);
(i-2) 상기 모델링(10a)에 대한 상기 드론(100)의 비행경로(30)를 생성하는 경로생성부(260);
(i-3) 상기 비행경로(30) 상의 임의 위치에서 카메라 포즈(60)에 대한 프레임이미지(55)를 추출하는 키프레임 추출부(280);
(i-4) 상기 프레임 이미지(55)로부터 상기 시설물(10)의 특징을 추출하는 특징추출부(290); 및
(i-5) 상기 드론(100)과 무선 통신하는 관제통신부(220);를 포함하는 상기 드론관제부(200); 및
(ii-1) 상기 관제통신부(220)와 무선 통신하는 무선통신부(140);
(ii-2) 상기 비행경로(30)가 저장되는 경로저장부(190); 및
(ii-3) 상기 특징추출부(290)로부터 수신된 상기 특징에 기초하여 상기 드론(100)의 예측위치(102)를 보정하는 드론제어부(110);를 포함하는 상기 드론(100);으로 구성되고,
상기 특징추출부(290)는,
상기 카메라 포즈(60)에 관한 정보를 추출하는 카메라 포즈 추출부(292);
상기 프레임 이미지로부터 촬영평면(80, 82)을 추출하는 촬영평면 추출부(294); 및
상기 촬영평면(80, 82)으로부터 외곽선(84)을 추출하는 외곽선 추출부(296);를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.
In the drone 100 and the drone control unit 200 capable of mutual wireless communication,
(i-1) a 3D modeling unit 230 in which modeling 10a data of the facility 10 to be inspected is stored;
(i-2) a path generator 260 generating a flight path 30 of the drone 100 for the modeling 10a;
(i-3) a key frame extractor 280 for extracting a frame image 55 for a camera pose 60 at an arbitrary position on the flight path 30;
(i-4) a feature extraction unit 290 extracting features of the facility 10 from the frame image 55; and
(i-5) the drone control unit 200 including; a control communication unit 220 wirelessly communicating with the drone 100; and
(ii-1) a wireless communication unit 140 wirelessly communicating with the control communication unit 220;
(ii-2) a path storage unit 190 for storing the flight path 30; and
(ii-3) The drone 100 including; a drone controller 110 correcting the predicted position 102 of the drone 100 based on the feature received from the feature extractor 290; constituted,
The feature extraction unit 290,
a camera pose extractor 292 extracting information about the camera pose 60;
an imaging plane extractor 294 for extracting the imaging planes 80 and 82 from the frame image; and
An apparatus for calibrating the position of an inspection drone based on modeling of a facility, characterized in that it includes;
삭제delete 제 1 항에 있어서,
상기 드론(100)은 상기 예측위치(102)를 산출하기 위해,
카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나를 더 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.
According to claim 1,
The drone 100, in order to calculate the predicted position 102,
A position correction device for an inspection drone based on modeling of a facility, further comprising at least one of a camera 120, a GPS 130, and an IMU 160.
제 1 항에 있어서,
상기 드론제어부(110)는 상기 예측위치(102)를 보정하기 위해 깊이센서(150)를 더 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.
According to claim 1,
The drone control unit 110 further includes a depth sensor 150 to correct the predicted position 102. Position correction device for an inspection drone based on modeling of a facility.
제 1 항에 있어서,
상기 드론제어부(110)는 상기 예측위치(102)를 보정하기 위해,
상기 예측위치(102)로부터 보정위치(104)까지의 상대거리(Dx, Dy, Dz); 및
상기 드론(100)의 기수 회전각(θyaw);을 산출하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.
According to claim 1,
The drone control unit 110, in order to correct the predicted position 102,
Relative distances (Dx, Dy, Dz) from the predicted position 102 to the corrected position 104; and
A position correction device for an inspection drone based on modeling of a facility, characterized in that for calculating the nose rotation angle (θyaw) of the drone 100.
제 5 항에 따른 위치 보정장치를 이용한 보정방법에 있어서,
드론제어부(110)가 드론관제부(200)로부터 비행경로(30)를 수신하여 경로저장부(190)에 저장하는 사전단계(S90);
상기 드론제어부(110)가 카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나의 출력신호에 기초하여 예측위치(102)를 산출하고, 상기 카메라(120)의 포즈를 추출하는 단계(S100);
상기 카메라(120) 포즈가 상방 촬영인 경우,
드론관제부(200)의 특징추출부(290)로부터 수신된 모델링의 특징에 기초하여 상기 예측위치(102)로부터 상기 보정위치(104)까지의 Z축 상대거리(Dz)를 보정하는 단계(S130); 및
상기 모델링의 특징에 기초하여 상기 예측위치(102)로부터 상기 보정위치(104)까지의 X축 상대거리(Dx), Y축 상대거리(Dy) 및 상기 드론(100)의 기수 회전각(θyaw)을 보정하는 단계(S140);를 포함하고,
상기 카메라(120) 포즈가 전방 촬영인 경우,
상기 모델링의 특징에 기초하여 상기 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx) 및 상기 기수 회전각(θyaw)을 보정하는 단계(S160); 및
상기 모델링의 특징에 기초하여 상기 예측위치(102)로부터 상기 보정위치(104)까지의 Y축 상대거리(Dy) 및 Z축 상대거리(Dz)를 보정하는 단계(S170);를 포함하고,
상기 드론제어부(110)가 상기 보정위치(104)로 비행하는 단계(S150);를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
In the correction method using the position correction device according to claim 5,
A preliminary step (S90) in which the drone control unit 110 receives the flight path 30 from the drone control unit 200 and stores it in the path storage unit 190;
The drone controller 110 calculates the predicted position 102 based on an output signal of at least one of the camera 120, the GPS 130, and the IMU 160, and extracts the pose of the camera 120 Step (S100);
When the pose of the camera 120 is upward shooting,
Correcting the Z-axis relative distance (Dz) from the predicted position 102 to the corrected position 104 based on the modeling features received from the feature extraction unit 290 of the drone control unit 200 (S130 ); and
X-axis relative distance (Dx), Y-axis relative distance (Dy) and nose rotation angle (θyaw) of the drone 100 from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling Including; step of correcting (S140);
When the pose of the camera 120 is forward shooting,
Correcting the X-axis relative distance (Dx) and the nose rotation angle (θyaw) from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling (S160); and
Correcting the Y-axis relative distance (Dy) and the Z-axis relative distance (Dz) from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling (S170);
The drone control unit 110 flies to the correction position 104 (S150); a position correction method of an inspection drone based on facility modeling, characterized in that it includes.
제 6 항에 있어서,
상기 보정단계(S130, S160)에서 상기 모델링의 특징은,
상기 특징추출부(290) 중 촬영평면 추출부(294)가 상기 모델링(10a)으로부터 추출한 촬영평면(80, 82) 데이터를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
According to claim 6,
The characteristics of the modeling in the correction steps (S130 and S160) are,
Position correction of the inspection drone based on the modeling of the facility, characterized in that the capturing plane extracting unit 294 of the feature extracting unit 290 includes the capturing planes 80 and 82 data extracted from the modeling 10a. method.
제 6 항에 있어서,
상기 보정단계(S140, S170)에서 상기 모델링의 특징은,
상기 특징추출부(290) 중 촬영평면의 외곽선 추출부(296)가 상기 모델링(10a)으로부터 추출한 외곽선(84) 데이터를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
According to claim 6,
The characteristics of the modeling in the correction steps (S140, S170) are,
Position correction method of an inspection drone based on modeling of a facility, characterized in that the outline extractor 296 of the shooting plane among the feature extractors 290 includes the outline 84 data extracted from the modeling 10a. .
제 6 항에 있어서,
상기 카메라(120) 포즈가 상방 촬영인 경우, 상기 드론(100)은 시설물(10)의 하부를 비행하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
According to claim 6,
The position correction method of the inspection drone based on the modeling of the facility, characterized in that when the camera 120 pose is upward shooting, the drone 100 flies below the facility 10.
제 6 항에 있어서,
상기 보정단계(S130, S140, S160, S170)에서,
상기 드론제어부(110)는 깊이센서(150)의 출력신호를 더 기초로 하여 보정하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
According to claim 6,
In the correction steps (S130, S140, S160, S170),
The drone control unit 110 corrects the position of the inspection drone based on the modeling of the facility, characterized in that the correction is further based on the output signal of the depth sensor 150.
제 6 항에 있어서,
상기 모델링은 상기 시설물의 3-D 모델링인 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
According to claim 6,
The method of correcting the position of an inspection drone based on modeling of a facility, wherein the modeling is a 3-D modeling of the facility.
KR1020210111737A 2021-08-24 2021-08-24 Position correction device and correction method of inspection drone based on the model of the facility KR102504743B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210111737A KR102504743B1 (en) 2021-08-24 2021-08-24 Position correction device and correction method of inspection drone based on the model of the facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210111737A KR102504743B1 (en) 2021-08-24 2021-08-24 Position correction device and correction method of inspection drone based on the model of the facility

Publications (1)

Publication Number Publication Date
KR102504743B1 true KR102504743B1 (en) 2023-03-03

Family

ID=85510517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210111737A KR102504743B1 (en) 2021-08-24 2021-08-24 Position correction device and correction method of inspection drone based on the model of the facility

Country Status (1)

Country Link
KR (1) KR102504743B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016111414A (en) * 2014-12-03 2016-06-20 コニカミノルタ株式会社 Flying body position detection system and flying body
KR101782039B1 (en) 2017-05-31 2017-09-26 (주)지트 A Measuring device and location method of river and river facilities using drone
KR101881121B1 (en) 2017-12-14 2018-07-23 주식회사 엠지아이티 Drone for measuring distance and method for controlling drone
KR20190092789A (en) 2018-01-31 2019-08-08 주식회사 에디테크놀로지 Method for calculating position of drone and system for correcting position of drone using the method
JP2020030204A (en) * 2018-08-21 2020-02-27 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Distance measurement method, program, distance measurement system and movable object
KR102289752B1 (en) * 2020-10-13 2021-08-13 주식회사 스페이스소프트인더스트리 A drone for performring route flight in gps blocked area and methed therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016111414A (en) * 2014-12-03 2016-06-20 コニカミノルタ株式会社 Flying body position detection system and flying body
KR101782039B1 (en) 2017-05-31 2017-09-26 (주)지트 A Measuring device and location method of river and river facilities using drone
KR101881121B1 (en) 2017-12-14 2018-07-23 주식회사 엠지아이티 Drone for measuring distance and method for controlling drone
KR20190092789A (en) 2018-01-31 2019-08-08 주식회사 에디테크놀로지 Method for calculating position of drone and system for correcting position of drone using the method
JP2020030204A (en) * 2018-08-21 2020-02-27 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Distance measurement method, program, distance measurement system and movable object
KR102289752B1 (en) * 2020-10-13 2021-08-13 주식회사 스페이스소프트인더스트리 A drone for performring route flight in gps blocked area and methed therefor

Similar Documents

Publication Publication Date Title
JP7310972B2 (en) Flight information control method, information processing device and computer program
CN106796112B (en) Control apparatus, control method, and computer program for detecting vehicle
CN111717407B (en) Control method and control device
JP6658532B2 (en) Control device, control method, and flying object device
JP5618840B2 (en) Aircraft flight control system
US11048276B2 (en) Measuring device, control device for unmanned aerial vehicle and computer program product for controlling unmanned aerial vehicle
JP5775632B2 (en) Aircraft flight control system
JP2006027448A (en) Aerial photographing method and device using unmanned flying body
JP2016111414A (en) Flying body position detection system and flying body
Azhari et al. A comparison of sensors for underground void mapping by unmanned aerial vehicles
JP2024020389A (en) Control method, control device and program
JP6707933B2 (en) Unmanned flight device control system, unmanned flight device control method, and unmanned flight device
KR102504743B1 (en) Position correction device and correction method of inspection drone based on the model of the facility
JP7333565B1 (en) Aircraft and method of controlling the aircraft
JP2022143470A (en) Survey system, survey apparatus, survey method, and survey program
JP2019174292A (en) Surveying device and surveying method