KR102504743B1 - Position correction device and correction method of inspection drone based on the model of the facility - Google Patents
Position correction device and correction method of inspection drone based on the model of the facility Download PDFInfo
- Publication number
- KR102504743B1 KR102504743B1 KR1020210111737A KR20210111737A KR102504743B1 KR 102504743 B1 KR102504743 B1 KR 102504743B1 KR 1020210111737 A KR1020210111737 A KR 1020210111737A KR 20210111737 A KR20210111737 A KR 20210111737A KR 102504743 B1 KR102504743 B1 KR 102504743B1
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- modeling
- facility
- unit
- inspection
- Prior art date
Links
- 238000012937 correction Methods 0.000 title claims abstract description 33
- 238000007689 inspection Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 238000004891 communication Methods 0.000 claims abstract description 26
- 239000000284 extract Substances 0.000 claims abstract description 13
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/0202—Control of position or course in two dimensions specially adapted to aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/393—Trajectory determination or predictive tracking, e.g. Kalman filtering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/40—Correcting position, velocity or attitude
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 시설물 점검하는 드론의 자율비행에 관한 것으로, 보다 상세하게는 시설물 점검 중인 드론이 GPS 음영지역으로 인해 측위 알고리즘이 원활히 동작되지 않을 때 시설물의 모델링을 기반으로 점검 드론의 위치를 보정하는 장치 및 방법에 관한 것이다. The present invention relates to the autonomous flight of a drone inspecting a facility, and more particularly, a device for correcting the position of a drone inspecting a facility based on facility modeling when a positioning algorithm does not operate smoothly due to a GPS shaded area. and methods.
일반적으로, 열차 선로, 교량 등에 대해서는 드론(또는 멀티콥터 등과 같은 무인비행체)를 이용하여 거더, 하부 구조물, 교대 등을 촬영한 뒤 균열, 변형, 기울어짐 등을 점검한다. 이러한 촬영과 점검은 정기적으로 수행되며, 시간과 비용이 단축되기 때문에 최근 크게 각광을 받으면서 널리 행해지고 있다. In general, for train tracks, bridges, etc., girders, substructures, abutments, etc. are photographed using a drone (or an unmanned aerial vehicle such as a multicopter) and then cracks, deformations, tilts, etc. are inspected. Such photographing and inspection are performed on a regular basis, and since time and cost are reduced, it has recently been greatly spotlighted and widely performed.
즉, 드론을 탑재한 차량으로 시설물 근처까지 이동한 후, 드론을 띄운다. 조작자는 차량 내부에서 드론을 통제하며, 촬영과 점검 과정을 모니터링하게 된다. That is, after moving to the vicinity of the facility with a vehicle equipped with a drone, the drone is launched. The operator controls the drone from inside the vehicle and monitors the filming and inspection process.
그런데, 철도교량이나 거더의 하부 구조물 검사 중에서는 시설물로 인해 드론의 위성항법정보(GPS신호)의 음영지역이 발생하여 수신율이 저하되는 문제점이 있다. 이러한 수신율의 저하로 인해, 드론이 현재 위치를 정확히 인식하기 어렵고, 시설물에 충돌하거나 오작동하는 사례가 있었다. 종래에는 이러한 문제점이 발생하는 경우 조작자가 자동비행을 끄고 수동으로 드론을 조정했어야만 했다. 따라서, 조작자의 비행조작 숙련도가 필요했으며, 자동 점검과 수동점검이 혼재되어 혼선을 일으키고, 점검시간이 증가하는 단점들이 있었다. However, during inspection of the lower structure of a railway bridge or a girder, there is a problem in that a reception rate is lowered due to a shadow area of the satellite navigation information (GPS signal) of the drone due to the facility. Due to such deterioration in the reception rate, it is difficult for the drone to accurately recognize the current location, and there have been cases where the drone collides with a facility or malfunctions. Conventionally, when this problem occurs, the operator has to turn off the automatic flight and manually adjust the drone. Therefore, the operator's flight control skill was required, and there were disadvantages in that automatic inspection and manual inspection were mixed, causing confusion and increasing inspection time.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 시설물의 음영 등으로 인해 위성항법정보의 수신이 원활하지 않고 이로 인해 드론의 측위가 부정확할 때 대상물의 3D 모델링을 기반으로 드론의 위치를 보정할 수 있는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치 및 보정방법을 제공하는 것이다. Therefore, the present invention has been devised to solve the above problems, and the problem to be solved by the present invention is that the reception of satellite navigation information is not smooth due to the shadow of the facility, and as a result, the positioning of the drone is inaccurate. To provide a position correction device and correction method for inspection drones based on modeling of a facility capable of correcting the location of a drone based on 3D modeling.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clear to those skilled in the art from the description below. You will be able to understand.
상기의 기술적 과제를 달성하기 위하여, 상호 무선통신이 가능한 드론(100)과 드론관제부(200)에 있어서, (i-1) 점검할 시설물(10)의 모델링(10a) 데이터가 저장된 3D모델링부(230); (i-2) 모델링(10a)에 대한 드론(100)의 비행경로(30)를 생성하는 경로생성부(260); (i-3) 비행경로(30) 상의 임의 위치에서 카메라 포즈(60)에 대한 프레임 이미지(55)를 추출하는 키프레임 추출부(280); (i-4) 프레임 이미지(55)로부터 시설물(10)의 특징을 추출하는 특징추출부(290); 및 (i-5) 드론(100)과 무선 통신하는 관제통신부(220);를 포함하는 드론관제부(200); 및 (ii-1) 관제통신부(220)와 무선 통신하는 무선통신부(140); (ii-2) 비행경로(30)가 저장되는 경로저장부(190); 및 (ii-3) 특징추출부(290)로부터 수신된 특징에 기초하여 드론(100)의 예측위치(102)를 보정하는 드론제어부(110);를 포함하는 드론(100);으로 구성되는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치에 의해 달성될 수 있다.In order to achieve the above technical task, in the
또한, 특징추출부(290)는, 카메라 포즈(60)에 관한 정보를 추출하는 카메라 포즈 추출부(292); 프레임 이미지로부터 촬영평면(80, 82)을 추출하는 촬영평면 추출부(294); 및 촬영평면(80, 82)으로부터 외곽선(84)을 추출하는 외곽선 추출부(296);를 포함할 수 있다.In addition, the
또한, 드론(100)은 예측위치(102)를 산출하기 위해, 카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나를 더 포함한다.In addition, the
또한, 드론제어부(110)는 예측위치(102)를 보정하기 위해 깊이센서(150)를 더 포함한다. In addition, the
또한, 드론제어부(110)는 예측위치(102)를 보정하기 위해, 예측위치(102)로부터 보정위치(104)까지의 상대거리(Dx, Dy, Dz); 및 드론(100)의 기수 회전각(θyaw);을 산출한다.In addition, in order to correct the predicted
상기와 같은 본 발명의 목적은 또 다른 카테고리로써, 전술한 위치 보정장치를 이용한 보정방법에 있어서, 드론제어부(110)가 드론관제부(200)로부터 비행경로(30)를 수신하여 경로저장부(190)에 저장하는 사전단계(S90); 드론제어부(110)가 카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나의 출력신호에 기초하여 예측위치(102)를 산출하고, 카메라(120)의 포즈를 추출하는 단계(S100); 카메라(120) 포즈가 상방 촬영인 경우, 드론관제부(200)의 특징추출부(290)로부터 수신된 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 Z축 상대거리(Dz)를 보정하는 단계(S130); 및 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx), Y축 상대거리(Dy) 및 드론(100)의 기수 회전각(θyaw)을 보정하는 단계(S140);를 포함하고, 카메라(120) 포즈가 전방 촬영인 경우, 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx) 및 기수 회전각(θyaw)을 보정하는 단계(S160); 및 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 Y축 상대거리(Dy) 및 Z축 상대거리(Dz)를 보정하는 단계(S170);를 포함하고, 드론제어부(110)가 보정위치(104)로 비행하는 단계(S150);를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법에 의해서도 달성될 수 있다.Another object of the present invention as described above is another category, and in the correction method using the above-described position correction device, the
또한, 보정단계(S130, S160)에서 모델링의 특징은, 특징추출부(290) 중 촬영평면 추출부(294)가 모델링(10a)으로부터 추출한 촬영평면(80, 82) 데이터를 포함한다.Also, in the correction steps S130 and S160, the modeling features include data of the
또한, 보정단계(S140, S170)에서 모델링의 특징은, 특징추출부(290) 중 촬영평면의 외곽선 추출부(296)가 모델링(10a)으로부터 추출한 외곽선(84) 데이터를 포함한다.Further, in the correction steps S140 and S170, the modeling features include
또한, 카메라(120) 포즈가 상방 촬영인 경우, 드론(100)은 시설물(10)의 하부를 비행한다. Also, when the pose of the
또한, 보정단계(S130, S140, S160, S170)에서, 드론제어부(110)는 깊이센서(150)의 출력신호를 더 기초로 하여 보정할 수 있다.Also, in the calibration steps (S130, S140, S160, and S170), the
또한, 모델링은 시설물의 3-D 모델링이다. Also, modeling is 3-D modeling of facilities.
본 발명의 일실시예에 따르면, 시설물의 점검 도중 위성항법정보(GPS신호)의 수신율이 저하되거나 음영지역을 비행하더라도 시설물의 모델링을 기반으로 드론이 위치를 보정함으로써 정확한 위치를 산출할 수 있다. According to one embodiment of the present invention, even if the reception rate of satellite navigation information (GPS signal) decreases during facility inspection or flies in a shaded area, the drone corrects the location based on facility modeling to calculate an accurate location.
이를 통해, 원활하고 신속한 시설물의 점검이 이루어질 수 있으며, 조작자는 드론의 비행 보다는 시설물의 점검이나 판정에 더욱 신경을 집중할 수 있다. Through this, facilities can be inspected smoothly and quickly, and the operator can focus more on inspecting or determining the facilities rather than flying the drone.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명에 따른 드론이 시설물을 점검하는 상태를 나타내는 동작 상태도,
도 2는 본 발명에 사용되는 시설물의 3D 모델링(50) 중 일부를 나타내는 사시도면,
도 3은 본 발명에 따른, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정에서 드론(100)의 예측위치(102)와 보정위치(104)를 개념적으로 나타내는 평면도,
도 4는 본 발명의 일실시예에 따른, 시설물의 모델링을 기반으로 하는 점검 드론(100) 및 드론관제부(200)의 개략적인 블록도,
도 5는 도 4 중 특징추출부(290)의 세부적인 블록도,
도 6은 촬영평면추출부(294)와 촬영평면의 외곽선 추출부(296)가 프레임 이미지(55)로부터 촬영평면과 외곽선을 추출하는 일예를 도시한 정면도,
도 7은 본 발명의 일실시예에 따라, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법을 나타내는 흐름도이다. The following drawings attached to this specification illustrate preferred embodiments of the present invention, and together with the detailed description of the present invention serve to further understand the technical idea of the present invention, the present invention is the details described in such drawings should not be construed as limited to
1 is an operating state diagram showing a state in which a drone inspects a facility according to the present invention;
2 is a perspective view showing some of the
3 is a plan view conceptually showing a predicted
4 is a schematic block diagram of an
5 is a detailed block diagram of the
6 is a front view showing an example in which the capturing
7 is a flowchart illustrating a method for calibrating the position of an inspection drone based on facility modeling according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of terms described in the present invention should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element. It should be understood that when an element is referred to as “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being “directly connected” to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to a described feature, number, step, operation, component, part, or It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of the related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present invention.
실시예의 구성Configuration of the embodiment
이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다. 도 1은 본 발명에 따른 드론이 시설물을 점검하는 상태를 나타내는 동작 상태도이다. 도 1에 도시된 바와 같이, 시설물(10)은 열차 선로, 교량, 교각(20), 거더, 하부 구조물, 교대 등이 될 수 있다. 드론(100)은 소형의 무인비행체이며, 무인헬기, 멀티콥터 등이 될 수 있다. 이러한 드론(50)은 시설물(10) 주변에 주차된 차량형 드론관제부(200)에 의해 이동, 회수, 관제되고 통신된다. 도 1에 도시된 바와 같이 드론(100)은 미리 정해진 비행경로(30)를 따라 이동하면서 시설물(10)의 측면, 하부를 촬영하고, 촬영된 영상으로부터 균열, 기울어짐, 변형, 이물질, 박리, 누수 등을 점검한다.Hereinafter, the configuration of a preferred embodiment will be described in detail with reference to the accompanying drawings. 1 is an operational state diagram showing a state in which a drone inspects a facility according to the present invention. As shown in FIG. 1 , the
도 2는 본 발명에 사용되는 시설물의 3D 모델링(50) 중 일부를 나타내는 사시도면이다. 도 2에 도시된 바와 같이, 드론관제부(200)의 3D모델링부(230)에는 점검하고자 하는 해당 시설물(10)의 시설물 모델링(10a)이 3D 형태로 저장되어 있다. Figure 2 is a perspective view showing a part of the
3D 모델링(50) 중 드론위치(70)는 비행경로(30)를 따라 이동 가능하고, 카메라 포즈(60)는 드론(100) 카메라(120)의 촬영방향을 나타낸다. 3D모델링부(230)에서는 드론위치(70)에 대한 좌표 데이터 및 카메라 포즈(60)에 대한 방향 데이터가 발생된다. In the
도 3은 본 발명에 따른, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정에서 드론(100)의 예측위치(102)와 보정위치(104)를 개념적으로 나타내는 평면도이다. 도 3에 도시된 바와 같이, 예측위치(102)는 드론(100)이 카메라(120), GPS(130) 및 IMU(160)의 출력신호에 기초하여 측정한 위치이다. 이러한 예측위치(102)는 GPS의 수신율 저하 또는 음영지역으로 인해 실제 드론(100)의 위치와 차이나게 된다. 이러한 위치의 차이는 점검이 진행됨에 따라 점차 확대될 수 있다. 3 is a plan view conceptually showing a predicted
보정위치(104)는 본 발명의 보정방법에 따라 보정된 드론(100)의 위치이며, 실제 드론(100)의 위치에 더 부합된다. 상대거리(Dx, Dy, Dz)는 X-Y-Z축 공간상에서 예측위치(102)로부터 보정위치(104)까지의 상대 거리이다. The
드론(100)의 기수 회전각(θyaw)은 X-Y 평면상에서 예측위치(102)에 있는 드론(100)의 선단부(기수)가 향하는 방향과 보정위치(104)에 있는 드론(100)의 선단부가 향하는 방향 사이의 사이각이다. 드론(100)은 자율비행중 스스로 수평상태를 유지하므로 Z축 방향의 회전인 기수 회전각(θyaw)의 보정으로 충분할 수 있다. 보정위치가 산출되면 드론(100)은 보정위치(104)로 비행한다. The nose rotation angle (θyaw) of the
도 4는 본 발명의 일실시예에 따른, 시설물의 모델링을 기반으로 하는 점검 드론(100) 및 드론관제부(200)의 개략적인 블록도이다. 도 4에 도시된 바와 같이, 본 발명은 크게 드론(100)과 드론관제부(200)로 구성된다. 4 is a schematic block diagram of an
드론(100)의 드론제어부(110)는 마이크로프로세서 또는 CPU가 될 수 있으며, 점검, 촬영, 및 비행에 필요한 프로그램이 탑재되고 실행된다. The
카메라(120)는 시설물(10)을 촬영하고, 드론제어부(110)는 촬영된 영상을 영상처리하여 균열, 기울어짐, 변형, 이물질, 박리, 누수 등을 검출할 수 있다. 선택적으로, 촬영된 영상을 드론관제부(200)로 전송하여 검출할 수도 있다. 특히, 카메라(120)의 포즈(X, Y, Z 축 방향의 회전 정보과 줌 정보) 데이터가 드론제어부(110)로 전송된다. The
GPS(130)는 위성항법정보를 수신하여 위치정보를 출력한다. The
무선통신부(140)는 드론관제부(200)의 관제통신부(220)와 양방향 무선 데이터 통신이 가능하다. 이를 위해 무선통신부(140)는 와이파이모듈, 블루투스모듈, 4G통신모듈, 무선인터넷모듈, 무선-LAN모듈, 지그비통신모듈 중 하나를 포함한다. The
깊이센서(Depth Sensor, 150)는 TOF(time-Of-flight) 측정 방식을 이용하여 영상이나 이미지의 깊이를 측정한다. 즉, 깊이센서(150)는 소스로부터 방사된 신호가 시설물에 의해 반사되어 되돌아 올 때까지의 지연 시간을 측정하여 깊이센서(150)와 시설물까지의 거리를 산출한다. 깊이센서(150)의 출력신호는 드론제어부(110)로 입력되어 특징추출부(290)로부터 전송된 데이터와 함께 위치 측정에 사용된다. The
IMU(Inertial Measurement Unit, 관성측정장치, 160)는 드론(100)의 3축 가속도계와 3축 각가속도계가 내장되어 드론(100)의 비행, 회전, 선회, 가감속 등을 감지하여 드론제어부(110)로 전송한다. IMU(160)의 일예로는 자이로센서가 될 수 있다. The IMU (Inertial Measurement Unit, inertial measurement unit, 160) has a built-in 3-axis accelerometer and a 3-axis angular accelerometer of the
블레이드모터(170)는 드론(100)의 비행을 위한 블레이드에 회전을 제공한다. 블레이드모터(170)는 블레이드의 개수에 따라 2개 ~ 8개가 구비될 수 있다. The
전원부(180)는 드론(100)의 비행, 통신, 제어, 촬영, 저장 등을 위한 전력을 제공한다. 전원부(180)는 착탈식 2차전지가 될 수 있다. The
경로저장부(190)는 드론(100)이 시설물(10) 점검을 위해 비행하여야 하는 경로를 저장한다. 경로저장부(190)에는 경로의 위치, 속도, 방향, 카메라의 포즈 등이 저장된다. 경로는 비행전 드론관제부(200)로부터 수신하여 저장한다. The
드론관제부(200)의 제어부(210)는 마이크로프로세서 또는 CPU가 될 수 있으며, 드론관제부(200)의 운영, 드론(100)의 통제와 모니터링 등에 필요한 프로그램이 탑재되고 실행된다. The
관제통신부(220)는 무선통신부(140)와 양방향 무선 데이터 통신이 가능하다. 이를 위해 관제통신부(220)는 와이파이모듈, 블루투스모듈, 4G통신모듈, 무선인터넷모듈, 무선-LAN모듈, 지그비통신모듈 중 하나를 포함한다. The
3D모델링부(230)는 도 2에 도시된 바와 같이 시설물(10)의 3D 모델링 정보를 저장한다. 즉, 3D모델링부(230)는 열차 선로, 교량, 교대, 교각(20), 거더, 하부 구조물, 타워 등의 3D 모델링 정보를 가지고 있다. The
디스플레이(240)는 드론(100)의 촬영한 영상, 시설물(10)의 점검 과정, 3D모델링 정보 등이 표출된다. 디스플레이(240)는 터치스크린 기능을 갖는 모니터나 LCD 패널이 될 수 있다. The
입력부(250)는 조작자가 필요한 정보를 입력하기 위한 것으로 마우스, 키보드, USB포트, 터치스크린, 수동비행을 위한 드론 리모트콘트롤러 등이 될 수 있다. The
경로생성부(260)는 시설물(10)의 주변을 비행하는 드론의 경로를 지정하거나 생성하고, 저장한다. 경로생성부(260)에서 생성된 경로정보는 드론(100)의 경로저장부(190)로 전송된다. The
가상깊이 이미지생성부(270)는 3D모델링부(230)의 해당 시설물 모델링(10a)으로부터 특정 부위, 특정 줌인(Zoom-in) 및 특정 카메라 포즈의 3D 이미지를 생성(예 : 캡쳐, 변환)한다. 생성된 가상깊이 이미지는 JPG파일이 될 수 있다. 이때, 특정 부위는 GPS 음영지역에 있는 시설물 중 카메라 식별이 용이한 부분(예 : 돌출부위, 모서리, 벽면, 경사면, 기둥 등)이 될 수 있다.The virtual depth
키프레임 추출부(280)는 생성된 가상깊이 이미지로부터 특정 부위를 프레임으로 추출(예 : 크롭, cropping)한다.The
특징추출부(290)는 추출된 프레임 이미지로부터 특징(예 : 촬영평면 또는 외곽선)을 추출한다. The
도 5는 도 4 중 특징추출부(290)의 세부적인 블록도이고, 도 6은 촬영평면추출부(294)와 촬영평면의 외곽선 추출부(296)가 프레임 이미지(55)로부터 촬영평면과 외곽선을 추출하는 일예를 도시한 정면도이다. 도 5 및 도 6에 도시된 바와 같이, 특징추출부(290)의 카메라포즈 추출부(292)는 가상깊이 이미지 생성부(270)에서 생성된 특정 카메라 포즈(60)를 추출한다. 카메라 포즈(60)는 특정 위치(예 : 드론위치, 70)로부터 카메라가 바라보는 방향의 X, Y, Z축 카메라 회전 정보과 줌 정보를 포함한다. 5 is a detailed block diagram of the
촬영평면(Planar Feature) 추출부(294)는 프레임 이미지(55)로부터 촬영평면을 추출한다. 도 6은 철도교량과 교각 부위의 확대 프레임 이미지(55)이고, 촬영평면 추출부(294)가 이러한 프레임 이미지(55)로부터 제 1 촬영평면(80)과 제 2 촬영평면(82)을 각각 추출한다. The planar
촬영평면의 외곽선 추출부(296)는 촬영평면으로부터 외곽선(Edge)을 추출한다. 도 6에서 외곽선 추출부(296)는 제 2 촬영평면(82)으로부터 다수의 외곽선(84)을 인식하여 추출한다. 외곽선(84)은 복수개의 직선으로 구성될 수 있다. The capturing plane
촬영평면 추출부(294)는 정밀한 보정을 위해 깊이센서(150)의 출력신호를 이용하며, 제 1, 2 촬영평면(80, 85)에 깊이 데이터를 포함할 수 있다. The
실시예의 동작Operation of the embodiment
이하에서는 상기와 같은 구성을 갖는 본 발명의 동작에 관하여 상세히 설명하도록 한다. 도 7은 본 발명의 일실시예에 따라, 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법을 나타내는 흐름도이다. Hereinafter, the operation of the present invention having the above configuration will be described in detail. 7 is a flowchart illustrating a method for calibrating the position of an inspection drone based on facility modeling according to an embodiment of the present invention.
도 7에 도시된 바와 같이, 먼저, 드론제어부(110)가 드론관제부(200)로부터 비행경로(30)를 수신하여 경로저장부(190)에 저장한다(S90).As shown in FIG. 7, first, the
그 다음, 드론제어부(110)가 경로정보, 카메라(120), GPS(130)의 위치신호 및 IMU(160)의 출력신호에 기초하여 예측위치(102)를 산출하고, 카메라(120)의 포즈를 추출한다(S100). 카메라의 포즈에는 현재 카메라의 촬영방향이 포함된다. Next, the
만약, 카메라(120) 포즈가 상방 촬영인 경우, 드론(100)은 시설물(10)의 하부를 비행하면서, 교량의 저면을 상향 촬영한다. 이때, 드론관제부(200)의 특징추출부(290)로부터 수신된 모델링의 특징(예 : 촬영평면) 및 깊이센서(150)의 출력신호에 기초하여 예측위치(102)로부터 Z축 상대거리(Dz)를 보정한다(S130). Z축 상대거리(Dz)는 드론(100)과 교량 저면 사이의 높이 방향(Z축 방향)에 대해 드론(100)의 예측높이과 실제 비행중인 높이의 차이가 된다. 이러한 Z축 상대거리(Dz)의 발생은 드론(100)이 교량의 하부로 진입함에 따라 GPS 음영이 발생하거나 그밖의 다른 오차 들이 중첩됨으로써 발생된다. If the pose of the
그 다음, 모델링의 특징(예 : 외곽선)에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx), Y축 상대거리(Dy) 및 드론(100)의 기수 회전각(θyaw)을 보정한다(S140). 이 단계에서 드론은 수평면(X-Y평면) 상에서 위치와 기수 방향을 정확히 보정한다. 기수 회전각(θyaw)을 보정함으로써 카메라(120)의 포즈도 함께 보정되는 효과가 있다. Then, the X-axis relative distance (Dx), Y-axis relative distance (Dy), and nose rotation of the
만약, 카메라(120) 포즈가 전방 촬영인 경우, 드론(100)은 시설물(10)의 측면을 비행하면서 교량의 측면, 교각(20)의 측면을 촬영한다. 이때, 비행방향을 수평방향이나 수직방향 또는 원형 경로가 될 수 있다. 모델링의 특징 및 깊이센서(150)의 출력신호에 기초하여 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx) 및 기수 회전각(θyaw)을 보정한다(S160). X축 상대거리(Dx)는 드론(100)과 교량 측면 사이의 수평(X축 방향) 거리에 대해 드론(100)의 예측거리과 실제 비행중인 거리의 차이가 된다. If the pose of the
그 다음, 모델링의 특징에 기초하여 예측위치(102)로부터 보정위치(104)까지의 Y축 상대거리(Dy) 및 Z축 상대거리(Dz)를 보정한다(S170).Then, the Y-axis relative distance (Dy) and Z-axis relative distance (Dz) from the predicted
이와 같이 각축의 상대거리와 기수 회전각(θyaw)가 보정되면, 이러한 보정위치를 현재의 예측위치로 갱신한다. 그 다음, 드론은 보정위치로 보정비행함으로써(S150), 드론은 정확한 경로 상에 놓이게 된다. In this way, when the relative distance of each axis and the nose rotation angle (θyaw) are corrected, this corrected position is updated to the current predicted position. Then, by correcting the drone to the corrected position (S150), the drone is placed on an accurate path.
이와 같은 과정은 일정 간격으로 수행될 수 있고, GPS의 수신율에 따라 수행될 수도 있으며, 특정 경로에서 수행되도록 할 수도 있다. Such a process may be performed at regular intervals, may be performed according to a GPS reception rate, or may be performed on a specific route.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a manner of combining with each other. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.
10 : 시설물,
10a : 시설물 모델링,
20 : 교각,
30 : 비행경로,
50 : 3D 모델링,
55 : 프레임 이미지,
60 : 카메라 포즈,
70 : 드론 위치,
80 : 제 1 촬영평면,
82 : 제 2 촬영평면,
84 : 외곽선,
100 : 드론,
102 : 예측위치,
104 : 보정위치,
110 : 드론제어부,
120 : 카메라,
130 : GPS,
140 : 무선통신부,
150 : 깊이센서,
160 : IMU,
170 : 블레이드 모터,
180 : 전원부,
190 : 경로저장부,
200 : 드론관제부,
210 : 제어부,
220 : 관제통신부,
230 : 3D모델링부,
240 : 디스플레이,
250 : 입력부,
260 : 경로생성부,
270 : 가상깊이 이미지 생성부,
280 : 키프레임 추출부,
290 : 특징 추출부,
292 : 카메라 포즈 추출부,
294 : 촬영평면 추출부,
296 : 촬영평면의 외곽선 추출부,
Dx, Dy, Dz : X축, Y축, Z축 상의 보정거리,
θyaw : 드론의 기수 회전각.10: facilities,
10a: facility modeling,
20: piers,
30: flight path,
50: 3D modeling,
55: frame image,
60: camera pose,
70: drone location,
80: 1st shooting plane,
82: second shooting plane,
84: outline,
100: drone,
102: predicted position,
104: correction position,
110: drone control unit,
120: camera,
130: GPS,
140: wireless communication unit,
150: depth sensor,
160: IMU,
170: blade motor,
180: power supply,
190: path storage unit,
200: drone control department,
210: control unit,
220: control and communication department,
230: 3D modeling unit,
240: display,
250: input unit,
260: path creation unit,
270: virtual depth image generation unit,
280: key frame extraction unit,
290: feature extraction unit,
292: camera pose extraction unit,
294: shooting plane extraction unit,
296: outline extraction unit of the shooting plane,
Dx, Dy, Dz: Compensation distance on X-axis, Y-axis, Z-axis,
θyaw: The angle of rotation of the nose of the drone.
Claims (11)
(i-1) 점검할 시설물(10)의 모델링(10a) 데이터가 저장된 3D모델링부(230);
(i-2) 상기 모델링(10a)에 대한 상기 드론(100)의 비행경로(30)를 생성하는 경로생성부(260);
(i-3) 상기 비행경로(30) 상의 임의 위치에서 카메라 포즈(60)에 대한 프레임이미지(55)를 추출하는 키프레임 추출부(280);
(i-4) 상기 프레임 이미지(55)로부터 상기 시설물(10)의 특징을 추출하는 특징추출부(290); 및
(i-5) 상기 드론(100)과 무선 통신하는 관제통신부(220);를 포함하는 상기 드론관제부(200); 및
(ii-1) 상기 관제통신부(220)와 무선 통신하는 무선통신부(140);
(ii-2) 상기 비행경로(30)가 저장되는 경로저장부(190); 및
(ii-3) 상기 특징추출부(290)로부터 수신된 상기 특징에 기초하여 상기 드론(100)의 예측위치(102)를 보정하는 드론제어부(110);를 포함하는 상기 드론(100);으로 구성되고,
상기 특징추출부(290)는,
상기 카메라 포즈(60)에 관한 정보를 추출하는 카메라 포즈 추출부(292);
상기 프레임 이미지로부터 촬영평면(80, 82)을 추출하는 촬영평면 추출부(294); 및
상기 촬영평면(80, 82)으로부터 외곽선(84)을 추출하는 외곽선 추출부(296);를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.In the drone 100 and the drone control unit 200 capable of mutual wireless communication,
(i-1) a 3D modeling unit 230 in which modeling 10a data of the facility 10 to be inspected is stored;
(i-2) a path generator 260 generating a flight path 30 of the drone 100 for the modeling 10a;
(i-3) a key frame extractor 280 for extracting a frame image 55 for a camera pose 60 at an arbitrary position on the flight path 30;
(i-4) a feature extraction unit 290 extracting features of the facility 10 from the frame image 55; and
(i-5) the drone control unit 200 including; a control communication unit 220 wirelessly communicating with the drone 100; and
(ii-1) a wireless communication unit 140 wirelessly communicating with the control communication unit 220;
(ii-2) a path storage unit 190 for storing the flight path 30; and
(ii-3) The drone 100 including; a drone controller 110 correcting the predicted position 102 of the drone 100 based on the feature received from the feature extractor 290; constituted,
The feature extraction unit 290,
a camera pose extractor 292 extracting information about the camera pose 60;
an imaging plane extractor 294 for extracting the imaging planes 80 and 82 from the frame image; and
An apparatus for calibrating the position of an inspection drone based on modeling of a facility, characterized in that it includes;
상기 드론(100)은 상기 예측위치(102)를 산출하기 위해,
카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나를 더 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.According to claim 1,
The drone 100, in order to calculate the predicted position 102,
A position correction device for an inspection drone based on modeling of a facility, further comprising at least one of a camera 120, a GPS 130, and an IMU 160.
상기 드론제어부(110)는 상기 예측위치(102)를 보정하기 위해 깊이센서(150)를 더 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.According to claim 1,
The drone control unit 110 further includes a depth sensor 150 to correct the predicted position 102. Position correction device for an inspection drone based on modeling of a facility.
상기 드론제어부(110)는 상기 예측위치(102)를 보정하기 위해,
상기 예측위치(102)로부터 보정위치(104)까지의 상대거리(Dx, Dy, Dz); 및
상기 드론(100)의 기수 회전각(θyaw);을 산출하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정장치.According to claim 1,
The drone control unit 110, in order to correct the predicted position 102,
Relative distances (Dx, Dy, Dz) from the predicted position 102 to the corrected position 104; and
A position correction device for an inspection drone based on modeling of a facility, characterized in that for calculating the nose rotation angle (θyaw) of the drone 100.
드론제어부(110)가 드론관제부(200)로부터 비행경로(30)를 수신하여 경로저장부(190)에 저장하는 사전단계(S90);
상기 드론제어부(110)가 카메라(120), GPS(130), 및 IMU(160) 중 적어도 하나의 출력신호에 기초하여 예측위치(102)를 산출하고, 상기 카메라(120)의 포즈를 추출하는 단계(S100);
상기 카메라(120) 포즈가 상방 촬영인 경우,
드론관제부(200)의 특징추출부(290)로부터 수신된 모델링의 특징에 기초하여 상기 예측위치(102)로부터 상기 보정위치(104)까지의 Z축 상대거리(Dz)를 보정하는 단계(S130); 및
상기 모델링의 특징에 기초하여 상기 예측위치(102)로부터 상기 보정위치(104)까지의 X축 상대거리(Dx), Y축 상대거리(Dy) 및 상기 드론(100)의 기수 회전각(θyaw)을 보정하는 단계(S140);를 포함하고,
상기 카메라(120) 포즈가 전방 촬영인 경우,
상기 모델링의 특징에 기초하여 상기 예측위치(102)로부터 보정위치(104)까지의 X축 상대거리(Dx) 및 상기 기수 회전각(θyaw)을 보정하는 단계(S160); 및
상기 모델링의 특징에 기초하여 상기 예측위치(102)로부터 상기 보정위치(104)까지의 Y축 상대거리(Dy) 및 Z축 상대거리(Dz)를 보정하는 단계(S170);를 포함하고,
상기 드론제어부(110)가 상기 보정위치(104)로 비행하는 단계(S150);를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법. In the correction method using the position correction device according to claim 5,
A preliminary step (S90) in which the drone control unit 110 receives the flight path 30 from the drone control unit 200 and stores it in the path storage unit 190;
The drone controller 110 calculates the predicted position 102 based on an output signal of at least one of the camera 120, the GPS 130, and the IMU 160, and extracts the pose of the camera 120 Step (S100);
When the pose of the camera 120 is upward shooting,
Correcting the Z-axis relative distance (Dz) from the predicted position 102 to the corrected position 104 based on the modeling features received from the feature extraction unit 290 of the drone control unit 200 (S130 ); and
X-axis relative distance (Dx), Y-axis relative distance (Dy) and nose rotation angle (θyaw) of the drone 100 from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling Including; step of correcting (S140);
When the pose of the camera 120 is forward shooting,
Correcting the X-axis relative distance (Dx) and the nose rotation angle (θyaw) from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling (S160); and
Correcting the Y-axis relative distance (Dy) and the Z-axis relative distance (Dz) from the predicted position 102 to the corrected position 104 based on the characteristics of the modeling (S170);
The drone control unit 110 flies to the correction position 104 (S150); a position correction method of an inspection drone based on facility modeling, characterized in that it includes.
상기 보정단계(S130, S160)에서 상기 모델링의 특징은,
상기 특징추출부(290) 중 촬영평면 추출부(294)가 상기 모델링(10a)으로부터 추출한 촬영평면(80, 82) 데이터를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.According to claim 6,
The characteristics of the modeling in the correction steps (S130 and S160) are,
Position correction of the inspection drone based on the modeling of the facility, characterized in that the capturing plane extracting unit 294 of the feature extracting unit 290 includes the capturing planes 80 and 82 data extracted from the modeling 10a. method.
상기 보정단계(S140, S170)에서 상기 모델링의 특징은,
상기 특징추출부(290) 중 촬영평면의 외곽선 추출부(296)가 상기 모델링(10a)으로부터 추출한 외곽선(84) 데이터를 포함하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.According to claim 6,
The characteristics of the modeling in the correction steps (S140, S170) are,
Position correction method of an inspection drone based on modeling of a facility, characterized in that the outline extractor 296 of the shooting plane among the feature extractors 290 includes the outline 84 data extracted from the modeling 10a. .
상기 카메라(120) 포즈가 상방 촬영인 경우, 상기 드론(100)은 시설물(10)의 하부를 비행하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.According to claim 6,
The position correction method of the inspection drone based on the modeling of the facility, characterized in that when the camera 120 pose is upward shooting, the drone 100 flies below the facility 10.
상기 보정단계(S130, S140, S160, S170)에서,
상기 드론제어부(110)는 깊이센서(150)의 출력신호를 더 기초로 하여 보정하는 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.According to claim 6,
In the correction steps (S130, S140, S160, S170),
The drone control unit 110 corrects the position of the inspection drone based on the modeling of the facility, characterized in that the correction is further based on the output signal of the depth sensor 150.
상기 모델링은 상기 시설물의 3-D 모델링인 것을 특징으로 하는 시설물의 모델링을 기반으로 하는 점검 드론의 위치 보정방법.
According to claim 6,
The method of correcting the position of an inspection drone based on modeling of a facility, wherein the modeling is a 3-D modeling of the facility.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210111737A KR102504743B1 (en) | 2021-08-24 | 2021-08-24 | Position correction device and correction method of inspection drone based on the model of the facility |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210111737A KR102504743B1 (en) | 2021-08-24 | 2021-08-24 | Position correction device and correction method of inspection drone based on the model of the facility |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102504743B1 true KR102504743B1 (en) | 2023-03-03 |
Family
ID=85510517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210111737A KR102504743B1 (en) | 2021-08-24 | 2021-08-24 | Position correction device and correction method of inspection drone based on the model of the facility |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102504743B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016111414A (en) * | 2014-12-03 | 2016-06-20 | コニカミノルタ株式会社 | Flying body position detection system and flying body |
KR101782039B1 (en) | 2017-05-31 | 2017-09-26 | (주)지트 | A Measuring device and location method of river and river facilities using drone |
KR101881121B1 (en) | 2017-12-14 | 2018-07-23 | 주식회사 엠지아이티 | Drone for measuring distance and method for controlling drone |
KR20190092789A (en) | 2018-01-31 | 2019-08-08 | 주식회사 에디테크놀로지 | Method for calculating position of drone and system for correcting position of drone using the method |
JP2020030204A (en) * | 2018-08-21 | 2020-02-27 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Distance measurement method, program, distance measurement system and movable object |
KR102289752B1 (en) * | 2020-10-13 | 2021-08-13 | 주식회사 스페이스소프트인더스트리 | A drone for performring route flight in gps blocked area and methed therefor |
-
2021
- 2021-08-24 KR KR1020210111737A patent/KR102504743B1/en active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016111414A (en) * | 2014-12-03 | 2016-06-20 | コニカミノルタ株式会社 | Flying body position detection system and flying body |
KR101782039B1 (en) | 2017-05-31 | 2017-09-26 | (주)지트 | A Measuring device and location method of river and river facilities using drone |
KR101881121B1 (en) | 2017-12-14 | 2018-07-23 | 주식회사 엠지아이티 | Drone for measuring distance and method for controlling drone |
KR20190092789A (en) | 2018-01-31 | 2019-08-08 | 주식회사 에디테크놀로지 | Method for calculating position of drone and system for correcting position of drone using the method |
JP2020030204A (en) * | 2018-08-21 | 2020-02-27 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Distance measurement method, program, distance measurement system and movable object |
KR102289752B1 (en) * | 2020-10-13 | 2021-08-13 | 주식회사 스페이스소프트인더스트리 | A drone for performring route flight in gps blocked area and methed therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7310972B2 (en) | Flight information control method, information processing device and computer program | |
CN106796112B (en) | Control apparatus, control method, and computer program for detecting vehicle | |
CN111717407B (en) | Control method and control device | |
JP6658532B2 (en) | Control device, control method, and flying object device | |
JP5618840B2 (en) | Aircraft flight control system | |
US11048276B2 (en) | Measuring device, control device for unmanned aerial vehicle and computer program product for controlling unmanned aerial vehicle | |
JP5775632B2 (en) | Aircraft flight control system | |
JP2006027448A (en) | Aerial photographing method and device using unmanned flying body | |
JP2016111414A (en) | Flying body position detection system and flying body | |
Azhari et al. | A comparison of sensors for underground void mapping by unmanned aerial vehicles | |
JP2024020389A (en) | Control method, control device and program | |
JP6707933B2 (en) | Unmanned flight device control system, unmanned flight device control method, and unmanned flight device | |
KR102504743B1 (en) | Position correction device and correction method of inspection drone based on the model of the facility | |
JP7333565B1 (en) | Aircraft and method of controlling the aircraft | |
JP2022143470A (en) | Survey system, survey apparatus, survey method, and survey program | |
JP2019174292A (en) | Surveying device and surveying method |