KR102242366B1 - RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site - Google Patents

RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site Download PDF

Info

Publication number
KR102242366B1
KR102242366B1 KR1020200142103A KR20200142103A KR102242366B1 KR 102242366 B1 KR102242366 B1 KR 102242366B1 KR 1020200142103 A KR1020200142103 A KR 1020200142103A KR 20200142103 A KR20200142103 A KR 20200142103A KR 102242366 B1 KR102242366 B1 KR 102242366B1
Authority
KR
South Korea
Prior art keywords
ground reference
drone
reference point
rtk
point
Prior art date
Application number
KR1020200142103A
Other languages
Korean (ko)
Inventor
박재우
염동준
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020200142103A priority Critical patent/KR102242366B1/en
Application granted granted Critical
Publication of KR102242366B1 publication Critical patent/KR102242366B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/28Special adaptation for recording picture point data, e.g. for profiles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • G01C11/34Aerial triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

A drone-based ground reference point arrangement automation device for creating a digital map of earthworks is provided. A drone-based ground reference point arrangement automation device comprises: a ground reference point extractor that analyzes images acquired from a camera provided in a real-time kinematic (RTK) drone and extracts ground control points (GCP); and a long-distance surveying unit that calculates absolute coordinates of each of the ground reference points using the distance between each extracted ground reference point and a laser distance measurer, RTK-GPS information of the RTK drone, and a 3-axis inclination of the RTK drone.

Description

토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치{RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site}Drone based GRP auto-arrangement apparatus for digital map creation of earthwork site {RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site}

본 발명은 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치에 관한 것으로서, 보다 상세하게는, RTK 드론이 촬영한 영상을 이용하여 지상기준점을 정할 수 있는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치에 관한 것이다.The present invention relates to a drone-based ground reference point arrangement automation device for generating a digital map of an earthwork site, and more particularly, for the generation of a digital map of an earthwork site that can determine a ground reference point using an image captured by an RTK drone. It relates to a drone-based ground control point arrangement automation device.

기존의 드론을 활용한 토공현장 디지털맵 생성 과정은 1) 지상기준점(GCP: Ground Control Point) 및 검측점 설정, 2) 드론 영상 취득 계획 수립, 3) 드론 영상 취득, 4) 영상기반 점군데이터(PCD: Point Cloud Data) 생성, 5) 정사영상 생성, 6) DSM(Digital Surface Model) 또는 DEM(Digital Elevation Model) 생성의 순서를 포함한다.The process of creating a digital map of an earthmoving site using existing drones is 1) ground control point (GCP) and detection point setting, 2) drone image acquisition plan establishment, 3) drone image acquisition, 4) image-based point cloud data ( PCD: Point Cloud Data) generation, 5) orthogonal image generation, 6) DSM (Digital Surface Model) or DEM (Digital Elevation Model) generation sequence.

이러한 과정 중 3)~6)의 과정은 현재 구축된 시스템을 활용하여 어느 정도 자동화가 가능하지만, 1)~2)의 과정은 현재까지 자동화가 어려우며 인력의 투입을 필요로 한다. Among these processes, the processes of 3)~6) can be automated to some extent by using the currently established system, but the processes of 1)~2) are difficult to automate until now and require the input of manpower.

특히, 지상기준점(GCP) 및 검측점 설정 과정은 사람이 직접 지상기준점에 해당하는 실제 위치에 방문해서 지상기준점으로 설정할 지점의 좌표 값을 측정 및 수집해야 하므로 노동집약적이고, 전체 프로세스에서 차지하는 시간이 매우 길다.In particular, the process of setting a ground control point (GCP) and a detection point is labor-intensive because a person must visit the actual location corresponding to the ground control point and measure and collect the coordinate values of the point to be set as the ground control point. Very long.

이로 인해, 지상기준점 및 검측점 설정 과정은 드론을 활용한 토공현장 디지털맵 생성 작업에서 대표적인 생산성, 경제성 저하요인으로 꼽히고 있으므로, 해당 과정을 인력 투입 없이 보다 빠른 시간 안에 해결할 수 있는 기술의 대안 마련이 필요하다.For this reason, the process of setting the ground control point and the detection point is regarded as a representative factor of lowering productivity and economic efficiency in the creation of a digital map of an earthwork site using a drone. need.

또한, 등록번호 10-1853348호에 기술된 '드론을 이용한 지상기준점 설정방법'은 드론에 수납된 높이조절다리를 활용하여 지상기준점을 직접 측정해야 하므로 측정하는데 번거로움이 발생하고, 지상기준점으로 삼을 위치가 평탄하지 못할 경우 해당 지점을 지상기준점으로 활용하지 못한다는 한계가 있다.In addition,'How to set a ground reference point using a drone' described in Registration No. 10-1853348 causes trouble in measuring because it is necessary to directly measure the ground reference point using a height adjustment leg stored in the drone, and use it as a ground reference point. There is a limit in that it cannot be used as a ground reference point if the location of the is not flat.

국내 공개특허 10-2018-0021604호(2018년 03월 05일 공개)Korean Patent Publication No. 10-2018-0021604 (published on March 05, 2018)

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 사람이 직접 지상기준점에 해당하는 실제 위치로 방문하는 수고를 해결하고, 인력 투입없이 신속히 지상기준점을 추출할 수 있는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치를 제시하는 데 있다.In order to solve the above-described problems, the technical problem to be achieved by the present invention is a digital map of an earthwork site that solves the trouble of a person directly visiting the actual location corresponding to the ground reference point, and quickly extracts the ground reference point without inputting manpower. It is to present a drone-based ground control point arrangement automation device for creation.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem of the present invention is not limited to those mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치는, RTK(Real-Time Kinematic) 드론에 구비된 카메라로부터 취득된 영상들을 분석하여 지상기준점(GCP: Ground Control Point)들을 추출하는 지상기준점 추출부; 및 각각의 상기 추출된 지상기준점들과 레이저 거리 측정기 간의 거리와, 상기 RTK 드론의 RTK-GPS 정보와, 상기 RTK 드론의 3축 기울기를 이용하여 상기 추출된 지상기준점들 각각의 절대좌표를 산출하는 원거리 측량부;를 포함한다.As a means for solving the above-described technical problem, according to an embodiment of the present invention, a drone-based ground reference point arrangement automation device for generating a digital map of an earthwork site is acquired from a camera provided in a Real-Time Kinematic (RTK) drone. A ground control point extraction unit that analyzes the generated images and extracts ground control points (GCP); And calculating the absolute coordinates of each of the extracted ground reference points using the distance between the extracted ground reference points and the laser distance meter, the RTK-GPS information of the RTK drone, and the 3-axis tilt of the RTK drone. It includes; remote surveying unit.

상기 지상기준점 추출부는, 상기 카메라가 토공현장을 촬영한 다수의 영상들로부터 상기 토공현장 전체에 대한 정사영상을 생성하는 정사영상 생성부; 상기 정사영상 중 육안 식별이 가능한 물체 또는 지점들을 후보 오브젝트들로서 추출하는 후보 추출부; 상기 추출된 후보 오브젝트들 중 특징점 추출이 가능한 후보 오브젝트들을 타겟 오브젝트들로서 추출하는 타겟 추출부; 및 상기 추출된 타겟 오브젝트 별로 특징점을 추출하여 지상기준점으로서 정하는 특징점 추출부;를 포함한다.The ground reference point extracting unit may include an orthogonal image generation unit generating an orthogonal image for the entire earthwork site from a plurality of images captured by the camera; A candidate extraction unit that extracts objects or points that can be visually identifiable among the orthogonal images as candidate objects; A target extraction unit that extracts candidate objects capable of extracting feature points from among the extracted candidate objects as target objects; And a feature point extracting unit that extracts feature points for each of the extracted target objects and determines them as ground reference points.

상기 특징점 추출부는, 상기 타겟 오브젝트들 별로 특징점을 산출한 후, 상기 정사영상을 일정 크기로 분할하여 다수의 영역들을 생성하고, 상기 다수의 영역들 중 현재 처리할 영역에 다수의 특징점들이 존재하는 경우, 상기 다수의 특징점들 각각과 배경과의 대비율, 상기 다수의 특징점들의 위치 및 상기 다수의 특징점들이 속하는 지점의 영상 중첩도 중 적어도 하나를 고려하여 상기 다수의 특징점들의 우선순위를 산출한 후 가장 높은 우선순위를 가지는 특징점을 상기 현재 처리할 영역의 지상기준점으로서 추출한다.When the feature point extractor calculates feature points for each of the target objects, divides the orthogonal image into a predetermined size to generate a plurality of areas, and a plurality of feature points exist in an area to be processed currently among the plurality of areas. , After calculating the priority of the plurality of feature points in consideration of at least one of the contrast ratio between each of the plurality of feature points and the background, the positions of the plurality of feature points, and the image overlap degree of the point to which the plurality of feature points belong A feature point having a high priority is extracted as a ground reference point of the area to be processed.

상기 RTK 드론이 상기 추출된 지상기준점들 각각에 대해 기설정된 거리만큼 근접하여 카메라가 실시간 근접촬영하도록 상기 RTK 드론의 자율 주행을 제어하는 제어부;를 더 포함한다.And a control unit for controlling the autonomous driving of the RTK drone so that the RTK drone is close to each of the extracted ground reference points by a preset distance so that the camera takes a close-up picture in real time.

상기 원거리 측량부는, 상기 지상기준점들 중 현재 처리할 지상기준점을 실시간 근접촬영한 영상이 상기 카메라로부터 입력되면, 상기 실시간 근접촬영한 영상을 분석하여 상기 지상기준점의 실제 위치를 인식하는 지상기준점 인식부; 상기 레이저 거리 측정기가 상기 인식된 실제 위치에 해당하는 지상기준점을 수직으로 사전에 정해진 시간동안 지향하면, 레이저를 상기 지상기준점으로 조사하여 상기 지상기준점과 레이저 거리 측정기 간의 거리를 산출하는 거리 산출부; 및 상기 RTK 드론의 RTK-GPS 정보인 (X, Y, Z) 좌표 중 Z를 상기 거리 산출부에서 산출된 거리만큼 보정하여 상기 지상기준점의 좌표를 추출하는 지상기준점 좌표 추출부;를 포함한다.The far-field survey unit, when an image obtained by real-time close-up of the ground reference point to be processed among the ground reference points to be processed is input from the camera, the ground reference point recognition unit to recognize the actual position of the ground reference point by analyzing the real-time close-up image ; A distance calculation unit for calculating a distance between the ground reference point and the laser distance finder by irradiating a laser to the ground reference point when the laser distance finder directs the ground reference point corresponding to the recognized real position vertically for a predetermined time; And a ground reference point coordinate extracting unit for extracting the coordinates of the ground reference point by correcting Z among the (X, Y, Z) coordinates of the RTK-GPS information of the RTK drone by the distance calculated by the distance calculating unit.

상기 제어부는, 상기 카메라가 지상기준점을 실시간 근접촬영하고, 상기 레이저 거리 측정기가 레이저를 조사하고, 상기 원거리 측량부가 상기 지상기준점의 좌표를 추출하는 동안 상기 RTK 드론의 기울기 중 롤과 피치의 값이 0을 유지하도록 RTK 드론의 자율 주행을 제어한다.The control unit, while the camera takes a real-time close-up picture of the ground reference point, the laser range finder irradiates a laser, and the distance surveying unit extracts the coordinates of the ground reference point, the roll and pitch values of the inclination of the RTK drone are It controls the autonomous driving of the RTK drone to keep it at zero.

한편, 본 발명의 다른 실시 예에 따르면, 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 방법은, (A) 전자장치가, RTK(Real-Time Kinematic) 드론에 구비된 카메라로부터 취득된 영상들을 분석하여 지상기준점(GCP: Ground Control Point)들을 추출하는 단계; 및 (B) 상기 전자장치가, 각각의 상기 추출된 지상기준점들과 레이저 거리 측정기 간의 거리와, 상기 RTK 드론의 RTK-GPS 정보와, 상기 RTK 드론의 3축 기울기를 이용하여 상기 추출된 지상기준점들 각각의 절대좌표를 산출하는 단계;를 포함한다.On the other hand, according to another embodiment of the present invention, a drone-based ground reference point placement automation method for generating a digital map of an earthmoving site includes (A) an electronic device acquired from a camera provided in a Real-Time Kinematic (RTK) drone. Analyzing images to extract ground control points (GCP); And (B) the electronic device, the extracted ground reference points using the distance between the extracted ground reference points and the laser distance meter, the RTK-GPS information of the RTK drone, and the 3-axis tilt of the RTK drone. It includes; calculating the absolute coordinates of each of the.

상기 (A) 단계는, (A1) 상기 카메라가 토공현장을 촬영한 다수의 영상들로부터 상기 토공현장 전체에 대한 정사영상을 생성하는 단계; (A2) 상기 정사영상 중 육안 식별이 가능한 물체 또는 지점들을 후보 오브젝트들로서 추출하는 단계; (A3) 상기 추출된 후보 오브젝트들 중 특징점 추출이 가능한 후보 오브젝트들을 타겟 오브젝트들로서 추출하는 단계; 및 (A4) 상기 추출된 타겟 오브젝트 별로 특징점을 추출하여 지상기준점으로 정하는 단계;를 포함한다.The step (A) includes the steps of: (A1) generating an orthogonal image of the entire earthwork site from a plurality of images captured by the camera; (A2) extracting objects or points that can be visually identifiable among the orthogonal images as candidate objects; (A3) extracting candidate objects capable of extracting feature points from among the extracted candidate objects as target objects; And (A4) extracting feature points for each of the extracted target objects and determining them as ground reference points.

상기 (A4) 단계는, 상기 타겟 오브젝트들 별로 특징점을 산출한 후, 상기 정사영상을 일정 크기로 분할하여 다수의 영역들을 생성하고, 상기 다수의 영역들 중 현재 처리할 영역에 다수의 특징점들이 존재하는 경우, 상기 다수의 특징점들 각각과 배경과의 대비율, 상기 다수의 특징점들의 위치 및 상기 다수의 특징점들이 속하는 지점의 영상 중첩도 중 적어도 하나를 고려하여 상기 다수의 특징점들의 우선순위를 산출한 후 가장 높은 우선순위를 가지는 특징점을 상기 현재 처리할 영역의 지상기준점으로서 추출한다.In the step (A4), after calculating feature points for each of the target objects, a plurality of areas are generated by dividing the orthogonal image into a predetermined size, and a plurality of feature points exist in an area to be processed currently among the plurality of areas. In this case, the priority of the plurality of feature points is calculated in consideration of at least one of a contrast ratio between each of the plurality of feature points and a background, the positions of the plurality of feature points, and an image overlap degree of a point to which the plurality of feature points belong. After that, the feature point having the highest priority is extracted as the ground reference point of the area to be processed.

(C) 상기 전자장치가, 상기 (A) 단계 후, 상기 RTK 드론이 상기 추출된 지상기준점들 각각에 대해 기설정된 거리만큼 근접하여 카메라가 실시간 근접촬영하도록 상기 RTK 드론의 자율 주행을 제어하는 단계;를 더 포함한다.(C) the electronic device, after the step (A), controlling the autonomous driving of the RTK drone so that the RTK drone is close to each of the extracted ground reference points by a preset distance so that the camera takes close-up pictures in real time. It further includes;

상기 (B) 단계는, (B1) 상기 지상기준점들 중 현재 처리할 지상기준점을 실시간 근접촬영한 영상이 상기 카메라로부터 입력되면, 상기 실시간 근접촬영한 영상을 분석하여 상기 지상기준점의 실제 위치를 인식하는 단계; (B2) 상기 레이저 거리 측정기가 상기 인식된 실제 위치에 해당하는 지상기준점을 수직으로 사전에 정해진 시간동안 지향하면, 레이저를 상기 지상기준점으로 조사하여 상기 지상기준점과 레이저 거리 측정기 간의 거리를 산출하는 단계; 및 (B3) 상기 RTK 드론의 RTK-GPS 정보인 (X, Y, Z) 좌표 중 Z를 상기 (B2) 단계에서 산출된 거리만큼 보정하여 상기 지상기준점의 좌표를 추출하는 단계;를 포함한다.In the step (B), (B1), when a real-time close-up image of the ground reference point to be processed is input from the camera, the real-time position of the ground reference point is recognized by analyzing the real-time close-up image. The step of doing; (B2) when the laser distance finder directs the ground reference point corresponding to the recognized real position vertically for a predetermined time, calculating a distance between the ground reference point and the laser distance finder by irradiating a laser to the ground reference point ; And (B3) correcting Z among the (X, Y, Z) coordinates of the RTK-GPS information of the RTK drone by the distance calculated in step (B2) to extract the coordinates of the ground reference point.

상기 (C) 단계는, 상기 카메라가 지상기준점을 실시간 근접촬영하고, 상기 레이저 거리 측정기가 레이저를 조사하고, 상기 지상기준점의 좌표를 추출하는 동안 상기 RTK 드론의 기울기 중 롤과 피치의 값이 0을 유지하도록 RTK 드론의 자율 주행을 제어한다. In the step (C), while the camera takes a close-up picture of the ground reference point in real time, the laser range finder irradiates the laser, and extracts the coordinates of the ground reference point, the roll and pitch values of the inclination of the RTK drone are 0. It controls the autonomous driving of the RTK drone to maintain it.

본 발명에 따르면, 토공현장의 정사영상을 이용하여 지상기준점을 자동으로 추출함으로써 토공현장 디지털맵 생성 과정에서 발생할 수 있는 휴먼에러(Human error)를 최소화할 수 있으며, 검측점의 위치좌표 측정 또한 동일한 방식으로 자동 수행됨에 따라 일관된 오차율 측정 결과를 시스템 사용자에게 제공할 수 있다. According to the present invention, by automatically extracting the ground reference point using the orthogonal image of the earthwork site, human error that may occur in the process of generating the digital map of the earthwork site can be minimized, and the measurement of the position coordinates of the detection point is also the same. As the method is automatically performed, consistent error rate measurement results can be provided to system users.

또한, 본 발명에 따르면, 원거리 측량부를 활용하여 지상기준점의 위치를 자동으로 측정할 수 있으며, 이로써 토공현장 중 지상기준점으로 삼을 위치가 평탄하지 못할 경우 해당 지점을 지상기준점으로 활용하지 못 하는 기존 기술의 문제점을 해결할 수 있다. In addition, according to the present invention, it is possible to automatically measure the position of the ground reference point by using a long-distance surveying unit. Accordingly, if the location to be used as the ground reference point among earthworks sites is not flat, the existing point cannot be used as a ground reference point. You can solve the problem of technology.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치가 적용된 RTK(Real-Time Kinematic) 드론(100)의 사시도,
도 2는 본 발명의 실시 예에 따른 RTK 드론(100)의 블록도,
도 3은 지상기준점 추출부(174)를 자세히 도시한 블록도,
도 4는 원거리 측량부(176)를 자세히 도시한 블록도,
도 5는 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 방법을 개략적으로 보여주는 흐름도, 그리고,
도 6은 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 방법을 자세히 보여주는 흐름도이다.
1 is a perspective view of a Real-Time Kinematic (RTK) drone 100 to which a drone-based ground reference point arrangement automation device for digital map generation of an earthwork site according to an embodiment of the present invention is applied,
2 is a block diagram of an RTK drone 100 according to an embodiment of the present invention,
3 is a block diagram showing in detail the ground reference point extraction unit 174;
Figure 4 is a block diagram showing in detail the distance surveying unit 176,
5 is a flowchart schematically showing a drone-based ground control point arrangement automation method for generating a digital map of an earthwork site according to an embodiment of the present invention; and
6 is a flowchart illustrating in detail a drone-based ground control point arrangement automation method for generating a digital map of an earthwork site according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features, and advantages of the present invention will be easily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed contents may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In some cases, it is mentioned in advance that parts that are commonly known in describing the invention and are not largely related to the invention are not described in order to avoid confusion in the description of the invention for no apparent reason.

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.Where an element, component, device, or system is stated to contain a program or a component made of software, the element, component, device, or system is the execution or operation of the program or software, even if not explicitly stated. It should be understood to include hardware (for example, memory, CPU, etc.) or other programs or software (for example, a driver required to run an operating system or hardware).

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that the element (or component) may be implemented in software, hardware, or any form of software and hardware, unless otherwise specified in the implementation of a certain element (or component).

이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, specific technical content to be implemented in the present invention will be described in detail.

본 발명의 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치의 각각의 구성은 기능 및/또는 논리적으로 분리될 수도 있으며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Each configuration of the drone-based ground control point arrangement automation device for digital map generation of the earthwork site of the present invention may be functionally and/or logically separated, and each configuration must be classified as a separate physical device or a separate code. It may be easily inferred by an average expert in the art that it does not mean that it is written.

상기 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치는 소정의 데이터 프로세싱 장치에 설치되어 본 발명의 기술적 사상을 구현할 수도 있다.The drone-based ground control point arrangement automation device for generating a digital map of the earthwork site may be installed in a predetermined data processing device to implement the technical idea of the present invention.

도 1은 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치가 적용된 RTK(Real-Time Kinematic) 드론(100)의 사시도, 도 2는 본 발명의 실시 예에 따른 RTK 드론(100)의 블록도, 도 3은 지상기준점 추출부(174)를 자세히 도시한 블록도, 도 4는 원거리 측량부(176)를 자세히 도시한 블록도이다. 1 is a perspective view of a real-time kinematic (RTK) drone 100 to which a drone-based ground reference point arrangement automation device for digital map generation of an earthwork site according to an embodiment of the present invention is applied. According to a block diagram of the RTK drone 100, FIG. 3 is a block diagram showing the ground reference point extraction unit 174 in detail, and FIG. 4 is a block diagram showing the far-field survey unit 176 in detail.

도 1에 도시된 RTK 드론(100) 또는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치는 인력이 직접 지상기준점에 해당하는 실제 위치에 방문해서 지상기준점으로 설정할 지점의 좌표 값을 측정 및 수집하는 기존의 과정을 자동화할 수 있다. The RTK drone 100 shown in FIG. 1 or the drone-based ground reference point placement automation device for digital map generation of an earthwork site directly visits the actual location corresponding to the ground reference point and measures the coordinate value of the point to be set as the ground reference point. And it is possible to automate the existing process of collecting.

디지털맵 생성 서버(200)는 RTK 드론(100)으로부터 수신되는 토공현장을 촬영한 영상과 측정 및 수집된 지상기준점들의 위치좌표를 이용하여 토공현장의 디지털맵을 생성한다.The digital map generation server 200 generates a digital map of the earthwork site using the image of the earthwork site received from the RTK drone 100 and the position coordinates of the measured and collected ground reference points.

도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 RTK 드론(100)은 몸체(110), 통신 인터페이스부(120), 카메라(130), 레이저 거리 측정기(140), 자율주행 구동부(150), 메모리(160) 및 프로세서(170)를 포함할 수 있다. 1 and 2, the RTK drone 100 according to an embodiment of the present invention includes a body 110, a communication interface unit 120, a camera 130, a laser distance meter 140, an autonomous driving unit ( 150), a memory 160, and a processor 170 may be included.

통신 인터페이스부(120)는 RTK 드론(100)과 지상 또는 현장에 구비된 RTK-GPS 베이스(10)와의 통신 경로를 제공하며, 베이스(10)는 드론(100)의 좌표를 실시간으로 제공할 수 있다.The communication interface unit 120 provides a communication path between the RTK drone 100 and the RTK-GPS base 10 provided on the ground or in the field, and the base 10 can provide the coordinates of the drone 100 in real time. have.

또한, 통신 인터페이스부(120)는 카메라(130)에 의해 촬영된 토공현장의 영상, 정사영상, 추출된 특징점들, 특징점들의 위치 좌표 등을 실시간으로, 또는 주기적으로, 또는 사용자 요청에 따라 디지털맵 생성 서버(200)의 데이터베이스(미도시)로 전송할 수 있다.In addition, the communication interface unit 120 is a digital map of the earthmoving site image, orthogonal image, the extracted feature points, the position coordinates of the feature points captured by the camera 130 in real time, periodically, or according to a user's request. It may be transmitted to a database (not shown) of the generation server 200.

몸체(110)는 RTK 드론(100)의 케이스 역할을 한다.The body 110 serves as a case for the RTK drone 100.

카메라(130)는 몸체(110)의 하부에 지상을 촬영할 수 있도록 구비될 수 있다. 카메라(130)는 렌즈(미도시)의 방향을 조정하면서 촬영 각도를 조정할 수 있다.The camera 130 may be provided under the body 110 to photograph the ground. The camera 130 may adjust the photographing angle while adjusting the direction of the lens (not shown).

레이저 거리 측정기(140)는 몸체(110)의 하단면과 수직을 형성하도록 구비되는 레이저 스캐너로서, 레이저 거리 측정기(140)에서 조사되는 레이저와 몸체(110)의 하단은 수직을 형성할 수 있다.The laser range finder 140 is a laser scanner that is provided to form perpendicular to the bottom surface of the body 110, and the laser irradiated by the laser range finder 140 and the bottom of the body 110 may form vertical.

자율주행 구동부(150)는 후술할 제어부(172)의 제어에 따라 RTK 드론(100)이 토공현장 상공을 비행하면서 지상기준점(GCP: Ground Control Point)들을 자동으로 배치하도록 RTK 드론(100)을 구동할 수 있다. The autonomous driving driving unit 150 drives the RTK drone 100 to automatically arrange ground control points (GCP) while the RTK drone 100 flies over the earthwork site under the control of the control unit 172 to be described later. can do.

메모리(160)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(160)에는 예를 들어, RTK 드론(100)이 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(110~170)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The memory 160 may include volatile memory and/or nonvolatile memory. In the memory 160, for example, in order to implement and/or provide operations, functions, etc. provided by the RTK drone 100, commands or data related to the components 110 to 170, one or more programs, and/or Software, operating system, etc. may be stored.

메모리(160)에 저장되는 프로그램은 RTK 드론(100)이 토공현장을 비행하면서 촬영한 항공영상을 분석하여 자동으로 지상기준점들을 배치하기 위한 지상기준점 자동 배치 프로그램을 포함할 수 있다. The program stored in the memory 160 may include an automatic ground reference point arrangement program for automatically arranging ground reference points by analyzing an aerial image captured by the RTK drone 100 flying over an earthmoving site.

프로세서(170)는 메모리(160)에 저장된 하나 이상의 프로그램을 실행하여 RTK 드론(100)의 전반적인 동작을 제어한다. The processor 170 controls the overall operation of the RTK drone 100 by executing one or more programs stored in the memory 160.

예를 들어, 프로세서(170)는 메모리(160)에 저장된 지상기준점 자동 배치 프로그램을 실행하여 RTK 드론(100)으로부터 취득된 영상을 기반으로 지상기준점으로 활용가능한 특징점을 추출하고, 해당 특징점의 위치를 나타내는 좌표를 정밀 측정할 수 있으며, 프로세서(170)는 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치로서 동작할 수도 있다. For example, the processor 170 executes a ground reference point automatic arrangement program stored in the memory 160 to extract a feature point usable as a ground reference point based on the image acquired from the RTK drone 100, and determine the location of the corresponding feature point. The coordinates indicated may be precisely measured, and the processor 170 may operate as a drone-based ground reference point arrangement automation device for generating a digital map of an earthwork site according to an embodiment of the present invention.

이를 위하여, 지상기준점 자동 배치 프로그램이 실행되면 본 발명의 실시 예에 따른 지상기준점 배치 자동화 장치로 적용되는 프로세서(170)는 제어부(172), 지상기준점 추출부(174) 및 원거리 측량부(176)를 포함할 수 있다.To this end, when the ground reference point automatic placement program is executed, the processor 170 applied as the ground reference point placement automation device according to an embodiment of the present invention includes a control unit 172, a ground reference point extracting unit 174, and a distance surveying unit 176. It may include.

제어부(172)는 RTK 드론(100)이 토공현장의 정사영상으로부터 특징점들을 추출하는 특징점 추출 모드와 추출된 특징점들의 좌표를 측량하는 측량 모드로 동작하도록 제어할 수 있다.The controller 172 may control the RTK drone 100 to operate in a feature point extraction mode in which feature points are extracted from an orthogonal image of an earthwork site and a survey mode in which coordinates of the extracted feature points are measured.

특징점 추출 모드로 동작하는 경우, 제어부(172)는 RTK 드론(100)의 토공현장의 상공을 비행하도록 자율주행 구동부(150)의 구동을 제어할 수 있다. 제어부(172)는 RTK 드론(100)이 토공현장의 상공을 종방향 또는 횡방향으로 비행하도록 하며, 다양한 각도로 비행하도록 한다. When operating in the feature point extraction mode, the controller 172 may control the driving of the autonomous driving driver 150 to fly over the earthwork site of the RTK drone 100. The control unit 172 allows the RTK drone 100 to fly vertically or transversely over the earthwork site, and allows it to fly at various angles.

또한, 제어부(172)는 RTK 드론(100)이 비행하는 동안 토공현장을 촬영하도록 카메라(130)를 제어하며, 카메라(130)는 토공현장을 촬영하는 동안 예를 들어, 각 프레임마다 종방향으로 80%, 횡방향으로 80% 이상, 연속하는 프레임들이 중첩되도록 촬영하며, 제어부(172)는 카메라(130)의 셔터 주기를 고려하여 프레임 중첩도를 유지하도록 비행 속도를 제어할 수 있다. 프레임 중첩도인 80%는 일 예로서 비행 고도, 비행 속도, 카메라(130)의 셔터 주기, 날씨 등에 따라 변경가능하다. In addition, the control unit 172 controls the camera 130 to photograph the earthwork site while the RTK drone 100 is flying, and the camera 130 is, for example, in the longitudinal direction for each frame while photographing the earthwork site. 80%, 80% or more in the horizontal direction, and photographing so that consecutive frames are overlapped, and the controller 172 may control the flight speed to maintain the degree of frame overlap in consideration of the shutter period of the camera 130. The frame overlapping degree of 80% can be changed according to flight altitude, flight speed, shutter period of the camera 130, weather, etc., as an example.

제어부(172)는 촬영된 영상을 분석하여 토공현장에서 적용가능한 지상기준점들을 추출하도록 지상기준점 추출부(174)를 제어한다. The controller 172 controls the ground reference point extraction unit 174 to analyze the captured image and extract ground reference points applicable to the earthwork site.

지상기준점 추출부(174)에서 지상기준점들이 모두 추출되면, 제어부(172)는 측량 모드로 전환하여, RTK 드론(100)이 지상기준점 추출부(174)에서 추출된 지상기준점들에 기설정된 거리만큼 근접하여 카메라(130)가 지상기준점들을 포함하는 영역을 실시간 근접촬영하도록 RTK 드론(100)의 자율 주행과 카메라(130)를 제어할 수 있다. 이 때, 제어부(172)는 메모리(160)에 저장된 지상기준점들의 위치를 확인하여 RTK 드론(100)이 지상기준점들을 촬영할 수 있는 상공에 위치하도록 할 수 있다.When all of the ground reference points are extracted by the ground reference point extraction unit 174, the control unit 172 switches to the survey mode, and the RTK drone 100 moves to the ground reference points extracted by the ground reference point extraction unit 174 by a preset distance. In proximity, the camera 130 may control the autonomous driving of the RTK drone 100 and the camera 130 to take a real-time close-up picture of an area including the ground reference points. In this case, the control unit 172 may check the positions of the ground reference points stored in the memory 160 so that the RTK drone 100 is positioned above the ground reference points.

그리고, 제어부(172)는 RTK 드론(100)이 토공현장의 정사영상 내에서 토공현장의 디지털맵 생성을 위해 배치된 이상적인 지상기준점의 상공으로 이동한 후 원거리 측량부(176)가 각 지상기준점의 좌표를 측량하고, 좌표 측량이 완료되면 RTK 드론(100)이 다시 초기 위치로 복귀하도록 자율주행 구동부(150)와 원거리 측량부(176)를 제어할 수 있다. Then, the control unit 172 moves the RTK drone 100 above the ideal ground reference point arranged to generate a digital map of the earthwork site within the orthogonal image of the earthwork site, and then the remote survey unit 176 The coordinates are measured, and when the coordinates are measured, the autonomous driving driving unit 150 and the long-distance surveying unit 176 may be controlled so that the RTK drone 100 returns to its initial position.

또한, 제어부(172)는 카메라(130)가 지상기준점을 실시간 근접촬영하고, 레이저 거리 측정기(140)가 지상기준점으로 레이저를 조사하여 지상기준점까지의 거리를 측정하고, 원거리 측량부(176)가 지상기준점의 좌표를 추출하는 동안 RTK 드론(100)의 3축 기울기 센서에 의해 센싱되는 롤, 피치, 요 중 롤과 피치의 값이 0을 유지하도록 RTK 드론(100)의 자율 주행을 제어할 수 있다. 이는 RTK 드론(100)의 수평을 유지하기 위한 것으로서, 지상기준점 추출을 위한 좌표 보정 시 오차를 최소화할 수 있다.In addition, the controller 172 measures the distance to the ground reference point by the camera 130 taking a real-time close-up picture of the ground reference point, the laser distance measurer 140 irradiates the laser to the ground reference point, and the distance measurement unit 176 While extracting the coordinates of the ground reference point, the autonomous driving of the RTK drone 100 can be controlled so that the values of the roll, pitch, yaw roll and pitch sensed by the 3-axis tilt sensor of the RTK drone 100 remain 0. have. This is to maintain the horizontal level of the RTK drone 100, and it is possible to minimize an error when correcting coordinates for extracting a ground reference point.

이하에서는 특징점 추출 모드에서 주로 동작하는 지상기준점 추출부(174)와 측량 모드에서 주로 동작하는 원거리 측량부(176)에 대해 설명한다.Hereinafter, the ground reference point extraction unit 174 mainly operating in the feature point extraction mode and the long-distance survey unit 176 operating mainly in the survey mode will be described.

RTK 드론(100)이 특징점 추출 모드로 동작하는 경우, 지상기준점 추출부(174)는 RTK 드론(100)에 구비된 카메라(130)로부터 취득된 영상들을 분석하여 지상기준점들을 추출할 수 있다.When the RTK drone 100 operates in the feature point extraction mode, the ground reference point extraction unit 174 may extract ground reference points by analyzing images acquired from the camera 130 provided in the RTK drone 100.

이를 위하여 지상기준점 추출부(174)는 도 3에 도시된 것처럼 정사영상 생성부(174a), 후보 추출부(174b), 타겟 추출부(174c) 및 특징점 추출부(174d)를 포함할 수 있다. To this end, the ground reference point extracting unit 174 may include an orthogonal image generating unit 174a, a candidate extracting unit 174b, a target extracting unit 174c, and a feature point extracting unit 174d as shown in FIG. 3.

정사영상 생성부(174a)는 카메라(130)가 토공현장의 디지털맵 생성을 위해 토공현장을 촬영한 다수의 영상들로부터 토공현장의 전체에 대한 정사영상을 생성한다. The orthogonal image generation unit 174a generates an orthogonal image of the entire earthwork site from a plurality of images taken by the camera 130 of the earthwork site to generate a digital map of the earthwork site.

후보 추출부(174b)는 정사영상 중 육안 식별이 가능한 물체 또는 지점들을 후보 오브젝트들로서 추출할 수 있다. 후보 추출부(174b)는 정사영상을 분석하여 촬영 고도와 물체의 크기를 고려할 때 지상표본거리(GSD: Ground Sample Distance) 3cm 이내에서 최소 30cm by 30cm의 평면 크기를 가지는 물체 또는 지점을 후보 오브젝트로서 추출할 수 있다. 육안 식별이 가능한 물체 또는 지점의 예로서 맨홀 등의 고정 물체 또는 도로 노면 표시 등이 있다.The candidate extracting unit 174b may extract objects or points that can be visually identifiable among the orthogonal images as candidate objects. The candidate extraction unit 174b analyzes the orthogonal image and selects an object or point having a plane size of at least 30cm by 30cm within 3cm of the Ground Sample Distance (GSD) as a candidate object when considering the photographing altitude and the size of the object. Can be extracted. Examples of objects or points that can be visually identifiable include fixed objects such as manholes or road markings.

3cm, 30cm는 일 예로서 이는 촬영 고도에 따라 변경가능하다. 특히, 드론(100)으로 촬영된 정사영상은 중첩도를 가지고 다수의 프레임들이 저장되는데, 이 때 다수의 프레임들에서 동시에 인식 가능하기 위해서는 최소 30cm by 30cm의 크기를 가져야 한다고 일 예로서 정한 것이다. 3cm and 30cm are examples, which can be changed according to the photographing height. In particular, the orthogonal image photographed by the drone 100 has a degree of overlap and stores a plurality of frames. In this case, it is determined as an example that it must have a size of at least 30cm by 30cm in order to be able to recognize at the same time in a plurality of frames.

타겟 추출부(174c)는 추출된 후보 오브젝트들 중 특징점 추출이 가능한 후보 오브젝트들을 타겟 오브젝트들로서 추출할 수 있다. 타겟 추출부(174c)는 추출된 후보 오브젝트를 사전에 학습된 타겟 오브젝트 추출 AI(인공지능) 알고리즘에 입력하여 정사영상 내에서 배경과의 대비율이 기설정된 기준을 초과하여 특징점이 존재할 것으로 판단되는 후보 오브젝트들을 타겟 오브젝트들로서 추출할 수 있다. 이로써 지상기준점은 배경과의 대비가 명확하고 특징점으로 적용할 수 있는 조건을 가지고 있다면 지상의 평탄화와는 무관하게 추출될 수 있다.The target extraction unit 174c may extract candidate objects capable of extracting feature points from among the extracted candidate objects, as target objects. The target extraction unit 174c inputs the extracted candidate object into a pre-learned target object extraction AI (artificial intelligence) algorithm, and determines that a feature point exists in the orthogonal image because the contrast ratio with the background exceeds a preset criterion. Candidate objects can be extracted as target objects. As a result, the ground reference point can be extracted irrespective of the leveling of the ground as long as the contrast with the background is clear and conditions applicable as feature points are present.

기설정된 기준은 타겟 오브젝트들을 추출하기 위한 조건으로서, 예를 들어 사진에서 육안으로 식별이 가능하며 동시에 중심점 또는 모서리 추출이 가능한 것으로 판단되는 기준인, 정사영상 내 배경과 후보 오브젝트의 색채 대비(contrast)의 최소 비율을 의미한다. The preset criterion is a condition for extracting target objects, for example, the contrast between the background in the orthogonal image and the candidate object, which is a criterion that can be identified with the naked eye and at the same time extracting the center point or edge is possible. Means the minimum percentage of.

따라서, 타겟 추출부(174c)는 정사영상을 확대한 후 분석하여 후보 오브젝트(추출된 물체 또는 지점)와 배경의 대비율이 기설정된 제1기준 이상이면서 윤곽선의 선명도가 기설정된 제2기준 이상이면(또는, 윤곽선의 뭉개짐이 제2기준 미만이면), 해당 후보 오브젝트를 특징점이 존재하는 것으로 판단되는 타겟 오브젝트로서 추출할 수 있다.Therefore, the target extraction unit 174c enlarges and analyzes the orthogonal image, and if the contrast ratio between the candidate object (extracted object or point) and the background is greater than or equal to a preset first criterion and the sharpness of the outline is greater than or equal to a preset second criterion, (Or, if the contour line is crushed less than the second criterion), the corresponding candidate object may be extracted as a target object determined to have a feature point.

특징점 추출부(174d)는 장치(170)에 제1모드가 설정된 경우, 추출된 타겟 오브젝트 별로 특징점을 추출하여 지상기준점으로서 자동으로 정하고, 정사영상에서 특징점의 위치정보와 특징점(또는 후보 오브젝트들)을 촬영할 때 RTK 드론(100)의 좌표(X, Y, Z)를 확인하여 메모리(160)에 매핑저장할 수 있다. When the first mode is set in the device 170, the feature point extracting unit 174d automatically determines the feature point as a ground reference point by extracting the feature point for each extracted target object, and location information and feature point (or candidate objects) of the feature point in the orthogonal image. When taking a picture, the coordinates (X, Y, Z) of the RTK drone 100 can be checked and mapped and stored in the memory 160.

또한, 정사영상에서 특징점에 해당하는 지점을 확인하면 확인된 지점은 수개~수십개의 다른 각도 또는 다른 위치에서 촬영된 영상들이 중첩되어 있는 경우가 있다. 이러한 경우 특징점 추출부(174d)는 다수의 중첩 영상들로부로부터 중첩되는 타겟 오브젝트들의 특징점을 추출하여 매칭할 수 있으며, 이는 다각도에서 촬영된 영상들의 공통점을 추출하고, 추출된 공통점들을 자동으로 하나의 점으로 매칭시켜 지상기준점으로 정할 수도 있다.In addition, when a point corresponding to a feature point in an orthogonal image is checked, there are cases in which several to dozens of confirmed points are overlapped with images taken at different angles or different positions. In this case, the feature point extracting unit 174d can extract and match feature points of target objects that are overlapped from the plurality of overlapping images, which extracts common points of images captured from multiple angles, and automatically combines the extracted common points. It can also be set as the ground reference point by matching with the points of.

또한, 특징점 추출부(174d)는 장치(170)에 제2모드가 설정된 경우, 추출된 타겟 오브젝트들 별로 특징점을 산출한 후 정사영상을 일정 크기로 분할하여 다수의 영역들을 생성하고, 각 영역에 다수의 특징점들이 존재하면 각 영역마다 하나의 특징점만을 선택할 수도 있다.In addition, when the second mode is set in the device 170, the feature point extracting unit 174d generates a plurality of areas by dividing the orthogonal image into a predetermined size after calculating the feature points for each of the extracted target objects. If there are multiple feature points, only one feature point may be selected for each area.

자세히 설명하면, 특징점 추출부(174d)는 생성된 다수의 영역들 중 현재 처리할 영역(이하, '타겟 영역'이라 한다)에 다수의 특징점들(이하, '타겟 특징점들'이라 한다)이 존재하는 경우, 다수의 타겟 특징점들 각각과 배경과의 대비율, 다수의 타겟 특징점들 각각을 추출하기 용이한 위치 및 다수의 타겟 특징점들이 속하는 지점의 영상 중첩도 중 적어도 하나를 고려하여 다수의 타겟 특징점들의 우선순위를 산출한다. In detail, the feature point extracting unit 174d has a plurality of feature points (hereinafter referred to as'target feature points') in an area to be processed currently (hereinafter, referred to as a'target area') among a plurality of generated areas. In this case, a plurality of target feature points is considered in consideration of at least one of a contrast ratio between each of the plurality of target feature points and the background, a location where it is easy to extract each of the plurality of target feature points, and an image overlap degree of a point to which the plurality of target feature points belong Calculate their priorities.

특징점 추출부(174d)는 타겟 영역 내에서 타겟 특징점들 각각을 기준으로 반경 n미터 이내에 존재하는 주변 후보 오브젝트들이 개수가 적을수록, 또는, 주변 후보 오브젝트들과의 거리가 멀수록 타겟 특징점 추출이 더 용이한 위치인 것으로 판단할 수 있다.The feature point extracting unit 174d extracts the target feature points more as the number of nearby candidate objects existing within an n-meter radius based on each of the target feature points in the target area decreases, or the distance from the neighboring candidate objects increases. It can be determined that this is an easy location.

그리고, 특징점 추출부(174d)는 배경과의 대비율에 가장 높은 가중치를 할당하고, 영상 중첩도에 가장 낮은 가중치를 할당하거나 또는 그 반대로 가중치를 할당하여 타겟 특징점들의 우선순위를 산출할 수 있다. 또는, 특징점 추출부(174d)는 배경과의 대비율, 특징점의 위치 및 영상 중첩도에 동일한 가중치를 할당하여 타겟 특징점들의 우선순위를 산출할 수도 있다.In addition, the feature point extracting unit 174d may calculate the priority of the target feature points by assigning the highest weight to the contrast ratio with the background, the lowest weight to the image overlap degree, or vice versa. Alternatively, the feature point extracting unit 174d may calculate the priority of the target feature points by assigning the same weight to the contrast ratio with the background, the position of the feature point, and the image overlap degree.

영상 중첩도에 대해 설명하면, 정사영상에서 특징점에 해당하는 지점을 확인하면 확인된 지점은 수개~수십개의 다른 각도 또는 다른 위치에서 촬영된 영상들이 중첩되어 있으며, 중첩된 개수는 영상 중첩도에 비례한다. 이는, 다수의 영상들에서 동시에 인식가능한 물체 또는 지점이 추출되는 경우 특징점으로서의 정확도가 높아지기 때문이다.Explaining the degree of image overlap, when checking the point corresponding to the feature point in the orthogonal image, the identified points are overlapped with images taken from several to dozens of different angles or different positions, and the number of overlaps is proportional to the image overlap degree. do. This is because the accuracy as a feature point increases when an object or point that can be recognized simultaneously from a plurality of images is extracted.

그리고, 특징점 추출부(174d)는 가장 높은 우선순위를 가지는 타겟 특징점을 현재 처리할 타겟 영역의 지상기준점으로서 추출하고, 정사영상 내에서 추출된 지상기준점의 위치를 확인하여 메모리(160)에 저장할 수 있다. In addition, the feature point extracting unit 174d extracts the target feature point having the highest priority as the ground reference point of the target area to be processed currently, checks the location of the extracted ground reference point in the orthogonal image, and stores it in the memory 160. have.

한편, 정사영상에서 추출된 모든 타겟 오브젝트들마다 특징점 추출이 완료되거나, 각 영역 별로 특징점 추출이 완료되면, 즉, 정사영상에서 사용가능한 지상기준점이 모두 추출되면, RTK 드론(100)의 동작 모드는 측량 모드로 전환되고, 원거리 측량부(176)가 동작한다.On the other hand, when the feature point extraction is completed for all target objects extracted from the orthogonal image, or feature point extraction for each area is completed, that is, when all ground reference points usable in the orthogonal image are extracted, the operation mode of the RTK drone 100 is It is switched to the surveying mode, and the distance surveying unit 176 operates.

이로써 RTK 드론(100)은 메모리(160)에 저장된 각 지상기준점의 위치를 확인하여 각 지상기준점으로부터 기설정된 거리만큼 근접하도록 이동하며, 카메라(130)는 지상기준점을 포함하는 영역(또는 타겟 오브젝트)를 실시간으로 근접촬영하고, 레이저 거리 측정기(140)는 실시간 근접촬영중인 영상을 기준으로 추출된 특징점의 실제 위치로 레이저를 조사하여 레이저 거리 측정기(140)와 지상기준점 간의 거리가 산출되도록 한다. As a result, the RTK drone 100 checks the location of each ground reference point stored in the memory 160 and moves to be close by a preset distance from each ground reference point, and the camera 130 is an area (or target object) including the ground reference point. A close-up picture is taken in real time, and the laser distance finder 140 irradiates the laser to an actual position of the extracted feature point based on the image being taken in real-time close-up so that the distance between the laser distance finder 140 and the ground reference point is calculated.

원거리 측량부(176)는 추출된 각 지상기준점과 레이저 거리 측정기(140) 간의 거리와, RTK 드론(100)의 RTK-GPS 정보와, RTK 드론(100)의 3축 기울기를 이용하여 추출된 지상기준점들 각각의 절대좌표를 산출할 수 있다.The distance survey unit 176 is the extracted distance between each of the ground reference points and the laser distance meter 140, the RTK-GPS information of the RTK drone 100, and the ground extracted using the 3-axis tilt of the RTK drone 100. The absolute coordinates of each of the reference points can be calculated.

이를 위하여, 원거리 측량부(176)는 도 4에 도시된 것처럼 지상기준점 인식부(176a), 거리 산출부(176b) 및 지상기준점 좌표 추출부(176c)를 포함할 수 있다. To this end, the distance measuring unit 176 may include a ground reference point recognition unit 176a, a distance calculation unit 176b, and a ground reference point coordinate extraction unit 176c as shown in FIG. 4.

지상기준점 인식부(176a)는 추출된 지상기준점들 중 현재 처리할 지상기준점(이하, '타겟 지상기준점'이라 한다)을 실시간 근접촬영한 영상이 카메라(130)로부터 입력되면, 실시간 근접촬영한 영상을 분석하여 타겟 지상기준점을 인식할 수 있다. The ground reference point recognition unit 176a receives a real-time close-up image of the currently processed ground reference point (hereinafter referred to as a'target ground reference point') among the extracted ground reference points, and the real-time close-up image It is possible to recognize the target ground reference point by analyzing.

거리 산출부(176b)는 레이저 거리 측정기(140)가 지상기준점 인식부(176a)에서 인식된 실제 위치에 해당하는 타겟 지상기준점을 수직으로 사전에 정해진 시간동안 지향하는 것으로 판단되면, 타겟 지상기준점으로 조사되는 레이저가 반사되어 도달하는 시간과 레이저 조사 속도를 이용하여 타겟 지상기준점과 레이저 거리 측정기(140) 간의 거리를 산출한다. If the distance calculating unit 176b determines that the laser distance meter 140 is vertically pointing the target ground reference point corresponding to the actual position recognized by the ground reference point recognition unit 176a for a predetermined time, the target ground reference point The distance between the target ground reference point and the laser distance meter 140 is calculated using the time at which the irradiated laser is reflected and reached and the laser irradiation speed.

제어부(172)는 3축 기울기 센서(미도시)로부터 취득된 롤 값과 피치 값이 0을 유지하고 있는 시간과, 카메라(130)로부터 입력되는 실시간 근접촬영 영상 프레임이 이전 프레임과 비교해서 오차율이 일정 비율 이하일 경우 지상기준점을 수직으로 지향하는 것으로 판단하고, 거리를 산출하도록 거리 산출부(176b)를 제어할 수 있다.The control unit 172 compares the time when the roll value and the pitch value acquired from the 3-axis inclination sensor (not shown) are maintained at 0, and the real-time close-up image frame input from the camera 130 compared with the previous frame. If it is less than a certain ratio, it is determined that the ground reference point is oriented vertically, and the distance calculating unit 176b may be controlled to calculate the distance.

지상기준점 좌표 추출부(176c)는 RTK 드론(100)의 RTK-GPS 정보인 (X, Y, Z) 좌표 중 Z를 거리 산출부(176b)에서 산출된 거리만큼 보정하여 타겟 지상기준점의 좌표를 최종 추출할 수 있다.The ground reference point coordinate extraction unit 176c corrects Z among the (X, Y, Z) coordinates of the RTK-GPS information of the RTK drone 100 by the distance calculated by the distance calculation unit 176b to correct the coordinates of the target ground reference point. It can be finally extracted.

이로써, 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치로 적용된 프로세서(170)는 타겟 오브젝트들에 위치하는 지상기준점들의 위치 좌표를 모두 추출하고, 추출된 지상기준점들 각각의 위치 좌표와 정사영상 생성부(174a)에서 생성된 정사영상 또는 정사영상 생성에 사용된 토공현장을 촬영한 영상들(또는 동영상)을 디지털맵 생성 서버(200)로 전송하도록 처리한다. Accordingly, the processor 170 applied as a drone-based ground reference point placement automation device for generating a digital map of an earthwork site extracts all the location coordinates of the ground reference points located on the target objects, and extracts the location coordinates of each of the extracted ground reference points. The orthogonal image generated by the orthogonal image generator 174a or images (or moving pictures) photographed of the earthwork site used for generating the orthogonal image are processed to be transmitted to the digital map generation server 200.

즉, 프로세서(170)는 지상기준점들의 위치 좌표가 추출된 후 토공현장을 다시 촬영하는 동작을 수행하지 않고, 지상기준점 추출에 사용된 영상을 디지털맵 생성 서버(200)로 전송하도록 하며, 이로써 디지털맵 생성에 사용되는 자원과 절차를 최소화할 수 있다.That is, the processor 170 transmits the image used for the ground reference point extraction to the digital map generation server 200 without performing an operation of re-photographing the earthwork site after the location coordinates of the ground reference points are extracted. Resources and procedures used for map creation can be minimized.

디지털맵 생성 서버(200)는 RTK 드론(100)으로부터 수신되는 정사영상 또는 정사영상 생성에 사용된 토공현장 촬영영상들과, 지상기준점들의 위치 좌표를 데이터베이스(미도시)에 저장하고, 이를 이용하여 점군데이터(PCD)를 생성하며, PCD를 이용하여 DSM 또는 DEM 등의 토공현장 디지털맵을 생성한다.The digital map generation server 200 stores the earthmoving site photographed images used to generate the orthogonal image or orthogonal image received from the RTK drone 100 and the location coordinates of the ground reference points in a database (not shown), and uses this It generates point cloud data (PCD), and generates digital maps of earthworks sites such as DSM or DEM using PCD.

상술한 본 발명의 실시 예에 의하면, 설정자가 직접 지상기준점에 해당하는 위치로 이동하여 지상기준점의 좌표 값을 측정 및 수집하는 기존의 기술을 대신하여, 드론에 의해 지상기준점을 자동으로 수집함은 물론 수집된 지상기준점을 데이터베이스에 자동 기록할 수 있다. 특히, 기존에는 드론 영상 촬영에 선행하여 지상기준점 위치에 체스보드와 같은 표식을 설치하는 방식이 활용되어 왔으나, 본 발명의 실시 예를 적용할 경우 고정된 지형지물의 특징점에 기반한 지상기준점이 활용되므로, 체스보드 등의 표식 설치 여부와 관계없이 토공현장 디지털맵 생성을 수행할 수 있다. 즉, 토공현장 디지털맵 생성 작업 과정을 보다 유연하게 계획할 수 있어 급변하는 현장상황에 적응적으로 대응하며, 작업 생산성 및 효율성을 증진시킬 수 있다. According to the above-described embodiment of the present invention, instead of the existing technology in which the setter directly moves to a position corresponding to the ground reference point and measures and collects the coordinate value of the ground reference point, the ground reference point is automatically collected by a drone. Of course, the collected ground control points can be automatically recorded in the database. In particular, in the past, a method of installing a mark such as a chess board at the position of the ground reference point prior to shooting a drone image has been used, but when the embodiment of the present invention is applied, a ground reference point based on a feature point of a fixed terrain feature is used. Regardless of whether or not signs such as chess boards are installed, digital maps of the earthwork site can be generated. In other words, it is possible to more flexibly plan the digital map creation process of the earthwork site, adaptively responding to rapidly changing site conditions, and improve work productivity and efficiency.

또한, 현재 수행되고 있는 지상기준점의 입력 및 검측점의 위치좌표 측정은 최종 생성된 토공현장 디지털맵 내부에 있는 지상기준점 및 검측점을 시스템 사용자가 직접 눈으로 확인하여 입력 및 측정하는 방식으로 수행됨에 따라 사용자에 따라 입력 및 측정값이 상이하다는 한계점을 지니고 있다. In addition, the input of the ground reference point and the measurement of the location coordinates of the detection point currently being performed are performed in a way that the system user directly checks, inputs and measures the ground reference point and the detection point in the digital map of the final earthwork site. Therefore, it has a limitation that input and measurement values are different depending on the user.

본 발명의 실시 예에서는 지상기준점을 추출할 때 사용한 영상을 토대로 전체 토공현장 촬영 영상에서 지상기준점의 위치를 자동 매칭시키는 알고리즘을 적용하여 토공현장 디지털맵 생성 과정에서 발생할 수 있는 휴먼 에러(Human error)를 최소화 할 수 있으며, 검측점의 위치좌표 측정 또한 상술한 GCP 측정과 동일한 방식으로 자동 수행됨에 따라 일관된 오차율 측정 결과를 시스템 사용자에게 제공할 수 있다. In an embodiment of the present invention, a human error that may occur in the process of generating a digital map of an earthmoving site is applied by applying an algorithm that automatically matches the position of the ground reference point in the entire earthwork site photographed image based on the image used to extract the ground reference point. Can be minimized, and a consistent error rate measurement result can be provided to the system user as the location coordinate measurement of the detection point is also automatically performed in the same manner as the GCP measurement described above.

도 5는 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 방법을 개략적으로 보여주는 흐름도, 그리고, 도 6은 본 발명의 실시 예에 따른 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 방법을 자세히 보여주는 흐름도이다.5 is a flowchart schematically showing a drone-based ground control point arrangement automation method for generating a digital map of an earthwork site according to an embodiment of the present invention, and FIG. 6 is a digital map generation of an earthwork site according to an embodiment of the present invention. This is a flow chart showing in detail how to automate the deployment of drone-based ground control points for the purpose.

도 5 및 도 6에 도시된 지상기준점 배치 자동화 방법을 수행하는 전자장치는 도 1 내지 도 4를 참조하여 설명한 RTK 드론(100) 또는 지상기준점 배치 자동화 장치일 수 있다.The electronic device that performs the method for automating ground reference point placement illustrated in FIGS. 5 and 6 may be the RTK drone 100 described with reference to FIGS. 1 to 4 or an apparatus for automating ground reference point placement.

도 5를 참조하면, 전자장치는 특징점 추출 모드에서, RTK 드론(100)에 구비된 카메라(130)로부터 토공현장을 촬영하여 취득한 영상들을 분석하여 지상기준점(GCP)들을 추출한다(S510).Referring to FIG. 5, in the feature point extraction mode, the electronic device extracts ground reference points (GCPs) by analyzing images acquired by photographing an earthmoving site from a camera 130 provided in the RTK drone 100 (S510).

전자장치는 측량 모드로 전환하여 RTK 드론(100)이 각 지상기준점에 근접하여 지상기준점을 포함하는 영역을 실시간 근접촬영하도록 한다(S520).The electronic device switches to the survey mode so that the RTK drone 100 approaches each ground reference point and takes a real-time close-up picture of an area including the ground reference point (S520).

전자장치는 각각의 지상기준점들과 레이저 거리 측정기(140) 간의 거리와, RTK 드론(100)의 RTK-GPS 정보와, RTK 드론(100)의 3축 기울기를 이용하여 S510단계에서 추출된 지상기준점들 각각의 절대좌표를 산출한다(S530).The electronic device is the ground reference point extracted in step S510 using the distance between the respective ground reference points and the laser distance meter 140, RTK-GPS information of the RTK drone 100, and the 3-axis tilt of the RTK drone 100. The absolute coordinates of each of them are calculated (S530).

S530단계에 의해 모든 지상기준점들의 좌표가 추출되면, 전자장치는 모든 지상기준점들의 좌표와 카메라(130)에 의해 촬영된 토공현장의 촬영영상(또는 정사영상)을 디지털맵 생성 서버(100)로 전송한다(S540).When the coordinates of all the ground reference points are extracted in step S530, the electronic device transmits the coordinates of all the ground reference points and the photographed image (or orthogonal image) of the earthwork site photographed by the camera 130 to the digital map generation server 100 Do (S540).

디지털맵 생성 서버(200)는 수신된 모든 지상기준점들의 좌표와 카메라(130)에 의해 촬영된 토공현장의 촬영영상(또는 정사영상)을 DB에저장하고, 이를 이용하여 영상기반의 점군데이터(PCD)를 생성한 후, DSM 또는 DEM의 디지털맵을 생성할 수 있다(S550, S560). S550단계에서 디지털맵 생성 서버(200)는 지상기준점들의 좌표와 점군데이터를 이용하여 토공현장의 정사영상을 재생성하거나 수신된 정사영상을 보정한 후 디지털맵을 생성할 수도 있다. The digital map generation server 200 stores the coordinates of all the received ground reference points and the photographed image (or orthogonal image) of the earthmoving site photographed by the camera 130 in a DB, and uses this to store the image-based point cloud data (PCD). ), it is possible to generate a digital map of DSM or DEM (S550, S560). In step S550, the digital map generation server 200 may generate a digital map after regenerating an orthogonal image of an earthmoving site or correcting the received orthogonal image by using the coordinates and point group data of the ground reference points.

이로써, 기존에는 먼저 인력이 직접 지상기준점에 해당하는 실제 위치에 방문하여 체스 보드와 같은 표식을 설치한 후 지상기준점과 검측점을 설정하여 좌표를 취득하고, 이후 드론을 이용하여 토공현장 영상을 취득하는 과정을 각각 수행한 반면, 본 발명에서는 드론(100)을 이용하여 토공현장 촬영 영상을 취득하면서 동시에 토공현장 영상으로부터 지상기준점의 좌표를 취득할 수 있다. 그리고, 지상기준점의 좌표를 취득한 후 다시 토공현장을 촬영하는 과정을 수행하지 않고, 이미 촬영된 영상과 지상기준점이 좌표를 디지털맵 생성 서버(200)로 전송함으로써 기존의 분류된 과정을 단순화하면서 보다 정확하고 신속하게 DSM 또는 DEM 등의 디지털맵을 생성하도록 할 수 있다.As a result, in the past, human resources directly visit the actual location corresponding to the ground reference point, install a mark such as a chess board, set the ground reference point and the detection point to acquire coordinates, and then use a drone to acquire an image of the earthmoving site. While each of the above processes is performed, in the present invention, the coordinates of the ground reference point can be acquired from the earthwork site image while acquiring the photographed image of the earthwork site using the drone 100. And, without performing the process of photographing the earthwork site again after acquiring the coordinates of the ground reference point, the already captured image and the coordinates of the ground reference point are transmitted to the digital map generation server 200, thereby simplifying the existing classification process. Digital maps such as DSM or DEM can be created accurately and quickly.

도 6을 참조하여 S510단계와 S530단계를 자세히 설명하면, 전자장치는 특징점 추출 모드에서, RTK 드론(100)이 토공현장을 이동하는 동안 카메라(130)가 각 프레임이 중첩되도록 촬영한 다수의 영상들로부터 토공현장 전체에 대한 정사영상을 생성한다(S511).Referring to FIG. 6, steps S510 and S530 will be described in detail. In the feature point extraction mode, the electronic device is a plurality of images captured by the camera 130 so that each frame overlaps while the RTK drone 100 moves through the earthwork site. Generates an orthogonal image of the entire earthwork site from the field (S511).

전자장치는 생성된 정사영상 중 육안 식별이 가능한 물체 또는 지점들을 판단하여 후보 오브젝트들로서 추출한다(S513). 이 때 전자장치는 후보 오브젝트들이 추출된 지점에서의 드론(100)의 위치정보와 후보 오브젝트들의 식별정보, 정사영상 내에서 후보 오브젝트들의 위치정보를 매핑 저장할 수 있다.The electronic device determines objects or points that can be visually identifiable among the generated orthogonal images and extracts them as candidate objects (S513). In this case, the electronic device may map and store location information of the drone 100 at a point where candidate objects are extracted, identification information of candidate objects, and location information of candidate objects in an orthogonal image.

전자장치는 추출된 후보 오브젝트들 중 특징점 추출이 가능한 후보 오브젝트들을 판단하여 타겟 오브젝트들로서 추출한다(S515).The electronic device determines candidate objects capable of extracting feature points among the extracted candidate objects and extracts them as target objects (S515).

전자장치는 추출된 타겟 오브젝트 별로 특징점을 추출하여 다수의 지상기준점들을 추출한다(S517).The electronic device extracts feature points for each extracted target object and extracts a plurality of ground reference points (S517).

토공현장의 정사영상 내에서 지상기준점들이 모두 추출되면 전자장치는 측량 모드로 전환하고, RTK 드론(100)이 추출된 지상기준점들 각각에 대해 기설정된 거리만큼 근접하여 카메라(130)가 실시간 근접촬영하도록 한다(S520). S520단계에서 전자장치는 S513단계에서 매핑저장된 드론(100)의 위치정보를 이용하여 지상기준점에 근접하여 촬영할 수 있다.When all the ground reference points are extracted from the orthogonal image of the earthwork site, the electronic device switches to the surveying mode, and the RTK drone 100 is close to each of the extracted ground reference points by a preset distance, so that the camera 130 takes a real-time close-up shot. Let it be (S520). In step S520, the electronic device may take a photograph close to the ground reference point by using the location information of the drone 100 that is mapped and stored in step S513.

그리고, 전자장치는 지상기준점들 중 현재 처리할 지상기준점을 실시간 근접촬영한 영상이 카메라(130)로부터 입력되면, 실시간 근접촬영한 영상을 분석하여 지상기준점의 실제 위치를 인식한다(S531).In addition, when an image obtained by real-time close-up of the ground reference point to be processed among the ground reference points is input from the camera 130, the electronic device analyzes the real-time close-up image to recognize the actual position of the ground reference point (S531).

전자장치는 레이저 거리 측정기(140)가 인식된 실제 위치에 해당하는 지상기준점을 수직으로 사전에 정해진 시간동안 지향하면, 레이저를 지상기준점으로 조사하여 지상기준점과 레이저 거리 측정기(140) 간의 거리를 산출한다(S533).The electronic device calculates the distance between the ground reference point and the laser distance finder 140 by irradiating the laser to the ground reference point when the laser distance finder 140 directs the ground reference point corresponding to the recognized real position vertically for a predetermined time. Do (S533).

전자장치는 RTK 드론(100)의 RTK-GPS 정보인 (X, Y, Z) 좌표 중 Z를 S533단계에서 산출된 거리만큼 감산하여 현재 처리할 지상기준점의 좌표를 추출한다(S535). The electronic device extracts the coordinates of the ground reference point to be processed by subtracting Z from the coordinates of (X, Y, Z), which is the RTK-GPS information of the RTK drone 100, by the distance calculated in step S533 (S535).

S520단계 및 S530단계가 수행되는 동안, 전자장치는 RTK 드론(100)의 3축 기울기 중 롤과 피치의 값이 0을 유지하도록 RTK 드론(100)의 자율 주행을 제어할 수 있다.While steps S520 and S530 are performed, the electronic device may control the autonomous driving of the RTK drone 100 so that the roll and pitch values of the three-axis tilt of the RTK drone 100 remain 0.

이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.In the above, even if all the components constituting the embodiments of the present invention are described as being combined into one or operating in combination, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined and operated in one or more. In addition, although all of the components may be implemented as one independent hardware, a program module that performs some or all functions combined in one or more hardware by selectively combining some or all of the components. It may be implemented as a computer program having Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program is stored in a computer-readable storage medium, and is read and executed by a computer, thereby implementing an embodiment of the present invention.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above and illustrated in connection with a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, and deviates from the scope of the technical idea. It will be well understood by those skilled in the art that many changes and modifications can be made to the present invention without. Accordingly, all such appropriate changes and modifications and equivalents should be regarded as belonging to the scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the attached registration claims.

100: RTK 드론 110: 몸체
120: 통신 인터페이스부 130: 카메라
140: 레이저 거리 측정기 150: 자율주행 구동부
160: 메모리
170: 프로세서 또는 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치
100: RTK drone 110: body
120: communication interface unit 130: camera
140: laser range finder 150: autonomous driving drive unit
160: memory
170: Drone-based ground control point placement automation device for processor or digital map generation

Claims (6)

RTK(Real-Time Kinematic) 드론에 구비된 카메라로부터 취득된 영상들을 분석하여 지상기준점(GCP: Ground Control Point)들을 추출하는 지상기준점 추출부; 및
각각의 상기 추출된 지상기준점들과 레이저 거리 측정기 간의 거리와, 상기 RTK 드론의 RTK-GPS 정보와, 상기 RTK 드론의 3축 기울기를 이용하여 상기 추출된 지상기준점들 각각의 절대좌표를 산출하는 원거리 측량부;를 포함하고,
상기 지상기준점 추출부는,
상기 카메라가 토공현장을 촬영한 다수의 영상들로부터 상기 토공현장 전체에 대한 정사영상을 생성하는 정사영상 생성부;
상기 정사영상 중 육안 식별이 가능한 물체 또는 지점들을 후보 오브젝트들로서 추출하는 후보 추출부;
상기 추출된 후보 오브젝트들 중 특징점 추출이 가능한 후보 오브젝트들을 타겟 오브젝트들로서 추출하는 타겟 추출부; 및
상기 추출된 타겟 오브젝트 별로 특징점을 추출하여 지상기준점으로서 정하는 특징점 추출부;를 포함하는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치.
A ground control point extraction unit for extracting ground control points (GCPs) by analyzing images acquired from a camera provided in a real-time kinematic (RTK) drone; And
Long distance for calculating the absolute coordinates of each of the extracted ground reference points by using the distance between each of the extracted ground reference points and the laser range finder, the RTK-GPS information of the RTK drone, and the 3-axis tilt of the RTK drone Including;
The ground reference point extraction unit,
An orthogonal image generator for generating an orthogonal image for the entire earthwork site from a plurality of images captured by the camera on the earthwork site;
A candidate extraction unit for extracting objects or points that can be visually identifiable among the orthogonal images as candidate objects;
A target extraction unit that extracts candidate objects capable of extracting feature points from among the extracted candidate objects as target objects; And
A drone-based ground reference point placement automation device for generating a digital map of an earthwork site comprising a; feature point extracting unit that extracts feature points for each of the extracted target objects and determines as a ground reference point.
삭제delete 제1항에 있어서,
상기 특징점 추출부는,
상기 타겟 오브젝트들 별로 특징점을 산출한 후, 상기 정사영상을 일정 크기로 분할하여 다수의 영역들을 생성하고, 상기 다수의 영역들 중 현재 처리할 영역에 다수의 특징점들이 존재하는 경우, 상기 다수의 특징점들 각각과 배경과의 대비율, 상기 다수의 특징점들의 위치 및 상기 다수의 특징점들이 속하는 지점의 영상 중첩도 중 적어도 하나를 고려하여 상기 다수의 특징점들의 우선순위를 산출한 후 가장 높은 우선순위를 가지는 특징점을 상기 현재 처리할 영역의 지상기준점으로서 추출하는 것을 특징으로 하는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치.
The method of claim 1,
The feature point extraction unit,
After calculating feature points for each of the target objects, a plurality of areas are generated by dividing the orthogonal image into a predetermined size, and when a plurality of feature points exist in an area to be processed currently among the plurality of areas, the plurality of feature points After calculating the priority of the plurality of feature points in consideration of at least one of the contrast ratio between each of the feature points and the background, the location of the plurality of feature points, and the image overlap degree of the point to which the plurality of feature points belong, A drone-based ground reference point arrangement automation device for generating a digital map of an earthwork site, characterized in that extracting a feature point as a ground reference point of the currently processed area.
제1항에 있어서,
상기 RTK 드론이 상기 추출된 지상기준점들 각각에 대해 기설정된 거리만큼 근접하여 카메라가 실시간 근접촬영하도록 상기 RTK 드론의 자율 주행을 제어하는 제어부;를 더 포함하는 것을 특징으로 하는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치.
The method of claim 1,
The digital map generation of the earthwork site further comprises a control unit for controlling the autonomous driving of the RTK drone so that the RTK drone is close to each of the extracted ground reference points by a preset distance so that the camera takes a real-time close-up picture. A drone-based ground control point placement automation device for
제4항에 있어서,
상기 원거리 측량부는,
상기 지상기준점들 중 현재 처리할 지상기준점을 실시간 근접촬영한 영상이 상기 카메라로부터 입력되면, 상기 실시간 근접촬영한 영상을 분석하여 상기 지상기준점의 실제 위치를 인식하는 지상기준점 인식부;
상기 레이저 거리 측정기가 상기 인식된 실제 위치에 해당하는 지상기준점을 수직으로 사전에 정해진 시간동안 지향하면, 레이저를 상기 지상기준점으로 조사하여 상기 지상기준점과 레이저 거리 측정기 간의 거리를 산출하는 거리 산출부; 및
상기 RTK 드론의 RTK-GPS 정보인 (X, Y, Z) 좌표 중 Z를 상기 거리 산출부에서 산출된 거리만큼 보정하여 상기 지상기준점의 좌표를 추출하는 지상기준점 좌표 추출부;를 포함하는 것을 특징으로 하는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치.
The method of claim 4,
The distance surveying unit,
A ground reference point recognition unit that analyzes the real-time close-up image of the ground reference point to be processed from the camera and recognizes the actual position of the ground reference point;
A distance calculator configured to calculate a distance between the ground reference point and the laser distance finder by irradiating a laser to the ground reference point when the laser distance finder directs the ground reference point corresponding to the recognized real position vertically for a predetermined time; And
And a ground reference point coordinate extraction unit for extracting the coordinates of the ground reference point by correcting Z among the (X, Y, Z) coordinates of the RTK-GPS information of the RTK drone by the distance calculated by the distance calculation unit. A drone-based ground control point placement automation device for digital map creation of earthwork sites.
제5항에 있어서,
상기 제어부는,
상기 카메라가 지상기준점을 실시간 근접촬영하고, 상기 레이저 거리 측정기가 레이저를 조사하고, 상기 원거리 측량부가 상기 지상기준점의 좌표를 추출하는 동안 상기 RTK 드론의 기울기 중 롤과 피치의 값이 0을 유지하도록 RTK 드론의 자율 주행을 제어하는 것을 특징으로 하는 토공현장의 디지털맵 생성을 위한 드론 기반 지상기준점 배치 자동화 장치.
The method of claim 5,
The control unit,
While the camera takes a close-up picture of the ground reference point in real time, the laser range finder irradiates the laser, and the distance surveying unit extracts the coordinates of the ground reference point, the roll and pitch values of the inclination of the RTK drone are maintained to be zero. A drone-based ground control point arrangement automation device for digital map generation of an earthwork site, characterized in that it controls the autonomous driving of RTK drones.
KR1020200142103A 2020-10-29 2020-10-29 RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site KR102242366B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200142103A KR102242366B1 (en) 2020-10-29 2020-10-29 RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200142103A KR102242366B1 (en) 2020-10-29 2020-10-29 RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site

Publications (1)

Publication Number Publication Date
KR102242366B1 true KR102242366B1 (en) 2021-04-21

Family

ID=75743902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200142103A KR102242366B1 (en) 2020-10-29 2020-10-29 RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site

Country Status (1)

Country Link
KR (1) KR102242366B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102308234B1 (en) * 2021-04-29 2021-10-05 주식회사 메이사 A method for positioning GCP and a device using the same
US20220381561A1 (en) * 2016-03-08 2022-12-01 Skydio, Inc. Ground control point assignment and determination system
CN117192075A (en) * 2023-08-31 2023-12-08 交科院环境科技(北京)有限公司 Water and soil conservation monitoring method and system of unmanned aerial vehicle in highway construction scene
KR102669769B1 (en) 2021-12-31 2024-05-28 서동철 Image processing system using drone

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180021604A (en) 2016-08-22 2018-03-05 한국해양과학기술원 Setting method of ground control point using drone
JP6543520B2 (en) * 2015-07-02 2019-07-10 株式会社トプコン Survey data processing apparatus, survey data processing method and program for survey data processing
JP2019159850A (en) * 2018-03-13 2019-09-19 株式会社イームズラボ Unmanned flying object, unmanned flight method and unmanned flight program
KR20200064542A (en) * 2018-11-29 2020-06-08 현대엠엔소프트 주식회사 Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6543520B2 (en) * 2015-07-02 2019-07-10 株式会社トプコン Survey data processing apparatus, survey data processing method and program for survey data processing
KR20180021604A (en) 2016-08-22 2018-03-05 한국해양과학기술원 Setting method of ground control point using drone
JP2019159850A (en) * 2018-03-13 2019-09-19 株式会社イームズラボ Unmanned flying object, unmanned flight method and unmanned flight program
KR20200064542A (en) * 2018-11-29 2020-06-08 현대엠엔소프트 주식회사 Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220381561A1 (en) * 2016-03-08 2022-12-01 Skydio, Inc. Ground control point assignment and determination system
US11933613B2 (en) * 2016-03-08 2024-03-19 Skydio, Inc. Ground control point assignment and determination system
KR102308234B1 (en) * 2021-04-29 2021-10-05 주식회사 메이사 A method for positioning GCP and a device using the same
KR102669769B1 (en) 2021-12-31 2024-05-28 서동철 Image processing system using drone
CN117192075A (en) * 2023-08-31 2023-12-08 交科院环境科技(北京)有限公司 Water and soil conservation monitoring method and system of unmanned aerial vehicle in highway construction scene

Similar Documents

Publication Publication Date Title
KR102260372B1 (en) RTK drone based GRP auto-arrangement method for digital map creation of earthwork site
KR102242366B1 (en) RTK drone based GRP auto-arrangement apparatus for digital map creation of earthwork site
AU2021201579B2 (en) System and method for detecting features in aerial images using disparity mapping and segmentation techniques
KR102067136B1 (en) Construction work management system using mapping-drone
US9639960B1 (en) Systems and methods for UAV property assessment, data capture and reporting
US10089530B2 (en) Systems and methods for autonomous perpendicular imaging of test squares
JP6510247B2 (en) Survey data processing apparatus, survey data processing method and program
CN111289533A (en) Fan blade inspection method and device, unmanned aerial vehicle and storage medium
CN105302151A (en) Aircraft docking guidance and type recognition system and method
KR102263560B1 (en) System for setting ground control points using cluster RTK drones
JP2019066242A (en) Pile head analysis system, pile head analysis method, and pile head analysis program
US20200089222A1 (en) Virtual Path Guidance System
KR102236753B1 (en) Method for setting ground control points using cluster RTK drones
CN109579793B (en) Terrain mapping method, apparatus, flight platform, computer device and storage medium
CN113378754B (en) Bare soil monitoring method for construction site
CN111860626B (en) Water and soil conservation monitoring method and system based on unmanned aerial vehicle remote sensing and object-oriented classification
KR20230094596A (en) Earthworks risk management system using unmanned aerial vehicle and earthworks management method using the same
CN116704138B (en) Method and device for establishing oblique photography three-dimensional model
CN117707206B (en) Unmanned aerial vehicle aerial survey operation method, unmanned aerial vehicle aerial survey operation device and computer storage medium
KR20230105412A (en) Method for precision landing of drone and device thereof
CN113240627A (en) Urban pattern spot data acquisition method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant