KR102393300B1 - Object map generation system and method therefor - Google Patents

Object map generation system and method therefor Download PDF

Info

Publication number
KR102393300B1
KR102393300B1 KR1020210119035A KR20210119035A KR102393300B1 KR 102393300 B1 KR102393300 B1 KR 102393300B1 KR 1020210119035 A KR1020210119035 A KR 1020210119035A KR 20210119035 A KR20210119035 A KR 20210119035A KR 102393300 B1 KR102393300 B1 KR 102393300B1
Authority
KR
South Korea
Prior art keywords
image
information
map
captured image
drone
Prior art date
Application number
KR1020210119035A
Other languages
Korean (ko)
Inventor
박근영
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020210119035A priority Critical patent/KR102393300B1/en
Application granted granted Critical
Publication of KR102393300B1 publication Critical patent/KR102393300B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an object map generation system and method therefor. Unlike conventional aerial maps, which take a relatively long time to produce, when creating an aerial map, ground objects and GPS coordinates are displayed through a drone and an object detector. Also, when an object map is needed, just by flying a drone, an aerial map of an area around an operator can be created and object information can be quickly grasped. The object map generation system comprises: an object detection module receiving ground-captured images and detailed information of capturing images from a drone and detecting an object from the received ground-captured images; an image processing module acquiring GPS coordinates of the detected object and mapping the obtained GPS coordinates of the object to the captured image; and an object map matching module creating an object map by matching the mapped captured images.

Description

객체 지도 생성 시스템 및 그 방법{Object map generation system and method therefor}Object map generation system and method therefor

본 발명은 객체 지도 생성 시스템 및 그 방법에 관한 것으로서, 특히 항공촬영을 통한 항공 지도 생성 시, 지상에 존재하는 객체들의 객체 정보 및 GPS 좌표를 표시할 수 있도록 한 객체 지도 생성 시스템 및 그 방법에 관한 것이다. The present invention relates to a system and method for generating an object map, and more particularly, to an object map generating system and method for displaying object information and GPS coordinates of objects on the ground when generating an aerial map through aerial photography will be.

수치지도의 제작 과정은 통상 항공사진 촬영, 밀착사진 및 양화필름 제작, 지상 기준점 측량, 사진 기준점 측량, 수치도화, 지리조사 및 보완측량, 정위치 편집, 구조화 편집 과정을 포함하여 이루어진다.The process of making a numerical map usually includes aerial photography, close-up photos and film production, ground reference point surveying, photo reference point surveying, numerical drawing, geographic survey and supplementary surveying, in-place editing, and structured editing processes.

먼저, 항공사진 촬영은 카메라를 장착한 항공기를 이용하여 공중에서 지상의 지형지물에 대한 영상정보를 얻는 과정으로, 이는 항공사진 측량에서 가장 중요한 부분을 차지하는 작업으로서 후속되는 사진판독과 좌표측정 및 수치 데이터의 정확도에 큰 영향을 미치는 요인이 된다.First, aerial photography is the process of obtaining image information about the topographical features on the ground in the air using an aircraft equipped with a camera, which is the most important part of aerial photogrammetry. It is a factor that greatly affects the accuracy of the data.

촬영된 필름은 일반적인 사진과 같이 현상(develop), 정착, 수세현상, 항공필름, 플로팅(plotting) 작업, 보안 검열, 필름 주기 삽입, 밀착 및 양화 필름 제작 등의 세부 공정을 거쳐 지상기준점 측량 및 수치도화 공정에 필요한 양화필름 및 밀착사진으로 제작된다.Like general photos, the film goes through detailed processes such as develop, fixation, flushing, aviation film, plotting work, security inspection, film cycle insertion, adhesion and film production, etc. It is produced with positive film and close-up photos necessary for the painting process.

지상 기준점 측량은 사진 기준점 측량 및 해석 도화 작업에 필요한 기준점의 성과를 얻기 위하여 현지에서 실시하는 지상 측량으로서, 대한민국 경, 위도 원점을 기준으로 경도 및 위도와 평면 직각좌표를 구하기 위한 측량을 의미한다.Ground reference point surveying is a ground survey conducted locally to obtain the results of reference points required for photo reference point surveying and interpretation drawing work.

사진 기준점 측량은 도화기 또는 좌표측정기에 의하여 항공사진상에서 측정된 구점의 모델(기계) 좌표를 지상 기준점 측량 성과와 연결하여 지상좌표로 전환하는 작업을 말한다.Photo reference point surveying refers to the operation of converting the model (machine) coordinates of the sphere measured on the aerial photograph by means of a plotter or a coordinate measuring device with the ground reference point survey performance and converting it into ground coordinates.

수치도화는 측량된 항공사진상의 지형지물을 해석 도화기를 이용하여 디지털 데이터로 측정한 후 이를 컴퓨터로 수록하는 과정으로, 내부표정, 상호표정, 절대표정의 작업을 거쳐 도화기의 좌, 우 2개의 투영기에 한 모델을 이루는 좌, 우사진의 투명 양화를 장착한 후 빛을 비추면 그 광속의 교점들이 실제 지형과 동일한 입체 모델을 재현하게 되고, 표정점들을 찾아 그 절대 좌표를 도화기 상에 입력한 후 측표(Measuring Mark) 또는 부표(Floating Mark)로 원하는 지형지물을 추적하면 그에 따라 지형도상에 도화되는 원리를 이용한다.Numerical drawing is the process of measuring the geographical features on the surveyed aerial photos as digital data using an analysis plotter and recording them with a computer. After installing the transparent positive film of the left and right photos constituting a model on the projector and shining light on it, the intersections of the light beams reproduce the same three-dimensional model as the real terrain, find the expression points and input their absolute coordinates on the drawing machine After tracing the desired feature with a Measuring Mark or Floating Mark, the principle of drawing on the topographic map is used accordingly.

여기서, 도화는 원칙적으로 건물, 도로, 식생, 하천, 등고선의 순으로 계층(Layer)별로 분류한 표준코드와 도형의 형태, 크기, 구조 및 방향을 규정한 표준도식을 따른다.Here, in principle, the drawing follows the standard code that is classified by layer in the order of buildings, roads, vegetation, rivers, and contours, and the standard diagram that defines the shape, size, structure and direction of figures.

지리조사는 정위치 편집을 위하여 지리/지명 조사와 항공사진을 기초로 도면상에 나타내어야 할 지형 및 지물과 이에 관련되는 사항을 현지에서 조사하는 것을 말한다. 이러한 지리조사 작업은 디지털 데이터를 도면으로 출력한 도화원도와 2배 확대 사진을 이용하여 정확하게 조사 표기한다.Geographical survey refers to the on-site investigation of the topography and features to be shown on the drawing and related matters based on the geographic/geographical survey and aerial photos for exact location editing. This geographical survey work is accurately marked by using a drawing source map printed with digital data as a drawing and a double-magnified photograph.

보완측량은 촬영 당시의 지형지물과 도화 완료 후의 지형변경에 대한 수정작업으로 모든 측점(total station) 및 GPS를 이용하여 지형도 보완수정작업을 수행한다. 이때 현장에서 조사한 내용과 자료 수집한 내용을 "현지조사 표기요령"에 의거 2배 확대 사진 위에 투명지를 덮어 지형, 지물, 지명 등의 순으로 정리 편집한다.Complementary surveying is a modification of the topographical features at the time of shooting and the topographical changes after the completion of the drawing. At this time, according to the "Field Survey Marking Guidelines", the contents of the field investigation and the data collected are arranged and edited in the order of topography, features, geographical names, etc.

그리고 상술한 것처럼 수치지도의 제작은 항공 촬영 이미지를 토대로 진행되는데, 한 번의 촬영으로 지도 제작 지점 전체를 촬영할 수는 없으므로, 항공촬영시 여러 컷의 이미지를 촬영하고, 이렇게 촬영된 다수의 촬영 이미지를 연결해서 도화작업을 진행하게 된다.And, as described above, the production of numerical maps is based on aerial photographed images. Since it is not possible to photograph the entire map production point with one photograph, several images are taken during aerial photographing, and the plurality of photographed images We will connect and proceed with the painting work.

이때, 항공 촬영 이미지는 통상 항공기에 설치되는 항공촬영장치를 통해 획득되므로, 상대적으로 높은 건물이나 지형지물 등에 의해 가려지면서 항공 촬영 이미지의 획득이 어려운 사각지대가 발생할 수밖에 없고, 이러한 사각지대들의 항공 촬영 이미지 획득을 위해 해당 사각지대별로 기존의 항공촬영 방식을 통해 항공 촬영 이미지를 획득하는 것은 효율적이지 못하였다.At this time, since the aerial photographed image is usually obtained through an aerial photographing device installed in an aircraft, blind spots in which it is difficult to obtain an aerial photographed image are inevitably generated while being obscured by a relatively high building or topographical feature, and aerial photographing of these blind spots For image acquisition, it was not efficient to acquire aerial photographed images through the conventional aerial photographing method for each blind spot.

따라서, 항공기의 항공촬영장치를 통해 항공 촬영 이미지를 획득하기 어려운 사각지대에 대해서는 통상 차량에 설치되는 지상 촬영장비 또는 해당 작업자가 운반 및 조작하는 지상 촬영장비를 통해 보완 촬영 작업을 진행하게 되며, 최근에는 드론을 이용한 항공 촬영 이미지의 획득 기술이 제공되고 있다.Therefore, for blind spots where it is difficult to obtain aerial photographic images through the aerial photographing device of the aircraft, supplementary photographing work is carried out through the ground photographing equipment installed in the vehicle or the ground photographing equipment carried and operated by the worker. A technology for acquiring aerial photographed images using drones is provided.

결국, 항공지도는 상공에서 촬영한 지상 영상들을 격자 형태로 정합(Stitching)하여 생성하는 것으로, 기존에는 항공지도를 생성하기 위해 유인 항공기 혹은 위성으로부터 영상을 획득하였으나, 이러한 방법들은 시간 및 비용 측면에서 여러 단점을 갖기 때문에 최근에는 상대적으로 적은 비용으로 운용이 가능한 드론을 이용하고 있다. After all, aerial maps are generated by stitching ground images taken from the sky in a grid form. Recently, drones that can be operated at a relatively low cost are being used because they have several disadvantages.

따라서, 상기한 문제점을 해결하기 위한 드론을 이용한 지도 생성 관련 선행 특허들(등록특허 10-1692709, 등록특허 10-1914164, 등록특허 10-1925366)은 수치 지도 제작을 목적으로 한 것들이 주를 이루고 있으며, 이 수치 지도는 지형이나 도로 등을 표시하는 특성 상 지상에 위치한 객체들의 최근 모습을 표시하기는 다소 어려움이 있다.Therefore, the prior patents related to map generation using drones to solve the above problems (Registration Patent 10-1692709, Registration Patent 10-1914164, Registration Patent 10-1925366) are mainly for the purpose of numerical map production. , it is somewhat difficult to display the recent appearance of objects located on the ground due to the nature of this numerical map to display terrain or roads.

또한, 상기 선행 특허들은, 주요 지점 혹은 객체들을 제작자가 직접 표시해야 하는 불편이 따르고, 객체들의 GPS 좌표를 알 수 없어 이를 전자지도로써 활용함이 어렵다는 단점이 따른다.In addition, the prior patents have disadvantages in that the manufacturer has to directly display key points or objects, and it is difficult to use them as an electronic map because the GPS coordinates of the objects cannot be known.

대한민국 등록특허 10-16927090000 (2016. 12. 29)Republic of Korea Patent Registration 10-16927090000 (2016. 12. 29) 대한민국 등록특허 10-19141640000 (2018. 10. 26)Republic of Korea Patent Registration 10-19141640000 (2018. 10. 26) 대한민국 등록특허 10-19253660000 (2018. 11. 29)Republic of Korea Patent Registration 10-19253660000 (2018. 11. 29)

따라서, 본 발명의 목적은, 항공지도 생성 시, 드론 및 객체 검출기를 통해 지상의 객체와 GPS 좌표를 표시하도록 하여 제작에 비교적 오랜 시간이 소요되는 기존의 항공지도와는 다르게, 객체 지도 필요 시, 드론을 비행시키는 것 만으로도 운용자 주변 지역의 항공지도를 생성하고 객체 정보를 신속하게 파악할 수 있도록 하는 객체 지도 생성 시스템 및 그 방법을 제공함에 있다.Therefore, it is an object of the present invention to display an object and GPS coordinates on the ground through a drone and an object detector when generating an aerial map. An object map generation system and method are provided that allow the user to generate an aerial map of the area around the operator just by flying the drone and quickly grasp object information.

즉, 본 발명의 목적은 드론을 이용해 항공지도를 제작하고 항공지도의 주요 객체들을 표시하며, 검출된 각 객체들의 GPS 좌표를 획득하여 이를 매핑하여 함께 표시하도록 한 객체 지도 생성 시스템 및 그 방법을 제공하는데 목적이 있다.That is, an object of the present invention is to provide an object map generation system and method for producing an aerial map using a drone, displaying the main objects of the aerial map, acquiring GPS coordinates of each detected object, mapping them, and displaying them together there is a purpose to

본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

상기한 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 객체 지도 생성 시스템은, 드론으로부터 무선 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보 중 지상 촬영 영상으로부터 객체를 검출하는 객체 검출 모듈; 상기 검출한 객체의 GPS 좌표값을 획득하고, 획득한 객체의 GPS 좌표값을 상기 촬영 영상에 매핑하는 영상 처리 모듈; 및 상기 매핑된 촬영 영상들을 정합하여 객체 지도를 생성하는 객체 지도 정합 모듈을 포함할 수 있다. An object map generating system according to a preferred embodiment of the present invention for achieving the above object includes an object detection module for detecting an object from a ground-captured image among ground-captured images and detailed image capturing information wirelessly transmitted from a drone; an image processing module that acquires the GPS coordinates of the detected object and maps the acquired GPS coordinates of the object to the captured image; and an object map matching module configured to generate an object map by matching the mapped captured images.

상기 객체 검출 모듈은, 상기 드론으로부터 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보를 수신하고, 수신된 영상 촬영 상세 정보를 상기 영상 처리 모듈로 제공하는 수신부; 및 상기 수신부를 통해 수신되는 지상 촬영 영상으로부터 적어도 하나 이상의 객체를 검출한 후, 객체 검출 결과 정보를 상기 영상 처리 모듈로 제공하는 객체 검출부를 포함할 수 있다. The object detection module may include: a receiver configured to receive a ground-captured image and image capturing detailed information transmitted from the drone, and provide the received image capturing detailed information to the image processing module; and an object detection unit configured to provide object detection result information to the image processing module after detecting at least one object from the ground-captured image received through the receiving unit.

상기 드론으로부터 수신되는 영상 촬영 상세 정보는, 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 촬영 지점의 GPS 좌표 정보 중 적어도 하나의 정보를 포함할 수 있다. The detailed image capturing information received from the drone may include at least one of altitude information at the time of capturing, focal length information of a capturing camera, and GPS coordinate information of the capturing point.

상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표일 수 있다. The GPS coordinate information of the photographing point may be GPS coordinates of a central region of the photographed image.

상기 객체 검출 결과 정보는, 입력 영상으로부터의 객체의 확률, 레이블, 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보 중 적어도 하나 이상의 정보를 포함할 수 있다. The object detection result information may include information on at least one of a probability of an object, a label, and coordinate information of four vertices of a rectangular box indicating an object area from the input image.

상기 객체 검출부는, SSD(Single Shot Multibox Detector), YOLO(You Only Look Once) 와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 객체를 검출할 수 있다. The object detection unit may detect an object using a Convolutional Neural Networks (CNNs)-based object detector such as a Single Shot Multibox Detector (SSD) or You Only Look Once (YOLO).

상기 영상 처리 모듈은, 상기 객체 검출 모듈의 수신부로부터 제공되는 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 이용하여 촬영 영상의 축척을 계산하는 축척 계산부; 상기 객체 검출 모듈의 객체 검출부로부터 제공되는 객체 검출 결과 정보, 상기 수신부로부터 제공되는 촬영 지점의 GPS 좌표 정보 및 상기 축척 계산부로부터 계산된 촬영 영상의 축척값을 이용하여 각 객체들의 중심 지점에 대한 GPS 좌표를 획득하는 객체 GPS 좌표 획득부; 및 상기 검출된 객체의 검출 결과 및 각 객체의 GPS 좌표를 객체 검출 모듈의 수신부로부터 제공되는 촬영 영상에 매핑한 후, 매핑된 영상을 상기 객체 지도 정합 모듈로 제공하는 영상 매핑부를 포함할 수 있다. The image processing module may include: a scale calculator configured to calculate a scale of a captured image using height information of a photographing time point provided from the receiver of the object detection module and focal length information of a photographing camera; Using the object detection result information provided from the object detection unit of the object detection module, the GPS coordinate information of the photographing point provided from the receiver, and the scale value of the photographed image calculated from the scale calculation unit, GPS for the center point of each object an object GPS coordinate acquisition unit that acquires coordinates; and an image mapping unit that maps the detection result of the detected object and the GPS coordinates of each object to the captured image provided from the receiver of the object detection module, and then provides the mapped image to the object map matching module.

상기 축척 계산부에서 계산되는 촬영 영상의 축척은 아래의 식을 이용할 수 있다. The scale of the captured image calculated by the scale calculator may use the following equation.

[식][ceremony]

Figure 112021103470934-pat00001
Figure 112021103470934-pat00001

여기서,

Figure 112021103470934-pat00002
은 축척의 분모수,
Figure 112021103470934-pat00003
는 카메라 렌즈의 초점거리,
Figure 112021103470934-pat00004
는 촬영 고도를 나타낸다. here,
Figure 112021103470934-pat00002
is the denominator of the scale,
Figure 112021103470934-pat00003
is the focal length of the camera lens,
Figure 112021103470934-pat00004
represents the shooting altitude.

상기 객체 지도 정합 모듈은, 상기 영상 매핑부로부터 제공되는 매핑된 다수의 영상들을 정합하여 객체 지도를 생성하는 지도 정합부; 및 상기 지도 정합부를 통해 생성된 객체 지도를 운용자에게 제공하는 지도 출력부를 포함할 수 있다. The object map matching module may include: a map matching unit configured to generate an object map by matching a plurality of mapped images provided from the image mapping unit; and a map output unit that provides the object map generated through the map matching unit to the operator.

상기 지도 정합부에서의 영상 정합은, 영상에서 추출한 지역적 특징인 키포인트 기반 방식, 카메라 및 렌즈의 기하학적 위치에 의한 정합 방식 중 적어도 하나의 방식을 이용하여 정합할 수 있다. The image registration in the map matching unit may be performed using at least one of a keypoint-based method, which is a regional feature extracted from an image, and a registration method based on geometrical positions of cameras and lenses.

한편, 본 발명의 다른 실시예에 따른 객체 지도 생성 방법은, 드론으로부터 무선 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보 중 지상 촬영 영상으로부터 객체를 검출하는 단계; 상기 검출한 객체의 GPS 좌표를 획득하고, 획득한 객체의 GPS 좌표를 상기 촬영 영상에 매핑하는 단계; 및 상기 매핑된 촬영 영상들을 정합하여 객체 지도를 생성하는 단계를 포함할 수 있다. Meanwhile, a method for generating an object map according to another embodiment of the present invention includes: detecting an object from a ground-captured image among ground-captured images and detailed image capturing information wirelessly transmitted from a drone; obtaining GPS coordinates of the detected object, and mapping the acquired GPS coordinates of the object to the captured image; and generating an object map by matching the mapped captured images.

상기 객체를 검출하는 단계는, 상기 드론으로부터 무선 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보를 수신하는 단계; 및 상기 수신되는 지상 촬영 영상으로부터 적어도 하나 이상의 객체를 검출하는 단계를 포함할 수 있다. The detecting of the object may include: receiving a ground-captured image and detailed image capturing information wirelessly transmitted from the drone; and detecting at least one object from the received ground-captured image.

상기 드론으로부터 수신되는 영상 촬영 상세 정보는, 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 촬영 지점의 GPS 좌표 정보 중 적어도 하나의 정보를 포함할 수 있다. The detailed image capturing information received from the drone may include at least one of altitude information at the time of capturing, focal length information of a capturing camera, and GPS coordinate information of the capturing point.

상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표일 수 있다. The GPS coordinate information of the photographing point may be GPS coordinates of a central region of the photographed image.

상기 객체 검출 결과 정보는, 입력 영상으로부터의 객체의 확률, 레이블, 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보 중 적어도 하나 이상의 정보를 포함할 수 있다. The object detection result information may include information on at least one of a probability of an object, a label, and coordinate information of four vertices of a rectangular box indicating an object area from the input image.

상기 객체를 검출하는 단계는, SSD(Single Shot Multibox Detector), YOLO(You Only Look Once) 와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 객체를 검출할 수 있다. The detecting of the object may include detecting the object by using a Convolutional Neural Networks (CNNs)-based object detector such as a Single Shot Multibox Detector (SSD) or You Only Look Once (YOLO).

상기 촬영 영상에 매핑하는 단계는, 상기 드론으로부터 수신된 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 이용하여 촬영 영상의 축척을 계산하는 단계; 상기 객체 검출 결과 정보, 상기 드론으로부터 수신되는 촬영 지점의 GPS 좌표 정보 및 상기 축척 계산부로부터 계산된 촬영 영상의 축척값을 이용하여 각 객체들의 중심 지점에 대한 GPS 좌표를 획득하는 단계; 및 상기 검출된 객체의 검출 결과 및 각 객체의 GPS 좌표를 상기 촬영 영상에 매핑하는 단계를 포함할 수 있다. The mapping to the captured image may include: calculating a scale of the captured image using altitude information of a capturing time received from the drone and focal length information of a capturing camera; obtaining GPS coordinates for the center point of each object by using the object detection result information, GPS coordinate information of the photographing point received from the drone, and the scale value of the photographed image calculated from the scale calculator; and mapping the detection result of the detected object and the GPS coordinates of each object to the captured image.

상기 축척을 게산하는 단계에서, 촬영 영상의 축척은 아래의 식을 이용할 수 있다. In the step of calculating the scale, the scale of the captured image may use the following equation.

[식][ceremony]

Figure 112021103470934-pat00005
Figure 112021103470934-pat00005

여기서,

Figure 112021103470934-pat00006
은 축척의 분모수,
Figure 112021103470934-pat00007
는 카메라 렌즈의 초점거리,
Figure 112021103470934-pat00008
는 촬영 고도를 나타낸다. here,
Figure 112021103470934-pat00006
is the denominator of the scale,
Figure 112021103470934-pat00007
is the focal length of the camera lens,
Figure 112021103470934-pat00008
represents the shooting altitude.

상기 객체 지도를 생성하는 단계는, 상기 매핑된 다수의 영상들을 정합하여 객체 지도를 생성하는 단계; 및 상기 생성된 객체 지도를 운용자가 확인할 수 있도록 출력하는 단계를 포함하고, 상기 영상 정합은, 영상에서 추출한 지역적 특징인 키포인트 기반 방식, 카메라 및 렌즈의 기하학적 위치에 의한 정합 방식 중 적어도 하나의 방식을 이용하여 정합할 수 있다. The generating of the object map may include: generating an object map by matching the plurality of mapped images; and outputting the generated object map so that an operator can check it, wherein the image registration is at least one of a keypoint-based method that is a regional feature extracted from an image, and a registration method based on geometrical positions of cameras and lenses. can be used to match.

본 발명에 따르면, 항공지도 생성 시, 드론 및 객체 검출기를 통해 지상의 객체와 GPS 좌표를 표시 즉, 드론을 이용해 항공지도를 제작하고 항공지도의 주요 객체들을 표시하며, 검출된 각 객체들의 GPS 좌표를 획득하여 이를 매핑하여 함께 표시하도록 하여 제작에 비교적 오랜 시간이 소요되는 기존의 항공지도와는 다르게, 객체 지도 필요 시, 드론을 비행시키는 것 만으로도 운용자 주변 지역의 항공지도를 생성하고 객체 정보를 신속하게 파악할 수 있도록 한 것이다.According to the present invention, when an aerial map is created, ground objects and GPS coordinates are displayed through a drone and an object detector, that is, an aerial map is produced using the drone, main objects of the aerial map are displayed, and the GPS coordinates of each detected object are displayed. Unlike the existing aerial map, which takes a relatively long time to produce by acquiring, mapping and displaying the so that it can be easily understood.

본 발명의 효과는 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명에 따른 객체 지도 생성 시스템에 대한 개략적 블록 구성을 나타낸 도면.
도 2는 도 1에 도시된 객체 지도 생성 시스템의 상세 블록 구성을 나타낸 도면.
도 3은 본 발명에 따른 객체 지도 생성 방법에 대한 동작 플로우챠트를 나타낸 도면.
The accompanying drawings below are provided to help understanding of the present embodiment, and provide embodiments together with detailed description. However, the technical features of the present embodiment are not limited to specific drawings, and features disclosed in the drawings may be combined with each other to constitute a new embodiment.
1 is a diagram showing a schematic block configuration of an object map generating system according to the present invention.
FIG. 2 is a diagram showing a detailed block configuration of the object map generating system shown in FIG. 1 .
3 is a diagram showing an operation flowchart of a method for generating an object map according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 본 발명의 바람직한 실시 예에 따른 객체 지도 생성 시스템 및 그 방법에 대하여 첨부한 도면을 참조하여 상세하게 설명하기로 한다. Hereinafter, an object map generating system and method according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 객체 지도 생성 시스템에 대한 개략적 블록 구성을 나타낸 도면이다. 1 is a diagram showing a schematic block configuration of an object map generating system according to the present invention.

도 1을 참조하면, 본 발명에 따른 객체 지도 생성 시스템(200)은, 객체 검출 모듈(210), 영상 처리 모듈(220) 및 객체 객체 지도 정합 모듈(230)을 포함할 수 있다. 여기서, 상기 본 발명에 따른 객체 지도 생성 시스템(200)는 드론(100)과 무선 연동하여 드론(100)으로부터 촬영 영상 및 영상 촬영 상세 정보를 수신할 수 있다. Referring to FIG. 1 , an object map generating system 200 according to the present invention may include an object detection module 210 , an image processing module 220 , and an object-object map matching module 230 . Here, the object map generating system 200 according to the present invention may receive a captured image and detailed image capturing information from the drone 100 by wirelessly interworking with the drone 100 .

먼저, 드론(100)은 원격(지상)의 운용자의 제어 단말을 통해 무선 전송되는 비행 간격, 촬영 간격 및 고도 정보 등의 무선 전송에 따라 항공에서 지상 영상을 활영한 후, 촬영된 영상 및 영상 촬영에 대한 상세 정보를 지상에 위치한 객체 지도 생성 시스템(200)으로 무선 전송된다. 여기서, 드론(100)으로부터 전송되는 영상 촬영에 대한 상세 정보는, 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 촬영 지점의 GPS 좌표 정보 중 적어도 하나의 정보를 포함할 수 있으며, 상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표일 수 있다. First, the drone 100 shoots the ground image in the air according to the wireless transmission of flight interval, shooting interval, and altitude information wirelessly transmitted through the remote (ground) operator's control terminal, and then shoots the captured image and image. The detailed information on the information is wirelessly transmitted to the object map generating system 200 located on the ground. Here, the detailed information on image capturing transmitted from the drone 100 may include at least one of altitude information at the time of shooting, focal length information of the shooting camera, and GPS coordinate information of the shooting point. The GPS coordinate information of may be GPS coordinates of the central region of the captured image.

상기 객체 지도 생성 시스템(200)의 객체 검출 모듈(210)은 상기 드론(100)으로부터 무선 전송되는 지상 촬영 영상으로부터 객체를 검출하고, 검출된 객체 정보, 촬영 영상 정보 및 촬영 시점의 고도 정보, 촬영 카메라의 초첨 거리 정보 및 촬영 지점의 GPS 좌표 보를 영상 처리 모듈(220)로 제공한다. The object detection module 210 of the object map generating system 200 detects an object from the ground-captured image wirelessly transmitted from the drone 100, and detects object information, photographed image information, and altitude information at the time of photographing, and photographing. The focus distance information of the camera and the GPS coordinate information of the shooting point are provided to the image processing module 220 .

한편, 객체 검출 모듈(210)은 상기 촬영 지점의 GPS 좌표 정보를 객체 지도 정합 모듈(230)로 제공할 수 있다. Meanwhile, the object detection module 210 may provide the GPS coordinate information of the photographing point to the object map matching module 230 .

상기 객체 검출 모듈(210)에서의 객체 검출은, SSD(Single Shot Multibox Detector), YOLO(You Only Look Once)와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 객체를 검출하며, 입력 영상으로부터 객체의 확률, 레이블, 그리고 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표를 영상 처리 모듈(220)로 제공한다.The object detection in the object detection module 210 detects an object using a Convolutional Neural Networks (CNNs)-based object detector such as a Single Shot Multibox Detector (SSD) and You Only Look Once (YOLO), and from the input image. The probability of the object, the label, and the coordinates of the four vertices of the rectangular box indicating the object area are provided to the image processing module 220 .

영상 처리 모듈(220)은 객체 검출 모듈(210)로부터 제공되는 검출 객체의 GPS 좌표를 획득하고, 획득된 검출 객체의 GPS 정보를 검출된 객체 정보와 함께 촬영 영상에 매핑시킨 후, 객체 및 GPS 좌표가 매핑된 영상을 객체 지도 정합 모듈(230)로 제공한다. The image processing module 220 acquires the GPS coordinates of the detection object provided from the object detection module 210 , maps the GPS information of the detection object obtained together with the detected object information to the captured image, and then maps the object and GPS coordinates The mapped image is provided to the object map matching module 230 .

즉, 영상 처리 모듈(220)은 객체 검출 모듈(210)로부터 제공되는 촬영 고도 정보, 초점 거리 정보를 이용하여 촬영 영상의 축척을 계산하고, 계산된 축척값, 객체 검출 결과(검출된 객체들의 확률, 레이블, 그리고 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보) 및 촬영 지점의 GPS 좌표를 이용하여 검출 객체의 GPS 좌표를 획득하고, 획득된 검출 객체의 GPS 정보를 검출된 객체정보와 함께 촬영 영상에 매핑시킨 후, 객체 및 GPS 좌표가 매핑된 영상을 객체 지도 정합 모듈(230)로 제공한다. 여기서, 상기 촬영 영상의 축척 계산은 도 2 설명에서 상세하게 설명하기로 한다. That is, the image processing module 220 calculates the scale of the captured image using the photographing altitude information and focal length information provided from the object detection module 210 , and calculates the scale value and the object detection result (probability of detected objects). , the label, and the four vertex coordinate information of the rectangular box indicating the object area) and the GPS coordinates of the shooting point to obtain the GPS coordinates of the detection object, and the obtained GPS information of the detection object together with the detected object information. After mapping to , the image to which the object and GPS coordinates are mapped is provided to the object map matching module 230 . Here, the scale calculation of the captured image will be described in detail with reference to FIG. 2 .

한편, 상기 객체 검출 모듈(210) 및 영상 처리 모듈(220)의 각 동작은 드론(100)으로부터 전송되는 영상에 대하여 반복적으로 동일한 방법으로 동작한다. Meanwhile, each operation of the object detection module 210 and the image processing module 220 repeatedly operates in the same manner with respect to the image transmitted from the drone 100 .

객체 지도 정합 모듈(230)은 상기 영상 처리 모듈(220)로부터 제공되는 객체 정보 및 각 객체들의 GPS 좌표가 매핑된 영상들을 수신하고, 객체 검출 모듈(220)로부터 제공되는 촬영 영상에 대한 촬영 시점의 GPS 좌표 정보들을 수신하여, 상기 각 매핑 영상들을 순서에 맞도록 정합한 후, 정합된 객체 지도를 출력하는 것이다. The object map matching module 230 receives the images to which the object information provided from the image processing module 220 and the GPS coordinates of each object are mapped, and determines the timing of the shooting of the captured image provided from the object detection module 220 . After receiving GPS coordinate information, matching the respective mapping images in order, and outputting the matched object map.

상기한 본 발명에 따른 객체 지도 생성 시스템(200)의 상세 구성 및 상세 동작에 대하여 도 2를 참조하여 살펴보기로 하자.A detailed configuration and detailed operation of the object map generating system 200 according to the present invention will be described with reference to FIG. 2 .

도 2는 도 1에 도시된 객체 지도 생성 시스템(200)에 대한 상세 블록 구성을 나타낸 도면, 즉, 도 1에 도시된 객체 검출 모듈(210), 영상 처리 모듈(220) 및 객체 지도 정합 모듈(230)에 대한 상세 블록 구성을 나타낸 도면이다. 2 is a view showing the detailed block configuration of the object map generating system 200 shown in FIG. 1, that is, the object detection module 210, the image processing module 220 and the object map matching module shown in FIG. 230) is a diagram showing a detailed block configuration.

도 2를 참조하면, 객체 검출 모듈(210)은 수신부(211) 및 객체 검출부(212)를 포함할 수 있다. Referring to FIG. 2 , the object detection module 210 may include a receiver 211 and an object detector 212 .

상기 영상 처리 모듈(220)은 영상 매핑부(221), 객체 GPS 좌표 획득부(222) 및 축척 계산부(223)를 포함할 수 있다. The image processing module 220 may include an image mapping unit 221 , an object GPS coordinate obtaining unit 222 , and a scale calculating unit 223 .

상기 객체 지도 정합 모듈(230)은 지도 정합부(231) 및 지도 출력부(232)를 포함할 수 있다. The object map matching module 230 may include a map matching unit 231 and a map output unit 232 .

먼저, 객체 검출 모듈(210)의 수신부(211)는 드론(100)으로부터 전송되는 촬영 영상 정보 및 영상 촬영 상세 정보를 수신한다. 여기서, 영상 촬영 상세 정보는, 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 영상 촬영 지점의 GPS 좌표 정보 중 적어도 하나의 정보를 포함할 수 있으며, 상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표일 수 있다. First, the receiver 211 of the object detection module 210 receives captured image information and image capturing detailed information transmitted from the drone 100 . Here, the image capturing detailed information may include at least one of altitude information at the time of capturing, focal length information of the capturing camera, and GPS coordinate information of the image capturing point, and the GPS coordinate information of the capturing point is the captured image. may be the GPS coordinates of the central region of .

상기 수신부(211)는 드론(100)으로부터 수신된 영상 정보를 객체 검출부(212)와, 영상 처리 모듈(220)의 영상 매핑부(221)로 제공할 수 있다. The receiver 211 may provide the image information received from the drone 100 to the object detector 212 and the image mapping unit 221 of the image processing module 220 .

그리고, 수신부(211)는 드론(100)으로부터 수신된 영상 촬영 상세 정보 중 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 영상 처리 모듈(220)의 촬영 영상 축척 계산부(223)로 제공하고, 영상 촬영 상세 정보 중 영상 촬영 지점의 GPS 좌표 정보는 영상 처리 모듈(220)의 객체 GPS 좌표 획득부(222) 및 객체 지도 정합 모듈(230)의 지도 정합부(231)로 각각 제공될 수 있다. And, the receiving unit 211 provides the altitude information of the shooting time and focal length information of the shooting camera among the detailed image shooting information received from the drone 100 to the shooting image scale calculation unit 223 of the image processing module 220 and , the GPS coordinate information of the image capturing point among the detailed image capturing information may be provided to the object GPS coordinate obtaining unit 222 of the image processing module 220 and the map matching unit 231 of the object map matching module 230, respectively. .

상기 객체 검출 모듈(210)의 객체 검출부(212)는 SSD, YOLO와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 수신부(211)로부터 제공되는 촬영 영상 정보로부터 객체 정보를 검출한 후, 검출된 객체 정보를 영상 처리 모듈(220)의 객체 GPS 좌표 획득부(222)로 제공할 수 있다. 여기서, 상기 객체 정보는, 객체들의 확률, 레이블, 그리고 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보 중 적어도 하나 이상의 정보일 수 있다. The object detection unit 212 of the object detection module 210 detects object information from the captured image information provided from the receiver 211 using a CNNs (Convolutional Neural Networks)-based object detector such as SSD and YOLO, and then detects The obtained object information may be provided to the object GPS coordinate obtaining unit 222 of the image processing module 220 . Here, the object information may be at least one piece of information among four vertex coordinates of a rectangular box indicating a probability of objects, a label, and an object area.

한편, 영상 처리 모듈(220)의 촬영 영상 축척 계산부(223)는 객체 검출 모듈(210)의 수신부(211)로부터 제공되는 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 이용하여 촬영 영상의 축척값을 계산한 후, 계산된 촬영 영상의 축척값을 영상 처리 모듈(220)의 객체 GPS 좌표 획득부(222)로 제공할 수 있다. 여기서, 상기 촬영 영상의 축척값은 아래의 식을 이용하여 계산할 수 있다. On the other hand, the photographed image scale calculation unit 223 of the image processing module 220 uses the altitude information of the photographing point provided from the receiving unit 211 of the object detection module 210 and the focal length information of the photographing camera of the photographed image. After calculating the scale value, the calculated scale value of the captured image may be provided to the object GPS coordinate obtaining unit 222 of the image processing module 220 . Here, the scale value of the captured image may be calculated using the following equation.

[식][ceremony]

Figure 112021103470934-pat00009
Figure 112021103470934-pat00009

여기서,

Figure 112021103470934-pat00010
은 축척의 분모수,
Figure 112021103470934-pat00011
는 카메라 렌즈의 초점거리,
Figure 112021103470934-pat00012
는 촬영 고도를 나타낸다. here,
Figure 112021103470934-pat00010
is the denominator of the scale,
Figure 112021103470934-pat00011
is the focal length of the camera lens,
Figure 112021103470934-pat00012
represents the shooting altitude.

예를 들면, 초점거리 35 mm 렌즈를 이용하여 350m 상공에서 촬영한 사진의 축척은 1/1000이 될 수 있다. For example, the scale of a photo taken at 350 m using a 35 mm focal length lens may be 1/1000.

한편, 영상 처리 모듈(220)의 객체 GPS 좌표 획득부(222)는 상기 촬영 영상 축척 계산부(223)에서 계산된 촬영 영상의 축척값과, 객체 검출 모듈(210)으로부터 제공되는 촬영 지점의 GPS좌표값을 이용하여 객체 검출 모듈(210)의 객체 검출부(212)로부터 제공되는 객체들의 중심지점에 대한 GPS 좌표를 획득한 후, 획득된 각 객체들에 대한 GPS 좌표값을 영상 매핑부(221)로 제공할 수 있다. Meanwhile, the object GPS coordinate obtaining unit 222 of the image processing module 220 includes the scale value of the captured image calculated by the captured image scale calculating unit 223 and the GPS of the capturing point provided from the object detection module 210 . After acquiring the GPS coordinates for the central points of the objects provided from the object detection unit 212 of the object detection module 210 by using the coordinate values, the obtained GPS coordinate values for the respective objects are combined with the image mapping unit 221 . can be provided as

그리고, 영상 처리 모듈(220)의 영상 매핑부(221)는 상기 객체 GPS 좌표 획득부(222)로부터 제공되는 각 객체들에 대한 좌표값과, 객체 검출 모듈(210)의 객체 검출부(211)에서 검출된 각 객체 정보를 객체 검출 모듈(210)의 수신부(211)로부터 제공되는 촬영 영상에 각각 매핑한 후, 객체 및 GPS 좌표가 매핑된 영상을 객체 지도 정합 모듈(230)의 지도 정합부(231)로 제공할 수 있다. In addition, the image mapping unit 221 of the image processing module 220 uses the coordinate values for each object provided from the object GPS coordinate obtaining unit 222 and the object detection unit 211 of the object detection module 210 . After mapping each detected object information to the captured image provided from the receiver 211 of the object detection module 210 , the map matching unit 231 of the object map matching module 230 maps the image to which the object and GPS coordinates are mapped. ) can be provided.

이와 같은 동작은 드론(100)으로부터 촬영 영상이 제공되는 동안에는 동일한 방법으로 반복적으로 수행할 수 있다. Such an operation may be repeatedly performed in the same way while a captured image is provided from the drone 100 .

상기 객체 지도 정합 모듈(230)의 지도 정합부(231)는 상기 영상 처리 모듈(22)로부터 제공되는 객체 및 객체들의 GPS 좌표가 매핑된 다수의 영상들을 정합하여 객체 지도를 생성하고, 생성된 객체 지도 데이터를 지도 출력부(232)로 제공한다. 여기서, 상기 영상의 정합은 촬영 영상에서 추출한 지역적 특징인 키포인트 기반 방식, 혹은 카메라 및 렌즈의 기하학적 위치에 의한 정합 방식 등을 이용할 수 있다. 이러한 방식은 이미 공지된 기술로서, 상세 설명은 생략하기로 한다. The map matching unit 231 of the object map matching module 230 generates an object map by matching the object provided from the image processing module 22 and a plurality of images to which the GPS coordinates of the objects are mapped, and the generated object The map data is provided to the map output unit 232 . Here, for the image registration, a keypoint-based method, which is a regional feature extracted from a captured image, or a registration method based on geometrical positions of cameras and lenses, etc. may be used. This method is a known technique, and detailed description thereof will be omitted.

지도 출력부(232)는 지도 정합부(231)로부터 제공되는 객체 지도 데이터를 운용자가 확인할 수 있는 즉, 디스플레이 화면에 표시 가능한 데이터로 변환하여 출력할 수 있다. The map output unit 232 may convert the object map data provided from the map matching unit 231 into data that the operator can check, that is, display it on the display screen, and output the converted data.

상기한 본 발명에 따른 객체 지도 생성 시스템의 동작과 상응하는 본 발명에 따른 객체 지도 생성 방법에 대하여 도 3을 참조하여 단계적으로 설명하기로 한다. An object map generating method according to the present invention corresponding to the operation of the object map generating system according to the present invention will be described in stages with reference to FIG. 3 .

도 3은 본 발명에 따른 객체 지도 생성 방법에 대한 동작 플로우챠트를 나타낸 도면이다. 3 is a diagram illustrating an operation flowchart of a method for generating an object map according to the present invention.

도 3을 참조하면, 먼저, 드론(100)은 운용자의 비행 제어에 따라 특정 지역을 비행하면서 지상의 영상을 촬영한 후, 촬영된 영상 및 영상 촬영 상세 정보를 객체 지도 생성 시스템(200)으로 전송한다.Referring to FIG. 3 , first, the drone 100 shoots an image on the ground while flying in a specific area according to the operator's flight control, and then transmits the captured image and detailed image capturing information to the object map generating system 200 . do.

객체 지도 생성 시스템(200)은 상기 드론(100)으로부터 전송되는 촬영 영상 정보 및 영상 촬영 상세 정보를 수신한다(S301). 여기서, 영상 촬영 상세 정보는, 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 영상 촬영 지점의 GPS 좌표 정보 중 적어도 하나의 정보를 포함할 수 있으며, 상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표일 수 있다. The object map generating system 200 receives captured image information and image capturing detailed information transmitted from the drone 100 (S301). Here, the image capturing detailed information may include at least one of altitude information at the time of capturing, focal length information of the capturing camera, and GPS coordinate information of the image capturing point, and the GPS coordinate information of the capturing point is the captured image. may be the GPS coordinates of the central region of .

이어, 객체 지도 생성 시스템(200)은 SSD, YOLO와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 상기 드론(100)으로부터 수신된 촬영 영상 정보로부터 객체 정보를 검출한다(S302). 여기서, 상기 검출된 객체 정보는, 객체들의 확률, 레이블, 그리고 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보 중 적어도 하나 이상의 정보일 수 있다. Next, the object map generating system 200 detects object information from the captured image information received from the drone 100 using a CNNs (Convolutional Neural Networks)-based object detector such as SSD and YOLO (S302). Here, the detected object information may be information on at least one of a probability of objects, a label, and information on coordinates of four vertices of a rectangular box indicating an object area.

이어, 객체 지도 생성 시스템(200)은 드론(100)으로부터 제공되는 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 이용하여 촬영 영상의 축척값을 계산한다(S303). 여기서, 상기 촬영 영상의 축척값은 상기 식을 이용하여 계산할 수 있다. Next, the object map generating system 200 calculates a scale value of the captured image by using the altitude information of the photographing time and focal length information of the photographing camera provided from the drone 100 ( S303 ). Here, the scale value of the captured image may be calculated using the above equation.

이어, 객체 지도 생성 시스템(200)은 상기 S303단계를 통해 계산된 촬영 영상의 축척값과, 상기 S301 단계를 통해 드론(100)으로부터 수신된 촬영 지점의 GPS좌표값을 이용하여 S302 단계를 통해 검출된 객체들의 중심지점에 대한 GPS 좌표를 획득한다(S304). Then, the object map generating system 200 detects through step S302 using the scale value of the captured image calculated through step S303 and the GPS coordinate value of the photographing point received from the drone 100 through step S301. The GPS coordinates of the central points of the objects are acquired (S304).

이어, 상기 S304 단계를 통해 획득된 각 객체들에 대한 GPS좌표값과, 상기 S302단계를 통해 검출된 각 객체 정보를 상기 S301 단계를 통해 수신된 즉, 드론(100)으로부터 전송되는 촬영 영상에 각각 매핑한다(S305). Next, each of the GPS coordinate values for each object obtained in step S304 and information on each object detected in step S302 are added to the captured image received in step S301, that is, transmitted from the drone 100, respectively. Mapping (S305).

이어, 드론(100)으로부터 전송되는 모든 촬영 영상에 대하여 매핑 동작이 이루어졌는지를 판단한다(S306).Next, it is determined whether a mapping operation has been performed on all the captured images transmitted from the drone 100 (S306).

판단 결과, 모든 영상에 대해 매핑 동작이 이루어지지 않았을 경우, 모든 영상에 대한 매핑 동작이 이루어질 때까지 상기 S301단계부터 S305 단계를 반복적으로 수행할 수 있다. As a result of the determination, if the mapping operation is not performed on all images, steps S301 to S305 may be repeatedly performed until the mapping operation is performed on all images.

상기 판단 결과, 드론(100)으로부터 정송되는 모든 영상에 대하여 매핑 동작이 수행된 경우에는, 상기 S302 단계를 통해 검출된 객체 및 상기 S305 단계를 통해 모든 객체들에 대한 GPS 좌표가 매핑된 다수의 영상들을 정합하여 객체 지도를 생성한다(S307). 여기서, 상기 영상의 정합은 촬영 영상에서 추출한 지역적 특징인 키포인트 기반 방식, 혹은 카메라 및 렌즈의 기하학적 위치에 의한 정합 방식 등을 이용할 수 있다. As a result of the determination, when the mapping operation is performed on all images transmitted from the drone 100, the object detected in step S302 and a plurality of images to which GPS coordinates for all objects are mapped through step S305 They are matched to create an object map (S307). Here, for the image registration, a keypoint-based method, which is a regional feature extracted from a captured image, or a registration method based on geometrical positions of cameras and lenses, etc. may be used.

이어, 상기 S307 단계를 통해 생성된 객체 지도를 출력한다(S308). 즉, 상기 S307단계를 통해 정합된 객체 지도 데이터를 운용자가 확인할 수 있는 즉, 디스플레이 화면에 표시 가능한 데이터로 변환하여 출력할 수 있다. Next, the object map generated through the step S307 is output (S308). That is, the object map data matched through the step S307 can be converted into data that the operator can check, that is, can be displayed on the display screen, and output.

이상에서 전술한 본 발명의 일 실시예에 따른 객체 지도 생성방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method for generating an object map according to an embodiment of the present invention described above may be implemented as a program (or application) and stored in a medium to be executed in combination with a computer, which is hardware.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program, in order for the computer to read the program and execute the methods implemented as a program, C, C++, JAVA, Ruby, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. there is. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the above functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100 : 드론
200 : 객체 지도 생성 시스템
210 : 객체 검출 모듈
211 : 수신부
212 : 객체 검출부
220 : 영상 처리 모듈
221 : 영상 매핑부
222 : 객체 GPS 좌표 획득부
223 : 촬영 영상 축척 계산부
230 : 객체 지도 정합 모듈
231 : 지도 정합부
232 : 지도 출력부
100: drone
200: object map generation system
210: object detection module
211: receiver
212: object detection unit
220: image processing module
221: image mapping unit
222: object GPS coordinate acquisition unit
223: shot image scale calculation unit
230: object map matching module
231: map matching unit
232: map output unit

Claims (20)

객체 지도 생성 시스템에 있어서,
드론으로부터 무선 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보 중 지상 촬영 영상으로부터 객체를 검출하는 객체 검출 모듈;
상기 검출한 객체의 GPS 좌표값을 획득하고, 획득한 객체의 GPS 좌표값을 상기 촬영 영상에 매핑하는 영상 처리 모듈; 및
상기 매핑된 촬영 영상들을 정합하여 객체 지도를 생성하는 객체 지도 정합 모듈을 포함하고,
상기 객체 검출 모듈은,
상기 드론으로부터 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보를 수신하고, 수신된 영상 촬영 상세 정보를 상기 영상 처리 모듈로 제공하는 수신부;
상기 수신부를 통해 수신되는 지상 촬영 영상으로부터 적어도 하나 이상의 객체를 검출한 후, 객체 검출 결과 정보를 상기 영상 처리 모듈로 제공하는 객체 검출부를 포함하며,
상기 드론으로부터 수신되는 영상 촬영 상세 정보는, 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 촬영 지점의 GPS 좌표 정보이고, 상기 객체 검출 결과 정보는,
입력 영상으로부터의 객체의 확률, 레이블, 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보 중 적어도 하나 이상의 정보를 포함하며,
상기 영상 처리 모듈은,
상기 객체 검출 모듈의 수신부로부터 제공되는 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 이용하여 촬영 영상의 축척을 계산하는 축척 계산부;
상기 객체 검출 모듈의 객체 검출부로부터 제공되는 객체 검출 결과 정보, 상기 수신부로부터 제공되는 촬영 지점의 GPS 좌표 정보 및 상기 축척 계산부로부터 계산된 촬영 영상의 축척값을 이용하여 각 객체들의 중심 지점에 대한 GPS 좌표를 획득하는 객체 GPS 좌표 획득부; 및
상기 검출된 객체의 검출 결과 및 각 객체의 GPS 좌표를 객체 검출 모듈의 수신부로부터 제공되는 촬영 영상에 매핑한 후, 매핑된 영상을 상기 객체 지도 정합 모듈로 제공하는 영상 매핑부를 포함하는 것인 객체 지도 생성 시스템.
An object map generation system comprising:
an object detection module configured to detect an object from a ground-captured image among ground-captured images and detailed image capturing information wirelessly transmitted from a drone;
an image processing module that acquires the GPS coordinates of the detected object and maps the acquired GPS coordinates of the object to the captured image; and
and an object map matching module for generating an object map by matching the mapped captured images;
The object detection module,
a receiving unit for receiving the ground-captured image and image capturing detailed information transmitted from the drone, and providing the received image capturing detailed information to the image processing module;
and an object detection unit configured to provide object detection result information to the image processing module after detecting at least one object from the ground-captured image received through the receiving unit;
The detailed image capturing information received from the drone is altitude information at the time of shooting, focal length information of the shooting camera, and GPS coordinate information of the shooting point, and the object detection result information includes:
It includes at least one or more of information about the probability, label, and coordinates of the four vertices of a rectangular box indicating the object area from the input image,
The image processing module,
a scale calculator configured to calculate a scale of a captured image using altitude information at a time of capturing and focal length information of a capturing camera provided from the receiving unit of the object detection module;
Using the object detection result information provided from the object detection unit of the object detection module, the GPS coordinate information of the photographing point provided from the receiver, and the scale value of the photographed image calculated from the scale calculation unit, GPS for the center point of each object an object GPS coordinate acquisition unit that acquires coordinates; and
Object map comprising an image mapping unit that maps the detection result of the detected object and the GPS coordinates of each object to the captured image provided from the receiving unit of the object detection module, and then provides the mapped image to the object map matching module generation system.
삭제delete 삭제delete 제1항에 있어서,
상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표인 것인 객체 지도 생성 시스템.
According to claim 1,
The GPS coordinate information of the shooting point is an object map generating system that is the GPS coordinates of the central region of the captured image.
삭제delete 제1항에 있어서,
상기 객체 검출부는,
SSD(Single Shot Multibox Detector), YOLO(You Only Look Once) 와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 객체를 검출하는 것인 객체 지도 생성 시스템.
According to claim 1,
The object detection unit,
An object map generation system that detects an object using a CNNs (Convolutional Neural Networks)-based object detector such as SSD (Single Shot Multibox Detector) and YOLO (You Only Look Once).
삭제delete 제1항에 있어서,
상기 축척 계산부에서 계산되는 촬영 영상의 축척은 아래의 식 1을 이용하여 계산하는 것인 객체 지도 생성 시스템.
[식 1]
Figure 112021129086621-pat00013

여기서,
Figure 112021129086621-pat00014
은 축척의 분모수,
Figure 112021129086621-pat00015
는 카메라 렌즈의 초점거리,
Figure 112021129086621-pat00016
는 촬영 고도를 나타낸다.
According to claim 1,
The object map generation system in which the scale of the captured image calculated by the scale calculator is calculated using Equation 1 below.
[Equation 1]
Figure 112021129086621-pat00013

here,
Figure 112021129086621-pat00014
is the denominator of the scale,
Figure 112021129086621-pat00015
is the focal length of the camera lens,
Figure 112021129086621-pat00016
represents the shooting altitude.
제8항에 있어서,
상기 객체 지도 정합 모듈은,
상기 영상 매핑부로부터 제공되는 매핑된 다수의 영상들을 정합하여 객체 지도를 생성하는 지도 정합부; 및
상기 지도 정합부를 통해 생성된 객체 지도를 운용자에게 제공하는 지도 출력부를 포함하는 것인 객체 지도 생성 시스템.
9. The method of claim 8,
The object map matching module,
a map matching unit generating an object map by matching a plurality of mapped images provided from the image mapping unit; and
and a map output unit providing an operator with the object map generated through the map matching unit.
제9항에 있어서,
상기 지도 정합부에서의 영상 정합은, 영상에서 추출한 지역적 특징인 키포인트 기반 방식, 카메라 및 렌즈의 기하학적 위치에 의한 정합 방식 중 적어도 하나의 방식을 이용하여 정합하는 것인 객체 지도 생성 시스템.
10. The method of claim 9,
The image registration in the map matching unit is performed using at least one of a keypoint-based method, which is a regional feature extracted from an image, and a registration method based on geometrical positions of cameras and lenses.
객체 지도 생성 방법에 있어서,
드론으로부터 무선 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보 중 지상 촬영 영상으로부터 객체를 검출하는 단계;
상기 검출한 객체의 GPS 좌표를 획득하고, 획득한 객체의 GPS 좌표를 상기 촬영 영상에 매핑하는 단계; 및
상기 매핑된 촬영 영상들을 정합하여 객체 지도를 생성하는 단계를 포함하고,
상기 객체를 검출하는 단계는,
상기 드론으로부터 무선 전송되는 지상 촬영 영상 및 영상 촬영 상세 정보를 수신하는 단계; 및
상기 수신되는 지상 촬영 영상으로부터 적어도 하나 이상의 객체를 검출하는 단계를 포함하며,
상기 드론으로부터 수신되는 영상 촬영 상세 정보는,
촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보, 촬영 지점의 GPS 좌표 정보 중 적어도 하나의 정보를 포함하고, 상기 객체 검출 결과 정보는,
입력 영상으로부터의 객체의 확률, 레이블, 객체 영역을 나타내는 사각형 박스의 네 꼭지점 좌표 정보 중 적어도 하나 이상의 정보를 포함하며,
상기 촬영 영상에 매핑하는 단계는,
상기 드론으로부터 수신된 촬영 시점의 고도 정보, 촬영 카메라의 초점 거리 정보를 이용하여 촬영 영상의 축척을 계산하는 단계;
상기 객체 검출 결과 정보, 상기 드론으로부터 수신되는 촬영 지점의 GPS 좌표 정보 및 상기 계산된 촬영 영상의 축척값을 이용하여 각 객체들의 중심 지점에 대한 GPS 좌표를 획득하는 단계; 및
상기 검출된 객체의 검출 결과 및 각 객체의 GPS 좌표를 상기 촬영 영상에 매핑하는 단계를 포함하는 것인 객체 지도 생성 방법.
A method for generating an object map, comprising:
detecting an object from a ground-captured image among ground-captured images and detailed image capturing information wirelessly transmitted from a drone;
obtaining GPS coordinates of the detected object, and mapping the acquired GPS coordinates of the object to the captured image; and
generating an object map by matching the mapped captured images,
Detecting the object comprises:
receiving a ground-captured image and detailed image capturing information wirelessly transmitted from the drone; and
detecting at least one object from the received ground-captured image,
The detailed image shooting information received from the drone is,
It includes at least one of altitude information at the time of shooting, focal length information of the shooting camera, and GPS coordinate information of the shooting point, wherein the object detection result information includes:
It includes at least one or more of information about the probability, label, and coordinates of the four vertices of a rectangular box indicating the object area from the input image,
The step of mapping to the captured image,
calculating the scale of the photographed image using the altitude information of the photographing time received from the drone and the focal length information of the photographing camera;
obtaining GPS coordinates for the center point of each object using the object detection result information, the GPS coordinate information of the photographing point received from the drone, and the calculated scale value of the photographed image; and
and mapping the detection result of the detected object and the GPS coordinates of each object to the captured image.
삭제delete 삭제delete 제11항에 있어서,
상기 촬영 지점의 GPS 좌표 정보는 촬영된 영상의 중심부 영역의 GPS 좌표인 것인 객체 지도 생성 방법.
12. The method of claim 11,
The method of generating an object map, wherein the GPS coordinate information of the photographing point is the GPS coordinate of the central region of the photographed image.
삭제delete 제11항에 있어서,
상기 객체를 검출하는 단계는,
SSD(Single Shot Multibox Detector), YOLO(You Only Look Once) 와 같은 CNNs(Convolutional Neural Networks) 기반 객체 검출기를 이용하여 객체를 검출하는 것인 객체 지도 생성 방법.
12. The method of claim 11,
Detecting the object comprises:
An object map generation method that detects an object using a Convolutional Neural Networks (CNNs)-based object detector such as SSD (Single Shot Multibox Detector) and YOLO (You Only Look Once).
삭제delete 제11항에 있어서,
상기 축척을 게산하는 단계에서, 촬영 영상의 축척은 아래의 식 1을 이용하여 계산하는 것인 객체 지도 생성 방법.
[식 1]
Figure 112021129086621-pat00017

여기서,
Figure 112021129086621-pat00018
은 축척의 분모수,
Figure 112021129086621-pat00019
는 카메라 렌즈의 초점거리,
Figure 112021129086621-pat00020
는 촬영 고도를 나타낸다.
12. The method of claim 11,
In the step of calculating the scale, the scale of the captured image is calculated using Equation 1 below.
[Equation 1]
Figure 112021129086621-pat00017

here,
Figure 112021129086621-pat00018
is the denominator of the scale,
Figure 112021129086621-pat00019
is the focal length of the camera lens,
Figure 112021129086621-pat00020
represents the shooting altitude.
제18항에 있어서,
상기 객체 지도를 생성하는 단계는,
상기 매핑된 다수의 영상들을 정합하여 객체 지도를 생성하는 단계; 및
상기 생성된 객체 지도를 운용자가 확인할 수 있도록 출력하는 단계를 포함하는 것인 객체 지도 생성 방법.
19. The method of claim 18,
The step of generating the object map comprises:
generating an object map by matching the plurality of mapped images; and
and outputting the created object map so that an operator can check it.
제19항에 있어서,
상기 영상 정합은, 영상에서 추출한 지역적 특징인 키포인트 기반 방식, 카메라 및 렌즈의 기하학적 위치에 의한 정합 방식 중 적어도 하나의 방식을 이용하여 정합하는 것인 객체 지도 생성 방법.

20. The method of claim 19,
The image registration is performed using at least one of a keypoint-based method, which is a regional feature extracted from an image, and a registration method based on a geometrical position of a camera and a lens.

KR1020210119035A 2021-09-07 2021-09-07 Object map generation system and method therefor KR102393300B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210119035A KR102393300B1 (en) 2021-09-07 2021-09-07 Object map generation system and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210119035A KR102393300B1 (en) 2021-09-07 2021-09-07 Object map generation system and method therefor

Publications (1)

Publication Number Publication Date
KR102393300B1 true KR102393300B1 (en) 2022-05-02

Family

ID=81593543

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210119035A KR102393300B1 (en) 2021-09-07 2021-09-07 Object map generation system and method therefor

Country Status (1)

Country Link
KR (1) KR102393300B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101220234B1 (en) * 2012-06-26 2013-01-15 대원항업 주식회사 Automatic scale modification and aerial/satellite image numerical mapping system using altimeter and method thereof
KR101692709B1 (en) 2016-08-22 2017-01-05 주식회사 일도엔지니어링 Digital Mapping imaging system using drones
KR101914164B1 (en) 2018-03-15 2018-11-02 대원항업 주식회사 System for Processing Image of Nearing Precision Image Data of Drone
KR101925366B1 (en) 2018-06-05 2018-12-06 한국항공우주연구원 electronic mapping system and method using drones
KR101984259B1 (en) * 2018-08-31 2019-05-30 (주)엔젤스윙 Method and device for making a topographic map
KR20210066119A (en) * 2019-11-28 2021-06-07 광운대학교 산학협력단 Method and apparatus for realtime object detection in unmanned aerial vehicle image
WO2021113789A1 (en) * 2019-12-06 2021-06-10 The Texas A&M University System Mapping objects using unmanned aerial vehicle data in gps-denied environments

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101220234B1 (en) * 2012-06-26 2013-01-15 대원항업 주식회사 Automatic scale modification and aerial/satellite image numerical mapping system using altimeter and method thereof
KR101692709B1 (en) 2016-08-22 2017-01-05 주식회사 일도엔지니어링 Digital Mapping imaging system using drones
KR101914164B1 (en) 2018-03-15 2018-11-02 대원항업 주식회사 System for Processing Image of Nearing Precision Image Data of Drone
KR101925366B1 (en) 2018-06-05 2018-12-06 한국항공우주연구원 electronic mapping system and method using drones
KR101984259B1 (en) * 2018-08-31 2019-05-30 (주)엔젤스윙 Method and device for making a topographic map
KR20210066119A (en) * 2019-11-28 2021-06-07 광운대학교 산학협력단 Method and apparatus for realtime object detection in unmanned aerial vehicle image
WO2021113789A1 (en) * 2019-12-06 2021-06-10 The Texas A&M University System Mapping objects using unmanned aerial vehicle data in gps-denied environments

Similar Documents

Publication Publication Date Title
CN111144388B (en) Monocular image-based road sign line updating method
US9465129B1 (en) Image-based mapping locating system
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
Grussenmeyer et al. High resolution 3D recordng and modelling on the Bronze Age cave" les Fraux" in Perigord (France)
CN111540048A (en) Refined real scene three-dimensional modeling method based on air-ground fusion
CN102980510B (en) A kind of laser light chi image assize device and tree survey method thereof
CN112184890B (en) Accurate positioning method of camera applied to electronic map and processing terminal
KR100915600B1 (en) Method for measuring 3-dimensinal coordinates of images using a target for ground control point
KR101258560B1 (en) Setting method of Ground Control Point by Aerial Triangulation
Van Riel Exploring the use of 3D GIS as an analytical tool in archaeological excavation practice
JP4588369B2 (en) Imaging apparatus and imaging method
CN111189433A (en) Karst peak forest landform parameter measuring method based on unmanned aerial vehicle aerial photography
CN116030194A (en) Air-ground collaborative live-action three-dimensional modeling optimization method based on target detection avoidance
JP4852006B2 (en) Spatial information database generation device and spatial information database generation program
CN116883604A (en) Three-dimensional modeling technical method based on space, air and ground images
KR101228292B1 (en) Digital map system to correct error remotely and manufacturing method using it
KR100549511B1 (en) Method for producing picture drawing of gis using digital photogrammetry and laser scanning
KR102393300B1 (en) Object map generation system and method therefor
KR100981588B1 (en) A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point
CN116229001A (en) Urban three-dimensional digital map generation method and system based on spatial entropy
CN114996805A (en) BIM-based highway construction cooperative management system
CN113650783A (en) Fixed wing oblique photography cadastral mapping method, system and equipment
JP5297366B2 (en) Imaging object information generation apparatus and imaging object information generation program
CN110617800A (en) Emergency remote sensing monitoring method, system and storage medium based on civil aircraft
Dhruwa et al. Generation of 3-D Large-Scale Maps using LiDAR Point Cloud Data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant