JP2022158951A - Method and system for updating aerial map utilizing drone image - Google Patents

Method and system for updating aerial map utilizing drone image Download PDF

Info

Publication number
JP2022158951A
JP2022158951A JP2022026347A JP2022026347A JP2022158951A JP 2022158951 A JP2022158951 A JP 2022158951A JP 2022026347 A JP2022026347 A JP 2022026347A JP 2022026347 A JP2022026347 A JP 2022026347A JP 2022158951 A JP2022158951 A JP 2022158951A
Authority
JP
Japan
Prior art keywords
roof
drone
true
matching
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022026347A
Other languages
Japanese (ja)
Other versions
JP7375064B2 (en
Inventor
ハンスン チェー
Choi Hanseung
セヨン ピョ
Seyoung Pyo
ヨイル ユン
Yeo-Yil Yoon
ジンソク キム
Jin Sug Kim
ジンハン イ
Jinhan Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Labs Corp
Original Assignee
Naver Labs Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Labs Corp filed Critical Naver Labs Corp
Publication of JP2022158951A publication Critical patent/JP2022158951A/en
Application granted granted Critical
Publication of JP7375064B2 publication Critical patent/JP7375064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3859Differential updating map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)

Abstract

To provide a method and a system for updating an aerial map utilizing a drone image.SOLUTION: An update method according to an embodiment includes the steps of: generating a roof true-orthophoto including images of preset height or higher by using a Digital Elevation Model (DEM), a Digital Surface Model (DSM), and a true- orthophoto of an existing aerial map; matching a drone image and the roof true-orthophoto; and inputting a Ground Control Point (GCP) to another drone image based on the matched drone image.SELECTED DRAWING: Figure 2

Description

以下の説明は、ドローン映像を活用した航空地図のアップデート方法およびシステムに関する。 The following description relates to an aerial map update method and system utilizing drone footage.

航空地図とは、航空写真を利用して生成した地図を意味する。航空地図の取得周期は長く(一例として、2年)、道路などの領域に変更が生じた場合にこれを迅速に反映することが難しいという問題があった。 An aerial map means a map generated using an aerial photograph. The acquisition cycle of an aeronautical map is long (for example, two years), and there is a problem that it is difficult to quickly reflect changes in areas such as roads.

このような問題点を解決するために、ドローンが生成した映像を活用する方法もあるが、ドローン映像を活用して既存の地図を生成および/またはアップデートするためには、直接外部に出向いてGCP(Ground Control Point(地上基準点))を測量し、これを利用して地図を製作および/またはアップデートしなければならないという問題があった。 In order to solve these problems, there is a method of using images generated by drones. (Ground Control Points) and have to be used to create and/or update maps.

さらに、測量したGCPとドローン映像とのマッチング作業を手動でしか行うことができないという問題もあった。 Furthermore, there is also the problem that the matching work between the surveyed GCP and the drone image can only be done manually.

韓国登録特許第10-0940118号公報Korean Patent No. 10-0940118

ドローン映像を活用して航空地図を生成および/またはアップデートするにあたり、既存の3次元航空地図をGCPとして活用することにより、航空地図の生成および/またはアップデートのための時間および費用を減らすことができる、アップデート方法およびシステムを提供することを目的とする。 When generating and/or updating an aeronautical map using drone images, it is possible to reduce the time and cost for generating and/or updating an aeronautical map by using an existing 3D aeronautical map as a GCP. , to provide an update method and system.

GCPとして活用される3次元航空地図とドローン映像の自動マッチングを支援することによって人力と時間を節約することができる、アップデート方法およびシステムを提供することを他の目的とする。 Another object of the present invention is to provide an update method and system that can save manpower and time by supporting automatic matching between a 3D aerial map used as GCP and drone images.

少なくとも1つのプロセッサを含むコンピュータ装置のアップデート方法であって、前記少なくとも1つのプロセッサにより、既存の航空地図ベースのDEM(Digital Elevation Model(数値標高モデル))、DSM(Digital Surface Model(数値表層モデル))、およびトゥルーオルソフォト(true-orthophoto)を利用して、予め設定された高さ以上の映像を含むルーフ(roof)トゥルーオルソフォトを生成する段階、前記少なくとも1つのプロセッサにより、ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階、および前記少なくとも1つのプロセッサにより、前記マッチングされたドローン映像を基準に、他のドローン映像にGCP(Ground Control Point)を入力する段階を含むことを特徴とする、アップデート方法を提供する。 A method for updating a computing device comprising at least one processor, said at least one processor updating an existing aerial map-based DEM (Digital Elevation Model), DSM (Digital Surface Model) ), and using the true-orthophoto to generate a roof true-orthophoto containing an image above a preset height; matching roof true orthophotos; and inputting ground control points (GCPs) to another drone image based on the matched drone image by the at least one processor, Provide an update method.

一態様によると、前記ルーフトゥルーオルソフォトを生成する段階は、前記トゥルーオルソフォトから前記DSMと前記DEMの差が予め設定された高さ以上の部分を抽出して前記ルーフトゥルーオルソフォトを生成することを特徴としてよい。 According to one aspect, the step of generating the roof true orthophoto includes extracting a portion where the difference between the DSM and the DEM is equal to or greater than a preset height from the true orthophoto to generate the roof true orthophoto. It can be characterized as

他の態様によると、前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、前記ドローン映像と前記ルーフトゥルーオルソフォトの特徴点マッチングを処理する段階、前記ドローン映像の一部から少なくとも1つのマッチングポイントを選定する段階、および前記選定されたマッチングポイントに対応する前記ルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、前記選定されたマッチングポイントに対する仮想GCPとして選定する段階を含むことを特徴としてよい。 According to another aspect, matching the drone image and the roof true orthophoto includes processing feature point matching of the drone image and the roof true orthophoto, matching at least one from a portion of the drone image. selecting a point; and selecting, as a virtual GCP for the selected matching point, the three-dimensional coordinates of the actual terrain for the location of the roof true orthophoto corresponding to the selected matching point. It can be a feature.

また他の態様によると、前記特徴点マッチングを処理する段階は、R2D2マッチングを利用して、前記ドローン映像の特徴点と前記ルーフトゥルーオルソフォトの特徴点をマッチングすることを特徴としてよい。 According to another aspect, the step of processing feature point matching may include matching feature points of the drone image and feature points of the roof true orthophoto using R2D2 matching.

また他の態様によると、前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、前記ルーフトゥルーオルソフォトでアップデートしようとする範囲に予め設定された長さに基づいてシード(seed)を設定する段階、前記設定されたシードから最も近いルーフトゥルーオルソフォトをロードする段階、前記ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定する段階、および前記再設定されたシードの位置から最も近いドローン映像の一部をロードする段階をさらに含むことを特徴としてよい。 According to another aspect, in matching the drone image and the roof true orthophoto, a seed is set based on a preset length of a range to be updated with the roof true orthophoto. loading a roof true orthophoto closest to the set seed; after extracting feature points from the loaded roof true orthophoto, the position of the set seed is added to the extracted feature points; The method may further include resetting based on the density, and loading a part of the drone image closest to the reset seed position.

また他の態様によると、前記シードを設定する段階は、一辺の長さが前記予め設定された長さである複数の正方形で構成される範囲に対し、前記複数の正方形それぞれに予め設定された数のシードをランダムに設定することを特徴としてよい。 According to yet another aspect, the step of setting the seed includes, for a range composed of a plurality of squares each having a side length of the preset length, a predetermined seed for each of the plurality of squares. It may be characterized by setting a number seed randomly.

また他の態様によると、前記再設定する段階は、前記シードの位置を、前記抽出された特徴点の密集度が最も高い位置に再設定することを特徴としてよい。 According to another aspect, the step of resetting may be characterized by resetting the position of the seed to a position where the density of the extracted feature points is highest.

また他の態様によると、前記他のドローン映像にGCPを入力する段階は、前記マッチングされたドローン映像のポイントに前記ルーフトゥルーオルソフォトのマッチングされたポイントによる3次元座標を仮想GCPとして入力する段階、および前記マッチングされたドローン映像のポイントとマッチングする前記他のドローン映像のポイントに前記仮想GCPを入力する段階を含むことを特徴としてよい。 According to another aspect, the step of inputting GCPs to the other drone image includes inputting 3D coordinates of the matched points of the roof true orthophoto to the points of the matched drone image as virtual GCPs. , and inputting the virtual GCPs to the other drone image points that match the matched drone image points.

また他の態様によると、前記仮想GCPを入力する段階は、デンスマッチング(dense matching)を利用して、前記マッチングされたドローン映像のポイントと前記他のドローン映像のポイントをマッチングすることを特徴としてよい。 According to another aspect, the step of inputting the virtual GCP matches points of the matched drone image with points of the other drone image using dense matching. good.

また他の態様によると、前記アップデート方法は、前記少なくとも1つのプロセッサにより、前記GCPをフィルタリングする段階をさらに含んでよい。 According to yet another aspect, the updating method may further include filtering the GCPs by the at least one processor.

また他の態様によると、前記GCPをフィルタリングする段階は、前記マッチングされたドローン映像のピクセルの位置点に基づいて、前記GCPに対応する映像座標との差が最小となるドローンカメラの内部焦点距離、歪曲係数、前記ドローンカメラの回転情報、および補正されたGCPを決定することを特徴としてよい。 According to another aspect, the step of filtering the GCPs includes: based on the pixel location points of the matched drone image, an internal focal distance of the drone camera that has a minimum difference from the image coordinates corresponding to the GCPs. , distortion coefficients, rotation information of the drone camera, and a corrected GCP.

さらに他の態様によると、前記アップデート方法は、前記少なくとも1つのプロセッサにより、前記フィルタリングされたGCPが入力されたドローン映像に基づいてアップデートされたDSMを生成する段階、および前記少なくとも1つのプロセッサにより、前記アップデートされたDSMに基づいてアップデートされたトゥルーオルソフォトを生成する段階をさらに含んでよい。 According to yet another aspect, the updating method includes, by the at least one processor, generating an updated DSM based on an input drone image of the filtered GCPs; and by the at least one processor, The method may further include generating an updated true orthophoto based on the updated DSM.

前記方法をコンピュータ装置に実行させるためのコンピュータプログラムを提供する。 A computer program is provided for causing a computer device to perform the method.

前記方法をコンピュータ装置に実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。 A computer-readable recording medium is provided in which a program for causing a computer device to execute the method is recorded.

コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、既存の航空地図ベースのDEM(Digital Elevation Model)、DSM(Digital Surface Model)、およびトゥルーオルソフォト(true-ortho photo)を利用して予め設定された高さ以上の映像を含むルーフ(roof)トゥルーオルソフォトを生成し、ドローン映像と前記ルーフトゥルーオルソフォトをマッチングし、前記マッチングされたドローン映像を基準に、他のドローン映像にGCP(Ground Control Point)を入力することを特徴とする、コンピュータ装置を提供する。 at least one processor implemented to execute computer readable instructions, said at least one processor facilitating an existing aerial map-based Digital Elevation Model (DEM), Digital Surface Model (DSM), and True Ortho generating a roof true orthophoto including an image above a preset height using a true-ortho photo, matching the drone image with the roof true orthophoto, and matching the drone Provided is a computer device characterized by inputting a GCP (Ground Control Point) to another drone image based on an image.

ドローン映像を活用して航空地図を生成および/またはアップデートするにあたり、既存の3次元航空地図をGCPとして活用することにより、航空地図の生成および/またはアップデートのための時間および費用を減らすことができる。 When generating and/or updating an aeronautical map using drone images, it is possible to reduce the time and cost for generating and/or updating an aeronautical map by using an existing 3D aeronautical map as a GCP. .

GCPとして活用される3次元航空地図とドローン映像の自動マッチングを支援することにより、人力と時間を節約することができる。 Manpower and time can be saved by supporting automatic matching of 3D aerial maps used as GCP and drone images.

本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。1 is a block diagram illustrating an example of a computing device, in accordance with one embodiment of the present invention; FIG. 本発明の一実施形態における、アップデート方法の例を示したフローチャートである。4 is a flow chart showing an example of an update method in one embodiment of the present invention; 本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトをマッチングする方法の例を示したフローチャートである。1 is a flowchart illustrating an example method for matching drone footage and roof true orthophotos in accordance with one embodiment of the present invention. 本発明の一実施形態における、設定されたシードの例を示した図である。FIG. 4 is a diagram showing an example of set seeds in one embodiment of the present invention; 本発明の一実施形態における、シードの位置を再設定する例を示した図である。FIG. 10 is a diagram illustrating an example of repositioning seeds in one embodiment of the present invention; 本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトのマッチングの例を示した図である。FIG. 4 is a diagram showing an example of matching drone images and roof true orthophotos in an embodiment of the present invention; 本発明の一実施形態における、ドローン映像の座標に対応する3次元座標を選定する例を示した図である。FIG. 4 is a diagram showing an example of selecting 3D coordinates corresponding to coordinates of a drone image in an embodiment of the present invention; 本発明の一実施形態における、サブドローン映像と仮想GCPの連結を設定する例を示した図である。FIG. 10 is a diagram showing an example of setting a connection between a subdrone image and a virtual GCP in one embodiment of the present invention; 本発明の一実施形態における、デンスマッチングによって同一地点をマッチングした例を示した図である。FIG. 5 is a diagram showing an example of matching the same point by dense matching in one embodiment of the present invention; 本発明の一実施形態における、デンスマッチングによって同一地点をマッチングした例を示した図である。FIG. 5 is a diagram showing an example of matching the same point by dense matching in one embodiment of the present invention; 本発明の一実施形態における、加重値を補正する例を示した図である。FIG. 4 is a diagram showing an example of correcting weight values in one embodiment of the present invention; 本発明の一実施形態における、加重値を補正する例を示した図である。FIG. 4 is a diagram showing an example of correcting weight values in one embodiment of the present invention; 本発明の一実施形態における、ドローン映像と航空映像の解像度の差を示した図である。FIG. 4 is a diagram showing the difference in resolution between drone images and aerial images in one embodiment of the present invention; 本発明の一実施形態における、ドローン映像を利用して航空地図をアップデートした例を示した図である。FIG. 4 is a diagram showing an example of updating an aerial map using drone images in one embodiment of the present invention;

以下、実施形態について、添付の図面を参照しながら詳しく説明する。 Embodiments will be described in detail below with reference to the accompanying drawings.

本発明の実施形態に係るアップデートシステムは、少なくとも1つのコンピュータ装置によって実現されてよく、本発明の実施形態に係るアップデート方法は、アップデートシステムを実現する少なくとも1つのコンピュータ装置によって実行されてよい。コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されたコンピュータプログラムの制御にしたがって本発明の実施形態に係るアップデート方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してアップデート方法をコンピュータ装置に実行させるために、コンピュータ読み取り可能な記録媒体に記録されてよい。 The update system according to embodiments of the present invention may be implemented by at least one computer device, and the update method according to embodiments of the present invention may be performed by at least one computer device implementing the update system. A computer program according to an embodiment of the present invention may be installed and executed in a computer device, and the computer device executes an update method according to an embodiment of the present invention under control of the executed computer program. good. The computer program described above may be recorded in a computer-readable recording medium in order to combine with a computer device and cause the computer device to execute the update method.

以下、添付の図面を参照しながら、実施形態について詳しく説明する。各図面に提示された同一の参照符号は、同一の部材を示す。 Embodiments will be described in detail below with reference to the accompanying drawings. Identical reference numerals presented in the drawings indicate identical parts.

図1は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。コンピュータ装置(Computer device)100は、図1に示すように、メモリ(Memory)110、プロセッサ(Processor)120、通信インタフェース(Communication interface)130、および入力/出力(I/O)インタフェース(I/O interface)140を含んでよい。メモリ110は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ110とは区分される別の永続的記録装置としてコンピュータ装置100に含まれてもよい。また、メモリ110には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ110とは別のコンピュータ読み取り可能な記録媒体からメモリ110にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース130を通じてメモリ110にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク(Network)160を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置100のメモリ110にロードされてよい。 FIG. 1 is a block diagram illustrating an example of a computing device in one embodiment of the invention. The computer device 100 includes a memory 110, a processor 120, a communication interface 130, and an input/output (I/O) interface (I/O interface) 140. The memory 110 is a computer-readable storage medium and may include random access memory (RAM), read only memory (ROM), and permanent mass storage devices such as disk drives. Here, a permanent mass storage device such as a ROM or disk drive may be included in computer device 100 as a separate permanent storage device separate from memory 110 . Also stored in memory 110 may be an operating system and at least one program code. Such software components may be loaded into memory 110 from a computer-readable medium separate from memory 110 . Such other computer-readable recording media may include computer-readable recording media such as floppy drives, disks, tapes, DVD/CD-ROM drives, memory cards, and the like. In other embodiments, software components may be loaded into memory 110 through communication interface 130 that is not a computer-readable medium. For example, software components may be loaded into memory 110 of computing device 100 based on computer programs installed by files received over network 160 .

プロセッサ120は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ110または通信インタフェース130によって、プロセッサ120に提供されてよい。例えば、プロセッサ120は、メモリ110のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。 Processor 120 may be configured to process computer program instructions by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processor 120 by memory 110 or communication interface 130 . For example, processor 120 may be configured to execute received instructions according to program code stored in a storage device, such as memory 110 .

通信インタフェース130は、ネットワーク160を介してコンピュータ装置100が他の装置と互いに通信するための機能を提供してよい。一例として、コンピュータ装置100のプロセッサ120がメモリ110のような記録装置に記録されたプログラムコードにしたがって生成した要求や命令、データ、ファイルなどが、通信インタフェース130の制御にしたがってネットワーク160を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク160を介してコンピュータ装置100の通信インタフェース130を通じてコンピュータ装置100に受信されてよい。通信インタフェース130を通じて受信された信号や命令、データなどは、プロセッサ120やメモリ110に伝達されてよく、ファイルなどは、コンピュータ装置100がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。 Communication interface 130 may provide functionality for computer device 100 to communicate with other devices over network 160 . As an example, requests, commands, data, files, etc. generated by processor 120 of computer device 100 in accordance with program code recorded in a recording device such as memory 110 may be sent to others via network 160 under the control of communication interface 130 . device. Conversely, signals, instructions, data, files, etc. from other devices may be received by computing device 100 through communication interface 130 of computing device 100 via network 160 . Signals, instructions, data, etc., received through communication interface 130 may be transmitted to processor 120 and memory 110, and files, etc., may be stored in a recording medium (permanent recording device described above) that computing device 100 may further include. may be recorded.

入力/出力インタフェース140は、入力/出力(I/O)装置150とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマウスなどの装置を、出力装置は、ディスプレイ、スピーカなどのような装置を含んでよい。他の例として、入力/出力インタフェース140は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置150は、コンピュータ装置100と1つの装置で構成されてもよい。 Input/output interface 140 may be a means for interfacing with input/output (I/O) devices 150 . For example, input devices may include devices such as a microphone, keyboard, or mouse, and output devices may include devices such as displays, speakers, and the like. As another example, the input/output interface 140 may be a means for interfacing with a device that integrates functions for input and output, such as a touch screen. Input/output device 150 may be one device with computing device 100 .

また、他の実施形態において、コンピュータシステム100は、図1の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術の構成要素を明確に図に示す必要はない。例えば、コンピュータ装置100は、上述した入力/出力装置150のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。 Also, in other embodiments, computer system 100 may include fewer or more components than the components of FIG. However, most prior art components need not be explicitly shown in the figures. For example, computing device 100 may be implemented to include at least some of the input/output devices 150 described above, and may also include other components such as transceivers, databases, and the like.

図2は、本発明の一実施形態における、アップデート方法の例を示したフローチャートである。本実施形態に係るアップデート方法は、図1を参照しながら説明したコンピュータ装置100によって実行されてよい。このとき、コンピュータ装置100のプロセッサ120は、メモリ110が含むオペレーティングシステムのコードと、少なくとも1つのコンピュータプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ120は、コンピュータ装置100に記録されたコードが提供する制御命令にしたがってコンピュータ装置100が図2の方法に含まれる段階210~260を実行するようにコンピュータ装置100を制御してよい。 FIG. 2 is a flowchart illustrating an example of an update method according to one embodiment of the invention. The update method according to this embodiment may be executed by the computer device 100 described with reference to FIG. At this time, the processor 120 of the computing device 100 may be implemented to execute control instructions according to the operating system code and at least one computer program code contained in the memory 110 . Here, processor 120 may control computing device 100 such that computing device 100 performs steps 210-260 included in the method of FIG. 2 according to control instructions provided by code recorded in computing device 100. .

段階210で、コンピュータ装置100は、既存の航空地図ベースのDEM(Digital Elevation Model(数値標高モデル))、DSM(Digital Surface Model(数値表層モデル))、およびトゥルーオルソフォト(true-orthophoto)を利用して、予め設定された高さ以上の映像を含むルーフ(roof)トゥルーオルソフォトを生成してよい。DEMは、実世界の地形情報のうちから建物、樹木、人工構造物などを除いた地形(bareearth)部分を表現する数値模型であり、DSMは、実世界のすべての情報、言い換えれば、地形、樹木、建物、人工構造物などを表現した模型である。したがって、DSMとDEMの差(DSM-DEM=CHM(Canopy Height Model(キャノピー高さモデル)))が予め設定された値以上の部分は、建物、樹木、人工構造物などに対応することになる。このとき、コンピュータ装置100は、トゥルーオルソフォトにおいてDSMとDEMの差が予め設定された高さ(一例として、17m)以上となる部分だけをトゥルー(true)として抽出することによってルーフトゥルーオルソフォトを生成してよい。 At step 210, the computing device 100 utilizes existing aerial map-based DEMs (Digital Elevation Models), DSMs (Digital Surface Models), and true-orthophotos. to generate a roof true orthophoto containing images above a preset height. A DEM is a numerical model that expresses a bare-earth portion excluding buildings, trees, man-made structures, etc. from real-world terrain information. It is a model that expresses trees, buildings, man-made structures, etc. Therefore, the portion where the difference between DSM and DEM (DSM-DEM=CHM (Canopy Height Model)) is equal to or greater than a preset value corresponds to buildings, trees, man-made structures, etc. . At this time, the computer device 100 extracts the roof true orthophoto by extracting only the portion where the difference between the DSM and the DEM in the true orthophoto is equal to or greater than a preset height (for example, 17 m) as true. may be generated.

段階220で、コンピュータ装置100は、ドローン映像とルーフトゥルーオルソフォトをマッチングしてよい。ここで、ドローン映像とは、ドローンで撮影した映像を意味してよい。マッチングされたポイントはGCP(Ground Control Point(地上基準点))として活用されてよく、DSMトゥルーオルソフォトを利用することで、マッチングされたポイントの3次元座標が分かるようになる。ドローン映像とルーフトゥルーオルソフォトをマッチングする方法については、図3を参照しながらさらに詳しく説明する。 At step 220, the computing device 100 may match the drone image with the roof true orthophoto. Here, the drone image may mean an image captured by a drone. The matched points can be used as GCPs (Ground Control Points), and the 3D coordinates of the matched points can be obtained using DSM true orthophotos. The method of matching drone images and roof true orthophotos will be described in more detail with reference to FIG.

段階230で、コンピュータ装置100は、マッチングされたドローン映像を基準に、他のドローン映像にGCPを入力してよい。ここで、GCPは、実際に測量されたGCOでなく、ドローン映像にマッチングされたルーフトゥルーオルソフォトから得られる3次元座標であってよい。言い換えれば、コンピュータ装置100は、マッチングされたドローン映像をメインとして置きながら、周辺のサブドローン映像と仮想GCPとの連結を設定してよい。GCPを入力する方法については、図8~10を参照しながらさらに詳しく説明する。 In step 230, the computing device 100 may input GCPs to another drone image based on the matched drone image. Here, the GCP may be the 3D coordinates obtained from the roof true orthophoto matched to the drone image, instead of the actually surveyed GCO. In other words, the computer device 100 may set the connection between the peripheral sub-drone images and the virtual GCP while placing the matched drone image as the main image. The method of entering the GCP is described in more detail with reference to FIGS. 8-10.

段階240で、コンピュータ装置100は、GCPをフィルタリングしてよい。航空映像のカメラ内部情報は正確であるが、ドローン映像は低価型カメラを使用することから内部情報が不正確であり、カメラポーズとカメラ内部情報を補正する必要がある。このような補正のために、コンピュータ装置100は、仮想GCPを利用してバンドル調整を実行してよい。バンドル調整については、以下でさらに詳しく説明する。 At step 240, computing device 100 may filter the GCPs. The information inside the camera of the aerial image is accurate, but the information inside the camera is inaccurate because the drone image uses a low-cost camera, so it is necessary to correct the camera pose and the information inside the camera. For such correction, computing device 100 may utilize virtual GCPs to perform bundle adjustments. Bundle adjustment is described in more detail below.

段階250で、コンピュータ装置100は、フィルタリングされたGCPが入力されたドローン映像に基づいてアップデートされたDSMを生成してよい。このとき、映像のソースが航空映像からドローン映像に変わることで発生するイシューが修正されてよい。 At step 250, the computing device 100 may generate an updated DSM based on the filtered GCP input drone image. At this time, an issue caused by changing the source of the image from the aerial image to the drone image may be corrected.

段階260で、コンピュータ装置100は、アップデートされたDSMに基づいてアップデートされたトゥルーオルソフォトを生成してよい。この過程は、航空地図の生成のためのプロセスにおいて周知の事項であるため、具体的な説明は省略する。 At step 260, computing device 100 may generate an updated true orthophoto based on the updated DSM. Since this process is a well-known matter in the process for creating an aeronautical map, a detailed description thereof will be omitted.

図3は、本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトをマッチングする方法の例を示したフローチャートである。図3の段階310~370は図2の段階220に含まれてよく、コンピュータ装置100によって実行されてよい。 FIG. 3 is a flowchart illustrating an example method for matching drone images and roof true orthophotos in accordance with one embodiment of the present invention. Steps 310 - 370 of FIG. 3 may be included in step 220 of FIG. 2 and may be performed by computing device 100 .

段階310で、コンピュータ装置100は、ルーフトゥルーオルソフォトでアップデートしようとする範囲(Region Of Interest(関心領域):ROI)に予め設定された長さに基づいてシード(seed)を設定してよい。シードとは以後にGCP位置になるポイントであり、予め設定された長さは、一例として120mであってよい。ここで、予め設定された長さはシードの間隔となってよく、予め設定された数のシードが設定される領域を示す長さであってよい。 In step 310, the computing device 100 may set a seed based on a preset length of a region (Region Of Interest: ROI) to be updated with the roof true orthophoto. A seed is a point that will later become a GCP location, and the preset length may be 120 m as an example. Here, the preset length may be an interval between seeds, or may be a length indicating an area in which a preset number of seeds are set.

図4は、本発明の一実施形態における、設定されたシードの例を示した図である。図4は、ルーフトゥルーオルソフォト410の特定の範囲に、一辺の長さが予め設定された長さ(一例として、120m)に設定された正方形420が表示された例を示している。このとき、コンピュータ装置100は、このような正方形420にm(図4の実施形態においてm=5)個のシードを設定してよい。1つのルーフトゥルーオルソフォト410には複数の正方形がランダムに設定されてよく、各正方形にm個のシードがランダムに設定されてよい。 FIG. 4 is a diagram showing an example of set seeds in one embodiment of the present invention. FIG. 4 shows an example in which a square 420 whose side length is set to a preset length (eg, 120 m) is displayed in a specific range of the roof true orthophoto 410 . At this time, the computing device 100 may set m (m=5 in the embodiment of FIG. 4) seeds in such a square 420 . A plurality of squares may be randomly set in one roof true orthophoto 410, and m seeds may be randomly set for each square.

このような図4の実施形態は、GCPを均一に選定して正確度を確保するための一方式に過ぎず、シード設定方法が図4の実施形態に限定されることはない。一例として、ルーフトゥルーオルソフォト410内のアップデートしようとする範囲で、予め設定された長さの間隔で均一にシードを設定してもよい。 The embodiment of FIG. 4 is only one method for uniformly selecting GCPs to ensure accuracy, and the seed setting method is not limited to the embodiment of FIG. As an example, within the roof true orthophoto 410 to be updated, the seeds may be set uniformly at intervals of a preset length.

図3を再び参照すると、段階320で、コンピュータ装置100は、各シードから最も近いルーフトゥルーオルソフォトをロードしてよい。このとき、各シードから最も近いルーフトゥルーオルソフォトとは、ルーフトゥルーオルソフォトのうちで該当のシードを含む映像の一部であってよい。 Referring again to FIG. 3, at step 320, computing device 100 may load the closest roof true orthophoto from each seed. At this time, the roof true orthophoto closest to each seed may be a part of the image including the seed among the roof true orthophotos.

段階330で、コンピュータ装置100は、ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、設定されたシードの位置を抽出された特徴点の密集度に基づいて再設定してよい。一定の間隔でシードを設定するため、シードの位置がルーフにないことがある。これにより、コンピュータ装置100は、シードの位置を該当のシードから最も近いルーフトゥルーオルソフォトの特徴点が密集した位置に移動させて、シードの位置を再設定してよい。 At step 330, after extracting the feature points from the loaded roof true orthophoto, the computing device 100 may reset the positions of the set seeds based on the density of the extracted feature points. Since the seeds are set at regular intervals, the seed positions may not be on the roof. Accordingly, the computer device 100 may reset the seed position by moving the position of the seed to a position where feature points of the roof true orthophoto closest to the seed are concentrated.

図5は、本発明の一実施形態における、シードの位置を再設定する例を示した図である。図5は、ルーフトゥルーオルソフォト510でシード520がルーフ上にない場合、最も近いルーフ530において特徴点が密集した位置にシード520の位置を再設定する例を示している。一例として、コンピュータ装置100は、シード520の位置から最も近いルーフ530の特徴点を抽出した後、特徴点の密度が最も高い位置にシード520の位置を再設定してよい。 FIG. 5 is a diagram showing an example of resetting seed positions in one embodiment of the present invention. FIG. 5 shows an example of repositioning the seed 520 to the feature point dense position on the nearest roof 530 when the seed 520 is not on the roof in the roof true orthophoto 510 . As an example, the computing device 100 may extract the feature points of the roof 530 that are closest to the position of the seed 520 and then reset the position of the seed 520 to the position with the highest density of feature points.

図3を再び参照すると、段階340で、コンピュータ装置100は、再設定されたシードの位置から最も近いドローン映像の一部をロードしてよい。ドローン映像の一部とは、該当のドローン映像から切り取られた一部のピース映像を意味してよい。 Referring again to FIG. 3, at step 340, the computing device 100 may load a portion of the drone image closest to the reset seed location. A portion of the drone image may mean a partial piece image cut from the corresponding drone image.

段階350で、コンピュータ装置100は、ロードされたドローン映像の一部とルーフトゥルーオルソフォトの特徴点マッチングを処理してよい。一例として、コンピュータ装置100は、R2D2(Repeatable and Reliable Detector and Descriptor)マッチングにより、ロードされたドローン映像の一部とルーフトゥルーオルソフォトのポイント(特徴点)をマッチングしてよい。ポイントのマッチングは、R2D2の他にも、SIFT(Scale-Invariant Feature Transform)、HardNet、LogPolarDescなどの周知のイメージマッチング技術のうちの1つが活用されてもよい。ただし、R2D2は、視空間解像度が異なる2つの映像のマッチングの性能を高めるために学習されたマッチング技法であることから、トゥルーオルソフォトとドローン映像の映像の取得時間と空間解像度の差を考慮するとき、R2D2を利用してポイントのマッチングを処理することが好ましい。このとき、コンピュータ装置100は、n(一例として、nは100)個のポイントをマッチングしてよい。 At step 350, the computing device 100 may process feature point matching of the loaded portion of the drone image and the roof true orthophoto. As an example, the computing device 100 may match a portion of the loaded drone image and points (feature points) of the roof true orthophoto by R2D2 (Repeatable and Reliable Detector and Descriptor) matching. In addition to R2D2, point matching may utilize one of well-known image matching techniques such as SIFT (Scale-Invariant Feature Transform), HardNet, LogPolarDesc, and the like. However, since R2D2 is a matching technique trained to improve the performance of matching two images with different visuospatial resolutions, it considers the difference in acquisition time and spatial resolution between true orthophotos and drone images. Sometimes it is preferable to handle point matching using R2D2. At this time, the computer device 100 may match n (n is 100, for example) points.

段階360で、コンピュータ装置100は、ドローン映像の一部から少なくとも1つのマッチングポイントを選定してよい。一例として、コンピュータ装置100は、マッチングされた複数のポイントのうちで最も適切にマッチングがなれたポイントを選定してよい。一例として、特徴点マッチングを実行するときに、コンピュータ装置100は、2つの映像で特徴点周辺のピクセル値が最も類似する特徴点のマッチングを実行してよい。このような特徴点周辺のピクセル値の類似度をディスタンス(distance)と呼ぶが、ディスタンスの値が大きいほど類似度は低く、ディスタンスの値が小さいほど類似度は高いと判断されてよい。したがって、コンピュータ装置100は、マッチングされた点のうちでディスタンスの値が最も小さいマッチングポイントを、最も適切にマッチングがなされたポイントとして選定してよい。 At step 360, computing device 100 may select at least one matching point from the portion of the drone image. As an example, the computer device 100 may select the most appropriately matched point among the plurality of matched points. As an example, when performing feature point matching, the computing device 100 may perform matching of feature points having the most similar pixel values around the feature points in the two images. The similarity of pixel values around such a feature point is called a distance, and it may be determined that the larger the distance value, the lower the similarity, and the smaller the distance value, the higher the similarity. Therefore, the computer device 100 may select the matching point with the smallest distance value among the matched points as the most appropriately matched point.

図6は、本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトのマッチングの例を示した図である。図6は、ドローン映像610とルーフトゥルーオルソフォト620の対応するポイントを連結した例を示している。このとき、図6は、複数のポイントのうちで最も適切にマッチングがなされたポイントを連結する線630を他の線よりも太く示している。このとき、線630によって連結されたポイント640、650が選定されてよい。図6では、マッチングされるポイントを簡略化して説明したが、上述したように、コンピュータ装置100は、n個のポイントをマッチングした後、マッチングされたn個のポイントのうちから最も適切にマッチングがなされたポイントを選定してよい。ここで、n個のポイントをマッチングするということは、ドローン映像610を基準にn個のポイントをルーフトゥルーオルソフォト620のn個のポイントとマッチングすることを意味してよい。 FIG. 6 is a diagram showing an example of matching drone images and roof true orthophotos in one embodiment of the present invention. FIG. 6 shows an example of connecting corresponding points in a drone image 610 and a roof true orthophoto 620 . At this time, in FIG. 6, the line 630 connecting the most appropriately matched points among the plurality of points is shown thicker than the other lines. At this point, points 640, 650 connected by line 630 may be selected. FIG. 6 simplifies the description of the points to be matched, but as described above, after matching the n points, the computer apparatus 100 selects the most appropriate matching point from among the n matched points. You may choose the point made. Here, matching n points may mean matching n points based on the drone image 610 with n points of the roof true orthophoto 620 .

図3を再び参照すると、段階370で、コンピュータ装置100は、選定されたマッチングポイントに対応するルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、選定されたマッチングポイントに対する仮想GCPとして選定してよい。このように、コンピュータ装置100は、既存の航空地図から得られるルーフトゥルーオルソフォトにおいて、ドローン映像の特定の座標(x、y)に対し、実際に測量したものと同じ地形の3次元座標(X、Y、Z)を取得することができる。 Referring again to FIG. 3, at step 370, computing device 100 selects the three-dimensional coordinates of the actual terrain for the position of the roof true orthophoto corresponding to the selected matching point as the virtual GCP for the selected matching point. You can In this way, in the roof true orthophoto obtained from the existing aerial map, the computer device 100 can determine the three-dimensional coordinates (X , Y, Z) can be obtained.

図7は、本発明の一実施形態における、ドローン映像の座標に対応する3次元座標を選定する例を示した図である。図7は、ドローン映像610のポイントの映像位置(x、y)とルーフトゥルーオルソフォト620のマッチングされたポイントに対応する実際の地形の3次元座標(X、Y、Z)を仮想GCPとして選定してよい。ここで、ルーフトゥルーオルソフォト620のマッチングされたポイントに対応する実際の地形の3次元座標(X、Y、Z)は、DSMによって得られてよい。より具体的に、XとYはトゥルーオルソフォトから得られてよく、DSMがピルセルごとに高さ値を含んでいるため、トゥルーオルソフォトに対応するDSMの位置から高さ値を抽出することでZが得られてよい。 FIG. 7 is a diagram illustrating an example of selecting 3D coordinates corresponding to coordinates of a drone image in an embodiment of the present invention. FIG. 7 selects the image position (x, y) of the point of the drone image 610 and the three-dimensional coordinates (X, Y, Z) of the real terrain corresponding to the matched point of the roof true orthophoto 620 as the virtual GCP. You can Here, the three-dimensional coordinates (X, Y, Z) of the real terrain corresponding to the matched points of the roof true orthophoto 620 may be obtained by the DSM. More specifically, X and Y may be obtained from the true orthophoto, and since the DSM contains height values for each pill cell, we can extract the height values from the DSM locations corresponding to the true orthophoto. Z may be obtained.

図2を再び参照すると、段階230で、コンピュータ装置100は、マッチングされたドローン映像を基準に他のドローン映像にGCPを入力するため、マッチングされたドローン映像を基準に、周辺のサブドローン映像と仮想GCPの連結を設定してよい。 Referring back to FIG. 2 , in step 230 , the computer device 100 inputs GCPs to other drone images based on the matched drone image, so that the computer device 100 inputs peripheral sub-drone images and virtual images based on the matched drone image. Concatenation of GCPs may be set.

図8は、本発明の一実施形態における、サブドローン映像と仮想GCPの連結を設定する例を示した図である。図8は、メインドローン映像810とルーフトゥルーオルソフォト820でマッチングされたポイントに基づいて、メインドローン映像810周辺のサブドローン映像830それぞれに対してもポイントをマッチングすることにより、サブドローン映像の映像位置(x、y)と仮想GCPの3次元座標(X、Y、Z)を連結した様子を示している。一例として、コンピュータ装置100は、メインドローン映像810がルーフトゥルーオルソフォト820の仮想GCPと連結した地点と同一のサブドローン映像830それぞれの地点をマッチングすることで、サブドローン映像830それぞれの地点に対して仮想GCPを連結してよい。言い換えれば、コンピュータ装置100は、ルーフトゥルーオルソフォト820にマッチングされたメインドローン映像810のポイントにルーフトゥルーオルソフォト820のマッチングされたポイントによる3次元座標を仮想GCPとして入力してよく、マッチングされたメインドローン映像810のポイントとマッチングする他のサブドローン映像830それぞれのポイントに仮想GCPを入力してよい。このとき、メインドローン映像810とサブドローン映像830それぞれの同一地点は、デンスマッチング(dense matching)によってマッチングされてよい。 FIG. 8 is a diagram showing an example of setting a connection between a subdrone image and a virtual GCP in one embodiment of the present invention. FIG. 8 shows the image positions of the sub-drone images ( x, y) and three-dimensional coordinates (X, Y, Z) of the virtual GCP are shown. As an example, the computer device 100 may match the points of the sub-drone images 830 that are the same as the points where the main drone image 810 is connected to the virtual GCP of the roof true orthophoto 820, thereby matching the points of the sub-drone images 830 with virtual GCPs may be linked. In other words, the computing device 100 may input the three-dimensional coordinates of the matched points of the roof true orthophoto 820 to the points of the main drone image 810 that are matched to the roof true orthophoto 820 as virtual GCPs. A virtual GCP may be input to each of the other sub-drone image 830 points that match the main drone image 810 point. At this time, the same points of the main drone image 810 and the sub drone image 830 may be matched by dense matching.

図9および図10は、本発明の一実施形態における、デンスマッチングによって同一地点をマッチングした例を示している。図9は、デンスマッチングを利用してメインドローン映像910とサブドローン映像920の同一地点をマッチングする過程の例を示しており、図10は、デンスマッチングを利用してメインイメージ(Main image)1010とサブイメージ(Sub images)1020、1030の同一地点をマッチングした例を示している。ここで、メインイメージ1010はメインドローンイメージに対応してよく、サブイメージ1020、1030はサブドローンイメージに対応してよい。 9 and 10 show an example of matching the same point by dense matching in one embodiment of the present invention. FIG. 9 shows an example of a process of matching the same point of a main drone image 910 and a sub-drone image 920 using dense matching, and FIG. An example of matching the same point of sub images 1020 and 1030 is shown. Here, the main image 1010 may correspond to the main drone image, and the sub-images 1020, 1030 may correspond to the sub-drone images.

図2を再び参照すると、段階240で、コンピュータ装置200は、GCPをフィルタリングするためにバンドル調整を処理してよい。このとき、段階210~230を実行することで、GCPがドローンイメージに自動で入力されてよい。したがって、人間が実際に外部に出向いてGCPを測量する必要がなくなり、測量されたGCPをドローンイメージと手動でマッチングする必要がなくなるため、費用と時間を減らすことができる。 Referring again to FIG. 2, at step 240, computing device 200 may process the bundle adjustment to filter the GCPs. At this time, the GCPs may be automatically entered into the drone image by performing steps 210-230. Therefore, there is no need for a human to actually go out to survey the GCP, and there is no need to manually match the surveyed GCP with the drone image, thereby reducing costs and time.

ただし、測量されたGCP(正確度2~3cm)に比べて自動入力された仮想GCP(正確度8~15cm)は正確度が下がるため、複数のフィルタリングが適用されてよい。ドローン映像は航空映像に比べて初期値が不正確であるため、コンピュータ装置100は、GCPを補正するために7-parametersを処理してよい。7-parametersは、剛体変換(Rigid Transformation)という同一の2つのモデルのスケール、回転、移動を調整して同じように合わせる技法である。本実施形態では、航空地図から抽出したGCP(X、Y、Z)とドローン映像でマッチングされたGCPを三角測量(Triangulation)することで3次元座標(X、Y、Z)を得るが、GCPと3次元座標が同一の位置でなければならない。しかし、ドローン映像は低価型GPSを使用するため、3次元座標はGCPとは異なる位置を示すことがある。このとき、7-parameters処理によって3次元座標がGCP位置に合うようにスケール、回転、移動を計算し、その媒介変数を(スケール、回転、移動)ドローン映像に適用および変換することにより、実際の地形と類似する当時撮影されたドローンの位置を推定することができる。コンピュータ装置100は、7-parametersを処理しながら、仮想GCPの3次元座標でX、Y、Zそれぞれに対する評価を加重値によって考慮してよい。一例として、コンピュータ装置100は、加重値を補正して自己校正(self-calibration)を実行してよい。このとき、コンピュータ装置100は、映像のサイド(side)側により強い加重値を置き、特徴点の密集度から離れるほど強い加重値を与えてよい。 However, since the automatically input virtual GCP (accuracy 8-15 cm) is less accurate than the surveyed GCP (accuracy 2-3 cm), multiple filtering may be applied. Since drone images have less accurate initial values than aerial images, the computing device 100 may process the 7-parameters to correct the GCP. 7-parameters is a technique called Rigid Transformation, which adjusts the scale, rotation, and translation of two identical models to fit them in the same way. In the present embodiment, three-dimensional coordinates (X, Y, Z) are obtained by triangulating GCPs (X, Y, Z) extracted from an aerial map and GCPs matched with drone images. and three-dimensional coordinates must be at the same position. However, because drone footage uses low-cost GPS, the 3D coordinates may indicate a different location than the GCP. At this time, scale, rotation, and movement are calculated so that the 3D coordinates match the GCP position by 7-parameters processing. It is possible to estimate the position of the drone photographed at the time similar to the terrain. While processing the 7-parameters, the computing device 100 may consider the evaluation for each of X, Y, and Z in the three-dimensional coordinates of the virtual GCP with weighted values. As an example, computing device 100 may correct the weight values to perform self-calibration. At this time, the computing device 100 may place a stronger weight on the side of the image, and give a stronger weight on the farther from the density of the feature points.

図11および図12は、本発明の一実施形態における、加重値を補正する例を示した図である。図11は、映像のサイド側に位置する地点であるほど共分散(covariance)が減少することを示している。自己校正をするときには映像の歪曲(distortion)を補正することが核心となるが、通常、映像の歪曲は、映像の終端部分で起こる。したがって、映像の終端部分にあるポイントに共分散(covariance)を少なく置いて歪曲を補正するときにより多くの影響を受けるようにすることにより、歪曲をより正確に補正することができる。 11 and 12 are diagrams showing an example of correcting weight values in one embodiment of the present invention. FIG. 11 shows that covariance decreases as points are located on the side of the image. When self-calibrating, the key is to correct for image distortion, which usually occurs at the end of the image. Therefore, the distortion can be corrected more accurately by placing less covariance on the points at the end of the image so that they are more affected when correcting the distortion.

図12は、特徴点の密集度が減少する地点であるほど加重値(weight)が増加することを示している。 FIG. 12 shows that the weight increases as the density of feature points decreases.

以下の数式(1)は、バンドル調整の基本数式の例を示している。 Equation (1) below shows an example of a basic equation for bundle adjustment.

Figure 2022158951000002
ここで、xgcpはドローン映像のピクセルの位置点を示してよく、Kはドローンカメラの内部焦点距離および歪曲係数を含む情報を含んでよく、Rはドローンカメラの回転情報を、Gは3次元座標(GCP)に対応する映像座標を示してよい。ρは損失関数(loss function)を、eは費用関数(cost function)を、Pはプロジェクション関数(projection function)を、Wgcpは加重値をそれぞれ示してよい。Gは外部に出向いて直接測量したデータではないため、正確度で8~15cmの差が生じることがある。これにより、GCPを完全なトゥルー(true)として置かず、多少の調整が可能な未知数として置いて方程式を解くようになる。言い換えれば、Gは初めに得られたGCPであってよく、
Figure 2022158951000002
Here, xgcp may indicate the pixel position point of the drone image, K may contain information including the internal focal length and distortion coefficient of the drone camera, R the rotation information of the drone camera, and G the three-dimensional coordinates. The image coordinates corresponding to (GCP) may be indicated. ρ may denote a loss function, e a cost function, P a projection function, and Wgcp a weighted value. Since G is not directly surveyed by going to the outside, there may be a difference of 8 to 15 cm in accuracy. This leads to solving the equations without putting the GCP as a perfect true, but as an unknown that can be adjusted somewhat. In other words, G may be the originally obtained GCP,

Figure 2022158951000003
は推定されたGCPであってよい。推定されたGCPと初めに得られたGCPの差が極端に開かないようにするために加重値(Wgcp)を置いて推定してよい。このように、ピクセルの位置点xgcpは事前マッチングによって既に決定されているため、コンピュータ装置100は、ピクセルの位置点xgcpを利用してGCPに対応する映像座標との差が最小となるR、Kを決定してよい。追加的に、コンピュータ装置100は、推定された(または、補正されたGCPである)
Figure 2022158951000003
may be the estimated GCP. A weighted value (Wgcp) may be placed in the estimation so that the difference between the estimated GCP and the initially obtained GCP does not become too large. In this way, since the pixel location point xgcp has already been determined by pre-matching, the computer device 100 uses the pixel location point xgcp to determine the R, K coordinates that minimize the difference from the image coordinates corresponding to the GCPs. may be determined. Additionally, the computing device 100 is the estimated (or corrected GCP)

Figure 2022158951000004
を決定してよい。言い換えれば、コンピュータ装置100は、マッチングされたドローン映像のピクセルの位置点に基づいて、GCPに対応する映像座標との差が最小となるドローンカメラの内部焦点距離、歪曲係数、ドローンカメラの回転情報、および補正されたGCPを決定してよい。
Figure 2022158951000004
may be determined. In other words, the computer device 100 obtains the internal focal length of the drone camera, the distortion coefficient, and the rotation information of the drone camera that minimizes the difference from the image coordinates corresponding to the GCP based on the pixel position points of the matched drone image. , and a corrected GCP may be determined.

一方、損失関数は、以下の数式(2)のように示されてよい。 On the other hand, the loss function may be expressed as Equation (2) below.

Figure 2022158951000005
ここで、rはエラーを、δは予め設定された閾値をそれぞれ示してよい。また、c’は数式(3)のように、s’は数式(4)のように表現されてよい。
Figure 2022158951000005
Here, r may indicate an error, and δ may indicate a preset threshold. Also, c' may be expressed as in Equation (3), and s' may be expressed as in Equation (4).

Figure 2022158951000006
Figure 2022158951000006

数式(2)は、エラーが予め設定された閾値未満の場合に加重値を一定の値に固定するために活用されてよい。 Equation (2) may be used to fix the weighted value to a constant value when the error is less than a preset threshold.

このように、コンピュータ装置100で仮想GCPをフィルタリングすることにより、ある程度の異常値(outlier)があったとしても、既存の航空地図にドローン映像を適切にマッピングすることができる。 By filtering the virtual GCPs in the computing device 100 in this way, even if there are some outliers, the drone image can be properly mapped on the existing aerial map.

図13は、本発明の一実施形態における、ドローン映像と航空映像の解像度の差を示した図であり、図14は、本発明の一実施形態における、ドローン映像を利用して航空地図をアップデートした例を示した図である。 FIG. 13 is a diagram showing the difference in resolution between the drone image and the aerial image in one embodiment of the present invention, and FIG. 14 is a diagram showing the update of the aerial map using the drone image in one embodiment of the present invention. It is the figure which showed the example which carried out.

図13では、ドローン映像(Drone)1310の解像度が航空映像(Aerial)1320よりも高いことを示しており、図14では、解像度が相対的により高いドローン映像を利用して航空地図をアップデートすることによって、ドローン映像を利用してアップデートされた航空地図の領域の解像度が増加した例を示している。 FIG. 13 shows that the drone image (Drone) 1310 has a higher resolution than the aerial image (Aerial) 1320, and FIG. 14 shows that the drone image with relatively higher resolution is used to update the aerial map. shows an example of increased resolution of an area of an aerial map updated using drone footage.

このように、本発明の実施形態によると、ドローン映像を活用して航空地図を生成および/またはアップデートするにあたり、既存の3次元航空地図をGCPとして活用することにより、航空地図の生成および/またはアップデートのための時間および費用を減らすことができる。また、GCPとして活用される3次元航空地図とドローン映像の自動マッチングを支援することにより、人力と時間を節約することができる。 Thus, according to the embodiment of the present invention, when generating and/or updating an aeronautical map using drone images, an existing three-dimensional aeronautical map is used as a GCP to generate and/or update an aeronautical map. Time and cost for updates can be reduced. In addition, manpower and time can be saved by supporting automatic matching of 3D aerial maps used as GCP and drone images.

上述したシステムまたは装置は、ハードウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The systems or devices described above may be realized by hardware components or a combination of hardware and software components. For example, the devices and components described in the embodiments may include, for example, processors, controllers, ALUs (arithmetic logic units), digital signal processors, microcomputers, FPGAs (field programmable gate arrays), PLUs (programmable logic units), microcontrollers, It may be implemented using one or more general purpose or special purpose computers, such as a processor or various devices capable of executing instructions and responding to instructions. The processing unit may run an operating system (OS) and one or more software applications that run on the OS. The processor may also access, record, manipulate, process, and generate data in response to executing software. For convenience of understanding, one processing device may be described as being used, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. You will understand. For example, a processing unit may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。 Software may include computer programs, code, instructions, or a combination of one or more of these, to configure a processor to operate at its discretion or to independently or collectively instruct a processor. You can Software and/or data may be embodied in any kind of machine, component, physical device, virtual device, computer storage medium or device for interpretation on or for providing instructions or data to a processing device. may be changed. The software may be stored and executed in a distributed fashion over computer systems linked by a network. Software and data may be recorded on one or more computer-readable recording media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含んでよい。媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。 The method according to the embodiments may be embodied in the form of program instructions executable by various computer means and recorded on a computer-readable medium. The computer-readable media may include program instructions, data files, data structures, etc. singly or in combination. The medium may be a continuous recording of the computer-executable program or a temporary recording for execution or download. In addition, the medium may be various recording means or storage means in the form of a combination of single or multiple hardware, and is not limited to a medium that is directly connected to a computer system, but is distributed over a network. It may exist in Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc., and may be configured to store program instructions. Other examples of media include recording media or storage media managed by application stores that distribute applications, sites that supply or distribute various software, and servers. Examples of program instructions include high-level language code that is executed by a computer, such as using an interpreter, as well as machine language code, such as that generated by a compiler.

以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。 As described above, the embodiments have been described based on the limited embodiments and drawings, but those skilled in the art will be able to make various modifications and variations based on the above description. For example, the techniques described may be performed in a different order than in the manner described and/or components such as systems, structures, devices, circuits, etc. described may be performed in a manner different from the manner described. Appropriate results may be achieved when combined or combined, opposed or substituted by other elements or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Accordingly, different embodiments that are equivalent to the claims should still fall within the scope of the appended claims.

100:コンピュータ装置
110:メモリ
120:プロセッサ
130:通信インタフェース
140:入力/出力インタフェース
150:入力/出力装置
160:ネットワーク
100: Computer Device 110: Memory 120: Processor 130: Communication Interface 140: Input/Output Interface 150: Input/Output Device 160: Network

Claims (20)

少なくとも1つのプロセッサを含むコンピュータ装置のアップデート方法であって、
前記少なくとも1つのプロセッサにより、既存の航空地図ベースのDEM、DSM、およびトゥルーオルソフォトを利用して、予め設定された高さ以上の映像を含むルーフトゥルーオルソフォトを生成する段階、
前記少なくとも1つのプロセッサにより、ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階、および
前記少なくとも1つのプロセッサにより、前記マッチングされたドローン映像を基準に、他のドローン映像にGCPを入力する段階
を含むことを特徴とする、アップデート方法。
A method of updating a computing device comprising at least one processor, comprising:
generating, by the at least one processor, a roof true orthophoto containing images above a preset height using existing aerial map-based DEMs, DSMs, and true orthophotos;
matching the drone image with the roof true orthophoto by the at least one processor; and inputting GCPs to other drone images based on the matched drone image by the at least one processor. An update method characterized by:
前記ルーフトゥルーオルソフォトを生成する段階は、
前記トゥルーオルソフォトから前記DSMと前記DEMの差が予め設定された高さ以上の部分を抽出して前記ルーフトゥルーオルソフォトを生成することを特徴とする、請求項1に記載のアップデート方法。
Generating the roof true orthophoto comprises:
2. The update method according to claim 1, wherein the roof true orthophoto is generated by extracting from the true orthophoto a portion where the difference between the DSM and the DEM is equal to or greater than a preset height.
前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、
前記ドローン映像と前記ルーフトゥルーオルソフォトの特徴点マッチングを処理する段階、
前記ドローン映像の一部から少なくとも1つのマッチングポイントを選定する段階、および
前記選定されたマッチングポイントに対応する前記ルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、前記選定されたマッチングポイントに対する仮想GCPとして選定する段階
を含むことを特徴とする、請求項1または2に記載のアップデート方法。
The step of matching the drone image and the roof true orthophoto includes:
processing feature point matching between the drone image and the roof true orthophoto;
selecting at least one matching point from a portion of said drone image; and 3D coordinates of actual terrain relative to a position of said roof true orthophoto corresponding to said selected matching point. 3. The update method according to claim 1 or 2, comprising the step of selecting as a virtual GCP for .
前記特徴点マッチングを処理する段階は、
R2D2マッチングを利用して、前記ドローン映像の特徴点と前記ルーフトゥルーオルソフォトの特徴点をマッチングすることを特徴とする、請求項3に記載のアップデート方法。
Processing the feature point matching includes:
4. The update method of claim 3, wherein the feature points of the drone image and the feature points of the roof true orthophoto are matched using R2D2 matching.
前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、
前記ルーフトゥルーオルソフォトでアップデートしようとする範囲に予め設定された長さに基づいてシードを設定する段階、
前記設定されたシードから最も近いルーフトゥルーオルソフォトをロードする段階、
前記ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定する段階、および
前記再設定されたシードの位置から最も近いドローン映像の一部をロードする段階
をさらに含むことを特徴とする、請求項3に記載のアップデート方法。
The step of matching the drone image and the roof true orthophoto includes:
setting a seed based on a preset length of the range to be updated with the roof true orthophoto;
loading the closest roof true orthophoto from the set seed;
After extracting feature points from the loaded roof true orthophoto, resetting the set seed positions based on the density of the extracted feature points; and resetting the seed positions. 4. The update method of claim 3, further comprising: loading a portion of the drone image closest to the .
前記シードを設定する段階は、
一辺の長さが前記予め設定された長さである複数の正方形で構成される範囲に対し、前記複数の正方形それぞれに予め設定された数のシードをランダムに設定することを特徴とする、請求項5に記載のアップデート方法。
Setting the seed comprises:
A preset number of seeds are randomly set for each of the plurality of squares in a range composed of a plurality of squares having a side length of the preset length. The update method according to Item 5.
前記再設定する段階は、
前記シードの位置を前記抽出された特徴点の密集度が最も高い位置に再設定することを特徴とする、請求項5に記載のアップデート方法。
The resetting step includes:
6. The update method according to claim 5, wherein the position of the seed is reset to a position where the density of the extracted feature points is highest.
前記他のドローン映像にGCPを入力する段階は、
前記マッチングされたドローン映像のポイントに前記ルーフトゥルーオルソフォトのマッチングされたポイントによる3次元座標を仮想GCPとして入力する段階、および
前記マッチングされたドローン映像のポイントとマッチングする前記他のドローン映像のポイントに前記仮想GCPを入力する段階
を含むことを特徴とする、請求項1~7のうちのいずれか一項に記載のアップデート方法。
The step of inputting GCPs to the another drone image includes:
inputting the 3D coordinates of the matched point of the roof true orthophoto to the matched drone image point as a virtual GCP; and the other drone image point matching the matched drone image point. The update method according to any one of claims 1 to 7, characterized in that it comprises the step of inputting the virtual GCPs into the .
前記仮想GCPを入力する段階は、
デンスマッチングを利用して、前記マッチングされたドローン映像のポイントと前記他のドローン映像のポイントをマッチングすることを特徴とする、請求項8に記載のアップデート方法。
The step of inputting the virtual GCPs includes:
The update method of claim 8, wherein the matched drone image points and the other drone image points are matched using dense matching.
前記少なくとも1つのプロセッサにより、前記GCPをフィルタリングする段階
をさらに含む、請求項1~9のうちのいずれか一項に記載のアップデート方法。
The updating method according to any one of claims 1 to 9, further comprising: filtering said GCPs by said at least one processor.
前記GCPをフィルタリングする段階は、
前記マッチングされたドローン映像のピクセルの位置点に基づいて、前記GCPに対応する映像座標との差が最小となるドローンカメラの内部焦点距離、歪曲係数、前記ドローンカメラの回転情報、および補正されたGCPを決定することを特徴とする、請求項10に記載のアップデート方法。
Filtering the GCPs comprises:
Based on the pixel position point of the matched drone image, the internal focal length of the drone camera that minimizes the difference from the image coordinates corresponding to the GCP, the distortion coefficient, the rotation information of the drone camera, and the corrected 11. The updating method according to claim 10, characterized in that GCPs are determined.
前記少なくとも1つのプロセッサにより、前記フィルタリングされたGCPが入力されたドローン映像に基づいてアップデートされたDSMを生成する段階、および
前記少なくとも1つのプロセッサにより、前記アップデートされたDSMに基づいてアップデートされたトゥルーオルソフォトを生成する段階
をさらに含む、請求項10に記載のアップデート方法。
generating, by the at least one processor, an updated DSM based on an input drone image of the filtered GCPs; and updating true, by the at least one processor, based on the updated DSM. 11. The updating method of claim 10, further comprising: generating an orthophoto.
請求項1~12のうちのいずれか一項に記載の方法をコンピュータ装置に実行させるためのコンピュータプログラム。 A computer program for causing a computer device to perform the method according to any one of claims 1-12. 請求項1~12のうちのいずれか一項に記載の方法をコンピュータ装置に実行させるためのコンピュータプログラムが記録されている、コンピュータ読み取り可能な記録媒体。 A computer-readable recording medium recording a computer program for causing a computer device to execute the method according to any one of claims 1 to 12. コンピュータ読み取り可能な命令を実行ように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサにより、
既存の航空地図ベースのDEM、DSM、およびトゥルーオルソフォトを利用して、予め設定された高さ以上の映像を含むルーフトゥルーオルソフォトを生成し、
ドローン映像と前記ルーフトゥルーオルソフォトをマッチングし、
前記マッチングされたドローン映像を基準に、他のドローン映像にGCPを入力すること
を特徴とする、コンピュータ装置。
at least one processor implemented to execute computer readable instructions;
by the at least one processor;
Utilizing existing aerial map-based DEM, DSM, and true orthophotos to generate roof true orthophotos containing footage above a preset height,
Matching the drone image and the roof true orthophoto,
A computer device, characterized in that, based on the matched drone image, a GCP is input to another drone image.
前記ルーフトゥルーオルソフォトを生成するために、前記少なくとも1つのプロセッサにより、
前記トゥルーオルソフォトから前記DSMと前記DEMの差が予め設定された高さ以上の部分を抽出して前記ルーフトゥルーオルソフォトを生成すること
を特徴とする、請求項15に記載のコンピュータ装置。
by the at least one processor to generate the roof true orthophoto;
16. The computer apparatus according to claim 15, wherein the roof true orthophoto is generated by extracting a portion where the difference between the DSM and the DEM is equal to or greater than a preset height from the true orthophoto.
前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングするために、前記少なくとも1つのプロセッサにより、
前記ドローン映像と前記ルーフトゥルーオルソフォトの特徴点マッチングを処理し、
前記ドローン映像の一部から少なくとも1つのマッチングポイントを選定し、
前記選定されたマッチングポイントに対応する前記ルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、前記選定されたマッチングポイントに対する仮想GCPとして選定すること
を特徴とする、請求項15または16に記載のコンピュータ装置。
for matching the drone imagery and the roof true orthophoto, by the at least one processor;
processing feature point matching between the drone image and the roof true orthophoto;
selecting at least one matching point from the portion of the drone image;
17. The method according to claim 15 or 16, characterized in that the three-dimensional coordinates of the real terrain for the position of the roof true orthophoto corresponding to the selected matching point are selected as the virtual GCP for the selected matching point. The computer device described.
前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングするために、前記少なくとも1つのプロセッサにより、
前記ルーフトゥルーオルソフォトでアップデートしようとする範囲に予め設定された長さに基づいてシードを設定し、
前記設定されたシードから最も近いルーフトゥルーオルソフォトをロードし、
前記ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定し、
前記再設定されたシードの位置から最も近いドローン映像の一部をロードすること
を特徴とする、請求項17に記載のコンピュータ装置。
for matching the drone imagery and the roof true orthophoto, by the at least one processor;
setting a seed based on a preset length of the range to be updated with the roof true orthophoto;
load the closest roof true orthophoto from the set seed,
After extracting feature points from the loaded roof true orthophoto, resetting the set seed positions based on the density of the extracted feature points;
18. The computer device of claim 17, wherein the portion of the drone image closest to the reset seed location is loaded.
前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定するために、前記少なくとも1つのプロセッサにより、
前記シードの位置を、前記抽出された特徴点の密集度が最も高い位置に再設定すること
を特徴とする、請求項18に記載のコンピュータ装置。
By the at least one processor for resetting the set seed positions based on the density of the extracted feature points,
19. The computer device according to claim 18, wherein the position of the seed is reset to a position where the density of the extracted feature points is highest.
前記他のドローン映像にGCPを入力するために、前記少なくとも1つのプロセッサにより、
前記マッチングされたドローン映像のポイントに前記ルーフトゥルーオルソフォトのマッチングされたポイントによる3次元座標を仮想GCPとして入力し、
前記マッチングされたドローン映像のポイントとマッチングする前記他のドローン映像のポイントに前記仮想GCPを入力すること
を特徴とする、請求項15~19のうちのいずれか一項に記載のコンピュータ装置。
by the at least one processor to input GCPs into the other drone imagery;
inputting the three-dimensional coordinates of the matched points of the roof true orthophoto to the matched points of the drone image as a virtual GCP;
The computer device according to any one of claims 15 to 19, characterized in that it inputs the virtual GCPs to the other drone image points that match the matched drone image points.
JP2022026347A 2021-04-01 2022-02-24 Aerial map update method and system using drone footage Active JP7375064B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0042556 2021-04-01
KR1020210042556A KR102544043B1 (en) 2021-04-01 2021-04-01 Method and system for updating aerial map using image by drone

Publications (2)

Publication Number Publication Date
JP2022158951A true JP2022158951A (en) 2022-10-17
JP7375064B2 JP7375064B2 (en) 2023-11-07

Family

ID=83598970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022026347A Active JP7375064B2 (en) 2021-04-01 2022-02-24 Aerial map update method and system using drone footage

Country Status (2)

Country Link
JP (1) JP7375064B2 (en)
KR (1) KR102544043B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (en) * 1997-12-25 1999-07-09 Toyota Motor Corp Apparatus and method for digital map data processing
JP2005091510A (en) * 2003-09-12 2005-04-07 Pasuko:Kk Method for structuring numeric geographical model using multi-line sensor
JP2008090011A (en) * 2006-10-02 2008-04-17 Ntt Data Corp Image correction device, image correction method, and program
WO2009131108A1 (en) * 2008-04-23 2009-10-29 株式会社パスコ Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
JP2014228881A (en) * 2013-05-17 2014-12-08 株式会社日立製作所 Mosaic image generation device, generation method, and generation program
JP2021504866A (en) * 2017-11-29 2021-02-15 エンジェルスウィング インコーポレイテッドAngelswing Inc. How to match consumers and suppliers and provide drone data and their equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101771492B1 (en) * 2014-12-29 2017-08-28 서울시립대학교 산학협력단 Method and system for mapping using UAV and multi-sensor
KR102206834B1 (en) 2020-04-28 2021-01-25 네이버랩스 주식회사 Method and system for detecting changes in road-layout information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (en) * 1997-12-25 1999-07-09 Toyota Motor Corp Apparatus and method for digital map data processing
JP2005091510A (en) * 2003-09-12 2005-04-07 Pasuko:Kk Method for structuring numeric geographical model using multi-line sensor
JP2008090011A (en) * 2006-10-02 2008-04-17 Ntt Data Corp Image correction device, image correction method, and program
WO2009131108A1 (en) * 2008-04-23 2009-10-29 株式会社パスコ Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
JP2014228881A (en) * 2013-05-17 2014-12-08 株式会社日立製作所 Mosaic image generation device, generation method, and generation program
JP2021504866A (en) * 2017-11-29 2021-02-15 エンジェルスウィング インコーポレイテッドAngelswing Inc. How to match consumers and suppliers and provide drone data and their equipment

Also Published As

Publication number Publication date
JP7375064B2 (en) 2023-11-07
KR102544043B1 (en) 2023-06-15
KR20220136652A (en) 2022-10-11

Similar Documents

Publication Publication Date Title
JP6771059B2 (en) Methods, devices, equipment and computer readable storage media for reconstructing 3D scenes
JP7413321B2 (en) Daily scene restoration engine
Over et al. Processing coastal imagery with Agisoft Metashape Professional Edition, version 1.6—Structure from motion workflow documentation
CN103635935B (en) 3d street
US20210063584A1 (en) Accounting for Atmospheric and Terrestrial Obstacles in Geographic Positioning
US20150243073A1 (en) Systems and Methods for Refining an Aerial Image
US8749580B1 (en) System and method of texturing a 3D model from video
US20150199556A1 (en) Method of using image warping for geo-registration feature matching in vision-aided positioning
KR102003187B1 (en) Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
JP2013008364A (en) Display of image
KR20210022016A (en) Method and system for improving depth information of feature points using camera and lidar
US8994821B2 (en) Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
KR20190089681A (en) Method and system for generating three-dimensional model for panoramic view
KR102387679B1 (en) 3d vehicle localizing using geoarcs
JP2016039390A (en) Image generation method and device
Bevilacqua et al. Digital technology and mechatronic systems for the architectural 3D metric survey
JPWO2019026619A1 (en) Image processing apparatus, image processing method, and program
KR101766154B1 (en) Method and system for generate ortho-photo texture using dem data
CN112907745B (en) Method and device for generating digital orthophoto map
EP4296972A1 (en) System and method for remote labelling of hyperspectral data
JP7375064B2 (en) Aerial map update method and system using drone footage
CN115565072A (en) Road garbage recognition and positioning method and device, electronic equipment and medium
KR102320262B1 (en) Method and apparatus for estimating size of damage in the disaster affected areas
Gobbi et al. Orthorectification of a large dataset of historical aerial images: Procedure and precision assessment in an open source environment
JP7466371B2 (en) System and method for registering topographical and image data - Patents.com

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7375064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150