JP7375064B2 - ドローン映像を活用した航空地図のアップデート方法およびシステム - Google Patents

ドローン映像を活用した航空地図のアップデート方法およびシステム Download PDF

Info

Publication number
JP7375064B2
JP7375064B2 JP2022026347A JP2022026347A JP7375064B2 JP 7375064 B2 JP7375064 B2 JP 7375064B2 JP 2022026347 A JP2022026347 A JP 2022026347A JP 2022026347 A JP2022026347 A JP 2022026347A JP 7375064 B2 JP7375064 B2 JP 7375064B2
Authority
JP
Japan
Prior art keywords
drone
roof
image
gcp
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022026347A
Other languages
English (en)
Other versions
JP2022158951A (ja
Inventor
ハンスン チェー
セヨン ピョ
ヨイル ユン
ジンソク キム
ジンハン イ
Original Assignee
ネイバーラボス コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ネイバーラボス コーポレーション filed Critical ネイバーラボス コーポレーション
Publication of JP2022158951A publication Critical patent/JP2022158951A/ja
Application granted granted Critical
Publication of JP7375064B2 publication Critical patent/JP7375064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3859Differential updating map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)

Description

以下の説明は、ドローン映像を活用した航空地図のアップデート方法およびシステムに関する。
航空地図とは、航空写真を利用して生成した地図を意味する。航空地図の取得周期は長く(一例として、2年)、道路などの領域に変更が生じた場合にこれを迅速に反映することが難しいという問題があった。
このような問題点を解決するために、ドローンが生成した映像を活用する方法もあるが、ドローン映像を活用して既存の地図を生成および/またはアップデートするためには、直接外部に出向いてGCP(Ground Control Point(地上基準点))を測量し、これを利用して地図を製作および/またはアップデートしなければならないという問題があった。
さらに、測量したGCPとドローン映像とのマッチング作業を手動でしか行うことができないという問題もあった。
韓国登録特許第10-0940118号公報
ドローン映像を活用して航空地図を生成および/またはアップデートするにあたり、既存の3次元航空地図をGCPとして活用することにより、航空地図の生成および/またはアップデートのための時間および費用を減らすことができる、アップデート方法およびシステムを提供することを目的とする。
GCPとして活用される3次元航空地図とドローン映像の自動マッチングを支援することによって人力と時間を節約することができる、アップデート方法およびシステムを提供することを他の目的とする。
少なくとも1つのプロセッサを含むコンピュータ装置のアップデート方法であって、前記少なくとも1つのプロセッサにより、既存の航空地図ベースのDEM(Digital Elevation Model(数値標高モデル))、DSM(Digital Surface Model(数値表層モデル))、およびトゥルーオルソフォト(true-orthophoto)を利用して、予め設定された高さ以上の映像を含むルーフ(roof)トゥルーオルソフォトを生成する段階、前記少なくとも1つのプロセッサにより、ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階、および前記少なくとも1つのプロセッサにより、前記マッチングされたドローン映像を基準に、他のドローン映像にGCP(Ground Control Point)を入力する段階を含むことを特徴とする、アップデート方法を提供する。
一態様によると、前記ルーフトゥルーオルソフォトを生成する段階は、前記トゥルーオルソフォトから前記DSMと前記DEMの差が予め設定された高さ以上の部分を抽出して前記ルーフトゥルーオルソフォトを生成することを特徴としてよい。
他の態様によると、前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、前記ドローン映像と前記ルーフトゥルーオルソフォトの特徴点マッチングを処理する段階、前記ドローン映像の一部から少なくとも1つのマッチングポイントを選定する段階、および前記選定されたマッチングポイントに対応する前記ルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、前記選定されたマッチングポイントに対する仮想GCPとして選定する段階を含むことを特徴としてよい。
また他の態様によると、前記特徴点マッチングを処理する段階は、R2D2マッチングを利用して、前記ドローン映像の特徴点と前記ルーフトゥルーオルソフォトの特徴点をマッチングすることを特徴としてよい。
また他の態様によると、前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、前記ルーフトゥルーオルソフォトでアップデートしようとする範囲に予め設定された長さに基づいてシード(seed)を設定する段階、前記設定されたシードから最も近いルーフトゥルーオルソフォトをロードする段階、前記ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定する段階、および前記再設定されたシードの位置から最も近いドローン映像の一部をロードする段階をさらに含むことを特徴としてよい。
また他の態様によると、前記シードを設定する段階は、一辺の長さが前記予め設定された長さである複数の正方形で構成される範囲に対し、前記複数の正方形それぞれに予め設定された数のシードをランダムに設定することを特徴としてよい。
また他の態様によると、前記再設定する段階は、前記シードの位置を、前記抽出された特徴点の密集度が最も高い位置に再設定することを特徴としてよい。
また他の態様によると、前記他のドローン映像にGCPを入力する段階は、前記マッチングされたドローン映像のポイントに前記ルーフトゥルーオルソフォトのマッチングされたポイントによる3次元座標を仮想GCPとして入力する段階、および前記マッチングされたドローン映像のポイントとマッチングする前記他のドローン映像のポイントに前記仮想GCPを入力する段階を含むことを特徴としてよい。
また他の態様によると、前記仮想GCPを入力する段階は、デンスマッチング(dense matching)を利用して、前記マッチングされたドローン映像のポイントと前記他のドローン映像のポイントをマッチングすることを特徴としてよい。
また他の態様によると、前記アップデート方法は、前記少なくとも1つのプロセッサにより、前記GCPをフィルタリングする段階をさらに含んでよい。
また他の態様によると、前記GCPをフィルタリングする段階は、前記マッチングされたドローン映像のピクセルの位置点に基づいて、前記GCPに対応する映像座標との差が最小となるドローンカメラの内部焦点距離、歪曲係数、前記ドローンカメラの回転情報、および補正されたGCPを決定することを特徴としてよい。
さらに他の態様によると、前記アップデート方法は、前記少なくとも1つのプロセッサにより、前記フィルタリングされたGCPが入力されたドローン映像に基づいてアップデートされたDSMを生成する段階、および前記少なくとも1つのプロセッサにより、前記アップデートされたDSMに基づいてアップデートされたトゥルーオルソフォトを生成する段階をさらに含んでよい。
前記方法をコンピュータ装置に実行させるためのコンピュータプログラムを提供する。
前記方法をコンピュータ装置に実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。
コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、既存の航空地図ベースのDEM(Digital Elevation Model)、DSM(Digital Surface Model)、およびトゥルーオルソフォト(true-ortho photo)を利用して予め設定された高さ以上の映像を含むルーフ(roof)トゥルーオルソフォトを生成し、ドローン映像と前記ルーフトゥルーオルソフォトをマッチングし、前記マッチングされたドローン映像を基準に、他のドローン映像にGCP(Ground Control Point)を入力することを特徴とする、コンピュータ装置を提供する。
ドローン映像を活用して航空地図を生成および/またはアップデートするにあたり、既存の3次元航空地図をGCPとして活用することにより、航空地図の生成および/またはアップデートのための時間および費用を減らすことができる。
GCPとして活用される3次元航空地図とドローン映像の自動マッチングを支援することにより、人力と時間を節約することができる。
本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。 本発明の一実施形態における、アップデート方法の例を示したフローチャートである。 本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトをマッチングする方法の例を示したフローチャートである。 本発明の一実施形態における、設定されたシードの例を示した図である。 本発明の一実施形態における、シードの位置を再設定する例を示した図である。 本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトのマッチングの例を示した図である。 本発明の一実施形態における、ドローン映像の座標に対応する3次元座標を選定する例を示した図である。 本発明の一実施形態における、サブドローン映像と仮想GCPの連結を設定する例を示した図である。 本発明の一実施形態における、デンスマッチングによって同一地点をマッチングした例を示した図である。 本発明の一実施形態における、デンスマッチングによって同一地点をマッチングした例を示した図である。 本発明の一実施形態における、加重値を補正する例を示した図である。 本発明の一実施形態における、加重値を補正する例を示した図である。 本発明の一実施形態における、ドローン映像と航空映像の解像度の差を示した図である。 本発明の一実施形態における、ドローン映像を利用して航空地図をアップデートした例を示した図である。
以下、実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態に係るアップデートシステムは、少なくとも1つのコンピュータ装置によって実現されてよく、本発明の実施形態に係るアップデート方法は、アップデートシステムを実現する少なくとも1つのコンピュータ装置によって実行されてよい。コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されたコンピュータプログラムの制御にしたがって本発明の実施形態に係るアップデート方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合してアップデート方法をコンピュータ装置に実行させるために、コンピュータ読み取り可能な記録媒体に記録されてよい。
以下、添付の図面を参照しながら、実施形態について詳しく説明する。各図面に提示された同一の参照符号は、同一の部材を示す。
図1は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。コンピュータ装置(Computer device)100は、図1に示すように、メモリ(Memory)110、プロセッサ(Processor)120、通信インタフェース(Communication interface)130、および入力/出力(I/O)インタフェース(I/O interface)140を含んでよい。メモリ110は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ110とは区分される別の永続的記録装置としてコンピュータ装置100に含まれてもよい。また、メモリ110には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ110とは別のコンピュータ読み取り可能な記録媒体からメモリ110にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース130を通じてメモリ110にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク(Network)160を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置100のメモリ110にロードされてよい。
プロセッサ120は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ110または通信インタフェース130によって、プロセッサ120に提供されてよい。例えば、プロセッサ120は、メモリ110のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信インタフェース130は、ネットワーク160を介してコンピュータ装置100が他の装置と互いに通信するための機能を提供してよい。一例として、コンピュータ装置100のプロセッサ120がメモリ110のような記録装置に記録されたプログラムコードにしたがって生成した要求や命令、データ、ファイルなどが、通信インタフェース130の制御にしたがってネットワーク160を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク160を介してコンピュータ装置100の通信インタフェース130を通じてコンピュータ装置100に受信されてよい。通信インタフェース130を通じて受信された信号や命令、データなどは、プロセッサ120やメモリ110に伝達されてよく、ファイルなどは、コンピュータ装置100がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース140は、入力/出力(I/O)装置150とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマウスなどの装置を、出力装置は、ディスプレイ、スピーカなどのような装置を含んでよい。他の例として、入力/出力インタフェース140は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置150は、コンピュータ装置100と1つの装置で構成されてもよい。
また、他の実施形態において、コンピュータシステム100は、図1の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術の構成要素を明確に図に示す必要はない。例えば、コンピュータ装置100は、上述した入力/出力装置150のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。
図2は、本発明の一実施形態における、アップデート方法の例を示したフローチャートである。本実施形態に係るアップデート方法は、図1を参照しながら説明したコンピュータ装置100によって実行されてよい。このとき、コンピュータ装置100のプロセッサ120は、メモリ110が含むオペレーティングシステムのコードと、少なくとも1つのコンピュータプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ120は、コンピュータ装置100に記録されたコードが提供する制御命令にしたがってコンピュータ装置100が図2の方法に含まれる段階210~260を実行するようにコンピュータ装置100を制御してよい。
段階210で、コンピュータ装置100は、既存の航空地図ベースのDEM(Digital Elevation Model(数値標高モデル))、DSM(Digital Surface Model(数値表層モデル))、およびトゥルーオルソフォト(true-orthophoto)を利用して、予め設定された高さ以上の映像を含むルーフ(roof)トゥルーオルソフォトを生成してよい。DEMは、実世界の地形情報のうちから建物、樹木、人工構造物などを除いた地形(bareearth)部分を表現する数値模型であり、DSMは、実世界のすべての情報、言い換えれば、地形、樹木、建物、人工構造物などを表現した模型である。したがって、DSMとDEMの差(DSM-DEM=CHM(Canopy Height Model(キャノピー高さモデル)))が予め設定された値以上の部分は、建物、樹木、人工構造物などに対応することになる。このとき、コンピュータ装置100は、トゥルーオルソフォトにおいてDSMとDEMの差が予め設定された高さ(一例として、17m)以上となる部分だけをトゥルー(true)として抽出することによってルーフトゥルーオルソフォトを生成してよい。
段階220で、コンピュータ装置100は、ドローン映像とルーフトゥルーオルソフォトをマッチングしてよい。ここで、ドローン映像とは、ドローンで撮影した映像を意味してよい。マッチングされたポイントはGCP(Ground Control Point(地上基準点))として活用されてよく、DSMトゥルーオルソフォトを利用することで、マッチングされたポイントの3次元座標が分かるようになる。ドローン映像とルーフトゥルーオルソフォトをマッチングする方法については、図3を参照しながらさらに詳しく説明する。
段階230で、コンピュータ装置100は、マッチングされたドローン映像を基準に、他のドローン映像にGCPを入力してよい。ここで、GCPは、実際に測量されたGCOでなく、ドローン映像にマッチングされたルーフトゥルーオルソフォトから得られる3次元座標であってよい。言い換えれば、コンピュータ装置100は、マッチングされたドローン映像をメインとして置きながら、周辺のサブドローン映像と仮想GCPとの連結を設定してよい。GCPを入力する方法については、図8~10を参照しながらさらに詳しく説明する。
段階240で、コンピュータ装置100は、GCPをフィルタリングしてよい。航空映像のカメラ内部情報は正確であるが、ドローン映像は低価型カメラを使用することから内部情報が不正確であり、カメラポーズとカメラ内部情報を補正する必要がある。このような補正のために、コンピュータ装置100は、仮想GCPを利用してバンドル調整を実行してよい。バンドル調整については、以下でさらに詳しく説明する。
段階250で、コンピュータ装置100は、フィルタリングされたGCPが入力されたドローン映像に基づいてアップデートされたDSMを生成してよい。このとき、映像のソースが航空映像からドローン映像に変わることで発生するイシューが修正されてよい。
段階260で、コンピュータ装置100は、アップデートされたDSMに基づいてアップデートされたトゥルーオルソフォトを生成してよい。この過程は、航空地図の生成のためのプロセスにおいて周知の事項であるため、具体的な説明は省略する。
図3は、本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトをマッチングする方法の例を示したフローチャートである。図3の段階310~370は図2の段階220に含まれてよく、コンピュータ装置100によって実行されてよい。
段階310で、コンピュータ装置100は、ルーフトゥルーオルソフォトでアップデートしようとする範囲(Region Of Interest(関心領域):ROI)に予め設定された長さに基づいてシード(seed)を設定してよい。シードとは以後にGCP位置になるポイントであり、予め設定された長さは、一例として120mであってよい。ここで、予め設定された長さはシードの間隔となってよく、予め設定された数のシードが設定される領域を示す長さであってよい。
図4は、本発明の一実施形態における、設定されたシードの例を示した図である。図4は、ルーフトゥルーオルソフォト410の特定の範囲に、一辺の長さが予め設定された長さ(一例として、120m)に設定された正方形420が表示された例を示している。このとき、コンピュータ装置100は、このような正方形420にm(図4の実施形態においてm=5)個のシードを設定してよい。1つのルーフトゥルーオルソフォト410には複数の正方形がランダムに設定されてよく、各正方形にm個のシードがランダムに設定されてよい。
このような図4の実施形態は、GCPを均一に選定して正確度を確保するための一方式に過ぎず、シード設定方法が図4の実施形態に限定されることはない。一例として、ルーフトゥルーオルソフォト410内のアップデートしようとする範囲で、予め設定された長さの間隔で均一にシードを設定してもよい。
図3を再び参照すると、段階320で、コンピュータ装置100は、各シードから最も近いルーフトゥルーオルソフォトをロードしてよい。このとき、各シードから最も近いルーフトゥルーオルソフォトとは、ルーフトゥルーオルソフォトのうちで該当のシードを含む映像の一部であってよい。
段階330で、コンピュータ装置100は、ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、設定されたシードの位置を抽出された特徴点の密集度に基づいて再設定してよい。一定の間隔でシードを設定するため、シードの位置がルーフにないことがある。これにより、コンピュータ装置100は、シードの位置を該当のシードから最も近いルーフトゥルーオルソフォトの特徴点が密集した位置に移動させて、シードの位置を再設定してよい。
図5は、本発明の一実施形態における、シードの位置を再設定する例を示した図である。図5は、ルーフトゥルーオルソフォト510でシード520がルーフ上にない場合、最も近いルーフ530において特徴点が密集した位置にシード520の位置を再設定する例を示している。一例として、コンピュータ装置100は、シード520の位置から最も近いルーフ530の特徴点を抽出した後、特徴点の密度が最も高い位置にシード520の位置を再設定してよい。
図3を再び参照すると、段階340で、コンピュータ装置100は、再設定されたシードの位置から最も近いドローン映像の一部をロードしてよい。ドローン映像の一部とは、該当のドローン映像から切り取られた一部のピース映像を意味してよい。
段階350で、コンピュータ装置100は、ロードされたドローン映像の一部とルーフトゥルーオルソフォトの特徴点マッチングを処理してよい。一例として、コンピュータ装置100は、R2D2(Repeatable and Reliable Detector and Descriptor)マッチングにより、ロードされたドローン映像の一部とルーフトゥルーオルソフォトのポイント(特徴点)をマッチングしてよい。ポイントのマッチングは、R2D2の他にも、SIFT(Scale-Invariant Feature Transform)、HardNet、LogPolarDescなどの周知のイメージマッチング技術のうちの1つが活用されてもよい。ただし、R2D2は、視空間解像度が異なる2つの映像のマッチングの性能を高めるために学習されたマッチング技法であることから、トゥルーオルソフォトとドローン映像の映像の取得時間と空間解像度の差を考慮するとき、R2D2を利用してポイントのマッチングを処理することが好ましい。このとき、コンピュータ装置100は、n(一例として、nは100)個のポイントをマッチングしてよい。
段階360で、コンピュータ装置100は、ドローン映像の一部から少なくとも1つのマッチングポイントを選定してよい。一例として、コンピュータ装置100は、マッチングされた複数のポイントのうちで最も適切にマッチングがなれたポイントを選定してよい。一例として、特徴点マッチングを実行するときに、コンピュータ装置100は、2つの映像で特徴点周辺のピクセル値が最も類似する特徴点のマッチングを実行してよい。このような特徴点周辺のピクセル値の類似度をディスタンス(distance)と呼ぶが、ディスタンスの値が大きいほど類似度は低く、ディスタンスの値が小さいほど類似度は高いと判断されてよい。したがって、コンピュータ装置100は、マッチングされた点のうちでディスタンスの値が最も小さいマッチングポイントを、最も適切にマッチングがなされたポイントとして選定してよい。
図6は、本発明の一実施形態における、ドローン映像とルーフトゥルーオルソフォトのマッチングの例を示した図である。図6は、ドローン映像610とルーフトゥルーオルソフォト620の対応するポイントを連結した例を示している。このとき、図6は、複数のポイントのうちで最も適切にマッチングがなされたポイントを連結する線630を他の線よりも太く示している。このとき、線630によって連結されたポイント640、650が選定されてよい。図6では、マッチングされるポイントを簡略化して説明したが、上述したように、コンピュータ装置100は、n個のポイントをマッチングした後、マッチングされたn個のポイントのうちから最も適切にマッチングがなされたポイントを選定してよい。ここで、n個のポイントをマッチングするということは、ドローン映像610を基準にn個のポイントをルーフトゥルーオルソフォト620のn個のポイントとマッチングすることを意味してよい。
図3を再び参照すると、段階370で、コンピュータ装置100は、選定されたマッチングポイントに対応するルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、選定されたマッチングポイントに対する仮想GCPとして選定してよい。このように、コンピュータ装置100は、既存の航空地図から得られるルーフトゥルーオルソフォトにおいて、ドローン映像の特定の座標(x、y)に対し、実際に測量したものと同じ地形の3次元座標(X、Y、Z)を取得することができる。
図7は、本発明の一実施形態における、ドローン映像の座標に対応する3次元座標を選定する例を示した図である。図7は、ドローン映像610のポイントの映像位置(x、y)とルーフトゥルーオルソフォト620のマッチングされたポイントに対応する実際の地形の3次元座標(X、Y、Z)を仮想GCPとして選定してよい。ここで、ルーフトゥルーオルソフォト620のマッチングされたポイントに対応する実際の地形の3次元座標(X、Y、Z)は、DSMによって得られてよい。より具体的に、XとYはトゥルーオルソフォトから得られてよく、DSMがピルセルごとに高さ値を含んでいるため、トゥルーオルソフォトに対応するDSMの位置から高さ値を抽出することでZが得られてよい。
図2を再び参照すると、段階230で、コンピュータ装置100は、マッチングされたドローン映像を基準に他のドローン映像にGCPを入力するため、マッチングされたドローン映像を基準に、周辺のサブドローン映像と仮想GCPの連結を設定してよい。
図8は、本発明の一実施形態における、サブドローン映像と仮想GCPの連結を設定する例を示した図である。図8は、メインドローン映像810とルーフトゥルーオルソフォト820でマッチングされたポイントに基づいて、メインドローン映像810周辺のサブドローン映像830それぞれに対してもポイントをマッチングすることにより、サブドローン映像の映像位置(x、y)と仮想GCPの3次元座標(X、Y、Z)を連結した様子を示している。一例として、コンピュータ装置100は、メインドローン映像810がルーフトゥルーオルソフォト820の仮想GCPと連結した地点と同一のサブドローン映像830それぞれの地点をマッチングすることで、サブドローン映像830それぞれの地点に対して仮想GCPを連結してよい。言い換えれば、コンピュータ装置100は、ルーフトゥルーオルソフォト820にマッチングされたメインドローン映像810のポイントにルーフトゥルーオルソフォト820のマッチングされたポイントによる3次元座標を仮想GCPとして入力してよく、マッチングされたメインドローン映像810のポイントとマッチングする他のサブドローン映像830それぞれのポイントに仮想GCPを入力してよい。このとき、メインドローン映像810とサブドローン映像830それぞれの同一地点は、デンスマッチング(dense matching)によってマッチングされてよい。
図9および図10は、本発明の一実施形態における、デンスマッチングによって同一地点をマッチングした例を示している。図9は、デンスマッチングを利用してメインドローン映像910とサブドローン映像920の同一地点をマッチングする過程の例を示しており、図10は、デンスマッチングを利用してメインイメージ(Main image)1010とサブイメージ(Sub images)1020、1030の同一地点をマッチングした例を示している。ここで、メインイメージ1010はメインドローンイメージに対応してよく、サブイメージ1020、1030はサブドローンイメージに対応してよい。
図2を再び参照すると、段階240で、コンピュータ装置200は、GCPをフィルタリングするためにバンドル調整を処理してよい。このとき、段階210~230を実行することで、GCPがドローンイメージに自動で入力されてよい。したがって、人間が実際に外部に出向いてGCPを測量する必要がなくなり、測量されたGCPをドローンイメージと手動でマッチングする必要がなくなるため、費用と時間を減らすことができる。
ただし、測量されたGCP(正確度2~3cm)に比べて自動入力された仮想GCP(正確度8~15cm)は正確度が下がるため、複数のフィルタリングが適用されてよい。ドローン映像は航空映像に比べて初期値が不正確であるため、コンピュータ装置100は、GCPを補正するために7-parametersを処理してよい。7-parametersは、剛体変換(Rigid Transformation)という同一の2つのモデルのスケール、回転、移動を調整して同じように合わせる技法である。本実施形態では、航空地図から抽出したGCP(X、Y、Z)とドローン映像でマッチングされたGCPを三角測量(Triangulation)することで3次元座標(X、Y、Z)を得るが、GCPと3次元座標が同一の位置でなければならない。しかし、ドローン映像は低価型GPSを使用するため、3次元座標はGCPとは異なる位置を示すことがある。このとき、7-parameters処理によって3次元座標がGCP位置に合うようにスケール、回転、移動を計算し、その媒介変数を(スケール、回転、移動)ドローン映像に適用および変換することにより、実際の地形と類似する当時撮影されたドローンの位置を推定することができる。コンピュータ装置100は、7-parametersを処理しながら、仮想GCPの3次元座標でX、Y、Zそれぞれに対する評価を加重値によって考慮してよい。一例として、コンピュータ装置100は、加重値を補正して自己校正(self-calibration)を実行してよい。このとき、コンピュータ装置100は、映像のサイド(side)側により強い加重値を置き、特徴点の密集度から離れるほど強い加重値を与えてよい。
図11および図12は、本発明の一実施形態における、加重値を補正する例を示した図である。図11は、映像のサイド側に位置する地点であるほど共分散(covariance)が減少することを示している。自己校正をするときには映像の歪曲(distortion)を補正することが核心となるが、通常、映像の歪曲は、映像の終端部分で起こる。したがって、映像の終端部分にあるポイントに共分散(covariance)を少なく置いて歪曲を補正するときにより多くの影響を受けるようにすることにより、歪曲をより正確に補正することができる。
図12は、特徴点の密集度が減少する地点であるほど加重値(weight)が増加することを示している。
以下の数式(1)は、バンドル調整の基本数式の例を示している。
ここで、xgcpはドローン映像のピクセルの位置点を示してよく、Kはドローンカメラの内部焦点距離および歪曲係数を含む情報を含んでよく、Rはドローンカメラの回転情報を、Gは3次元座標(GCP)に対応する映像座標を示してよい。ρは損失関数(loss function)を、eは費用関数(cost function)を、Pはプロジェクション関数(projection function)を、Wgcpは加重値をそれぞれ示してよい。Gは外部に出向いて直接測量したデータではないため、正確度で8~15cmの差が生じることがある。これにより、GCPを完全なトゥルー(true)として置かず、多少の調整が可能な未知数として置いて方程式を解くようになる。言い換えれば、Gは初めに得られたGCPであってよく、
は推定されたGCPであってよい。推定されたGCPと初めに得られたGCPの差が極端に開かないようにするために加重値(Wgcp)を置いて推定してよい。このように、ピクセルの位置点xgcpは事前マッチングによって既に決定されているため、コンピュータ装置100は、ピクセルの位置点xgcpを利用してGCPに対応する映像座標との差が最小となるR、Kを決定してよい。追加的に、コンピュータ装置100は、推定された(または、補正されたGCPである)
を決定してよい。言い換えれば、コンピュータ装置100は、マッチングされたドローン映像のピクセルの位置点に基づいて、GCPに対応する映像座標との差が最小となるドローンカメラの内部焦点距離、歪曲係数、ドローンカメラの回転情報、および補正されたGCPを決定してよい。
一方、損失関数は、以下の数式(2)のように示されてよい。
ここで、rはエラーを、δは予め設定された閾値をそれぞれ示してよい。また、c’は数式(3)のように、s’は数式(4)のように表現されてよい。
数式(2)は、エラーが予め設定された閾値未満の場合に加重値を一定の値に固定するために活用されてよい。
このように、コンピュータ装置100で仮想GCPをフィルタリングすることにより、ある程度の異常値(outlier)があったとしても、既存の航空地図にドローン映像を適切にマッピングすることができる。
図13は、本発明の一実施形態における、ドローン映像と航空映像の解像度の差を示した図であり、図14は、本発明の一実施形態における、ドローン映像を利用して航空地図をアップデートした例を示した図である。
図13では、ドローン映像(Drone)1310の解像度が航空映像(Aerial)1320よりも高いことを示しており、図14では、解像度が相対的により高いドローン映像を利用して航空地図をアップデートすることによって、ドローン映像を利用してアップデートされた航空地図の領域の解像度が増加した例を示している。
このように、本発明の実施形態によると、ドローン映像を活用して航空地図を生成および/またはアップデートするにあたり、既存の3次元航空地図をGCPとして活用することにより、航空地図の生成および/またはアップデートのための時間および費用を減らすことができる。また、GCPとして活用される3次元航空地図とドローン映像の自動マッチングを支援することにより、人力と時間を節約することができる。
上述したシステムまたは装置は、ハードウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含んでよい。媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
100:コンピュータ装置
110:メモリ
120:プロセッサ
130:通信インタフェース
140:入力/出力インタフェース
150:入力/出力装置
160:ネットワーク

Claims (16)

  1. 少なくとも1つのプロセッサを含むコンピュータ装置により航空地図をアップデートするアップデート方法であって、
    前記少なくとも1つのプロセッサにより、既存の航空地図ベースのDEM、DSM、およびトゥルーオルソフォトを利用して、予め設定された高さ以上の映像を含むルーフトゥルーオルソフォトを生成する段階であって、前記トゥルーオルソフォトから前記DSMと前記DEMの差が予め設定された高さ以上の部分を抽出して前記ルーフトゥルーオルソフォトを生成する、生成する段階
    前記少なくとも1つのプロセッサにより、ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階、および
    前記少なくとも1つのプロセッサにより、前記マッチングされたドローン映像を基準に、他のドローン映像にGCPを入力する段階であって、前記マッチングされたドローン映像のポイントに前記ルーフトゥルーオルソフォトのマッチングされたポイントによる3次元座標を仮想GCPとして入力する段階、および前記マッチングされたドローン映像のポイントとマッチングする前記他のドローン映像のポイントに前記仮想GCPを入力する段階を含む、入力する段階
    を含むことを特徴とする、アップデート方法。
  2. 前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、
    前記ドローン映像と前記ルーフトゥルーオルソフォトの特徴点マッチングを処理する段階、
    前記ドローン映像の一部から少なくとも1つのマッチングポイントを選定する段階、および
    前記選定されたマッチングポイントに対応する前記ルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、前記選定されたマッチングポイントに対する仮想GCPとして選定する段階
    を含むことを特徴とする、請求項1に記載のアップデート方法。
  3. 前記特徴点マッチングを処理する段階は、
    R2D2マッチングを利用して、前記ドローン映像の特徴点と前記ルーフトゥルーオルソフォトの特徴点をマッチングすることを特徴とする、請求項に記載のアップデート方法。
  4. 前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングする段階は、
    前記ルーフトゥルーオルソフォトでアップデートしようとする範囲に予め設定された長さに基づいてシードを設定する段階、
    前記設定されたシードから最も近いルーフトゥルーオルソフォトをロードする段階、
    前記ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定する段階、および
    前記再設定されたシードの位置から最も近いドローン映像の一部をロードする段階
    をさらに含むことを特徴とする、請求項に記載のアップデート方法。
  5. 前記シードを設定する段階は、
    一辺の長さが前記予め設定された長さである複数の正方形で構成される範囲に対し、前記複数の正方形それぞれに予め設定された数のシードをランダムに設定することを特徴とする、請求項に記載のアップデート方法。
  6. 前記再設定する段階は、
    前記シードの位置を前記抽出された特徴点の密集度が最も高い位置に再設定することを特徴とする、請求項に記載のアップデート方法。
  7. 前記仮想GCPを入力する段階は、
    デンスマッチングを利用して、前記マッチングされたドローン映像のポイントと前記他のドローン映像のポイントをマッチングすることを特徴とする、請求項1乃至6のいずれか1項に記載のアップデート方法。
  8. 前記少なくとも1つのプロセッサにより、前記GCPをフィルタリングする段階
    をさらに含む、請求項1~のうちのいずれか一項に記載のアップデート方法。
  9. ドローンカメラのカメラポーズと前記ドローンカメラのカメラ内部情報として、前記マッチングされたドローン映像のピクセルの位置点に基づいて、前記GCPに対応する映像座標との差が最小となる前記ドローンカメラの内部焦点距離、歪曲係数、および前記ドローンカメラの回転情報を決定する段階
    をさらに含むことを特徴とする、請求項に記載のアップデート方法。
  10. 前記少なくとも1つのプロセッサにより、前記フィルタリングされたGCPが入力されたドローン映像に基づいてアップデートされたDSMを生成する段階、および
    前記少なくとも1つのプロセッサにより、前記アップデートされたDSMに基づいてアップデートされたトゥルーオルソフォトを生成する段階
    をさらに含む、請求項に記載のアップデート方法。
  11. 請求項1~10のうちのいずれか一項に記載の方法をコンピュータ装置に実行させるためのコンピュータプログラム。
  12. 請求項1~10のうちのいずれか一項に記載の方法をコンピュータ装置に実行させるためのコンピュータプログラムが記録されている、コンピュータ読み取り可能な記録媒体。
  13. コンピュータ読み取り可能な命令を実行ように実現される少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサにより、
    既存の航空地図ベースのDEM、DSM、およびトゥルーオルソフォトを利用して、予め設定された高さ以上の映像を含むルーフトゥルーオルソフォトを生成することであって、前記トゥルーオルソフォトから前記DSMと前記DEMの差が予め設定された高さ以上の部分を抽出して前記ルーフトゥルーオルソフォトを生成し、
    ドローン映像と前記ルーフトゥルーオルソフォトをマッチングし、
    前記マッチングされたドローン映像を基準に、他のドローン映像にGCPを入力することであって、前記マッチングされたドローン映像のポイントに前記ルーフトゥルーオルソフォトのマッチングされたポイントによる3次元座標を仮想GCPとして入力し、前記マッチングされたドローン映像のポイントとマッチングする前記他のドローン映像のポイントに前記仮想GCPを入力すること
    を特徴とする、コンピュータ装置。
  14. 前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングするために、前記少なくとも1つのプロセッサにより、
    前記ドローン映像と前記ルーフトゥルーオルソフォトの特徴点マッチングを処理し、
    前記ドローン映像の一部から少なくとも1つのマッチングポイントを選定し、
    前記選定されたマッチングポイントに対応する前記ルーフトゥルーオルソフォトの位置に対する実際の地形の3次元座標を、前記選定されたマッチングポイントに対する仮想GCPとして選定すること
    を特徴とする、請求項13に記載のコンピュータ装置。
  15. 前記ドローン映像と前記ルーフトゥルーオルソフォトをマッチングするために、前記少なくとも1つのプロセッサにより、
    前記ルーフトゥルーオルソフォトでアップデートしようとする範囲に予め設定された長さに基づいてシードを設定し、
    前記設定されたシードから最も近いルーフトゥルーオルソフォトをロードし、
    前記ロードされたルーフトゥルーオルソフォトから特徴点を抽出した後、前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定し、
    前記再設定されたシードの位置から最も近いドローン映像の一部をロードすること
    を特徴とする、請求項14に記載のコンピュータ装置。
  16. 前記設定されたシードの位置を前記抽出された特徴点の密集度に基づいて再設定するために、前記少なくとも1つのプロセッサにより、
    前記シードの位置を、前記抽出された特徴点の密集度が最も高い位置に再設定すること
    を特徴とする、請求項15に記載のコンピュータ装置。
JP2022026347A 2021-04-01 2022-02-24 ドローン映像を活用した航空地図のアップデート方法およびシステム Active JP7375064B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210042556A KR102544043B1 (ko) 2021-04-01 2021-04-01 드론 영상을 활용한 항공지도의 업데이트 방법 및 시스템
KR10-2021-0042556 2021-04-01

Publications (2)

Publication Number Publication Date
JP2022158951A JP2022158951A (ja) 2022-10-17
JP7375064B2 true JP7375064B2 (ja) 2023-11-07

Family

ID=83598970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022026347A Active JP7375064B2 (ja) 2021-04-01 2022-02-24 ドローン映像を活用した航空地図のアップデート方法およびシステム

Country Status (2)

Country Link
JP (1) JP7375064B2 (ja)
KR (1) KR102544043B1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005091510A (ja) 2003-09-12 2005-04-07 Pasuko:Kk マルチラインセンサーを用いた数値地形モデルの構築方法
JP2008090011A (ja) 2006-10-02 2008-04-17 Ntt Data Corp 画像補正装置、画像補正方法及びプログラム
WO2009131108A1 (ja) 2008-04-23 2009-10-29 株式会社パスコ 建物屋根輪郭認識装置、建物屋根輪郭認識方法、及び建物屋根輪郭認識プログラム
JP2014228881A (ja) 2013-05-17 2014-12-08 株式会社日立製作所 モザイク画像生成装置及び生成方法並びにモザイク画像生成プログラム
JP2021504866A (ja) 2017-11-29 2021-02-15 エンジェルスウィング インコーポレイテッドAngelswing Inc. 需要者と供給者とをマッチングさせ、ドローンデータを提供する方法及びその装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184375A (ja) * 1997-12-25 1999-07-09 Toyota Motor Corp デジタル地図データ処理装置及びデジタル地図データ処理方法
KR101771492B1 (ko) * 2014-12-29 2017-08-28 서울시립대학교 산학협력단 복수의 센서를 탑재한 무인 비행체를 이용하는 매핑 방법 및 시스템
KR102206834B1 (ko) 2020-04-28 2021-01-25 네이버랩스 주식회사 도로정보 변화 감지 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005091510A (ja) 2003-09-12 2005-04-07 Pasuko:Kk マルチラインセンサーを用いた数値地形モデルの構築方法
JP2008090011A (ja) 2006-10-02 2008-04-17 Ntt Data Corp 画像補正装置、画像補正方法及びプログラム
WO2009131108A1 (ja) 2008-04-23 2009-10-29 株式会社パスコ 建物屋根輪郭認識装置、建物屋根輪郭認識方法、及び建物屋根輪郭認識プログラム
JP2014228881A (ja) 2013-05-17 2014-12-08 株式会社日立製作所 モザイク画像生成装置及び生成方法並びにモザイク画像生成プログラム
JP2021504866A (ja) 2017-11-29 2021-02-15 エンジェルスウィング インコーポレイテッドAngelswing Inc. 需要者と供給者とをマッチングさせ、ドローンデータを提供する方法及びその装置

Also Published As

Publication number Publication date
KR102544043B1 (ko) 2023-06-15
JP2022158951A (ja) 2022-10-17
KR20220136652A (ko) 2022-10-11

Similar Documents

Publication Publication Date Title
Rupnik et al. MicMac–a free, open-source solution for photogrammetry
Carbonneau et al. Cost‐effective non‐metric photogrammetry from consumer‐grade sUAS: implications for direct georeferencing of structure from motion photogrammetry
CN103635935B (zh) 3d街道
Gruszczyński et al. Comparison of low-altitude UAV photogrammetry with terrestrial laser scanning as data-source methods for terrain covered in low vegetation
KR102347239B1 (ko) 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
Rumpler et al. Evaluations on multi-scale camera networks for precise and geo-accurate reconstructions from aerial and terrestrial images with user guidance
US20090154793A1 (en) Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors
US20150199556A1 (en) Method of using image warping for geo-registration feature matching in vision-aided positioning
JP2013008364A (ja) 画像の表示
Bevilacqua et al. Digital technology and mechatronic systems for the architectural 3D metric survey
EP2469501A2 (fr) Procédé de détermination d'une erreur de localisation dans une image géoréférencée et dispositif associé
JPWO2019026619A1 (ja) 画像処理装置、画像処理方法、並びにプログラム
Sadeq Accuracy assessment using different UAV image overlaps
KR102050995B1 (ko) 공간좌표의 신뢰성 평가 장치 및 방법
Arza-García et al. A hybrid photogrammetry approach for archaeological sites: Block alignment issues in a case study (the Roman camp of A Cidadela)
CN111105462B (zh) 位姿确定方法及装置、增强现实设备和可读存储介质
KR101766154B1 (ko) DEM 데이터를 이용한 Ortho-photo 텍스쳐의 자동생성 방법 및 시스템
KR20210015516A (ko) 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
JP7375064B2 (ja) ドローン映像を活用した航空地図のアップデート方法およびシステム
CN113129422A (zh) 一种三维模型构建方法、装置、存储介质和计算机设备
Deng et al. Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images
CN107784666B (zh) 基于立体影像的地形地物三维变化检测和更新方法
Meza et al. A structure-from-motion pipeline for topographic reconstructions using unmanned aerial vehicles and open source software
KR102225321B1 (ko) 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법
CN112767477A (zh) 一种定位方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7375064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150