JP2022539352A - データセット対応関係によって定義される世界座標フレーム - Google Patents
データセット対応関係によって定義される世界座標フレーム Download PDFInfo
- Publication number
- JP2022539352A JP2022539352A JP2021577080A JP2021577080A JP2022539352A JP 2022539352 A JP2022539352 A JP 2022539352A JP 2021577080 A JP2021577080 A JP 2021577080A JP 2021577080 A JP2021577080 A JP 2021577080A JP 2022539352 A JP2022539352 A JP 2022539352A
- Authority
- JP
- Japan
- Prior art keywords
- data
- earth
- data set
- geodetic
- computing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 64
- 238000001514 detection method Methods 0.000 claims abstract description 3
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 15
- 239000008186 active pharmaceutical agent Substances 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000015654 memory Effects 0.000 description 12
- 238000013507 mapping Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C1/00—Measuring angles
- G01C1/02—Theodolites
- G01C1/04—Theodolites combined with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/909—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Library & Information Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Instructional Devices (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
Description
概して、本開示は、地球の一部について測地原点を生成するための方法およびシステムを対象とする。測地原点は、地球の一部もしくはすべて、および/または地球の上に位置する物体のそれぞれの位置を記述する座標系、ならびに/あるいは基準点のセットを確立することができる。概して、コンピューティングシステムは、たとえば、人工衛星画像、航空画像、航空光検出と測距(light detection and ranging、LIDAR)データ、地上画像、地上LIDAR、および/または他の形態のセンサデータなど、1つまたは複数のソースからの種々のセンサデータを使用して、測地原点を生成することができる。具体的には、コンピューティングシステムは、2つ以上の異なるデータソースから集められるセンサデータの2つ以上の表現(たとえば、3次元モデル)間の対応関係のセットを特定することができる。いくつかの例においては、第1のデータセットは、確立された位置による基準セットとして取り扱われ、第2のデータセットは、基準セットに対して相対的に変換およびアライメントされて、データセットの融合を可能にすることができる。例示的な対応関係は、像フィーチャ(たとえば、色、形状、エッジ、描写された物体など)、構造フィーチャまたは空間フィーチャ(たとえば、点群、形状、エッジ内などで捕捉される空間フィーチャ)、および/または他のフィーチャを含むことができる。コンピューティングシステムは、対応関係の特定されたセットを使用してセンサデータセットをアライメントして、たとえば地理位置情報(geolocation)精度の正確さとは対照的に、相対精度が高い一貫した測地原点を生成することができる。別の言い方をすれば、複数のソースからのセンサデータをアライメントすることによって、標準座標系と比較して地球上の物体の場所の相対精度を向上させることができる。たとえば、世界測地系(World Geodetic System、WGS)は、地球の形状を仮定する抽象概念に依存する。対照的に、本明細書に開示される方法およびシステムは、新規のまたは改良されたセンサデータを受信すると定期的に更新することができるデータ駆動型表現を作成するためにセンサ情報を利用する。加えて、これらの方法は、分離した数学的抽象概念として地球の上に浮動するのではなく、観測可能な所またはフィーチャにアンカーされる測量基準点を生成するのに使用することができる。
図1Aは、本開示の例示的な実施形態による測地原点を生成するための例示的なコンピューティングシステム100のブロック図を示す。システム100は、ユーザコンピューティングデバイス102、サーバコンピューティングシステム130、および訓練用コンピューティングシステム150を含むことができ、それらは、ネットワーク180を介して通信可能に結合される。
図2は、本開示の例示的な実施形態による例示的なアライメントモデル220のブロック図を示す。いくつかの実装形態においては、アライメントモデル220は、基準データセット202および第2のデータセット204を受信するように訓練されてもよく、または別の形で構成されてもよく、基準データセット202および第2のデータセット204はそれぞれ、地球の一部または別の連続領域を表す情報を含む。基準データセット202および第2のデータセット204を受信した結果として、アライメントモデル220は、対応関係のセットなどの出力データを提供することができ、次いで、そのデータを使用して、測地原点206を更新するための測量基準点座標を決定することができる。特定の実装形態においては、ユーザデバイス102は、通信ネットーク180を通じて測地原点206にアクセスして、拡張現実アプリケーション、マッピングアプリケーションなど、ユーザデバイス102上のアプリケーションにおいて使用するための場所情報にアクセスする、または別の形でその場所情報を受信することができる。
図3は、本開示の例示的な実施形態により行うための例示的な方法のフローチャート図を示す。図3は、例示および議論を目的として、特定の順序で行われるステップを示すが、本開示の方法は、具体的に示される順序または構成に限定しない。方法300の様々なステップは、本開示の範囲から逸脱することなく、様々なやり方で、省略する、再構成する、組み合わせる、および/または適合させることができる。
図4は、本開示の例示的な実施形態による例示的な測地原点構成のブロック図を示す。図4は、本開示の実施形態により生成される測地原点(たとえば、測地原点1、2、…、N)の1つまたは複数のインスタンスを含むように測地原点206を示すが、これらのインスタンスまたはスナップショットが、単一の測地原点に含まれるのではなく、別個に記憶される場合があることを理解すべきである。にもかかわらず、別個に記憶されるか、または単一の測量基準点の一部として記憶されるかにかかわらず、API402は、静的基準データセット202にそれぞれが関連付けられてもよい測地原点の1つまたは複数のインスタンスにアクセスできるように構成されてもよい。したがって、新規センサデータおよび/または更新されたセンサデータが、基準データセット202の変更につながるとき、測地原点の新規バージョンまたはエポックは、様々なコンピューティングデバイスにおいて別個に作成され記憶されてもよく、または単一のコンピューティングデバイスにおいて作成され記憶されてもよい。
本明細書に論じた技術は、サーバ、データベース、ソフトウェアアプリケーション、および他のコンピュータベースのシステム、ならびにそのようなシステムとの間で取られるアクションおよび送信される情報について参照する。コンピュータベースのシステムの内在的な柔軟性により、コンポーネント間およびコンポーネントの間で、非常に種々のタスクおよび機能の構成設定、組合せ、および分割の可能性が可能になる。例として、本明細書に論じる方法は、単一のデバイスもしくはコンポーネントを使用して、または組合せで働く複数のデバイスもしくはコンポーネントを使用して実装されてもよい。データベースおよびアプリケーションは、単一のシステムにおいて実装されることも、または複数のシステムにわたって分散されることも可能である。分散型コンポーネントは、順次に、または並行して動作することができる。
1、2、…、N 測地原点
10、50 コンピューティングデバイス
100 コンピューティングシステム
102 ユーザコンピューティングデバイス、ユーザデバイス
112、132、152 プロセッサ
114、134、154 メモリ
116、136、156 データ
118、138、158 命令
120、140 アライメントモデル
122 ユーザ入力コンポーネント
130 サーバコンピューティングシステム
150 訓練用コンピューティングシステム、アライメントコンピューティングシステム
160 モデル訓練器
162 訓練用データ
180 ネットワーク
202 基準データセット
204 第2のデータセット
206 測地原点
220 アライメントモデル
300 方法
Claims (26)
- コンピューティングシステムであって、
1つまたは複数のプロセッサと、
1つまたは複数の非一時的コンピュータ可読媒体であって、
地球の表面の少なくとも一部に位置する複数の物体それぞれについて座標を提供する測地原点であって、前記複数の物体について前記測地原点によって提供される前記座標が、地球の前記表面の形状の近似とは無関係である、測地原点と、
前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングシステムに、
前記複数の物体または追加の物体のうちの1つの相対位置を決定する際に使用するために、前記測地原点の少なくとも一部を提供させる、命令と
をまとめて記憶する、1つまたは複数の非一時的コンピュータ可読媒体と
を備える、コンピューティングシステム。 - 前記測地原点が、複数の地理データセットの共同アライメントにより作り出される、請求項1に記載のコンピューティングシステム。
- 前記複数の地理データセットが、地理データの少なくとも2つの異なるモダリティを含む少なくとも2つの異なる地理データセットを含む、請求項2に記載のコンピューティングシステム。
- 前記複数の物体について前記測地原点によって提供される前記座標は、追加の地理データセットが前記測地原点とアライメントされると、経時的に変化することが可能になる、請求項1から3のいずれか一項に記載のコンピューティングシステム。
- 前記測地原点の少なくとも前記一部を提供することが、前記複数の物体のうちの少なくとも1つに相対的な前記追加の物体の前記相対位置を決定する際に使用するために、前記測地原点の少なくとも前記一部を提供することを含み、前記追加の物体が、ユーザに関連付けられているユーザデバイスを含む、請求項1から4のいずれか一項に記載のコンピューティングシステム。
- 地球の一部について測地原点を生成するためのコンピュータ実装方法であって、
1つまたは複数のコンピューティングデバイスによって、前記地球の一部の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記地球の一部の第2の一部に対応するセンサデータを含む第2のデータセットを取得するステップであって、前記地球の一部の前記第2の一部が、前記地球の一部の前記第1の一部に少なくとも部分的に重複する、ステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記基準データセットと前記第2のデータセットとの間の対応関係のセットを決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記変換座標のセットを含むように、測量基準点座標の前記セットを更新するステップと
を含む、コンピュータ実装方法。 - 前記1つまたは複数のコンピューティングデバイスによって、前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定するステップが、
前記1つまたは複数のコンピューティングデバイスによって、前記対応関係のセットに一部基づいて変換フィールドを計算するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記変換フィールドを前記第2のデータセットの少なくとも一部に適用することによって、前記第2のデータセットについて前記変換座標のセットを決定するステップと
を含む、請求項6に記載のコンピュータ実装方法。 - 前記基準データセットおよび前記第2のデータセットがそれぞれ、少なくとも2つの異なるセンサモダリティからのセンサデータを含む、請求項6に記載のコンピュータ実装方法。
- 前記基準データセットが、3次元の人工衛星画像、航空画像、またはその両方を含み、前記第2のデータセットが、地上画像を含む、請求項6から8のいずれか一項に記載のコンピュータ実装方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記変換フィールドを使用してマッピングされたことがある前記第2のデータセットに点のサブセットを含むように、前記基準データセットを更新するステップをさらに含む、請求項6から9のいずれか一項に記載のコンピュータ実装方法。
- 前記1つまたは複数のコンピューティングデバイスによって、スナップショットを作成するステップをさらに含み、前記スナップショットが、前記測地原点の時間基準表現を含む、請求項6から10のいずれか一項に記載のコンピュータ実装方法。
- 前記1つまたは複数のコンピューティングデバイスによって、対応関係のセットを決定するステップが、
前記1つまたは複数のコンピューティングデバイスによって、軌跡を決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、複数の基準シャードを作成するように、前記軌跡に関連付けられた前記基準データセットに含まれる画像を処理するステップと、
前記1つまたは複数のコンピューティングデバイスによって、複数の第2のシャードを作成するように、前記軌跡に関連付けられた前記第2のデータセットに含まれる画像を処理するステップと、
前記1つまたは複数のコンピューティングデバイスによって、少なくとも1つの基準シャードを少なくとも1つの第2のシャードと比較することによって少なくとも部分的に基づいてアライメントを計算するステップと
を含む、請求項6から11のいずれか一項に記載のコンピュータ実装方法。 - 前記1つまたは複数のコンピューティングデバイスによって、前記アライメントを計算するステップが、
前記1つまたは複数のコンピューティングデバイスによって、1つの基準シャードのアスペクトを選定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記第2のシャードのうちの1つまたは複数に対して前記アスペクトを三角測量するステップと
を含む、請求項12に記載のコンピュータ実装方法。 - 前記測地原点が、すべての方向で300mごとに約0.5cm~約10cmの相対精度を実証する、請求項6から13のいずれか一項に記載のコンピュータ実装方法。
- 前記センサデータが、色付けされた像、映像、および光検出と測距データのうちの1つまたは複数を含む、請求項6から14のいずれか一項に記載のコンピュータ実装方法。
- 前記測地原点からユーザデバイスに、情報を含むデータパケットを送信するステップをさらに含む、請求項6から15のいずれか一項に記載のコンピュータ実装方法。
- 前記データパケットに含まれる前記情報が、地理局所性フィーチャデータを含み、前記地理局所性フィーチャデータが、前記フィーチャデータに相対的な前記ユーザデバイスの位置を決定するのに使用可能である、請求項16に記載のコンピュータ実装方法。
- 前記データパケットに含まれる前記情報が、基準場所を前記ユーザデバイスに割り当てる場所情報と、前記基準場所からのある半径以内の物体についての相対場所とを含む、請求項16に記載のコンピュータ実装方法。
- 前記ユーザデバイスが、前記データパケットに一部基づいて拡張現実層を表示するように構成される、請求項17または18に記載のコンピュータ実装方法。
- 地球の一部について測地原点を生成するように構成されるコンピューティングシステムであって、
1つまたは複数のプロセッサと、
1つまたは複数の非一時的コンピュータ可読媒体であって、前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングシステムに、
前記地球の一部の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得することと、
前記地球の一部の第2の一部に対応するセンサデータを含む第2のデータセットを取得することであって、前記地球の一部の前記第2の一部が、前記地球の一部の前記第1の一部に少なくとも部分的に重複する、取得することと、
前記基準データセットと前記第2のデータセットとの間の対応関係のセットを決定することと、
前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定することと、
前記変換座標のセットを含むように測量基準点座標の前記セットを更新することと
を含む動作を行わせる命令と
をまとめて記憶する、非一時的コンピュータ可読媒体と
を含む、コンピューティングシステム。 - 標準化された通信を使用して、ユーザデバイスが前記測地原点または前記測地原点に関連付けられる情報にアクセスするのを可能にするアプリケーションプログラミングインターフェース(application programming interface、API)に従って動作するように構成される、請求項20に記載のコンピューティングシステム。
- 前記測地原点に関連付けられる情報を含むデータパケットを、前記APIを使用して前記ユーザデバイスに送信することをさらに含む、請求項21に記載のコンピューティングシステム。
- 前記データパケットに含まれる前記情報が、基準場所を前記ユーザデバイスに割り当てる場所情報と、前記基準場所からのある半径以内の物体についての相対場所とを含む、請求項22に記載のコンピューティングシステム。
- 前記ユーザデバイスの約300m以内の物体のそれぞれの相対場所が、約0.5cm~約10cmの場所精度を実証する、請求項23に記載のコンピューティングシステム。
- 前記測地原点に関連付けられる前記情報がエポックを含み、前記エポックが前記基準データセットの時間基準表現に関連付けられている、請求項22から24のいずれか一項に記載のコンピューティングシステム。
- 1つまたは複数の有形の非一時的コンピュータ可読媒体であって、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
地球の一部の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得することと、
前記地球の一部の第2の一部に対応するセンサデータを含む第2のデータセットを取得することであって、前記地球の一部の前記第2の一部が、前記地球の一部の前記第1の一部に少なくとも部分的に重複する、取得することと、
前記基準データセットと前記第2のデータセットとの間の対応関係のセットを決定することと、
前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定することと、
前記変換座標のセットを含むように、測量基準点座標の前記セットを更新することと
を含む動作を行わせるコンピュータ可読命令を記憶する、1つまたは複数の有形の非一時的コンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/039278 WO2020263248A2 (en) | 2019-06-26 | 2019-06-26 | Worldwide coordinate frame defined by data set correspondences |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022539352A true JP2022539352A (ja) | 2022-09-08 |
Family
ID=67297340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021577080A Pending JP2022539352A (ja) | 2019-06-26 | 2019-06-26 | データセット対応関係によって定義される世界座標フレーム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220244056A1 (ja) |
EP (1) | EP3990860A2 (ja) |
JP (1) | JP2022539352A (ja) |
KR (1) | KR20220024948A (ja) |
CN (1) | CN114286923A (ja) |
WO (1) | WO2020263248A2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11435756B2 (en) * | 2019-12-01 | 2022-09-06 | Nvidia Corporation | Visual odometry in autonomous machine applications |
CN118229518B (zh) * | 2024-05-27 | 2024-07-26 | 四川惟邦新创科技有限公司 | 一种不同坐标系下地图瓦片转换方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145314A (ja) * | 2007-12-17 | 2009-07-02 | Korea Electronics Telecommun | 異種センサ統合モデリングによるデジタル写真測量方法及びその装置 |
JP2017015598A (ja) * | 2015-07-02 | 2017-01-19 | 株式会社トプコン | 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2007363086A1 (en) * | 2007-12-28 | 2009-07-09 | Tele Atlas B.V. | Method and apparatus for combining a first partition from a first digital map database and a second partition from a second digital map database |
US20090232415A1 (en) * | 2008-03-13 | 2009-09-17 | Microsoft Corporation | Platform for the production of seamless orthographic imagery |
US9208458B2 (en) * | 2008-10-02 | 2015-12-08 | Certusview Technologies, Llc | Methods and apparatus for analyzing locate and marking operations with respect to facilities maps |
US8527308B2 (en) * | 2008-10-02 | 2013-09-03 | Certusview Technologies, Llc | Methods and apparatus for overlaying electronic locate information on facilities map information and/or other image information displayed on a locate device |
CN102246159A (zh) * | 2008-12-09 | 2011-11-16 | 通腾北美有限公司 | 产生测地参考数据库产品的方法 |
US9104695B1 (en) * | 2009-07-27 | 2015-08-11 | Palantir Technologies, Inc. | Geotagging structured data |
US8874375B2 (en) * | 2010-10-06 | 2014-10-28 | Verizon Patent And Licensing Inc. | Digital map projection |
US8848983B1 (en) * | 2012-05-31 | 2014-09-30 | Google Inc. | System and method for ranking geographic features using viewshed analysis |
US20140015858A1 (en) * | 2012-07-13 | 2014-01-16 | ClearWorld Media | Augmented reality system |
US20140023996A1 (en) * | 2012-07-18 | 2014-01-23 | F3 & Associates, Inc. | Three Dimensional Model Objects |
US9161019B2 (en) * | 2012-09-10 | 2015-10-13 | Aemass, Inc. | Multi-dimensional data capture of an environment using plural devices |
US9164651B2 (en) * | 2013-04-11 | 2015-10-20 | Google Inc. | Management of geographic data layers in a geographic information system |
US9625612B2 (en) * | 2013-09-09 | 2017-04-18 | Google Inc. | Landmark identification from point cloud generated from geographic imagery data |
US9804748B2 (en) * | 2013-11-01 | 2017-10-31 | Google Inc. | Scale sensitive treatment of features in a geographic information system |
US8761457B1 (en) * | 2013-11-27 | 2014-06-24 | Google Inc. | Aligning ground based images and aerial imagery |
US20160203624A1 (en) * | 2014-03-05 | 2016-07-14 | Google Inc. | System and Method for Providing Combined Multi-Dimensional Map Views |
US9437034B1 (en) * | 2014-12-15 | 2016-09-06 | Google Inc. | Multiview texturing for three-dimensional models |
US9779544B2 (en) * | 2014-12-23 | 2017-10-03 | Google Inc. | Labeling for three-dimensional occluded shapes |
US10275939B2 (en) * | 2015-11-05 | 2019-04-30 | Google Llc | Determining two-dimensional images using three-dimensional models |
US11201981B1 (en) * | 2016-06-20 | 2021-12-14 | Pipbin, Inc. | System for notification of user accessibility of curated location-dependent content in an augmented estate |
WO2018106328A1 (en) * | 2016-12-08 | 2018-06-14 | Google Llc | Contextual map view |
EP3538929B1 (en) * | 2017-03-20 | 2021-09-08 | Google LLC | Systems and methods of determining an improved user location using real world map and sensor data |
US20180283882A1 (en) * | 2017-04-04 | 2018-10-04 | Appropolis Inc. | Location-based services system and method therefor |
US11199631B2 (en) * | 2017-04-07 | 2021-12-14 | Criterionix, L.L.C. | Apparatus and methods for geo-locating one or more objects |
KR20200057723A (ko) * | 2017-09-07 | 2020-05-26 | 씨엠티이 디벨로프먼트 리미티드 | 공간 데이터 처리 시스템 및 방법 |
WO2019172941A1 (en) * | 2018-03-07 | 2019-09-12 | Google Llc | Methods and systems for determining geographic orientation based on imagery |
CN108710140B (zh) * | 2018-04-19 | 2022-07-05 | 广州南方卫星导航仪器有限公司 | 固定基准站的位置坐标校正方法及系统、改进型rtk快速测量方法及系统 |
EP3645971B1 (en) * | 2018-09-12 | 2024-02-14 | Google LLC | Map feature identification using motion data and surfel data |
CN109612447B (zh) * | 2018-12-29 | 2020-12-15 | 湖南璇玑信息科技有限公司 | 遥感影像地图数据的增强定位变换模型的构建方法、增强定位方法及增强定位服务器 |
US11255680B2 (en) * | 2019-03-13 | 2022-02-22 | Here Global B.V. | Maplets for maintaining and updating a self-healing high definition map |
US11860212B1 (en) * | 2022-07-29 | 2024-01-02 | Sas Institute Inc. | Grid status monitoring system |
-
2019
- 2019-06-26 CN CN201980099077.XA patent/CN114286923A/zh active Pending
- 2019-06-26 JP JP2021577080A patent/JP2022539352A/ja active Pending
- 2019-06-26 KR KR1020227002537A patent/KR20220024948A/ko not_active Application Discontinuation
- 2019-06-26 US US17/621,866 patent/US20220244056A1/en active Pending
- 2019-06-26 EP EP19740192.0A patent/EP3990860A2/en active Pending
- 2019-06-26 WO PCT/US2019/039278 patent/WO2020263248A2/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145314A (ja) * | 2007-12-17 | 2009-07-02 | Korea Electronics Telecommun | 異種センサ統合モデリングによるデジタル写真測量方法及びその装置 |
JP2017015598A (ja) * | 2015-07-02 | 2017-01-19 | 株式会社トプコン | 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114286923A (zh) | 2022-04-05 |
EP3990860A2 (en) | 2022-05-04 |
KR20220024948A (ko) | 2022-03-03 |
US20220244056A1 (en) | 2022-08-04 |
WO2020263248A2 (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220028163A1 (en) | Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images | |
CN112102499B (zh) | 融合现实系统和方法 | |
US20210312710A1 (en) | Systems and methods for processing 2d/3d data for structures of interest in a scene and wireframes generated therefrom | |
US10309778B2 (en) | Visual odometry and pairwise alignment for determining a position of an autonomous vehicle | |
KR20190089681A (ko) | 파노라마 뷰에 대한 3차원 모델을 생성하는 방법 및 시스템 | |
EP3846124A1 (en) | System and method enabling a collaborative 3d map data fusion platform and virtual world system thereof | |
CN112102497B (zh) | 用于将应用和交互附接到静态对象的系统和方法 | |
US10089417B2 (en) | Structure determination in a geographic area | |
JP7365385B2 (ja) | マップの生成方法及びそれを用いた画像ベースの測位システム | |
JP2022539352A (ja) | データセット対応関係によって定義される世界座標フレーム | |
Spicer et al. | Producing usable simulation terrain data from UAS-collected imagery | |
KR102520189B1 (ko) | 무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 hd 맵을 생성하는 방법 및 시스템 | |
WO2021149254A1 (ja) | 環境地図管理装置、環境地図管理方法及びプログラム | |
Castagno et al. | Realtime rooftop landing site identification and selection in urban city simulation | |
US12104916B2 (en) | System and method enabling a collaborative 3D map data fusion platform and virtual world system thereof | |
Praschl et al. | Utilization of geographic data for the creation of occlusion models in the context of mixed reality applications | |
Wendel | Scalable visual navigation for micro aerial vehicles using geometric prior knowledge | |
Shende | Heritage3DMtl: A Multi-modal UAV Dataset of Heritage Buildings for Digital Preservation | |
KR20230138108A (ko) | 오픈소스를 활용한 드론 영상해석 방법 | |
Zakhor et al. | Next Generation, 4-D Distributed Modelling and Visualization of Battlefield | |
Zakhor | 2. REPORT DATE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240808 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240819 |