JP2022539352A - データセット対応関係によって定義される世界座標フレーム - Google Patents

データセット対応関係によって定義される世界座標フレーム Download PDF

Info

Publication number
JP2022539352A
JP2022539352A JP2021577080A JP2021577080A JP2022539352A JP 2022539352 A JP2022539352 A JP 2022539352A JP 2021577080 A JP2021577080 A JP 2021577080A JP 2021577080 A JP2021577080 A JP 2021577080A JP 2022539352 A JP2022539352 A JP 2022539352A
Authority
JP
Japan
Prior art keywords
data
earth
data set
geodetic
computing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021577080A
Other languages
English (en)
Inventor
ブライアン・クライナー
デヴィッド・マーティン
ヴェセリン・ディコフ
ヨアキム・クリスティアン・オーレ・アルヴィドソン
ジェームズ・ブライアン・ローズボロー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2022539352A publication Critical patent/JP2022539352A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • G01C1/02Theodolites
    • G01C1/04Theodolites combined with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本開示は、測地原点を生成するための方法およびシステムを対象とする。測地原点は、地球の一部もしくはすべて、および/または地球の上に位置する物体のそれぞれの位置を記述する座標系、ならびに/あるいは基準点のセットを確立することができる。概して、コンピューティングシステムは、人工衛星画像、航空画像、航空光検出と測距(LIDAR)データ、地上画像、地上LIDAR、および/または他の形態のセンサデータを含む1つまたは複数のソースからの様々なセンサデータを使用して、測地原点を生成することができる。このデータは、基準データセットとして使用することができ、その基準データセットは、追加のセンサデータ(たとえば、第2のデータセット)と組み合わせて、データセットで表される重複エリア間の対応関係を決定することができる。地球をまとめてカバーする領域についてこの方法を継続することを用いて、地球表面の数学的抽象概念を使用することなしに、地球全体の測地原点を作成することができる。

Description

本開示は、一般に、測地原点(geodetic datum)に関する。より詳細には、本開示は、測地原点を生成するためのコンピューティングシステムおよび方法に関する。
測地原点は、地球の表面に沿って座標点を定義するのに使用される基準系である。一般に、これらの系は、地球の幾何学的近似(たとえば、楕円体、球面表現または調和関数の組合せなど)を定義する。その場合、基準系を提供するために、座標点が幾何学的近似上に投影されてもよい。
座標点が投影される(たとえば、大陸移動、海面上昇からなどの)大陸の位置、(たとえば、建設からの)建造物の位置、または地球の他のフィーチャ(feature)の位置の変化は、現在の系が地球自体のフィーチャに結び付けられていない数学的抽象概念を利用するので、マッピングおよびナビゲーションのアプリケーションに課題をもたらす可能性がある。広範囲に導入される、たとえば、世界測地系(World Geodetic System、WGS)または地球中心地球固定の(earth-centered, earth-fixed、ECEF)世界座標系(測量基準点(datum))がすでに存在する。しかしながら、これらの既存の測量基準点は、地球の表面における時間的に変動するフィーチャと無関係に展開されるので、特に都市などの特定の位置においては難点がある可能性がある。例として、大陸が移動すると、その上にある建造物は変位し、それにより、WGS84などの既存の測量基準点におけるそれらの座標が変わる。
当技術分野においては、地球の物理的フィーチャを利用し、容易に更新できる測地原点を生成するための方法が必要である。アンカー位置がいくつかの測地原点において以前使用されたことがありながら、それらを使用しても、いくつかの位置をナビゲートするのに重要な可能性がある相対位置精度の向上にはほとんど効果が得られなかった。加えて、アンカー位置は、測量基準点をまったく変えることなく更新するのは困難な場合がある。本明細書においては、経時的に更新され基準付けされてもよいデータ駆動型表現を利用する測地原点を生成するための方法およびシステムについて開示する。
本開示の実施形態の態様および利点については、次の説明に一部記載し、または説明から学ぶこと、もしくは実施形態を実施することにより学ぶことができる。
本開示の1つの例示的な態様は、測地原点を生成するための方法を対象とする。これの方法はそれぞれ、1つまたは複数のコンピューティングデバイスを使用して、次のアクション、すなわち、地球の部分の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得するアクションと、地球の部分の第2の一部に対応するセンサデータを含む第2のデータセットを取得するアクションであって、地球の部分の第2の一部が、地球の部分の第1の一部に少なくとも部分的に重複する、アクションと、基準データセットと第2のデータセットとの間の対応関係のセットを決定するアクションと、対応関係のセットに少なくとも部分的に基づいて第2のデータセットについて変換座標のセットを決定するアクションと、変換座標のセットを含むように、測量基準点座標のセットを更新するアクションとを実行することを含むことができる。
別の例示的な態様は、位置情報または場所情報を利用するアプリケーションを対象とする。本明細書に開示される方法およびシステムを使用して生成される測地原点を使用して、より高い相対精度を提供することができ、それにより、拡張現実、ナビゲーション、および無人運転自動車などのアプリケーションのために位置情報が改良される場合がある。また、本開示の態様は、本開示の実施形態により生成される測地原点からのデータにアクセスするための方法に関する。
本開示の他の態様は、本明細書に開示される技法を実装する、または本開示を実施することにより導出することができる様々なシステム、装置、非一時的コンピュータ可読媒体、ユーザインターフェース、および電子デバイスを対象とする。
本開示の様々な実施形態のこれらならびに他の特徴、態様、および利点は、次の説明および添付の特許請求の範囲を参照してより良く理解されることになるであろう。本明細書の一部に組み込まれ、本明細書の一部を構成する付属図面は、本開示の例示的な実施形態を例示しており、本明細書とともに、関係する原理を説明するのに役立つ。
当業者に向けられる実施形態の詳細な議論は、添付の図を参照する本明細書に記載される。
本開示の例示的な実施形態による測地原点を生成するための例示的なコンピューティングシステムのブロック図である。 本開示の例示的な実施形態による測地原点を生成するための例示的なコンピューティングデバイスのブロック図である。 本開示の例示的な実施形態による測地原点を生成するための例示的なコンピューティングデバイスのブロック図である。 本開示の例示的な実施形態による測地原点を生成するための例示的な方法のブロック図である。 本開示の例示的な実施形態による測地原点を生成するための例示的な方法のフローチャート図である。 本開示の例示的な実施形態により生成される例示的な測地原点のブロック図である。
複数の図にわたって繰り返される参照数字は、様々な実装形態における同じ特徴を識別するように意図される。
概説
概して、本開示は、地球の一部について測地原点を生成するための方法およびシステムを対象とする。測地原点は、地球の一部もしくはすべて、および/または地球の上に位置する物体のそれぞれの位置を記述する座標系、ならびに/あるいは基準点のセットを確立することができる。概して、コンピューティングシステムは、たとえば、人工衛星画像、航空画像、航空光検出と測距(light detection and ranging、LIDAR)データ、地上画像、地上LIDAR、および/または他の形態のセンサデータなど、1つまたは複数のソースからの種々のセンサデータを使用して、測地原点を生成することができる。具体的には、コンピューティングシステムは、2つ以上の異なるデータソースから集められるセンサデータの2つ以上の表現(たとえば、3次元モデル)間の対応関係のセットを特定することができる。いくつかの例においては、第1のデータセットは、確立された位置による基準セットとして取り扱われ、第2のデータセットは、基準セットに対して相対的に変換およびアライメントされて、データセットの融合を可能にすることができる。例示的な対応関係は、像フィーチャ(たとえば、色、形状、エッジ、描写された物体など)、構造フィーチャまたは空間フィーチャ(たとえば、点群、形状、エッジ内などで捕捉される空間フィーチャ)、および/または他のフィーチャを含むことができる。コンピューティングシステムは、対応関係の特定されたセットを使用してセンサデータセットをアライメントして、たとえば地理位置情報(geolocation)精度の正確さとは対照的に、相対精度が高い一貫した測地原点を生成することができる。別の言い方をすれば、複数のソースからのセンサデータをアライメントすることによって、標準座標系と比較して地球上の物体の場所の相対精度を向上させることができる。たとえば、世界測地系(World Geodetic System、WGS)は、地球の形状を仮定する抽象概念に依存する。対照的に、本明細書に開示される方法およびシステムは、新規のまたは改良されたセンサデータを受信すると定期的に更新することができるデータ駆動型表現を作成するためにセンサ情報を利用する。加えて、これらの方法は、分離した数学的抽象概念として地球の上に浮動するのではなく、観測可能な所またはフィーチャにアンカーされる測量基準点を生成するのに使用することができる。
したがって、本明細書に説明する共同アライメント(joint alignment)技法により生み出される測地原点は、データセットが組み合わされたとき、データセット間の良好なアライメントを可能にすることができる。具体的には、提案された技法は、真の地理精度にだけ焦点を合わせているのでも、または地球の楕円体モデルを仮定するのでもなく、強い内部一貫性および相対精度/場所を示すことができる測地原点を生成する。データセット間の一貫性およびデータセット内の相対精度が、実際面での地理位置情報の絶対精度よりも重要であることが多い。絶対地理場所は、GPSによりのみ日常的に測定され、それは、都市部において著しく低下する。したがって、多くのアプリケーションの場合、絶対場所は、ユーザに提示されるすべての地理データが互いに一貫するように確実にすること、つまり、対応する物体(たとえば、道路、建造物、ランドマーク)が、単一製品において見て取れるすべてのデータセットで同一場所に位置特定されるように確実にすることほどは重要ではない。1つの例として、拡張現実を行うように測地原点に基づいて生成される局所性(localization)が、たとえ数メートルだけずれていても、ユーザ位置ならびにいずれの注釈、建造物の外観、および/または他の仮想要素もやはり同じ数メートルだけずれている限り、ユーザエクスペリエンスは低下しない。相対精度が高い限り、すべての地理表現は、ユーザに対して一貫するべきであり、それにより、良好なユーザエクスペリエンスがもたらされる。
より具体的には、本開示の例示的な態様は、測地原点を生成するための方法を含む。概して、この方法は、GPSデバイス、加速度計、カメラ、RADAR、LIDAR、または他のデータ捕捉デバイスからのセンサ情報を含むことができる種々の地理データを含む基準データセットを取得する、または別の形で受信するステップを含む。基準データセットは、オプションで、測地原点を生成するための初期基準フレームとして使用することができる測量基準点座標(たとえば、WGS座標)の既存セットにも関連付けることができる。初期基準フレームを拡大するために、追加のセンサデータが(たとえば、人工衛星画像、航空画像、および/または地上画像から)取得可能である。追加のセンサデータを使用して、重複領域を特定すること(たとえば、像アライメント、または他の形態のフィーチャマッチングを使用して、対応関係を特定すること)によって、基準データセットとアライメントすることができる第2のデータセットを作成することができる。第2のデータセットを基準データセットとアライメントすることによって、第2のデータセットに測量基準点座標を割り当てるのに使用することができる対応関係のセットが特定されてもよく、それによって第2のデータセットは基準データセットと融合される。
本開示の別の例示的な態様は、対応関係のセットに少なくとも部分的に基づいて第2のデータセットについて変換座標のセットを決定することを含む。特定の実装形態においては、変換座標のセットを決定することは、対応関係のセットに一部基づいて変換フィールドを計算することと、変換フィールドを第2のデータセットの少なくとも一部に適用することとを含むことができる。概して、変換座標のセットは、第2のデータセットに含まれる各データ点、または第2のデータセットに含まれるデータ点のうちのいくつか(たとえば、第2のデータセットの部分に含まれる各データ点、または第2のデータセットの部分に含まれるデータ点のうちのいくつか)について座標を含むことができる。
説明するための一例として、像データが、1つまたは複数の航空機および/または人工衛星によって集められて、初期基準データセットを形成することができる。像データは、GPS座標(たとえば、緯度および経度)に関連付けることができ、それは、測量基準点座標の初期セットを像データに割り当てるのに使用することができる。測量基準点座標を拡張するために、追加のセンサデータが、既存のデータセット(たとえば、道路像)から、または新規データセット(たとえば、追加の人工衛星画像)から入手可能である。概して、追加のセンサデータは、基準データセットとの何らかの対応関係または重複関係を有する(つまり、地球の同じ部分のうちの少なくともいくつかを描写する、または表現する)べきである。アライメントモデル(たとえば、像比較、フィーチャマッピングなど)を使用して、基準データセットと追加のセンサデータとの間の重複エリアを特定することができる。対応関係のこれらのセットの空間的なマッピングを使用して、両方のデータセットで像空間の連続的表現を作成することができる変換フィールドを決定することができる。変換フィールドを第2のデータセットの少なくとも一部に適用することによって、第2のデータセットについて、実世界の測量基準点座標を生成することができる。例示的な実装形態においては、変換フィールドは、行列演算を含むことができ、行列演算は、対応関係のセットによって生成される場合がある空間的表現をとること、ならびに測量基準点座標のセットの一部または一部を使用して座標点(たとえば、緯度、経度、および高度)を推定することができる。
概して、基準データセットを取得することは、(たとえば、カメラからの)送信データを受信すること、保存データにアクセスすること、またはその両方によって達成することができる。基準データセットは、互いに独立した、または互いに関連付けられる場合がある時間、像、および空間を含む種々の異なるデータを含むことができる。たとえば、ドローンを使用して、変動する高度においてロサンゼルスの上のエリアの映像および/または静止像を捕捉することができる。この初期データは、経度、緯度、および高度が、撮影された各映像および像について知られているので、測量基準点について基底(basis)を提供することができる。
測量基準点座標のセットを基準データセットに割り当てることは、基準データセットの一部として含まれる経度、緯度、および高度の情報にアクセスすることを含むことができる。代替としてまたは追加として、新規の基底点または基準点は、ドローンの航路(たとえば、速度、方向など)をマッピングし各点を航路測量基準点座標において割り当てることによって、測量基準点座標としての使用に導入されてもよい。たとえば、マルチビューステレオおよび/またはバンドル調整技法を行って、ある程度の内部誤差を伴って、各点について緯度、経度、および/または高度座標を提供する3次元モデルを決定することができる。したがって、測量基準点座標は、経度、緯度、および高度などの空間的座標を含むことができ、かつ/または他の測量基準点座標に相対的に表すことができる。本開示の態様はまた、測地原点の基準を時間とすることができる機能も含むことができる。したがって、測量基準点座標は、時間的情報も含む場合があり、それにより、都市などの急速に変化する可能性がある空間における使用に利点がもたらされる可能性がある。
基準データセットを取得することと同様に、第2のデータセットは、基準データセットの取得に使用されるのと同じセンサモダリティを使用することに限定する必要のない種々の方法を使用して取得することができる。たとえば、基準データセットは、航空画像を含むことができ、一方、第2のデータセットは、地上で撮影された像を含む。別の例としては、基準データセットは、色の像を含むことができ、一方、第2のデータセットは、白黒の像を含む。さらなる例として、基準データセットは、位置(たとえば、GPS)情報を含むことができ、一方、第2のデータセットは、像データしか含まない。多くの他の違いが、モダリティ、データ収集装置、および/または他のデータ特性/属性に存在する可能性がある。代替として、第2のデータセットは、モダリティが基準データセットに非常に類似すること、または同一であることができる。
本開示の別の態様は、基準データセットと第2のデータセットとの間の対応関係のセットを決定することを含む。理想的には、対応関係のセットは、基準データセットと第2のデータセットとの間の重複関係または対応関係のエリアもしく点を特定すべきである。地球は連続空間であるので、これらの重複関係エリアは、一方のデータセット(たとえば、基準データセット)から第2のデータセットに空間的情報を移動させるのに使用することができる距離などの空間的情報を決定するのに使用することができる。
1つの例示的な実装形態として、対応関係は、様々な像フィーチャマッチング技法、および/または反復最接近点アルゴリズムなどを使用して特定することができる。いくつかの実装形態においては、対応関係は、生のセンサデータ間で特定することができる。他の実装形態においては、鳥瞰図表現、および/または3次元モデリング(たとえば、メッシュモデル)などの様々な前処理技法を使用して、センサデータの表現を生成することができ、対応関係は、その表現に関して特定することができる(たとえば、LIDARデータセットは、測地原点内ですでにマッピングされたことがある建造物の隅部に一致することができる場合がある)。
別の例示的な実装形態として、対応関係のセットを決定することは、機械学習用モデル(たとえば、ニューラルネットワーク)を使用して達成することができる。たとえば、2つ以上の像間の類似点を決定することは、2つの像が同じエリアを表示す確実性(confidence)を出力するように構成される分類器を使用して達成することができる。加えて、基準データセットおよび第2のデータセットは異なるセンサモダリティを含む場合があるので、複数の機械学習用技法またはデータ処理用技法が、対応関係のセットを決定するための精度を向上させるために使用されてもよい。
別の例として、対応関係のセットを決定することは、1つまたは複数のコンピューティングデバイスによって、軌跡(locus)を決定することと、複数の基準シャードを作成するために、軌跡に関連付けられる基準付けデータセットに含まれる画像を処理することと、複数の第2のシャードを作成するために、軌跡に関連付けられる第2のデータセットに含まれる画像を処理することと、少なくとも1つの基準シャードを少なくとも1つの第2のシャードと比較することによって、少なくとも部分的に基づいているアライメントを計算することとを含むことができる。いくつかの実装形態においては、アライメントを計算することは、1つの基準シャードのアスペクトを選定することと、そのアスペクトを第2のシャードのうちの1つまたは複数に対して三角測量することとを含むことができる。
本開示の別の態様は、対応関係のセットに一部基づいて変換フィールドを計算することを含む。概して、変換フィールドは、測量基準点座標を第2のデータセットで表される領域に割り当てるのに使用することができる。変換フィールドは、反復最接近点アルゴリズム、像から像への変換、オプティカルフローの技法、および/または他の技法(たとえば、様々な対応関係間の距離を平均化する、またはローカルで平均化する)によるメッシュからメッシュなどの様々な技法を使用してコンピュータ計算することができる。
本明細書に使用されるとき、変換フィールドを使用して決定される割り当てられた測量基準点座標は、変換座標と呼ばれる。いくつかの実装形態においては、変換フィールドは、第2のデータセットに含まれるすべての領域に変換座標を割り当てるために適用することができる。特定の実装形態においては、変換フィールドは、第2のデータセットに含まれるいくつかの領域にのみ変換座標を割り当てるために適用される場合がある。例として、変換フィールドは、予測精度を含む場合があり、それにより、変換フィールドは、第2のデータセットの特定の領域(たとえば、対応関係のセットにおける対応関係の15ft(4m60cm)以内の領域)にわたって、より正確になる。変換フィールドは、予測精度または別の計量に一部基づいて、第2のデータセットにおける特定の領域にのみ座標を割り当てる場合がある。
本開示の別の態様は、変換座標(たとえば、変換フィールドの適用により、第2のセンサデータセットに割り当てられる座標)のうちの少なくともいくつかを含むように、測量基準点座標のセットを更新することを含む。
地球全体をまとめてカバーするデータセットについてその方法を繰り返すことを使用して、世界測地原点を作成することができる。基準データセット(たとえば、基準データセットに関連付けられている測量基準点座標)のバージョニングおよび更新は、基準データセットが経時的に変化することにつながる可能性がある。たとえば、基準データセットを拡張するために、新規カバレッジを追加することができる。追加としてまたは代替として、更新されたセンサ情報は、基準データセットを精緻化するために、新規または既存のデバイスによって捕捉することができる。これらの変更を測地原点に組み込むために、識別子(たとえば、名称、時間など)に関連付けることができる基準データセットの変更不可能なスナップショットを作成することができる。したがって、特定の点において、全体的に新規の測量基準点または測地原点のバージョンが生成され、変更不可能な基準データセットに基準付けされてもよく、それをエポックと呼ぶことができる。
測地原点座標は、基準データセットのエポックおよび/またはスナップショットに関連付けることができ、ユーザは、エポックにアクセスし、かつ/またはAPIによりスナップショット間で投影するために変換を作成する場合がある。例示的な実装形態として、ユーザデバイスは、ユーザデバイスに相対的な位置情報を提供するために、APIを使用して測地原点に関連付けられる情報にアクセスする場合がある。したがって、拡張現実(augmented reality、AR)などのアプリケーションのための測地原点にアクセスするシステムが実装可能であり、それにより、高度のローカル精度が必要なARアプリケーションに利点がもたらされる可能性がある。加えて、食料品店または空港などの局所的アプリケーションでは、基準付けされたデータセットと組み合わせて大きい内部空間について測量基準点座標を生成することができるデータセットが展開される場合があり、それもまたAPIスナップショットに基準付けされる場合があり、それは、顧客による誘導、および/または在庫補充の自動化に使用することができる。
位置またはナビゲーション情報にアクセスすることに加えて、ユーザは、(たとえば、表面変動フィーチャの時間表現を展開するために)エポック間の座標を投影する場合がある。例示的な実装形態として、エポック間で投影することは、本開示による測地原点を生成するための方法と同様の動作を行うことを含むことができる。例として、各エポックが基準データセットの変更不可能なスナップショットに関連付けられるので、2つのエポック間で投影するために、ユーザは、一方のエポックを基準エポックと指定し、もう一方のエポックを第2のエポックと指定することができる。次いで、基準エポックに関連付けられる基準データセットは、第2のエポックに関連付けられる基準データセットにアライメントされて、対応関係を決定することができ、それを一部使用して、第2のエポックに関連付けられる基準データセットに変換座標を割り当てるための変換フィールドを作成することができる。このやり方で、特定のエポックを使用して生成された測量基準点座標は、別のエポックに投影することができる。
いくつかのARアプリケーションでは、本開示の方法およびシステムは、リアルタイムデータを処理するように構成される場合がある。たとえば、ユーザデバイスによって捕捉される映像は、実質的にリアルタイムに測量基準点座標を生成するのに使用することができるローカルセンサ情報を提供するために、第2のデータセットとして使用されるように取得されてもよく、または第2のデータセットに含められてもよい。次いで、像層などのAR情報は、ユーザデバイスにおいて表示され、映像が新規エリアまたは位置について記録されると、リアルタイムに更新される場合がある。
本開示の実装形態では、測地原点は、高度の相対精度を実証することができる。たとえば、特定の実装形態は、すべての方向において300mごとに約0.5cm~約10cmの相対精度を実証する場合がある。したがって、測量基準点内の点ごとに、各点から半径300mの球体内の位置および/または物体は、それらの絶対距離約0.5cm~約10cm(たとえば、約1cm)以内にある。いくつかの実装形態においては、測量基準点座標は、固定されていないが、新規センサデータが利用可能になると、定期的に更新される場合があり、それにより、測量基準点座標は、様々な自然の地質学的影響により地球の表面上の様々な点が受ける相対位置の変化と同様に、経時的に「浮動(float)」または別の形でモーフィングすることが可能になる。浮動座標のアスペクトはまた、自然災害(たとえば、地震)を受けたばかりのエリアなど、特定の領域に、測量基準点座標の更新の焦点を合わせることを含むことができる。
技術的効果の一例として、本明細書に開示される実施形態は、地球の幾何学的近似に紐付けられていない測地原点の展開を可能にすることができる。いくつかの初期座標情報を活用することによって、測地原点は、高度の相対精度を実証することができるセンサ情報から構築することができる。この高い相対精度情報を使用すると、ARアプリケーションに使用することができる建造物内部情報などの標準測量基準点において捕捉することが容易でない、または業務手順を改善することが容易でない情報の局所化の進歩を可能にすることができる。あるいは、都市などのエリアにおいて変わっていく景観、または自然の原因によりそれらの受ける変化は、変化が生じるにつれてこの情報をリアルタイムに測量基準点に組み込むことができるので、本開示による方法を使用して、より容易に捕捉される場合がある。たとえば、新規の建造物の建築は、新規データが基準データセットに含まれることにつながる可能性があり、それにより、ひいては、測地原点が決定されてもよい精度を改善することができる。さらには、基準データセットを更新できる機能は、測地原点によってカバーされることになるエリアよりも地理的範囲においてかなり小さいこともあり得る1つのデータセット、すなわち、基準データセットのみを更新することにより、測地原点全体の精度が経時的に保存されてもよいことを確実にし、更新方法の技術的効率性の向上につながる。
次に、図を参照して、本開示の例示的な実施形態について、さらに詳細に論じる。
例示的なデバイスおよびシステム
図1Aは、本開示の例示的な実施形態による測地原点を生成するための例示的なコンピューティングシステム100のブロック図を示す。システム100は、ユーザコンピューティングデバイス102、サーバコンピューティングシステム130、および訓練用コンピューティングシステム150を含むことができ、それらは、ネットワーク180を介して通信可能に結合される。
ユーザコンピューティングデバイス102は、たとえば、パーソナルコンピューティングデバイス(たとえば、ラップトップもしくはデスクトップ)、モバイルコンピューティングデバイス(たとえば、スマートフォンもしくはタブレット)、ゲーミングコンソールもしくはコントローラ、ウェアラブルコンピューティングデバイス、埋込型コンピューティングデバイス、または任意の他のタイプのコンピューティングデバイスなど、任意のタイプのコンピューティングデバイスとすることができる。
ユーザコンピューティングデバイス102は、1つまたは複数のプロセッサ112、およびメモリ114を含む。1つまたは複数のプロセッサ112は、任意の適切な処理デバイス(たとえば、プロセッサコア、マイクロプロセッサ、ASIC、FPGA、コントローラ、マイクロコントローラなど)とすることができ、1つのプロセッサ、または動作可能なように接続される複数のプロセッサとすることができる。メモリ114には、RAM、ROM、EEPROM、EPROM、フラッシュメモリデバイス、磁気ディスクなど、およびそれらの組合せなどの1つまたは複数の非一時的コンピュータ可読ストレージ媒体を含めることができる。メモリ114は、データ116および命令118を記憶することができ、命令118は、ユーザコンピューティングデバイス102に動作を行わせるようにプロセッサ112によって実行される。
いくつかの実装形態においては、ユーザコンピューティングデバイス102は、1つまたは複数のアライメントモデル120を記憶すること、または含むことができる。たとえば、アライメントモデル120は、ニューラルネットワーク(たとえば、ディープニューラルネットワーク)などの様々な機械学習モデル、または非線形モデルおよび/もしくは線形モデルを含む他のタイプの機械学習モデルとすることができ、または別の形でそれらを含むことができる。ニューラルネットワークには、フィードフォワードニューラルネットワーク、リカレントニューラルネットワーク、(たとえば、長短期メモリリカレントニューラルネットワーク)、畳み込みニューラルネットワーク、または他の形態のニューラルネットワークを含めることができる。
追加としてまたは代替として、アライメントモデルは、必ずしも学習モデルとは限らず、そうではなく、動き、像比較、フィーチャマッピングなどからの構造体などの様々なフィーチャマッチングアルゴリズムを行って、基準データセットと(たとえば、第2のデータセットに含まれる)追加のセンサデータとの間の重複関係のエリアを特定することができる。いくつかの実装形態においては、アライメントを計算することは、基準データセットに含まれる特定のデータと第2のデータセットにおける特定のデータとの間の大まかな重複関係エリアを表す軌跡を特定することを含むことができる。軌跡内のデータの属性は、データのより低い表現(たとえば、像の一部、像の白黒表現、形状表現などの像の平滑な表面表現、もしくはそれらの組合せ)を定義する1つまたは複数のシャードに分解することができる。いくつかの実装形態においては、アライメントを計算することは、(基準データセットに含まれるデータから決定される)少なくとも1つの基準シャードを(第2のデータセットに含まれるデータから決定される)少なくとも1つの第2のシャードと比較することによって少なくとも部分的に基づくことができる。たとえば、1つの基準シャードのアスペクトが、選定され、第2のシャードのうちの1つまたは複数に対して三角測量されてもよい。この方法は、第2のデータセットに含まれるデータ点のそれぞれについて繰り返すことができ、三角測量されたアライメントは、ポーズまたはセンサデータのわずかな変動を考慮するために平滑化される場合がある。別の例としては、シャードごとに、剛体変換が点のセットを生成するためにコンピュータ計算されてもよく、補間がデータセット全体にわたって各点同士間で三角測量することによって行われ得る。
いくつかの実装形態においては、1つまたは複数のアライメントモデル120は、ネットワーク180を介してサーバコンピューティングシステム130から受信され、ユーザコンピューティングデバイスメモリ114に記憶され、次いで、1つまたは複数のプロセッサ112によって使用され、または別の形で実装されてもよい。いくつかの実装形態においては、ユーザコンピューティングデバイス102は、(たとえば、基準データセットと第2のデータセットとの間の対応関係を並行して決定するために)単一のアライメントモデル120の複数の並行インスタンスを実装することができる。これらの使用事例は、複数の第2のデータセットが利用可能であるとき、または(たとえば、基準データセットに含まれる例と比較して、第2のデータセットに含まれる例の数に基づいて)第2のデータセットが大きい場合、利点をもたらす場合があり、データセット間の対応関係マッピングは、第2のデータセットをセグメント化することによって、より効率的に処理することができる。
より具体的には、アライメントモデル120は、コンピューティングシステム130によって取得される基準データセットとコンピューティングシステム130によって取得される第2のデータセットとの間の対応関係のセットを決定するように機能することができる。一例として、対応関係は、様々な像フィーチャマッチング技法、および/または反復最接近点アルゴリズムなどを使用して特定することができる。いくつかの実装形態においては、対応関係は、基準データセットおよび/または第2のデータセットの一部として含まれる生のセンサデータ間で特定することができる。他の実装形態においては、鳥瞰図表現、および/または3次元モデリング(たとえば、メッシュモデル)などの様々な前処理技法を使用して、センサデータの表現を生成することができ、対応関係は、その表現に対して特定することができる。
特定の実装形態においては、対応関係のセットを一部使用して、変換フィールドを計算することができ、変換フィールドは、第2のデータセットについて変換座標を割り当てて、または別の形で決定して、基準データセットおよび第2のデータセットで表される地球の部分の連続座標表現を生成するのに使用することができる。この連続表現を定義する座標は、測地原点として使用することができる。アライメントモデル120のアスペクトは、対応関係を決定することを継続するための追加の第2のデータセット(たとえば、第3のデータセット、第4のデータセットなど)にわたって反復することを含むことができ、その対応関係を使用して、地球のさらなる部分を表すために、測地原点を更新する、または別の形で拡張することができる。
追加としてまたは代替として、1つまたは複数のアライメントモデル140が、クライアントサーバ関係に従ってユーザコンピューティングデバイス102と通信するサーバコンピューティングシステム130に含められ、または別の形で記憶され、かつサーバコンピューティングシステム130によって実装されてもよい。たとえば、アライメントモデル140は、ウェブサービスの一部としてサーバコンピューティングシステム130によって実装されてもよい。したがって、1つもしくは複数のモデル120が、ユーザコンピューティングデバイス102において記憶され、実装されてもよく、ならびに/または1つもしくは複数のモデル140が、サーバコンピューティングシステム130において記憶され、実装されてもよい。
ユーザコンピューティングデバイス102はまた、ユーザ入力を受信する1つまたは複数のユーザ入力コンポーネント122を含むことができる。たとえば、ユーザ入力コンポーネント122は、ユーザ入力オブジェクト(たとえば、指、またはスタイラス)のタッチに感応するタッチ感応式コンポーネント(たとえば、タッチ感応式表示画面またはタッチパッド)とすることができる。タッチ感応式コンポーネントは、仮想キーボードを実装するように働くことができる。他の例示的なユーザ入力コンポーネントには、マイクロフォン、従来式キーボード、またはユーザがユーザ入力を提供することができる他の手段が含まれる。
サーバコンピューティングシステム130は、1つまたは複数のプロセッサ132、およびメモリ134を含む。1つまたは複数のプロセッサ132は、任意の適切な処理デバイス(たとえば、プロセッサコア、マイクロプロセッサ、ASIC、FPGA、コントローラ、マイクロコントローラなど)とすることができ、1つのプロセッサ、または動作可能なように接続される複数のプロセッサとすることができる。メモリ134には、RAM、ROM、EEPROM、EPROM、フラッシュメモリデバイス、磁気ディスクなど、およびそれらの組合せなどの1つまたは複数の非一時的コンピュータ可読ストレージ媒体を含めることができる。メモリ134は、データ136および命令138を記憶することができ、命令138は、サーバコンピューティングシステム130に動作を行わせるようにプロセッサ132によって実行される。
いくつかの実装形態においては、サーバコンピューティングシステム130は、1つまたは複数のサーバコンピューティングデバイスを含む、または別の形で1つまたは複数のサーバコンピューティングデバイスによって実装される。サーバコンピューティングシステム130が複数のサーバコンピューティングデバイスを含む例においては、そのようなサーバコンピューティングデバイスは、順次コンピューティングアーキテクチャ、並行コンピューティングアーキテクチャ、またはそれらの何らかの組合せに従って動作することができる。
上述したように、サーバコンピューティングシステム130は、1つまたは複数の機械学習アライメントモデル140を記憶する、または別の形で含むことができる。たとえば、モデル140は、様々な機械学習モデルとすることができ、または別の形で様々な機械学習モデルを含むことができる。例示的な機械学習モデルには、ニューラルネットワーク、または他の多層非線形モデルが含まれる。例示的なニューラルネットワークには、フィードフォワードニューラルネットワーク、ディープニューラルネットワーク、リカレントニューラルネットワーク、および畳み込みニューラルネットワークが含まれる。
ユーザコンピューティングデバイス102および/またはサーバコンピューティングシステム130は、ネットワーク180を介して通信可能に結合されるアライメントコンピューティングシステム150との相互作用により、モデル120および/または140を訓練することができる。訓練用コンピューティングシステム150は、サーバコンピューティングシステム130から分離することができ、またはサーバコンピューティングシステム130の一部とすることができる。
訓練用コンピューティングシステム150は、1つまたは複数のプロセッサ152、およびメモリ154を含むことができる。1つまたは複数のプロセッサ152は、任意の適切な処理デバイス(たとえば、プロセッサコア、マイクロプロセッサ、ASIC、FPGA、コントローラ、マイクロコントローラなど)とすることができ、1つのプロセッサ、または動作可能なように接続される複数のプロセッサとすることができる。メモリ154には、RAM、ROM、EEPROM、EPROM、フラッシュメモリデバイス、磁気ディスクなど、およびそれらの組合せなどの1つまたは複数の非一時的コンピュータ可読ストレージ媒体を含めることができる。メモリ154は、データ156および命令158を記憶することができ、命令158は、訓練用コンピューティングシステム150に動作を行わせるようにプロセッサ152によって実行される。いくつかの実装形態においては、訓練用コンピューティングシステム150は、1つまたは複数のサーバコンピューティングデバイスを含む、または別の形で1つまたは複数のサーバコンピューティングデバイスによって実装される。
訓練用コンピューティングシステム150は、たとえば誤差の逆伝搬などの様々な訓練技法または学習技法を使用して、ユーザコンピューティングデバイス102および/またはサーバコンピューティングシステム130において記憶されるマシン学習モデル120および/または140を訓練するモデル訓練器(model trainer)160を含むことができる。いくつかの実装形態においては、誤差の逆伝搬を行うことは、時間とともに、短縮された逆伝搬を行うことを含むことができる。モデル訓練器160は、いくつかの一般化技法(たとえば、重み減衰、ドロップアウトなど)を行って、訓練されるモデルの一般化性能を向上させることができる。
具体的には、モデル訓練器160は、訓練用データセット162に基づいてアライメントモデル120および/または140を訓練することができる。訓練用データ162は、たとえば、色、光、または他のデータアスペクト、ならびに写真および/または映像などの地上像を含むことができる人工衛星像またはカメラ像などの航空像の部分を含むことができる。いくつかの実装形態においては、モデル訓練器は、コンピューティングシステムの一部として使用されない場合がある、または別の形で含まれない場合がある。たとえば、いくつかの実装形態においては、アライメントモデルは、1つまたは複数の教師なし学習技法を使用して、対応関係のセットを決定する場合がある。
特定の実装形態においては、ユーザが同意した場合、第2のデータセットに含めるための訓練の例および/またはデータが、ユーザコンピューティングデバイス102によって提供されてもよい。したがって、そのような実装形態においては、ユーザコンピューティングデバイス102によって提供されるアライメントモデル120は、ユーザコンピューティングデバイス102から受信したユーザ固有のデータに関して、訓練用コンピューティングシステム150によって訓練されてもよい。いくつかの例においては、この方法は、モデルを個別化することと呼ぶことができる。
モデル訓練器160は、所望の機能を提供するのに利用されるコンピュータ論理機構を含む。モデル訓練器160は、汎用プロセッサを制御するハードウェア、ファームウェア、および/またはソフトウェアにおいて実装されてもよい。たとば、いくつかの実装形態においては、モデル訓練器160は、プログラムファイルを含み、プログラムファイルは、ストレージデバイスにおいて記憶され、メモリにロードされ、1つまたは複数のプロセッサによって実行される。他の実装形態においては、モデル訓練器160は、RAMハードディスク、または光学もしくは磁気媒体などの有形のコンピュータ可読ストレージ媒体に記憶されるコンピュータ実行可能命令の1つまたは複数のセットを含む。
ネットワーク180は、ローカルエリアネットワーク(たとえば、イントラネット)、広域ネットワーク(たとえば、Internet)、またはそれらの何らかの組合せなど、任意のタイプの通信ネットワークとすることができ、任意の数のワイヤードリンクまたはワイヤレスリンクを含むことができる。概して、ネットワーク180を経由する通信は、幅広い種々の通信プロトコル(たとえば、TCP/IP、HTTP、SMTP、FTP)、符号化またはフォーマット(たとえば、HTML、XML)、および/または保護スキーム(たとえば、VPN、セキュアHTTP、SSL)を使用して、任意のタイプのワイヤード接続および/またはワイヤレス接続によって伝えられてもよい。
図1Aは、本開示を実装するのに使用することができる1つの例示的なコンピューティングシステムを示す。他のコンピューティングシステムも同様に使用することができる。たとえば、いくつかの実装形態においては、ユーザコンピューティングデバイス102は、モデル訓練器160、および訓練用データセット162を含むことができる。そのような実装形態においては、モデル120は、ユーザコンピューティングデバイス102において、訓練されることと、ローカルで使用されることとの両方が可能である。そのような実装形態のうちのいくつかにおいては、ユーザコンピューティングデバイス102は、ユーザ固有のデータに基づいてモデル120を個別化するようにモデル訓練器160を実装することができる。
図1Bは、本開示の例示的な実施形態により行う例示的なコンピューティングデバイス10のブロック図を示す。コンピューティングデバイス10は、ユーザコンピューティングデバイス、またはサーバコンピューティングデバイスとすることができる。
コンピューティングデバイス10は、いくつかのアプリケーション(たとえば、アプリケーション1~N)を含む。各アプリケーションは、それ自体の機械学習用ライブラリ、および機械学習モデルを含むことができる。たとえば、各アプリケーションは、機械学習モデルを含むことができる。例示的なアプリケーションには、テキストメッセージングアプリケーション、電子メールアプリケーション、拡張現実アプリケーション、カメラアプリケーション、GPSアプリケーション、仮想キーボードアプリケーション、ブラウザアプリケーションなどが含まれる。
図1Bに示されるように、各アプリケーションは、たとえば、1つまたは複数のセンサ、コンテキストマネージャ、デバイスステートコンポーネント、および/または追加のコンポーネントなど、コンピューティングデバイスのいくつかの他のコンポーネントと通信することができる。いくつかの実装形態においては、各アプリケーションは、API(たとえば、公共API)を使用して各デバイスコンポーネントと通信することができる。いくつかの実装形態においては、各アプリケーションによって使用されるAPIは、そのアプリケーションに固有である。たとえば、拡張現実(AR)アプリケーションは、アライメントモデルと通信するためのAPI、および/または測地原点などのアライメントモデルの出力部を含むことができる。
図1Cは、本開示の例示的な実施形態により行う例示的なコンピューティングデバイス50のブロック図を示す。コンピューティングデバイス50は、ユーザコンピューティングデバイスまたはサーバコンピューティングデバイスとすることができる。
コンピューティングデバイス50は、いくつかのアプリケーション(たとえば、アプリケーション1~N)を含む。各アプリケーションは、中央インテリジェンス層と通じている。例示的なアプリケーションには、テキストメッセージングアプリケーション、電子メールアプリケーション、拡張現実アプリケーション、カメラアプリケーション、GPSアプリケーション、仮想キーボードアプリケーション、ブラウザアプリケーションなどが含まれる。いくつかの実装形態においては、各アプリケーションは、API(たとえば、すべてのアプリケーションにわたって共通のAPI)を使用して中央インテリジェンス層(およびその中に記憶されるモデル)と通信することができる。
中央インテリジェンス層は、いくつかの機械学習モデルを含む。たとえば、図1Cに示されるように、それぞれの機械学習モデル(たとえば、モデル)は、各アプリケーションについて提供され、中央インテリジェンス層によって管理されてもよい。他の実装形態においては、2つ以上のアプリケーションが、単一の機械学習モデルを共有することができる。たとえば、いくつかの実装形態においては、中央インテリジェンス層は、すべてのアプリケーションについて、単一のモデル(たとえば、単一のモデル)を提供することができる。いくつかの実装形態においては、中央インテリジェンス層は、コンピューティングデバイス50のオペレーティングシステム内に含まれる、または別の形でコンピューティングデバイス50のオペレーティングシステムによって実装される。
中央インテリジェンス層は、中央デバイスデータ層と通信することができる。中央デバイスデータ層は、コンピューティングデバイス50のためのデータの中央集中型レポジトリとすることができる。図1Cに示されるように、中央デバイスデータ層は、たとえば、1つまたは複数のセンサ、コンテキストマネージャ、デバイスステートコンポーネント、および/または追加のコンポーネントなどのコンピューティングデバイスのいくつの他のコンポーネントと通信することができる。いくつかの実装形態においては、中央デバイスデータ層は、API(たとえば、プライベートAPI)を使用して各デバイスコンポーネントと通信することができる。
例示的なモデル構成
図2は、本開示の例示的な実施形態による例示的なアライメントモデル220のブロック図を示す。いくつかの実装形態においては、アライメントモデル220は、基準データセット202および第2のデータセット204を受信するように訓練されてもよく、または別の形で構成されてもよく、基準データセット202および第2のデータセット204はそれぞれ、地球の一部または別の連続領域を表す情報を含む。基準データセット202および第2のデータセット204を受信した結果として、アライメントモデル220は、対応関係のセットなどの出力データを提供することができ、次いで、そのデータを使用して、測地原点206を更新するための測量基準点座標を決定することができる。特定の実装形態においては、ユーザデバイス102は、通信ネットーク180を通じて測地原点206にアクセスして、拡張現実アプリケーション、マッピングアプリケーションなど、ユーザデバイス102上のアプリケーションにおいて使用するための場所情報にアクセスする、または別の形でその場所情報を受信することができる。
例示的な方法
図3は、本開示の例示的な実施形態により行うための例示的な方法のフローチャート図を示す。図3は、例示および議論を目的として、特定の順序で行われるステップを示すが、本開示の方法は、具体的に示される順序または構成に限定しない。方法300の様々なステップは、本開示の範囲から逸脱することなく、様々なやり方で、省略する、再構成する、組み合わせる、および/または適合させることができる。
302において、コンピューティングシステムは、地球の一部の第1の一部に対応する地理データを含む基準データセットを取得する場合がある。特定の実装形態においては、基準データセットは、空中車両(たとえば、ドローン、人工衛星、航空機など)によって捕捉される映像、または写真を含む航空画像などの種々のセンサ情報を含むことができる。基準データセットを取得することは、記憶されるデータのライブラリにアクセスすること、新規センサデータを生成すること、および/または既存のデータ(たとえば、記憶されるデータ)を更新すること、もしくは別の形で修正することを含むことができる。
304においては、コンピューティングシステムは、基準データセットについて測量基準点座標のセットを決定する場合がある。いくつかの実装形態においては、測量基準点座標のセットは、GPSデバイスなどのセンサを使用して測定するとき、測量基準点座標(たとえば、WGS座標)の既存のセットから取得する場合がある。あるいは、測量基準点座標のセットは、関連のセンサ情報(たとえば、飛行速度、気圧、飛行方向など)を使用して一部決定されてもよいセンサデータの手動または自動ラベリングによって定義される場合がある。
306において、コンピューティングシステムは、地球の部分の第2の一部に対応するセンサデータを含む第2のデータセットを取得する場合があり、第2の一部は、地球の部分の第1の一部と少なくとも部分的に重複する。本開示の実装形態では、第2のデータセットは、基準データセットに含まれるセンサデータと異なるモダリティまたは同じモダリティからのセンサデータを含むことができる。一例として、第2のデータセットに含まれるセンサデータは、1人または複数の人から取得される地上像を含むことができる。対照的に、基準データセットに含まれるセンサデータは、3次元航空像を含むことができる。別の例としては、基準データセットと第2のデータセットはともに、同じタイプのセンサデータを含むことができる。概して、基準データセットおよび第2のデータセットに含まれるセンサデータの少なくとも一部は、地球の同じ部分に対応すべきである。たとえば、カリフォルニア州ロサンゼルス(LA)および周辺郊外の航空像は、例示的な基準データセットに含まれる場合があり、例示的な第2のデータセットは、カリフォルニア州ハンティントンビーチなどの周辺エリアまで延びるLA郊外の地上像を含む場合がある。
308において、コンピューティングシステムは、基準データセットと第2のデータセットとの間の対応関係のセットを決定する場合がある。いくつかの実装形態においては、対応関係のセットを決定することは、データセットのそれぞれにおける類似のフィーチャを特定するために機械学習用モデルを使用することを含むことができる。例示的な実装形態においては、機械学習用モデルは、訓練用データセットを使用して訓練されてもよい教師ありモデルとして構成されてもよい。あるいは、機械学習用モデルは、教師なしモデルとして構成されてもよい。概して、対応関係のセットを決定することは、基準データセットおよび第2のデータセットを、それぞれ無関係に教師なしまたは教師ありのモデルとすることができる1つまたは複数の機械学習用モデルに提供することを含むことができる。例示的な実装形態においては、2つの自己無撞着モデルを並行して使用して、基準データセットおよび第2のデータセットで表されるエリアをより低いデータ表現に(たとえば、ビットに)シャードすることができる。次いで、より低いデータ表現は、1つまたは複数の対応関係の特定に基づいてアライメントされてもよい。例示的な対応関係は、センサデータの色、形状、背景、および/または他のフィーチャを含むことができる。
310において、コンピューティングシステムは、対応関係のセットに一部基づいて変換フィールドを計算する場合がある。変換フィールドは、反復最接近点アルゴリズム、像から像への変換、オプティカルフロー技法、および/または他の技法(たとえば、様々な対応関係間の距離を平均化する、またはローカルで平均化する)によって、メッシュからメッシュなどの様々な技法を使用してコンピュータ計算することができる。
312において、コンピューティングシステムは、変換フィールドを第2のデータセットの少なくとも一部に適用することによって変換座標のセットを決定する場合がある。概して、変換フィールドは、たとえば、基準付けされたデータセットについて取得される同様の(たとえば、同じ)測量基準点座標を第2のデータセットにおける重複関係の領域に割り当てることによって、および第2のデータセットで表される他のエリアを外挿して、基準データセットと第2のデータセットとの両方で表される地理領域の連続表現を生成するための回帰または別の技法を使用することによって、基準データセットと第2のデータセットとの間の点をマッピングするために使用することができる。一例として、各データセットで表されるエリアにわたる対応関係のそれぞれは、エリアを表す点のマップに組み合わせることができる。これらの点は、三角測量され、オプションで平滑化されて(たとえば、平均化アルゴリズムを使用して)、第2のデータセットに含まれる他のデータまで拡張することができる変換フィールドを展開することができる。
314において、コンピューティングシステムは、変換座標のサブセットを含むように測量基準点座標のセットを更新する場合がある。例示的な実装形態においては、第2のデータセットに示される領域を組み込むように測地原点を拡張するために、測量基準点座標のセットは、第2のデータセットで表される地理領域に割り当てられる変換座標を含むように更新されてもよい。地球全体をまとめてカバーするデータセット(たとえば、第2のデータセット)についてこの方法を繰り返すことを使用して、地球表面の数学的抽象概念の必要性なしに、地球全体の測地原点を作成することができる。
例示的な測量基準点構成
図4は、本開示の例示的な実施形態による例示的な測地原点構成のブロック図を示す。図4は、本開示の実施形態により生成される測地原点(たとえば、測地原点1、2、…、N)の1つまたは複数のインスタンスを含むように測地原点206を示すが、これらのインスタンスまたはスナップショットが、単一の測地原点に含まれるのではなく、別個に記憶される場合があることを理解すべきである。にもかかわらず、別個に記憶されるか、または単一の測量基準点の一部として記憶されるかにかかわらず、API402は、静的基準データセット202にそれぞれが関連付けられてもよい測地原点の1つまたは複数のインスタンスにアクセスできるように構成されてもよい。したがって、新規センサデータおよび/または更新されたセンサデータが、基準データセット202の変更につながるとき、測地原点の新規バージョンまたはエポックは、様々なコンピューティングデバイスにおいて別個に作成され記憶されてもよく、または単一のコンピューティングデバイスにおいて作成され記憶されてもよい。
追加の開示
本明細書に論じた技術は、サーバ、データベース、ソフトウェアアプリケーション、および他のコンピュータベースのシステム、ならびにそのようなシステムとの間で取られるアクションおよび送信される情報について参照する。コンピュータベースのシステムの内在的な柔軟性により、コンポーネント間およびコンポーネントの間で、非常に種々のタスクおよび機能の構成設定、組合せ、および分割の可能性が可能になる。例として、本明細書に論じる方法は、単一のデバイスもしくはコンポーネントを使用して、または組合せで働く複数のデバイスもしくはコンポーネントを使用して実装されてもよい。データベースおよびアプリケーションは、単一のシステムにおいて実装されることも、または複数のシステムにわたって分散されることも可能である。分散型コンポーネントは、順次に、または並行して動作することができる。
本主題についてその様々な特定の例示的な実施形態を参照して詳細に説明してきたが、各例は、本開示の説明として提供されたものであり、限定として提供されたものではない。前述についての理解を収めると、そのような実施形態に対する代替形態、変形形態、および等価形態を当業者なら容易に生み出すことができる。したがって、本開示は、当業者に容易に明らかになる本主題に対するそのような修正形態、変形形態、および/または追加形態の包含を除外しない。例として、1つの実施形態の一部として示され、または説明された特徴は、別の実施形態とともに使用して、さらなる実施形態をもたらすことが可能である。したがって、本開示がそのような代替形態、変形形態、および均等形態をカバーすることが意図される。
1~N アプリケーション
1、2、…、N 測地原点
10、50 コンピューティングデバイス
100 コンピューティングシステム
102 ユーザコンピューティングデバイス、ユーザデバイス
112、132、152 プロセッサ
114、134、154 メモリ
116、136、156 データ
118、138、158 命令
120、140 アライメントモデル
122 ユーザ入力コンポーネント
130 サーバコンピューティングシステム
150 訓練用コンピューティングシステム、アライメントコンピューティングシステム
160 モデル訓練器
162 訓練用データ
180 ネットワーク
202 基準データセット
204 第2のデータセット
206 測地原点
220 アライメントモデル
300 方法

Claims (26)

  1. コンピューティングシステムであって、
    1つまたは複数のプロセッサと、
    1つまたは複数の非一時的コンピュータ可読媒体であって、
    地球の表面の少なくとも一部に位置する複数の物体それぞれについて座標を提供する測地原点であって、前記複数の物体について前記測地原点によって提供される前記座標が、地球の前記表面の形状の近似とは無関係である、測地原点と、
    前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングシステムに、
    前記複数の物体または追加の物体のうちの1つの相対位置を決定する際に使用するために、前記測地原点の少なくとも一部を提供させる、命令と
    をまとめて記憶する、1つまたは複数の非一時的コンピュータ可読媒体と
    を備える、コンピューティングシステム。
  2. 前記測地原点が、複数の地理データセットの共同アライメントにより作り出される、請求項1に記載のコンピューティングシステム。
  3. 前記複数の地理データセットが、地理データの少なくとも2つの異なるモダリティを含む少なくとも2つの異なる地理データセットを含む、請求項2に記載のコンピューティングシステム。
  4. 前記複数の物体について前記測地原点によって提供される前記座標は、追加の地理データセットが前記測地原点とアライメントされると、経時的に変化することが可能になる、請求項1から3のいずれか一項に記載のコンピューティングシステム。
  5. 前記測地原点の少なくとも前記一部を提供することが、前記複数の物体のうちの少なくとも1つに相対的な前記追加の物体の前記相対位置を決定する際に使用するために、前記測地原点の少なくとも前記一部を提供することを含み、前記追加の物体が、ユーザに関連付けられているユーザデバイスを含む、請求項1から4のいずれか一項に記載のコンピューティングシステム。
  6. 地球の一部について測地原点を生成するためのコンピュータ実装方法であって、
    1つまたは複数のコンピューティングデバイスによって、前記地球の一部の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、前記地球の一部の第2の一部に対応するセンサデータを含む第2のデータセットを取得するステップであって、前記地球の一部の前記第2の一部が、前記地球の一部の前記第1の一部に少なくとも部分的に重複する、ステップと、
    前記1つまたは複数のコンピューティングデバイスによって、前記基準データセットと前記第2のデータセットとの間の対応関係のセットを決定するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、前記変換座標のセットを含むように、測量基準点座標の前記セットを更新するステップと
    を含む、コンピュータ実装方法。
  7. 前記1つまたは複数のコンピューティングデバイスによって、前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定するステップが、
    前記1つまたは複数のコンピューティングデバイスによって、前記対応関係のセットに一部基づいて変換フィールドを計算するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、前記変換フィールドを前記第2のデータセットの少なくとも一部に適用することによって、前記第2のデータセットについて前記変換座標のセットを決定するステップと
    を含む、請求項6に記載のコンピュータ実装方法。
  8. 前記基準データセットおよび前記第2のデータセットがそれぞれ、少なくとも2つの異なるセンサモダリティからのセンサデータを含む、請求項6に記載のコンピュータ実装方法。
  9. 前記基準データセットが、3次元の人工衛星画像、航空画像、またはその両方を含み、前記第2のデータセットが、地上画像を含む、請求項6から8のいずれか一項に記載のコンピュータ実装方法。
  10. 前記1つまたは複数のコンピューティングデバイスによって、前記変換フィールドを使用してマッピングされたことがある前記第2のデータセットに点のサブセットを含むように、前記基準データセットを更新するステップをさらに含む、請求項6から9のいずれか一項に記載のコンピュータ実装方法。
  11. 前記1つまたは複数のコンピューティングデバイスによって、スナップショットを作成するステップをさらに含み、前記スナップショットが、前記測地原点の時間基準表現を含む、請求項6から10のいずれか一項に記載のコンピュータ実装方法。
  12. 前記1つまたは複数のコンピューティングデバイスによって、対応関係のセットを決定するステップが、
    前記1つまたは複数のコンピューティングデバイスによって、軌跡を決定するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、複数の基準シャードを作成するように、前記軌跡に関連付けられた前記基準データセットに含まれる画像を処理するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、複数の第2のシャードを作成するように、前記軌跡に関連付けられた前記第2のデータセットに含まれる画像を処理するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、少なくとも1つの基準シャードを少なくとも1つの第2のシャードと比較することによって少なくとも部分的に基づいてアライメントを計算するステップと
    を含む、請求項6から11のいずれか一項に記載のコンピュータ実装方法。
  13. 前記1つまたは複数のコンピューティングデバイスによって、前記アライメントを計算するステップが、
    前記1つまたは複数のコンピューティングデバイスによって、1つの基準シャードのアスペクトを選定するステップと、
    前記1つまたは複数のコンピューティングデバイスによって、前記第2のシャードのうちの1つまたは複数に対して前記アスペクトを三角測量するステップと
    を含む、請求項12に記載のコンピュータ実装方法。
  14. 前記測地原点が、すべての方向で300mごとに約0.5cm~約10cmの相対精度を実証する、請求項6から13のいずれか一項に記載のコンピュータ実装方法。
  15. 前記センサデータが、色付けされた像、映像、および光検出と測距データのうちの1つまたは複数を含む、請求項6から14のいずれか一項に記載のコンピュータ実装方法。
  16. 前記測地原点からユーザデバイスに、情報を含むデータパケットを送信するステップをさらに含む、請求項6から15のいずれか一項に記載のコンピュータ実装方法。
  17. 前記データパケットに含まれる前記情報が、地理局所性フィーチャデータを含み、前記地理局所性フィーチャデータが、前記フィーチャデータに相対的な前記ユーザデバイスの位置を決定するのに使用可能である、請求項16に記載のコンピュータ実装方法。
  18. 前記データパケットに含まれる前記情報が、基準場所を前記ユーザデバイスに割り当てる場所情報と、前記基準場所からのある半径以内の物体についての相対場所とを含む、請求項16に記載のコンピュータ実装方法。
  19. 前記ユーザデバイスが、前記データパケットに一部基づいて拡張現実層を表示するように構成される、請求項17または18に記載のコンピュータ実装方法。
  20. 地球の一部について測地原点を生成するように構成されるコンピューティングシステムであって、
    1つまたは複数のプロセッサと、
    1つまたは複数の非一時的コンピュータ可読媒体であって、前記1つまたは複数のプロセッサによって実行されると、前記コンピューティングシステムに、
    前記地球の一部の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得することと、
    前記地球の一部の第2の一部に対応するセンサデータを含む第2のデータセットを取得することであって、前記地球の一部の前記第2の一部が、前記地球の一部の前記第1の一部に少なくとも部分的に重複する、取得することと、
    前記基準データセットと前記第2のデータセットとの間の対応関係のセットを決定することと、
    前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定することと、
    前記変換座標のセットを含むように測量基準点座標の前記セットを更新することと
    を含む動作を行わせる命令と
    をまとめて記憶する、非一時的コンピュータ可読媒体と
    を含む、コンピューティングシステム。
  21. 標準化された通信を使用して、ユーザデバイスが前記測地原点または前記測地原点に関連付けられる情報にアクセスするのを可能にするアプリケーションプログラミングインターフェース(application programming interface、API)に従って動作するように構成される、請求項20に記載のコンピューティングシステム。
  22. 前記測地原点に関連付けられる情報を含むデータパケットを、前記APIを使用して前記ユーザデバイスに送信することをさらに含む、請求項21に記載のコンピューティングシステム。
  23. 前記データパケットに含まれる前記情報が、基準場所を前記ユーザデバイスに割り当てる場所情報と、前記基準場所からのある半径以内の物体についての相対場所とを含む、請求項22に記載のコンピューティングシステム。
  24. 前記ユーザデバイスの約300m以内の物体のそれぞれの相対場所が、約0.5cm~約10cmの場所精度を実証する、請求項23に記載のコンピューティングシステム。
  25. 前記測地原点に関連付けられる前記情報がエポックを含み、前記エポックが前記基準データセットの時間基準表現に関連付けられている、請求項22から24のいずれか一項に記載のコンピューティングシステム。
  26. 1つまたは複数の有形の非一時的コンピュータ可読媒体であって、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
    地球の一部の第1の一部に対応する地理データを含む基準データセットから導出される測量基準点座標のセットを取得することと、
    前記地球の一部の第2の一部に対応するセンサデータを含む第2のデータセットを取得することであって、前記地球の一部の前記第2の一部が、前記地球の一部の前記第1の一部に少なくとも部分的に重複する、取得することと、
    前記基準データセットと前記第2のデータセットとの間の対応関係のセットを決定することと、
    前記対応関係のセットに少なくとも部分的に基づいて前記第2のデータセットについて変換座標のセットを決定することと、
    前記変換座標のセットを含むように、測量基準点座標の前記セットを更新することと
    を含む動作を行わせるコンピュータ可読命令を記憶する、1つまたは複数の有形の非一時的コンピュータ可読媒体。
JP2021577080A 2019-06-26 2019-06-26 データセット対応関係によって定義される世界座標フレーム Pending JP2022539352A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2019/039278 WO2020263248A2 (en) 2019-06-26 2019-06-26 Worldwide coordinate frame defined by data set correspondences

Publications (1)

Publication Number Publication Date
JP2022539352A true JP2022539352A (ja) 2022-09-08

Family

ID=67297340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021577080A Pending JP2022539352A (ja) 2019-06-26 2019-06-26 データセット対応関係によって定義される世界座標フレーム

Country Status (6)

Country Link
US (1) US20220244056A1 (ja)
EP (1) EP3990860A2 (ja)
JP (1) JP2022539352A (ja)
KR (1) KR20220024948A (ja)
CN (1) CN114286923A (ja)
WO (1) WO2020263248A2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11435756B2 (en) * 2019-12-01 2022-09-06 Nvidia Corporation Visual odometry in autonomous machine applications
CN118229518B (zh) * 2024-05-27 2024-07-26 四川惟邦新创科技有限公司 一种不同坐标系下地图瓦片转换方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145314A (ja) * 2007-12-17 2009-07-02 Korea Electronics Telecommun 異種センサ統合モデリングによるデジタル写真測量方法及びその装置
JP2017015598A (ja) * 2015-07-02 2017-01-19 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2007363086A1 (en) * 2007-12-28 2009-07-09 Tele Atlas B.V. Method and apparatus for combining a first partition from a first digital map database and a second partition from a second digital map database
US20090232415A1 (en) * 2008-03-13 2009-09-17 Microsoft Corporation Platform for the production of seamless orthographic imagery
US9208458B2 (en) * 2008-10-02 2015-12-08 Certusview Technologies, Llc Methods and apparatus for analyzing locate and marking operations with respect to facilities maps
US8527308B2 (en) * 2008-10-02 2013-09-03 Certusview Technologies, Llc Methods and apparatus for overlaying electronic locate information on facilities map information and/or other image information displayed on a locate device
CN102246159A (zh) * 2008-12-09 2011-11-16 通腾北美有限公司 产生测地参考数据库产品的方法
US9104695B1 (en) * 2009-07-27 2015-08-11 Palantir Technologies, Inc. Geotagging structured data
US8874375B2 (en) * 2010-10-06 2014-10-28 Verizon Patent And Licensing Inc. Digital map projection
US8848983B1 (en) * 2012-05-31 2014-09-30 Google Inc. System and method for ranking geographic features using viewshed analysis
US20140015858A1 (en) * 2012-07-13 2014-01-16 ClearWorld Media Augmented reality system
US20140023996A1 (en) * 2012-07-18 2014-01-23 F3 & Associates, Inc. Three Dimensional Model Objects
US9161019B2 (en) * 2012-09-10 2015-10-13 Aemass, Inc. Multi-dimensional data capture of an environment using plural devices
US9164651B2 (en) * 2013-04-11 2015-10-20 Google Inc. Management of geographic data layers in a geographic information system
US9625612B2 (en) * 2013-09-09 2017-04-18 Google Inc. Landmark identification from point cloud generated from geographic imagery data
US9804748B2 (en) * 2013-11-01 2017-10-31 Google Inc. Scale sensitive treatment of features in a geographic information system
US8761457B1 (en) * 2013-11-27 2014-06-24 Google Inc. Aligning ground based images and aerial imagery
US20160203624A1 (en) * 2014-03-05 2016-07-14 Google Inc. System and Method for Providing Combined Multi-Dimensional Map Views
US9437034B1 (en) * 2014-12-15 2016-09-06 Google Inc. Multiview texturing for three-dimensional models
US9779544B2 (en) * 2014-12-23 2017-10-03 Google Inc. Labeling for three-dimensional occluded shapes
US10275939B2 (en) * 2015-11-05 2019-04-30 Google Llc Determining two-dimensional images using three-dimensional models
US11201981B1 (en) * 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
WO2018106328A1 (en) * 2016-12-08 2018-06-14 Google Llc Contextual map view
EP3538929B1 (en) * 2017-03-20 2021-09-08 Google LLC Systems and methods of determining an improved user location using real world map and sensor data
US20180283882A1 (en) * 2017-04-04 2018-10-04 Appropolis Inc. Location-based services system and method therefor
US11199631B2 (en) * 2017-04-07 2021-12-14 Criterionix, L.L.C. Apparatus and methods for geo-locating one or more objects
KR20200057723A (ko) * 2017-09-07 2020-05-26 씨엠티이 디벨로프먼트 리미티드 공간 데이터 처리 시스템 및 방법
WO2019172941A1 (en) * 2018-03-07 2019-09-12 Google Llc Methods and systems for determining geographic orientation based on imagery
CN108710140B (zh) * 2018-04-19 2022-07-05 广州南方卫星导航仪器有限公司 固定基准站的位置坐标校正方法及系统、改进型rtk快速测量方法及系统
EP3645971B1 (en) * 2018-09-12 2024-02-14 Google LLC Map feature identification using motion data and surfel data
CN109612447B (zh) * 2018-12-29 2020-12-15 湖南璇玑信息科技有限公司 遥感影像地图数据的增强定位变换模型的构建方法、增强定位方法及增强定位服务器
US11255680B2 (en) * 2019-03-13 2022-02-22 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11860212B1 (en) * 2022-07-29 2024-01-02 Sas Institute Inc. Grid status monitoring system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145314A (ja) * 2007-12-17 2009-07-02 Korea Electronics Telecommun 異種センサ統合モデリングによるデジタル写真測量方法及びその装置
JP2017015598A (ja) * 2015-07-02 2017-01-19 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム

Also Published As

Publication number Publication date
CN114286923A (zh) 2022-04-05
EP3990860A2 (en) 2022-05-04
KR20220024948A (ko) 2022-03-03
US20220244056A1 (en) 2022-08-04
WO2020263248A2 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
US20220028163A1 (en) Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images
CN112102499B (zh) 融合现实系统和方法
US20210312710A1 (en) Systems and methods for processing 2d/3d data for structures of interest in a scene and wireframes generated therefrom
US10309778B2 (en) Visual odometry and pairwise alignment for determining a position of an autonomous vehicle
KR20190089681A (ko) 파노라마 뷰에 대한 3차원 모델을 생성하는 방법 및 시스템
EP3846124A1 (en) System and method enabling a collaborative 3d map data fusion platform and virtual world system thereof
CN112102497B (zh) 用于将应用和交互附接到静态对象的系统和方法
US10089417B2 (en) Structure determination in a geographic area
JP7365385B2 (ja) マップの生成方法及びそれを用いた画像ベースの測位システム
JP2022539352A (ja) データセット対応関係によって定義される世界座標フレーム
Spicer et al. Producing usable simulation terrain data from UAS-collected imagery
KR102520189B1 (ko) 무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 hd 맵을 생성하는 방법 및 시스템
WO2021149254A1 (ja) 環境地図管理装置、環境地図管理方法及びプログラム
Castagno et al. Realtime rooftop landing site identification and selection in urban city simulation
US12104916B2 (en) System and method enabling a collaborative 3D map data fusion platform and virtual world system thereof
Praschl et al. Utilization of geographic data for the creation of occlusion models in the context of mixed reality applications
Wendel Scalable visual navigation for micro aerial vehicles using geometric prior knowledge
Shende Heritage3DMtl: A Multi-modal UAV Dataset of Heritage Buildings for Digital Preservation
KR20230138108A (ko) 오픈소스를 활용한 드론 영상해석 방법
Zakhor et al. Next Generation, 4-D Distributed Modelling and Visualization of Battlefield
Zakhor 2. REPORT DATE

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240819