JP2021111385A - 協調的3dマップデータ融合プラットフォーム及びその仮想世界システムを可能にするシステム及び方法 - Google Patents

協調的3dマップデータ融合プラットフォーム及びその仮想世界システムを可能にするシステム及び方法 Download PDF

Info

Publication number
JP2021111385A
JP2021111385A JP2020215588A JP2020215588A JP2021111385A JP 2021111385 A JP2021111385 A JP 2021111385A JP 2020215588 A JP2020215588 A JP 2020215588A JP 2020215588 A JP2020215588 A JP 2020215588A JP 2021111385 A JP2021111385 A JP 2021111385A
Authority
JP
Japan
Prior art keywords
map
client device
features
virtual
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020215588A
Other languages
English (en)
Other versions
JP7193163B2 (ja
Inventor
セヴァト,イエルリ
Yerli Cevat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TMRW Foundation IP SARL
Original Assignee
TMRW Foundation IP SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TMRW Foundation IP SARL filed Critical TMRW Foundation IP SARL
Publication of JP2021111385A publication Critical patent/JP2021111385A/ja
Application granted granted Critical
Publication of JP7193163B2 publication Critical patent/JP7193163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

【課題】協調的3Dマップを生成する方法及びシステムを提供する。【解決手段】システムは、世界の場所の基本衛星マップを提供することと、基本衛星マップを参照して実世界の場所の詳細なリアルタイム仮想レプリカネットワーク(RVRN)を公開することと、クライアントデバイスのポーズ(例えば、位置及び向き)を取得することと、第1の座標空間の同時ローカライゼーション・マッピング(SLAM)プロセスを実行することと、を含む。SLAMプロセスは、クライアントデバイスのイメージングデバイスからの画像データ、クライアントデバイスのポーズ及び/又は基本衛星マップのデータを用いて、第1の座標空間内の複数の特徴のポーズを判定する。さらに、第1の座標空間内の複数の特徴の三次元座標を備える新規マップを作成し、新規マップを公開されたRVRNとマージして融合3Dマップを作成する。【選択図】図7

Description

(単数又は複数の)関連出願に対する(単数又は複数の)相互参照
本出願は、参照により本明細書に組み込まれる2019年12月30日に出願された米国特許仮出願第62/955216号の利益を主張するものである。
ロボット又は他のデバイスが未知環境のマップを構築しながら同時に前記環境での自身の現在位置を追跡し続けることを可能にするために、イメージングデバイス及び同時ローカライゼーション・マッピング(SLAM)技術の使用が当該技術分野で公知である。いくつかのSLAM技術では、複数のイメージングデバイスからのデータを用いることがあり、該データは協調的SLAMマップを生成するためにマージされる。
通常、複数のイメージングデバイスは、SLAMマッピングを担うドローン又はロボットなどの専用モバイルプラットフォーム上に構成される。したがって、現在の協調技術は通常、未知領域のマッピングを一次タスクとして行う特定のデバイスでのみ可能となり、この技術は通常、一般のユーザデバイスでは可能とならないため、マッピングできる領域が少数のデバイスに制限される。加えて、マッピングの時点で複数のイメージングデバイスのうちの一部の位置及び向きが正確に分からない場合があり、作成されたマップの精度及び信頼性が落ちるため、複数のイメージングデバイスからのSLAMプロセスの精度は、現在の協調的SLAM技術の制限因子と考えられる。さらに、現在のSLAMマップは、通常、適用分野がナビゲーションに制限され、場合によっては、拡張現実体験を生み出すために生成されたマップの上にオブジェクトをさらにオーバーレイすることに制限され、ゆえに、他の適用分野は通常無視されている。
この概要は、発明の詳細な説明でさらに後述する簡略化された形態で概念の1つの選択を紹介するために提供される。この概要は、特許請求される主題の重要な特徴を特定することを意図しておらず、特許請求される主題の範囲を決定する助けとして用いられることも意図していない。
本開示は、一般に、コンピュータシステム及び方法に関し、より詳細には、更新可能な(例えば、継続的に更新される、断続的に更新される、定期的に更新されるように構成されるなど)協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステム及び方法に関する。
背景技術で説明した1つ以上の欠点は、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステム及び方法を通じて対処される。一態様では、本開示の方法は、少なくとも1つのプロセッサを備える1つ以上のサーバコンピュータのメモリ内に3Dマップデータ融合プラットフォームを提供するステップと、3Dマップデータ融合プラットフォーム内に世界の場所の基本衛星マップを提供するステップと、3Dマップデータ融合プラットフォームで、基本衛星マップを参照して(例えば、入手可能な場合、基本衛星マップの座標と位置合わせされる)実世界の場所の詳細なリアルタイム仮想レプリカネットワーク(RVRN)を公開するステップと、第1のクライアントデバイスのポーズ(例えば、位置及び向き)を取得するステップと、第1の座標空間の同時ローカライゼーション・マッピング(SLAM)プロセスを実行するステップとを含む。SLAMプロセスは、第1のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データ、第1のクライアントデバイスのポーズ、及び/又は基本衛星マップのデータを用いて、第1の座標空間内の第1の複数の特徴のポーズを判定する。
一実施形態では、方法はさらに、第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを作成することと、第1の新規マップを公開されたRVRNとマージして融合3Dマップを作成することを含む。一実施形態では、第1の新規マップを作成することは、3Dマップデータ融合プラットフォームによる特徴マッチングアルゴリズムを通じて、マッピングされた第1の複数の特徴を公開された詳細なRVRNと比較することを含む。一実施形態では、比較するステップは、第1の座標空間の特徴の閾値数に達すると(例えば、特定の領域の所定のパーセンテージがマッピングされ、対応する特徴が取得されると)実行される。これは、取得した特徴が少なすぎて、比較を行うにはサンプルサイズが小さすぎる状況を回避するのに役立つ。
したがって、新たに作成されたマップは、公開された詳細なRVRNの一部として含まれる正確な3Dジオメトリと融合されるため、又は新たに作成されたマップは、公開された詳細なRVRNにさらなる3Dジオメトリ及び特徴を提供するため、融合3Dマップは、基本マップよりも高密度の詳細及び特徴を含み、拡張現実又は仮想現実などのいくつかの用途での使用をサポートすることができる。さらに、詳細に富むRVRNを作成するための参照として基本マップを使用し、新たに作成されたマップの特徴マッチングのための参照としてRVRNを使用すると、RVRNに又は基本マップに既に含まれている領域及び/又は特徴を再マッピングする必要がないので、新規マップの作成中にいくらかの計算能力及び時間が節約され得る。
システムは、RVRNが新たにマッピングされた特徴を既に含んでいるかどうかを判定するべく1つ以上のチェックを行うことができる。一実施形態では、公開された詳細なRVRNが新たにマッピングされた特徴を含んでいる場合、SLAMプロセスは終了することができる。しかしながら、公開されたRVRNが新たにマッピングされた特徴を含んでいない場合、SLAMプロセスは、第1の座標空間の第1の新規マップが作成されるまで続行することができる。
いくつかの実施形態では、方法はさらに、第2のクライアントデバイスのポーズ(例えば、位置及び向き)を取得し、次いで、第2の座標空間のSLAMプロセスを開始することを含む。一実施形態では、第2の座標空間のSLAMプロセスは、第2のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データ、第2のクライアントデバイスのポーズ、及び/又は融合3Dマップのデータを用いて、第2の座標空間内の第2の複数の特徴のポーズを判定する。一実施形態では、方法はさらに、第2の複数の特徴を備える第2の新規マップを作成することと、第2の新規マップを融合3Dマップとマージして協調的3Dマップを作成することを含む。
一実施形態では、第2の座標空間の十分な特徴がマッピングされると、方法は、3Dマップデータ融合プラットフォームによる特徴マッチングアルゴリズムを通じて、マッピングされた第2の複数の特徴を融合3Dマップと比較することに進む。融合3Dマップが新たにマッピングされた特徴を含んでいる場合、SLAMプロセスは終了することができる。しかしながら、融合3Dマップが新たにマッピングされた特徴を含んでいない場合、SLAMプロセスは、第2のマップが作成されるまで続行することができる。
さらに別の実施形態では、方法はまた、仮想レプリカ、純粋な仮想オブジェクト、アプリケーション、又はこれらの組み合わせを備える永続的仮想世界システムと協調的3Dマップを共有することを含み、新たにマッピングされたオブジェクトは、永続的仮想世界システムに(例えば、仮想レプリカとして)追加される。
いくつかの実施形態では、画像データは、第1及び第2のクライアントデバイスの両方から(例えば、同時に)受信される。このような実施形態では、方法は、第1及び第2のクライアントデバイスのポーズを取得することを含み得、これは、3Dマップデータ融合プラットフォーム内に基本衛星マップを提供し、1つ以上のRVRNを公開した後に行われ得る。方法は、第1及び第2のクライアントデバイスの少なくとも1つのイメージングデバイスから画像データを取り込むことを含む、第1及び第2の座標空間のSLAMプロセスを同時に行うことを含み得、前記SLAMプロセスは、第1及び第2のクライアントデバイスのポーズを使用して第1及び第2の座標空間内の第1及び第2の複数の特徴のポーズを判定することによって行われる。方法は、特徴のマップを互いに比較及び照合するのに十分な特徴が抽出されているかどうかをチェックすることを含み得る。方法は、第1及び第2の複数の特徴が(例えば、正確に又は所定の程度まで)一致するかどうかを判定し、それらが一致する場合、特徴の第1のマップと特徴の第2のマップをマージすることを含み得、前記マージすることは、基本マップと位置合わせした状態で行われる。一実施形態では、方法は、組み合わされたマップをRVRNと比較及びマージして協調的3Dマップを生成することに進む。第1の複数の特徴と第2の複数の特徴が一致しない場合、方法は、特徴の第1及び第2のマップを別々にRVRNと比較及びマージして協調的3Dマップを生成することに進むことができる。
いくつかの実施形態では、公開されたRVRNは、コンピュータ支援製図(CAD)モデリング技術を通じて作成される、又は1つ以上のコンピュータビジョンスキャニング法を通じてスキャンされる。例えば、少なくとも1つのサーバコンピュータのメモリは、仮想レプリカを入力及び編集するのに必要なデータ及び命令を格納できるCADソフトウェアであり得る、ユーザが実世界のエンティティの仮想レプリカをモデル化及び編集することを可能にするように構成されたソフトウェア、ハードウェア、及び/又はファームウェアを含み得る、仮想レプリカエディタを備え得る。仮想レプリカエディタは、各レプリカ及びシステム全体の形状、場所、位置及び向き、物理的特性、及び期待される機能及び影響を記述するデータ及び命令などの各デジタルレプリカに関連する明示的なデータ及び命令の入力を可能にし得る。
いくつかの実施形態では、SLAMプロセスは、部分的にクライアントデバイスの1つ以上のプロセッサによって行われる。いくつかの実施形態では、クライアントデバイスは、モバイルデバイス、スマートコンタクトレンズ、ヘッドマウントディスプレイ、ラップトップ、デスクトップコンピュータ、カメラ、ドローン、及び車両のうちの1つ以上である。3Dマップデータ融合プラットフォームは、特徴比較及びマージアルゴリズムを通じて、新たに作成された第1のマップ及びRVRNに含まれるマップデータなどの、複数の特徴を含む複数のマップの融合を可能にし、融合3Dマップ、又は融合3Dマップと少なくとも第2のマップを形成する。さらに、3Dマップデータ融合プラットフォームは、複数のマップをマージするためにこのようなアルゴリズムを適用するべく複数のクライアントデバイスがマップデータを提供することを可能にし、プラットフォームが協調的3Dマップを生成するのに利用可能なデータポイントの数を増加させる。
さらなる実施形態では、方法は、第1又は第2のクライアントデバイスから識別子コードを取得することと、識別子コードを第1の新規マップ又は第2の新規マップと関連付けることと、識別子コードと関連付けられているマップを分散台帳に格納することを含む。識別され格納されたマップは、例えば、第1又は第2のクライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられ得る。報酬システムは、分散台帳に格納されたスマートコントラクトのルールによって管理され得る。識別子コードは、例えば、QRコード、URL、IPアドレス、MACアドレス、暗号学的ハッシュ、UUID、又はOUIであり得る。報酬は、例えば、暗号通貨、クーポン、1つ以上のアプリケーションのさらなるレベルへのアクセスなどであり得る。
いくつかの実施形態では、基本マップは、衛星画像を用いる衛星マッピング技術により得られる。いくつかの実施形態では、基本マップは、マップのプレーンバージョンを指し、例えば、領域内に多数の特徴及び詳細が含まれていないマップであり、このような特徴のいくつかの詳細は省略される場合もある。いくつかの実施形態では、基本マップは、衛星画像を用いる衛星マッピング技術により得られる。いくつかの実施形態では、基本マップは、領域の2Dマップである。例えば、基本マップは、OpenStreetMap(商標)、Google Maps(商標)、又はCrowdMap(商標)によって提供されるマップであり得る。
いくつかの実施形態では、クライアントデバイスの位置及び向きは、全地球航法衛星システム(GNSS)、ミリ波ジオロケーション法、内部測位法、又はこれらの組み合わせを通じて得られる。
いくつかの実施形態では、方法はさらに、第1又は第2のクライアントデバイスを通じて、1つ以上の仮想オブジェクトを選択することと、第1又は第2のクライアントデバイスによって、仮想オブジェクトの位置合わせのための参照として融合3Dマップ又は協調的仮想世界システムを用いることによって、選択された仮想オブジェクトを1つ以上の場所の上にオーバーレイすることを含む。
いくつかの実施形態では、方法はさらに、ユーザごとの資格情報を画像データに追加することを含み、資格のあるユーザのみが、その場所の画像データを見るためのアクセス権を有する。
いくつかの実施形態では、方法はさらに、セルフコンピューティング能力及び自律行動を提供するために、永続的仮想世界システムの仮想オブジェクトの少なくともいくつかに、論理、仮想データ、及びモデルを追加することを含み、モデルは、3Dモデル、動的モデル、ジオメトリモデル、又は機械学習モデル、又はこれらの組み合わせのうちの1つ以上を含む。さらに別の実施形態では、永続的仮想世界システムは、製造作業、交通挙動、ユーティリティ、又はこれらの組み合わせの自律的又は半自律的管理のために採用される。
一実施形態では、更新可能な3D空間マップを可能にするシステムは、メモリと少なくとも1つのプロセッサとを備える少なくとも1つのサーバコンピュータを備え、メモリは3Dマップデータ融合プラットフォームを格納し、少なくとも1つのサーバコンピュータは、3Dマップデータ融合プラットフォーム内に世界の場所の基本衛星マップを提供し、3Dマップデータ融合プラットフォームで基本衛星マップを参照して実世界の場所のRVRNを公開し、第1のクライアントデバイスのポーズを取得し、第1のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと第1のクライアントデバイスのポーズを用いて第1の座標空間内の第1の複数の特徴のポーズを判定する、第1の座標空間のSLAMプロセスを開始し、第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを作成し、3Dマップデータ融合プラットフォームによって、第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを公開されたRVRNとマージして融合3Dマップを作成するように構成される。
一実施形態では、第1の新規マップを作成することは、3Dマップデータ融合プラットフォームによる1つ以上の特徴マッチングアルゴリズムを通じて、第1の複数の特徴を公開されたRVRNと比較することを含む。比較するステップは、第1の座標空間の特徴の閾値数に達すると行われ得る。
いくつかの実施形態では、クライアントデバイスは、メモリと、少なくとも1つのプロセッサと、場所の画像データを取り込むように構成された少なくとも1つのイメージングデバイスと、クライアントデバイスの位置及び向きを提供する追跡システムを含む。
一実施形態によれば、3Dマップデータ融合プラットフォームは、少なくとも1つのプロセッサによって実行されるときに、SLAMプロセスを開始するように少なくとも1つのプロセッサをトリガする命令を備える。
一実施形態では、少なくとも1つのサーバコンピュータはさらに、第2のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと第2のクライアントデバイスのポーズを用いて第2の座標空間内の第2の複数の特徴のポーズを判定する第2の座標空間のSLAMプロセスを開始し、第2の複数の特徴を備える第2の新規マップを作成し、第2の新規マップを融合3Dマップとマージして協調的3Dマップを作成するように構成される。
一実施形態では、少なくとも1つのサーバコンピュータはさらに、第2の座標空間の十分な特徴がマッピングされると、3Dマップデータ融合プラットフォームによる特徴マッチングアルゴリズムを通じて、マッピングされた第2の複数の特徴を融合3Dマップと比較し、融合3Dマップが新たにマッピングされた特徴を含んでいる場合、SLAMプロセスを終了し、融合3Dマップが新たにマッピングされた特徴を含んでいない場合、第2のマップが作成されるまでSLAMプロセスを続行するように構成される。
いくつかの実施形態では、システムはさらに、別の場所に第2のクライアントデバイス備え、3Dマップデータ融合プラットフォームは、少なくとも1つのプロセッサによって実行されるときに、第2のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データを取り込むことによって、第2のクライアントデバイスのポーズを用いて第2の座標空間内の第2の複数の特徴のポーズを判定することにより行われる第2の座標空間のSLAMプロセスを開始し、第2の座標空間の十分な特徴がマッピングされると、3Dマップデータ融合プラットフォームによる特徴マッチングアルゴリズムを通じて、マッピングされた第2の複数の特徴を融合3Dマップと比較し、融合3Dマップが新たにマッピングされた特徴を含んでいる場合、SLAMプロセスを終了し、融合3Dマップが新たにマッピングされた特徴を含んでいない場合、第2のマップが作成されるまでSLAMプロセスを続行し、協調的3Dマップデータ融合プラットフォームによって、作成された第2の座標空間の第2のマップを融合3Dマップとマージして協調的3Dマップを作成するように少なくとも1つのプロセッサをトリガする命令をさらに備える。
一実施形態によれば、協調的3Dマップは、仮想レプリカ、純粋な仮想オブジェクト、アプリケーション、又はこれらの組み合わせを備える永続的仮想世界システムと共有され、新たにマッピングされたオブジェクトは、永続的仮想世界システムに(例えば、仮想レプリカとして)追加される。
一実施形態によれば、少なくとも1つのサーバコンピュータはさらに、第1又は第2のクライアントデバイスから識別子コードを取得し、識別子コードを第1の新規マップと関連付け、識別された第1の新規マップを分散台帳に実装されたスマートコントラクトに格納するように構成される。一実施形態では、識別され格納されたマップは、第1又は第2のクライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられる。
一実施形態によれば、クライアントデバイスは、少なくとも1つのサーバコンピュータのメモリに格納された1つ以上の仮想オブジェクトを選択し、仮想オブジェクトの位置合わせのための参照として永続的仮想世界システムと共有される協調的3Dマップを用いることによって、選択された仮想オブジェクトを1つ以上の場所の上にオーバーレイするように構成される。
上記の概要は、本開示のすべての態様の網羅的なリストを含んでいるわけではない。本開示は、上記に要約した種々の態様のすべての適切な組み合わせから実施できるすべてのシステム及び方法、並びに、以下の発明を実施するための形態で開示され、特に本出願と共に提出される請求項で指摘されたシステム及び方法を含むと考えられる。このような組み合わせは、上記の概要に具体的に列挙していない特定の利点を有する。本開示の他の特徴及び利点は、添付の図面から及び以下に続く詳細な説明から明らかとなるであろう。
本発明の上記の態様及び付随する利点の多くは、添付の図面と併せて解釈すれば、以下の詳細な説明を参照して同じことがよりよく理解されるようになるので、より容易に理解されるであろう。
本開示の特定の特徴、態様、及び利点は、以下の説明と添付の図面からよりよく理解されるであろう。
一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステムの略図である。 更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステムの別の実施形態の略図である。 更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステムのさらなる実施形態の略図である。 一実施形態に係る、2つ以上のクライアントデバイスによるSLAMスキャンと、サーバへのデータの流れの略図である。 一実施形態に係る、永続的仮想世界システムの線図である。 一実施形態に係る、永続的仮想世界システム、及びその3Dマップデータ融合プラットフォームとの関係性のさらなる線図である。 一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法のブロック図である。 一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法のさらなるステップのブロック図である。 一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする、第1及び第2のクライアントデバイスから画像データを受信する方法のブロック図である。 一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法のさらなるステップを示す方法のブロック図である。 一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法のさらなるステップを示すブロック図である。
以下の説明では、種々の実施形態を例証として示す図面を参照する。また、いくつかの例を参照することによって種々の実施形態を以下に説明する。実施形態は、特許請求される主題の範囲から逸脱することなく設計及び構造の変更を含み得ることを理解されたい。
背景技術で説明した1つ以上の欠点は、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステム及び方法を通じて対処される。このシステム及び方法は、複数のイメージングデバイスによって取り込まれた少なくとも1つの座標空間の画像を取り込む及び解析するためにコンピュータビジョン技術を採用することができる。データを取り込んで同時ローカライゼーション・マッピング(SLAM)プロセスを実行するイメージングデバイスを備えるクライアントデバイスの正確な測位及び追跡と、事後分析技術を通じて、特徴を抽出し、座標空間内の1つ以上のオブジェクトに関連付けることができる。分析された特徴データは、3Dマップデータ融合プラットフォームで利用可能な基本衛星マップを考慮して、3Dマップデータ融合プラットフォームで公開された座標空間内に配置される複数の仮想レプリカを備えるリアルタイム仮想レプリカネットワーク(RVRN)と比較され得る。前記比較は、イメージングデバイスがデータの取り込みとSLAMプロセスの実行を続けるべきであるかどうかを判定するために行われる。RVRNがマッピングされた特徴を含んでいないため又は前記オブジェクトの仮想レプリカが利用できないためにさらにマップデータが必要とされる場合、システム及び方法は、SLAMマップを終了することができ、次いで、新たに作成されたマップを公開されたRVRNとマージすることができる。
同様の論理に従って、他のクライアントデバイスからの画像データを融合3Dマップとさらに比較することができ、融合3Dマップにまだ含まれていないとき、それとマージして、複数のソースから画像データ入力を受け入れることができる協調的3Dマップを作成することができる。この協調的3Dマップは、仮想レプリカ、純粋な仮想オブジェクト、及びアプリケーションを含む仮想オブジェクトを備える永続的仮想世界システムとさらに共有することができる。協調的3Dマップによって共有されるデータは、永続的仮想世界システムに仮想レプリカの一部として追加することができる。加えて、複数のアプリケーションで用いるために他のデータ及びモデルを仮想レプリカに追加することができる。
図1は、一実施形態に係る、永続的仮想世界システムに接続された更新可能な協調的3Dマップデータ融合プラットフォームを可能にするシステム100の略図である。
システム100は、実世界からデータ104を取り込み、該データ104を、ネットワーク108を介して少なくとも1つのサーバコンピュータ106に送信する、複数のクライアントデバイス102を備える。クライアントデバイス102の例として、監視カメラ102a、ラップトップコンピュータ102b、ロボット102c、ドローン102d、スマートグラス102e、自律車両102f、スマートコンタクトレンズ102g、及び移動電話102hが図1に示されているが、他のタイプのクライアントデバイス102も、少なくとも1つのサーバコンピュータ106にデータ104を提供するのに用いられ得る。データ104は、第1の複数の特徴を備える少なくとも1つの座標空間(例えば、1つ以上の場所)の画像データ110と、画像データ110を取り込むクライアントデバイス102のポーズデータ112(例えば、位置及び向き)を含む。例えば、ドローン102dなどの第1のクライアントデバイスは、第1の複数の特徴を備える少なくとも1つの第1の座標空間の画像データ110を取り込むことができ、移動電話102hなどの第2のクライアントデバイスは、少なくとも第2の複数の特徴を備える第2の座標空間の画像データ110を取り込むことができる。少なくとも1つのサーバコンピュータ106によって受信されたデータ104は、永続的仮想世界システム120に接続している、メモリに格納された3Dマップデータ融合プラットフォーム114に送信される。
システム100は、(例えば、複数の対応するアプリケーション・プログラミング・インターフェース(API)を通じて)3Dマップデータ融合プラットフォーム114に接続する1つ以上のパブリック又はプライベートの世界マップ、地域マップ、又は局所マップの衛星画像を用いるマッピング技術によって得られる基本衛星マップ116のデータを受信する。基本衛星マップ116は、マップのプレーンバージョンを指し、例えば、領域内に多数の特徴及び詳細が含まれていないマップであり、このような特徴のいくつかの詳細は省略される場合もある。いくつかの実施形態では、基本衛星マップは2Dマップである。他の実施形態では、基本衛星マップは基本3Dマップである。例えば、基本マップは、OpenStreetMap(商標)、Google Maps(商標)、又はCrowdMap(商標)によって提供されるマップであり得る。
永続的仮想世界システム120は、リアルタイム3D仮想レプリカネットワーク(RVRN118)に関するデータを受信する。RVRN118は、実世界オブジェクトの複数の仮想レプリカを備えることができる。仮想レプリカは、例えば、建物の所有者又は州の機関によって公開され得る。いくつかの実施形態では、公開される仮想レプリカは、コンピュータ支援製図(CAD)モデリング技術を通じて作成される、又は1つ以上のコンピュータビジョンスキャニング法を通じてスキャンされる。例えば、少なくとも1つのサーバコンピュータ106のメモリは、仮想レプリカを入力及び編集するのに必要なデータ及び命令を格納することができるCADソフトウェアであり得る、ユーザが実世界のエンティティの仮想レプリカをモデル化及び編集することを可能にするように構成されたソフトウェア及びハードウェアを含み得る、仮想レプリカエディタを備えることができる。仮想レプリカエディタは、各レプリカ及びシステム全体の形状、場所、位置及び向き、物理的特性、及び期待される機能及び影響を記述するデータ及び命令などの、各仮想レプリカに関連する明示的なデータ及び命令の入力を可能にし得る。明示的なデータ及び命令により実世界のエンティティを仮想レプリカに変換し、それらを永続的仮想世界システムで利用できるようにするためのモデリング技術は、実世界のエンティティの容易に入手可能なCADモデルに基づくことができる。コンピュータビジョンスキャニング法は、例えば、合成開口レーダ、実開口レーダ、光検出・測距(LIDAR)、逆開口レーダ、モノパルスレーダ、及び他のタイプのイメージング技術の使用を含み、実世界のエンティティを、永続的仮想世界システムに統合する前にマッピング及びモデル化するのに用いられ得る。
3Dマップデータ融合プラットフォーム114は、クライアントデバイス102からデータ104を受信すると、第1の座標空間の同時ローカライゼーション・マッピング(SLAM)プロセスを開始することに進み、前記SLAMプロセスは、第1のクライアントデバイスのポーズ、又は基本衛星マップ108のデータ、又はこれらの組み合わせを用いて、画像データ110から検索される第1の座標空間内の第1の複数の特徴のポーズを判定することによって行われる。本明細書で用いられる場合の「ポーズ」という用語は、単独で、或いはデバイス又は特徴の位置などの他のデータと組み合わせて、デバイス又は特徴の向きを指す。
第1の座標空間の十分な特徴がマッピングされると、3Dマップデータ融合プラットフォーム114は、特徴マッチングアルゴリズムを通じて、1つ以上の座標空間のRVRN118を新たに入力された画像データ110から抽出された特徴と比較する。公開されたRVRN118が、画像データ110及び対応する特徴ポーズデータに特徴を含んでいない場合、3Dマップデータ融合プラットフォーム114は、第1のクライアントデバイスのポーズに関して、複数の特徴の第1の新規マップを作成することに進み、次いで、少なくとも1つの第1の複数の特徴の三次元座標を含む第1の新規マップを基本マップと位置合わせした状態でRVRN118とマージして融合3Dマップを作成することに進む。
同様のプロセスを、他のクライアントデバイスによって取り込まれた他の特徴からの画像データ110に適用することができる。したがって、例えば、3Dマップデータ融合プラットフォーム114は、第2のクライアントデバイスのポーズデータ112を受信し、次いで、前記ポーズデータを用いて第2の座標空間内の第2の複数の特徴のポーズを判定する、第2の座標空間のSLAMプロセスを実行することに進む。第2の座標空間の十分な特徴がマッピングされると、3Dマップデータ融合プラットフォーム114は、特徴マッチングアルゴリズムを通じて、融合3Dマップを新たに入力された画像データと比較する。融合3Dマップが三次元座標を含む画像データ110を含んでいない場合、3Dマップデータ融合プラットフォーム114は、第2の複数の特徴の第2の新規マップが作成されるまでSLAMプロセスを続行することに進む。最後に、3Dマップデータ融合プラットフォーム114は、第2の新規マップを融合3Dマップとマージして協調的3Dマップを作成することに進む。
本開示において、座標空間との関連での「特徴」又は「画像特徴」という用語は、画像コンテンツの情報を提供する座標空間内の関心点を指す。このような特徴は、環境内のオブジェクトを記述し得る、画像又は派生した特徴と関連付けられ得る、任意の適切な手段(例えば、ベジェ曲線又は代数多様体)によって記述される点、線分、及び/又は表面を含み得る。例えば、複数の特徴は、道、公共空間(例えば、公園又は公共広場)、地形、及び建物の1つ以上の画像から抽出され得る。特徴は、一緒に結合されると、画像内に複数のオブジェクトを備える座標空間のマップを形成することができる。他の実施形態では、特徴はさらに、屋内の場所内のオブジェクトなどの屋内の関心点に含まれ得る。特徴は、画像又はマップデータの認識、マッチング、再構築などのために3Dマップデータ融合プラットフォーム114によって行われる画像解析及び処理に用いられる多くのアプリケーションでの基礎となる。
いくつかの実施形態では、画像データ110は、1つ以上のクライアントデバイス102によって送信されるフレームのストリームに含まれ得る。クライアントデバイス102の1つ以上のイメージングデバイスによって記録される画像と、フレームに含まれる画像データ110に3Dマップデータ融合プラットフォーム114によって少なくとも部分的に行われるSLAM技術を通じて、クライアントデバイス102の移動と複数の特徴のポーズを判定することができる。いくつかの実施形態では、SLAMプロセス中に、フレームのうちの少なくともいくつかは、随意的にキーフレームとして保持することができる。例えば、該当する座標空間のマッピングが不十分である又はマッピングされていない部分を示すフレームから新規キーフレームを選択することができる。いくつかの例では、座標空間のマッピングが不十分である又はマッピングされていない部分をキーフレームが示していると判断する1つの方法は、RVRN118又は融合3Dマップ内に一致する対応がない特徴などの、多くの新規特徴が現れるときである。
次いで、いくつかの実施形態では、協調的3Dマップは、同じく少なくとも1つのサーバコンピュータ106のメモリに格納されている永続的仮想世界システム120と共有することができる。永続的仮想世界システム120は、実世界の仮想バージョンを指し、実世界のすべて又はほとんどのオブジェクトは、対応する仮想レプリカとして表され、純粋な仮想オブジェクト及びアプリケーションなどの他のオブジェクトも追加及び構成され得る。永続的仮想世界システム120は、実世界の正確なバージョンを表し得る。永続的仮想世界システム120は、実世界オブジェクトの位置、向き、スケール、及び寸法などの実世界の座標、物理的特性、及びリアルタイム3D仮想レプリカの形態の実オブジェクトのそれぞれの3D構造を含む。
本開示において、「永続的な」という用語は、プロセス又はネットワーク接続を継続的に行わなくても存在し続けることができるシステムの状態を特徴付けるのに用いられる。例えば、「永続的な」という用語は、仮想世界システムと、その中に含まれる仮想レプリカ、純粋な仮想オブジェクト、及びアプリケーションのすべてが、仮想レプリカ、純粋な仮想オブジェクト、及びアプリケーションを作成するために用いられるプロセスが停止した後に存在し続け、仮想世界システムに接続しているユーザから独立している、仮想世界システムを特徴付けるのに用いられる場合がある。したがって、仮想世界システムは、不揮発性ストレージの場所に(例えば、サーバに)保存される。このようにして、仮想レプリカ、純粋な仮想オブジェクト、及びアプリケーションは、ユーザがサーバに接続していなくても特定の目標を達成するように構成されているときに、相互に対話及び協働することができる。
いくつかの実施形態では、システム100は、すべてネットワークを通じて接続することができる、パブリック又はプライベートのクラウドサーバ、フォグサーバ、及び企業システム、モバイルプラットフォーム、及びユーザデバイスなどのエッジデバイス及びシステムを使用する分散型コンピューティング機能を実装し得るクラウド・ツー・エッジインフラストラクチャを用いることができる。クラウド・ツー・エッジコンピューティングネットワークを用いると、計算能力、コンピュータ・インフラストラクチャ(例えば、所謂サービスとしてのインフラストラクチャ、すなわちIaaSを通じて)、アプリケーション、及びビジネスプロセスへのアクセスを、オンデマンドでクライアントデバイスを介してユーザにサービスとして送達することができる。このように、物理サーバ及びネットワーク機器を含むリソースは、ユーザとリソース及びネットワークとの距離などの因子並びにユーザからの計算要求に応じて動的に割り当てられ得る共有のストレージ及びコンピューティングを可能にする。いくつかの実施形態では、クラウド・ツー・エッジインフラストラクチャは、3Dマップデータ融合プラットフォーム114と永続的仮想世界システム120を共有展開で広く分散させるために必要なデータの転送及び格納を容易にする分散台帳ベースのインフラストラクチャをさらに含む。
いくつかの実施形態では、ハードウェア及びネットワークの需要を低減し、ネットワーク待ち時間の減少に寄与し、一般的なマージドリアリティ体験を改善するために、システムは、ミリ波(mmW)、又はミリ波と第5世代無線システム通信(5G)などのサブ6GHz通信システムの組み合わせを含むネットワーク108を通じて接続することができる。他の実施形態では、システムは、60GHzでデータを提供するワイヤレスローカルエリアネットワーキング(Wi−Fi)を通じて接続することができる。提供される通信システムは、低い待ち時間と、フィールド内のエンドポイントへの高Gbpsのダウンリンク速度を可能にし、通常は高度にインタラクティブなデジタル現実アプリケーション又は他の非常に要求の厳しいアプリケーションを実行するのに必要なパラメータと適合する。これにより、高品質の、低い待ち時間の、リアルタイムのデジタルアプリケーションコンテンツのストリーミングが得られる。他の実施形態では、システムは、4G通信システムによってサポートされ得る第4世代無線システム通信(4G)を通じて通信可能に接続することができ、或いは、他の有線又は無線通信システムを含み得る。
いくつかのセルラーネットワークの実施形態では、極高周波帯域とも呼ばれるミリ波帯域が採用される。ミリ波帯域は30〜300GHzであるが、約10〜300GHzの隣接する超高周波も、ミリ波と同様に伝搬するため、ミリ波帯域に含まれる。ミリ波ベースのアンテナ又はミリ波ベースのアンテナとサブGHzアンテナシステムとの組み合わせは、ミリ波の極高周波のために、反射率が高く、壁又は他の固体オブジェクトによって容易に遮られ、樹木の葉を通過する際に又は厳しい気象条件の中で顕著に減衰することがある。したがって、セルラーネットワークアンテナは、グリッドパターンで配置された小型のミリ波トランシーバを備えている場合があり、これは、送信電力を増加させることなく集合エネルギーを増大させ、利得を増加させ、電力損失を減少させる一助となる。ビームをいくつかのデバイスで同時に分離するか又は多数のデータストリームを単一のデバイスに送信するために、多重入力、多重出力、つまりMIMOなどの当該技術分野では公知の技術を用いることができ、これにより、サービス品質(QOS)が高まる。加えて、アンテナは、ミリ波の正確な伝搬を保証するために約100メートルから約2kmの間の比較的小さい領域をカバーし得る。
一実施形態によれば、クライアントデバイス102の追跡は、到来予定時刻(TOA)、到来角(AOA)/放射角(AOD)、及び視覚画像化技術(例えば、クライアントデバイス102の近くの領域に配置されたイメージングデバイスによる)のうちの1つ以上によって行われる。追跡は、レーダ技術、アンテナ、Wi−Fi、慣性計測装置、ジャイロスコープ、及び加速度計のうちの1つ以上によって行われ得る。
いくつかの実施形態では、ミリ波アンテナの平方メートルあたりの密度が他のシステムよりも高いため、クライアントデバイスのより近くに配置されるアンテナの可用性がより高くなり、結果的にアンテナから送信器への、またその逆への、信号間の到来時間が短くなり、これは、TOA又は推定AOA/AODなどの他の技術を通じてクライアントデバイス102の推定位置及び向きの計算に用いられ得る。さらに、クライアントデバイスの推定位置は、ビームフォーマの設計に必要な情報を提供する。したがって、クライアントデバイス102の位置が正確に推定されると、アンテナは、見通し内(LOS)経路を直接使用して、一次リフレクタを通じて、又は任意の他の適切な技術を通じて、ビームをクライアントデバイス102に向けて操縦することができる。これにより、高いQOSを保ちながら位置特定サービスと通信サービスとの協働が得られる。さらに、アンテナとクライアントデバイス102との近接性と、より高いQOSに起因して、SLAMプロセスの大部分をサーバ106で行うことができ、より軽い又は薄いクライアントデバイス102の使用が可能となる。
他の実施形態では、クライアントデバイス102の測位を可能にするために、GPS、BDS、Glonass、QZSS、Galileo、及びIRNSSなどの任意の衛星ベースのナビゲーションシステムを指す、全地球航法衛星システム(GNSS)が用いられ得る。十分な数の衛星からの信号と、三角測量及び三辺測量などの技術を使用して、GNSSは、デバイスの位置、速度、高度、及び時間を計算することができる。一実施形態では、外部測位システムは、既存の移動体通信ネットワークのアーキテクチャを通じて補助GNSS(AGNSS)によって拡張され、既存のアーキテクチャは5Gを含む。他の実施形態では、AGNSS追跡システムはさらに、4G移動体通信ネットワークによってサポートされる。屋内の実施形態では、GNSSはさらに、60GHzでのデータの提供を含むがこれに限定されないWi−Fiなどの無線ワイヤレスローカルエリアネットワークによって拡張される。代替的な実施形態では、GNSSは、差動型GPS(DGPS)、静止衛星型衛星航法補強システム(SBAS)、リアルタイムキネマティック(RTK)システムなどの他の技術によって拡張される。いくつかの実施形態では、クライアントデバイス102の追跡は、AGNSSとクライアントデバイス102内の慣性センサとの組み合わせによって実施される。
図2は、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステム200の別の実施形態の略図である。図2のいくつかの要素は、図1の要素と類似している場合があり、したがって、それらを表すために同じ又は同様の参照番号が用いられる場合がある。
システム200は、クライアントデバイス1、クライアントデバイス2、及びクライアントデバイスNなどの複数のクライアントデバイス102を備え、これらはすべて、3Dマップデータ融合プラットフォーム114のクライアント管理モジュール202にデータを送信することができる。個々のクライアントデバイス管理インスタンス204が、クライアントデバイス102ごとに動的に作成され、各クライアントデバイス102によって転送されたデータ104を受信及び処理し、さらなるマッピング及びナビゲーションの目的で、対応するマップ更新206を各クライアントデバイス102に送信する。例えば、個々のクライアントデバイス管理インスタンス204によるデータ104の処理には、受信したデータ104に基づいて座標空間のSLAMスキャンを行うためにSLAMパイプラインを実装することと、画像データを永続的仮想世界システム120内の1つ以上のRVRN118と比較するために1つ以上の特徴マッチングアルゴリズムを実装することと、座標空間のマップを作成し、基本衛星マップ116を考慮して又はこれと位置合わせして、マップを利用可能なRVRN118とマージして融合3Dマップ208を作成することが含まれ得る。クライアント管理モジュール202によって行われるタスクのさらなる詳細は、図3で説明される。
いくつかの実施形態では、画像データは、多数のクライアントデバイスから(例えば、同時に)受信される。これらの実施形態では、3Dマップデータ融合プラットフォーム114は、最初にクライアントデバイス102(例えば、クライアントデバイス1及び2)のポーズを取得し、同時に、第1及び第2のクライアントデバイスの少なくとも1つのイメージングデバイスから画像データを取り込むことによって第1及び第2の座標空間のSLAMプロセスを実行するように構成されてよく、前記SLAMプロセスは、第1及び第2のクライアントデバイス102のポーズを使用して第1及び第2の座標空間内の第1及び第2の複数の特徴のポーズを判定することによって行われる。次いで、各個々のクライアントデバイス管理インスタンス204は、対応する第1又は第2のクライアントデバイス102からデータを同時に取得し、それぞれの座標空間ごとにSLAMプロセスを実行するように構成される。3Dマップデータ融合プラットフォーム114はさらに、十分な特徴が抽出されているかどうかをチェックし、その後、座標空間のそれぞれの複数の特徴を比較及び照合するように構成され得る。第1の複数の特徴と第2の複数の特徴が一致する場合、3Dマップデータ融合プラットフォームは、特徴の第1のマップと特徴の第2のマップをマージすることに進むことができ、前記マージは、基本衛星マップ116と位置合わせして行われ、融合3Dマップ208が形成される。その後、融合3Dマップ208をRVRN118とマージして協調的3Dマップを生成することができる。第1の複数の特徴と第2の複数の特徴が一致しない場合、3Dマップデータ融合プラットフォーム114はさらに、特徴の第1及び第2のマップを対応するRVRN118と別々に比較及びマージして協調的3Dマップを生成することができる。
本開示において、「インスタンス化」という用語は、クライアント管理モジュール202などの、1つ以上のクラウドサーバコンピュータ106のインスタンス又はそのプログラムを作成するために、1つ以上のクラウドサーバコンピュータ106などのサーバの特性(例えば、メモリ、計算能力、ネットワーク、オペレーティングシステムなど)を仮想化するプロセスを指す。
図3は、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にするシステム300の一実施形態の略図である。図3のいくつかの要素は、図1〜図2の要素と類似している場合があり、したがって、それらを表すために同じ又は同様の参照番号が用いられる場合がある。
図3では、システム300は、1つ以上のサーバコンピュータ106にデータ104を送信するクライアントデバイス102(例えば、クライアントデバイス1)を備える。クライアントデバイス102は、センサ304及びトランシーバ306を備える追跡ユニット302を備える。センサ304は、実世界から少なくとも視覚データを取得し、クライアントデバイス102のポーズ112を判定/追跡するように適合されたコンピューティングハードウェア、ソフトウェア、及び/又はファームウェアとして実装され得る。いくつかの実施形態では、画像データを取り込むために、センサ304は、RGBカメラ、カラーカメラ、グレースケールカメラ、赤外線カメラ、電荷結合素子(CCD)、CMOSデバイス、深度カメラ(例えば、LIDAR)、又はこれらの組み合わせのうちの1つ以上に含まれる1つ以上の光学センサを含む。クライアントデバイス102のポーズを判定するために、センサ304はさらに、慣性航法システム(INS)アルゴリズムを通じてクライアントデバイス102のポーズを内部的に判定するのに用いられ得る1つ以上の慣性計測装置(IMU)、加速度計、及びジャイロスコープを含む。
トランシーバ306は、デバイスがアンテナから無線電波を受信し、データをアンテナに送り返すことを可能にするように構成されたコンピューティングハードウェア及びソフトウェアとして実装され得る。いくつかの実施形態では、アンテナからミリ波信号を受信し、データをアンテナに送り返すように構成され得る、ミリ波トランシーバ306が採用され得る。トランシーバ306は、例えば、双方向通信トランシーバ306であり得る。
追跡ユニット302は、IMU、加速度計、及びジャイロスコープの機能を、トランシーバ306によって提供される位置追跡と、ミリ波ベースのアンテナによって提供される正確な追跡、低い待ち時間、及び高いQOS機能と組み合わせることによって実装することができ、これは、サブセンチメートル又はサブミリメートルの位置及び向き追跡を可能にし得る。これにより、デバイス102のリアルタイムの位置及び向きの追跡時の精度が向上し得る。代替的な実施形態では、センサ304とトランシーバ306は、単一の追跡モジュールデバイス内で一緒に結合される。クライアントデバイス102の少なくとも1つのプロセッサは、クライアントデバイス102の追跡中のセンサデータの確率的不確実性を考慮に入れるために、カルマンフィルタ又は拡張カルマンフィルタなどのアルゴリズムを用いることができる。他の実施形態では、少なくとも1つのプロセッサはさらに、例えば、プロセスの各ステップでエラーを推定するのではなく、SLAMプロセスを通して一定の且つ一貫したエラーを保つことによって、クライアントデバイス102の追跡中にジッタ低減アルゴリズムを実行することができる。
ポーズ112及び画像データ110を含むデータ104は、データ104に対して1つ以上の動作を行うために、3Dマップデータ融合プラットフォーム114に転送され得る。いくつかの実施形態では、図2を参照すると、動作の少なくともいくつかは、オンデマンドで生成されるクライアント管理モジュール202の単一の専用インスタンスによって行われる。
3Dマップデータ融合プラットフォーム114は、1つ以上の特定の機能専用の複数のモジュールを備え、これらは、対応するAPIを通じて永続的仮想世界システム120と又は互いに通信することができる。本開示において、「モジュール」は、特定の機能を実行するための、専用のコンピュータ回路、ソフトウェアアプリケーション、ファームウェア、プロセッサ上で動作するコンピュータ命令/ソフトウェアのセット、又はプロセッサ自体(例えば、ASIC)を指す場合がある。3Dマップデータ融合プラットフォーム114のモジュールのうちのいくつかは、基本衛星マップ308、コンピューティングプロセス(例えば、コマンド、プログラム実行、タスク、スレッド、手順など)を実行する複数のモジュール、例えば、新規特徴抽出モジュール312、特徴ポーズ推論モジュール314、新規マップ生成モジュール316、及びマップ比較マージモジュール318など、並びに、融合3Dマップ320及び協調的3Dマップ322などの他のモジュールを備えるSLAMパイプライン310を含む。実装されるプロセスに応じて、モジュールは、時には手順を順次に又は並列に実行することができ、さらなる処理に用いられ得るフィードバックを相互に得ることができる。
画像データ110は、SLAMパイプライン310の協調的実装中に、クライアントデバイス102の1つ以上のイメージングデバイスによって取り込まれる。いくつかの実施形態では、SLAMパイプライン310の協調的実装は、少なくとも部分的に、3Dマップデータ融合プラットフォーム114によって行われ、また、クライアントデバイス102のメモリに格納されその少なくとも1つのプロセッサによって実行されるSLAMスキャンナビゲーションモジュール334を通じてクライアントデバイス102によって行われる。いくつかの実施形態では、画像データ110は、クライアントデバイス102の少なくとも1つのプロセッサによって実行されるSLAMスキャンナビゲーションモジュール334のコンピュータ命令を通じて前処理され得る。例えば、少なくとも1つのプロセッサは、サーバ106に送信される前の取り込まれた画像データ110に基づいて抽象化された画像データを生成することができる。他の例では、クライアントデバイス102が装着可能デバイス(例えば、ヘッドマウントディスプレイ)である実施形態では、クライアントデバイス102のSLAMスキャンナビゲーションモジュール334は、クライアントデバイス102を装着したときのユーザの体又は頭の動きを変換するのに用いられ、これは、SLAMを実行するのに必要とされ得る情報である。
SLAMパイプライン310の新規特徴抽出モジュール312は、画像データ110が含まれるフレームから、クライアントデバイスの周囲の環境についての視覚的及び構造的情報を抽出することによって、画像データ110から特徴を抽出するように構成され得る。例えば、新規特徴抽出モジュール312は、例えば、クライアントデバイス102のSLAMスキャンナビゲーションモジュール334から受信した前処理されたセンサデータの分析に基づいて、環境のジオメトリ及び/又は外観を判定することができる。特徴の判定又は抽出は、コーナー及びブロブ検出、ハリス検出、ハリス−ラプラス検出、Shi−Tomasi、スケール不変特徴変換(SIFT)、高速堅牢特徴(SURF)、加速セグメント試験からの特徴(FAST)、二進堅牢独立素特徴(BRIEF)、又はORB特徴検出アルゴリズム、又はこれらの組み合わせなどのいくつかのアルゴリズムを通じて行われ得る。いくつかの実施形態では、新規特徴抽出モジュール312はさらに、特徴追跡及びマッチングプロセスを実行することができる。特徴追跡は、隣接するフレームの特徴間の対応を見つけるプロセスである。例えば、特徴追跡は、2つのフレーム間で動きの小さい変動が生じるときに有用であり得る。特徴マッチングは、特徴を個々に抽出し、多数のフレームにわたってそれらをマッチングするプロセスであり、これは、特徴の外観に顕著な変化が生じるときに有用であり得る。いくつかの実施形態では、新規特徴抽出モジュール312はさらに、RANSAC法及び/又はマッチング同等技術などの任意の適切な技術を通じて、外れ値の識別及び抑制を実行することができる。
その後、SLAMパイプライン310の特徴ポーズ推論モジュール314が、クライアントデバイス102の所与のポーズに関して抽出された特徴のポーズを推論することができる。いくつかの例では、この計算は、ハリス・コーナー検出、キャニー・エッジ検出、既知の特徴と画像との相互相関、カラークラスタリングによる領域発見、及び勾配の集約による境界発見などの方法を用いて行われ得る。特徴の位置データ及び他の幾何学的データを比較することにより、特徴のそれぞれのポーズを判定することができる。その後、SLAMパイプライン310の新規マップ生成モジュール316が、対応するポーズを含む新規特徴を備えるマップを作成することができる。場合によっては、マップにかなりの数の特徴が含まれていないことがあり、十分な数の特徴に達するまでSLAMパイプライン310を継続する必要があり得る。新規マップ生成モジュール316では、SLAMパイプライン310は、新規マップの特徴を、マップ比較マージモジュール318を通じて行われ得るRVRN118に基づいて構成される特徴と、同時に比較及び照合することができる。したがって、複数の仮想レプリカから構成されるRVRN118は、これらの実施形態では、対応するオブジェクトの複数の特徴を備える詳細な3Dマップと考えることができる。RVRN118がマッピングされた特徴を含んでいない又はマッピングされた特徴を部分的にしか含んでいない場合、マップ比較マージモジュール318は、基本衛星マップ308と関連して新たに生成されたマップの特徴をRVRN118とマージして融合3Dマップ320を生成することに進むことができる。
いくつかの実施形態では、第2の又はさらなるクライアントデバイスが同時に又は非同期的にデータ104をサーバ106に提供することができる。これらの実施形態では、画像データ110は、SLAMパイプライン310の協調的実装中に第2のクライアントデバイスの1つ以上のイメージングデバイスによって取り込まれる。第2の座標空間のSLAMプロセスが第2のクライアントデバイスによって取り込まれたデータ104で開始されるように上記と同様のプロセスを実装することができる。第2の座標空間の十分な特徴がマッピングされると、SLAMパイプライン310は、特徴マッチングアルゴリズムを通じて、マッピングされた第2の複数の特徴を融合3Dマップ320と比較することに進む。融合3Dマップ320が新たにマッピングされた特徴を含んでいない場合、SLAMパイプライン310は、第2のマップが作成されるまでSLAMプロセスを続行することに進むことができ、次いで、協調的3Dマップデータ融合プラットフォーム114によって、第2のマップが融合3Dマップ320とマージされて協調的3Dマップ322が作成される。
次いで、3Dマップデータ融合プラットフォーム114は、対応するAPIを通じて通信することができる永続的仮想世界システム120と、協調的3Dマップ322を共有することができる。したがって、協調的3Dマップ322は、RVRN118の形態の永続的仮想世界システム120の一部として含まれる。永続的仮想世界システム120は、アプリケーション326及び純粋な仮想オブジェクト328(例えば、RVRN118とは異なり、実世界に存在せず、したがって、実世界の対応物をもたない仮想オブジェクト)などの他の仮想オブジェクト324をさらに備えることができる。
いくつかの実施形態では、ユーザは、少なくとも1つのサーバコンピュータ106に接続されたクライアントデバイス102を通じて、永続的仮想世界システム120の1つ以上の仮想オブジェクト324を選択し、仮想オブジェクト324の位置合わせのための参照として永続的仮想世界システム120と共有される協調的3Dマップ322を用いることによって、選択された仮想オブジェクト324を1つ以上の場所の上にオーバーレイすることが可能となる。例えば、ユーザは、協調的に作成された3Dシーン上に純粋な仮想オブジェクト328又はアプリケーション326をオーバーレイすることができ、クライアントデバイス102のメモリに格納されたAR/VRモジュール330を通じて、オーバーレイされたオブジェクトを拡張現実(AR)又は仮想現実(VR)で見ることができる。
いくつかの実施形態では、生成された協調的3Dマップ322はさらに、3Dマップデータ融合プラットフォーム114によって処理された画像データに追加することができるユーザごとの資格情報を備え、資格のあるユーザのみが、その場所の画像データを見るためのアクセス権を有する。例えば、一部の制限された屋内エリアは、これらのエリアを見ることが可能なクリアランスレベルをもつ特定の人々にのみ可視であり、「通常の」ユーザはこれらのエリアを見ることができなくなる。
いくつかの実施形態では、アプリケーション326は、1つ以上の従来のアプリケーション、分散型アプリケーション、又は非集中型アプリケーションとすることができる。従来のアプリケーションは、典型的に、従来のクライアント−サーバモデルに基づいており、静的インフラストラクチャ内の専用サーバで実行される。分散型アプリケーションは、本開示のクラウドサーバなどのクラウドコンピューティングプラットフォーム上に主に格納されたアプリケーションであり、同じネットワーク上の多数のシステム及びデバイスで同時に実行することができ、或いは、ブロックチェーン又は分散台帳ベースの分散型データベースで実行することができる。非集中型アプリケーションは、ブロックチェーン又は分散台帳ベースの分散型データベースなどの非集中型インフラストラクチャで主に実行される。前記アプリケーション326との対話機構は、コンピュータスクリプト及びコンピュータプログラムに含まれるコンピュータコードを通じて定義され、アプリケーション326、ブロックチェーン又は分散台帳ベースの分散型データベースで利用可能なスマートコントラクト、又はこれらの組み合わせを通じて可能となる。相互作用は、対話型ゲームのようなアプリケーションの形態で又はゲームのような対話機構を通じてユーザが体験することができる。
いくつかの実施形態では、サーバ106はさらに、セルフコンピューティング能力及び自律行動を提供するために、永続的仮想世界システムの仮想オブジェクトの少なくともいくつかに、論理、仮想データ、及びモデルを追加するように構成され得る。モデルは、例えば、3Dモデル、動的モデル、ジオメトリモデル、又は機械学習モデル、又はこれらの組み合わせのうちの1つ以上を含み得る。したがって、本開示は、協調的SLAM3Dマッピングプロセスを、ナビゲーションの目的で判定された座標空間内の構造体の幾何学的及び視覚的特性だけでなく前記構造体(例えば、仮想オブジェクト324の形態の)との対話並びに構造の少なくともいくつかとの間の通信も可能にし得る他の高度な特徴を備え得る永続的仮想世界システム120と組み合わせる方法を可能にする。例えば、本開示の永続的仮想世界システム120と共有される協調的3Dマップは、効率的な自律車両交通管理のために用いることができ、この場合、車両は、永続的仮想世界システム120に含まれる協調的にマッピングされた道路を走行することができ、一方、車両の仮想レプリカは、例えば、事故時に交通を止める又は速度を調整する、或いは交通渋滞時に最も効率的なルートを車両に推奨/操縦するための自律行動を可能にする論理、仮想データ、及びモデルを備える。他の例では、本開示の永続的仮想世界システム120と共有される協調的3Dマップは、製造作業、ユーティリティ、汚染規制などの管理のために用いられ得る。
「自己管理機能」とも呼ばれる「セルフコンピューティング機能」は、本明細書では、例えば、分散型コンピューティングリソースの管理及びそれらの環境の変化への適応などのタスクを自律的に行うために人工知能アルゴリズムを適用するソフトウェアエンティティ(例えば、永続的仮想世界システム120の仮想レプリカ又はRVRN118)の能力を指す。自己管理ルール及び条件は、ルール及び条件を分散されたトランスペアレントな様態でさらに体系化するために、ブロックチェーン又は分散台帳技術で実行されるスマートコントラクトの使用を通じてさらに支配され得る。したがって、各仮想レプリカは、必要なリソースを割り当て、コマンドを自律的に送信及び実行し、各状況での必要に応じてイベントを生成することによって、永続的仮想世界システム120に反映される実世界での条件に応じて自律的に動作することができる。このタイプの行動を実現するには、仮想レプリカのモデリング中に人工知能アルゴリズムを使用して仮想レプリカをトレーニングする必要があり得る。
図4は、一実施形態に係る、2つ以上のクライアントデバイスによるSLAMスキャンと、サーバへのデータの流れの略図である。
図4では、ユーザ402は、第1のクライアントデバイス(例えば、装着可能デバイス404)を装着しており、これは、装着可能デバイス404に実装されたSLAMスキャンナビゲーションモジュール334及びサーバコンピュータ106に実装されたSLAMパイプライン310によって実装される図3に示された協調SLAMプロセスなどのSLAMプロセスを通じて、第1の座標空間408から第1の画像データセット406を取り込む。装着可能デバイス404はまた、第1のクライアントポーズデータ410及び第1のクライアントデバイス個人IDコード412を少なくとも1つのサーバコンピュータ106に送信することができる。同様に、第2のクライアントデバイス(例えば、ドローン414)が、第2の座標空間418の第2の画像データセット416を取り込み、第2の画像データセット416を、対応する第2のクライアントデバイスポーズデータ420及び個人IDコード422と一緒に、少なくとも1つのサーバコンピュータ106に送信する。クライアントデバイスと少なくとも1つのサーバコンピュータ106との通信は、ミリ波アンテナ(例えば、5Gアンテナ通信システムで用いられるもの)などの1つ以上のアンテナ424を通じて行うことができる。個人IDコード412及び422は、例えば、QRコード、URL、IPアドレス、MACアドレス、暗号学的ハッシュ、UUID、又はOUIであり得る。IDコード412及び422は、各クライアントデバイスによってマッピングされた全エリアの3D座標に付加される。
第1のステージにおいて、3Dマップデータ融合プラットフォーム114は、例えば、装着可能デバイス404からデータを受信し、マップ比較マージモジュール318を通じて、永続的仮想世界システム120内の利用可能なRVRN118とデータを比較することに進む。いくつかの実施形態では、3Dマップデータ融合プラットフォーム114は、図3を参照して説明した対応するモジュール312〜316を通じて、新規特徴抽出(例えば、第1の画像データセット406から抽出された第1の複数の特徴から)、特徴ポーズ推論、及び新規マップ生成を行う。比較のために十分なデータが利用可能であり、利用可能なRVRN118での比較結果が第1の複数の特徴を含んでいない又は十分に含んでいない場合、3Dマップデータ融合プラットフォーム114は、SLAMプロセスを続行してクライアントにより識別された第1のマップ426を作成することに進み、クライアントにより識別された第1のマップ426は、第1のクライアントデバイス個人IDコード412を備えるSLAMマッピングされた第1の座標空間408を指す。クライアントにより識別された第1のマップ426は、永続的仮想世界システム120内のRVRN118の既存のデータとさらに比較され、組み合わされ、クライアントにより識別された領域を含む融合3Dマップ320を形成し得る。
ドローン414によって送信されたデータも、3Dマップデータ融合プラットフォーム114によって受信され、図3を参照して説明した対応するモジュール312〜316を通じて、特徴抽出、特徴ポーズ推論、及び新規マップ生成が行われる。比較のために十分なデータが利用可能であり、利用可能なRVRN118での比較結果が第1の複数の特徴を含んでいない又は十分に含んでいない場合、3Dマップデータ融合プラットフォーム114は、SLAMプロセスを続行してクライアントにより識別された第2のマップ428を作成することに進み、クライアントにより識別された第2のマップ428は、第2のクライアントデバイス個人IDコード422を備えるSLAMマッピングされた第2の座標空間418を指す。クライアントにより識別された第2のマップ428は、次いで、マップ比較マージモジュール318によって、融合3Dマップ320と比較され、必要なときに組み合わされ、永続的仮想世界システム120とその後共有される協調的3Dマップを形成する。
いくつかの実施形態では、クライアントにより識別されたマップ領域寄与がさらに分散台帳に格納される。さらに別の実施形態では、クライアントにより識別されたマップ領域寄与は、クライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられ得る。例えば、座標とこれらの座標内の特徴点は、各特徴点のポーズデータと共に、ブロックチェーンを形成するべく暗号法を用いてリンク及び保護された増大するレコードのリストである元帳又はブロックに格納され得る。これらのブロックチェーンは、データの改変に耐えるように設計され、報酬システムをサポートするために各クライアントデバイスによってマッピングされた領域を記録することができるオープンな分散台帳として作用することができる。各ブロックには、前のブロックへのリンクとしてのハッシュポインタ、タイムスタンプ、トランザクションデータ、及びクライアントデバイスによってマッピングされた領域に関連する他のデータが含まれ得る。例えば、第1のクライアントデバイスが第2のクライアントデバイスの2倍の領域をマッピングした場合、報酬システムは、第1のクライアントデバイスの2倍の報酬(例えば、暗号通貨、割引クーポンなど)を計算することができる。これらのトランザクションは、検証可能な永続的な様態で分散台帳にさらに格納することができる。このような報酬システムのルールは、分散台帳に格納及び実装されたスマートコントラクトによって管理され得る。
図5は、一実施形態に係る、RVRNの構成要素を示す線図である。図5のいくつかの要素は、図1〜図4の同様の又は同じ要素を指す場合があり、したがって、同じ参照番号を用いる場合がある。
図5に示すように、他のデバイス504及びユーザデバイス506を含む実世界502の要素が、永続的仮想世界システムにデータストリーム508を提供する。これらのデータストリーム508は、他のデバイス504又はユーザデバイスの能力に応じて、単方向又は双方向とすることができる。本開示において、「ユーザデバイス」という用語は、とりわけ、モバイルデバイス、パーソナルコンピュータ、ゲームコンソール、メディアセンター、及びヘッドマウントディスプレイなどのアプリケーションと対話するために人間のユーザによって使用され得るデバイスを指す場合がある。本開示において、他のデバイス504は、監視カメラ、車両、交通信号灯、建物、道、線路、家電、ロボット、ドローンなどの、ユーザデバイス506以外のネットワークに接続する及びデータを共有することができる技術ベースのシステムを指す。
他のデバイス504によって送信されたデータストリーム508は、1つ以上の光学センサ、温度センサ、近接センサ、慣性センサ(例えば、慣性計測装置、加速度計、ジャイロスコープ、及び磁力計)、赤外線センサ、汚染センサ(例えば、ガスセンサ)、圧力センサ、光センサ、超音波センサ、煙センサ、タッチセンサ、色彩センサ、湿度センサ、水センサ、電気センサ、又はこれらの組み合わせなどの、他のデバイス504上に設置されたセンサによって得られる。例えば、データストリーム508は、特徴データを仮想レプリカ510に統合する前に、さらなる処理のために3Dマップデータ融合プラットフォームに送信することができる画像データ及びポーズデータを含み得る。ユーザデバイス506のデータストリーム508は、センサデータとは別に、ユーザデバイス506を介するアプリケーションとの対話から生じるユーザ入力データを含み得る。
複数の他のデバイス504及びユーザデバイス506に、実世界502から絶えずデータを取り込むセンサ機構を設けることによって、仮想世界及び各同期した仮想レプリカ510は、実世界502の条件をミラーリングするリアルタイムのマルチソースデータで更新され続ける。マルチソースデータは、とりわけ、3D画像データ、3Dジオメトリ、3Dエンティティ、3Dセンサデータ、3D動的オブジェクト、ビデオデータ、音声データ、優先度データ、化学組成、廃棄物生成データ、テキスト型データ、時間データ、位置データ、向きデータ、速度データ、温度データ、湿度データ、汚染データ、照明データ、体積データ、流量データ、色彩データ、電力消費データ、帯域幅データ、及び質量データのうちの1つ以上を含む、各実世界要素の取り込み可能なデータを含む。
永続的仮想世界システムにおける仮想レプリカ510との対話は、各仮想レプリカ510のデータストア512に接続される公開/サブスクライブサービスを用いて、データの交換を通じてなされる。データタイプは、周期的及び非周期的、同期及び非同期データを含み得る。各仮想レプリカ510は、データストア512を保持し、そこでのデータは、実世界の対応物によって又はマイクロサービス(図示せず)によって更新することができる。永続的仮想世界システム内のデータは、特定の仮想レプリカ510と直接関連付けることができ、又は匿名データとして処理することができ、これは、関連する仮想レプリカの多数のストリーミングソースの集約を含み得る。例えば、予知保全サービスに利用可能なデータをストリーミングするべく、車の特定のモデルのすべてのユニットからのデータを処理及び集約することもできる。
マイクロサービスは、独立して開発、展開、及び維持することができる個々のサービスを指し、各サービスは、個別のタスクを行うように構成され、APIを通じて他のサービスと通信する。各マイクロサービスは、仮想レプリカ510の特定の属性の値を修正するべく、仮想レプリカモデル及び環境との関係性を用いて、仮想レプリカ510のデータストア512内のデータを更新することができる。マイクロサービスは、複数のエンジンなどの、永続的仮想世界システムの特定のコアサービスを用いることができ、又は外部プラットフォームに接続することができる。
データストリーム508は、コネクタ514を介してデータストア512に格納することができる。コネクタ514は、データストリーム508のデータを読み出す及びデータストア512に書き込むのに用いられるソフトウェア、ハードウェア、及び/又はファームウェアを備えることができる。コネクタ514は、公開/サブスクライブアプリケーション・プログラミング・インターフェース(API)を用いてデータストア512に接続し、他のデバイス504及びユーザデバイス506からのデータストリーム508を仮想レプリカ510に供給するのを助けることができる。他のデバイス504のデータストリーム508はさらに、コネクタ514を通じてサイバー・物理システム516に供給され、一方、ユーザデバイス506のデータストリーム508は、コネクタ514を通じてユーザ506の仮想アバター518に供給される。システム500はまた、ボット520の実装を備え、これは、機械学習アルゴリズムを採用することによって人間又は人間のような行動を伴う自動エージェントとして応答するように構成されたソフトウェア、ハードウェア、及び/又はファームウェアを含み得る。人間のアバター518は、人間のユーザの身体的特徴を表示するように構成されてよく、又は、異なる視覚的態様及び特徴で構成されてよい。
本開示において、一対の仮想と本物のツイン又はツインペアは、サイバー・物理システム516と考えることができ、これは、システムのサイバー部分と物理部分との両方によって行動が定義される、計算と物理プロセスの統合である。したがって、仮想レプリカ510は、サイバー・物理システム516のサイバー部分である。その場合、仮想レプリカ510は、物理部分と人工知能及びシミュレーションとの接続を可能にしてオブジェクトの能力及びパフォーマンスを向上させる、本物のツインの拡張と考えられ得る。仮想レプリカ510は、いくつかの実施形態では、物理コンポーネント及びプロセスの一部の代替であり得る。例えば、センサが本物の対応物において故障している場合、本物のツインの感知入力は、仮想世界での仮想ツインの対話によって提供される。別の例では、本物のツインのバッテリが少なくなっている場合、本物のツインの計算の一部を仮想世界で行うこともできる。
仮想レプリカ510はまた、永続的仮想世界システムで現実を複製するのに用いられ得る現実の態様の任意のグラフィカル表現、数学的表現、又は論理的表現を参照するモデル522を備えることができる。いくつかの実施形態では、適切なモデル522は、3Dモデル524、ジオメトリモデル526、動的モデル528、及び機械学習モデル530のうちの1つ以上を含む。モデル522が4つだけ本明細書で開示されているが、システムは提示したよりも少ない又は多いモデルを実装するように適合され得ることを当業者は理解するであろう。
3Dモデル524は、ジオメトリモデル526と連携して、テクスチャ、色、シェーディング、反射、衝突効果などの仮想レプリカ510のジオメトリのそれぞれに含まれるデータを示す。3Dモデル524は、永続的仮想世界システム内の仮想レプリカ510、及びアプリケーション、純粋な仮想レプリカ、仮想ボット、広告などの他の仮想要素を視覚的に表すのに用いられる3Dデータ構造を備える。3Dデータ構造は、例えば、1つ以上の八分木、四分木、BSP木、sp散在ボクセル八分木、3Dアレイ、kD木、点群、ワイヤフレーム、境界表現(B−Rep)、構造的中実形状木(CSG木)、二分木、及び六角形構造を含み得る。3Dデータ構造は、永続的仮想世界システム内の仮想オブジェクトのジオメトリのそれぞれのデータを正確に効率よく表すのに役立つ。3Dデータ構造の正しい選択は、データの生成元、レンダリング中に求められるジオメトリの精度、レンダリングがリアルタイムで行われるか又は事前にレンダリングされるか、レンダリングが、クラウドサーバを介して、ユーザデバイス、フォグデバイス、又はこれらの組み合わせを介して行われるかどうか、永続的仮想世界システムが採用される特定の用途(例えば、医療又は科学用途では他のタイプの用途よりも高いレベルの定義が必要となり得る)、サーバからの及びユーザデバイスからのメモリ容量、ひいては、所望のメモリ消費などに依存する。
ジオメトリモデル524は、実世界要素に基づいて仮想レプリカ510の形状を定義する数学的モデルを含み、3Dモデル524によって補完され得る。
動的モデル528は、時間の経過に伴う仮想世界での実世界オブジェクトの行動を記述する数学的モデルを表し、定義された順序で発生する状態のセットを含むことができ、連続(例えば、代数方程式又は微分方程式)及び離散(例えば、状態マシン又は確率モデルとして)動的モデルを含むことができる。
機械学習モデル530は、実世界オブジェクト及びプロセスの数学的表現であり、通常、学習のためのトレーニングデータとして用いられている実際の又はシミュレートされたデータに基づいて機械学習アルゴリズムによって生成される。このモデルは、仮想ツインを通じて本物のツインの動作及び/又はパフォーマンスを最適化するために用いることができる人工知能技術の実装を可能にし得る。機械学習モデルは、本物のツインの行動をシミュレートするために本物のツインの行動について仮想レプリカ510に学習させることを可能にする機械学習アルゴリズムを採用することができる。
いくつかの実施形態では、仮想レプリカ510に用いられるモデルは、特定のシナリオ計算に必要な詳細レベル(LOD)を考慮している。LODは、仮想レプリカ510が観測者から離れるにつれて、又はオブジェクトの重要度、視点−相対速度、観測者の分類、又は位置などの他のメトリクスに従って、モデル522の表現の複雑さを軽減することを含む。LODは、ユーザの視点がオブジェクトにより近い場合にのみより詳細なモデルを用いる、リアルタイムレンダリングを最適化するためにゲームエンジンで通常用いられる特徴である。LOD管理は、グラフィックスパイプラインの使用負荷の低減、通常は頂点変換によって、又は、低忠実度モデルから高忠実度モデルまで様々な物理モデルを仮想レプリカに関連付けることができ、ゆえにケース及び状況に応じて様々なシミュレーションが行われることを可能にするので、物理シミュレーションの強化によって、レンダリングプロセスなどのコンピューティングプロセスの効率を高める。LOD管理は、グラフィックスパイプラインの使用負荷の低減、通常は頂点変換によって、又は、低忠実度モデルから高忠実度モデルまでの様々な3Dモデル524又は動的モデル528を仮想レプリカ510に関連付けることができ、ゆえにケース及び状況に応じて様々なシミュレーションを行うことができるので、物理シミュレーションの強化によって、レンダリングプロセスなどのコンピューティングプロセスの効率を高める。一般に、LOD管理は、フレームレートを改善し、メモリとコンピューティングの需要を低減することができる。
複数の接続された仮想レプリカ510は、RVRN118を形成する。各仮想レプリカ510はまた、互いとのソーシャル接続532、すなわち、互いとの対話も表示することができる。
いくつかの実施形態では、仮想レプリカ510は、SLAM又は導写像に基づくデータなどの3D世界及び建物データ、3Dジオメトリデータ、3D点群データ、又はデジタル現実アプリケーションの3D構造をモデル化するのに役立つ可能性のある実世界の構造的特性を表す地理情報システムデータのうちの1つ以上を含む。
いくつかの実施形態では、仮想レプリカ510のそれぞれは、現在のジオロケーション技術で用いるのに適した基準座標系を用いてジオロケートされ得る。例えば、仮想レプリカは、GPSによって用いられる現在の基準座標系であるWGS84などの世界測地系規格を用いることができる。
図6は、一実施形態に係る、マージドリアリティシステムで用いられるRVRNを生成するのに用いられるプラットフォーム及びインターフェースを説明するシステム600の線図である。点線内に配置された要素は、仮想レプリカ及びRVRN118が存在する永続的仮想世界システム120を表す。
図6に示すように、RVRN118は、複数の外部プラットフォーム602に、又は永続的仮想世界システム120に含まれるエンジンサービス604に接続することができる。複数の外部プラットフォームは、例えば、モデルを提供及び操作し、データを消費する又は仮想レプリカに公開するために、API606を通じて永続的仮想世界システム120に接続することができる、モノのインターネット(IoT)プラットフォーム、機械学習(ML)プラットフォーム、ビッグデータプラットフォーム、及びシミュレーションプラットフォームを含み得る。
IoTプラットフォームは、他のデバイス及びユーザデバイス内のセンサから受信したマルチソース入力データの管理を可能にするソフトウェア、ハードウェア、及び/又はファームウェアを指す。MLプラットフォームは、人工知能アプリケーションのために機械学習モデル及びアルゴリズムを使用する能力をRVRN118に提供するソフトウェア、ハードウェア、及び/又はファームウェアを指す。ビッグデータプラットフォームは、RVRN118に関係したビッグデータの開発、展開、運用、及び管理を編成することができるソフトウェア、ハードウェア、及び/又はファームウェアを指す。シミュレーションプラットフォームは、実世界のエンティティの実際の行動を仮想的に再現するためにRVRN118とそれらのデータ及びモデルを用いることを可能にするソフトウェア、ハードウェア、及び/又はファームウェアを指す。
永続的仮想世界システム120に含まれるエンジンサービス604は、例えば、とりわけ、人工知能エンジン、シミュレーションエンジン、3Dエンジン、及び触覚エンジンを含み得る。人工知能エンジンは、人工知能アプリケーションのための機械学習モデル及びアルゴリズムの管理及び適用を可能にするソフトウェア、ハードウェア、及び/又はファームウェアを指す。シミュレーションエンジンは、実世界のエンティティの実際の行動を仮想的に再現するために仮想レプリカとそれらのデータ及びモデルを用いることを可能にするソフトウェア、ハードウェア、及び/又はファームウェアを指す。3Dエンジンは、仮想レプリカの3Dグラフィックスの作成及び処理に用いられ得るソフトウェア、ハードウェア、及び/又はファームウェアを指す。触覚エンジンは、アプリケーション及び仮想レプリカに触覚特徴を実装してユーザにタッチに基づく対話を提供することを可能にするソフトウェア、ハードウェア、及び/又はファームウェアを指す。永続的仮想世界システム120はまた、永続的仮想世界システム120内の、及び永続的仮想世界システム120とマージドリアリティ608との間の実空間データ及び仮想空間データの交換及び管理の最適化のために構成された空間データストリーミングプラットフォームに接続する。
エンジンサービス604のうちのいくつか(例えば、3Dエンジン及び触覚エンジン)は、ユーザデバイス内の適切なデジタル現実インターフェース610を介してマージドリアリティ608に接続することができ、仮想現実又は拡張現実のいずれかでマージドリアリティにアクセス可能となる。マージドリアリティ610は、本物の要素が永続的仮想オブジェクトによってオーバーラップ又は拡張され、現実での特定の地理的位置又は本物の要素に結び付けられ、現実の仮想レプリカに接続されるAI及びシミュレーションを含む、エクステンデッド・リアリティをユーザに提供する。ユーザは、自分のアバターを通じてこのマージドリアリティ608と無制限に対話することができる。
いくつかの実施形態では、いくつかの詳細な3Dマップを永続的仮想世界システム120の既存のRVRN118と比較する、照合する、及び組み合わせるために、3Dマップデータ融合プラットフォーム114によって協調的マッピングデータが取得及び処理され得る。
RVRN118は、永続的仮想世界システム120の一体部分であり、仮想レプリカ現実612の実装を可能にし、この場合、すべての実世界要素は完全に仮想であり、仮想的に強化され得る(例えば、実世界要素にはない場合がある仮想レプリカに特徴を追加する)。本開示において、仮想現実は、すべての要素が仮想である世界の没入型実現を表すことができ、一方、仮想レプリカ現実612は、状況、実世界オブジェクトに基づく正確なジオロケーション、並びにデータ及びモデルの入力を通じて継続的に更新され(又は計算リソース及び条件が許す限り定期的に又は断続的に更新され)、複数のプラットフォーム及び/又はエンジンを介して操作され得る仮想レプリカ間の対話及び接続を考慮に入れているという点で、仮想レプリカ現実612は、仮想現実の典型的な概念とは異なる。したがって、仮想レプリカ現実612は、永続的仮想世界システム内の世界の実際の仮想レプリカを指し、永続的仮想世界システムは、各仮想レプリカのセルフコンピューティング能力及び自律行動を可能にするデータ、モデル、対話、接続、及びインフラストラクチャを提供する。
さらに別の実施形態では、システム600は、拡張現実及び仮想現実のために少なくとも1つのサーバの別個の層のメモリに格納することができる。別個の層は、マージドリアリティ608を通じて、拡張現実又は仮想現実のいずれかで仮想レプリカ現実612にアクセスすることを可能にし、一方又は他方のタイプの現実にアクセスするときにはいつでも、少なくとも1つのサーバコンピュータに接続されたユーザデバイスを通じてアクティブ化され得る。各層は、各層に特異的であり得る現実及び仮想レプリカの拡張を含み得る。例えば、拡張現実でマージドリアリティ608にアクセスするとき、ユーザは、現在のマージドリアリティシーンにある実オブジェクト、対応する仮想レプリカを介した各実オブジェクトの現在の拡張、及び拡張現実でのみ可視であるように構成された純粋な仮想オブジェクトを見ることができる。別の例では、仮想現実でマージドリアリティ608を見るとき、ユーザは、仮想現実でのみ見られるように構成された拡張を含む、仮想現実のために構成された仮想レプリカ現実612のバージョンのみを見ることができる。しかしながら、仮想現実の場合、ユーザは、本来は拡張現実用の拡張及び仮想オブジェクトを見るために、拡張現実層をアクティブ化することができる。同様に、拡張現実の場合、ユーザは、拡張現実で拡張を見ることができながら仮想現実に完全に移行するために仮想現実層をアクティブ化することができる。
さらなる実施形態では、RVRN118は、分散台帳プラットフォーム614に接続し、これは、クライアントにより識別されたマップ領域寄与616を格納することができる。いくつかの実施形態では、クライアントにより識別されたマップ領域寄与616は、クライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられ、これは、マップ寄与に従って対応する報酬(例えば、暗号通貨620)をユーザに提供するために、対応するスマートコントラクト618によって管理され得る。
図7は、一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法700のブロック図である。
本開示の方法700は、ステップ702で始まり、ステップ704で、少なくとも1つのプロセッサを備えるサーバコンピュータのメモリ内に3Dマップデータ融合プラットフォーム(例えば、図1〜図4及び図6に関連して説明した3Dマップデータ融合プラットフォーム114)を提供する。続いて、ステップ706で、方法700は、3Dマップデータ融合プラットフォーム内に世界の場所の基本衛星マップを提供する。いくつかの実施形態では、基本衛星マップは、(例えば、複数の対応するAPIを通じて)3Dマップデータ融合プラットフォームに接続する、1つ以上のパブリック又はプライベートの世界マップ、地域マップ、又は局所マップの衛星画像を用いる衛星マッピング技術によって得られる。
続いて、ステップ708で、方法は、3Dマップデータ融合プラットフォームで、基本衛星マップを参照して(例えば、入手可能な場合、基本衛星マップの座標と位置合わせされる)実世界の場所のRVRN(例えば、図1〜図6からのRVRN118)を公開する。このプロセスに続いて、ステップ710で、方法700は、第1のクライアントデバイスのポーズを取得し、これは、センサ(例えば、IMU、加速度計、及びジャイロスコープ)によって、外部センサ(例えば、カメラ)の使用を通じて、又はこれらの組み合わせによって得られるセンサデータからの位置及び向き決定並びに追跡技術及びアルゴリズムを通じて行われ得る。その後、方法は、ステップ712で、第1のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと第1のクライアントデバイスのポーズを用いて第1の座標空間内の第1の複数の特徴のポーズを判定する、第1の座標空間のSLAMプロセスを実行することに進む。いくつかの実施形態では、画像データは、SLAMパイプラインの協調的実装中にクライアントデバイスの1つ以上のイメージングデバイスによって取り込まれ、これは、少なくとも部分的に、3Dマップデータ融合プラットフォームによって、及び、クライアントデバイスのメモリに格納され、その少なくとも1つのプロセッサによって実行されるSLAMスキャンナビゲーションモジュールを通じてクライアントデバイスによって行われる。いくつかの実施形態では、画像データは、クライアントデバイスの少なくとも1つのプロセッサによって実行されるSLAMスキャンナビゲーションモジュールのコンピュータ命令を通じて前処理され得る。
続いて、方法700は、第1の座標空間内の第1の複数の特徴を備える新規マップを作成する。図7に示した例では、これは、ステップ714で、新しいデータとRVRNデータとの比較を行うために画像データから十分な特徴が抽出されているかどうかをチェックする機能を実行することを含む。十分な特徴が取り込まれていない場合、方法は、ステップ712に進み、SLAMプロセスを続行する。第1の座標空間の十分な特徴がマッピングされると、方法700はステップ716に進み、マッピングされた第1の複数の特徴がRVRNに含まれる又は部分的に含まれるかをチェックするために、3Dマップデータ融合プラットフォームによる特徴マッチングアルゴリズムを通じて、マッピングされた第1の複数の特徴を公開されたRVRNと比較する。マッピングされた第1の複数の特徴がRVRNに含まれていない又は部分的にしか含まれていない場合、ステップ718で、SLAMプロセスは、第1の新規マップが作成されるまで続行することができる。次いで、ステップ720で見られるように、第1の新規マップをRVRNとマージして融合3Dマップを作成することができる。しかしながら、公開された詳細なRVRNが新たにマッピングされた特徴を含んでいる場合、方法700は、ターミネータ722で終了することができる。
図8は、一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法700と組み合わせて用いることができる方法800のブロック図である。
方法800は、ステップ802で始まり、ステップ804で、第2のクライアントデバイスの位置及び向きを取得する。次いで、ステップ806で、方法は、第2のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと第2のクライアントデバイスのポーズを用いて第2の座標空間内の第2の複数の特徴のポーズを判定する、第2の座標空間のSLAMプロセスを実行する。続いて、ステップ808で、方法800は、新しいデータと融合3Dマップデータとの比較を行うために画像データから十分な特徴が抽出されているかどうかをチェックする。
十分な特徴が取り込まれていない場合、方法は、ステップ806に進み、SLAMプロセスを続行する。第1の座標空間の十分な特徴がマッピングされると、続いて、方法800は、第2の複数の特徴を備える第2の新規マップを作成する。図8に示された例では、これは、ステップ810で、3Dマップデータ融合プラットフォームによる特徴マッチングアルゴリズムを通じて、マッピングされた第2の複数の特徴が融合3Dマップに含まれている又は部分的に含まれているかをチェックするために、マッピングされた第2の複数の特徴を融合3Dマップと比較する機能を実行することを含む。マッピングされた第1の複数の特徴が融合3Dマップに含まれていない又は部分的にしか含まれていない場合、SLAMプロセスは、ステップ812で、第2の新規マップが作成されるまで続行することができる。次いで、ステップ814に示すように、第2の新規マップを融合3Dマップとマージして協調的3Dマップを作成することができる。しかしながら、融合3Dマップが新たにマッピングされた特徴を含んでいる場合、方法800は、ターミネータ816で終了することができる。
さらに別の実施形態では、方法はまた、協調的3Dマップを永続的仮想世界システムと協調的3Dマップを共有することを含み、協調的3Dマップの複数の特徴は、仮想オブジェクトの一部として永続的仮想世界システムと共有される。
図9は、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする、第1及び第2のクライアントデバイスの両方から同時に画像データを受信する方法900のブロック図である。
方法900は、図7のステップ702〜708のアクションを行うステップ902で始まることができる。その後、ステップ904で、方法900は、第1及び第2のクライアントデバイスのポーズを取得することができる。続いて、ステップ906で、方法は、第1及び第2のクライアントデバイスの少なくとも1つのイメージングデバイスから画像データを取り込むことによって第1及び第2の座標空間のSLAMプロセスを同時に行うことができ、前記SLAMプロセスは、第1及び第2のクライアントデバイスのポーズを使用して第1及び第2の座標空間内の第1及び第2の複数の特徴のポーズを判定することによって行われる。次いで、ステップ908で、方法900は、十分な特徴が抽出されているかどうかをチェックすることができ、その結果、ステップ910で、特徴が比較及び照合され得る。第1の複数の特徴と第2の複数の特徴が一致する場合、方法900は、特徴の第1のマップと特徴の第2のマップをマージすることに進み、前記マージは、基本マップと位置合わせした状態で行われる。その後、方法900は、組み合わされたマップをRVRNと比較及びマージして協調的3Dマップを生成する。
第1の複数の特徴と第2の複数の特徴が一致しない場合、方法900は、ステップ914に進み、特徴の第1及び第2のマップを別々にRVRNと比較及びマージして協調的3Dマップを生成することができる。ステップ912又は914の後で、方法900は、ターミネータ916で終了することができる。
図10は、一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法のさらなるステップを示す方法1000のブロック図である。
方法1000は、ステップ1002で、第1又は第2のクライアントデバイスから識別子コードを取得することで始めることができる。個人IDコードは、例えば、QRコード、URL、IPアドレス、MACアドレス、暗号学的ハッシュ、UUID、又はOUIであり得る。IDコードは、各クライアントデバイスによってマッピングされた全エリアの3D座標に付加される。次いで、ステップ1004で、方法は、識別子コードをそれぞれ第1又は第2のマップに関連付けることができる。最後に、方法1000は、ステップ1006で、識別された第1又は第2のマップを分散台帳に実装されたスマートコントラクトに格納することで終了することができる。さらに別の実施形態では、クライアントにより識別されたマップ領域寄与は、クライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられ得る。
図11は、一実施形態に係る、更新可能な協調的3Dマップデータ融合プラットフォーム及びその永続的仮想世界システムを可能にする方法のさらなるステップを示すブロック図である。
方法1100は、ステップ1102で、第1又は第2のクライアントデバイスを通じて、少なくとも1つのサーバコンピュータのメモリに格納された1つ以上の仮想オブジェクトを選択することで始めることができる。次いで、ステップ1104で、方法1100は、仮想オブジェクトの位置合わせのための参照として永続的仮想世界システムと共有される協調的3Dマップを用いることによって、選択された仮想オブジェクトを1つ以上の場所の上にオーバーレイすることで終了することができる。
1つ以上のコンピュータに本明細書で説明される方法のいずれかを行わせるように構成された命令を格納しているコンピュータ可読媒体も説明される。コンピュータ可読媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなどの情報を格納することができる任意の方法又は技術で実装される揮発性又は不揮発性の、取り外し可能又は取り外し不可能な媒体を含み得る。一般に、本明細書で説明されるコンピューティングデバイスの機能は、C、C++、COBOL、JAVA(商標)、PHP、Perl、Python、Ruby、HTML、CSS、JavaScript、VBScript、ASPX、C#などのMicrosoft.NET(商標)言語といったプログラミング言語で書くことができるハードウェア又はソフトウェア命令で具体化されるコンピューティング論理で実装され得る。コンピューティング論理は、実行可能プログラムにコンパイルする又は解釈されたプログラミング言語で書くことができる。一般に、本明細書で説明される機能は、より優れた処理能力を提供するために複製する、他のモジュールとマージする、又はサブモジュールに分割することができる論理モジュールとして実装することができる。コンピューティング論理は、任意のタイプのコンピュータ可読媒体(例えば、メモリ又は記憶媒体などの一時的でない媒体)又はコンピュータ記憶装置に格納することができ、1つ以上の汎用又は専用プロセッサに格納し、それにより実行することができ、したがって、本明細書で説明される機能を提供するように構成された専用コンピューティングデバイスを作成することができる。
特定の実施形態が添付の図面に説明及び示されているが、このような実施形態は、広範な開示の単なる例証であって限定するものではないことと、当該技術分野の当業者は他の様々な修正に想到することができるため、本開示は、示され説明された特定の構成及び配置に限定されないことが理解される。したがって、説明は、限定ではなく例証とみなされるべきである。
排他的財産又は特権が主張される本発明の実施形態は、以下のように定義される。

Claims (20)

  1. 方法であって、
    少なくとも1つのプロセッサを備える1つ以上のサーバコンピュータのメモリ内に3Dマップデータ融合プラットフォームを提供することと、
    前記3Dマップデータ融合プラットフォーム内に世界の場所の基本衛星マップを提供することと、
    前記3Dマップデータ融合プラットフォームで前記基本衛星マップを参照してリアルタイム仮想レプリカネットワーク(RVRN)を公開することと、
    第1のクライアントデバイスのポーズを取得することと、
    前記第1のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データ、前記第1のクライアントデバイスのポーズ、及び前記基本衛星マップのデータを用いて第1の座標空間内の第1の複数の特徴のポーズを判定する、前記第1の座標空間の同時ローカライゼーション・マッピング(SLAM)プロセスを実行することと、
    前記第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを作成することと、
    前記3Dマップデータ融合プラットフォームによって、前記第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを公開されたRVRNとマージして融合3Dマップを作成することと、
    を含む、方法。
  2. 前記第1の新規マップを作成することが、前記3Dマップデータ融合プラットフォームによる1つ以上の特徴マッチングアルゴリズムを通じて、前記第1の複数の特徴を前記公開されたRVRNと比較することを含む、請求項1に記載の方法。
  3. 前記比較するステップが、前記第1の座標空間の特徴の閾値数に達すると実行される、請求項2に記載の方法。
  4. 第2のクライアントデバイスのポーズを取得することと、
    前記第2のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データ、前記第2のクライアントデバイスのポーズ、及び前記融合3Dマップのデータを用いて第2の座標空間内の第2の複数の特徴のポーズを判定する、前記第2の座標空間のSLAMプロセスを開始することと、
    前記第2の複数の特徴を備える第2の新規マップを作成することと、
    前記3Dマップデータ融合プラットフォームによって、前記第2の新規マップを前記融合3Dマップとマージして協調的3Dマップを作成することと、
    をさらに含む、請求項1に記載の方法。
  5. 仮想レプリカ、純粋な仮想オブジェクト、アプリケーション、又はこれらの組み合わせを備える永続的仮想世界システムと前記協調的3Dマップを共有することをさらに含み、新たにマッピングされたオブジェクトが前記永続的仮想世界システムに追加される、請求項4に記載の方法。
  6. 前記第1又は前記第2のクライアントデバイスを通じて、1つ以上の仮想オブジェクトを選択することと、
    前記第1又は前記第2のクライアントデバイスによって、前記仮想オブジェクトの位置合わせのための参照として前記永続的仮想世界システムと共有される協調的3Dマップを用いることによって、前記選択された仮想オブジェクトを1つ以上の場所の上にオーバーレイすることと、
    をさらに含む、請求項4に記載の方法。
  7. 前記第1又は前記第2のクライアントデバイスから識別子コードを取得することと、
    前記識別子コードを前記第1の新規マップ又は前記第2の新規マップと関連付けることと、
    前記識別子コードと関連付けられているマップを分散台帳に実装されたスマートコントラクトに格納することと、
    をさらに含む、請求項4に記載の方法。
  8. 前記格納されたマップが、前記第1又は前記第2のクライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられる、請求項7に記載の方法。
  9. ユーザごとの資格情報を前記画像データに追加することをさらに含み、資格のあるユーザのみが、その場所の画像データを見るためのアクセス権を有する、請求項1に記載の方法。
  10. 前記SLAMプロセスが、前記第1のクライアントデバイスの1つ以上のプロセッサと、前記1つ以上のサーバコンピュータによって部分的に行われる、請求項1に記載の方法。
  11. 更新可能な3D空間マップを可能にするシステムであって、
    メモリと少なくとも1つのプロセッサとを備える少なくとも1つのサーバコンピュータであって、前記メモリは3Dマップデータ融合プラットフォームを格納し、前記少なくとも1つのサーバコンピュータは、
    前記3Dマップデータ融合プラットフォーム内に世界の場所の基本衛星マップを提供し、
    前記3Dマップデータ融合プラットフォームで前記基本衛星マップを参照して実世界の場所の詳細なリアルタイム仮想レプリカネットワーク(RVRN)を公開し、
    第1のクライアントデバイスのポーズを取得し、
    前記第1のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと前記第1のクライアントデバイスのポーズを用いて第1の座標空間内の第1の複数の特徴のポーズを判定する、前記第1の座標空間の同時ローカライゼーション・マッピング(SLAM)プロセスを開始し、
    前記第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを作成し、
    前記3Dマップデータ融合プラットフォームによって、前記第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを公開されたRVRNとマージして融合3Dマップを作成する、
    ように構成される、サーバコンピュータ
    を備える、システム。
  12. 前記第1の新規マップを作成することが、前記3Dマップデータ融合プラットフォームによる1つ以上の特徴マッチングアルゴリズムを通じて、前記第1の複数の特徴を前記公開されたRVRNと比較することを含む、請求項11に記載のシステム。
  13. 前記比較するステップが、前記第1の座標空間の特徴の閾値数に達すると実行される、請求項12に記載のシステム。
  14. 前記少なくとも1つのサーバコンピュータがさらに、
    第2のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと前記第2のクライアントデバイスのポーズを用いて第2の座標空間内の第2の複数の特徴のポーズを判定する、前記第2の座標空間のSLAMプロセスを開始し、
    前記第2の複数の特徴を備える第2の新規マップを作成し、
    前記3Dマップデータ融合プラットフォームによって、前記第2の新規マップを前記融合3Dマップとマージして協調的3Dマップを作成する、
    ように構成される、請求項11に記載のシステム。
  15. 前記協調的3Dマップが、仮想レプリカ、純粋な仮想オブジェクト、アプリケーション、又はこれらの組み合わせを備える永続的仮想世界システムと共有され、新たにマッピングされたオブジェクトが前記永続的仮想世界システムに追加される、請求項14に記載のシステム。
  16. 前記少なくとも1つのサーバコンピュータがさらに、
    前記第1のクライアントデバイスから識別子コードを取得し、
    前記識別子コードを前記第1の新規マップと関連付け、
    前記識別された第1の新規マップを分散台帳に実装されたスマートコントラクトに格納するように構成され、
    前記識別され格納されたマップが、前記第1のクライアントデバイスによるマップ領域寄与に関連して報酬を提供することを含む報酬システムで用いられる、請求項11に記載のシステム。
  17. 前記第1のクライアントデバイスが、前記少なくとも1つのサーバコンピュータのメモリに格納された1つ以上の仮想オブジェクトを選択し、参照として前記融合3Dマップを用いることによって、前記選択された1つ以上の仮想オブジェクトを1つ以上の場所の上にオーバーレイするように構成される、請求項11に記載のシステム。
  18. 3Dマップデータ融合プラットフォームを提供するステップと、
    前記3Dマップデータ融合プラットフォーム内に世界の場所の基本衛星マップを提供するステップと、
    前記3Dマップデータ融合プラットフォームで前記基本衛星マップを参照してリアルタイム仮想レプリカネットワーク(RVRN)を公開するステップと、
    第1のクライアントデバイスのポーズを取得するステップと、
    前記第1のクライアントデバイスの少なくとも1つのイメージングデバイスからの画像データと前記第1のクライアントデバイスのポーズと前記基本衛星マップのデータを用いて第1の座標空間内の第1の複数の特徴のポーズを判定する、前記第1の座標空間の同時ローカライゼーション・マッピング(SLAM)プロセスを実行するステップと、
    前記第1の座標空間内の第1の複数の特徴の三次元座標を備える新規マップを作成するステップと、
    前記3Dマップデータ融合プラットフォームによって、前記第1の座標空間内の第1の複数の特徴の三次元座標を含む第1の新規マップを公開されたRVRNとマージして融合3Dマップを作成するステップと、
    を1つ以上のプロセッサに行わせるように構成されたコンピュータで実行可能な命令を格納している一時的でないコンピュータ可読媒体。
  19. 前記第1の新規マップを作成することが、1つ以上の特徴マッチングアルゴリズムを通じて、前記第1の複数の特徴を前記公開されたRVRNと比較することを含む、請求項18に記載の一時的でないコンピュータ可読媒体。
  20. 前記比較するステップが、前記第1の座標空間の特徴の閾値数に達すると実行される、請求項19に記載の一時的でないコンピュータ可読媒体。
JP2020215588A 2019-12-30 2020-12-24 協調的3dマップデータ融合プラットフォーム及びその仮想世界システムを可能にするシステム及び方法 Active JP7193163B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962955216P 2019-12-30 2019-12-30
US62/955,216 2019-12-30

Publications (2)

Publication Number Publication Date
JP2021111385A true JP2021111385A (ja) 2021-08-02
JP7193163B2 JP7193163B2 (ja) 2022-12-20

Family

ID=74103882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215588A Active JP7193163B2 (ja) 2019-12-30 2020-12-24 協調的3dマップデータ融合プラットフォーム及びその仮想世界システムを可能にするシステム及び方法

Country Status (5)

Country Link
US (1) US20210199460A1 (ja)
EP (1) EP3846124A1 (ja)
JP (1) JP7193163B2 (ja)
KR (1) KR20210086973A (ja)
CN (1) CN113129439A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11397962B2 (en) * 2017-10-09 2022-07-26 American Express Travel Related Services Company, Inc. Loyalty point distributions using a decentralized loyalty ID
US11355019B2 (en) * 2018-08-24 2022-06-07 AeroCine Ventures, Inc. Motion tracking interface for planning travel path
US11430193B1 (en) * 2021-07-29 2022-08-30 Argyle Inc. Resilient interdependent spatial alignment to improve and maintain spatial alignment between two coordinate systems for augmented reality and other applications
CN113963095B (zh) * 2021-09-01 2022-07-05 泰瑞数创科技(北京)有限公司 基于人工智能的城市三维地图视频流加密方法及系统
US20230177789A1 (en) * 2021-12-06 2023-06-08 Snap Inc. Computer vision tools for creating augmented reality (ar) models
CN114359476A (zh) * 2021-12-10 2022-04-15 浙江建德通用航空研究院 一种用于城市峡谷环境导航的动态3d城市模型构建方法
WO2023150839A1 (en) * 2022-02-14 2023-08-17 Commonwealth Scientific And Industrial Research Organisation Agent data processing
US20230353981A1 (en) * 2022-04-27 2023-11-02 Tmrw Foundation Ip S. À R.L. System and method enabling accurate context-aware location-based services
CN114900545A (zh) * 2022-05-10 2022-08-12 中国电信股份有限公司 增强现实实现方法和系统、云服务器
KR102559768B1 (ko) * 2022-07-27 2023-07-26 콩테크 주식회사 오브젝트와 앱 간의 연관도를 이용한 앱목록 인터페이스를 제공하는 방법, 이를 수행하는 서비스서버 및 컴퓨터-판독가능 매체
KR102559765B1 (ko) * 2022-07-27 2023-07-26 콩테크 주식회사 오브젝트 관련 앱목록 인터페이스를 제공하는 방법, 이를 수행하는 서비스서버 및 컴퓨터-판독가능 매체
US20240046564A1 (en) * 2022-08-02 2024-02-08 Niantic, Inc. Simulated Consistency Check for Points of Interest on Three-Dimensional Maps
CN115409941B (zh) * 2022-08-31 2023-05-30 中南大学 一种三维道路场景中三维地物模型融合方法及其系统
CN115937441B (zh) * 2022-11-08 2023-09-05 泰瑞数创科技(北京)股份有限公司 低带宽环境下的三维协同标绘方法及其系统
CN116091710B (zh) * 2023-04-11 2023-05-30 埃洛克航空科技(北京)有限公司 一种基于三维重建的自适应空间切分方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502677A (ja) * 2012-10-30 2016-01-28 クゥアルコム・インコーポレイテッドQualcomm Incorporated ロケーション環境識別子(lci)のための複数のマップの処理および管理
WO2019167213A1 (ja) * 2018-03-01 2019-09-06 株式会社ソニー・インタラクティブエンタテインメント 位置推定装置、トラッカー、位置推定方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN105843223B (zh) * 2016-03-23 2018-11-20 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
EP3943888A1 (en) * 2016-08-04 2022-01-26 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US11079897B2 (en) * 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
US10915115B2 (en) * 2018-08-02 2021-02-09 Nvidia Corporation Method and apparatus for enabling map updates using a blockchain platform
GB2582266B (en) * 2019-03-05 2022-11-30 Geoslam Ltd Three-dimensional dataset and two-dimensional image localisation
US11354728B2 (en) * 2019-03-24 2022-06-07 We.R Augmented Reality Cloud Ltd. System, device, and method of augmented reality based mapping of a venue and navigation within a venue
AU2020409014A1 (en) * 2019-12-20 2022-08-18 Niantic, Inc. Merging local maps from mapping devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502677A (ja) * 2012-10-30 2016-01-28 クゥアルコム・インコーポレイテッドQualcomm Incorporated ロケーション環境識別子(lci)のための複数のマップの処理および管理
WO2019167213A1 (ja) * 2018-03-01 2019-09-06 株式会社ソニー・インタラクティブエンタテインメント 位置推定装置、トラッカー、位置推定方法及びプログラム

Also Published As

Publication number Publication date
KR20210086973A (ko) 2021-07-09
EP3846124A1 (en) 2021-07-07
JP7193163B2 (ja) 2022-12-20
US20210199460A1 (en) 2021-07-01
CN113129439A (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
JP7193163B2 (ja) 協調的3dマップデータ融合プラットフォーム及びその仮想世界システムを可能にするシステム及び方法
US11196964B2 (en) Merged reality live event management system and method
US11949728B2 (en) System and method for optimizing virtual world computations through an N-tier architecture
US11995730B2 (en) System and method for providing digital reality experiences and decentralized transactions of real estate projects
US20240037844A1 (en) 3d structure engine-based computation platform
CN112102463B (zh) 通过位置虚拟化技术操作3d应用的系统和方法
US11516296B2 (en) Location-based application stream activation
EP4262217A1 (en) System and method enabling private to public media experiences
US20230196690A1 (en) High-Speed Real-Time Scene Reconstruction from Input Image Data
CN116721235A (zh) 利用缓冲的交叉现实系统用于定位精度
US20240185478A1 (en) Virtual Occlusion Mask Prediction Through Implicit Depth Estimation
US20220319016A1 (en) Panoptic segmentation forecasting for augmented reality
TW202238068A (zh) 自監督多圖框單眼深度估計模型

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221201

R150 Certificate of patent or registration of utility model

Ref document number: 7193163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150