JP7500187B2 - 拡張モデルを用いた拡張現実システム - Google Patents

拡張モデルを用いた拡張現実システム Download PDF

Info

Publication number
JP7500187B2
JP7500187B2 JP2019228978A JP2019228978A JP7500187B2 JP 7500187 B2 JP7500187 B2 JP 7500187B2 JP 2019228978 A JP2019228978 A JP 2019228978A JP 2019228978 A JP2019228978 A JP 2019228978A JP 7500187 B2 JP7500187 B2 JP 7500187B2
Authority
JP
Japan
Prior art keywords
physical object
model
scan data
augmented
computer system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019228978A
Other languages
English (en)
Other versions
JP2020119511A (ja
Inventor
デイビッド ケルシー ウィリアム
デール ラフリン ブライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2020119511A publication Critical patent/JP2020119511A/ja
Application granted granted Critical
Publication of JP7500187B2 publication Critical patent/JP7500187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、拡張現実システム、及び、情報を視覚化する方法に関する。
拡張現実は、コンピュータシステムからの情報によって拡張された現実世界環境とのインタラクティブな経験を含む。情報は、ポータブル演算装置を通して見られる現実世界環境のライブビューに表示される。ライブビューにおける情報の表示は、対象物についての記述又はインジケータを、ライブビュー内でユーザに提示するように行われる。このような情報は、拡張現実情報とも称される。また、他の場合には、拡張現実情報を現実世界環境のライブビューに表示する際に、情報が、ポータブル演算装置を通して見られる現実世界環境の一部として知覚されるように、現実世界環境にシームレスに織り込まれる。
位置推定とマッピングの同時実行プロセスでは、アンカーを用いて、周囲環境内におけるポータブル演算装置の位置推定を行う。アンカーとは、特徴点であり、物理的対象物又は物理的対象物の近くの環境にある特別な場所である。アンカーを用いて、物理的対象物のモデルを、物理的対象物のライブビューで見ている現実世界の物理的対象物と対応付ける。
アンカーからの拡張現実装置の距離が増すにつれて、拡張現実装置が、物理的対象物のライブビュー上に拡張現実情報を表示する際の精度が、低下する場合がある。
例えば、距離が5メートルを超えると、物理的対象物上の適所または近傍に拡張現実装置が拡張現実情報を表示する精度が、所望レベルよりも低くなる。
物理的対象物のサイズが大きくなるにつれて、物理的対象物のライブビューを拡張するための情報を所望の精度で表示するのに必要なアンカーの数が大きくなり、物理的対象物によっては、実現不可能な数になる。例えば、航空機、オフィスビル、又はダムなどの大型の対象物のライブビューを拡張することは、非常に困難な場合がある。所望した精度が達成できず、処理リソースの使用量も、非常に多くなる場合がある。
本開示の一実施形態は、一群の無人航空機、コンピュータシステム、及び、ポータブル演算装置を含む、拡張現実システムを提供する。前記一群の無人航空機は、物理的対象物に対して移動し、前記物理的対象物の画像を生成し、前記物理的対象物の領域の空間内での点を記述するスキャンデータを生成する、ように動作する。前記コンピュータシステムは、通信リンクを用いて前記一群の無人ビークルと通信し、物理的対象物の画像を、前記物理的対象物に対して移動している前記一群の無人ビークルから受信し、前記物理的対象物の前記領域のスキャンデータを、前記物理的対象物に対して移動している前記一群の無人ビークルのうちの所定数の無人ビークルから受信し、前記画像及び前記スキャンデータを用いて前記物理的対象物の拡張モデルを作成する、ように動作し、前記拡張モデルにおける前記物理的対象物の前記領域は、前記拡張モデルにおける前記物理的対象物の他の領域よりも、より精細なディテールを有している。前記ポータブル演算装置は、前記拡張モデルを用いて前記物理的対象物に対する位置推定をし、前記ポータブル演算装置を通して見る前記物理的対象物のライブビューに情報を表示する、ように動作する。前記情報は、前記物理的対象物の前記拡張モデルを用いて特定される。
本開示の別の実施形態は、コンピュータシステム及び前記コンピュータシステム内のビジュアライザーを含む、拡張現実システムを提供する。前記コンピュータシステムは、前記コンピュータシステムの動作中及び一群の無人ビークルの動作中に、通信リンクを用いて、前記一群の無人ビークルと通信する。前記ビジュアライザーは、物理的対象物の画像を、前記物理的対象物に対して移動している前記一群の無人ビークルから受信し、前記物理的対象物の領域のスキャンデータを、前記物理的対象物に対して移動している前記一群の無人ビークルのうちの所定数の無人ビークルから受信するように動作する。前記ビジュアライザーは、前記画像及び前記スキャンデータを用いて、前記物理的対象物の拡張モデルを作成するように動作する。前記拡張モデルにおける前記物理的対象物の前記領域は、前記拡張モデルにおける前記物理的対象物の他の領域よりも、より精細なディテールを有する。前記ビジュアライザーは、情報をポータブル演算装置に送信する。前記情報は、前記ポータブル演算装置によって、前記ポータブル演算装置を通して見る前記物理的対象物のライブビューに表示可能である。前記情報は、前記物理的対象物の前記拡張モデルを用いて特定される。
本開示のさらに別の実施形態は、物理的対象物のライブビューに情報を視覚化する方法を提供する。物理的対象物の画像を、コンピュータシステムによって、前記物理的対象物に対して移動している一群の無人ビークルから受信する。前記コンピュータシステムは、通信リンクを用いて、前記一群の無人ビークルと通信する。前記コンピュータシステムによって、前記物理的対象物の領域のスキャンデータを受信する。前記コンピュータシステムによって、前記画像及び前記スキャンデータを用いて、前記物理的対象物の拡張モデルを作成する。前記拡張モデルにおける前記領域は、前記拡張モデルにおける前記物理的対象物の他の領域よりも、より精細なディテールを有する。前記コンピュータシステムによって、前記拡張モデルの少なくとも一部を、ポータブル演算装置に送信し、前記ポータブル演算装置は、前記拡張モデルの前記少なくとも一部を用いて、前記物理的対象物に対する位置推定をする。前記ポータブル演算装置によって表示可能な前記情報を、前記コンピュータシステムによって、前記ポータブル演算装置に送信する。前記ポータブル演算装置は、前記ポータブル演算装置を通して見る前記物理的対象物の前記ライブビューに情報を表示し、前記情報が、前記物理的対象物の前記拡張モデルを用いて特定される。
これらの特徴および機能は、本開示の様々な実施形態において個々に達成可能であり、また、他の実施形態と組み合わせることも可能である。この詳細については、以下の記載と図面から明らかになるであろう。
例示的な実施形態に特有であると考えられる新規の特徴は、添付の特許請求の範囲に記載されている。ただし、例示的な実施形態ならびに好ましい使用形態、さらにその目的および特徴は、本開示の例示的な実施形態について後述する詳細な説明を、下記の添付図面と併せて参照することにより最もよく理解されるであろう。
例示的な実施形態を実施することができるデータ処理システムのネットワークの図による表現である。 例示的な実施形態による、拡張現実環境のブロック図である。 例示的な実施形態による、拡張モデルの作成を表すブロック図である。 例示的な実施形態による、物理的対象物の領域の選択を表すブロック図である。 例示的な実施形態による視覚化環境の図による表現である。 例示的な実施形態によるグラフィカルユーザーインターフェイスの図による表現である。 例示的な実施形態による、物理的対象物のライブビュー上に情報を視覚化するプロセスのフローチャートである。 例示的な実施形態による、拡張モデルを作成するための情報を生成するために無人ビークルを制御するプロセスのフローチャートである。 例示的な実施形態による、物理的対象物の拡張モデルを作成するプロセスのフローチャートである。 例示的な実施形態による、物理的対象物のライブビュー上に情報を視覚化するプロセスのフローチャートである。 例示的な実施形態による、データ処理システムのブロック図である。 例示的な実施形態によるポータブル演算装置のブロック図である。 例示的な実施形態による無人ビークル装置のブロック図である。 例示的な実施形態による、航空機の製造及び保守方法のブロック図である。 例示的な実施形態を実現することができる航空機のブロック図である。 例示的な実施形態による、製品管理システムのブロック図である。
例示的な実施形態においては、1つ以上の異なる事項が認識及び考慮されている。例えば、例示的な実施形態は、航空機、建物、フィールドなどの物理的対象物、又はその他の大型の物理的対象物では、これらの物理的対象物のビューを拡張するための情報を表示すのが困難な場合があるということを、認識及び考慮している。1つの解決策は、人間のオペレータによって操作されるポータブルの演算装置に加えて1つ以上の演算装置を用いることにより、物理的対象物のモデルを生成することを含むということを、例示的な実施形態は、認識及び考慮している。例示的な実施形態は、これらの追加の演算装置が追加の情報を提供し、これを用いて、物理的対象物のモデルの生成、ポータブル演算装置の位置推定、又は、物理的対象物に関する他の操作のうちの少なくとも1つを行うことができるということを、認識及び考慮している。
例えば、例示的な実施形態は、無人ビークルなどのポータブルの演算装置を用いてデータを生成し、これを用いて物理的対象物のモデルを生成することができるということを、認識及び考慮している。これらの無人ビークルは、例えば、無人航空機、無人地上ビークル、又は、無人ウォータービークルを含む。また、ポータブル演算装置によって収集されたデータを用いて追加のデータを生成することができ、この追加のデータを、無人ビークルによって生成されたデータと組み合わせて用いることにより、モデルを生成することができる。
本明細書において、「~のうちの少なくとも1つ」という語句が、アイテムのリストについて用いられる場合、リストアップされたアイテムのうちの1つ以上を様々な組み合わせで用いてもよいことを意味し、また、リストの各アイテムの1つだけが必要な場合もあることを意味する。換言すれば、「~のうちの少なくとも1つ」は、リストから任意の数のアイテムを任意の組み合わせで使用することが可能であり、必ずしもリストアップされたアイテムのすべてを必要としないことを意味する。アイテムは、ある特定の対象、物、又はカテゴリーであってよい。
例えば、限定するものではないが、「アイテムA、アイテムB、又はアイテムCのうちの少なくとも1つ」は、アイテムA、アイテムAとアイテムB、又はアイテムBを含む場合がある。また、この例では、アイテムAとアイテムBとアイテムC、又は、アイテムBとアイテムCを含む場合もある。もちろん、これらのアイテムをどのように組み合わせてもよい。いくつかの例示的な実施例において、「~のうちの少なくとも1つ」は、例えば、限定するものではないが、アイテムAを2つ含む場合、アイテムBを1つ含む場合、アイテムCを10個含む場合、アイテムBを4つおよびアイテムCを7つ含む場合、又は他の適当な組み合わせを含みうる。
また、物理的対象物のモデルを生成するために物理的対象物全体をスキャンすることは、物理的対象物のサイズが大きくなるにつれて、より多くのリソースを消費する場合があるということを、例示的な実施形態は、認識及び考慮している。例えば、航空機や建物などの物理的対象物のポイントクラウドを生成するために三次元スキャナでスキャンデータを生成することは、かなり大きい帯域幅、処理能力、ストレージ、又はその他のコンピューティングリソースを必要とする場合があるということを、例示的な実施形態は、認識及び考慮している。これらの三次元スキャナは、例えば、レーザスキャナ、ライダー(lidar)システム、赤外線スキャナ、又はその他の種類の走査システムを含む。
例示的な実施形態は、画像を用いて物理的対象物のモデルが生成可能であることを、認識及び考慮している。例示的な実施形態は、このような物理的対象物のモデルにおけるディテール(detail)の精細さは、ポイントクラウドを生成するために用いられるスキャンによるディテールよりも少なくなる可能性があるということを、認識及び考慮している。しかしながら、より高いレベルのディテールが所望される1つ以上の対象領域については、三次元スキャナを用いてスキャンデータが生成可能であるということを、例示的な実施形態は、認識及び考慮している。この結果、二種類のデータを用いて物理的対象物のモデルを生成することにより、帯域幅、処理リソース、ストレージ、又はその他のコンピューティングリソースのうちの少なくとも1つの量を、低減することができる。
従って、例示的な実施形態は、物理的対象物のライブビュー上に情報を視覚化するための方法、装置、及び、システムを提供する。例示的な一実施例において、コンピュータシステムは、物理的対象物の画像を、当該物理的対象物に対して移動する無人ビークルから受信する。コンピュータシステムは、通信リンクを用いて、無人ビークルと通信している。コンピュータシステムは、物理的対象物の領域に関するスキャンデータを受信する。コンピュータシステムは、これらの画像及びスキャンデータを用いて、物理的対象物の拡張モデルを生成し、拡張モデルにおける当該領域は、拡張モデルにおける物理的対象物の他の領域よりも、より精細なディテールを有している。コンピュータシステムは、拡張モデルの少なくとも一部を、ポータブル演算装置に送信し、ポータブル演算装置は、拡張モデルの当該少なくとも一部を用いて、物理的対象物に対する位置推定を行う。コンピュータシステムは、ポータブル演算装置によって表示可能な情報も送信する。ポータブル演算装置は、ポータブル演算装置を通して見る物理的対象物のライブビュー上に、情報を表示し、当該情報は、物理的対象物の拡張モデルを用いて、特定される。
次に、図を参照、特に図1を参照すると、同図には、例示的な実施形態を実施することができるデータ処理システムのネットワークの図による表現が示されている。ネットワークデータ処理システム100は、例示的な実施形態を実施することができるコンピュータのネットワークである。ネットワークデータ処理システム100は、ネットワーク102を含み、当該ネットワークは、ネットワークデータ処理システム100内で接続される様々な装置及びコンピュータ間の通信リンクを提供するために用いられる媒体である。ネットワーク102は、例えば、テザー(tethered)通信リンク又は無線通信リンクなどの接続を含む。無線通信リンクは、空気、真空、又は、水のうちの少なくとも1つを介して、確立することができる。
有線通信リンクは、例えば、電線又は光ファイバケーブルのうちの少なくとも1つを含む。有線通信リンクは、かさばったり、無人ビークルが走行できる距離を制限したりする可能性がある。これらの種類の通信リンクは、無線通信リンクに比べて、高いセキュリティを実現することができる。これらの有線通信リンクは、無人航空機が帰還して、充電ステーション又はベースステーションにコンタクトを取る際に起こりうる間欠的な接続も含む。
別の例において、間欠的な接続は、例えば、無線波の送受信範囲(line sight)、距離、又は他の要因によって影響を受ける可能性がある、間欠的な無線接続の場合もある。この種の接続の場合、第1無人航空機が無線接続を失う可能性がある。この場合、別の無人航空機が、第1無人航空機に対して移動又は位置調整することにより、サーバコンピュータ104に対するブリッジ接続を提供することができる。
図示の例では、サーバコンピュータ104及びサーバコンピュータ106が、記憶ユニット108と共に、ネットワーク102に接続する。さらに、クライアント装置110も、ネットワーク102に接続する。図示のように、クライアント装置110は、無人航空機112、無人航空機114、及び、無人航空機116を含む。図示のように、無人航空機112及び無人航空機114は、固定翼機である。図示のように、無人航空機116は、クアッドコプターである。クライアント装置110は、例えば、コンピュータ、ワークステーション、又は、ネットワークコンピュータの場合がある。図示の例では、サーバコンピュータ104が、ブートファイル、オペレーティングシステムイメージ、及び、アプリケーションなどの情報を、クライアント装置110に提供する。また、クライアント装置110は、携帯電話118、タブレットコンピュータ120、及び、スマートグラス122などの、他の種類のクライアント装置も、含む場合がある。この例示的な実施例において、サーバコンピュータ104、サーバコンピュータ106、記憶ユニット108、及び、クライアント装置110は、ネットワーク102に接続するネットワーク装置であり、ネットワーク102は、これらのネットワーク装置の通信媒体である。クライアント装置110のいくつか又はすべては、例えば、モノのインターネット(IoT)を形成し、これらの物理的な装置がネットワーク102に接続して、ネットワーク102を介して情報交換することができる。
クライアント装置110は、本実施例において、サーバコンピュータ104のクライアントである。ネットワークデータ処理システム100は、図示しない追加のサーバコンピュータ、クライアントコンピュータ、及び他の装置を含んでもよい。クライアント装置110は、有線接続又は無線接続のうちの少なくとも1つを用いて、ネットワーク102に接続する。
ネットワークデータ処理システム100にあるプログラムコードは、コンピュータ記録可能な記憶媒体に格納して、データ処理システム又は他の装置にダウンロードして使用することができる。例えば、プログラムコードは、サーバコンピュータ104上のコンピュータ記録可能記憶媒体に格納し、ネットワーク102を介してクライアント装置110にダウンロードして、クライアント装置110で使用することができる。いくつかの実施態様において、プロセッサが、プログラムコードを取得し、命令を実行することにより、記述されている特定の操作を開始、実行、又は制御する。
図示の例において、ネットワークデータ処理システム100は、インターネットであり、ネットワーク102は、トランスミッション・コントロール・プロトコル/インターネット・プロトコル(TCP/IP)をプロトコルスイートとして用いて互いに通信する世界中のネットワーク及びゲートウェイの集まりである。インターネットの中核には、データ及びメッセージを送信する何千もの商業系、政府系、教育系、その他のコンピュータシステムで構成される主要なノード又はホストコンピュータ間の高速データ通信回線というバックボーンがある。もちろん、ネットワークデータ処理システム100は、所定数の異なる種類のネットワークを用いて実施することもできる。例えば、ネットワーク102は、インターネット、イントラネット、ローカルエリアネットワーク(LAN)、メトロポリタンエリアネットワーク(MAN)、又は、ワイドエリアネットワーク(WAN)のうちの少なくとも1つによって構成することができる。別の例として、ネットワーク102は、メッシュネットワーク又はアドホック・ポイントツーポイント・モバイルエッジネットワークであってもよい。図1は、例示を意図したものであり、異なる例示的な実施形態に対する構造的な限定を意図したものではない。
本明細書において、「所定数の」という言葉がアイテムに言及して用いられる場合は、1つ以上のアイテムを意味する。例えば、「所定数の異なる種類のネットワーク」は、1つ以上の異なる種類のネットワークである。
例示的な実施例において、人間のオペレータ124は、スマートグラス122を用いて、航空機126の形態である物理的対象物を見る。この例示的な実施例において、人間のオペレータ124は、スマートグラス122を用いて、航空機126のライブビューを見る。このライブビューに、スマートグラス122を用いて見ているライブビュー上に表示される情報142が重ねられて、航空機126の拡張現実ビューを形成することができる。
この例示的な実施例において、スマートグラス122は、サーバコンピュータ104にあるビジュアライザー128と通信している。ビジュアライザー128は、参照モデル132から情報142を提供し、この情報が、スマートグラス122を通して見られる航空機126のライブビューに重ねられて表示される。スマートグラス122は、拡張モデル130を用いて、航空機126に対する自身の位置を推定する。
この例示的な実施例において、拡張モデル130は、航空機126の三次元モデル又はマップである。他の実施例において、モデル又はマップは、異なる物理的対象物のものである。無人航空機112は、航空機126に対して飛行しつつ、航空機126の画像134を形成する。無人航空機112は、画像134をビジュアライザー128に送信する。無人航空機114も、航空機126の画像136を形成してビジュアライザー128に送信する。無人航空機116も、航空機126の画像138を形成してビジュアライザー128に送信する。
ビジュアライザー128は、無人航空機からのこれらの画像を用いて、航空機126のモデルを生成する。モデルは、航空機126の外面の三次元モデルであり、画像からモデルを生成する現在利用可能な技術を用いて、生成することができる。これらの技術は、複数の画像から三次元再構成を行うことにより、航空機126の三次元モデルを作成する。このようにして、これらの画像を用いて、航空機126をマッピングすることができる。
例示的な実施例において、航空機126の領域144が、画像134、画像136、又は、画像138において、見えない場合がある。この結果、航空機126のモデルは、領域144に対応する穴又は欠落部分を有することになる。この他の場合においては、領域144は、画像に含まれているかもしれない。
この例において、人間のオペレータ124は、画像134、画像136、及び、画像138によって提供できるものよりも、もっと詳細な航空機126の領域144のモデルを必要とするかもしれない。換言すれば、画像から生成されるモデルに領域144が存在するものの、領域144のディテールが欠落している場合や、所望レベルのディテールを備えていない場合がある。この結果、領域144に表示される情報142が、所望の精度を有しない場合がある。
この場合、無人航空機のうちの1つ以上を用いて、当該領域のより詳細なモデルを生成することができる。例えば、無人航空機112が、さらに、スキャンデータ140を生成して、スキャンデータ140をビジュアライザー128に送信することができる。
この図示例では、スキャンデータ140を用いて、航空機126の領域144のポイントクラウドを生成する。次に、このポイントクラウドを用いて、航空機126のモデル内の領域144を修正して、拡張モデル130を形成することができる。拡張モデル130は、航空機126の領域144を含み、当該領域には、拡張モデル130内の航空機126の他の領域に比べて、より精細なディテールが存在する。
この例示的な実施例において、無人航空機112、無人航空機114、及び、無人航空機116は、拡張モデル130を生成するために用いられる二種類のデータ、すなわち、画像データ及びスキャンデータを提供する。拡張モデル130を用いて、スマートグラス122の位置推定をすることができる。位置推定は、位置推定とマッピングの同時実行(SLAM:simultaneous localization and mapping)プロセスを用いて行うことができる。
無人航空機を用いることによって、モデルを作成するための時間や労力は、スマートグラス122の操作や、画像、スキャンデータ、又はこれらの組み合わせの生成に費やされることとなる。人間のオペレータ124は、航空機126に関するタスクやその他の操作を行うことに集中することができる。
オペレータ124によって費やされる時間及び労力の節減は、例示的な実施例では、無人航空機112、無人航空機114、又は無人航空機116のうちの少なくとも1つを用いることによって、達成することができる。これらの無人航空機が、拡張モデル130を生成するためにビジュアライザー128によって処理される画像134、画像136、画像138、及びスキャンデータ140を提供することができる。
無人航空機によって行われるこれらの作業は、人間のオペレータ124が航空機126を見る前に、行うことができる。換言すれば、人間のオペレータ124は、無人航空機が必要なデータを事前に提供する際に、拡張モデル130を作成するためのデータ生成のための作業を行う必要は無い。無人航空機は、人間のオペレータ124が航空機126を見ている間に、画像134、画像136、画像138及びスキャンデータ140を生成することもできる。
リアルタイム又は事前に取得された追加の画像及びスキャンデータを用いて、拡張モデル130の精度の向上、又は、領域144に加えて他の領域のディテールの向上又は粒度の向上のうちの少なくとも1つを実現することができる。
例えば、これらの無人航空機を使用することにより、航空機126のために生成されるデータ量を、拡張モデル130内の情報の粒度を高めるような方法で、増やすことができる。この例示的な実施例では、無人航空機112、114、又は、116のうちの1つが、様々な視点から画像を撮影して、拡張モデル130を作成するために用いられる画像に追加したり、画像を改善したりすることができる。例えば、無人航空機112は、画像及びスキャンデータ140から、アンカーを生成することができる。アンカーは、本明細書では、参照モデル132を航空機126に位置合わせするために用いられる、航空機126及び参照モデル132にある共通の特徴を表す。無人航空機112は、航空機126から離れて十分な距離を取り、アンカーを配置すべき共通の特徴を、1つの基準系において捕捉することができる。従って、航空機126にモデルを位置合わせするために必要なアンカーの数を、低減することができる。換言すれば、拡張モデル130を、より正確に航空機126と位置合わせすることができる。無人航空機は、画像及びスキャンデータ140から、アンカーを生成することができる。
また、拡張モデル130を用いて航空機126上の特徴を位置特定する際の精度も、無人航空機の使用によって、向上する。無人航空機は、様々な視点又は位置から、画像及びスキャンデータを生成する。航空機126の窓などの航空機126の特徴は、画像134、画像136、画像138、又はスキャンデータ140のうちの少なくとも1つにおいて捉えることができる。これらの様々な視点によって、窓に関する参照モデル132からの情報を表示する際に、窓の位置特定の精度を向上させることができる。
例えば、無人航空機の様々な位置からのこれらの画像及びスキャンデータを用いて、三角測量を行うことができる。例えば、ビジュアライザー128によって、コンピュータビジョン三角測量を使用することができる。コンピュータビジョン三角測量は、三次元空間のポイントを、当該ポイントの2つ以上の画像への投影により決定するプロセスである。例示的な実施例では、より多くの画像が存在し、様々な視点が存在するほど、航空機126上の特定箇所の精度を向上させることができる。別の例として、実体写真測量を用いて、航空機126などの対象物上のポイントの三次元ポートレートを求めることができる。この技術は、無人航空機によって様々な位置から撮影された画像134、画像136、及び、画像138を用いて行うことができる。
スマートグラス122を用いている人間のオペレータ124が航空機126に近付くと、スマートグラス122を介してアンカーが人間のオペレータ124に見えるようになっている。人間のオペレータ124の位置は、スマートグラス122を通して見る拡張モデル130及びアンカーによって、特定することができる。人間のオペレータ124が航空機126に近付くにつれて、拡張モデル130又は参照モデル132内にアンカーを含まない航空機126の他の箇所が、スマートグラス120を通して人間のオペレータ124に見える。参照モデル132からの情報を表示する際の精度は、人間のオペレータ124がスマートグラス122を用いて最初に目にするアンカーを皮切りに特定される参照箇所によって、維持することができる。これらの参照箇所は、例えば、航空機126にある特徴又は要素である。
この種のモデル生成では、物理的対象物のモデルを作成するのに必要な時間及び労力が低減される。この種のモデル作成は、航空機126、建物、フィールド、街区、ダムなどの大型の対象物、あるいは、物理的対象物の拡張現実ビューの情報を表示するためのモデルの作成に多くの時間とプロセッサリソースを費やす可能性のあるその他の種類の物理的対象物に、特に有用である。
また、物理的対象物の画像と、物理的対象物の1つ以上の領域のスキャンデータとを処理することによって、データ処理に必要なコンピューティングリソースの量を、低減することできる。例えば、ポイントクラウドは、物理的対象物の全体ではなく、物理的対象物の領域のみに使用されるため、スキャンデータからポイントクラウドを生成して、ポイントクラウドから物理的対象物のモデルを作成するためのプロセッサリソースの使用量は、低減される。別の例として、拡張モデルのサイズは、全体がスキャンデータを用いて生成されるモデルよりも小さいので、使用されるリソースを減らすことができる。
図2を参照すると、例示的な実施形態による、拡張現実環境のブロック図が示されている。この例示的な実施例では、視覚化環境200は、図1のネットワークデータ処理システム100に示したハードウェアなどのハードウェアで実現可能なコンポーネントを含む。
視覚化環境200は、ポータブル演算装置208を用いる人間のオペレータ206によって、物理的対象物204の情報202を視覚化することができる環境である。この例示的な実施例では、物理的対象物204は、飛行機、建物、橋、ダム、ビークル、フィールド、湖、山、エンジン、胴体部、滑走路、及びその他の種類の対象物を含むグループから選択される。この例示的な実施例において、情報202は、タスク情報、アセンブリ、ビデオ、不適合箇所の示唆、作業指示、アセンブリの分解図、概略図、又は、物理的対象物204のその他の情報のうちの少なくとも1つから選択される。
ポータブル演算装置208は、所定数の異なる形態を取ることができる。例えば、ポータブル演算装置208は、スマートグラス、携帯電話、タブレットコンピュータ、拡張現実コンタクトレンズ、バーチャル網膜ディスプレイ、ヘッドマウントディスプレイ、及び、物理的対象物204の拡張現実ビューを提供するのに適した他の種類の装置を含むグループから選択することができる。
タスク214を行う際に人間のオペレータ206を補助すべく、グラフィカルユーザーインターフェイス210における物理的対象物204のライブビュー212に表示された情報202を、人間のオペレータ206が見ることができる。この例示的な実施例において、タスク214は、設計タスク、製造タスク、検査タスク、保守タスク、試験タスク、物理的対象物204を用いるタスク、及び、物理的対象物204に対するタスクの実行を補助するために、物理的対象物204のライブビュー212が情報202で拡張される他の適当なタスクを含むグループから選択される。
この例示的な実施例において、拡張現実システム216は、所定数の様々なコンポーネントを含む。図示のように、拡張現実システム216は、コンピュータシステム218、一群の無人ビークル220、及び、ポータブル演算装置208を含む。
本明細書において、「一群の」という言葉がアイテムに言及して用いられる場合は、1つ以上のアイテムを意味する。例えば、「一群の無人ビークル220」とは、1つ以上の無人ビークル220である。
コンピュータシステム218は、物理的なハードウェアシステムであり、1つ以上のデータ処理システムを含む。コンピュータシステム218に2つ以上のデータ処理システムがある場合、これらのデータ処理システムは、通信媒体を用いて、互いに通信する。通信媒体は、例えば、ネットワークである。データ処理システムは、コンピュータ、サーバコンピュータ、タブレットコンピュータ、又は他の適当なデータ処理システムのうちの少なくとも1つから選択することができる。
この例示的な実施例において、一群の無人ビークル220は、所定数の様々な形態を取ることができる。例えば、一群の無人ビークル220は、無人航空機、ドローン、無人地上ビークル、又は、無人ウォータービークルのうちの少なくとも1つから選択することができる。一群の無人ビークル220は、物理的対象物204に対して移動するように動作することができる。
一群の無人ビークル220は、物理的対象物204の画像222を生成するとともに、物理的対象物204の領域226の空間内での点を記述するスキャンデータ224を生成する。この例示的な実施例において、一群の無人ビークル220は、一群の無人ビークル220のうちの所定数の無人ビークル220に物理的対象物204をスキャンさせることによって、スキャンデータ224を生成することができる。換言すれば、一群の無人ビークル220のうちのすべて又は一部が、スキャンデータ224を生成することができる。
例示的な実施例では、一群の無人ビークル220は、人間のオペレータ206がポータブル演算装置208を通して物理的対象物204のライブビュー212を見ている間、画像222及びスキャンデータ224を生成するように動作する。例えば、人間のオペレータ206が物理的対象物204のライブビュー212を見る前に、無人ビークル220が、画像222及びスキャンデータ224を生成することもできる。この例では、人間のオペレータ206が物理的対象物204を見ている間、無人ビークル220は、画像222及びスキャンデータ224の生成を継続することができる。他の例として、人間のオペレータ206がポータブル演算装置208を通して物理的対象物204のライブビュー212を見る際に、画像222及びスキャンデータ224の生成を行うこともできる。
図示のように、コンピュータシステム218は、通信リンク228を用いて、一群の無人ビークル220と通信している。通信リンク228は、有線通信リンク又は無線通信リンクのうちの少なくとも1つから選択することができる。有線通信リンクは、例えば、電線、電線ケーブル、同軸ケーブル、光ファイバ、又は、光ケーブルのうちの少なくとも1つを含む。無線通信リンクは、無線周波数信号、光信号、電磁放射、マイクロ波、又は他の適当な媒体のうちの少なくとも1つから選択することができる。
この例示的な実施例では、ビジュアライザー230は、コンピュータシステム218に設けられている。動作中は、コンピュータシステム218内のビジュアライザー230が、物理的対象物204に対して移動している一群の無人ビークル220から、物理的対象物204の画像222を受信する。
ビジュアライザー230は、物理的対象物204に対して移動している一群の無人ビークル220のうちの所定数の無人ビークル220から、物理的対象物204の領域226のスキャンデータ224を受信する。ビジュアライザー230は、画像222及びスキャンデータ224を用いて、物理的対象物204の拡張モデル232を作成する。
拡張モデル232内の物理的対象物204の領域226は、拡張モデル232内の物理的対象物204の他の領域234よりも、より精細なディテールを有している。例えば、スキャンデータ224は、画像222と比べて、より高解像度の領域226を提供することができる。別の例として、スキャンデータ224は、物理的対象物204の拡張モデル232の領域226の規則性(regularity)を向上させることもできる。レーザスキャナなどの三次元スキャナは、物理的対象物204に能動的に放射を方向付ける。放射エネルギーによる反応は、カメラなどの受動的なセンサシステムの場合と比べて、明るさの向上、影の減少、及び、規則性の向上に伴うその他の効果を与えることができる。三次元スキャナは、他の種類の放射を用いて、電気、光学、赤外線、光スペクトルの他の部分、電磁スペクトル、音響スペクトル、又は、その他の種類のスキャン放射などのスキャンを行うこともできる。さらに別の例として、三次元スキャナは、干渉スキャン(interference scan)を用いる圧力センサ装置を含むことができる。
三次元スキャナを用いて行うことができる様々な種類のスキャンによって、不透明度、反射性、硬度、色、色相などの特徴、又はその他の特徴を、カメラによる画像を用いる場合と比べて、より容易且つ正確に判定することができる。これらの特徴を用いて、物理的対象物204を評価することができる。例えば、物理的対象物204の健全性、残りの寿命、使用適性、又はその他の特徴を、判定することができる。例示的な実施例では、使用するセンサの種類によって、様々な種類の不適合箇所を特定することができる。例えば、カメラによって検出される光を用いて、物理的対象物204の構造内の不適合箇所を特定することができる。これらの不適合箇所は、カメラによって検出された画像から生成された拡張モデル232内の構造を、コンピュータ支援設計モデルや、以前に生成された物理的対象物204の拡張モデルなどの参照モデル202と比較することによって、特定することができる。超音波センサを用いて、物理的対象物204における複合構造体内の空隙を特定することもできる。さらに別の例として、磁気センサを用いて、物理的対象物204の金属構造体内の欠陥を特定することができる。
これらの特徴を、ビジュアライザー230で利用することによって、不適合箇所などの性質を分類することができる。これらの不適合箇所は、例えば、傷、へこみ、亀裂、塗料の欠落、ファスナの欠落、又は他の種類の不適合箇所のうちの少なくとも1つを含む。
ポータブル演算装置208は、拡張モデル232を用いて物理的対象物204に対する位置推定をすると共に、ポータブル演算装置208を通して見る物理的対象物204のライブビュー212に情報202を表示する。
この例示的な実施例では、情報202は、物理的対象物204の拡張モデル232を用いて特定される。例えば、情報202は、参照モデル236において見出しうる。参照モデル236は、物理的対象物204のモデルである。拡張モデル232と参照モデル236との対応位置を、画像レジストレーションによって、同じ座標系を有するように関連付けることができる。物理的対象物204に対するポータブル演算装置208の位置推定も、同じ座標系を用いることができる。
参照モデル236は、所定数の様々な形態を取ることができる。例えば、参照モデル236は、物理的対象物204のコンピュータ支援設計モデルの場合がある。別の例において、参照モデル236は、以前に画像222及びスキャンデータ224から作成された物理的対象物204のモデルの場合がある。例えば、参照モデル236は、前の製造状態における物理的対象物204のモデルの場合がある。別の例において、参照モデル236は、以前に生成された物理的対象物204のモデルの場合がある。この種の参照モデル236を、拡張モデル232との比較に用いることにより、変化が起こったかどうかを判定することができる。これらの変化は、例えば、不適合箇所、形状の変化、又はその他の種類の変化である。
この例示的な実施例では、コンピュータシステム218のビジュアライザー230が、一群の無人ビークル220を制御することにより、物理的対象物204に対して移動させるとともに、物理的対象物204の画像222、及び、物理的対象物204の領域226の空間内での点を記述するスキャンデータ224を生成させる。
他の例示的な実施例において、一群の無人ビークル220は、コンピュータシステム218のビジュアライザー230からの入力を用いずに、自律的に動作することができる。例えば、一群の無人ビークル220の各々は、画像222及びスキャンデータ224を生成する対象として物理的対象物204を特定するプログラムコードを含んでいてもよい。
例示的な一実施例において、ポータブル演算装置208を用いる人間のオペレータ206も、拡張モデル232を生成するためのデータを提供することができる。例えば、ポータブル演算装置208は、追加画像238又は追加スキャンデータ240のうちの少なくとも1つを生成することができる。ポータブル演算装置208は、通信リンク242を用いて、コンピュータシステム218と通信する。通信リンク242は、無線周波数信号、光信号、電磁放射、マイクロ波、又は他の適当な媒体のうちの少なくとも1つから選択することができる。
ポータブル演算装置208は、追加画像238又は追加スキャンデータ240のうちの少なくとも1つを、コンピュータシステム218内のビジュアライザー230に送信することができる。物理的対象物204の拡張モデル232を作成する際に、ビジュアライザー230は、画像222、追加画像238、スキャンデータ224、及び、追加スキャンデータ240を用いて、物理的対象物204の拡張モデル232を作成することができる。
ビジュアライザー230は、ソフトウェア、ハードウェア、ファームウェア、又はこれらの組み合わせで実現することができる。ソフトウェアを用いる場合、ビジュアライザー230によって実行される動作は、プロセッサユニットなどの、ハードウェア上で実行されるように構成されたプログラムコードで実現可能である。ファームウェアを用いる場合、ビジュアライザー230によって実行される動作は、プロセッサユニットで実行可能な、永続性メモリに保存されたプログラムコード及びデータで実現可能である。ハードウェアを用いる場合、ハードウェアは、例えば、ビジュアライザー230の動作を実行するように機能する回路を含む。
例示的な実施例において、ハードウェアは、回路システム、集積回路、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス、又は、所定数の動作を実行するよう構成された他の適当な種類の他のハードウェアのうちの少なくとも1つから選択された形態を取ることができる。プログラマブルロジックデバイスの場合、当該デバイスは、所定数の操作を行うように構成することができる。当該デバイスは、所定数の操作を行うように、後ほど再構成してもよいし、永久的に構成してもよい。プログラマブルロジックデバイスとしては、例えば、プログラマブルロジックアレイ、プログラマブルアレイロジック、フィールドプログラマブルロジックアレイ、フィールドプログラマブルゲートアレイ、及び、その他の適当なハードウェア装置がある。加えて、無機コンポーネントを組み込んだ有機コンポーネントを用いて処理を実現してもよいし、人を除く有機コンポーネントのみを用いて処理を構成してもよい。例えば、これらの処理は、有機半導体の回路により実現することができる。
例示的な一実施例では、物理的対象物のライブビューを拡張するための情報の表示に関する技術的問題を、物理的対象物のポイントクラウドを生成する現在用いられている技術と比べて、処理リソースの使用量を低減するような方法で克服する、1つ以上の技術的解決策が提供される。
この結果、1つ以上の技術的解決策は、二種類のデータを用いることで、物理的対象物のモデルを作成するために使用される処理リソースの量を低減するという技術的効果をもたらす。例示的な実施例では、画像及びスキャンデータが使用され、これにより、ポイントクラウドのみを用いる現在の技術と比べて、処理リソースの使用量が低減する。
民間航空機、ダム、及び、クルーズ船などの大型の物理的対象物に関しては、現在用いられている三次元スキャナの範囲では、距離が増すほど、これらの種類の物理的対象物の三次元モデルを取得することがより困難になる可能性がある。さらに、距離が増すにつれて、スキャンに存在するステレオ視に際しての2つの視点の離間(stereoscopic separation)が(相対的に)減少し、所望の離間が実現できない場合がある。従って、無人ビークルを用いて二種類のデータ、すなわち画像とスキャンデータを生成することは、複数の技術的効果をもたらす。例えば、1つ以上の領域について、より精細なディテールを見るためのズーム機能が存在する。さらに、無人ビークルを用いることにより、これらのビークルを、より大きい離間距離を取る位置に移動させることができる。
コンピュータシステム218は、ソフトウェア、ハードウェア、ファームウェア、又はこれらの組み合わせを用いて、様々な例示的な実施例に記載のステップ、操作、又はアクションのうちの少なくとも1つを実行するように構成することができる。従って、コンピュータシステム218は、特定用途のコンピュータシステムとして動作し、コンピュータシステム218内のビジュアライザー230により、現在のプロセスと比べて処理リソースの使用量が少ない、二種類のデータを用いた拡張モデル232の生成が可能になる。特に、ビジュアライザー230により、コンピュータシステム218は、ビジュアライザー230を有しない現在利用可能な一般的なコンピュータシステムとは異なる特定用途のコンピュータシステムに、改変される。
図3を参照すると、例示的な実施形態による、拡張モデルの作成を表すブロック図が示されている。例示的な実施例において、2つ以上の図で同じ参照数字を用いる場合がある。このように、異なる図面において同じ参照数字を重複して使用する場合、これらが同じ要素であることを表す。
この例示的な実施例において、ビジュアライザー230は、一群の無人ビークル220から受信した画像222、及び、所定数の無人ビークル220から受信したスキャンデータ224を用いて、拡張モデル232を作成する。
物理的対象物204の拡張モデル232を作成する際には、ビジュアライザー230は、画像222を用いて、物理的対象物204のモデル300を作成する。ビジュアライザー230は、対象物認識プロセスを用いて、画像222内の物理的対象物204を特定することができる。ビジュアライザー230は、物理的対象物204の三次元再構成を採用することができる。
この三次元再構成は、画像222において物理的対象物204を特定してモデル300を作成することによって行うことができ、当該モデルは、物理的対象物204の三次元モデルである。モデル300は、例えば、コンピュータ支援設計(CAD)モデル、コンピュータ支援エンジニアリング(CAE:computer-aided engineering)モデル、又は、その他の適当な種類のモデルである。
この図示例において、画像222は、様々な視点からの物理的対象物204の画像である。換言すれば、所定数の無人ビークル220は、様々な位置から、物理的対象物204の画像222を生成する。位置とは、三次元空間内の無人ビークルの配置であり、無人ビークルの向きを含む。
スキャンデータ224は、所定数の無人ビークル220によって、領域226について生成される。スキャンデータ224は、物理的対象物204の領域226の空間内での点を記述する。領域226は、例えば、画像222から欠落している領域や、画像222によって提供されるよりも精細なディテールが要求される領域である。
ビジュアライザー230は、一群の無人ビークル220のうちの所定数の無人ビークル220によって生成されるスキャンデータ224から、所定数のポイントクラウド302も作成する。所定数のポイントクラウド302は、領域226内の物理的対象物204の外面304を記述する。ビジュアライザー230は、所定数のポイントクラウド302を用いて物理的対象物204のモデル300を修正して、拡張モデル232を形成する。
例えば、所定数のポイントクラウド302は、ポリゴンメッシュモデル、三角形メッシュモデル、非一様有理Bスプライン(non-uniform rational basis spline:NURBS)サーフェスモデル、又は、一般的に外面再構成(surface reconstruction)と称される現在使用されているプロセスによるコンピュータ支援モデルに変換することができる。
また、拡張モデル232は、ポータブル演算装置208から受信したデータを利用して作成することもできる。例えば、ポータブル演算装置208から、領域226に関する追加のスキャンデータ240を受信し、これを用いて、所定数のポイントクラウド302におけるポイントクラウド1つを生成することができる。別の例として、ポータブル演算装置208から追加画像238を受信し、これを用いてモデル300を生成することもできる。
図4は、例示的な実施形態による、物理的対象物の領域の選択を表すブロック図を示したものである。この例示的な実施例では、コンピュータシステム218内のビジュアライザー230が、物理的対象物204の領域226を選択するとともに、一群の無人ビークル220のうちの所定数の無人ビークル220を制御して、物理的対象物204の領域226のスキャンデータ224を生成させる。
領域226は、所定数の様々な方法で選択することができる。例えば、ビジュアライザー230は、ポータブル演算装置208を用いている人間のオペレータ206の注視点(point of gaze)400に基づいて、物理的対象物204の領域226を選択することができる。注視点400は、人間のオペレータ206が見ている場所である。この例示的な実施例において、ポータブル演算装置208は、人間のオペレータ206の注視点400を判定することができる。物理的対象物204上の注視点400の位置を用いて、物理的対象物204の領域226を決定することができる。
別の例示的な実施例において、ビジュアライザー230は、ポータブル演算装置208を用いている人間のオペレータ206によって実行されるタスク214の位置402に基づいて、物理的対象物204の領域226を選択することができる。この例では、位置402は、領域226に包含される。
領域226が特定されると、ビジュアライザー230は、所定数の無人ビークル220を制御して、スキャンデータ224を生成させることができる。スキャンデータ224によって、拡張モデル232における物理的対象物204の領域は、拡張モデル232における物理的対象物204の他の領域234よりも、より精細なディテールを有することになる。
また、人口知能システム404は、領域226の特定を補助することができる。例えば、人口知能システム404は、人間のオペレータ206が見る場所を予測することができる。換言すれば、人口知能システム404は、人間のオペレータ206の注視点400を予測して、所定数の無人ビークル220を物理的対象物204上の予測された領域に誘導することにより、スキャンデータ224を生成させるとともに拡張モデル232を生成又は更新させることができる。この拡張モデル232の生成又は更新は、人間のオペレータ206が注視点400を予測領域に変える前に、行うことができる。
さらに、ポータブル演算装置208は、追加スキャンデータ240を生成してビジュアライザー230に送信することができる。この例示的な実施例において、追加スキャンデータ240は、例えば、注視点400についてのものである。
図2~図4における視覚化環境200及び視覚化環境200内の様々なコンポーネントの図示は、例示的な実施形態が実現される態様について物理的または構造的な限定を示唆するものではない。図示されたコンポーネントに加えて、またはこれらのコンポーネントに代えて、他のコンポーネントを用いることもできる。いくつかのコンポーネントが不要とされる場合もある。また、図示したブロックは、いくつかの機能的なコンポーネントを表している。例示的な実施例においてこれらのブロック実施する際は、1つ又は複数を組み合わせたり、分割したり、組み合わせてから異なるブロックに分割したりすることができる。
例えば、1つ以上のポータブル演算装置、及び、1つ以上のポータブル演算装置を用いる一人以上の人間のオペレータが、ポータブル演算装置208に加えて又は代えて、視覚化環境内に存在してもよい。別の例として、例示的な実施例では、拡張モデル232を拡張現実システム216に用いるものとして示しているが、拡張モデル232は、仮想現実システムなどの他の複合現実システムに使用することもできる。仮想現実システムでは、拡張モデル232は、物理的対象物204に対してアクションを行うためのトレーニングに用いることができる。例えば、人間のオペレータ206が、物理的対象物204の拡張モデル232を見て、物理的対象物204に対するタスク214を行うためのトレーニングをすることができる。別の例として、領域226に加えて又は代えて、1つ以上の領域をスキャンすることにより、これらの1つ以上の領域のスキャンデータを作成することができる。
例えば、拡張モデル232を作成することに代えて、スキャンデータ224を用いて、参照モデル236を更新することができる。このようにして、経時的に発生した物理的対象物204の変化を反映するように、参照モデル236を更新することができる。
本実施例では、物理的対象物204の領域226をスキャンして、参照モデル236内の対応する領域を更新することができる。参照モデル236の更新により、経時的に発生する物理的対象物204の変化に対応することができる。また、スキャンデータ224を用いて、参照モデル236内の領域226のディテールを増やして、参照モデル236内の物理的対象物204の経時的変化を、ディテールのレベルを変えずに、より正確に反映することもできる。
例示的な一実施例において、物理的対象物204内の構造物が、経時的に、再形成、変形、又はその他の変化を受ける場合がある。変化してしまった構造物について更新する場合には、変化してしまった構造物の今現在の構成を用いて、構造物の更新内容を特定し、又は作り上げる。この変化が反映されていない参照モデル236は、構造物の更新に用いることができない。この場合、当該構造物が位置している物理的対象物204内の領域226をスキャンすることにより、物理的対象物204の参照モデル236における物理的対象物204の領域226のスキャンデータ224を生成することができる。
別の例として、画像222及びスキャンデータ224の拡張モデル232を用いて、参照モデル236を作成することができる。この種のプロセスは、例えば、参照モデル236が以前に存在しない場合に、有用である。
別の例示的な実施例において、物理的対象物の種類は既知であるものの、使用すべき参照モデルのより詳細な特定ができない場合がある。例えば、航空機の場合、ある種類の航空機に対していくつかの参照モデルが存在するが、その航空機の個別のモデル又は識別番号がわからない場合がある。拡張モデル232を用いることにより、使用すべき個別の参照モデルを特定することができる。場合によっては、物理的対象物を特定する際の信頼度の程度は、100パーセント未満である。この場合、参照モデルのサブセットを特定して使用することができる。
次に図5を参照すると、同図には、例示的な実施形態による視覚化環境の図による表現が示されている。この例示的な実施例において、視覚化環境は、図2における視覚化環境200の実施態様の一例である。
この例示的な実施例において、視覚化環境は、胴体セクション502を含む。製造におけるこの時点の段階で、人間のオペレータ504が、胴体セクション502の検査を行っている。図示のように、人間のオペレータ504は、スマートグラス506を着用しており、スマートグラスは、ポータブル演算装置の一種である。さらに、無人航空機508及び無人航空機510が含まれており、これらは、図示の例では、クアッドコプターである。
無人航空機508及び無人航空機510は、胴体セクション502の画像を生成する。さらに、無人航空機508及び無人航空機510は、胴体セクション502の1つ以上の領域をスキャンしてスキャンデータを得ることができる。例えば、無人航空機508は、胴体セクション502における、亀裂という形の不適合箇所522を含む領域520をスキャンすることができる。
無人航空機508及び無人航空機510によって生成された画像及びスキャンデータは、無線通信リンク514及び無線通信リンク516を介して、サーバコンピュータ500に送信される。
サーバコンピュータ512は、無人航空機508及び無人航空機510から受信した画像及びスキャンデータを用いて、拡張モデルを生成する。領域520のスキャンデータにより、不適合箇所512を含む領域520を、より高い解像度で視覚化することができる。
拡張モデルの少なくとも一部は、無線通信リンク518を介して、スマートグラス506に送信される。スマートグラス506に送信される拡張モデルの一部は、スマートグラス506によって与えられ、表示されて人間のオペレータ504用の領域520のライブビューを拡張する情報である。
図6を参照すると、同図には例示的な実施形態によるグラフィカルユーザーインターフェイスの図による表現が示されている。この例示的な実施例において、グラフィカルユーザーインターフェイス600は、図5に示した人間のオペレータ504のスマートグラス506に表示される。
この例示的な実施例において、グラフィカルユーザーインターフェイス600は、拡張モデルからの情報604がライブビュー602を拡張している状態の、胴体セクション502のライブビュー602を含む。情報604は、拡張現実情報と称することもできる。この例示的な実施例において、情報604は、胴体セクション502のライブビュー602内で不適合箇所512を特定するグラフィカルインジケータ610を含む。グラフィカルインジケータ610は、胴体セクション502のライブビュー602内のこの不適合箇所に、人間のオペレータ504の注意を引き付ける。さらに、グラフィカルインジケータ612は、不適合箇所512を強調する。グラフィカルインジケータ612は、画像に加えてスキャンデータを利用した、不適合箇所512のより正確に表示されたライブビュー602である。また、情報604は、ライブビュー602に表示された作業指示614も含み、これは、不適合箇所522に関して行うべき操作を特定するものである。
次に、図7を参照すると、同図には、例示的な実施形態による、物理的対象物のライブビュー上に情報を視覚化するプロセスのフローチャートが示されている。図7のプロセスは、ハードウェア、ソフトウェア、又はこれらの両方により、実現することができる。ソフトウェアによって実現する場合、当該プロセスは、1つ以上のコンピュータシステムの1つ以上のハードウェア装置にある1つ以上のプロセッサユニットによって実行されるプログラムコードの形態を取ることができる。例えば、当該プロセスは、図2に示したコンピュータシステム218内のビジュアライザー230で、実現することができる。
当該プロセスは、物理的対象物に対して移動している一群の無人ビークルから、物理的対象物の画像を受信すること(動作700)によって開始する。動作700において、画像は、無人ビークルとの通信リンクを介して、受信される。
当該プロセスでは、物理的対象物の領域のスキャンデータを受信する(動作702)。スキャンデータは、一群の無人ビークルのうちの所定数の無人ビークルから、所定数の通信リンクを介して受信される。
当該プロセスでは、画像及びスキャンデータを用いて、物理的対象物の拡張モデルを作成する(動作704)。拡張モデルにおける当該領域は、拡張モデルにおける物理的対象物の他の領域よりも、より精細なディテールを有する。より精細なディテールとは、例えば、より高い解像度であり、物理的対象物の当該領域のライブビューに情報を配置する際に、より高い精度で役立つ。
当該プロセスでは、拡張モデルの少なくとも一部を、ポータブル演算装置に送信する(動作706)。ポータブル演算装置は、拡張モデルの当該少なくとも一部を用いて、物理的対象物に対して位置推定する。
当該プロセスでは、ポータブル演算装置によって表示可能な情報を送信し、ポータブル演算装置は、ポータブル演算装置を通して見る物理的対象物のライブビューに、当該情報を表示する(動作708)。その後、当該プロセスは終了する。
動作708において、物理的対象物の拡張モデルを用いて、情報が特定される。例えば、物理的対象物のライブビューに見える物理的対象物において位置を特定することにより、この位置を拡張モデルにおいて特定することができ、これを用いて、当該情報を含む物理的対象物の参照モデルにおける、対応位置を特定することができる。例えば、特徴抽出及びセマンティックシーンセグメンテーション(semantic scene segmentation)を、電気光学(EO)画像又は赤外線(IR)画像上で、行うことができる。画像分類及び対象物認識を用いることにより、取得画像によって、スキャン情報を参照モデルに位置合わせすることができる。
状況によっては、ハードな(不動の)中間点(waypoint)又はソフトな(概ね固定された)中間点を特徴づける、他の位置特徴又は位置シグネチャが存在する。これらの位置シグネチャは、全地球測位システム及び取得された方位(acquisition orientation)によって決定される物理的位置などである。あるいは、二次元バーコード又は三次元バーコードのうちの少なくとも1つを用いて、自動特定を行うことができる。自動特定は、無線周波数識別子、既知のロゴ、あるいは、航空機に搭載された、所定の構成の既知の識別プレートを用いて行うこともできる。参照モデル内の所望の対応位置についての情報は、参照モデルから取得することができる。
図8を参照すると、同図には、例示的な実施形態による、拡張モデルを作成するための情報を生成するために無人ビークルを制御するプロセスのフローチャートが示されている。図8のプロセスは、ハードウェア、ソフトウェア、又はこれらの両方により、実現することができる。ソフトウェアによって実現する場合、当該プロセスは、1つ以上のコンピュータシステムの1つ以上のハードウェア装置にある1つ以上のプロセッサユニットによって実行されるプログラムコードの形態を取ることができる。例えば、当該プロセスは、図2に示したコンピュータシステム218内のビジュアライザー230で実現することができる。
情報は、画像又はスキャンデータのうちの少なくとも1つを含む。画像は、物理的対象物のモデルを作成するために用いることができる。スキャンデータは、当該モデルが1つ以上の領域内でより精細なディテールを有するように拡張して、拡張モデルを形成するために用いることができる。
当該プロセスは、一群の無人ビークルを制御して、物理的対象物に対して移動させること(動作800)によって開始する。当該プロセスでは、一群の無人ビークルを制御して、物理的対象物の画像、及び、物理的対象物の領域の空間内での点を記述するスキャンデータを生成させる(動作802)。画像の生成は、無人ビークルが物理的対象物に対して移動している間に行うことができる。また、画像の生成は、無人ビークルのうちの1つ以上が、対象物に対して固定位置にある状態で行うこともできる。換言すれば、画像の生成は、無人ビークルが移動している間、無人ビークルが特定の固定位置にある間、又はこれらの組み合わせにおいて、行うことができる。その後、当該プロセスは終了する。
図9を参照すると、同図には、例示的な実施形態による、物理的対象物の拡張モデルを作成するプロセスのフローチャートが示されている。図9のプロセスは、図7における動作704の実施態様の一例である。
当該プロセスは、画像を用いて物理的対象物のモデルを作成すること(動作900)によって開始する。当該プロセスでは、一群の無人ビークルのうちの所定数の無人ビークルによって生成されたスキャンデータから、所定数のポイントクラウドを作成する(動作902)。
当該プロセスは、所定数のポイントクラウドを用いて物理的対象物のモデルを修正することにより、拡張モデルを形成する(動作904)。その後、当該プロセスは終了する。動作904において、当該プロセスでは、モデルにおける当該領域の部分を、所定数のポイントクラウドを用いて生成した当該領域のモデルと交換することができる。
次に図10を参照すると、同図には、例示的な実施形態による、物理的対象物のライブビューに情報を視覚化するプロセスのフローチャートが示されている。図10のプロセスは、ハードウェア、ソフトウェア、又はこれらの両方により、実現することができる。ソフトウェアによって実現する場合、当該プロセスは、1つ以上のコンピュータシステムの1つ以上のハードウェア装置にある1つ以上のプロセッサユニットによって実行されるプログラムコードの形態を取ることができる。例えば、当該プロセスは、図2に示した拡張現実システム216内のポータブル演算装置208で実現することができる。
当該プロセスは、物理的対象物の拡張モデルを用いて、物理的対象物に対するポータブル演算装置の位置推定をすること(動作1000)によって開始する。動作1000における位置推定は、ポータブル演算装置で実行される位置推定とマッピングの同時実行(SLAM)プロセスによって行うことができる。
当該プロセスでは、物理的対象物の拡張モデル及び物理的対象物の参照モデルを用いて位置推定されたポータブル演算装置の表示装置を通して見る物理的対象物のライブビューに、情報を表示する(動作1002)。動作1002において、ライブビュー上の物理的対象物の位置を、拡張モデル上の対応する位置と関連付けることができる。ひいては、拡張モデルにおける位置を、物理的対象物の参照モデルと関連付けることができる。情報は、参照モデル内の位置に基づいて、特定することができる。この情報は、物理的対象物のライブビューに表示することができる。これらの関連付けは、現在利用可能な画像レジストレーションプロセスを用いて行うことができる。
動作1002は、Vuforia and PTC Incorporatedによって開発されたVuforia(登録商標)拡張現実ソフトウェアなどの、現在利用可能な拡張現実アプリケーションを用いて実施することができる。その後、当該プロセスは終了する。
フローチャートやブロック図に示した異なる実施形態は、例示的な実施形態による装置や方法について、可能ないくつかの実施態様の構造、機能、処理を示している。この点に関し、フローチャートやブロック図の各ブロックは、モジュール、セグメント、機能、又は処理や工程の一部のうちの少なくとも1つを表す場合がある。例えば、1つ以上のブロックは、プログラムコード、ハードウェア、又はプログラムコードとハードウェアの組み合わせにより実現可能である。ハードウェアで実現する場合には、そのハードウェアは、例えば、フローチャートやブロック図に示した1つ以上の工程を実行するように製造あるいは構成された集積回路の形態を取ることができる。プログラムコードとハードウェアの組み合わせで実現する場合には、ファームウェアの形態で実現してもよい。フローチャート又はブロック図に示した各ブロックは、様々な処理を実行する特定用途のハードウェアシステム、あるいは、特定用途のハードウェアと、当該特定用途のハードウェアにより実行されるプログラムコードとの組み合わせを用いて、実現可能である。
例示的な実施形態の代替的な実施態様では、ブロックに示した機能を、図に示した順序とは異なる順序で行ってもよい。例えば、場合によっては、関連する機能に応じて、連続するブロックとして示されている2つのブロックを実質的に同時に実行してもよいし、あるいは、これらブロックを逆の順序で実行してもよい。また、フローチャートまたはブロック図に示したブロックに対して、さらに他のブロックを追加してもよい。
さらに、実施例は、一例として、図2のビジュアライザー230によって動作が行われるものとして説明されている。他の例示的な実施例において、図4の人口知能システム404又は図1のビジュアライザー128のうちの少なくとも1つを含む他のコンポーネントによって、これらのプロセスを行うことができる。
次に、図11を参照すると、同図には、例示的な実施形態による、データ処理システムのブロック図が示されている。データ処理システム1100を用いて、図1のサーバコンピュータ104、サーバコンピュータ106、及び、クライアント装置110を実現することができる。データ処理システム1100を用いて、図2のコンピュータシステム218及びポータブル演算装置208を実現することもできる。この例示的な実施例において、データ処理システム1100は、通信フレームワーク1102を含み、当該通信フレームワークが、プロセッサユニット1104、メモリ1106、永続ストレージ1108、通信ユニット1110、入出力(I/O)ユニット1112、及び、ディスプレイ1114間の通信を実現する。この例において、通信フレームワーク1102は、バスシステムの形態を取ることができる。
プロセッサユニット1104は、メモリ1106にロード可能なソフトウェアの命令を実行する。プロセッサユニット1104は、1つ以上のプロセッサを含む。例えば、プロセッサユニット1104は、マルチコアプロセッサ、中央処理装置(CPU)、グラフィックスプロセッシングユニット(GPU)、物理演算ユニット(PPU:physics processing unit)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ、又は他の適当な種類のプロセッサのうちの少なくとも1つから選択することができる。
メモリ1106および永続ストレージ1108は、記憶装置1116の例である。記憶装置は、情報を一時的、永続的、又は一時的および永続的の両方で記憶することができる任意のハードウェア要素であり、ここでいう情報は、例えば、限定するものではないが、データ、関数形態のプログラムコード、又はその他の適当な情報のうちの少なくとも1つである。これらの例における記憶装置1116は、コンピュータ可読媒体と称される場合もある。これらの例におけるメモリ1106は、例えば、ランダムアクセスメモリやその他の適当な揮発性または不揮発性の記憶装置である。永続ストレージ1108は、特定の実施態様に応じて、様々な形態をとることができる。
例えば、永続ストレージ1108は、1つ以上のコンポーネント又は装置を含む。例えば、永続ストレージ1108は、ハードドライブ、ソリッドステートドライブ(SSD)、フラッシュメモリ、書換え可能な光ディスク、書換え可能な磁気テープ、又はこれらの組み合わせであってもよい。永続ストレージ1108に用いられる媒体は、取り外し可能なものであってもよい。例えば、取り外し可能なハードディスクドライブを、永続ストレージ1108に用いることができる。
これらの例示的な実施例において、通信ユニット1110は、他のデータ処理システムや装置との通信を行う。これらの例示的な実施例では、通信ユニット1110はネットワークインターフェイスカードである。
入出力ユニット1112は、データ処理システム1100に接続される他の装置と協働して、データの入出力を可能にする。例えば、入出力ユニット1112は、キーボード、マウス、又はその他の適当な入力装置のうちの少なくとも1つを介したユーザ入力用の接続を可能にする。さらに、入出力ユニット1112は、プリンタに出力を送信することができる。ディスプレイ1114は、ユーザに情報を表示する機構を提供する。
オペレーティングシステム、アプリケーション、又はプログラムのうちの少なくとも1つに対する命令は、通信フレームワーク1102を介してプロセッサユニット1104と通信する記憶装置1116に、格納しておくことができる。各実施形態の処理は、コンピュータにより実行可能な命令を用いて、プロセッサユニット1104により実行することが可能であり、これらの命令は、メモリ1106などのメモリに格納可能である。
これらの命令は、プログラムコード、コンピュータ利用可能なプログラムコード、又はコンピュータ可読のプログラムコードと呼ばれ、プロセッサユニット1104に含まれるプロセッサにより読み取りおよび実行可能である。各種実施形態におけるプログラムコードは、メモリ1106や永続ストレージ1108などの各種の物理的媒体又はコンピュータ可読媒体において実現することができる。
プログラムコード1118は、選択的に取り外し可能なコンピュータ可読媒体1120に関数形態で格納されており、データ処理システム1100にロード又は転送して、プロセッサユニット1104により実行することができる。これらの例示的な実施例では、プログラムコード1118及びコンピュータ可読媒体1120は、コンピュータプログラム製品1122を構成する。例示的な実施例において、コンピュータ可読媒体1120は、コンピュータ可読記憶媒体1124である。
これらの例示的な実施例において、コンピュータ可読記憶媒体1124は、プログラムコード1118を記憶するのに用いられる物理的又は有形の記憶装置であって、プログラムコード1118を伝播または伝送する媒体ではない。
これに代えて、プログラムコード1118は、コンピュータ可読の信号媒体を用いて、データ処理システム1100に転送することができる。コンピュータ可読信号媒体は、例えば、プログラムコード1118を含む搬送データ信号である。例えば、コンピュータ可読信号媒体は、電磁信号、光信号、又は任意の他の適当な種類の信号のうちの少なくとも1つであってもよい。これらの信号は、例えば、有線通信リンク又は無線通信リンクなどの接続を介して、伝送することができる。有線通信リンクは、例えば、光ファイバケーブル、同軸ケーブル、電線、又は任意の他の適当な種類の接続手段を用いた接続を含む。
データ処理システム1100について図示した様々なコンポーネントは、異なる実施形態を実施しうる態様について何ら構造的な限定を課すものではない。いくつかの例示的な実施例において、コンポーネントのうちの1つ以上が、別のコンポーネントの一部に組み込まれたり、これを構成したりしてもよい。例えば、いくつかの例示的な実施例において、メモリ1106又はその一部は、プロセッサユニット1104に組み込むことができる。異なる例示的な実施形態は、データ処理システム1100について示したコンポーネントに加えて、あるいは、これに代えて、他のコンポーネントを含むデータ処理システムによっても実施可能である。図11に示したその他のコンポーネントは、図示した例示的な実施例から変更することもできる。各種の実施形態は、プログラムコード1118を実行可能な任意のハードウェア装置又はシステムにより実施可能である。
図12を参照すると、同図には、例示的な実施形態による、ポータブル演算装置のブロック図が示されている。ポータブル演算装置1200は、図2のポータブル演算装置208が実現される態様の一例である。この例示的な実施例において、ポータブル演算装置1200は、プロセッサユニット1202、通信フレームワーク1204、メモリ1206、データストレージ1208、通信ユニット1210、ディスプレイ1212、及び、センサシステム1214などの物理的ハードウェアコンポーネントを含む。
通信フレームワーク1204は、ポータブル演算装置1200内の様々なコンポーネントが、通信フレームワーク1204に接続された際に互いに通信できるようにする。この例示的な実施例において、通信フレームワーク1204は、バスシステムである。
プロセッサユニット1202は、メモリ1206にロードされたソフトウェアのプログラムコードを処理する。この例示的な実施例において、プログラムコードは、例えば、拡張現実アプリケーション1205及び位置推定とマッピングの同時実行(SLAM)プロセス1207などのアプリケーションを含む。
拡張現実アプリケーション1205は、ポータブル演算装置1200のディスプレイ1212を通して見る物理的対象物のライブビューに情報を表示することにより、拡張現実ビューを提供するように動作することができる。
位置推定とマッピングの同時実行(SLAM:simultaneous localization and mapping)プロセス1207は、物理的対象物のマップ又はモデルを作成するように動作することができる。さらに、本プロセスは、物理的対象物に対するポータブル演算装置1200の位置を推定又は特定するように動作することができる。このプロセスを用いて、物理的対象物のライブビュー対して、どこに情報を表示すべきかを判定することができる。
プロセッサユニット1202は、1つ以上のプロセッサを含む。例えば、プロセッサユニット1202は、マルチコアプロセッサ、中央処理装置(CPU)、グラフィックスプロセッシングユニット(GPU)、物理演算ユニット(PPU)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ、又は他の適当な種類のプロセッサのうちの少なくとも1つから選択することができる。
メモリ1206は、通信フレームワーク120を介して、プロセッサユニット1202に接続される。メモリ1206は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、又は他の適当な種類のメモリ装置又は回路のうちの少なくとも1つを含むことができる。
図示のように、データストレージ1208は、通信フレームワーク1204に接続されており、データ、プログラムコード、又はその他の情報を保存することができる。プログラムコードの命令は、データストレージ1208からメモリ1206にロードされ、プロセッサユニット1202によって処理することができる。データストレージ1208は、ハードディスクドライブ、フラッシュドライブ、ソリッドステートディスクドライブ、光学ドライブ、又は他の適当な種類のデータストレージ装置又はシステムのうちの少なくとも1つを含むことができる。
この例示的な実施例において、通信ユニット1210は、他のデータ処理システムや装置との通信を行う。これらの例示的な実施例において、通信ユニット1210は、ネットワークインターフェイスカード、無線通信装置、ユニバーサルシリアルバスポート、又はその他の適当な装置のうちの少なくとも1つを含む。
ディスプレイ1212は、通信フレームワーク1204に接続されており、ユーザに情報を表示する機構を提供する。この例において、ディスプレイ1212は、タッチスクリーンディスプレイであり、このディスプレイを通じてユーザ入力を受信することができる。
この例示的な実施例において、センサシステム1214は、通信フレームワーク1204に接続されている。センサシステム1214は、センサシステム1214内のカメラシステム1216及び三次元スキャナ1218の動作を制御するハードウェア、ソフトウェア、又はこれらの両方を含むことができる。カメラシステム1216は、画像の記録又は撮影を行うことができる1つ以上のカメラを含む物理的なハードウェアである。カメラシステム1216は、1つ以上のデジタルカメラであり、ステレオカメラ、ミラーレスカメラ、又はその他の種類の撮像装置を含むことができる。また、カメラは、例えば、電気光学カメラ又は赤外線カメラのうちの少なくとも1つであってもよい。画像は、単品の画像であっても、ビデオ用の画像であってもよい。
三次元スキャナ1218は、物理的対象物をスキャンしてスキャンデータを生成することができるハードウェアである。スキャンデータは、物理的対象物に係る点を記述する。スキャンデータを用いて、対象物の領域のモデルを生成することができ、当該モデルは、画像を用いて作成された対象物の他の領域のモデルよりも、より精細である。このデータを位置推定とマッピングの同時実行(SLAM)プロセス1207と組み合わせて用いることにより、対象物をマッピングするとともに、物理的対象物に対するポータブル演算装置1200の位置推定をする。三次元スキャナ1218は、所定数の様々な形態を取ることができる。例えば、三次元スキャナ1218は、レーザスキャナ、ライダーシステム、赤外線スキャナ、又はその他の種類の走査システムをのうちの少なくとも1つから選択することができる。
ポータブル演算装置1200の図示は、ポータブル演算装置1200が実現される態様の一例である。この図示は、他の例示的な実施例においてポータブル演算装置1200が実現される態様についての限定を意図するものではない。
図13を参照すると、同図には、例示的な実施形態による、無人ビークル装置のブロック図が示されている。無人ビークル1300は、図1の無人航空機112、図1の無人航空機114、図1の無人航空機116、及び、図2の無人ビークル220が実現される態様の一例である。
この例示的な実施例において、無人ビークル1300は、所定数のコンポーネントによって構成されている。図示のように、無人ビークル1300は、フレーム1302、推進システム1304、コンピュータ1306、通信システム1308、及び、センサシステム1310を含む。
フレーム1302は、無人ビークル1300のどのようなタイプの移動を行うかに基づいて設計される物理的構造物である。例えば、無人ビークル1300が無人航空機の場合、無人ビークル1300は、空力面(aerodynamic surfaces)を有する。無人ビークル1300が無人ウォータービークルである場合、無人ビークル1300は、例えば、水中で使用するための船体である。この例示的な実施例では、推進システム1304、コンピュータ1306、通信システム1308、及び、センサシステム1310は、フレーム1302に接続されている。
推進システム1304は、無人ビークル1300を移動させるハードウェアシステムである。例えば、無人ビークル1300が無人航空機の場合、推進システム1304は、ジェットエンジン、ロータ、又は他の推進コンポーネントを含む。
コンピュータ1306は、無人ビークル1300のコンポーネントの動作を制御するハードウェアである。例えば、コンピュータ1306は、推進システム1304、通信システム1308、及び、センサシステム1310の動作を制御することができる。
通信システム1308は、有線通信リンク又は無線通信リンクを用いた通信を実現するハードウェアである。このような通信リンクは、地上又は他の無人ビークルのリモートコンピュータに対して、確立することができる。無線通信リンクは、無線周波数信号又は光信号を用いることができる。
センサシステム1310は、ハードウェア、ソフトウェア、又はこれらの両方を含む。図示のように、センサシステム1310は、カメラシステム1312及び三次元スキャナ1314を含む。
本開示の例示的な実施形態は、図14に示した航空機の製造および保守方法1400、及び、図15に示した航空機1500に関連させて、説明することができる。次に、図14を参照すると、同図には、例示的な実施形態による、航空機の製造及び保守方法のブロック図が示されている。生産開始前の工程として、航空機の製造及び保守方法1400は、例えば、図15に示す航空機1500の仕様決定及び設計1402と、材料調達1404とを含む。
製造中には、図15の航空機1500の部品及び小組立品の製造1406及びシステム統合1408が行われる。その後、図15の航空機1500は、認証及び納品1410を経て、就航1412の期間に入る。顧客による就航1412の期間中は、図15の航空機1500は、定期的な整備及び保守1414のスケジュールに組み込まれ、これは、例えば、改良、再構成、改修、及び他の整備又は保守を含む。
航空機の製造及び保守方法1400の各工程は、システムインテグレータ、第三者、オペレータ、又はこれらの何らかの組み合わせによって、実行又は実施することができる。これらの例において、オペレータは、顧客であってもよい。なお、システムインテグレータは、航空機メーカー及び主要システム下請業者をいくつ含んでいてもよいが、これに限定されない。第三者は、売主、下請業者、及び供給業者をいくつ含んでいてもよいが、これに限定されない。オペレータは、航空会社、リース会社、軍事団体、サービス組織などであってもよい。
図15を参照すると、同図には、例示的な実施形態を実現することができる航空機のブロック図が示されている。この例において、航空機1500は、図14に示した航空機の製造及び保守方法1400によって製造され、例えば、複数のシステム1504及び内装1506を備えた機体1502を含む。システム1504の例としては、推進系1508、電気系1510、油圧系1512、及び、環境系1514のうちの1つ以上が挙げられる。また、他のシステムをいくつ含んでいてもよい。また、航空宇宙産業に用いた場合を例として説明したが、様々な例示的な実施形態を、例えば自動車産業などの他の産業に適用してもよい。
本明細書において具現化される装置及び方法は、図14の航空機の製造及び保守方法1400における1以上の任意の工程で採用することができる。
例示的な一実施例において、図14に示す部品及び小組立品の製造1406において製造される部品及び小組立品は、航空機1500が図14に示す就航期間1412にある間に製造される部品及び小組立品と同様に製造してもよい。さらに別の例として、1つ以上の装置の実施形態、方法の実施形態、又はそれらの組み合わせを、図14に示す部品及び小組立品の製造1406及びシステム統合1408などの生産段階において用いることができる。また、1つ以上の装置の実施形態、方法の実施形態、又はそれらの組み合わせを、図14に示す、航空機1500の就航期間1412、整備及び保守期間1414、又はこれらの両方において用いてもよい。
例えば、図2の拡張現実システム216を用いて、タスク位置を視覚化することができる。このような視覚化は、例えば、実行すべきタスクの情報をタスク位置に表示することを含む。拡張現実システム216は、人間のオペレータによって、部品及び小組立品の製造1406、システム統合1408、認証及び納品1410、又は、整備及び保守1414のうちの少なくとも1つの期間において、利用することができる。拡張現実システム216は、対象物のライブビューを拡張する現在の技術を用いる場合と比べて、一部が組み立てられた航空機などの、より大型の対象物を見る際に有用である。
様々な例示的な実施形態を用いることによって、実質的に、航空機1500の組み立て速度を速めること、航空機1500のコストを削減すること、又は、航空機1500の組み立て速度を速めるとともに航空機1500のコストを削減することが可能となる。例えば、操作を知らせる(inform operations)ために必要なプロセッサリソースの量を低減するとともに、航空機1500やその一部などの対象物に対して操作を行う際に用いるモデルの生成に必要な時間も、削減することができる。
次に、図16を参照すると、同図には、例示的な実施形態による、製品管理システムのブロック図が示されている。製品管理システム1600は、物理的なハードウェアシステムである。この例示的な実施例において、製品管理システム1600は、製造システム1602及び保守システム1604のうちの少なくとも1つを含む。
製造システム1602は、図15の航空機1500などの製品を製造するように構成されている。図示のように、製造システム1602は、製造装置1606を含む。製造装置1606は、作製装置1608又は組立装置1610のうちの少なくとも1つを含む。
作製装置1608は、図15の航空機1500の形成に用いられる部品のコンポーネントを作製するために用いられる装置である。例えば、作製装置1608は、マシン及びツールを含む。これらのマシン及びツールは、例えば、ドリル、油圧プレス、炉、金型、複合テープ敷設機、真空システム、旋盤、図2の拡張現実システム216、又はその他の適当な種類の装置のうちの少なくとも1つである。作製装置1608を用いて、例えば、金属部品、複合部品、半導体、回路、ファスナ、リブ、外板パネル、翼桁、アンテナ、又は他の適当な種類の部品のうちの少なくとも1つを作製することができる。
組立装置1610は、図15の航空機1500を形成するための部品の組み立てに用いられる装置である。具体的には、組立装置1610を用いてコンポーネント及び部品を組み立てて、航空機1500を形成する。組立装置1610も、マシン及びツールを含む場合がある。これらのマシン及びツールは、ロボットアーム、クローラー、高速設置システム、レールを用いたドリルシステム、図2の拡張現実システム、又は、ロボットのうちの少なくとも1つであってもよい。組立装置1610を用いて、例えば、シート、水平安定板、翼、エンジン、エンジンハウジング、着陸ギアシステムなどの部品、及び、図15の航空機1500のその他の部品を組み立てることができる。
この例示的な実施例において、保守システム1604は、保守装置1612を含む。保守装置1612は、航空機1500の保守を行うために必要な任意の装置を含む。保守装置1612は、例えば、航空機1500の部品に対して様々な作業を行うためのツールを含む。これらの作業は、例えば、部品の分解、部品の修理、部品の検査、部品の再加工、交換部品の製造、又は、図15の航空機1500に対して保守を行うための他の作業のうちの少なくとも1つを含む。これらの作業は、例えば、定例の保守、検査、アップグレード、修理、又は、他のタイプの保守作業のためのものである。
例示的な実施例において、保守装置1612は、例えば、超音波検査装置、X線撮像システム、視覚システム、ドリル、クローラー、及び、他の適当な装置を含む。場合によっては、保守装置1612は、保守に必要な部品の製作及び組み立てを行うために、作製装置1608、組立装置1610、又は、これら両方を含んでもよい。
製品管理システム1600は、例えば、制御システム1614も含む。制御システム1614は、ハードウェアシステムであり、さらに、ソフトウェア又は他のタイプのコンポーネントを含んでもよい。制御システム1614は、製造システム1602又は保守システム1604のうちの少なくとも一方の動作を制御するように構成されている。具体的には、制御システム1614は、作製装置1608、組立装置1610、又は、保守装置1612のうちの少なくとも1つの動作を制御することができる。
制御システム1614内のハードウェアは、コンピュータ、回路、ネットワーク、及び他のタイプの装置を含むハードウェアを用いて、実現することができる。制御は、製造装置1606の直接制御の形態を取ることができる。例えば、制御システム1914によって、ロボット、コンピュータ制御によるマシン、及び他の装置を、制御することができる。他の例示的な実施例において、制御システム1614は、航空機1500の製造又は保守を行う際に、人間のオペレータ1616により実行される作業を管理してもよい。例えば、制御システム1614は、人間のオペレータ1616によって行われる作業を管理するために、タスクの割り当て、指示の送信、モデルの表示、又は、その他の作業を実行することができる。これらの例示的な実施例において、図2の拡張現実システム216を、制御システム1614に実装することにより、図15に示す航空機1500の製造又は保守のうちの少なくとも一方を管理することができる。
例えば、制御システム1614は、航空機、建物、ダムなどの対象物又はその他の適当な対象物の組み立て又は保守などのためのタスクを、1人以上の人間のオペレータ1616に割り当てることができる。制御システム1614は、例えば、ライブビューを拡張するためのタスク情報を、人間のオペレータ1616が着用又は携帯している図2の拡張現実システム216内のポータブル演算装置に送信することができる。
様々な例示的な実施例において、人間のオペレータ1616は、製造装置1606、保守装置1612、又は、制御システム1614のうちの少なくとも1つを操作したり、これと相互にやり取りしたりすることができる。このようなやり取りは、図15の航空機1500を製造するために行うことができる。
もちろん、製品管理システム1600は、図15の航空機以外の製品を管理するように構成することもできる。製品管理システム1600の説明は、航空宇宙産業における製造に関連させて行ったが、製品管理システム1600は、他の産業における製品を管理するように構成することもできる。例えば、製品管理システム1600は、自動車産業や任意の他の適当な産業の製品を製造するように構成することもできる。
さらに、本開示は、以下の付記による実施形態を含む。
付記1. 物理的対象物(204)に対して移動し、前記物理的対象物(204)の画像(222)を生成し、前記物理的対象物(204)の領域(226)の空間内での点を記述するスキャンデータ(224)を生成する、ように動作する一群の無人ビークル(220)と、
通信リンク(228)を用いて前記一群の無人ビークル(220)と通信するコンピュータシステム(218)と、を含む拡張現実システム(216)であって、前記コンピュータシステム(218)は、
前記物理的対象物(204)の前記画像(222)を、前記物理的対象物(204)に対して移動している前記一群の無人ビークル(220)から受信し、
前記物理的対象物の前記領域(226)のスキャンデータ(224)を、前記物理的対象物(204)に対して移動している前記一群の無人ビークル(220)のうちの所定数の無人ビークル(220)から受信し、
前記画像(222)及び前記スキャンデータ(224)を用いて前記物理的対象物(204)の拡張モデル(232)を作成する、ように動作し、前記拡張モデル(232)における前記物理的対象物(204)の前記領域(226)は、前記拡張モデル(232)における前記物理的対象物(204)の他の領域(234)よりも、より精細なディテールを有しており、
前記拡張現実システムは、ポータブル演算装置(208)をさらに含み、前記ポータブル演算装置は、
前記拡張モデル(232)を用いて前記物理的対象物(204)に対する位置推定をし、
前記ポータブル演算装置(208)を通して見る前記物理的対象物(204)のライブビュー(212)に情報(202)を表示する、ように動作し、前記情報(202)は、前記物理的対象物(204)の前記拡張モデル(232)を用いて特定される、拡張現実システム。
付記2. 前記コンピュータシステム(218)は、前記一群の無人ビークル(220)を制御することにより、前記物理的対象物(204)に対して移動させるとともに、前記物理的対象物(204)の前記画像(222)、及び、前記物理的対象物(204)の前記領域(226)の空間内での点を記述するスキャンデータ(224)を生成させる、付記1に記載の拡張現実システム(216)。
付記3. 前記コンピュータシステム(218)は、前記画像(222)及び前記スキャンデータ(224)を用いて前記物理的対象物(204)の前記拡張モデル(232)を作成する際に、
前記画像(222)を用いて前記物理的対象物(204)のモデル(300)を作成し、
前記一群の無人ビークル(220)のうちの所定数の無人ビークル(220)によって生成されるスキャンデータ(224)から、所定数のポイントクラウド(302)を作成し、
前記所定数のポイントクラウド(302)を用いて前記物理的対象物(204)の前記モデル(300)を修正することにより、前記拡張モデル(232)を形成する、ように動作する、付記1又は2に記載の拡張現実システム(216)。
付記4. 前記一群の無人ビークル(220)は、人間のオペレータ(206)が前記ポータブル演算装置(208)を通して前記物理的対象物(204)の前記ライブビュー(212)を見ている間に、前記画像(222)及び前記スキャンデータ(224)を生成するように動作する、付記1~3のいずれか1つに記載の拡張現実システム(216)。
付記5. 前記コンピュータシステム(218)は、前記物理的対象物(204)の前記領域(226)を選択するとともに、前記一群の無人ビークル(220)のうちの所定数の無人ビークル(220)を制御して、前記物理的対象物(204)の前記領域(226)の前記スキャンデータ(224)を生成させる、付記1~4のいずれか1つに記載の拡張現実システム(216)。
付記6. 前記コンピュータシステム(218)は、前記物理的対象物(204)の前記領域(226)を選択する際に、前記ポータブル演算装置(208)を用いている人間のオペレータ(206)の注視点(400)に基づいて、前記物理的対象物(204)の前記領域(226)を選択する、付記5に記載の拡張現実システム(216)。
付記7. 前記コンピュータシステム(218)は、前記物理的対象物(204)の前記領域(226)を選択する際に、前記ポータブル演算装置(208)を用いている人間のオペレータ(206)によって行われるタスク(214)の位置(402)に基づいて、前記物理的対象物(204)の前記領域(226)を選択し、前記位置(402)は前記領域(226)に包含される、付記5に記載の拡張現実システム(216)。
付記8. 前記コンピュータシステム(218)は、前記ポータブル演算装置(208)から、前記物理的対象物(204)の追加画像(228)又は前記物理的対象物(204)の追加スキャンデータ(240)のうちの少なくとも1つを受信し、
前記コンピュータシステム(218)は、前記画像(222)及び前記スキャンデータ(224)を用いて前記物理的対象物(204)の前記拡張モデル(232)を作成する際に、前記画像(222)、前記追加画像(228)、前記スキャンデータ(224)、及び、前記追加スキャンデータ(240)を用いて、前記物理的対象物(204)の前記拡張モデル(232)を作成する、付記1~7のいずれか1つに記載の拡張現実システム(216)。
付記9. 前記情報(202)は、タスク情報、アセンブリ、ビデオ、不適合箇所の示唆、作業指示、アセンブリの分解図、又は概略図のうちの少なくとも1つから選択される、付記1~8のいずれか1つに記載の拡張現実システム(216)。
付記10. 前記物理的対象物(204)は、飛行機、建物、橋、ダム、ビークル、フィールド、湖、山、エンジン、胴体部、及び、滑走路を含むグループから選択される、付記1~9のいずれか1つに記載の拡張現実システム(216)。
付記11. 前記ポータブル演算装置(208)は、スマートグラス、携帯電話、タブレットコンピュータ、及び、ヘッドマウントディスプレイを含むグループから選択される、付記1~10のいずれか1つに記載の拡張現実システム(216)。
付記12. 前記一群の無人ビークル(220)は、無人航空機、ドローン、無人地上ビークル、又は、無人ウォータービークルのうちの少なくとも1つから選択される、付記1~11のいずれか1つに記載の拡張現実システム。
付記13. コンピュータシステム(218)と、前記コンピュータシステム(218)内のビジュアライザー(230)と、を含む、拡張現実システム(216)であって、
前記コンピュータシステム(218)は、前記コンピュータシステム(218)の動作中及び一群の無人ビークル(220)の動作中に、通信リンク(228)を用いて、前記一群の無人ビークル(220)と通信し、
前記ビジュアライザーは、以下を行うように動作する。
物理的対象物(204)の画像(222)を、前記物理的対象物(204)に対して移動している前記一群の無人ビークル(220)から受信すること。
前記物理的対象物の領域(226)のスキャンデータ(224)を、前記物理的対象物(204)に対して移動している前記一群の無人ビークル(220)のうちの所定数の無人ビークル(220)から受信すること。
前記画像(222)及び前記スキャンデータ(224)を用いて、前記物理的対象物(204)の拡張モデル(232)を作成すること。この際、前記拡張モデル(232)における前記物理的対象物(204)の前記領域(226)は、前記拡張モデル(232)における前記物理的対象物(204)の他の領域(234)よりも、より精細なディテールを有する。
情報(202)をポータブル演算装置(208)に送信すること。この際、前記情報(202)は、前記ポータブル演算装置(208)によって、前記ポータブル演算装置(208)を通して見る前記物理的対象物(204)のライブビュー(212)に表示可能であり、前記情報(202)は、前記物理的対象物(204)の前記拡張モデル(232)を用いて特定される。
付記14. 前記ビジュアライザー(230)は、
前記一群の無人ビークル(220)を制御することにより、前記物理的対象物(204)に対して移動させるとともに、
前記一群の無人ビークル(220)を制御することにより、前記物理的対象物(204)の前記画像(222)、及び、前記物理的対象物(204)の前記領域(226)の空間内での点を記述するスキャンデータ(224)を生成させる、付記13に記載の拡張現実システム(216)。
付記15. 前記ビジュアライザー(230)は、前記物理的対象物(204)の前記領域(226)を選択するとともに、前記一群の無人ビークル(220)のうちの前記所定数の無人ビークル(220)を制御して、前記物理的対象物(204)の前記領域(226)の前記スキャンデータ(224)を生成させる、ように動作する、付記13~14のいずれか1つに記載の拡張現実システム(216)。
付記16. 前記ビジュアライザー(230)は、前記物理的対象物(204)の前記領域(226)を選択する際に、前記ポータブル演算装置(208)を用いている人間のオペレータ(206)の注視点(400)に基づいて、前記物理的対象物(204)の前記領域(226)を選択するように動作する、付記15に記載の拡張現実システム(216)。
付記17. 前記ビジュアライザー(230)は、前記物理的対象物(204)の前記領域(226)を選択する際に、前記ポータブル演算装置(208)を用いている人間のオペレータ(206)によって行われるタスク(214)の位置(402)に基づいて、前記物理的対象物(204)の前記領域(226)を選択するように動作し、前記位置(402)は前記領域(226)に包含される、付記15に記載の拡張現実システム(216)。
付記18. 前記一群の無人ビークル(220)は、無人航空機、ドローン、無人地上ビークル、又は、無人ウォータービークルのうちの少なくとも1つから選択される、先行するいずれかの付記に記載の拡張現実システム。
付記19. 物理的対象物(204)のライブビュー(212)に情報(202)を視覚化する方法であって、
コンピュータシステム(218)によって、前記物理的対象物(204)に対して移動している一群の無人ビークル(220)から物理的対象物(204)の画像(222)を受信し、前記コンピュータシステム(218)は、通信リンク(228)を用いて、前記一群の無人ビークル(220)と通信し、
前記コンピュータシステム(218)によって、前記物理的対象物(204)の領域(226)のスキャンデータ(224)を受信し、
前記コンピュータシステム(218)によって、前記画像(222)及び前記スキャンデータ(224)を用いて前記物理的対象物(204)の拡張モデル(232)を作成し、前記拡張モデル(232)における前記領域(226)は、前記拡張モデル(232)における前記物理的対象物(204)の他の領域(234)よりも、より精細なディテールを有しており、
前記コンピュータシステム(218)によって、前記拡張モデル(232)の少なくとも一部を、ポータブル演算装置(208)に送信し、前記ポータブル演算装置(208)は、前記拡張モデル(232)の前記少なくとも一部を用いて、前記物理的対象物(204)に対する位置推定をし、
前記コンピュータシステム(218)によって、前記ポータブル演算装置(208)によって表示可能な前記情報(202)を送信し、前記ポータブル演算装置(208)は、前記ポータブル演算装置(208)を通して見る前記物理的対象物(204)の前記ライブビュー(212)に前記情報(202)を表示し、前記情報(202)は、前記物理的対象物(204)の前記拡張モデル(232)を用いて特定される、方法。
付記20. さらに、前記コンピュータシステム(218)によって、前記一群の無人ビークル(220)を制御することにより、前記物理的対象物(204)に対して移動させるとともに、
前記一群の無人ビークル(220)を制御することにより、前記物理的対象物(204)の前記画像(222)、及び、前記物理的対象物(204)の前記領域(226)の空間内での点を記述するスキャンデータ(224)を生成させる、付記19に記載の方法。
付記21. 前記画像(222)及び前記スキャンデータ(224)を用いて前記物理的対象物(204)の前記拡張モデル(232)を作成するに際し、
前記画像(222)を用いて前記物理的対象物(204)のモデル(300)を作成し、
前記一群の無人ビークル(220)のうちの所定数の無人ビークル(220)によって生成されるスキャンデータ(224)から、所定数のポイントクラウド(302)を作成し、
前記所定数のポイントクラウド(302)を用いて前記物理的対象物(204)の前記モデル(302)を修正することにより、前記拡張モデル(232)を形成する、付記19又は20に記載の方法。
付記22. 前記一群の無人ビークル(220)は、人間のオペレータ(206)が前記ポータブル演算装置(208)を通して前記物理的対象物(204)のライブビュー(212)を見ている間に、前記画像(222)及び前記スキャンデータ(224)を生成するように動作する、付記19~21のいずれか1つに記載の方法。
付記23. さらに、前記コンピュータシステム(218)によって、前記物理的対象物(204)の前記領域(226)を選択し、
前記コンピュータシステム(218)によって、前記一群の無人ビークル(220)のうちの所定数の無人ビークル(220)を制御して、前記物理的対象物(204)の前記領域(226)の前記スキャンデータ(224)を生成させる、付記19~22のいずれか1つに記載の方法。
付記24. 前記コンピュータシステム(218)によって、前記物理的対象物(204)の前記領域(226)を選択するに際し、
前記ポータブル演算装置(208)を用いている人間のオペレータ(206)の注視点(400)に基づいて、前記コンピュータシステム(218)によって、前記物理的対象物(204)の前記領域(226)を選択する、付記23に記載の方法。
付記25. 前記コンピュータシステム(218)によって、前記物理的対象物(204)における前記領域(226)を選択するに際し、
前記ポータブル演算装置(208)を用いている人間のオペレータ(206)によって行われるタスク(214)の位置(402)に基づいて、前記コンピュータシステム(218)によって、前記物理的対象物(204)の前記領域(226)を選択し、前記位置(402)は前記領域(226)に包含される、付記23に記載の方法。
付記26. さらに、前記コンピュータシステム(218)によって、前記ポータブル演算装置(208)から、前記物理的対象物(204)の追加画像(228)又は前記物理的対象物(204)の追加スキャンデータ(240)のうちの少なくとも1つを受信し、
前記コンピュータシステム(218)によって、前記画像(222)及び前記スキャンデータ(224)を用いて前記物理的対象物(204)の前記拡張モデル(232)を作成するに際し、
前記コンピュータシステム(218)によって、前記画像(222)、前記追加画像(228)、前記スキャンデータ(224)、及び、前記追加スキャンデータ(240)を用いて、前記物理的対象物(204)の前記拡張モデル(232)を作成する、付記19~24のいずれか1つに記載の方法。
付記27. 前記情報(202)は、タスク情報、アセンブリ、ビデオ、不適合箇所の示唆、作業指示、アセンブリの分解図、又は概略図のうちの少なくとも1つから選択される、付記19~26のいずれか1つに記載の方法。
付記28. 前記物理的対象物(204)は、飛行機、建物、橋、ダム、ビークル、フィールド、湖、山、エンジン、胴体部、及び、滑走路を含むグループから選択される、付記19~27のいずれか1つに記載の方法。
付記29. 前記ポータブル演算装置(208)は、スマートグラス、携帯電話、タブレットコンピュータ、及び、ヘッドマウントディスプレイを含むグループから選択される、付記19~28のいずれか1つに記載の方法。
このように、1つ以上の例示的な実施例は、物理的対象物のライブビューを拡張するための情報の表示に関する技術的問題を、物理的対象物のポイントクラウドを生成する現在用いられている技術と比べて、処理リソースの使用量を低減するような方法で克服する。この結果、1つ以上の例示的な実施例は、二種類のデータを用いることで、物理的対象物のモデルを作成するために使用されるコンピューティングリソースの量を低減するという技術的効果をもたらす。例示的な実施例では、画像及びスキャンデータが使用され、これにより、ポイントクラウドのみを用いる現在の技術と比べて、コンピューティングリソースの使用量が低減する。
様々な例示的な実施形態の説明は、例示および説明のために提示したものであり、すべてを網羅することや、開示した形態での実施に限定することを意図するものではない。様々な例示的な実施例は、動作や工程を行うコンポーネントを説明している。例示的な実施形態では、コンポーネントは、例えば、説明した動作や処理を実行するように構成される。例えば、コンポーネントは、当該コンポーネントにより実行されると実施例において記載された動作や処理を実行する機能を備えるような構成や設計を有することができる。
当業者には、多くの改変又は変形が明らかであろう。なお、異なる例示的な実施形態は、他の望ましい実施形態とは異なる特徴をもたらしうる。上述した実施形態は、実施形態の原理および実際の用途を最も的確に説明するとともに、当業者が、想定した特定の用途に適した種々の改変を加えた様々な実施形態のための開示を理解できるようにするために、選択および記載したものである。

Claims (15)

  1. 物理的対象物に対して移動し、前記物理的対象物の画像を生成し、前記物理的対象物の領域の空間内での点を記述するスキャンデータを生成する、ように動作する一群の無人ビークルと、
    通信リンクを用いて前記一群の無人ビークルと通信するコンピュータシステムと、を含む拡張現実システムであって、前記コンピュータシステムは、
    前記物理的対象物の前記画像を、前記物理的対象物に対して移動している前記一群の無人ビークルから受信し、
    前記物理的対象物の前記領域のスキャンデータを、前記物理的対象物に対して移動している前記一群の無人ビークルのうちの所定数の無人ビークルから受信し、
    前記画像及び前記スキャンデータを用いて前記物理的対象物の拡張モデルを作成する、ように動作し、前記拡張モデルにおける前記物理的対象物の前記領域は、前記拡張モデルにおける前記物理的対象物の他の領域よりも、より精細なディテールを有しており、
    前記物理的対象物上の変形のスキャンデータに基づいて、前記拡張モデルの前に生成された前記物理的対象物のモデルを更新する、ように動作し、
    前記拡張現実システムは、ポータブル演算装置をさらに含み、前記ポータブル演算装置は、
    前記拡張モデルを用いて前記物理的対象物に対する位置推定をし、
    前記ポータブル演算装置を通して見る前記物理的対象物のライブビューに前記拡張モデルの前に生成された前記物理的対象物の前記モデルからの情報を表示する、ように動作し、前記情報は、前記物理的対象物の前記拡張モデルを用いて特定される、拡張現実システム。
  2. 前記コンピュータシステムは、前記一群の無人ビークルを制御することにより、前記物理的対象物に対して移動させるとともに、前記物理的対象物の前記画像、及び、前記物理的対象物の前記領域の空間内での点を記述するスキャンデータを生成させる、請求項1に記載の拡張現実システム。
  3. 前記コンピュータシステムは、前記画像及び前記スキャンデータを用いて前記物理的対象物の前記拡張モデルを作成する際に、
    前記画像を用いて前記物理的対象物のモデルを作成し、
    前記一群の無人ビークルのうちの所定数の無人ビークルによって生成されるスキャンデータから、所定数のポイントクラウドを作成し、
    前記所定数のポイントクラウドを用いて前記物理的対象物の前記モデルを修正することにより、前記拡張モデルを形成する、ように動作する、請求項1又は2に記載の拡張現実システム。
  4. 前記一群の無人ビークルは、人間のオペレータが前記ポータブル演算装置を通して前記物理的対象物の前記ライブビューを見ている間に、前記画像及び前記スキャンデータを生成するように動作する、請求項1~3のいずれか1つに記載の拡張現実システム。
  5. 前記コンピュータシステムは、前記物理的対象物の前記領域を選択するとともに、前記一群の無人ビークルのうちの所定数の無人ビークルを制御して、前記物理的対象物の前記領域の前記スキャンデータを生成させる、請求項1~4のいずれか1つに記載の拡張現実システム。
  6. 前記コンピュータシステムは、前記物理的対象物の前記領域を選択する際に、前記ポータブル演算装置を用いている人間のオペレータの注視点に基づいて、前記物理的対象物の前記領域を選択する、請求項5に記載の拡張現実システム。
  7. 前記コンピュータシステムは、前記物理的対象物の前記領域を選択する際に、前記ポータブル演算装置を用いている人間のオペレータによって行われるタスクの位置に基づいて
    、前記物理的対象物の前記領域を選択し、前記位置は前記領域に包含される、請求項5に記載の拡張現実システム。
  8. 前記コンピュータシステムは、前記ポータブル演算装置から、前記物理的対象物の追加画像又は前記物理的対象物の追加スキャンデータのうちの少なくとも1つを受信し、
    前記コンピュータシステムは、前記画像及び前記スキャンデータを用いて前記物理的対象物の前記拡張モデルを作成する際に、前記画像、前記追加画像、前記スキャンデータ、及び、前記追加スキャンデータを用いて、前記物理的対象物の前記拡張モデルを作成する、請求項1~7のいずれか1つに記載の拡張現実システム。
  9. 前記情報は、タスク情報、アセンブリ、ビデオ、不適合箇所の示唆、作業指示、アセンブリの分解図、又は概略図のうちの少なくとも1つから選択され、
    前記物理的対象物は、飛行機、建物、橋、ダム、ビークル、フィールド、湖、山、エンジン、胴体部、及び、滑走路を含むグループから選択され、
    前記ポータブル演算装置は、スマートグラス、携帯電話、タブレットコンピュータ、及び、ヘッドマウントディスプレイを含むグループから選択され、前記一群の無人ビークルは、無人航空機、ドローン、無人地上ビークル、又は、無人ウォータービークルのうちの少なくとも1つから選択される、請求項1~8のいずれか1つに記載の拡張現実システム。
  10. 物理的対象物のライブビューに情報を視覚化する方法であって、
    コンピュータシステムによって、前記物理的対象物に対して移動している一群の無人ビークルから物理的対象物の画像を受信し、前記コンピュータシステムは、通信リンクを用いて、前記一群の無人ビークルと通信し、
    前記コンピュータシステムによって、前記物理的対象物の領域のスキャンデータを受信し、
    前記コンピュータシステムによって、前記画像及び前記スキャンデータを用いて前記物理的対象物の拡張モデルを作成し、前記拡張モデルにおける前記領域は、前記拡張モデルにおける前記物理的対象物の他の領域よりも、より精細なディテールを有しており、
    前記物理的対象物上の変形のスキャンデータを用いて、前記拡張モデルの前に生成された前記物理的対象物のモデルを更新し、
    前記コンピュータシステムによって、前記拡張モデルの少なくとも一部を、ポータブル演算装置に送信し、前記ポータブル演算装置は、前記拡張モデルの前記少なくとも一部を用いて、前記物理的対象物に対する位置推定をし、
    前記コンピュータシステムによって、前記ポータブル演算装置によって表示可能な前記拡張モデルの前に生成された前記物理的対象物の前記モデルからの前記情報を送信し、前記ポータブル演算装置は、前記ポータブル演算装置を通して見る前記物理的対象物の前記ライブビューに前記情報を表示し、前記情報は、前記物理的対象物の前記拡張モデルを用いて特定される、方法。
  11. さらに、前記コンピュータシステムによって、前記一群の無人ビークルを制御することにより、前記物理的対象物に対して移動させるとともに、
    前記一群の無人ビークルを制御することにより、前記物理的対象物の前記画像、及び、前記物理的対象物の前記領域の空間内での点を記述するスキャンデータを生成させる、請求項10に記載の方法。
  12. 前記画像及び前記スキャンデータを用いて前記物理的対象物の前記拡張モデルを作成するに際し、
    前記画像を用いて前記物理的対象物のモデルを作成し、
    前記一群の無人ビークルのうちの所定数の無人ビークルによって生成されるスキャンデータから、所定数のポイントクラウドを作成し、
    前記所定数のポイントクラウドを用いて前記物理的対象物の前記モデルを修正することにより、前記拡張モデルを形成する、請求項10又は11に記載の方法。
  13. さらに、前記ポータブル演算装置を用いている人間のオペレータの注視点に基づいて、前記コンピュータシステムによって、前記物理的対象物の前記領域を選択し、
    前記コンピュータシステムによって、前記一群の無人ビークルのうちの所定数の無人ビークルを制御して、前記物理的対象物の前記領域の前記スキャンデータを生成させる、請求項10~12のいずれか1つに記載の方法。
  14. さらに、前記コンピュータシステムによって、前記ポータブル演算装置から、前記物理的対象物の追加画像又は前記物理的対象物の追加スキャンデータのうちの少なくとも1つを受信し、
    前記コンピュータシステムによって、前記画像及び前記スキャンデータを用いて前記物理的対象物の前記拡張モデルを作成するに際し、
    前記コンピュータシステムによって、前記画像、前記追加画像、前記スキャンデータ、及び、前記追加スキャンデータを用いて、前記物理的対象物の前記拡張モデルを作成する、請求項10~13のいずれか1つに記載の方法。
  15. 前記情報は、タスク情報、アセンブリ、ビデオ、不適合箇所の示唆、作業指示、アセンブリの分解図、又は概略図のうちの少なくとも1つから選択され、
    前記物理的対象物は、飛行機、建物、橋、ダム、ビークル、フィールド、湖、山、エンジン、胴体部、及び、滑走路を含むグループから選択され、
    前記ポータブル演算装置は、スマートグラス、携帯電話、タブレットコンピュータ、及び、ヘッドマウントディスプレイを含むグループから選択される、請求項10~14のいずれか1つに記載の方法。
JP2019228978A 2019-01-02 2019-12-19 拡張モデルを用いた拡張現実システム Active JP7500187B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/237,841 2019-01-02
US16/237,841 US11030812B2 (en) 2019-01-02 2019-01-02 Augmented reality system using enhanced models

Publications (2)

Publication Number Publication Date
JP2020119511A JP2020119511A (ja) 2020-08-06
JP7500187B2 true JP7500187B2 (ja) 2024-06-17

Family

ID=69137677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019228978A Active JP7500187B2 (ja) 2019-01-02 2019-12-19 拡張モデルを用いた拡張現実システム

Country Status (7)

Country Link
US (1) US11030812B2 (ja)
EP (1) EP3678100A1 (ja)
JP (1) JP7500187B2 (ja)
KR (1) KR102645667B1 (ja)
CN (1) CN111402425A (ja)
BR (1) BR102019022477A2 (ja)
CA (1) CA3059940A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
WO2020072985A1 (en) 2018-10-05 2020-04-09 Magic Leap, Inc. Rendering location specific virtual content in any location
US11210851B1 (en) * 2019-06-14 2021-12-28 State Farm Mutual Automobile Insurance Company Systems and methods for labeling 3D models using virtual reality and augmented reality
CN114600064A (zh) 2019-10-15 2022-06-07 奇跃公司 具有定位服务的交叉现实系统
WO2021118962A1 (en) 2019-12-09 2021-06-17 Magic Leap, Inc. Cross reality system with simplified programming of virtual content
US20210248826A1 (en) * 2020-02-07 2021-08-12 Krikey, Inc. Surface distinction for mobile rendered augmented reality
US11562525B2 (en) 2020-02-13 2023-01-24 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
EP4103910A4 (en) 2020-02-13 2024-03-06 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH ACCURATE COMMON MAPS
CN115398484A (zh) 2020-02-13 2022-11-25 奇跃公司 具有用于定位的地理定位信息优先级的交叉现实系统
US11551430B2 (en) * 2020-02-26 2023-01-10 Magic Leap, Inc. Cross reality system with fast localization
CN113618723A (zh) * 2021-08-18 2021-11-09 东华大学 一种基于增强现实的船舶小组立辅助装配系统
US20230316644A1 (en) * 2022-03-31 2023-10-05 Topcon Corporation Point cloud information generating system, control method of point cloud information generating system, and control program of point cloud information generating system
US11538228B1 (en) * 2022-08-26 2022-12-27 Illuscio, Inc. Systems and methods for augmented reality viewing based on directly mapped point cloud overlays

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150084989A1 (en) 2010-09-02 2015-03-26 The Boeing Company Portable augmented reality
JP2016218694A (ja) 2015-05-19 2016-12-22 株式会社パスコ 3次元モデル生成装置、3次元モデル生成方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8060270B2 (en) * 2008-02-29 2011-11-15 The Boeing Company System and method for inspection of structures and objects by swarm of remote unmanned vehicles
US8902254B1 (en) * 2010-09-02 2014-12-02 The Boeing Company Portable augmented reality
US9639984B2 (en) * 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
US10250821B2 (en) * 2013-11-27 2019-04-02 Honeywell International Inc. Generating a three-dimensional model of an industrial plant using an unmanned aerial vehicle
WO2015103689A1 (en) * 2014-01-08 2015-07-16 Precisionhawk Inc. Method and system for generating augmented reality agricultural presentations
US9335764B2 (en) * 2014-05-27 2016-05-10 Recreational Drone Event Systems, Llc Virtual and augmented reality cockpit and operational control systems
US20160085426A1 (en) * 2014-09-18 2016-03-24 The Boeing Company Interactive Imaging System
US10176520B2 (en) * 2015-07-07 2019-01-08 The Boeing Company Product visualization system
US10110871B2 (en) * 2016-10-31 2018-10-23 Disney Enterprises, Inc. Recording high fidelity digital immersive experiences through off-device computation
EP3566201A4 (en) * 2016-12-22 2020-11-25 Xevo Inc. PROCESS AND SYSTEM FOR PROVIDING SERVICES OF ANALYSIS OF ARTIFICIAL INTELLIGENCE (AIA) FOR PERFORMANCE PREDICTION
WO2019143117A1 (en) * 2018-01-18 2019-07-25 Samsung Electronics Co., Ltd. Method and apparatus for adjusting augmented reality content
US20200049946A1 (en) * 2018-08-10 2020-02-13 Varjo Technologies Oy Display apparatus and method of displaying using gaze prediction and image steering
US10902678B2 (en) * 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150084989A1 (en) 2010-09-02 2015-03-26 The Boeing Company Portable augmented reality
JP2016218694A (ja) 2015-05-19 2016-12-22 株式会社パスコ 3次元モデル生成装置、3次元モデル生成方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Zhexiong Shang, Zhigang Shen,Real-time 3D Reconstruction on Construction Site using Visual SLAM and UAV,arXiv,2017年12月19日,https:///arxiv.org/ftp/arxiv/papers/1712/1712.07122.pdf

Also Published As

Publication number Publication date
US11030812B2 (en) 2021-06-08
BR102019022477A2 (pt) 2020-07-14
KR102645667B1 (ko) 2024-03-07
US20200211286A1 (en) 2020-07-02
CN111402425A (zh) 2020-07-10
EP3678100A1 (en) 2020-07-08
KR20200084784A (ko) 2020-07-13
JP2020119511A (ja) 2020-08-06
CA3059940A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP7500187B2 (ja) 拡張モデルを用いた拡張現実システム
KR102631717B1 (ko) 복합재 부품을 제조하기 위한 증강 현실 시스템
CN113449383B (zh) 对象管理系统及用于管理对象的方法
US9852237B2 (en) Immersive object testing system
EP2998909A1 (en) Interactive imaging system
EP4195145A1 (en) Three-dimensional inspection twin for remote visual inspection of a vehicle
CN112115607A (zh) 一种基于多维赛博空间的移动智能体数字孪生系统
JP7421895B2 (ja) 物体に対する不適合データを可視化するための拡張現実システム
US20190017945A1 (en) Aircraft Inspection System with Visualization and Recording
US20190287304A1 (en) Safety Enhancement System for a Mobile Display System
KR20210131233A (ko) 항공기 잉크젯 프린팅
KR102566700B1 (ko) 액티브 휴대용 앵커를 구비하는 증강 현실 시스템
JP2023039934A (ja) 一般視覚検査をサポートするための物体の自動容積画像取り込み

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240605