JP2020535534A - アクセス制限されたオブジェクトへの仮想アクセス - Google Patents

アクセス制限されたオブジェクトへの仮想アクセス Download PDF

Info

Publication number
JP2020535534A
JP2020535534A JP2020517557A JP2020517557A JP2020535534A JP 2020535534 A JP2020535534 A JP 2020535534A JP 2020517557 A JP2020517557 A JP 2020517557A JP 2020517557 A JP2020517557 A JP 2020517557A JP 2020535534 A JP2020535534 A JP 2020535534A
Authority
JP
Japan
Prior art keywords
mobile device
real
world object
user
process control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020517557A
Other languages
English (en)
Other versions
JP2020535534A5 (ja
JP7198276B2 (ja
Inventor
ジェームス・アーロン・クリューズ
トレヴァー・ダンカン・シュライス
ベンジャミン・マイケル・ビショップ
Original Assignee
フィッシャー−ローズマウント システムズ,インコーポレイテッド
フィッシャー−ローズマウント システムズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フィッシャー−ローズマウント システムズ,インコーポレイテッド, フィッシャー−ローズマウント システムズ,インコーポレイテッド filed Critical フィッシャー−ローズマウント システムズ,インコーポレイテッド
Publication of JP2020535534A publication Critical patent/JP2020535534A/ja
Publication of JP2020535534A5 publication Critical patent/JP2020535534A5/ja
Application granted granted Critical
Publication of JP7198276B2 publication Critical patent/JP7198276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4185Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the network communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)

Abstract

拡張現実(AR)モバイルデバイスのユーザと第1の現実世界オブジェクトとの間の対話を容易にする方法では、ディスプレイデバイスが、デバイスのカメラの視野内のプロセス制御環境の部分上にデジタル情報を重ね合わせられる。重ね合わせられた情報は、環境のマップ内のノードに関連付けられており、ノードは、環境内の他のオブジェクトに対応している。ディスプレイは、第1のオブジェクトへの方向を示させられる。第1のオブジェクトの選択を示すユーザ入力を検出した後に、ディスプレイは、現在視野内にあるプロセス制御環境の一部分上に、第1のオブジェクトのデジタルモデルまたは画像を重ね合わさせられる。ユーザインターフェースは、第1のオブジェクトに関連付けられている1つ以上の仮想制御および/または1つ以上のディスプレイを提供させられる。

Description

関連出願の相互参照
本明細書は、2017年9月27日に出願され、「Augmented Reality Platform」と題された米国仮特許出願第62/564,074号の利益を主張するものであり、その開示は、参照によりその全体が本明細書に組み込まれる。
本開示は、概して、拡張現実技術に関し、より詳細には、プロセス制御または他の環境で利用され得る拡張現実プラットフォームに関する。
現実世界環境でのデジタル情報(例えば、テキスト、画像、アニメーションなど)のオーバーレイを提供する拡張現実(AR)システムは、この技術の新しい用途が検討されるにつれてますます一般的になりつつある。ARシステムは、典型的に、ユーザの現在の現実世界環境のコンテキストに固有の情報を提供する。このようなシステムでは、現在ユーザのビューにある物理的な物の知識、およびユーザの現在位置およびその周辺の物理的なレイアウトなど、現実世界の知識が一般的に必要である。この種の情報をARシステムに利用可能にするために、ユーザの環境およびその中のオブジェクトを表現する3次元(3D)デジタルモデルが、典型的に作成される。次いで、3Dモデルは、環境内の特定の位置および/または特定のオブジェクトに関連する特定の種類のデータ(例えば、記述)、グラフィック(例えば、アイコン)などを用いて拡張され得る。適切なARギヤを装備したユーザがマッピングされた環境を通って移動するとき、拡張部分は、ユーザの現実世界ビュー(例えば、リアルタイムカメラビュー、またはユーザが環境を観察するヘッドアップディスプレイ(HUD)など)にデジタル情報をオーバーレイすることによって、3Dモデルの残りの部分をレンダリング/表示することなく、ユーザにレンダリング/表示され得る。
従来、この種の3Dモデルは、人間の設計者によって、および/または3Dスキャナを使用して、手動で構築されている。しかしながら、これらのアプローチの両方は、複雑なレイアウトおよび/または多数のオブジェクトを有する環境を含むアプリケーションにとって多くの時間および労力を要し得る。さらに、環境へのなんらかの変更(例えば、オブジェクトが環境内で移動もしくは置換/更新されることなど)は、モデリングプロセス全体が繰り返されること、または他の時間および労力を要する手順を必要とし得る。
現在のARシステムは、他の欠点も被ることがある。例えば、比較的密度の高い環境(例えば、近接している、および/またはARビューに表示する多くの情報量を有する複数のオブジェクトを有する環境)で使用される場合、ARシステムは、容易に知覚過負荷をもたらし得る膨大な量の情報をユーザに与えることがあり、かつ/またはユーザは全ての情報のコンテキストを容易に知覚できないことがある。さらに、いくつかのオブジェクトは、ARビュー内で不明瞭になることがある。例えば、オブジェクトは囲い内に位置していることがあり、またはアクセス不能もしくは不都合な(例えば遠隔の)位置に存在していることがある。
拡張現実体験を提供するための技術、システム、装置、および方法が本明細書で開示される。当該技術、システム、装置、および方法は、例えば、工業プロセス制御システム、環境、および/またはプラントに適用してよく、これらは、本明細書では、同義で「プロセス制御」、または「プロセス」システム、環境、および/もしくはプラントと称され得る。典型的には、このようなシステムおよびプラントは、分散された方法で、未加工の物理的物質を製造、精製、または別の方法で変形するように動作して、生産物を生成または生産する1つ以上のプロセスの制御を提供する。しかしながら、いくつかの実施形態では、本明細書に記載される技術、システム、装置、および方法は、他の種類の環境で使用され、かつ/または拡張現実以外のコンテキスト(例えば、仮想現実(VR)コンテキスト)で使用され得る。
一般に、プロセス制御環境は、従来の拡張現実感(AR)システムまたはプラットフォームの生成および使用に関連付けられている「背景技術」のセクションで上述された、様々な多くの困難を引き起こす可能性がある。例えば、このような環境は、近接し、かつ/または大量の情報(例えば、センサの読み取り値、診断ステータスなど)に関連付けられている多数の多様なオブジェクト(例えば、タンク、ポンプ、バルブ、モータ、送信機など)を含む場合が多い。さらに、それらのオブジェクトは、頻繁に移動または置換され得る。
本明細書に記載されるARプラットフォームは、これらの困難のいくつかまたは全てを克服または改善することができ、したがって、プロセス制御環境での使用によく適し得る。ARプラットフォームでは、3次元(3D)モデルがARモバイルデバイスを使用するユーザによって生成される。ARモバイルデバイスは、ARヘルメット、ARヘッドセット、ARゴーグル、スマートメガネ、スマートフォン、タブレット、または(以下に記載されるような)位置追跡をサポートすることができる任意の他の好適な種類のモバイルデバイスであってもよく、ユーザにAR体験を提示することができる。
3Dモデルは、異なる現実世界オブジェクト(例えば、フィールドデバイス、タンク、コンベア、コントローラ、スイッチなど)に対応する、プロセス制御環境内の関心のあるポイントの3D位置(location)/位置(position)を示す。3Dモデルに追加されるオブジェクトは、本明細書では、ARプラットフォームまたはシステムの「ノード」と称される。本明細書で使用されるように、用語「オブジェクト」(「現実世界オブジェクト」とも称される)は、任意の物理的な物(例えば、デバイス、構成要素、設備、構造など)、物の一部分(例えば、デバイスもしくは構成要素の要素など)、または物の組み合わせ(例えば、関連するデバイスもしくは構成要素のグループなど)であってもよい。プロセス制御環境では、例えば、オブジェクトは、フィールドデバイス(例えば、バルブ、ポンプ、センサなど)、設備の一部(例えば、コンベヤ、タンクなど)、プロセスコントローラ、スイッチなどであってもよい。
いくつかの実装形態では、ARアプリケーションがARモバイルデバイス上で起動されると(例えば、ユーザによって具体的に起動されるときに、またはデバイスの電源投入時に)、ユーザは、「チェックイン」するか、またはいくつかの基準もしくは「ランドマーク」位置にARモバイルデバイスを登録する。例えば、ユーザは、ARモバイルデバイスのカメラを用いてランドマーク位置でQRコードまたはコード/識別子の別の視覚的表現をスキャンしてもよい。コードをスキャンする行為は、ユーザ/デバイスの開始位置(例えば、{x、y、z}空間内の座標{0、0、0})を確立し得る。
登録後、ユーザは、ARモバイルデバイスを用いてプロセス制御環境を通って物理的に移動し始めてもよい。(例えば、ユーザのARモバイルデバイスによって提供される)好適な位置決め技術を使用して、プロセスプラントを通るユーザの移動を追跡してもよい。GPSまたはGNSSユニットは、多くのプロセスプラント環境で機能しない可能性があり、配向データまたは正確な標高データを提供することができない(特に屋内にあるプロセス制御環境の場合)ため、他の位置決めおよび/または配向技術が使用されてもよい。例えば、ランドマークの位置に対するARモバイルデバイスの位置、およびARモバイルデバイスの配向(例えば、ユーザが向いている方向に対応し得る、ARモバイルデバイスのカメラの視野の方向)は、慣性測定ユニット(IMU)データ(例えば、加速度計、ジャイロスコープなどによって生成される)とカメラ画像データとの融合を使用して追跡されてもよい。一実装形態では、例えば、Qualcomm(登録商標)によって開発された視覚慣性オドメトリ(VIO)技術を使用して、位置および配向を追跡してもよい。
ノードとして追加される現実世界オブジェクトに、またはその近くに到達するとき、およびオブジェクトの方向を向いている(例えば、ARヘルメットもしくはゴーグルを装着している場合)か、または別の方法でオブジェクトにデバイスカメラを向けている(例えば、デバイスがタブレットもしくはスマートフォンである場合)間、ユーザは新しいノードを追加するためのオプションを選択してもよい。例えば、ARモバイルデバイスは、ユーザによって発声されたときに「ノードを追加してください」という音声コマンドを認識してもよく、または(例えば、デバイスがタブレットもしくはスマートフォンである場合)ARモバイルデバイスは、ユーザに「ノードを追加してください」もしくはARモバイルデバイスディスプレイのグラフィックユーザインターフェース(GUI)上の同様のオプション/制御を選択することを可能にし得る。次いで、ARモバイルデバイスは、オブジェクトの画像を捕捉し、画像を処理して、ARモバイルデバイスとオブジェクトとの間の距離を推定してもよい。あるいは、他のセンサ(例えば、ライダ、レーダなど)を使用して、ARモバイルデバイスとオブジェクトとの間の距離を判定してもよい。次いで、ARモバイルデバイスは、ARモバイルデバイスの現在位置および配向、ならびにARモバイルデバイスとオブジェクトとの間の距離に基づいて、ランドマーク位置に対するオブジェクトの位置を判定してもよい。あるいは、リモートサーバまたは他のコンピューティングデバイス/システムは、ARモバイルデバイスによって捕捉された画像データを処理して、ランドマーク位置に対するオブジェクト位置を判定してもよい。
ユーザはまた、新しいノード(例えば、バルブ、ポンプなど)の名前もしくは種類、および/または他の情報(例えば、オブジェクトのモデル番号もしくは他の識別子、オブジェクトの短い記述など)も指定してもよい。次いで、指定された情報は、ARシステムのバックエンドデータベースの新しいノードに関連付けられてもよい。バックエンドデータベースは、ランドマーク位置に対して関連する3D位置を有するユーザ(および場合によっては他のユーザ)によって追加されたノードのライブラリを含み、プロセス制御環境内でオブジェクト/アセットの仮想の3D「マップ」を集合的に確立してもよい。データベースはまた、例えば、関連するかつ/または接続されたノードのリストなどの他のノード情報も記憶してもよい。
特定のプロセス制御環境内の少なくとも1つの関心のあるオブジェクトがマッピングされた後(すなわち、ARモバイルデバイスを使用してノードライブラリに追加された後)に、自身のARモバイルデバイスをランドマーク位置に登録する任意のユーザ(マッピングユーザ(複数可)を含む)は、プロセス制御環境の拡張ツアーを行ってもよい。登録されたARモバイルデバイスを有するユーザが、ARモバイルデバイスのカメラの視野を特定の現実世界オブジェクトを含むエリアに向けて方向付けるときに(例えば、ユーザがARヘルメットまたはゴーグルを着用しながらエリアを見る場合)、およびオブジェクトがすでにノードライブラリ内のノードに関連付けられている場合、ARモバイルデバイスは、ユーザの現実世界ビュー内のオブジェクトの座標に、またはその近くに位置しているかのようにユーザに出現する、ノード「マーカ」(例えば、テキスト、アイコン、グラフィックなど)を用いてユーザによって観察される現実世界シーンを拡張することができる。
ユーザが(例えば、ノードマーカに集中すること、または音声コマンドを発することなどによって)特定のノードを選択した場合、ARモバイルデバイスは、1つ以上の「ノード体験」をユーザに利用可能にし得る。例えば、1つのノード体験は、ユーザの現現実世界ビューにテキスト(ノード名、記述など)、表、および/またはグラフィック/アイコンを重ね合わせてもよい。他のノード体験は、特定のURL(例えば、教示もしくは「ヘルプ」ビデオ)からのウェブコンテンツを重ね合わせてもよく、または、例えば、他のオブジェクト/ノードへの物理的もしくは論理的接続の視覚化および/もしくはそれらとの関係を重ね合わせてもよい。さらに他のノード体験は、オブジェクト/ノードに関連付けられている作業指示を取得すること、遠隔位置にあるユーザと適切な専門家との間の通信リンクを確立することなどを含み得る。いくつかの実装形態では、少なくとも1つのノード体験が、ユーザによって観察されているオブジェクトの特定のコンテキストにおいて、1つ以上の他のソフトウェアアプリケーションまたはシステムを起動(またはそれにリンク)する。例えば、ARモバイルデバイスは、視野内の選択されたオブジェクト/ノード(例えば、フィールドデバイス)のセンサデータ、ステータス、および/または仮想制御を重ね合わせてもよく、データは、異なるアプリケーションから受信される(かつ制御へのユーザ入力は異なるアプリケーションに送信される)。
所与のノードについてユーザに利用可能な体験、特定のノード体験内に提示されるコンテンツの種類、および/またはいくつかの実装形態では、任意の拡張情報が所与のノードについて特定のユーザに利用可能かどうかが、ユーザの「役割」に少なくとも部分的に基づいて判定されてもよい。例えば、特定のユーザは、ARモバイルデバイスを使用して、「オペレータ」役割、「保守者」役割もしくは「技術者」役割を選択してもよく、またはそのような役割に予め割り当てられてもよい。
ユーザに、他の多くの機能も提供され得る。いくつかの実装形態では、例えば、ユーザの現実世界ビューに重ね合わされたときに、あたかもユーザが囲い内(例えば、キャビネット内)に隠されたオブジェクトまたは障壁の背後にあるオブジェクトを見ているかのように出現し得、超現実的または疑似現実的な3Dモデルの視覚化を作成することによって、仮想「X線視覚」をユーザに提供し得る。ARモバイルデバイスはまた、隠されたオブジェクトに関連付けられているステータスデータまたはアラートを視認すること、隠されたオブジェクトの動作を制御する音声コマンドを発することなどの、隠されたオブジェクトに関連付けられている特定のノード体験を用いてユーザに提示してもよい(かつ/またはユーザに選択することを可能にしてもよい)。
別の例として、ARモバイルデバイスは、アクセス制限されたおよび/または遠隔のオブジェクト/ノードの「アバター」をユーザの現実世界ビューに重ね合わせてもよい。オブジェクトは、例えば、高いタワーの頂部、または有毒なもしくは高電圧のエリアなどに存在し得る。隠されたオブジェクトと同様に、ユーザには、アクセス制限されたおよび/または遠隔のオブジェクトとの様々な種類の対話を提供する、特定のノード体験が提供され得る。隠されたオブジェクト(「X線視覚」)とアクセス制限された/遠隔のオブジェクト実装/シナリオとの両方において、ユーザは、オブジェクト/ノードを正面に置くことに非常に類似している、かつユーザがオブジェクトと対話している間にユーザにはっきりと視認可能である全体的な体験を提供され得る。
他の種類の機能もまた、ARプラットフォームによってサポートされ得る。例えば、ユーザの現在の位置は、様々なアラート(例えば、ユーザが危険なエリアにいるという警告)および/または他の情報の表示をトリガしてもよい。別の例として、プロセスプラント内のユーザの現在および/または過去の3D位置は、緊急事態における従業員の避難の確保、従業員が負傷していないか、あるいは医学的支援の必要がないことの確保、または特定の従業員の訓練を監視することなどの、様々な目的のために追跡/記録され得る。
上述されて以下でさらに説明されるARプラットフォームは、特定の実装形態に応じていくつかの利点を提供し得る。例えば、特定のオブジェクトの相対的な3D位置のみをマッピングすることによって、3Dモデルは、従来の手段(例えば、3Dスキャナを使用して環境をマッピングすること)よりも容易かつ効率的に生成されてもよい。同様に、プロセス制御環境内のオブジェクトの更新または再構成は、より迅速かつ容易に実施されてもよい。さらに、本明細書に記載されるマッピングプロセスを使用することによって、かつ本明細書に記載されるようにARモバイルデバイス/ユーザの移動を追跡することによって、ARプラットフォームは、費用および/もしくはレトロフィットの時間を必要とせずに、または別の方法で短距離通信技術(例えば、Bluetoothもしくは近距離通信(NFC)ユニット)を有するオブジェクトを装備することなく、かつ環境をナビゲートするユーザによる時間を要する行為(例えば、オブジェクト上のQRコードのスキャン、オブジェクト識別子の手動データ入力、物理的なオブジェクトへの接続など)を必要とすることなく、いつユーザに拡張情報を提供すべきかを判定することができる。したがって、特にプロセス制御環境におけるARシステムの展開に対する従来の障壁は、軽減または除去され得る。
別の例として、ARプラットフォームは一般に、第三者が、オブジェクト/ノードとの異なるユーザ対話に対応する新しい、カスタマイズされた種類もしくはクラスの「ノード体験」を提案することができ、かつ/または既存のノード体験の新しいコンテンツを提案することができる、マーケットプレースを提供し得る。計装ベンダーまたは他の団体は、例えば、特定のオブジェクトに対する「ヘルプ」情報、またはARもしくはビデオベースの作業命令の購読を提案し得る。いくつかの実施形態では、仮想「アプリストア」により、顧客は様々なアプリケーションのライセンスを取得し、かつ/または顧客のモバイル作業力に望ましい特定の種類のコンテンツを購読することができる。
さらに、不明瞭で、遠隔かつ/またはアクセス制限されたノードに対する拡張情報の表示/視認を容易にする機能は、ユーザの時間(引いては費用)を節約することができ、いくつかの実装形態および/またはシナリオでは、危険なエリアを訪問する必要を回避することによって作業者の安全を向上させることができる。
またさらに、ARプラットフォームアーキテクチャは、柔軟性が高くてもよい。ARプラットフォームは、例えば、スマートヘルメット、スマートゴーグル、スマートフォン、タブレットなどの様々な異なるプラットフォーム上のユーザへの関連情報の表示を容易にし得る。ARプラットフォームはまた、多数の他のソフトウェアアプリケーション(例えば、制御論理を示すデータ、デバイス読み取り値を取得することができるプロセス制御ソフトウェアなど)との対話性、および/または新しい体験、コンテンツ、もしくは簡単に提供されるべき他の機能を容易にし得る。
上述されたように、本明細書に記載される特定の実装形態および/もしくは特徴は、ARシステムで使用される必要はなく、かつ/またはプロセス制御環境で使用される必要はない。例えば、スマートフォン、タブレットまたは他のモバイルデバイスを有するユーザには、プラント内のオブジェクトのマッピングされた3D位置ならびにユーザの現在の位置および配向に基づく「ノード体験」が、AR表示として必ずしも提供される必要なく、(例えば、バーチャルリアリティディスプレイまたは単にGUIを使用して)表現され得る。別の例として、本明細書に記載される技術は、オフィス空間、倉庫、病院などのプロセス制御環境以外の環境に適用されてもよい。
本明細書に記載される様々な方法、技術、機能、および/または特徴をサポートし得るARプラットフォームを提供する例示的な拡張現実(AR)システムを描画するブロック図である。 図1のARシステムが利用され得る例示的なプロセス制御環境の構成要素を描画するブロック図である。 プロセス制御環境における例示的なノードの3次元(3D)マップを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ARプラットフォームで使用され得る例示的なデータベースの要素を描画する。 ARプラットフォームで使用され得る例示的なデータベースの要素を描画する。 ARモバイルデバイスのユーザが仮想X線視覚を提供される例示的な実施形態およびシナリオを描画する。 ユーザと、ユーザから遠くにある、またはそうでなければアクセスすることが困難なオブジェクトとの間の仮想近接を提供するために、ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 ユーザと、ユーザから遠くにある、またはそうでなければアクセスすることが困難なオブジェクトとの間の仮想近接を提供するために、ARモバイルデバイスによって提供される視野の上に重ね合わされ得る例示的なユーザインターフェースを描画する。 モバイルデバイスを使用して現実世界のプロセス制御環境をマッピングするための例示的な方法のフロー図である。 現実世界のプロセス制御環境において、ARモバイルデバイスのユーザに仮想強化視覚を提供するための例示的な方法のフロー図である。 ARモバイルデバイスのユーザと、プロセス制御環境の遠隔またはアクセス制限されたエリアに存在し得る、現実世界オブジェクトとの間の対話を容易にするための例示的な方法のフロー図である。
拡張現実システムの例
図1は、環境(例えば、プロセス制御環境)においてAR体験を提供するためのARプラットフォームを一般に提供し得る拡張現実(AR)システム10の例を描画する。ARシステム10は、ユーザのARモバイルデバイス12と、ネットワーク16を介してARモバイルデバイス12に通信可能に結合され得るバックエンドサーバ14と、を含む。ARモバイルデバイス12は、好適な処理および検知機能を有し、着用可能であるか、または別の方法でユーザが携帯することができる任意のコンピューティングデバイスであってもよい。例えば、ARモバイルデバイス12は、ARヘルメット(例えば、DAQRI(登録商標)によって開発されたSmart Helmet(登録商標))またはARゴーグルなど、AR専用に構成されたデバイスであってもよい。あるいは、ARモバイルデバイス12は、非ARアプリケーション(例えば、タブレット、スマートフォン、スマートグラス、スマートウォッチなど)も有するが、デバイス12をAR機能を有するように構成するソフトウェアアプリケーションを実行するデバイスであってもよい。図1は、1つのARモバイルデバイス12のみを描画しているが、ARモバイルデバイス12と同一またはそれとは異なるより多数のARモバイルデバイスがARシステム10において同様の方法で使用され得ることが理解される。
ARモバイルデバイス12は、一般に、コンテキスト情報(例えば、テキスト、グラフィック、アニメーションなど)でユーザの現実世界ビューを拡張することによって、AR体験をユーザに提供するように構成されている。バックエンドサーバ14は、一般に、ユーザの現実世界ビューが特定の状況においてどのように拡張されるべきかを指定するデータを管理することによって、ARデバイスおよび/またはユーザの現在の状態および/または環境を示すARモバイルデバイスからデータを受信することによって、かつ必要に応じてARモバイルデバイスにデータを提供することによって、ユーザおよび他のARモバイルデバイスのユーザのためのAR体験をサポートする。
ネットワーク16は、1つ以上の無線ネットワーク、および場合によっては1つ以上の有線ネットワークも含む。図1の実施形態の例では、ARシステム10のARプラットフォームは、クラウドベースのアーキテクチャを利用し、ネットワーク16はインターネットを含む。ARシステム10が屋内で利用される場合、ネットワーク16はまた、IEEE802.11または「WiFi」ネットワークなどの遠隔のタワーまたは基地局との、いかなる直接通信をも必要としない無線ネットワークも含み得る。しかしながら、他の実施形態では、ネットワーク16は、セルラーネットワーク(例えば、LTE、GSMなど)を含む。以下でさらに説明されるように、ARシステム10はまた、バックエンドサーバ14および/またはARモバイルデバイス12に通信可能に結合され、1つ以上のアプリケーション19を集合的に記憶および実行する1つ以上の他のサーバ18も含み得る。
図1の例示的な実施形態に見られるように、ARモバイルデバイス12は、ネットワークインターフェース20と、ディスプレイ22と、カメラ24と、慣性測定ユニット(IMU)26と、ARアプリケーション32を記憶するメモリ30と、を含み得る。ネットワークインターフェース20は、ネットワーク16の少なくとも一部分の無線通信プロトコル(例えば、WiFiまたはセルラーネットワーク)を使用して、バックエンドサーバ14を含むリモートコンピューティングデバイスおよびシステムとの通信を可能にするように構成されている。
ディスプレイ22は、任意の好適な種類のデジタル表示技術に従って構成されたハードウェアならびに関連するファームウェアおよび/またはソフトウェアを含み得る。例えば、ディスプレイ22は、液晶ディスプレイ(LCD)技術、発光ダイオード(LED)技術、有機発光ダイオード(OLED)技術などを使用してもよい。ディスプレイ22は、一般に、透明もしくは半透明であってよく、または不透明であってもよい。ディスプレイ22の構造またはフォームファクタ、およびディスプレイが透明/半透明または不透明であるかどうかは、一般に、ARモバイルデバイス12の種類によって異なる。例えば、ARモバイルデバイス12がヘルメットである場合、ディスプレイ22はバイザーの形態を有してもよく、ディスプレイ22によって表示される任意の情報が、ユーザの直接的な現実世界ビュー(すなわち、「ヘッドアップディスプレイ」または「HUD」)に重ね合わされるように、半透明であってもよい。反対に、ARモバイルデバイス12がタブレットまたはスマートフォンである場合、ディスプレイ22は、従来の矩形フォームファクタを有してもよく、現実世界の間接的なビュー(例えば、カメラ24によって捕捉されたものなど)のみを可能にし得る。
カメラ24は、例えば、電荷結合素子(CCD)画像センサなどの任意の好適な種類の光学センサであってもよい。代替の実施形態では、カメラ24は、例えば、光検出および測距(ライダ)センサもしくはレーダセンサなどの異なる種類の撮像デバイスの代わりであるか、またはそれらも含む。IMU26は、3次元でARモバイルデバイス12の移動を示すデータを生成する、1つ以上のセンサ(例えば、加速度計および/またはジャイロスコープ)を含み得る。図1には示されていないが、ARモバイルデバイスはまた、マイクロフォンおよび/またはスピーカなどの他の構成要素を有してもよい。
ARアプリケーション32を記憶するメモリ30は、例えば、ソリッドステートまたはハードドライブ形式の読み出し専用メモリ(ROM)などの任意の好適な種類の永続メモリであってもよい。ARアプリケーション32は、一般に、例えば、ディスプレイ22上に適切な拡張情報を生成し、必要に応じてバックエンドサーバ14と通信することによって、ARモバイルデバイス12のユーザのためのAR体験を調整する。図1は、役割識別モジュール40と、登録モジュール42と、位置決めおよび配向モジュール44と、ノード体験モジュール46と、ノード作成モジュール48と、視覚強化モジュール50と、位置ベースアラートモジュール52と、を含む、ARアプリケーション32によって実施または提供され得る機能または特徴の例に対応するモジュールのセットを描画する。モジュール40〜52の各々は、ARシステム10の動作に関連して以下でさらに説明される。いくつかの実施形態では、ARアプリケーション32は、図1に示されたモジュールよりも少なく、より多く、および/またはそれらとは異なるモジュールを含む。例えば、ARアプリケーション32は、ユーザ音声コマンドを認識するための音声認識モジュールを含み得る。
図1の例示的な実施形態ではまた、バックエンドサーバ14は、ウェブサービスインターフェース60と、体験プロビジョニングユニット62と、3Dモデル生成ユニット64と、視覚強化ユニット66と、アラート生成ユニット68と、ユーザ監視ユニット70と、を含む一般に、ウェブサービスインターフェース60は、バックエンドサーバ14に結合された(またはその内部に含まれる)ARデータベース72にオブジェクト指向のウェブベースインターフェースを提供し得る。いくつかの実施形態では、ウェブサービスインターフェース60は、ARモバイルデバイス12などのリモートデバイスにアプリケーションプログラミングインターフェース(API)を提供する。
ARデータベース72は、一般に、特定の環境の3Dマップを定義する情報を(例えば、ノード識別子、ランドマークに対する3Dマップ内のノードの位置、およびおそらくはノードに関連付けられている他の情報を記憶することによって)記憶し、図5Aおよび図5Bに関連して(ある特定の実施形態により)以下にさらに詳細に説明される。ARデータベース72は、単一のデータベースまたはデータベースの集合であってもよく、単一の物理メモリに記憶されてよく、または1つ以上の地理的位置にある複数のメモリにわたって分散されてもよい。要素/ユニット60〜70のうちの1つ、いくつか、または全ては、永続メモリ(例えば、ROM)に記憶されたソフトウェア命令として実装されてもよい。他の実施形態では、バックエンドサーバ14は、図1に示されているものよりも少ない、より多い、および/またはそれらとは異なる要素/ユニットを含む。
動作中、ARモバイルデバイス12を着用しているか、または別の方法で携帯しているユーザは、ARモバイルデバイス12にARアプリケーション32を起動させてもよい。ARアプリケーション32は、例えば、ディスプレイ22上のアイコンを手動で選択すること、音声コマンドを発すること、または単にARモバイルデバイス12を電源投入することによって起動されてもよい。
いくつかの実施形態では、ARアプリケーション32の役割識別モジュール40は、最初に(例えば、起動時に)、ユーザのジョブ位置に対応し得る、かつ/または特定のタスク(複数可)もしくはユーザが、例えば、ARシステム10を使用することによって達成しようとしているタスクに対応し得る特定の「役割」を示すように促す。他の実施形態では、ユーザは、後の時点で(例えば、以下に記載されるようにランドマークに登録した後に)、自身の役割を示すように最初に促される。役割識別モジュール40が、ディスプレイ22上にまたはディスプレイ22を通じて(例えば、カメラ24によって捕捉された画像フレームの上で、またはユーザの直接的な現実世界ビューの上で)見られる現実世界ビューに重ね合わせることができるユーザインターフェースの一例が、図4Aに関連して以下に説明される。代替の実施形態では、役割識別モジュール40は、役割を選択するようにユーザに促すのではなく、代わりに、ユーザによって入力または発声されるARモバイルデバイス12の識別子および/または識別情報(例えば、名前、従業員番号など)に基づいて、ユーザの事前に割り当てられた役割を判定する。
選択されるかまたは割り当てられたユーザ役割は、以下でさらに説明されるように、ユーザに提供されるAR体験の様々な側面を調整することができる。実施形態に応じて、ユーザ役割は、選択されるかもしくは割り当てられたときに固定されてもよく、またはユーザが環境を通って移動するときにユーザによってその場で変更されてもよい。いくつかの実施形態では、役割識別モジュール40は、ARアプリケーション32に含まれず、ARシステム10内でユーザ役割が選択されないかまたは割り当てられない。
環境をマッピングする前に、または以前にマッピングされた環境を更新もしくは探索する前に、いくつかの実施形態では、ユーザは、その位置が、次いで将来のARモバイルデバイス12(および同等に、ユーザ)の移動のために基準点として使用される「ランドマーク」にARモバイルデバイス12を登録する必要があり得る。同じランドマーク位置はまた、3Dマップのノードとしてすでに確立されている(または確立されることになる)環境内の任意のオブジェクトの位置の基準点としても使用され、それによって、任意のマッピングされたオブジェクトに対するARモバイルデバイス12の位置の判定を可能にする。ランドマーク位置は、例えば、{x、y、z}座標系の{0、0、0}を表現してもよく、または他の座標系(例えば、極座標)が使用されてもよい。
ARモバイルデバイス12を登録するために、登録モジュール42は、カメラ24によって捕捉された1つ以上の画像/フレームを処理してもよい。ランドマークは、例えば、QRコード、またはランドマーク位置に物理的に印刷された任意の他の好適な種類の画像またはテキスト(例えば、プロセス制御プラント内のエリアの入口近くの壁または扉)であってもよい。いくつかの実施形態では、登録モジュール42またはARアプリケーション32の別の部分は、(例えば、図4Eに関連して以下で説明されるように)ユーザに提供された現実世界ビュー内にレチクルを重ね合わせて、ユーザがQRコード、画像などに集中するのを支援することができる。いくつかの実施形態では、ARモバイルデバイス12の補完的なBluetoothまたはNFC通信ユニット、およびランドマーク位置に固定された別のデバイスなどの、ランドマークを認識するために異なる技術が使用されてもよい。
いくつかの実施形態では、ユーザがARモバイルデバイス24を特定のランドマークに登録するときに、登録モジュール42は、ランドマークの識別子を示すデータを、(例えば、QRコードのバイナリ表現を送信すること、または画像を復号する前にQRコードの画像を送信することによって)ネットワーク16およびウェブサービスインターフェース60を介してバックエンドサーバ14に転送する。次いで、バックエンドサーバ14は、ランドマーク識別子を、ARデータベース72に記憶されているランドマーク識別子(存在する場合)と比較してもよい。識別子がまだ記憶されていない場合、バックエンドサーバ14は、ウェブサービスインターフェース60およびネットワーク16を介して登録モジュールに障害メッセージを返してもよく、またはいくつかの実施形態では、ARデータベースに、新しいランドマーク識別子入力を新しい3Dマップに関連付けて作成させてもよい。反対に、ランドマーク識別子がARデータベース72にすでに存在する場合、バックエンドサーバ14は、対応する3Dマップ(および関連するデータ)のいくつかまたは全てをARモバイルデバイス12に利用可能にし、登録の成功を示すメッセージをウェブサービスインターフェース60およびネットワーク16を介して登録モジュール42に返してもよい。
ARデータベース72は、各々が異なる3Dマップに関連付けられている多数の異なるランドマーク識別子を記憶してもよく、各マップは、異なるノードのライブラリに関連付けられている。複数のマップは、(例えば、単一の環境内の異なるオブジェクトを異なるマップのノードとして追加することによって)同じ環境に関連付けられてもよく、かつ/または異なるマップは、異なる環境に関連付けられてもよい(例えば、プロセス制御プラントの第1のエリアのマップ、プラントの第2のエリアの別のマップなど)。
いくつかの実施形態では、ランドマークにARモバイルデバイス12をうまく登録することは、位置決めおよび配向モジュール44に、ARモバイルデバイス12の位置をランドマーク位置(例えば、{0、0、0})に等しく設定させる。しかしながら、精度を高めるために、登録モジュール42は、深度検知技術を使用して、カメラ24によって捕捉されたランドマークの画像を処理して、ARモバイルデバイス12とランドマークとの間の距離を判定してもよい。次いで、位置決めおよび配向モジュール44は、ランドマークからの判定された距離とランドマークに対するARモバイルデバイス12の配向との両方に基づいて、ARモバイルデバイス12の開始位置をランドマークの既知/基準位置からオフセットしてもよい。ランドマークがQRコードまたは他の視覚的識別子である場合、ARモバイルデバイス12の相対的な配向は、ランドマークが向いている方向に基づいて仮定されてもよい。あるいは、相対的な配向は、(例えば、ランドマークなどに対するカメラビューの入射角を判定することによって)捕捉された画像から判定されてもよい。
登録されると、ARモバイルデバイス12のユーザは、デジタルテキスト、表、グラフィック、アニメーション、および/またはランドマークに対応する3Dマップに関連付けられている他の種類の情報によって、一般に拡張される、(ディスプレイ22を介して提供される)現実世界ビューを用いて、環境を通る移動を開始してもよい。ユーザ(すなわち、ARモバイルデバイス12)の位置および配向を追跡するために、位置決めおよび配向モジュール44は、IMU26、カメラ24、および/または図1には示されていないARモバイルデバイス12の1つ以上の他のセンサにアクセスしてもよい。いくつかの実施形態では、位置決めおよび配向モジュール44は、集合したセンサデータを使用して、GPS、GNSS、WiFi測位(例えば、三辺測量)、またはARモバイルデバイス12と他のデバイスもしくはシステムとの間の通信リンクを必要とする任意の他の測位技術に依存することなく、位置および配向を判定する。「位置(Position)」または「位置(location)」は、3D座標系(例えば、デカルトまたは極座標)における特定の座標セットを指してもよく、「配向」は、特定の方向(例えば、360度水平/方位角範囲、および高度または標高)を指してもよい。いくつかの実施形態では、「配向」はさらに、デバイス12が向いている方向とは無関係に、ARモバイルデバイス12の傾斜を指すことができる。相対位置のみが追跡される(例えば、「推測航法」の意味において)ため、位置決めおよび配向モジュール44は、登録が行われたランドマークの位置に対するARモバイルデバイス/ユーザ位置を判定する。
いくつかの実施形態では、位置決めおよび配向モジュール44は、少なくともカメラ24およびIMU26からのデータの融合を処理して、単独で使用されるときに、センサのいずれかの種類に関連付けられている欠陥を克服するのに役立つ。例えば、位置決めおよび配向モジュール44は、Qualcomm(登録商標)によって開発された視覚慣性測定法(VIO)技術を利用して、ARモバイルデバイス12の位置および配向を追跡してもよい。そのような技術は、精度を向上させ、判定された位置における「ドリフト」を低減し、かつ/または他の利点を有するのに役立ち得る。
ARモバイルデバイス12自体に対するカメラ24の位置および配向が既知であるため、ARアプリケーション32は、位置決めおよび配向モジュール44によって判定された任意の所与の位置および配向について、ARモバイルデバイス12の視野(いくつかの実施形態ではまた、ユーザの現実世界ビューに対応し得る)を判定することができる。判定された位置および配向に基づいて、ARデータベース72に記憶されたノード位置を3Dマップに使用し、したがって、ARアプリケーション32は、マッピングされたどのオブジェクトが任意の所与の時間に視野内にあるかを判定してもよい。いくつかの実施形態では、オブジェクトがカメラセンサの水平および垂直の範囲/程度にある場合(例えば、特定の方位角および垂直/高度/仰角内にある場合)、オブジェクトと画像を捕捉するARモバイルデバイスとの間の距離に関係なく、オブジェクトが環境内の障害物によって偶然遮断されたかどうかを問わず、オブジェクトは、カメラの「視野内にある」とみなすことができる。例えば、カメラ24の直接的および間接的に前にあるオブジェクトは、たとえオブジェクトが囲い、障壁、他のオブジェクトなどによって遮蔽されたとしても、カメラ24の「視野内」とみなすことができる。他の実施形態では、オブジェクトは、オブジェクトが不明瞭でない場合、すなわちカメラがオブジェクトの画像を捕捉することができる間に、カメラの「視野内にある」としかみなされない。
マッピングされたオブジェクトの位置を判定するために、ARアプリケーション32は、ネットワーク16およびウェブサービスインターフェース60を介してARデータベース内のノード位置に定期的にアクセスしてもよい。例えば、ARアプリケーション32は、バックエンドサーバ14がARモバイルデバイス12の閾値距離内(および/またはデバイス12の視野内など)のノードの位置データを提供することを定期的に要求してもよく、要求は、ARモバイルデバイス12の現在の位置(および/または配向)を示す。あるいは、ARアプリケーション32は、バックエンドサーバ14が、例えば登録時に登録のために使用されたランドマークに関連付けられている3Dマップについての全てのノード位置(および場合によっては、ノード記述などの他の情報)を送信するように要求してもよい。さらに他の実施形態では、バックエンドサーバ14は、ARモバイルデバイス12がランドマークにうまく登録するときに、関連する全てのノード位置を自動的に送信してもよい。
ARアプリケーション32は、拡張がユーザの現在の視野内のマッピングされたオブジェクト/ノードのうちの1つ、2つ以上に提供されるべきであるか、またはいずれにも提供されるべきではないと判定してもよい。この判定を行うために、ノード体験モジュール46は、1つ以上の基準を適用してもよい。いくつかの実施形態では、例えば、ノード体験モジュール46は、オブジェクトとユーザとの間の距離を問わず、かつオブジェクトが任意の障害物によってユーザのビューから遮蔽されるかどうかを問わず、ユーザの現在の視野内の全てのマッピングされたオブジェクトに対して拡張が提供されるべきであることを判定してもよい。あるいは、ノード体験モジュール46は、視野内にあるが、(例えば、位置決めおよび配向モジュール44によって、ARデータベース72に記憶された対応するノード位置から判定された現在のユーザ位置から判定されるような)ユーザから離れた閾値距離よりも大きいマッピングされたオブジェクトに対して、拡張が提供されるべきでないことを判定してもよい。
ノード体験モジュール46はまた、または代わりに、ARモバイルデバイス12の視野内にあるが視界から遮断されたマッピングされたオブジェクトに対して、拡張が提供されるべきでないことを判定してもよい。マッピングされたオブジェクトが不明瞭であるかどうかは、実施形態に応じて異なる方法で判定されてもよい。例えば、ARデータベース72内のフィールドは、特定のノードが一般に不明瞭なオブジェクトに対応するかどうかを示してもよい。例えば、キャビネット内に囲まれた構成要素の場合、対応するノードは、構成要素とキャビネットとの間の関係を示すフィールドを有する。他の実施形態では、ARアプリケーション32および/またはバックエンドサーバ14は、ノード構成、ノード種類、および/またはノードサイズのより複雑な分析を実施して、ユーザの現在の視点から、特定のマッピングされたオブジェクトがおそらく視認可能であるだろうということを判定してもよい。
いくつかの実施形態では、ユーザの感覚過負荷の危険性を低減するために、ユーザが(ARモバイルデバイス12を単純に移動および/または再配向することを超えて)特定のアクションをとらない限り、拡張はいくつかの特定の種類のマッピングされたオブジェクトに提供されない。例えば、ノード体験モジュール46は、ユーザがキャビネットのアイコンまたは他のグラフィック表現を選択すること、および/またはキャビネットの内容物を見せるオプションを選択することなどを行わない限り、異なるマッピングされたオブジェクトに各々対応する、キャビネット内の比較的小さい構成要素の多くに対して拡張を提供しなくてもよい。
さらに、いくつかの実施形態では、ノード体験モジュール46は、役割識別モジュール40によって判定されるように、ユーザの役割に基づいて、ユーザの視野内の特定のマッピングされたオブジェクトに対して拡張が提供されるべきかどうかを判定してもよい。したがって、ノード体験モジュール46は、特にランドマークと選択されるかまたは割り当てられた役割との両方に関連付けられているノードについて、ウェブサービスインターフェース60に照会することができる。プロセス制御環境では、例えば、電源スイッチは、「保守者」役割を有するユーザに対して拡張されてもよいが、「オペレータ」役割を有するユーザに対して拡張されなくてもよい。
拡張されるべきオブジェクトについて、ノード体験モジュール46は、あたかもユーザの現実世界ビューにおけるオブジェクトの座標に(またはその近くに)位置しているかのように、ユーザに出現するディスプレイ22のエリアに、テキスト(例えば、デバイス識別子、ステータスおよび/もしくは記述)ならびに/またはアイコンもしくは他のグラフィックなどのノード「マーカ」を最初に重ね合わせてもよい。マーカは、例えば、ディスプレイ22上にレンダリングされた線によって現実世界ビュー内のマッピングされたオブジェクトに接続されているように出現してもよい。他の実施形態では、マーカは、オブジェクトの上にレンダリングされた円もしくは他の形状、オブジェクトを大まかに囲む長方形の輪郭、またはいくつかの他の種類のインジケータである。
ユーザが(例えば、ノードマーカ上に仮想レチクルを集中させることによって、または音声コマンドを発することなどによって)特定のノードを選択した場合、ノード体験モジュール46は、ユーザに1つ以上の「ノード体験」を利用可能にしてもよい。マッピングされた環境を通って移動する適切に装備されたユーザのより一般的な「AR体験」とは対照的に、「ノード体験」は、オブジェクト/ノードとの特定の種類(複数可)のユーザ対話を指す。ノード体験モジュール46は、例えば、現実世界ビューにメニューもしくは他の対話型ディスプレイを重ね合わせることによって、かつ/またはユーザからの音声コマンドを認識するように構成されることによって、特定のノード体験を選択するオプションをユーザに提供してもよい。ユーザは、ノードマーカを選択すること(例えば、オプション上の仮想レチクルの集中、音声コマンドなど)と同様の方法で、または別の好適な方法で、メニューオプションを選択してもよい。
特定のノード体験が選択されると、ノード体験モジュール46は、その選択をネットワーク16を介してウェブサービスインターフェース60に転送してもよい。それに応答して、体験プロビジョニングユニット62は、ARデータベース72(および/またはサーバ(複数可)18などの他の位置)から、選択されたノードおよび選択された体験に関連付けられているデータ(例えば、テキスト、グラフィックなど)を取得し、取得されたデータをウェブサービスインターフェース60を介してARモバイルデバイス12に送り返して、ノード体験モジュール46がそれに応じてユーザの現実世界ビューを拡張することを可能にしてもよい。
ノード体験は、比較的単純であっても複雑であってよい。ノードマーカ自体は、例えば、デフォルトの「ノード体験」とみなすことができる。他の例として、ノード体験モジュール46は、他のテキストおよび/またはテーブル(すなわち、対応するオブジェクトに関連付けられている情報)を、ユーザの現実世界ビューに(ディスプレイ22を介して)、オブジェクトの単純なグラフィックまたはアイコン、オブジェクトの超現実的または擬似現実的な3Dモデル、オブジェクトの画像、オブジェクトを含むアニメーション(例えば、オブジェクトの回転する3Dモデル)などを重ね合わせてもよい。
ノード体験はまた、または代わりに、他の種類の対話性を含み得る。例えば、ノード体験モジュール46は、環境内(例えば、特定のプロセス制御ルーチン内)のオブジェクトおよび/またはその動作に関するチュートリアルを提供するビデオに、オブジェクトを含む作業指示に、または遠隔の専門家に、リンク(例えば、URL)を重ね合わせてもよい。あるいは、またはそれに加えて、ユーザは、これらのノード体験のいくつかまたは全てについて音声コマンドを発してもよい。ビデオもしくは作業指示などのコンテンツが選択されるか、または呼び出される実施形態では、ノード体験モジュール46は、コンテンツをユーザの現実世界ビューに重ね合わせてもよい。遠隔の専門家もしくは他の人物が選択されるか、または呼び出された場合、ノード体験モジュール46は、ネットワークインターフェース20または別の好適なネットワークインターフェースに(例えばネットワーク16を介して)人物との通信リンクを確立させることを可能にしてもよく、いくつかの実施形態では、通信が終了するまで、人物の静止画像またはビデオを重ね合わせてもよい。
他のノード体験は、選択されたオブジェクト/ノードと他のオブジェクト/ノードとの間の特定の種類の関係を列挙し、かつ/または図形的に描画してもよい。例えば、1つのノード体験の場合、ノード体験モジュール46は、選択されたオブジェクト/ノード(例えば、親および/または子オブジェクト/ノード)に関連するオブジェクト/ノードのリストを、ユーザの現実世界ビューに重ね合わせ得てもよい。「関係」は、任意の所望の方法で定義されてもよく、新しいノードを追加するときにユーザによって手動で設定されてもよく、または別の好適な方法で設定されてよい。例えば、いくつかの関係は、オブジェクトが別のオブジェクトの構成要素であるかどうか、および/またはそれ自体が多数の構成要素を含むかどうかを参照してもよい。バルブは、例えば、バルブの構成要素に各々対応するノードのグループの親であるノードに対応し得る。
ノード体験モジュール46は、ウェブサービスインターフェース60を介して体験プロビジョニングユニット62に照会することによって関係を判定してもよく、体験プロビジョニングユニット62が、ARデータベース72から関連するノードの識別子を取得し、それらのノードの指示をノード体験モジュール46に提供する。デフォルトでは、(例えば、ノードまたは特定のオプションがユーザによって特に選択されない限り)個々のバルブ構成要素の全てについてノードマーカおよび/またはノード体験を示さないことによって、ユーザは圧倒的な量の視覚的情報を一度に受信することから免れることができる。
いくつかの種類の関係は、グラフィカルにユーザに描画されてもよい。例えば、ノード体験モジュール46は、選択されたノードに対応するオブジェクトと、他のノードに対応する1つ以上の他のオブジェクトとの間の物理的または論理的接続のグラフィカルな描画を提供してもよい。ノード体験モジュール46は、ウェブサービスインターフェース60を介して体験プロビジョニングユニット62に照会することによって接続を判定してもよく、体験プロビジョニングユニット62は、ARデータベース72から接続されたノードの識別子を取得し、それらのノードの指示をノード体験モジュール46に提供する。次いで、ノード体験モジュール46は、適切なオブジェクトに接続された線を描画する表示を生成し、その線をユーザの現実世界ビューに重ね合わせてもよい。そのようなノード体験の一例が、以下に説明される図4Hに提供される。
示された接続および/または他の関係もまた、ユーザの選択されるかまたは割り当てられた役割に基づいて変化し得る。プロセス制御環境では、例えば、「オペレータ」は、センサ/送信機デバイスからタンクへの線を示されてもよく、線は、センサ/送信機がタンク内の圧力を測定することを示す。反対に、「技術者」は、その代わりに(またはそれに加えて)、センサ/送信機からセンサ送信を受信する別のデバイスへの線を示されてもよく、「保守者」は、その代わりに(またはそれに加えて)、(例えば、保守者がデバイスの保守、修理または交換を行う前に、電源を遮断する箇所を容易に見つけることができるように)センサ/送信機からデバイスの電源への線を示されてもよい。
いくつかの実施形態では、体験プロビジョニングユニット62は、1つ以上のノード体験を提供するために、他のサーバ18(複数可)および/またはアプリケーション(複数可)19からのデータおよび/または機能を利用し、かつ/または1つ以上のアプリケーション(複数可)19は、体験プロビジョニングユニット62から送信されたデータに応答して起動され得る。このような実施形態のいくつかの例は、プロセス制御環境において、図2に関連して以下で説明される。
上述されたように、ノード体験モジュール46は、ユーザの選択されるかまたは割り当てられた役割(例えば、オペレータ、保守者など)に基づいて、特定のマッピングされたオブジェクトのユーザの現実世界ビューを拡張するかどうかを判定してもよい。それに加えて、またはその代わりに、ノード体験の種類、および/または特定の体験によって提供されるコンテンツまたは対話性は、ユーザの役割に基づいて変化し得る。例えば、「保守者」の役割を有し、自身の現実世界ビューでポンプを有するユーザには、ポンプの予定された保守リマインダを示すノード体験が提示されてもよい一方で、「オペレータ」または「技術者」の役割を有するユーザには、代わりに、プロセス制御ルーチン内のポンプの論理的接続に関する情報が提示されてもよい。予定された保守が遅れた場合、保守者にアラートが示されてもよい一方で、オペレータまたは技術者は、他のシナリオで(例えば、ポンプに障害が発生した場合など)、アラートのみが示されてもよい。
ノード作成モジュール48は、ARモバイルデバイス12を登録するために使用されるランドマークに対応する3Dマップ内の新しいノードの追加をサポートする。いくつかの実施形態では、任意のユーザは、新しいノードを3Dマップに追加することができる。他の実施形態では、特定のユーザ役割のみ、および/または特定のARデバイスのみが、新しいノードを追加するために使用され得る。新しいノードを追加するために、ユーザは、ARモバイルデバイス12の視野(例えば、視野内の中心に位置するレチクル)をマッピングされるべき現実世界オブジェクトに方向付け、新しいノードとしてオブジェクト追加するオプションを選択してもよい。
これは、実施形態に応じて、異なる方法で達成され得る。例えば、ユーザは、重ね合わされたメニュー項目(例えば、仮想「ノードの追加」ボタン)を選択し、または音声コマンドを発してもよく、それに応答して、ノード作成モジュール48は、レチクルをユーザの現実世界ビューに重ね合わせてもよい。オブジェクトにレチクルを向けている間、ユーザは別の制御(例えば、仮想「確認」ボタン)を起動するか、または第2の音声コマンドを発してもよい。それに応答して、ノード作成モジュール48は、オブジェクトの位置を判定し、ノード名および/または記述を入力するようにユーザに促してもよい。次いで、ノード作成モジュール48は、位置、入力されるかまたは発声された名前などをネットワーク16を介してウェブサービスインターフェース60に送信してもよく、3Dモデル生成ユニット64は、少なくとも位置およびノード識別子(例えば、ユーザによって入力されるかまたは発声されたノード名)をARデータベース72に追加してもよい。
マッピングされているオブジェクトの位置を判定するために、ノード作成モジュール48は、ARモバイルデバイス12の(位置決めおよび配向モジュール44によって判定された)現在の位置を利用し、ARモバイルデバイス12とオブジェクトとの間の距離と、ARモバイルデバイス12の配向との両方に基づいて、その位置をオフセットしてもよい。これは、上述されたように、ランドマークに登録するときに、ARモバイルデバイス12の初期3D位置を判定するのと同様の方法で達成され得る。例えば、ノード作成モジュール48は、ARモバイルデバイス12とオブジェクトとの間の距離を判定するために、深度検知技術を使用して、カメラ24によって捕捉されたオブジェクトの画像を処理してもよい。次いで、位置決めおよび配向モジュール44は、ARモバイルデバイス12の判定された距離および配向(例えば、オブジェクトの画像が捕捉されたときに、ARモバイルデバイス12の視野が向いていた距離および方向)の両方に基づいて、ARモバイルデバイス12の位置からオブジェクトの位置をオフセットしてもよい。
いくつかの実施形態では、ノード作成モジュール48はまた、既存のノードを更新/修正するために使用されてもよい。例えば、ノード体験モジュール46によって提供されるメニューは、ノード情報を更新するためのオプションを含み得る。選択された場合、ノード作成モジュール48は、ユーザにノードに関する情報(例えば、ノード名、ノード記述など)を変更することを可能にするために、ユーザの現実世界ビューに1つ以上のメニューまたは他のユーザインターフェースを重ね合わせてもよい。任意の変更がネットワーク16を介してウェブサービスインターフェース60に送信されてもよく、3Dモデル生成ユニット64は、それに応じてARデータベース72を更新してもよい。
いくつかの実施形態では、ARアプリケーション32は、上述された拡張機能を超えて、ユーザの仮想視覚を強化するようにARモバイルデバイス12を構成する。例えば、特定の種類のノードの場合、視覚強化モジュール50は、マッピングされたオブジェクトが、(例えば、ノード体験モジュール46について上述されたように)ユーザの現在の視野によって捕捉されたが、1つ以上の他のオブジェクトによって不明瞭であるエリア内にいつ存在するかを判定し、ユーザに仮想「X線視覚」を提供してもよい。仮想X線視覚は、1つ以上の他の基準が確立されている場合(例えば、視覚強化モジュール50が、隠されたオブジェクト(複数可)がARモバイルデバイス12の閾値距離内にあると判定した場合)にのみ提供されてもよく、または任意の他の基準を問わず提供されてもよい。
このような実施形態の1つでは、ARデータベース72は、ノード入力のうちの少なくともいくつかの各々について、ノードが任意のユーザのビューから隠されている可能性があることを示すフラグまたは他の可視性インジケータを含む。この可視性インジケータは、(例えば、3Dモデル生成ユニット64が、ノードに対応するオブジェクトがキャビネット内に位置決めされていることを知るために制御システムにアクセスする場合)オブジェクトの既知の関係に基づいて自動的に生成されてもよく、(例えば、ノードを追加するときに、ノード作成モジュール48がユーザの現実世界ビューに重ね合わせるユーザインターフェースを介して)ユーザによって手動で設定されてもよい。特定のマッピングされたオブジェクトがユーザの視野内にあるときに、視覚強化モジュール50は、ネットワーク16およびウェブサービスインターフェース60を介して、バックエンドサーバ14の視覚強化ユニット66に照会してもよく、視覚強化ユニット66は、次に、ARデータベース72にアクセスして、関連する可視性インジケータを取得してもよい。次いで、視覚強化ユニット66は、ウェブサービスインターフェース60を使用して、可視性インジケータ、またはそのオブジェクトが不明瞭であるかどうかを示す他のデータを視覚強化モジュール50に送信してもよい。
あるいは、視覚強化モジュール50および/または視覚強化ユニット66は、他の方法で可視性判定を行ってもよい。例えば、特定のマッピングされたオブジェクトまたはオブジェクトのセットは、モデル番号、QRコード、または他の視覚的インジケータでマークされたキャビネット内にあってもよい。視覚強化モジュール50は、カメラ24によって捕捉された視覚的インジケータの画像を処理して、キャビネットの識別子(例えば、ノード識別子)を判定し、その識別子をウェブサービスインターフェース60を介して視覚強化ユニット66に送信してもよい。次いで、視覚強化ユニット66は、識別子を使用して、マッピングされたどのオブジェクト(例えば、フィールドデバイス、I/Oカードなど)がキャビネット内にあるかを判定し、キャビネット内にあるオブジェクトが不明瞭であることを示すデータを送り返してもよい。
所与のオブジェクトに対する仮想X線視覚の効果を提供するために、視覚強化モジュール50は、オブジェクトの超現実的または擬似現実的な2Dもしくは3Dモデル、またはオブジェクトのデジタル画像もしくはビデオを取得し、そのモデル、画像、またはビデオをユーザの視野でオブジェクトの上(またはオブジェクトの近く)に重ね合わせてもよい。デフォルト、または2Dもしくは3Dモデルまたは音声コマンドなどのユーザ選択に応答することのいずれかで、ノード体験モジュール46はまた、上述されたように、視覚的メニューオプションまたは音声コマンド認識も提供して、ユーザがノードに対する様々な体験を選択することを可能にし得る。したがって、ユーザは、現実世界オブジェクトが自身の視野に直接存在する間に、現実世界オブジェクトと対話するのと非常によく似ているように出現し、「感じる」ような方法で、隠されたオブジェクトと対話することができる。
視覚強化モジュール50はまた、または代わりに、他の方法でユーザの仮想視覚を強化してもよい。例えば、オブジェクトがアクセス制限されたおよび/もしくは危険なエリア(例えば、非常に高い位置、バリケードされた位置、高電圧または有毒エリアなど)にある場合、ならびに/またはユーザから遠く離れている場合、視覚強化モジュール50は、ユーザがオブジェクトを自身の視野に表現する「アバター」を取得することを可能にし得る。アバターは、X線視覚の例について上述された2Dまたは3Dモデル、画像、ビデオなどと同じであってもよく、またはいくつかの点で異なっていてもよい。実際に、いくつかの実施形態では、仮想X線視覚は、現実世界オブジェクトのアバターを呼び出すための複数のユースケースのうちの1つに過ぎない。
アバターは、実施形態および/またはシナリオに応じて、異なる方法で呼び出されてもよい。いくつかの実施形態では、視覚強化モジュール50は、まず視覚的インジケータがユーザの現実世界ビューに対して対応するオブジェクトの位置のいくつかの指示を与える特定の基準が満たされる場合に、視覚的インジケータをユーザの現実世界ビューに重ね合わせる。例えば、視覚的インジケータは、(1)ARモバイルデバイス12がオブジェクトのいくつかの閾値距離内にある場合、および(2)ノードがアクセス制限されたオブジェクトとしてフラグが立てられている場合の両方において提示されてもよい。ARデータベース72は、例えば、(例えば、ノードがユーザによって追加されたときの手動のユーザ入力に基づいて)そのような状態を示すデータを記憶してもよく、またはステータスは、(例えば、視覚強化ユニット66が、オブジェクトがバックエンドサーバ14が「危険」領域としてフラグを立てた領域にあることを判定する場合、または視覚強化モジュール50もしくは視覚強化ユニット66が、オブジェクトの位置が少なくともz方向のARモバイルデバイス12からの閾値距離であり、したがって非常に異なる仰角であることを判定する場合など)推論されてもよい。視覚的インジケータは、オブジェクトの方向で指し示す矢印、オブジェクトに通じる線、またはいくつかの他の位置の指示を含み得る。視覚的インジケータの一例が、図7Aに関連して以下で説明される。ユーザがインジケータを選択するか、または別の好適なアクションをとる場合(例えば、いくつかの実施形態では、ユーザがオブジェクトを含めるように自身の視界を変える場合)に、視覚強化モジュール50は、アバターをユーザの現実世界ビューに重ね合わせてもよい。
他の実施形態では、オブジェクトの位置のインジケータは、アバター自体(例えば、アバターの上または近くにあるオブジェクト位置への矢印/ポインタを有する)を含む。さらに他の実施形態および/またはシナリオでは、視覚強化モジュール50は、オブジェクトの位置の任意の視覚的インジケータを提示することなく、ユーザの視野にアバターを重ね合わせる。例えば、視覚強化モジュール50は、ユーザが対応するオブジェクトを要求することもしくは検索することに応答して(例えば、音声コマンドを発するか、もしくは手動でデータを入力することによって)、またはユーザが比較的遠く(例えば、いくつかの閾値距離を超えて離れている)のオブジェクトについてノードマーカを選択したことなどに応答して、アバターをユーザに提示してもよい。そのような一実施形態では、アバターは、即座にフルサイズで出現しない。例えば、視覚強化モジュール50は、アバターがオブジェクト位置から(例えば、ユーザの前方から離れて)ユーザのちょうど前の位置に移動するかのように、アバターがユーザに出現する視覚的効果を作成してもよい。アバターは、例えば、ユーザにより近い描画効果をシミュレートするためにサイズが拡大されてもよい。
ノード体験モジュール46は、(オブジェクトのアバターを示すことに加えて)ユーザに対するオブジェクトに特定のノード体験を自動的に提供してもよく、かつ/またはユーザがアバターが最初に提示された後に、(例えば、音声コマンドを発すること、またはメニューオプションを選択することによって)1つ以上のノード体験を選択することを可能にしてもよい。例えば、上述されたノード体験のうちのいずれか1つ以上が提供され得る。アバターに関連付けられ得る体験の一例が、図7Bに関連して以下で説明される。
いくつかの実施形態では、ARアプリケーション32は、ユーザの現在位置に基づいて、かつ/または特定のエリア(例えば、警告に関連付けられているプロセスプラントの特定の領域)における現在の状況に基づいてアラートを生成するように、ARモバイルデバイス12を構成する。アラート生成ユニット68は、例えば、(例えば、ウェブサービスインターフェース60を介して)位置決めおよび配向モジュール44によって報告された位置を1つ以上の地理的に隔離されたエリアの境界と比較することによって、ARモバイルデバイス12の現在の位置がアラートまたは警告を受けるエリアにあるかどうかを定期的にまたは継続的に判定してもよい。ユーザ/デバイスがアラートに関連付けられているエリアにある場合、アラート生成ユニット68は、ウェブサービスインターフェース60を介してアラートのインジケータを位置ベースアラートモジュール52に送信してもよく、位置ベースアラートモジュール52は、ユーザの現実世界ビュー上のアラート(例えば、テキストおよび/またはグラフィック)の指示を重ね合わせ、いくつかの他の視覚的効果(例えば、現実世界ビュー全体を包含する点滅する赤い光または色合い)を引き起こし、かつ/またはユーザに(図1には示されていないが、ARモバイルデバイス12のスピーカを介して)音声アラートを提供してもよい。あるいは、またはそれに加えて、アラート生成ユニット68は、ARモバイルデバイス12の近接度に基づくアラートインジケータを特定のマッピングされたオブジェクトに送信してもよい(例えば、オブジェクトが誤動作しており、保守が必要な場合、またはオブジェクトを避けるべき場合など)。アラート生成ユニット68はまた、ユーザの選択されるかまたは割り当てられた役割に関するアラートの配信を条件付けてもよい。
いくつかの実施形態では、バックエンドサーバ14は、マッピングされた環境内のARモバイルデバイス(したがって、ユーザ)の3D位置を監視してもよい。この目的のために、ユーザ監視ユニット70は、ウェブサービスインターフェース60を介して位置決めおよび配向モジュール44から受信したデータに基づいて、自身のARモバイルデバイスをランドマークに登録したユーザの現在および/または過去の位置を記録してもよい。
ユーザ位置監視は、実施形態および/または必要性に応じて、様々な目的のために使用されてもよい。例えば、ユーザ監視ユニット70は、バックエンドサーバ14に結合された(かつ図1には示されていない)ディスプレイまたは端末上のユーザの位置を描画してもよく、ディスプレイまたは端末のオペレータは、緊急の事象にある従業員の位置を説明し、より一般的な条件で単にユーザを監視して、従業員が医療援助を必要としているかどうかを判定してもよい。従業員の健康状態はまた、(例えば、脈拍、血圧、温度などを検出するために)ARモバイルデバイス12の1つ以上のセンサによって収集されたバイオメトリックデータなどの他のデータを使用して監視されてもよい。さらなる例として、従業員/ユーザ位置が従業員のトレーニングログに追加され、管理者または人事担当者によって手順の遵守状況などを監視するために使用されてもよい。さらに他の実施形態および/またはシナリオでは、マッピングされた環境内で特定の非人為的モバイルアセットの3D位置が追跡されてもよい。例えば、バックエンドサーバ14のユニットは、様々な目的のために、モバイルリアクタ、カート、フィールドサービストラック、および/または他のオブジェクトの3D位置を監視してもよい。
図1および上記の説明は、いくつかの潜在的な実施形態のみを表現しており、他の実施形態も可能であることが理解される。例えば、ARプラットフォームは、クラウドベースのアーキテクチャまたはウェブベースのサービスを使用しなくてもよい。別の例として、バックエンドサーバ14のユニット62ないし68および/またはARデータベース72自体のいくつかまたは全ての機能は、部分的または全体的にARモバイルデバイス12に組み込まれてもよい。さらに別の例として、ノードマーカおよび/またはノード体験は、非ARコンテキスト、例えば仮想現実(VR)コンテキストにおいて、または非AR、非VRグラフィカルユーザインターフェース(GUI)に関連して提供され得る。
さらに、ARプラットフォームは、上述されていないさらに他の特徴を提供することができる。例えば、ARモバイルデバイスのユーザは、ARデータベース72内の様々なノード/オブジェクトに関連付けられて記憶されたフィールドノートを(例えば、音声コマンドを使用して)追加してもよく、かつ/または様々なノード/オブジェクトなどに関連付けられている新しい作業指示を開始してもよい。
例示的なプロセス制御環境
図2は、図1のARシステム10が利用され得る例示的なプロセス制御環境100のブロック図である。プロセス制御環境100(本明細書においては、同義でプロセス制御システム100またはプロセスプラント100とも称される)は、プラント100内のプロセスの動作を制御するために、フィールドデバイスによって行われたプロセス測定値を示す信号を受信し、この情報を処理して制御ルーチンを実装し、有線および/もしくは無線プロセス制御通信リンクまたはネットワークによって他のフィールドデバイスへに送信される制御信号を生成する、1つ以上のプロセスコントローラを含む。典型的には、少なくとも1つのフィールドデバイスは、物理的機能(例えば、バルブの開閉、コンベアによる物質の移動、温度の上昇または減少、測定値の取得、状態の検知など)を実施して、プロセスの動作を制御する。フィールドデバイスのうちのいくつかのタイプは、I/Oデバイスを使用してコントローラと通信する。プロセスコントローラ、フィールドデバイス、およびI/Oデバイスは、有線または無線であってもよく、任意の数および組み合わせの有線および無線プロセスコントローラ、フィールドデバイス、およびI/Oデバイスが、プロセスプラント環境またはシステム100内に含まれてもよい。
例えば、図2は、入力/出力(I/O)カード126および128を介して、有線フィールドデバイス115〜122と通信可能に接続されたプロセスコントローラ111を示す。プロセスコントローラ111は、プロセッサ130、メモリ132、および以下にさらに詳細に説明される1つ以上のプロセス制御ルーチン138を含む。コントローラ111はまた、プロセス制御通信ネットワークまたはバックボーン110、および無線ゲートウェイ135を介して、無線フィールドデバイス140〜146とも通信可能に接続される。バックボーン110は、1つ以上の有線および/または無線通信リンクを含んでもよく、例えばイーサネットプロトコルなどの任意の好適な通信プロトコルを使用して実装されてもよい。(図2に示されていない)いくつかの構成では、コントローラ111は、例えば、IEEE802.11規格無線ローカルエリアネットワークプロトコル、モバイル通信プロトコル(例えば、WiMAX、LTEなど)、Bluetooth(登録商標)、HART(登録商標)、WirelessHART(登録商標)、プロフィバス、FOUNDATION(登録商標)フィールドバスなどの1つ以上の通信プロトコルをサポートする、任意の数の他の有線または無線通信リンクを使用することによってなど、バックボーン110以外の1つ以上の通信ネットワークを使用して、無線ゲートウェイ135と通信可能に接続されてもよい。
コントローラ111(例としては、Emerson Process Managementから販売されているDeltaV商標コントローラであり得る)は、フィールドデバイス115〜122および140〜146のうちの少なくともいくつかを使用して、バッチプロセスまたは連続プロセスを実装するように動作してもよい。一実施形態では、バックボーン110と通信可能に接続されることに加えて、コントローラ111はまた、例えば、標準4〜20mAデバイス、I/Oカード126、128、および/またはFOUNDATION登録商標フィールドバスプロトコル、HART登録商標プロトコル、WirelessHART登録商標プロトコルなどの任意の好適なスマート通信プロトコルと関連付けられている、任意の所望のハードウェアおよびソフトウェアを使用して、フィールドデバイス115〜122および140〜146のうちの少なくともいくつかと通信可能に接続される。図2では、コントローラ111、フィールドデバイス115〜122、およびI/Oカード126、128は有線デバイスであり、フィールドデバイス140〜146は無線フィールドデバイスである。‘当然のことながら、有線フィールドデバイス115〜122および無線フィールドデバイス140〜146は、将来開発される任意の好適な標準またはプロトコルを含む、任意の好適な有線または無線プロトコルなどの任意の他の所望の標準(複数可)またはプロトコルに準拠することができる。
プロセスコントローラ111のプロセッサ130は、メモリ132内に記憶することができる1つ以上のプロセス制御ルーチンまたはモジュール138を実装または監督する。この目的のために、プロセッサ130は、フィールドデバイス115〜122および140〜146、ならびにコントローラ111と通信可能に接続された他のノードと通信するように構成されている。本明細書に記載される任意の制御ルーチンまたはモジュールは、そのように所望される場合は、その一部を異なるコントローラまたは他のデバイスによって実装または実行させてもよいことに留意されたい。同様に、プロセス制御システム100内に実装される制御モジュール138は、ソフトウェア、ファームウェア、ハードウェアなどを含む任意の形態であってもよい。制御ルーチンは、オブジェクト指向プログラミング、ラダー論理、シーケンシャルファンクションチャート、機能ブロック図の使用、または任意の他のソフトウェアプログラミング言語または設計パラダイムの使用などの任意の所望のソフトウェアフォーマットで実装されてもよい。制御モジュール138のいくつかまたは全てが記憶され得るメモリ132は、ランダムアクセスメモリ(RAM)および/またはリードオンリーメモリ(ROM)などの任意の好適な種類のメモリ(複数可)であってもよい。さらに、制御モジュール138は、例えば、1つ以上のEPROM、EEPROM、特定用途向け集積回路(ASIC)、または任意の他のハードウェアまたはファームウェア要素にハードコーディングされてもよい。したがって、コントローラ111は、制御ストラテジまたは制御ルーチン/モジュールを実装するために、任意の所望の方法で構成されてもよい。
コントローラ111は、一般に機能ブロックと称されるものを使用して制御ストラテジを実装し、各機能ブロックは、全体の制御ルーチンのオブジェクトまたは他の部分(例えば、サブルーチン)であり、(リンクと呼ばれる通信を介して)他の機能ブロックとともに動作して、プロセス制御システム100内にプロセス制御ループを実装する。制御系機能ブロックは、典型的に、送信機、センサ、または他のプロセスパラメータ測定デバイスに関連付けられているものなどの入力機能、PID、ファジィ論理などの制御を実施する制御ルーチンに関連付けられているものなどの制御機能、またはバルブもしくはコンベアモータなどのいくつかのデバイスの動作を制御する出力機能のうちの1つを実施し、プロセス制御システム100内のいくつかの物理的機能を実施する。当然のことながら、ハイブリッドおよび他のタイプの機能ブロックが存在する。機能ブロックは、これらの機能ブロックが典型的に、標準4〜20mAデバイスおよびある種類のスマートフィールドデバイス(例えば、HART登録商標デバイス)に使用されるか、もしくは関連付けられている場合、コントローラ111に記憶され、これによって実行されてよく、またはFOUNDATION登録商標フィールドバスデバイスの場合であり得るフィールドデバイス自体に記憶され、これによって実装されてもよい。コントローラ111内の1つ以上の制御モジュール138は、機能ブロックのうちの1つ以上を実行することによって実施される1つ以上の制御ループを実装してもよい。
有線フィールドデバイス115〜122は、センサ、バルブ、コンベアモータ、送信機、ポジショナなどの任意の種類(複数可)のデバイスであってもよく、一方、I/Oカード126および128は、好適な通信またはコントローラプロトコルに準拠する、任意の種類のI/Oデバイスであってもよい。例えば、フィールドデバイス115〜118は、アナログ回線によって(またはアナログおよびデジタル回線を組み合わせて)I/Oカード126と通信する、標準4〜20mAデバイスまたはHART登録商標デバイスであってもよく、一方、フィールドデバイス119〜122は、FOUNDATION登録商標フィールドバス通信プロトコルを使用して、デジタルバスによってI/Oカード128と通信する、FOUNDATION登録商標フィールドバスフィールドデバイスなどのスマートデバイスであってもよい。しかしながら、いくつかの実施形態では、有線フィールドデバイス115〜122のうちの少なくともいくつか、および/またはI/Oカード126、128のうちの少なくとも1つは、バックボーン110および好適な制御システムプロトコル(例えば、プロフィバス、DeviceNet、Foundationフィールドバス、ControlNet、Modbus、HARTなど)を使用して、追加的にまたは代替的にコントローラ111と通信する。
図2では、無線フィールドデバイス140〜146は、WirelessHART登録商標プロトコルなどの無線プロトコルを使用して、無線プロセス制御通信ネットワーク170を介して通信する。このような無線フィールドデバイス140〜146は、無線で通信するようにも構成された無線ネットワーク170のうちの1つ以上の他のデバイスまたはノードと直接通信することができる。無線で通信するように構成されていない他のノードと通信するためには、無線フィールドデバイス140〜146は、バックボーン110または別のプロセス制御通信ネットワークへと接続された無線ゲートウェイ135を利用してもよい。無線ゲートウェイ135は、バックボーン110から無線通信ネットワーク170のうちの様々な無線デバイス140〜158へのアクセスを提供する。具体的には、無線ゲートウェイ135は、無線デバイス140〜158、有線デバイス115〜122、および/またはプロセス制御プラント100の他のノードもしくはデバイスの間における通信連結を提供する。
有線フィールドデバイス115〜122と同様に、無線ネットワーク170の無線フィールドデバイス140〜146は、プロセスプラント100内で、物理的制御機能、例えば、バルブの開閉、プロセスパラメータの測定値の取得などを実施する。しかしながら、無線フィールドデバイス140〜146は、ネットワーク170の無線プロトコルを使用して通信するように構成されている。したがって、無線フィールドデバイス140〜146、無線ゲートウェイ135、および無線ネットワーク170の他の無線ノード152〜158は、無線通信パケットの生産者および消費者であり得る。
プロセスプラント100のいくつかの構成では、無線ネットワーク170は、非無線デバイスを含む。例えば、図2では、フィールドデバイス148は、古い4〜20mAデバイスであり得、フィールドデバイス150は、有線HART登録商標デバイスであり得る。ネットワーク170内で通信するために、フィールドデバイス148および150は、無線アダプタ152A、152Bのうちのそれぞれ1つを介して、無線通信ネットワーク170と接続される。無線アダプタ152A、152Bは、WirelessHARTなどの無線プロトコルをサポートし、かつFoundation登録商標フィールドバス、プロフィバス、DeviceNetなどの1つ以上の他の通信プロトコルもサポートし得る。さらに、いくつかの構成では、無線ネットワーク170は、無線ゲートウェイ135と有線通信する独立した物理デバイスであり得るか、または無線ゲートウェイ135内に一体化され得る、1つ以上のネットワークアクセスポイント155A、155Bを含む。無線ネットワーク170はまた、無線通信ネットワーク170内の無線デバイス間からパケットを転送する1つ以上のルータ158をも含み得る。無線デバイス140〜146および152〜158は、無線通信ネットワーク170の無線リンク160によって、および/またはバックボーン110を介して、互いに、および無線ゲートウェイ135と通信してもよい。
図2では、プロセス制御システム100は、バックボーン110と通信可能に接続された1つ以上のオペレータワークステーション171を含む。オペレータワークステーション(複数可)171を介して、ヒューマンオペレータは、プロセスプラント100のランタイム動作の監視に加えて、必要であり得る任意の診断、調整、保守、および/または他のアクションをとることができる。オペレータワークステーション171のうちの少なくともいくつかは、例えば、プラント100のバックエンド環境など、プラント100の内部または近くの、様々な保護されたエリアに位置していてもよく、場合によっては、オペレータワークステーション171のうちの少なくともいくつかは、遠隔地に位置していてもよい(しかし、それにもかかわらずプラント100と通信接続する)。オペレータワークステーション(複数可)171は、有線または無線コンピューティングデバイスであってもよい。
例示的なプロセス制御システム100は、1つ以上の構成アプリケーション172Aおよび1つ以上の構成データベース172Bを含み、これらの各々もまた、バックボーン110と通信可能に接続されるものとして、図2にさらに示される。構成アプリケーション(複数可)172Aの様々なインスタンスは、ユーザによるプロセス制御モジュールの作成または変更すること、およびこれらのモジュールを、バックボーン110を介して、プロセスコントローラ111および/または他のプロセスコントローラへダウンロードすることを可能にするため、ならびにオペレータがプロセス制御ルーチン内でデータを表示し、データ設定を変更できることを介して、ユーザによるオペレータインターフェースを作成または変することを可能にするために、1つ以上のコンピューティングデバイス(図2に図示せず)を実行してもよい。構成データベース(複数可)172Bは、構成されたモジュールおよび/またはオペレータインターフェースを記憶する。一般に、構成アプリケーション(複数可)172Aおよび構成データベース(複数可)172Bは、集中化され、プロセス制御システム100に対して単一の論理的外観を有してもよく(構成アプリケーション172Aのうちの複数のインスタンスが、プロセス制御システム100内で同時に実行され得るにも関わらず)、構成データベース(複数可)172Bは、単一の物理的データ記憶デバイス内か、または複数のデータ記憶デバイスにまたがって記憶されてもよい。構成アプリケーション(複数可)172A、構成データベース(複数可)172B、およびそれらへのユーザインターフェース(図2に図示せず)は、制御および/または表示モジュールを作成/構成するための構成または開発システム172を集合的に形成する。典型的には、必ずしもそうではないが、構成システム172のユーザインターフェースは、オペレータワークステーション171とは異なり、プラント100がリアルタイムで動作しているかに関係なく、構成および開発エンジニアによって代わりに利用される構成システム172のユーザインターフェースと、プロセスプラント100のリアルタイム(または「ランタイム」)動作中にオペレータによって利用されるオペレータワークステーション171と、を有する。
例示的なプロセス制御システム100はまた、1つ以上のデータヒストリアンアプリケーション(複数可)173Aおよび1つ以上のデータヒストリアンデータベース(複数可)173Bも含み、これらの各々はバックボーン110と通信可能に接続される。データヒストリアンアプリケーション(複数可)173Aは、バックボーン110を通じて提供されたデータのうちのいくつかまたは全てを収集し、そのデータを長期間記憶のためのデータヒストリアンデータベース(複数可)173Bに記憶するように動作する。構成アプリケーション(複数可)172Aおよび構成データベース(複数可)172Bと同様に、データヒストリアンアプリケーション(複数可)173Aおよびデータヒストリアンデータベース(複数可)173Bは、集中化され、プロセス制御システム100に対して単一の論理的外観を有してよく(データヒストリアンアプリケーション173Aのうちの複数のインスタンスが、プロセス制御システム100内で同時に実行され得るにも関わらず)、データヒストリアンデータベース(複数可)173Bは、単一の物理的データ記憶デバイス内か、または複数のデータ記憶デバイスにまたがって記憶されてよい。データヒストリアンアプリケーション173A、データヒストリアンデータベース(複数可)173B、およびそれらのユーザインターフェース(図2に図示せず)は、集合的にデータヒストリアンシステム173を形成する。
いくつかの構成では、プロセス制御システム100は、IEEE802.11規格無線ローカルエリアネットワークプロトコルなどの他の無線プロトコル、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)、もしくは他のITU−R(International Telecommunication Union Radiocommunication Sector)互換プロトコルなどのモバイル通信プロトコル、近距離無線通信(NFC)もしくはBluetoothなどの短波長無線通信、および/または他の無線通信プロトコルを使用して、他のデバイスと通信する、1つ以上の他の無線アクセスポイント174を含む。典型的には、このような無線アクセスポイント(複数可)174は、手持ち式または他のポータブルコンピューティングデバイス(例えば、ユーザインターフェースデバイス175)を、無線ネットワーク170とは異なり、無線ネットワーク170以外の異なる無線プロトコルをサポートする、それぞれの無線プロセス制御通信ネットワークによって通信できるようにする。例えば、無線またはポータブルユーザインターフェースデバイス175は、プロセスプラント100内のオペレータ(例えば、オペレータワークステーション171のうちの1つのインスタンス)によって利用される、モバイルワークステーションまたは診断試験機器であってもよい。いくつかのシナリオでは、ポータブルコンピューティングデバイスに加えて、1つ以上のプロセス制御デバイス(例えば、コントローラ111、フィールドデバイス115〜122、無線デバイス135、140〜158など)も、無線アクセスポイント(複数可)174によってサポートされる無線プロトコルを使用して通信する。
図2は、例示的なプロセスプラント100に含まれる、単一のプロセスコントローラ111、特定の数のフィールドデバイス115〜122および140〜146、無線ゲートウェイ35、無線アダプタ152、アクセスポイント155、ルータ1158、ならびに無線プロセス制御通信ネットワーク170のみを図示しているが、これは、例示的かつ非限定的な実施形態に過ぎない点に留意されたい。例えば、任意の数のコントローラ111が、プロセス制御プラントまたはシステム100内に含まれてもよく、コントローラ111のいずれかが、任意の数の有線または無線デバイスおよびネットワーク115〜122、140〜146、135、152、155、158、および170と通信して、プラント100内のプロセスを制御してもよい。
ここで図1に戻ると、ARモバイルデバイス(例えば、ARモバイルデバイス12)を使用してマッピングされるオブジェクトは、コントローラ111、デバイス115〜122および140〜158、I/Oカード126、128、無線ゲートウェイ135、ならびに/またはプラント100内の他のデバイスおよび/もしくは機器の一部分のいくつかまたは全てを含み、その結果、プラント100内の3D位置(および場合によっては、それらの互いの関係、それらのアバターなど)がARデータベース72に記憶される。いくつかの実施形態では、バックエンドサーバ14は、バックボーン110に通信可能に結合され、他のサーバ(複数可)18は、オペレータワークステーション(複数可)171、構成システム172、データヒストリアンシステム173、および/またはプロセス制御環境100の他のコンピューティングデバイスまたはシステムを含み、またはそれらに結合されてもよい。
サーバ(複数可)18によって実行されるアプリケーション(複数可)19は、1つ以上のDeltaV商標アプリケーション、診断および保守アプリケーション、および/または他のアプリケーションもしくはソフトウェアベースのシステムを含み得る。したがって、アプリケーション(複数可)19は、フィールドデバイスのランタイムステータスおよび/または測定データを表示し、フィールドデバイスのランタイム制御を提供し、機械の診断/保守情報を表示するノード体験をサポートすることができる。ほんの一例として、様々なデバイスに関連付けられているHART(登録商標)および/またはフィールドバス情報は、ARモバイルデバイス12のユーザに提示されてもよい。体験プロビジョニングユニット62は、(例えば、バックボーン110を介して)適切なアプリケーション(複数可)19を起動し、かつ/またはそれとインターフェースして、必要な表示データを収集してもよく、これは次いで、ノード体験モジュール46に転送される。体験プロビジョニングユニット62はまた、または代わりに、ノード体験モジュール46から受信された任意のユーザ入力をコントローラ111に転送して、適切なフィールドデバイスなどをそれに応じて制御させてもよい。
例示的な3Dマップ
上記の図1の説明から、ARシステム10の3D「マップ」は環境の完全なモデルである必要はなく、その環境内のノードの3D位置のみを含み得ることが理解されるべきである。4つのオブジェクト/ノードのみを含む非常に単純化された例示的な3Dマップ200が図3に示される。図3において、z軸は仰角(例えば、地上レベル)に対応する。上述されたように、ランドマーク位置202は、環境内の他の全ての位置(例えば、ノードおよびユーザ/ARデバイスの位置)について基準点を提供し得る。
例示的なマップ200において、第1のオブジェクト/ノードの第1の位置204は、オフセット{x1、y1、z1}においてランドマーク位置202のわずかに上(仰角方向)であり、第2および第3のオブジェクト/ノードの第2および第3の位置206、208は、オフセット{x2、y2、z2}および{x3、y3、z3}において、それぞれまだ少し高いままであり、第3のオブジェクト/ノードの第3の位置210はオフセット{x4、y4、z4}においてまだ高いままである。当然のことながら、いくつかのシナリオでは、x、yおよび/またはz方向のオフセットは、特定のオブジェクト/ノードに対して負であり得る。
マップ200内では、{x5、y5、z5}の位置220は、図1のARモバイルデバイス12などのARモバイルデバイスの現在の位置に対応する。図3はまた、破線で、ARモバイルデバイスの視野222を描画し、デバイスの特定の配向に対応する。視野222は、例えば、IMU26からのセンサデータ(およびおそらく、例えばVIO技術を用いたカメラ26からの画像データ)、ならびに既知の方位角範囲/角度のカメラ26を使用して、図1の位置決めおよび配向モジュール44によって判定されてもよい。図3には示されていないが、位置決めおよび配向モジュール44はまた、例えば、視野222がz方向の無限のカバレッジを仮定するのではなく、円錐状の形状を有するように、z方向の視野222の範囲を知り得る。
この例のシナリオでは、位置206および208のオブジェクトはデバイス/ユーザの現在の視野222内にあり、位置204および210のオブジェクトは存在しない。図1の体験プロビジョニングユニット62は、例えば、ノード位置(ARデータベース72に記憶されている)、ARモバイルデバイスの位置220および配向(位置決めおよび配向モジュール44によって判定され、ウェブサービスインターフェース60を介して転送される)、およびカメラ24の視野の既知のまたは推定された特性に基づいて、判定を行ってもよい。どのオブジェクト/ノードが視野222内にあるかの判定に基づいて、体験プロビジョニングユニット62は、ノードマーカ(および/または特定のノード体験)が位置206および208のオブジェクトについてのみ提示されるべきであることを示すデータをARモバイルデバイス12に送信してもよい。ノード体験モジュール46は、そのデータを処理し、それに応答して、位置206および208に対応するノードマーカおよび/もしくはディスプレイ22上の点またはその近くの他の情報を重ね合わせてもよい。
例示的なARユーザインターフェース
ARディスプレイ(例えば、図1のARモバイルデバイス12のディスプレイ22)上に重ね合わされ得る1セットの例示的なユーザインターフェースが、図4A〜図4Hに関連してここで説明される。説明を簡単にするために、図1のARシステム10についても参照するが、図示されるユーザインターフェースは代わりに他のシステムで使用されてもよい。ユーザの選択が行われ得るユーザインターフェースについて、選択は、特定のメニューオプションを直接見るユーザによって行われてもよい(例えば、ユーザインターフェースが、ディスプレイ22の中心に対する固定位置ではなく、環境に対する固定位置を有する場合)。他の実施形態では、選択は、ユーザが適切な音声コマンドを発すること、キーボードまたはタッチスクリーン上にデータを入力すること、または別の好適な方法で行われてもよい。
まず、図4Aを参照すると、ユーザインターフェース200は、図1に関連して上述されたように、ユーザに特定の「役割」を選択することを可能にする。ユーザインターフェース200は、ARアプリケーション32の起動時に、または別の好適なときユーザに表示されてもよい。ARアプリケーション32は、ウェブサービスインターフェース60を介してバックエンドサーバ14に照会することによって、利用可能な役割を先験的に知り得、または利用可能な役割について通知され得る。役割が選択されると、役割識別モジュール40は、役割を示すデータをウェブサービスインターフェース60を介してバックエンドサーバ14に送信してもよい。体験プロビジョニングユニット62、アラート生成ユニット68、および/またはバックエンドサーバ14の他の構成要素は、上述されたように、次いで、選択された役割を利用して、拡張する適切なノード、適切な種類の体験および/または特定のノードに対するコンテンツなどを判定してもよい。
図4Bは、(近接度またはユーザ役割などの任意の他の基準を対象とする)ユーザの現在の視野内のいくつかまたは全てのオブジェクトのそれぞれのノードマーカとして機能し得るユーザインターフェース220を描画する。例示的なユーザインターフェース220は、オブジェクト/ノードのステータスを示すアイコン(丸で囲まれた「X」)および記述子(「StatusWord」)、ノード名(例えば、「ESD−3」などのプロセス制御プラント内のデバイス識別子など)、ノードの短い記述(例えば、「非常停止スイッチ」など)、およびそれらの情報からユーザインターフェース220の底部の塗りつぶし円に至る垂直線を含む。塗りつぶし円(または他のインジケータ)は、ユーザの現実世界ビュー内の対応するオブジェクトの{x、y、z}位置に、例えば、ユーザ(または別のユーザ)がノードを3Dマップに追加するときに集中した現実世界{x、y、z}位置に配置されてもよい。テキストおよび線は、ARモバイルデバイス12およびユーザの垂直軸と位置合わせされたままにするために、必要に応じて回転してもよく、または例えば常にz軸に位置合わせされてもよい。
ステータスアイコンおよび記述子は、オブジェクトに対して何らかのアクションが取られるべきか、および/またはオブジェクトに対して何らかの危険が存在するかどうかを示してもよい。例えば、図4Bに示される丸で囲まれた「X」は、「危険」のステータスに対応し、三角形の「!」は「警告」のステータスに対応し、菱形の「i」は、「注意」のステータスに対応してもよく、「平常」のステータスにはどのアイコンも対応していなくてもよい。図4Bは、考えられるステータスアイコンの範囲を示しているが、ユーザインターフェース220は、この特定の実施形態および/またはシナリオに対して、丸で囲まれた「X」アイコンのみを含むことが理解される。特定のオブジェクト/ノードに描画されているステータスとそのステータスの意味は、ユーザの役割によって異なり得る。
ユーザインターフェース220のノードマーカ(すなわち、図4Bのテキスト、線、および塗りつぶし円)は、ARモバイルデバイス12からの距離に応じてサイズが拡大され得、その結果、より近くのオブジェクトがより大きなノードマーカを有し、より遠くのオブジェクトは小さなノードマーカを有する。いくつかの実施形態では、例えば、ユーザインターフェース220は、追加のテキスト、追加のグラフィック、および/または色分け(例えば、「危険」ステータスの赤色テキストおよび線、「通常」ステータスの緑色テキストおよび線など)によるより多くの情報を含む。
図4Cは、ユーザインターフェース200でユーザ役割が選択された後、または別の好適なときに出現し得るユーザインターフェース240を描画する。ユーザインターフェース240の「+」アイコンは、図1に関連して上述されたように、3Dマップに新しいノードの追加するためにユーザによって選択されてもよい。ヘルメットアイコンは、異なる役割を選択するためにユーザによって選択されてもよく、第3のアイコンは、以下で説明されるように、特定の設定を管理するためにユーザによって選択されてもよい。ユーザインターフェース240内の矩形のボックスは、システムメッセージをユーザに表示してもよい。例えば、メッセージボックスを使用して、アラート生成ユニット68および/または位置ベースアラートモジュール52によって生成されたアラートを表示してもよい。
図4Dは、ユーザがユーザインターフェース240内の設定アイコンを選択した場合に出現し得るユーザインターフェース260を描画する。図4Dに示すように、ユーザインターフェース260は、ユーザにARモバイルデバイス12の名前または識別子、ランドマーク識別子、およびバックエンドサーバ14の名前またはIPアドレスを変更することを可能にする。これらの値のいくつかまたは全ては、例えば、ウェブサービスインターフェース60へのウェブサービスコールを行うときに、ARモバイルデバイス12によって使用されてもよい。
図4Eは、ユーザがユーザインターフェース240内の「+」(ノードの追加)アイコンを選択した場合に出現し得る単純なユーザインターフェース280を描画する。この例では、ユーザインターフェース280は、単に、ユーザが単に周囲を見回すことによって(例えば、ARモバイルデバイス12がARヘルメットまたはゴーグル、またはスマートメガネである場合)、または別の方法でARモバイルデバイス12のカメラ24を照準することによって(例えば、タブレットまたはスマートフォンの場合)、現実世界環境内の任意の位置に中心を置き得るレチクル(例えば、ユーザのディスプレイ22の中央にある)である。ARアプリケーション32のノード作成モジュール48は、(例えば、音声コマンドを発することによって)レチクルが適切に配置されたときに、ユーザが確認することを要求してもよく、またはカメラ24の視野がいくつかの閾値期間に対して実質的に変化しない場合などに、適切な配置を仮定してもよい。
図4Fは、ユーザがユーザインターフェース280のレチクルを位置決めした後に、および位置決めおよび配向モジュール44が新しいオブジェクト/ノードを配置するために必要な位置および/または配向情報(例えば、ARモバイルデバイス12の位置、デバイス12の配向、およびデバイス12からオブジェクトまでの距離)を判定した後に、出現し得るユーザインターフェース300を描画する。例示的なユーザインターフェース300は、ユーザがノード名および/またはノード記述を入力するためのテキストボックスを含む。あるいは、この情報のいくつかまたは全ては、音声コマンド(例えば、ユーザがマイクアイコンを選択した場合)によって提供されてもよい。他の実施形態では、光学文字認識(OCR)技術を使用してオブジェクトの一部分の画像を処理することによって、ノード名および/または記述が判定されてもよい。例えば、ユーザは、カメラ24を、オブジェクトに貼付され、シリアル番号、モデル番号、または他の識別子を含む、タグまたはラベルに向けて方向付けてもよい。次いで、識別子は、ウェブサービスインターフェース60を介してバックエンドサーバ14に送信され、バックエンドサーバ14に記憶された情報と相互参照されるか、または別のシステムもしくはデータベース(例えば、他のサーバ(複数可)18のうちの1つ)に記憶されて、ノード名および/または記述を判定してもよい。
図4Gは、ユーザが(例えば、ユーザインターフェース220のノードマーカを選択することによって)オブジェクト/ノードを選択したときに、その特定のオブジェクト/ノードに対して出現し得るユーザインターフェース320を描画する。ユーザインターフェース320は、例えば、バックエンドサーバ14の体験プロビジョニングユニット62によって提供されるノードの利用可能な体験を示すデータに基づいて、ノード体験モジュール46によって生成されてもよい。例示的なユーザインターフェース320は、ユーザインターフェース220内のノードマーカ上に示されたノード名および記述、ならびに2つの矩形エリアを含む。ユーザインターフェース320の底部の塗りつぶし円は、ユーザインターフェース220内にあった(現実世界ビュー内の)オブジェクト上の同じ位置に留まり得る。図4Gのブランクの矩形で示される第1の「作業中」エリアは、(例えば、提供されているノード体験の種類および/またはユーザの役割に応じて)オブジェクトのステータス情報、オブジェクトの詳細なアラート情報など、選択されたオブジェクト/ノードに関する追加の情報を示してもよい。
ユーザは、第2のエリアから所望の種類のノード体験を選択して、ノードに利用可能なもの(および場合によってはユーザの役割)を列挙してもよい。図4Gに見られるように、この例では、利用可能なノード体験は、「追加情報」(例えば、作業エリアに追加の種類のテキストベースの情報を提供するために)、「接続」(例えば、図4Hに関連し以下で説明されるように、他のオブジェクト/ノードへの物理的または論理的接続を示すために)、「情報リンク」(例えば、作業エリアにおいて、「ヘルプ」文書、インストラクションビデオ、または特定のURLにおける他のウェブページからの情報を表示するために)、「子オブジェクト」(例えば、作業エリアにおいて、選択されたオブジェクト/ノードの「子」として関連する他のオブジェクト/ノードとの関係を示すために)、「プロセス値」(例えば、作業エリアにおいて、他のサーバ(複数可)18およびアプリケーション(複数可)19のうちの1つから取得された制御プロセス値を示すために)、および「作業指示」(例えば、作業エリアにおいて、選択されたオブジェクト/ノード内で関連付けられている作業指示のテキストを示すために)を含む。
図4Hは、ユーザがユーザインターフェース320内の「接続」アイコンを選択したときに出現し得るユーザインターフェース340を描画する。ユーザインターフェース340の場合、ノード体験モジュール46は、現在選択されているオブジェクト/ノードの{x、y、z}位置と、現在選択されているオブジェクト/ノードが物理的および/または論理的に接続されている(例えば、図1に関連して上述されたように)オブジェクト/ノードの{x、y、z}位置との間の線をレンダリングする。ユーザインターフェース340の底部にある塗りつぶし円は前者の位置にあってもよい一方で、ユーザインターフェース340の上部の塗りつぶし円は後者の位置にあってもよい。当然のことながら、塗りつぶし円の相対位置は、シナリオに応じて変化してもよい(例えば、選択されたオブジェクト/ノードの円は、接続されたオブジェクト/ノードの円よりも現実世界ビューで高く出現し得る)。
図4Hの実施形態では、ノード体験モジュール46は、接続線を、y軸に沿った距離および方向を示す第1のセグメント(現在選択されているオブジェクト/ノードで始まる)と、x軸に沿った距離および方向を示す第2のセグメント(第1のセグメントの端部で始まる)と、z軸に沿った距離と方向を示し、接続されたオブジェクト/ノードで終了する第3のセグメント(第2のセグメントの端部で始まる)と、の3つのセグメントにおいてレンダリングする。線セグメントは色分けされ、線フォーマット(破線、実線など)によって符号化され、および/または追加の情報(例えば、現在動作していない通信接続を示す赤い線)を提供する他の方法で符号化されてもよい。他の実施形態では、接続は、オブジェクト/ノード間の単一の線セグメント(例えば、ユーザからの距離を描くために線が広くなったり狭くなったりする)など、異なる方法で描画されてもよい。様々な異なる実施形態では、複数の異なるオブジェクト/ノードへの接続は、ユーザインターフェース340に示され得、またはユーザは、視覚化が望まれる各個々の接続をそれぞれ選択する必要があり得る。
例示的なARデータベース
図5Aおよび図5Bは、(例えば、図2のプロセス制御環境100で使用される場合の)図1のARデータベース72によって利用され得るデータベース構造400を集合的に描画する。データベース構造400において、各ボックスは、ARデータベース72に記憶され得るテーブルを表現し、各ボックスの最上部の行はテーブル名(例えば、「ノード」、「ノードステータス」など)である。テーブルは主キーを使用してリンクされ、各キーは図5Aおよび5Bにキーアイコンおよび文字「PK」で示されている。
データベース構造400は、データ項目の効率的な相互参照を可能にし、既存のリンクを壊すことなくまたは広範な更新を必要とせずにユーザおよびシステムの更新を可能にする。例えば、「ノードID」主キーを使用すると、ユーザに、関連する他のテーブルを更新する必要なく、既存のノードに対する「ノード名」を変更することを可能にする。図5Bの「OPCDAの取得」テーブルは、図4Gに関連して上述された「プロセス値」ノード体験に対応し得る。
例示的な強化仮想視角
図6および図7は、ARプラットフォーム(例えば、図1のARシステム10によって提供される)が、ユーザの「仮想視覚」を強化する機能を提供する実施形態に関する。図6は、プロセス制御環境内(例えば、図2のプロセス制御環境100内)の閉じたキャビネット内に「見る」ために使用される「仮想X線視覚」機能(図1に関連して上述された)を描画する一方で、図7Aおよび図7Bは、プロセス制御環境のエリアのアクセス制限された(例えば、届きにくい、または危険な)エリアにあり、かつ/または、ユーザの現在の位置から離れている「アバター」(図1に関連しても上述された)がセンサ/送信機デバイスに対して提供される特定のシナリオを描画する。
まず、図6の例を参照すると、閉じられた(および場合によってはロックされた)キャビネット500は、I/Oカード、回路遮断器などのいくつかの内部構成要素(図6には示されていない)を含み得る。図1に関連して説明された基準のいずれかが満たされたときに(例えば、内部構成要素がARモバイルデバイス12の視野内にあり、閾値距離内にあり、かつ/またはキャビネット500がユーザによって選択されているなど)、およびキャビネット500が、不明瞭なオブジェクト/ノードを含むと判定された場合(また上述されたように、例えば、キャビネットと内部構成要素との間の既知の関係に基づいて、かつ/またはQRコードをスキャンすることなどによって)、図1の視覚強化モジュール50は、ユーザインターフェース520をユーザの現実世界ビューに重ね合わせてもよい。
ユーザインターフェース520は、内部構成要素の描画522を含む。描画522は、キャビネット500内の実際の構成要素の、互いに対する実際の配置における画像であってもよい。他の実施形態では、描画522は、個別に、またはキャビネット500内の相対的な配置を示すように、構成要素(例えば、3Dモデル、2Dモデルなど)の超現実的または擬似現実的なグラフィカル表現を含む。いずれの場合でも、描画522は、実際の内部構成要素を視認する場合のユーザの体験と同様のAR体験をユーザに提供することができる。
ユーザインターフェース520は、ユーザの現実世界ビューでキャビネット500の上に直接重ね合わされ、隠された内部構成要素の実際の位置の上に描画522を位置合わせするように適切に拡大されてもよい。あるいは、ユーザインターフェース520は、おそらくは線またはいくつかの他の手段によって接続された、ユーザの現実世界ビューでキャビネット500からオフセットされてもよい。
描画522は、内部構成要素の個々のものに対するノードマーカ(例えば、図4Bのユーザインターフェース220に類似するもの)を、それらの構成要素が以前にマッピングされた程度まで含んでよく、または含まなくてよい。さらに、ユーザインターフェース520は、そのようなノードマーカを選択することによって、描画522自体を選択することによって、または適切な音声コマンドを発することによって、ユーザに様々なノード体験を選択することを可能にし得る。描画522またはユーザインターフェース520はまた、ユーザが描画522を自身のビューから却下するように選択することができる制御(例えば、1つの角部の「X」)を含んでもよく、または好適な音声コマンドが使用されてよい。
ここで図7Aを参照すると、方向インジケータ550は、特定のオブジェクト(ここでは、センサ/送信機デバイス)の描画、およびユーザの現実世界ビューに対するオブジェクトの一般的な方向を示す矢印を含む。図1の視覚強化モジュール50は、例えば、リモートおよび/またはアクセス制限されたオブジェクトのアバターに関して、(図1に関連して)上述された条件のいずれかに応答して、ユーザの現実世界ビューの上に方向インジケータ550を重ね合わせてもよい。例示的な方向インジケータ550におけるデバイスの描画は、現実的なモデルまたは画像であるが、当然のことながら、他のフォーマット(例えば、アウトライン、アニメーション、ビデオなど)も可能である。
ユーザが方向インジケータ550を選択した場合、視覚強化モジュール50は、図7Bに示されるように、ユーザの現実世界ビューに「アバター」560を重ね合わせてもよい。図7Bに示されるアバター560は、方向インジケータ550におけるオブジェクトの描画と同一であるが、他の実施形態では、アバター560は、方向インジケータ550における描画(存在する場合)よりも詳細かつ/または現実的である。図6の描画522と同様に、アバター560は、実際のオブジェクト(ここではセンサ/送信機デバイス)を近接して視認する場合と似たAR体験をユーザに提供し得る。実際に、上述されたように、図6の仮想X線視覚機能は、単に図7Bに示された視覚強化の特殊なケースであり得、図6の描画522は、キャビネット510内で囲まれた様々な構成要素のアバターの集合である。
ユーザがアバター560を選択するか、または適切な音声コマンドを発する場合、視覚強化モジュール50は、ユーザの現実世界ビュー内のアバター560の近くにユーザインターフェース570を重ね合わせてもよい。あるいは、ユーザインターフェース570には、アバター560または任意の音声コマンドの任意のユーザ選択を必要とすることなく、デフォルトで、アバター560が提示されてもよい。図7Bの例示的なユーザインターフェース570は、プロセス値(ここでは、センサ読み取り値)を提供し、(ここでは較正プロセスを開始することによって)デバイスのユーザ制御を可能にするノード体験に対応する。このノード体験を可能にするために、図1の体験プロビジョニングユニット62は、上述されたように、他のサーバ(複数可)18によって実行されるアプリケーション(複数可)19のうちの1つ以上と通信してもよい。例えば、体験プロビジョニングユニット62は、プロセス制御アプリケーションを起動させるか、またはAPIなどを使用して実行中のプロセス制御アプリケーションと対話してもよい。
例示的な3Dマッピング方法
図8は、モバイルデバイスを使用して現実世界のプロセス制御環境(例えば、図2のプロセス制御環境100)をマッピングする例示的な方法600を描画する。方法600は、例えば、図1のARモバイルデバイス12または別の好適なモバイルデバイスを使用して実施され得る。いくつかの実施形態では、AR機能のないモバイルデバイスが使用されてもよい。
ブロック602において、モバイルデバイスは、プロセス制御環境内の基準または「ランドマーク」位置に登録される。登録は、基準位置に位置しているコード(例えば、QRコードまたは他の画像)の視覚的表現をスキャンするために、モバイルデバイスのカメラ(例えば、図1のカメラ24)を使用することを含み得る。コードは、例えば、壁(例えば、プレートまたはポスター)上にあってよい。
ブロック604において、モバイルデバイスがユーザによってプロセス制御環境を通って移動されると、モバイルデバイスの少なくとも1つのIMU(例えば、図1のIMU26)を使用して、モバイルデバイスの基準位置に対する3D位置を追跡し、モバイルデバイスの配向を追跡する。ブロック604は、ユーザが(例えば、モバイルデバイスの電源を切ることによって、またはモバイルデバイス上で実行されるアプリケーションを閉じることなどによって)AR体験を終了するまで、無期限に(例えば、ブロック606ないし610まで同時に)継続してもよい。ブロック604における追跡はまた、モバイルデバイスカメラも使用してもよい。例えば、VIO技術を使用して、モバイルデバイスの位置および配向を追跡してもよい。
ブロック606において、新しいノードがプロセス制御環境の3Dマップに追加されるべきであることを示すユーザ入力が、モバイルデバイスにおいて検出される。ユーザ入力は、例えば、ユーザ音声コマンド(例えば、「ノードの追加」)、またはメニューオプションのユーザ選択(例えば、モバイルデバイスカメラを特定の位置に集中させることによる、またはキーボードまたはタッチスクリーンにデータを入力することによる)であってもよい。
ブロック608において、追跡されたモバイルデバイスの3D位置および追跡されたモバイルデバイスの配向に少なくとも基づいて、(基準位置に対する)現実世界オブジェクトの3D位置が判定されるか、または判定させられ得る。一実施形態では、ブロック608は、モバイルデバイスのカメラを使用して(例えば、ユーザ入力が入力された時点で、またはその直後に)現実世界オブジェクトの画像を捕捉することを含む。次いで、モバイルデバイスとオブジェクトとの間の距離は、少なくとも、深度検知技術を使用してカメラ画像を処理することによって、画像から判定されてもよい。3D位置は、次いで、追跡された3D位置およびモバイルデバイスの配向ならびに判定された距離に基づいて、判定されるか、または判定させられ得る。
いくつかの実施形態では、ブロック608において、オブジェクトの3D位置は、方法600を実施するデバイス、システムなどによって、直接判定される。他の実施形態では、方法600を実施するデバイス、システムなどは、例えば、ウェブサービスインターフェース(例えば、図1のウェブサービスインターフェース60)を介して要求を行うことによって、別のデバイス、システムなどにオブジェクトの3D位置を判定させる。
ブロック610において、少なくともオブジェクトの3D位置を新しいノードに関連させて記憶させることによって、ノードデータベースまたはライブラリが新しいノードを3Dマップに追加させられる。ブロック610は、例えば、ウェブサービスインターフェースを使用して、リモートサーバ(例えば、図1のバックエンドサーバ14)に、少なくともノードデータベース内の新しいノードの3D位置(例えば、図1のARデータベース72)を記憶させることを含み得る。
方法600は、図8に示されていない1つ以上のブロックを含み得る。例えば、方法600は、別のユーザ入力(例えば、音声コマンド、キーボード入力など)がモバイルデバイスにおいて受信され、ユーザ入力が新しいノードの識別子(例えば、名前)および/または記述を示すブロックを含み得る。そのような実施形態では、ブロック610は、新しいノードの識別子および/または記述をノードデータベース内の新しいノードに関連付けて記憶させることをさらに含み得る。
別の例として、方法600は、新しいノードが3Dマップに追加された後にプロセス制御環境のエリアをナビゲートする、異なるモバイルデバイスの後の動作(またはブロック602ないし610を実施する同じモバイルデバイスによる後の動作)に対応する追加のブロックを含み得る。第1のブロックでは、例えば、第2のモバイルデバイス(例えば、ARモバイルデバイス12または同様のデバイス)が、基準位置に登録されてもよい。その後、(基準位置に対する)第2のモバイルデバイスの3D位置および第2のモバイルデバイスの配向は、少なくとも第2のモバイルデバイスのIMUを使用して(例えば、VIO技術を使用して)、追跡されてもよい。次いで、トリガ条件は、例えば、(例えば、追跡された第2のモバイルデバイスの配向に基づいて)オブジェクトが第2のモバイルデバイスのカメラの視野内のエリア内にあることを判定すること、および/または(例えば、追跡された第2のモバイルデバイスの位置に基づいて)その物理的オブジェクトが第2のモバイルデバイスに近接していることを判定することによって検出されてもよい。トリガ条件の検出に応答して、新しいノードに関連付けられているデジタル情報は、第2のモバイルデバイスのディスプレイ上にまたはディスプレイを介して見られる現実世界ビューに重ね合わされ得てもよい(例えば、ノードマーカ、または上述された任意のノード体験に従って)。
仮想X線視界を提供するための例示的な方法
図9は、現実世界のプロセス制御環境(例えば、図2のプロセス制御環境100)において、ARモバイルデバイスのユーザに仮想強化視覚(例えば仮想「X線視覚」)を提供するための例示的な方法620を描画する。方法620は、例えば、図1のバックエンドサーバ14などのコンピューティングシステムまたはデバイスの1つ以上のプロセッサ、および/または図1のARモバイルデバイス12などのARモバイルデバイスによって実施されてもよい。
ブロック622において、プロセス制御環境のマップに関連付けられている特定のノード(「第1のノード」)が、現在、ARモバイルデバイスのカメラ(例えば、図1のカメラ24)の視野内にある特定の現実世界オブジェクト(「第1のオブジェクト」)に対応することが判定される。第1のオブジェクトは、例えば、図2に関連して図示または説明される任意のデバイス、または少なくとも部分的に不透明な任意の他の物理的オブジェクトであり得る。いくつかの実施形態では、第1のオブジェクトは、多数のより小さいデバイスまたは構成要素を含むように構成されたキャビネットなどの囲いである。
いくつかの実施形態では、ブロック622は、ARモバイルデバイスの現在の配向を検出すること、およびARモバイルデバイスの現在の配向に基づいて、さらにマップによって示される第1のノードの位置に基づいて、第1のオブジェクトが、現在カメラの視野内にあることを判定することを含む。ブロック622はまた、ARモバイルデバイスの現在の位置および第1のノード位置に基づいて、第1のオブジェクトがARモバイルデバイスのいくつかの閾値距離(例えば、10メートル、50メートルなど)内にあることを判定することを含み得る。
ブロック624において、第1のノードと、マップにも関連付けられている1つ以上の他のノードとの間の特定の関係が判定される。この関係は、1つ以上の他のノードに対応する1つ以上の他の現実世界オブジェクトが、第1のオブジェクトによって少なくとも部分的に不明瞭であることを(明示的または暗示的に)示す。例えば、ノードデータベース(例えば、ARデータベース72またはその一部分)は、第1のノードが、他のノード(複数可)(例えば、コントローラ、I/Oカード、スイッチなど)に対応するオブジェクト(複数可)を含むキャビネットまたは他の囲いに対応することを示すデータを記憶してもよく、ブロック624は、ノードデータベースに直接(例えば、ローカルメモリ内で)、または別のコンピューティングシステムを介してアクセスすることを含み得る。いくつかの実施形態では、第1のオブジェクトはQRコードまたは他の視覚的コードでマークされ、ブロック624は、コードをスキャンしてノード識別子を判定することと、(例えば、データベースに対するキーとして識別子を使用することによって)ノード識別子を使用して関係を判定することとの両方を含む。
ブロック626において、1つ以上のデジタルモデルまたはデジタル画像は、メモリ(例えば、ローカルまたはリモートの永続メモリ)から取得され、モデル(複数可)または画像(複数可)が、少なくとも第1のオブジェクト(複数可)によって部分的に不明瞭であるオブジェクトを描画する。例えば、1つ以上の超現実的または擬似現実的な3Dモデル、2Dモデル、アニメーションモデル、デジタル画像、またはオブジェクト(複数可)のデジタルビデオは、メモリから取得されてもよい。
ブロック628において、ARモバイルデバイス(例えば、図1のディスプレイ22)のディスプレイは、第1のオブジェクトが依然としてカメラの視野内にある間に、取得されたモデル(複数可)または画像(複数可)をユーザに提示させる。例えば、モデル(複数可)または画像(複数可)は、ディスプレイ上でユーザに提示されるか、またはディスプレイを通じてユーザによって見られる現実世界ビューに重ね合わせられてもよい。ブロック628は、例えば、ARモバイルデバイスに、表示コンテンツの少なくともいくつかを送信すること、および/または表示命令を送信すること(例えば、図1のウェブサービスインターフェース60を介して)を含み得る。
方法620は、図9に示されていない1つ以上のブロックを含み得る。例えば、方法620は、1つ以上のノード体験が、不明瞭なオブジェクトについてユーザに提示される(例えば、最初にモデル(複数可)もしくは画像(複数可)とともに、またはさらなるアクション、特定の不明瞭なオブジェクトのモデルまたは画像のユーザ選択などに応答して)ブロックを含み得る。
アクセス制限されたオブジェクトを視覚化するための例示的な方法
図10は、ARモバイルデバイスのユーザと、プロセス制御環境(例えば、図2のプロセス制御環境100)のアクセス制限された(例えば、危険な、バリケードなど)エリアに存在し得る、現実世界オブジェクト(「第1のオブジェクト」)との間の対話を容易にする例示的な方法640を描画する。方法640は、例えば、図1のバックエンドサーバ14などのコンピューティングシステムまたはデバイスの1つ以上のプロセッサ、および/または図1のARモバイルデバイス12などのARモバイルデバイスによって実施されてもよい。
ブロック642において、ユーザがプロセス制御環境を通って移動すると、ARモバイルデバイスのディスプレイ(例えば、図1のディスプレイ22)は、ARモバイルデバイス(例えば、図1のカメラ24)のカメラの視野内にある環境の部分にデジタル情報を重ね合わせる。重ね合わされた情報は、環境内の他の現実世界オブジェクトに対応するノードとともに、プロセス制御環境のマップ(例えば、3Dマップ)内のノードに関連付けられる。ブロック642は、例えば、ARモバイルデバイスに、表示コンテンツの少なくともいくつかを送信すること、および/または(例えば、図1のウェブサービスインターフェース60を介して)表示命令を送信することを含み得る。
ブロック644において、第1のオブジェクトがカメラの視野内にない間に、ARモバイルデバイスのディスプレイは、第1のオブジェクトへの方向を示す。指示は、例えば、テキスト、矢印、線、および/またはアニメーションを含み得る。ブロック642と同様に、ブロック644は、例えば、表示コンテンツのうちの少なくともいくつかを送信すること、および/または(例えば、図1のウェブサービスインターフェース60を介して)表示命令をARモバイルデバイスに送信することを含み得る。
ブロック646において、ARモバイルデバイスを介して行われ、第1のオブジェクトの選択を示すユーザ入力(例えば、第1のオブジェクトのユーザインターフェースを要求する音声コマンド)を検出した後、ディスプレイは、現在視野内にあるが第1のオブジェクトを含まないプロセス制御環境の一部分に、第1のオブジェクトのデジタルモデルまたは画像(すなわち、第1のオブジェクトの「アバター」)、および第1のオブジェクトのユーザインターフェースを重ね合わせる。アバターは、例えば、オブジェクトの超現実的または擬似現実的な3Dモデル、2Dモデル、アニメーションモデル、デジタル画像、またはデジタルビデオであってもよい。ユーザインターフェースは、第1のオブジェクトのユーザ制御(例えば、第1のオブジェクトを較正し、第1のオブジェクトの動作パラメータを設定するためのものなど)を可能にする1つ以上の仮想制御、および/またはステータス(例えば、診断テータス、保守テータス、動作テータスなど)に関連付けられている情報を表示する1つ以上の表示、第1のオブジェクトの設定、および/または出力(例えば、センサ読み取り値など)を含み得る。いくつかの実施形態では、ユーザインターフェースは、アバターと同時に提示されず、アバターまたは音声コマンドのユーザ選択に応答して(アバターとともに)出現する。
いくつかの実施形態では、ブロック644における方向の指示は、第1のオブジェクトの選択を示すユーザ入力(すなわち、図10に示されるシーケンス)を検出する前に発生する。そのようないくつかの実施形態では、方向インジケータ(例えば、第1のオブジェクトを含むオフ表示エリアに向けて指し示している矢印)は、(1)第1のオブジェクトがARモバイルデバイスの閾値距離内にあること、および(2)第1のオブジェクトが現在カメラの視野内にないことを検出することに応答して、生成され、かつ表示されてもよい。方向インジケータのための他の好適なトリガまたは基準も可能である。例えば、インジケータは、第1のオブジェクトに関連する特定のユーザ役割を有するユーザにのみ提供されてもよい。
他の実施形態では、第1のオブジェクトの選択を示したユーザ入力を検出した後に、方向の指示が代わりに発生する。例えば、ユーザは、第1のオブジェクト(例えば、第1のオブジェクトに対するユーザ「検索」)についてユーザインターフェースが取得されることを要求する音声コマンドを発してもよく、その後、方向インジケータ(および場合によってはアバター)が、ユーザの現実世界ビューに重ね合わせられる。
デジタルモデルまたは画像は、方向インジケータおよび/または後段で表示されるかどうかを問わず、ウェブサービスインターフェースを使用してデータベースから(例えば、ウェブサービスインターフェース60を使用して図1のARデータベース72から)取得されてもよい。
一般的な考慮事項
ソフトウェアに実装する場合、本明細書に記載されるアプリケーションおよび機能のいずれかは、コンピュータまたはプロセッサのRAMまたはROM内で、磁気ディスク、レーザーディスク、半導体メモリデバイス、分子メモリ記憶デバイス、または他の記憶媒体などの任意の有形の非一過性のコンピュータ可読メモリ内に命令として、記憶されてもよい。本明細書で開示される例示的なシステムは、ハードウェア上で実行される他のコンポーネント、ソフトウェアおよび/またはファームウェアを含むものとして開示されるが、このようなシステムは、単なる例示であり、限定するものではないということに留意するべきである。例えば、これらのハードウェア、ソフトウェア、およびファームウェア構成要素のうちのいずれかまたは全てが、ハードウェアにのみ、ソフトウェアにのみ、あるいはハードウェアおよびソフトウェアの任意の組み合わせで、埋め込まれ得ることが企図される。したがって、本明細書に記載される例示的なシステムは、1つ以上のコンピュータデバイスのプロセッサで実行されるソフトウェアで実装されるものとして記載されているが、提供される例がかかるシステムを実装する唯一の方法ではないことを当業者は容易に理解するであろう。
したがって、本発明は具体的な例に関して記載されてきたが、これらの例は例解的であるに過ぎず、本発明の限定であることを意図せず、変更、追加、または削除が、本発明の趣旨および範囲から逸脱することなく、開示される実施形態に対して行われ得ることが当業者には明らかであろう。

Claims (20)

  1. 拡張現実(AR)モバイルデバイスのユーザとプロセス制御環境内の第1の現実世界オブジェクトとの間の対話を容易にする方法であって、前記方法が、
    ARシステムの1つ以上のプロセッサによって、かつ前記ユーザが前記プロセス制御環境を通って移動するときに、前記ARモバイルデバイスのディスプレイに、前記ARモバイルデバイスのカメラの視野内にある前記プロセス制御環境の部分にデジタル情報を重ね合わせさせることであって、前記重ね合わされた情報が、前記プロセス制御環境のマップ内のノードに関連付けられており、前記ノードが、前記プロセス制御環境内の他の現実世界オブジェクトに対応している、重ね合わせさせることと、
    前記1つ以上のプロセッサによって、前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトが前記カメラの前記視野内にない間に、前記第1の現実世界オブジェクトへの方向を示させることと、
    前記ARモバイルデバイスを介して行われ、前記第1の現実世界オブジェクトの選択を示す、ユーザ入力を検出した後に、前記1つ以上のプロセッサによって、前記ARモバイルデバイスの前記ディスプレイに、現在前記カメラの前記視野内にあるが、前記第1の現実世界オブジェクトを含まない前記プロセス制御環境の一部分上に、
    前記第1の現実世界オブジェクトのデジタルモデルまたはデジタル画像と、
    少なくとも(i)前記第1の現実世界オブジェクトのユーザ制御を提供する1つ以上の仮想制御、ならびに/または(ii)前記第1の現実世界オブジェクトのステータス、設定、および/もしくは出力に関連付けられている情報を提示する1つ以上のディスプレイを提供するユーザインターフェースと、を重ね合わせさせることと、を含む、方法。
  2. 前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させることが、前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力を検出した後に行われる、請求項1に記載の方法。
  3. 前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力が、前記第1の現実世界オブジェクトに対するユーザインターフェースを要求する音声コマンドを含む、請求項2に記載の方法。
  4. 前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させることが、
    前記プロセス制御環境の前記一部分上に、前記デジタルモデルまたはデジタル画像とともに、前記第1の現実世界オブジェクトの前記方向において指し示す矢印を重ね合わせさせることを含む、請求項2に記載の方法。
  5. 前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させることが、前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力を検出する前に行われる、請求項1に記載の方法。
  6. 前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させることが、(i)前記第1の現実世界オブジェクトが、前記ARモバイルデバイスの閾値距離内にあること、および(ii)前記第1の現実世界オブジェクトが、現在前記カメラの前記視野内にないこと、を検出することに応答して行われる、請求項5に記載の方法。
  7. 前記ARモバイルデバイスの前記ディスプレイに、前記プロセス制御環境の前記一部分上に、前記デジタルモデルまたはデジタル画像を重ね合わせさせることが、
    ウェブサービスインターフェースを使用して、データベースから前記デジタルモデルまたはデジタル画像を取得することを含む、請求項1に記載の方法。
  8. 前記ARモバイルデバイスの前記ディスプレイに、前記プロセス制御環境の前記一部分上に、前記デジタルモデルまたはデジタル画像および前記ユーザインターフェースを重ね合わせさせることが、
    前記デジタルモデルまたはデジタル画像のユーザ選択を検出することに応答して、前記ディスプレイに、前記プロセス制御環境の前記一部分上に、前記ユーザインターフェースを重ね合わせさせることも含む、請求項1に記載の方法。
  9. 拡張現実(AR)モバイルデバイスのユーザとプロセス制御環境内の第1の現実世界オブジェクトとの間の対話を容易にするためのサーバであって、前記サーバが、
    前記ユーザが前記プロセス制御環境を通って移動するときに、前記ARモバイルデバイスのディスプレイに、前記ARモバイルデバイスのカメラの視野内にある前記プロセス制御環境の部分上に、デジタル情報を重ね合わせさせることであって、前記重ね合わされた情報が、前記プロセス制御環境のマップ内のノードに関連付けられており、前記ノードが、前記プロセス制御環境内の他の現実世界オブジェクトに対応している、重ね合わせさせることと、
    前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトが前記カメラの前記視野内にない間に、前記第1の現実世界オブジェクトへの方向を示させることと、
    前記ARモバイルデバイスを介して行われ、前記第1の現実世界オブジェクトの選択を示すユーザ入力を検出した後に、前記ARモバイルデバイスの前記ディスプレイに、現在前記カメラの前記視野内にあるが、前記第1の現実世界オブジェクトを含まない前記プロセス制御環境の一部分上に、
    前記第1の現実世界オブジェクトのデジタルモデルまたはデジタル画像と、
    少なくとも(i)前記第1の現実世界オブジェクトのユーザ制御を提供する1つ以上の仮想制御、ならびに/または(ii)前記第1の現実世界オブジェクトのステータス、設定、および/もしくは出力に関連付けられている情報を提示する1つ以上のディスプレイを提供するユーザインターフェースと、を重ね合わせさせることと、を行うように構成されている、サーバ。
  10. 前記サーバが、前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力を検出した後に、前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させるように構成されている、請求項9に記載のサーバ。
  11. 前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力が、前記第1の現実世界オブジェクトに対するユーザインターフェースを要求する音声コマンドを含む、請求項10に記載のサーバ。
  12. 前記サーバが、少なくとも、
    前記プロセス制御環境の前記一部分上に、前記デジタルモデルまたはデジタル画像とともに、前記第1の現実世界オブジェクトの前記方向において指し示す矢印を重ね合わせさせることによって、前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させるように構成されている、請求項10に記載のサーバ。
  13. 前記サーバが、前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力を検出する前に、前記ARモバイルデバイスの前記ディスプレイに、前記第1の現実世界オブジェクトへの前記方向を示させるように構成されている、請求項9に記載のサーバ。
  14. 前記サーバが、前記ARモバイルデバイスの前記ディスプレイに、(i)前記第1の現実世界オブジェクトが、前記ARモバイルデバイスの閾値距離内にあること、および(ii)前記第1の現実世界オブジェクトが、現在前記カメラの前記視野内にないことを検出することに応答して、前記第1の現実世界オブジェクトへの前記方向を示させるように構成されている、請求項13に記載のサーバ。
  15. 前記サーバが、少なくとも、
    ウェブサービスインターフェースを使用して、データベースから前記デジタルモデルまたはデジタル画像を取得することによって、前記ARモバイルデバイスの前記ディスプレイに、前記プロセス制御環境の前記一部分に、前記デジタルモデルまたはデジタル画像を重ね合わせさせるように構成されている、請求項9に記載のサーバ。
  16. 前記サーバが、少なくとも、
    前記デジタルモデルまたはデジタル画像のユーザ選択を検出することに応答して、前記ディスプレイに、前記プロセス制御環境の前記一部分上に、前記ユーザインターフェースを重ね合わせさせることにもよって、前記ARモバイルデバイスの前記ディスプレイに、前記プロセス制御環境の前記一部分上に、前記デジタルモデルまたはデジタル画像および前記ユーザインターフェースを重ね合わせさせるように構成されている、請求項9に記載のサーバ。
  17. ユーザとプロセス制御環境内の第1の現実世界オブジェクトとの間の対話を容易にするための拡張現実(AR)モバイルデバイスであって、前記ARモバイルデバイスが、カメラおよびディスプレイを含み、前記ARモバイルデバイスが、
    前記ユーザが前記プロセス制御環境を通って移動するときに、かつ前記ディスプレイを介して、前記カメラの視野内にある前記プロセス制御環境の部分上にデジタル情報を重ね合わせることであって、前記重ね合わされた情報が、前記プロセス制御環境のマップ内のノードに関連付けられており、前記ノードが、前記プロセス制御環境内の他の現実世界オブジェクトに対応している、重ね合わせることと、
    前記ディスプレイを介して、前記第1の現実世界オブジェクトが前記カメラの前記視野内にない間に、前記第1の現実世界オブジェクトへの方向を示すことと、
    前記ARモバイルデバイスを介して行われ、前記第1の現実世界オブジェクトの選択を示すユーザ入力を検出した後に、現在前記カメラの前記視野内にあるが、前記第1の現実世界オブジェクトを含まない前記プロセス制御環境の一部分上に、かつ前記ディスプレイを介して、
    前記第1の現実世界オブジェクトのデジタルモデルまたはデジタル画像と、
    少なくとも(i)前記第1の現実世界オブジェクトのユーザ制御を提供する1つ以上の仮想制御、ならびに/または(ii)前記第1の現実世界オブジェクトのステータス、設定、および/もしくは出力に関連付けられている情報を提示する1つ以上のディスプレイを提供するユーザインターフェースと、を重ね合わせさせることと、を行うように構成されている、サーバ。
  18. 前記ARモバイルデバイスが、前記第1の現実世界オブジェクトの選択を示す前記ユーザ入力を検出した後に、前記ディスプレイを介して、前記第1の現実世界オブジェクトへの前記方向を示すように構成されている、請求項17に記載のARモバイルデバイス。
  19. 前記ARモバイルデバイスが、少なくとも、
    前記プロセス制御環境の前記部分上に、前記デジタルモデルまたはデジタル画像とともに、前記第1の現実世界オブジェクト内の前記方向において指し示す矢印を重ね合わせさせることによって、前記ディスプレイを介して、前記第1の現実世界オブジェクトへの前記方向を示すように構成されている、請求項17に記載のARモバイルデバイス。
  20. 前記ARモバイルデバイスが、(i)前記第1の現実世界オブジェクトが、前記ARモバイルデバイスの閾値距離内にあること、および(ii)前記第1の現実世界オブジェクトが、現在前記カメラの前記視野内にないことを検出することに応答して、前記第1の現実世界オブジェクトへの前記方向を示すように構成されている、請求項17に記載のARモバイルデバイス。
JP2020517557A 2017-09-27 2018-09-26 アクセス制限されたオブジェクトへの仮想アクセス Active JP7198276B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762564074P 2017-09-27 2017-09-27
US62/564,074 2017-09-27
US16/036,384 2018-07-16
US16/036,384 US11062517B2 (en) 2017-09-27 2018-07-16 Virtual access to a limited-access object
PCT/US2018/052897 WO2019067573A1 (en) 2017-09-27 2018-09-26 VIRTUAL ACCESS TO A LIMITED ACCESS OBJECT

Publications (3)

Publication Number Publication Date
JP2020535534A true JP2020535534A (ja) 2020-12-03
JP2020535534A5 JP2020535534A5 (ja) 2021-10-14
JP7198276B2 JP7198276B2 (ja) 2022-12-28

Family

ID=65807773

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018179420A Active JP7315313B2 (ja) 2017-09-27 2018-09-25 プロセス制御環境の3dマッピング
JP2020517566A Active JP7209704B2 (ja) 2017-09-27 2018-09-26 プロセス制御環境における仮想x線視角
JP2020517557A Active JP7198276B2 (ja) 2017-09-27 2018-09-26 アクセス制限されたオブジェクトへの仮想アクセス
JP2023115085A Pending JP2023153815A (ja) 2017-09-27 2023-07-13 プロセス制御環境の3dマッピング

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018179420A Active JP7315313B2 (ja) 2017-09-27 2018-09-25 プロセス制御環境の3dマッピング
JP2020517566A Active JP7209704B2 (ja) 2017-09-27 2018-09-26 プロセス制御環境における仮想x線視角

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023115085A Pending JP2023153815A (ja) 2017-09-27 2023-07-13 プロセス制御環境の3dマッピング

Country Status (6)

Country Link
US (4) US11062517B2 (ja)
JP (4) JP7315313B2 (ja)
CN (3) CN109559380A (ja)
DE (2) DE112018004395T5 (ja)
GB (3) GB2607819B (ja)
WO (2) WO2019067573A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650597B2 (en) * 2018-02-06 2020-05-12 Servicenow, Inc. Augmented reality assistant
US10977867B2 (en) * 2018-08-14 2021-04-13 Goodrich Corporation Augmented reality-based aircraft cargo monitoring and control system
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
US10547974B1 (en) * 2019-03-19 2020-01-28 Microsoft Technology Licensing, Llc Relative spatial localization of mobile devices
JP2020197836A (ja) * 2019-05-31 2020-12-10 ファナック株式会社 産業用機械のデータ収集確認装置
US11307647B2 (en) * 2019-09-11 2022-04-19 Facebook Technologies, Llc Artificial reality triggered by physical object
CN110718043B (zh) * 2019-10-17 2021-07-30 辽宁中航信诺科技有限公司 基于ar人工智能设备的危险区域的检查报警方法
US11250624B2 (en) * 2020-04-24 2022-02-15 Trimble Inc. Methods of displaying an augmented reality model on an augmented reality device
US20230230374A1 (en) * 2020-05-15 2023-07-20 Beijing Xiaomi Mobile Software Co., Ltd. Method and device for positioning internet of things devices
US11120093B1 (en) * 2020-06-02 2021-09-14 Capital One Services, Llc System and method for providing a content item based on computer vision processing of images
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
WO2022035910A1 (en) * 2020-08-10 2022-02-17 Orcana Inc. Method and platform for portable remote support during medical device implantation using augmented reality devices
CN112287928A (zh) * 2020-10-20 2021-01-29 深圳市慧鲤科技有限公司 一种提示方法、装置、电子设备及存储介质
WO2022184569A1 (en) 2021-03-01 2022-09-09 Signify Holding B.V. Displaying an aggregation of data in dependence on a distance to a closest device in an image
CN117813541A (zh) * 2021-07-30 2024-04-02 伊奎蒂公司 交互式标线
TWI808669B (zh) * 2022-03-04 2023-07-11 國眾電腦股份有限公司 多點同步指導偕同作業系統及其方法
CN115468560B (zh) * 2022-11-03 2023-03-24 国网浙江省电力有限公司宁波供电公司 基于多传感信息融合的质检方法、机器人、设备及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120251996A1 (en) * 2011-03-31 2012-10-04 Korea Electronics Technology Institute Method and system for plant management by augmentation reality
JP2014503923A (ja) * 2011-01-31 2014-02-13 クアルコム,インコーポレイテッド コンテキストアウェアな拡張相互作用
US20140210947A1 (en) * 2013-01-30 2014-07-31 F3 & Associates, Inc. Coordinate Geometry Augmented Reality Process
US20140375683A1 (en) * 2013-06-25 2014-12-25 Thomas George Salter Indicating out-of-view augmented reality images
US20150302650A1 (en) * 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time
US20160284128A1 (en) * 2015-03-27 2016-09-29 Rockwell Automation Technologies, Inc. Systems and methods for presenting an augmented reality
JP2017097869A (ja) * 2015-11-18 2017-06-01 エフ ホフマン−ラ ロッシュ アクチェン ゲゼルシャフト 電子検査室ジャーナルへの入力情報を生成するための方法
WO2017098822A1 (ja) * 2015-12-10 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017143409A (ja) * 2016-02-10 2017-08-17 株式会社Jvcケンウッド 移動端末装置およびプログラム

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002538543A (ja) * 1999-03-02 2002-11-12 シーメンス アクチエンゲゼルシヤフト 強調現実感技術により対話を状況に応じて支援するためのシステム及び方法
US7079990B2 (en) 2001-02-08 2006-07-18 Solidworks Corporation Automated connections of computer-aided design components
US7092974B2 (en) * 2003-03-12 2006-08-15 Right Hemisphere Limited Digital asset server and asset management system
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US7920071B2 (en) * 2006-05-26 2011-04-05 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method providing status and control of unmanned vehicles
US20090322671A1 (en) 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US8397181B2 (en) * 2008-11-17 2013-03-12 Honeywell International Inc. Method and apparatus for marking a position of a real world object in a see-through display
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US20140063055A1 (en) * 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
US9710554B2 (en) * 2010-09-23 2017-07-18 Nokia Technologies Oy Methods, apparatuses and computer program products for grouping content in augmented reality
US9424371B2 (en) * 2010-11-05 2016-08-23 Autodesk, Inc. Click to accept as built modeling
US9865125B2 (en) * 2010-11-15 2018-01-09 Bally Gaming, Inc. System and method for augmented reality gaming
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US20150153181A1 (en) 2011-07-27 2015-06-04 Google Inc. System and method for providing indoor navigation services
CA2754225A1 (en) * 2011-08-29 2013-02-28 Clover Point Cartographics Ltd. Geographic asset management system and method
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
JP5999679B2 (ja) 2012-01-18 2016-09-28 株式会社日立製作所 設備保守管理システム
US8948456B2 (en) 2012-05-11 2015-02-03 Bosch Automotive Service Solutions Llc Augmented reality virtual automotive X-ray having service information
US9147221B2 (en) 2012-05-23 2015-09-29 Qualcomm Incorporated Image-driven view management for annotations
US9420275B2 (en) 2012-11-01 2016-08-16 Hexagon Technology Center Gmbh Visual positioning system that utilizes images of a working environment to determine position
CN102981616B (zh) * 2012-11-06 2017-09-22 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
US9730029B2 (en) 2012-11-08 2017-08-08 Duke University Unsupervised indoor localization and heading directions estimation
JP6016268B2 (ja) 2012-12-20 2016-10-26 Kddi株式会社 フィールド作業支援装置、方法及びプログラム
US9959674B2 (en) * 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device
US20140267234A1 (en) 2013-03-15 2014-09-18 Anselm Hook Generation and Sharing Coordinate System Between Users on Mobile
US10139623B2 (en) 2013-06-18 2018-11-27 Microsoft Technology Licensing, Llc Virtual object orientation and visualization
US20150062123A1 (en) 2013-08-30 2015-03-05 Ngrain (Canada) Corporation Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
US10209955B2 (en) * 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US9383816B2 (en) * 2013-11-15 2016-07-05 Kopin Corporation Text selection using HMD head-tracker and voice-command
US9530250B2 (en) 2013-12-10 2016-12-27 Dassault Systemes Augmented reality updating of 3D CAD models
US20150169597A1 (en) 2013-12-17 2015-06-18 Qualcomm Incorporated Methods and Systems for Locating Items and Determining Item Locations
US9629774B2 (en) 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
FR3019333B1 (fr) 2014-03-26 2016-03-11 Schneider Electric Ind Sas Procede de generation d'un contenu en realite augmentee
US9754167B1 (en) * 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
FR3023948B1 (fr) * 2014-07-21 2017-12-22 Airbus Operations Sas Procede d'aide a la maintenance d'un aeronef par realite augmentee.
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US20160140868A1 (en) 2014-11-13 2016-05-19 Netapp, Inc. Techniques for using augmented reality for computer systems maintenance
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
WO2016157193A1 (en) 2015-04-01 2016-10-06 Snapback S.R.L. Methods and systems foe electronic device interactions
EP3281403A4 (en) * 2015-04-06 2018-03-07 Scope Technologies US Inc. Methods and apparatus for augmented reality applications
US10007413B2 (en) * 2015-04-27 2018-06-26 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
US10083544B2 (en) * 2015-07-07 2018-09-25 Google Llc System for tracking a handheld device in virtual reality
US10206068B2 (en) 2015-07-09 2019-02-12 OneMarket Network LLC Systems and methods to determine a location of a mobile device
US10037627B2 (en) * 2015-08-14 2018-07-31 Argis Technologies Llc Augmented visualization system for hidden structures
US20170053042A1 (en) * 2015-08-19 2017-02-23 Benjamin John Sugden Holographic building information update
US10395116B2 (en) 2015-10-29 2019-08-27 Hand Held Products, Inc. Dynamically created and updated indoor positioning map
US10176641B2 (en) 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view
US10198874B2 (en) 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
US10802147B2 (en) 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
EP3486750B1 (en) * 2016-07-12 2023-10-18 FUJIFILM Corporation Image display system, control device for head-mounted display, and operating method and operating program for operating same
US10685489B2 (en) * 2017-03-02 2020-06-16 Daqri, Llc System and method for authoring and sharing content in augmented reality
US10878240B2 (en) 2017-06-19 2020-12-29 Honeywell International Inc. Augmented reality user interface on mobile device for presentation of information related to industrial process, control and automation system, or other system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014503923A (ja) * 2011-01-31 2014-02-13 クアルコム,インコーポレイテッド コンテキストアウェアな拡張相互作用
US20120251996A1 (en) * 2011-03-31 2012-10-04 Korea Electronics Technology Institute Method and system for plant management by augmentation reality
US20140210947A1 (en) * 2013-01-30 2014-07-31 F3 & Associates, Inc. Coordinate Geometry Augmented Reality Process
US20140375683A1 (en) * 2013-06-25 2014-12-25 Thomas George Salter Indicating out-of-view augmented reality images
US20150302650A1 (en) * 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time
US20160284128A1 (en) * 2015-03-27 2016-09-29 Rockwell Automation Technologies, Inc. Systems and methods for presenting an augmented reality
JP2017097869A (ja) * 2015-11-18 2017-06-01 エフ ホフマン−ラ ロッシュ アクチェン ゲゼルシャフト 電子検査室ジャーナルへの入力情報を生成するための方法
WO2017098822A1 (ja) * 2015-12-10 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017143409A (ja) * 2016-02-10 2017-08-17 株式会社Jvcケンウッド 移動端末装置およびプログラム

Also Published As

Publication number Publication date
CN111149134A (zh) 2020-05-12
GB2607819A (en) 2022-12-14
CN111149133B (zh) 2023-12-15
WO2019067573A1 (en) 2019-04-04
JP2023153815A (ja) 2023-10-18
GB2580825A (en) 2020-07-29
JP2020535536A (ja) 2020-12-03
US20190096131A1 (en) 2019-03-28
DE112018004347T5 (de) 2020-05-07
US20190096133A1 (en) 2019-03-28
JP2019067383A (ja) 2019-04-25
US20200402320A1 (en) 2020-12-24
GB202004546D0 (en) 2020-05-13
US20190096132A1 (en) 2019-03-28
WO2019067570A1 (en) 2019-04-04
US11062517B2 (en) 2021-07-13
JP7209704B2 (ja) 2023-01-20
DE112018004395T5 (de) 2020-05-14
JP7315313B2 (ja) 2023-07-26
JP7198276B2 (ja) 2022-12-28
GB2580824A (en) 2020-07-29
US11080931B2 (en) 2021-08-03
US11244515B2 (en) 2022-02-08
GB202004547D0 (en) 2020-05-13
GB202212775D0 (en) 2022-10-19
GB2580824B (en) 2022-08-17
GB2607819B (en) 2023-04-12
CN111149133A (zh) 2020-05-12
GB2580825B (en) 2022-09-28
CN109559380A (zh) 2019-04-02
US10796487B2 (en) 2020-10-06

Similar Documents

Publication Publication Date Title
JP7209704B2 (ja) プロセス制御環境における仮想x線視角
US11783553B2 (en) Systems and methods for facilitating creation of a map of a real-world, process control environment
US11887312B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
RU2557468C2 (ru) Переносной полевой инструмент для технического обслуживания с улучшенной функцией базовой информированности
US11816887B2 (en) Quick activation techniques for industrial augmented reality applications
GB2568138A (en) 3D Mapping of a process control environment
GB2606650A (en) Drift correction for industrial augmented reality applications
KR20170089575A (ko) 증강 현실을 이용한 물류 관리 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R150 Certificate of patent or registration of utility model

Ref document number: 7198276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150