JP2019067383A - プロセス制御環境の3dマッピング - Google Patents
プロセス制御環境の3dマッピング Download PDFInfo
- Publication number
- JP2019067383A JP2019067383A JP2018179420A JP2018179420A JP2019067383A JP 2019067383 A JP2019067383 A JP 2019067383A JP 2018179420 A JP2018179420 A JP 2018179420A JP 2018179420 A JP2018179420 A JP 2018179420A JP 2019067383 A JP2019067383 A JP 2019067383A
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- user
- real world
- node
- world object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004886 process control Methods 0.000 title claims abstract description 94
- 238000013507 mapping Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 109
- 230000003190 augmentative effect Effects 0.000 claims abstract description 14
- 238000005259 measurement Methods 0.000 claims abstract description 14
- 230000000007 visual effect Effects 0.000 claims description 54
- 230000004044 response Effects 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 6
- 238000012369 In process control Methods 0.000 abstract description 3
- 238000010965 in-process control Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 48
- 238000004891 communication Methods 0.000 description 40
- 230000015654 memory Effects 0.000 description 18
- 230000004438 eyesight Effects 0.000 description 16
- 238000012423 maintenance Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 239000003550 marker Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000011217 control strategy Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003863 physical function Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 231100000331 toxic Toxicity 0.000 description 2
- 230000002588 toxic effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- -1 smart phones Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4185—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Manufacturing & Machinery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
Description
験が、ユーザによって観察されているオブジェクトの特定のコンテキストにおいて、1つ以上の他のソフトウェアアプリケーションまたはシステムを起動(またはそれにリンク)する。例えば、ARモバイルデバイスは、視界内の選択されたオブジェクト/ノード(例えば、フィールドデバイス)のセンサデータ、状態、及び/または仮想コントロールを重ね合わせ得、データは異なるアプリケーションから受信され(かつコントロールへのユーザ入力は異なるアプリケーションに送信される)。
たオブジェクトを装備することなく、かつ環境をナビゲートするユーザによる時間を要する行為(例えば、オブジェクト上のQRコードのスキャン、オブジェクト識別子の手動データ入力、物理的なオブジェクトへの接続など)を必要とすることなく、いつユーザに拡張情報を提供すべきかを判定し得る。したがって、特にプロセス制御環境におけるARシステムの展開に対する従来の障壁は、軽減または除去され得る。
図1は、環境(例えば、プロセス制御環境)においてAR体験を提供するためのARプラットフォームを一般に提供し得る拡張現実(AR)システム10の例を描画する。ARシステム10は、ユーザのARモバイルデバイス12と、ネットワーク16を介してARモバイルデバイス12に通信可能に結合され得るバックエンドサーバ14とを含む。ARモバイルデバイス12は、適切な処理及び感知能力を有し、着用可能であるか、または別様にユーザが携帯することができる任意のコンピューティングデバイスであってよい。例えば、ARモバイルデバイス12は、ARヘルメット(例えば、DAQRI(登録商標)によって開発されたSmart Helmet(登録商標))またはARゴーグルなどの、ARのために特別に構成されたデバイスであってよい。代替的に、ARモバイルデバイス12は、非ARアプリケーション(例えば、タブレット、スマートフォン、スマートメガネ、スマートウォッチなど)も有するデバイスであり得るが、AR能力を有するようにデバイス12を構成するソフトウェアアプリケーションを実行する。図1は1つのARモバイルデバイス12のみを描画しているが、ARモバイルデバイス12と同一または異なるより多くのARモバイルデバイスがARシステム10において同様の方法で使用され得
ることが理解される。
役割識別モジュール40は、役割を選択するようにユーザに促すのではなく、代わりに、ユーザによって入力または発声されるARモバイルデバイス12の識別子及び/または識別情報(例えば、名前、従業員番号など)に基づいて、ユーザの事前に割り当てられた役割を判定する。
いる。複数のマップは、同じ環境に関連付けられ得(例えば、単一の環境内の異なるオブジェクトを異なるマップのノードとして追加することによって)、かつ/または異なるマップは、異なる環境に関連付けられ得る(例えば、プロセス制御プラントの第1のエリアのマップ、プラントの第2のエリアの別のマップなど)。
に使用し、したがって、ARアプリケーション32は、どのマッピングされたオブジェクトが任意の所与の時間に視界内にあるかを判定し得る。いくつかの実施形態では、オブジェクトがカメラセンサの水平及び垂直の範囲/程度にある場合(例えば、特定の方位角及び垂直/高度/仰角内にある場合)、オブジェクトと画像を捕捉するARモバイルデバイスとの間の距離に関係なく、オブジェクトが環境内の障害物によって偶然遮断されたかどうかを問わず、オブジェクトは、カメラの「視界内にある」と見なされてよい。例えば、カメラ24の直接及び間接的に前にあるオブジェクトは、たとえオブジェクトが囲い、障壁、他のオブジェクトなどによって遮蔽されたとしても、カメラ24の「視界内」と見なされてよい。他の実施形態では、オブジェクトは、オブジェクトが不明瞭でない場合、すなわちカメラがオブジェクトの画像を捕捉することができる間に、カメラの「視界内にある」としか見なされない。
に提供されない。例えば、ノード体験モジュール46は、ユーザがキャビネットのアイコンまたは他のグラフィック表現を選択しない限り、かつ/またはキャビネットの内容物を見せるオプションを選択するなどしない限り、異なるマッピングされたオブジェクトに各々対応する、キャビネット内の比較的小さい構成要素の多くに対して拡張を提供し得ない。
オブジェクトの回転する3Dモデル)などを重ね合わせ得る。
されてよく、「保守者」は、代わりに(または加えて)、センサ/トランスミッタからデバイスの電源への線を示されてよい(例えば、保守者がデバイスの保守、修理または交換を行う前に、電源を遮断する箇所を容易に見つけることができるように)。
ール48は、ARモバイルデバイス12とオブジェクトとの間の距離を判定するために、深度検知技術を使用して、カメラ24によって捕捉されたオブジェクトの画像を処理し得る。次いで、位置決め及び配向モジュール44は、ARモバイルデバイス12の判定された距離及び配向(例えば、オブジェクトの画像が捕捉されたときにARモバイルデバイス12の視界が向いていた距離及び方向)の両方に基づいて、ARモバイルデバイス12の位置からオブジェクトの位置をオフセットし得る。
ット内にあるかを判定し、キャビネット内のオブジェクトが不明瞭であることを示すデータを送り返してよい。
タを入力することによって)、またはユーザが比較的遠く(例えば、いくつかの閾値距離を超えて離れている)のオブジェクトについてノードマーカーを選択したことなどに応答して、アバターをユーザに提示してよい。そのような実施形態の1つでは、アバターは、即座にフルサイズで現れない。例えば、視覚強調モジュール50は、アバターがオブジェクト位置から(例えば、ユーザの前方から離れて)ユーザのちょうど前の位置に移動するかのように、アバターがユーザに現れる視覚的効果を作成し得る。アバターは、例えば、ユーザにより近い描画効果をシミュレートするためにサイズが拡大されてよい。
況などを監視するために使用され得る。更に他の実施形態及び/またはシナリオでは、マッピングされた環境内で特定の非人為的モバイルアセットの3D位置が追跡され得る。例えば、バックエンドサーバ14のユニットは、様々な目的のために、モバイルリアクタ、カート、フィールドサービストラック、及び/または他のオブジェクトの3D位置を監視し得る。
図2は、図1のARシステム10が利用され得る例示的なプロセス制御環境100のブロック図である。プロセス制御環境100(本明細書においては、同義でプロセス制御システム100またはプロセスプラント100とも称される)は、プラント100内のプロセスの動作を制御するために、フィールドデバイスにより行われたプロセス測定値を示す信号を受信し、この情報を処理して制御ルーチンを実装し、有線及び/または無線プロセス制御通信リンクまたはネットワークにより他のフィールドデバイスへと送信される制御信号を生成する、1つ以上のプロセスコントローラを含む。典型的には、少なくとも1つのフィールドデバイスは、物理的機能(例えば、バルブの開閉、コンベアによる物質の移動、温度の上昇または減少、測定値の取得、状態の感知など)を実施して、プロセスの動作を制御する。ある種類のフィールドデバイスは、I/Oデバイスを使用してコントローラと通信する。プロセスコントローラ、フィールドデバイス、及びI/Oデバイスは、有線または無線であってよく、任意の数及び組み合わせの有線及び無線プロセスコントローラ、フィールドデバイス、及びI/Oデバイスが、プロセスプラント環境またはシステム100内に含まれてよい。
の数の他の有線または無線通信リンクを使用するなどの、バックボーン110以外の1つ以上の通信ネットワークを使用して、無線ゲートウェイ135と通信可能に接続されてよい。
他の種類の機能ブロックが存在する。機能ブロックは、典型的に、これらの機能ブロックが、標準4〜20mAデバイス及びある種類のスマートフィールドデバイス(例えば、HART(登録商標)デバイス)に使用されるか、もしくは関連する場合、コントローラ111に記憶され、これにより実行されてよく、またはFOUNDATION(登録商標)フィールドバスデバイスの場合であり得るようにフィールドデバイス自体に記憶され、これにより実装されてよい。コントローラ111内の1つ以上の制御モジュール138は、機能ブロックのうちの1つ以上を実行することにより実施される1つ以上の制御ループを実装してよい。
、無線アダプタ152A、152Bのうちのそれぞれ1つを介して、無線通信ネットワーク170と接続される。無線アダプタ152A、152Bは、WirelessHARTなどの無線プロトコルをサポートし、かつFoundation(登録商標)フィールドバス、プロフィバス、DeviceNetなどの1つ以上の他の通信プロトコルもサポートし得る。更に、いくつかの構成では、無線ネットワーク170は、無線ゲートウェイ135と有線通信する独立した物理デバイスであり得るか、または無線ゲートウェイ135内に一体化され得る、1つ以上のネットワークアクセスポイント155A、155Bを含む。無線ネットワーク170はまた、無線通信ネットワーク170内の無線デバイス間からパケットを転送する1つ以上のルータ158をも含み得る。無線デバイス140〜146及び152〜158は、無線通信ネットワーク170の無線リンク160により、及び/またはバックボーン110を介して、互いに、及び無線ゲートウェイ135と通信し得る。
ーション(複数可)173A及び1つ以上のデータヒストリアンデータベース(複数可)173Bをも含み、これらの各々はバックボーン110と通信可能に接続される。データヒストリアンアプリケーション(複数可)173Aは、バックボーン110を通じて提供されたデータのうちのいくつかまたは全てを収集し、そのデータを長期間記憶のためのデータヒストリアンデータベース(複数可)173Bに記憶するように動作する。構成アプリケーション(複数可)172A及び構成データベース(複数可)172Bと同様に、データヒストリアンアプリケーション(複数可)173A及びデータヒストリアンデータベース(複数可)173Bは、集中化され、プロセス制御システム100に対して単一の論理的外観を有してよく(データヒストリアンアプリケーション173Aのうちの複数のインスタンスが、プロセス制御システム100内で同時に実行され得るにも関わらず)、データヒストリアンデータベース(複数可)173Bは、単一の物理的データ記憶デバイス内か、または複数のデータ記憶デバイスにまたがって記憶されてよい。データヒストリアンアプリケーション173A、データヒストリアンデータベース(複数可)173B、及びそれらのユーザインターフェース(図2に図示せず)は、まとめてデータヒストリアンシステム173を形成する。
Radiocommunication Sector)互換プロトコルなどのモバイル通信プロトコル、近距離無線通信(NFC)もしくはBluetoothなどの短波長無線通信、及び/または他の無線通信プロトコルを使用して、他のデバイスと通信する、1つ以上の他の無線アクセスポイント174を含む。典型的には、このような無線アクセスポイント(複数可)174は、手持ち式または他のポータブルコンピューティングデバイス(例えば、ユーザインターフェースデバイス175)を、無線ネットワーク170とは異なり、無線ネットワーク170以外の異なる無線プロトコルをサポートする、それぞれの無線プロセス制御通信ネットワークによって通信できるようにする。例えば、無線またはポータブルユーザインターフェースデバイス175は、プロセスプラント100内のオペレータ(例えば、オペレータワークステーション171のうちの1つのインスタンス)により利用される、モバイルワークステーションまたは診断試験機器であってよい。いくつかのシナリオでは、ポータブルコンピューティングデバイスに加えて、1つ以上のプロセス制御デバイス(例えば、コントローラ111、フィールドデバイス115〜122、無線デバイス135、140〜158など)も、無線アクセスポイント(複数可)174によりサポートされる無線プロトコルを使用して通信する。
に/またはプラント100内の他のデバイス及び/もしくは機器の一部分のいくつかまたは全てを含み、その結果、プラント100内の3D位置(及び場合によっては、それらの互いの関係、それらのアバターなど)がARデータベース72に記憶される。いくつかの実施形態では、バックエンドサーバ14は、バックボーン110に通信可能に結合され、他のサーバ(複数可)18は、オペレータワークステーション(複数可)171、構成システム172、データヒストリアンシステム173、及び/またはプロセス制御環境100の他のコンピューティングデバイスまたはシステムを含む、またはそれらに結合されてよい。
上記の図1の説明から、ARシステム10の3D「マップ」は環境の完全なモデルである必要はなく、その環境内のノードの3D位置のみを含み得ることが理解されるべきである。4つのオブジェクト/ノードのみを含む非常に単純化された例示的な3Dマップ200が図3に示される。図3において、z軸は仰角(例えば、地上レベル)に対応する。上述されたように、ランドマーク位置202は、環境内の他のすべての位置(例えば、ノード及びユーザ/ARデバイスの位置)について基準点を提供し得る。
ARディスプレイ(例えば、図1のARモバイルデバイス12のディスプレイ22)上に重ね合わされ得る1セットの例示的なユーザインターフェースが、図4A〜図4Hに関連してここで説明される。説明を容易にするために、図1のARシステム10についても参照するが、示されるユーザインターフェースは代わりに他のシステムで使用されてよい。ユーザの選択が行われ得るユーザインターフェースについて、選択は、特定のメニューオプションを直接見るユーザによって行われてよい(例えば、ユーザインターフェースが、ディスプレイ22の中心に対する固定位置ではなく、環境に対する固定位置を有する場合)。他の実施形態では、選択は、ユーザが適切な音声コマンドを発すること、キーボードまたはタッチスクリーン上にデータを入力すること、または別の適切な方法で行われてよい。
び位置決め及び配向モジュール44が新しいオブジェクト/ノードを配置するために必要な位置及び/または配向情報(例えば、ARモバイルデバイス12の位置、デバイス12の配向、及びデバイス12からオブジェクトまでの距離)を判定した後に、現れ得るユーザインターフェース300を描画する。例示的なユーザインターフェース300は、ユーザがノード名及び/またはノード記述を入力するためのテキストボックスを含む。代替的に、この情報の一部または全部は、音声コマンド(例えば、ユーザがマイクアイコンを選択した場合)によって提供されてよい。他の実施形態では、光学文字認識(OCR)技術を使用してオブジェクトの一部の画像を処理することによって、ノード名及び/または記述が判定されてよい。例えば、ユーザは、カメラ24を、オブジェクトに貼付され、シリアル番号、モデル番号、または他の識別子を含む、タグまたはラベルの方に向けてよい。次いで、識別子は、ウェブサービスインターフェース60を介してバックエンドサーバ14に送信され、バックエンドサーバ14に記憶された情報と相互参照されるか、または別のシステムもしくはデータベース(例えば、他のサーバ(複数可)18)に記憶されて、ノード名及び/または記述を判定してよい。
0の上部の塗りつぶし円は後者の位置にってよい。当然のことながら、塗りつぶし円の相対位置は、シナリオに応じて変化してよい(例えば、選択されたオブジェクト/ノードの円は、接続されたオブジェクト/ノードの円よりも現実世界のビューで高く現れ得る)。
図5A及び図5Bは、(例えば、図2のプロセス制御環境100で使用される場合の)図1のARデータベース72によって利用され得るデータベース構造400を集合的に描画する。データベース構造400において、各ボックスは、ARデータベース72に記憶され得るテーブルを表し、各ボックスの最上部の行はテーブル名(例えば、「ノード」、「ノード状態」など)である。テーブルは主キーを使用してリンクされ、各キーは図5A及び5Bにキーアイコン及び文字「PK」で示されている。
図6及び図7は、ARプラットフォーム(例えば、図1のARシステム10によって提供される)が、ユーザの「仮想視覚」を強調する機能を提供する実施形態に関する。図6は、プロセス制御環境内(例えば、図2のプロセス制御環境100内)の閉じたキャビネット内に「見る」ために使用される「仮想X線視覚」機能(図1に関連して上述された)を描画する一方で、図7A及び図7Bは、プロセス制御環境のエリアの制限付きアクセス(例えば、届きにくい、または危険な)エリアにあり、かつ/または、ユーザの現在の位置から離れている「アバター」(図1に関連しても上述された)がセンサ/トランスミッタデバイスに対して提供される特定のシナリオを描画する。
またはQRコードをスキャンすることなどによって)、図1の視覚強調モジュール50は、ユーザインターフェース520をユーザの現実世界のビューに重ね合わせ得る。
フォルトで、アバター560が提示され得る。図7Bの例示的なユーザインターフェース570は、プロセス値(ここでは、センサ読み取り値)を提供し、デバイスのユーザ制御を可能にするノード体験に対応する(ここでは較正プロセスを開始することによって)。このノード体験を可能にするために、図1の体験プロビジョニングユニット62は、上述されたように、他のサーバ(複数可)18によって実行される1つ以上のアプリケーション(複数可)19と通信し得る。例えば、体験プロビジョニングユニット62は、プロセス制御アプリケーションを起動させるか、またはAPIなどを使用して実行中のプロセス制御アプリケーションと対話し得る。
図8は、モバイルデバイスを使用して現実世界のプロセス制御環境(例えば、図2のプロセス制御環境100)をマッピングする方法例600を描画する。方法600は、例えば、図1のARモバイルデバイス12または別の適切なモバイルデバイスを使用して実行され得る。いくつかの実施形態では、AR能力のないモバイルデバイスが使用され得る。
、方法600を実行するデバイス、システムなどは、例えば、ウェブサービスインターフェース(例えば、図1のウェブサービスインターフェース60)を介して要求を行うことによって、別のデバイス、システムなどにオブジェクトの3D位置を判定させる。
図9は、現実世界のプロセス制御環境(例えば、図2のプロセス制御環境100)において、ARモバイルデバイスのユーザに仮想強調視覚(例えば仮想「X線視覚」)を提供するための例示的な方法620を示す。方法620は、例えば、図1のバックエンドサーバ14などのコンピューティングシステムまたはデバイスの1つ以上のプロセッサ、及び/または図1のARモバイルデバイス12などのARモバイルデバイスによって実行され得る。
図10は、ARモバイルデバイスのユーザと、プロセス制御環境(例えば、図2のプロセス制御環境100)の制限付きアクセス(例えば、危険な、バリケードなど)エリアに存在し得る、現実世界のオブジェクト(「第1のオブジェクト」)との間の対話を容易にする方法例640を描画する。方法640は、例えば、図1のバックエンドサーバ14などのコンピューティングシステムまたはデバイスの1つ以上のプロセッサ、及び/または
図1のARモバイルデバイス12などのARモバイルデバイスによって実行され得る。
かを問わず、ウェブサービスインターフェース(例えば、ウェブサービスインターフェース60を使用して図1のARデータベース72から)を使用してデータベースから検索され得る。
ソフトウェアに実装する場合、本明細書に記載されるアプリケーション及び機能のいずれかは、コンピュータまたはプロセッサのRAMまたはROM内で、磁気ディスク、レーザーディスク、半導体メモリデバイス、分子メモリ記憶デバイス、または他の記憶媒体などの任意の有形の非一過性のコンピュータ可読メモリ内に命令として、記憶されてよい。本明細書で開示される例示的なシステムは、ハードウェア上で実行される他のコンポーネント、ソフトウェア及び/またはファームウェアを含むものとして開示されるが、このようなシステムは、単なる例示であり、限定するものではないということに留意するべきである。例えば、これらのハードウェア、ソフトウェア、及びファームウェア構成要素のうちのいずれかまたは全てが、ハードウェアにのみ、ソフトウェアにのみ、あるいはハードウェア及びソフトウェアの任意の組み合わせで、埋め込まれ得ることが企図される。したがって、本明細書に記載される例示的システムは、1つ以上のコンピュータデバイスのプロセッサにおいて実行されるソフトウェアに実装されるように記載されているが、当業者ならば、提供される例が、そのようなシステムを実装するための唯一の方法であるわけではないことを容易に理解するであろう。
Claims (20)
- モバイルデバイスを使用して現実世界のプロセス制御環境をマッピングする方法であって、前記方法が、
前記プロセス制御環境内の基準位置に前記モバイルデバイスを登録することと、
少なくとも、前記モバイルデバイスの慣性測定ユニットを使用して、(i)前記基準位置に対する前記モバイルデバイスの3次元(3D)位置、及び(ii)前記モバイルデバイスの配向、を追跡することと、
前記モバイルデバイスにおいて、新しいノードが前記プロセス制御環境の3Dマップに追加されるべきであることを示すユーザ入力を検出することと、
少なくとも、(i)追跡された前記モバイルデバイスの3D位置、及び(ii)追跡された前記モバイルデバイスの配向に、基づいて、前記基準位置に対する現実世界オブジェクトの3D位置を判定するか、または前記現実世界オブジェクトの前記3D位置を判定させることと、
少なくとも、前記現実世界オブジェクトの3D位置を前記新しいノードに関連付けて記憶させることによって、ノードデータベースに前記プロセス制御環境の前記3Dマップに前記新しいノードの追加させることと、
を含む方法。 - 前記基準位置に前記モバイルデバイスを登録することが、
前記モバイルデバイスのカメラを使用して、コードの視覚的表現をスキャンすることを含み、前記視覚的表現が、前記基準位置に位置している、
請求項1に記載の方法。 - 前記モバイルデバイスのカメラを使用して、コードの視覚的表現をスキャンすることが、
前記モバイルデバイスの前記カメラを使用して、前記基準位置に位置しているQRコードをスキャンすることを含む、
請求項2に記載の方法。 - 前記モバイルデバイスの前記3D位置及び前記モバイルデバイスの前記配向を追跡することが、
前記慣性測定ユニット及び前記モバイルデバイスのカメラを使用して、前記モバイルデバイスの前記3D位置及び前記モバイルデバイスの前記配向を追跡することを含む、
請求項1に記載の方法。 - 新しいノードが前記3Dマップに追加されるべきであることを示すユーザ入力を検出することが、
音声コマンド、キーボード入力、またはタッチスクリーン入力を検出することを含む、請求項1に記載の方法。 - 前記現実世界オブジェクトの前記3D位置を判定すること、または前記現実世界オブジェクトの前記3D位置を判定させることが、
前記モバイルデバイスのカメラを使用して前記現実世界のオブジェクトの画像を捕捉することと、
少なくとも、深度感知技術を使用して前記現実世界オブジェクトの前記画像を処理することによって、前記モバイルデバイスと前記現実世界オブジェクトとの間の距離を判定することと、
少なくとも、(i)前記追跡され前記モバイルデバイスの3D位置、(ii)前記モバイルデバイスと前記現実世界オブジェクトとの間の前記距離、及び(iii)前記追跡さ
れた前記モバイルデバイスの配向、に基づいて、前記現実世界オブジェクトの前記3D位置を判定するか、または前記現実世界オブジェクトの前記3D位置を判定させることと、を含む、
請求項1に記載の方法。 - 前記モバイルデバイスにおいて、前記新しいノードの識別子及び/または記述を示すユーザ入力を受信することと、を更に含み、
前記ノードデータベースに、前記新しいノードを前記プロセス制御環境の前記3Dマップに追加させることが、前記新しいノードの前記識別子及び/または前記記述を前記新しいノードに関連付けて記憶させることを更に含む、
請求項1に記載の方法。 - 前記モバイルデバイスが、拡張現実(AR)モバイルデバイスのディスプレイを介して提示された現実世界のビューにデジタル情報を重ね合わせる前記ARモバイルデバイスである、請求項1に記載の方法。
- モバイルデバイスを使用して現実世界のプロセス制御環境をマッピング及びナビゲートする方法であって、前記方法が、
前記プロセス制御環境内の基準位置に第1のモバイルデバイスを登録することと、
少なくとも、前記第1のモバイルデバイスの慣性測定ユニットを使用して、(i)前記基準位置に対する前記第1のモバイルデバイスの3次元(3D)位置、及び(ii)前記第1のモバイルデバイスの配向を追跡することと、
前記第1のモバイルデバイスにおいて、新しいノードが前記プロセス制御環境の3Dマップに追加されるべきであることを示すユーザ入力を検出することと、
少なくとも、(i)追跡された前記第1のモバイルデバイスの3D位置、及び(ii)追跡された前記第1のモバイルデバイスの配向、に基づいて、前記基準位置に対する現実世界オブジェクトの3D位置を判定するか、または前記現実世界オブジェクトの前記3D位置を判定させることと、
少なくとも、前記現実世界オブジェクトの前記3D位置を前記新しいノードに関連付けて記憶させることによって、ノードデータベースに、前記プロセス制御環境の前記3Dマップに前記新しいノードの追加させることと、
少なくとも、第2のモバイルデバイスの慣性測定ユニットを使用して、(i)前記第2のモバイルデバイスの3D位置、及び(ii)前記第2のモバイルデバイスの配向を追跡することと、
(i)追跡された前記第2のモバイルデバイスの配向に基づいて、前記現実世界オブジェクトが前記第2のモバイルデバイスのカメラの視界内のエリア内にあると判定すること、及び(ii)追跡された前記第2のモバイルデバイスの位置に基づいて、前記現実世界オブジェクトが前記第2のモバイルデバイスに近接していると判定すること、の両方うちの1つによって、トリガ条件を検出することと、
前記トリガ条件を検出することに応答して、前記新しいノードに関連付けられているデジタル情報に、前記第2のモバイルデバイスのディスプレイを介して提示される現実世界のビューに重ね合わさせることと、
を含む方法。 - 前記基準位置に前記第2のモバイルデバイスを登録することを更に含み、
前記第2のモバイルデバイスの3D位置を追跡することが、前記基準位置に対する前記第2のモバイルデバイスの前記3D位置を追跡することを含む、
請求項9に記載の方法。 - 前記基準位置に前記第1のモバイルデバイスを登録することが、
前記第1のモバイルデバイスのカメラを使用して、コードの視覚的表現をスキャンすることを含み、前記視覚的表現が、前記基準位置に位置している、
請求項9に記載の方法。 - 新しいノードが前記3Dマップに追加されるべきであることを示すユーザ入力を検出することが、
音声コマンド、キーボード入力、またはタッチスクリーン入力を検出することを含む、請求項9に記載の方法。 - 前記現実世界オブジェクトの前記3D位置を判定するか、または前記現実世界オブジェクトの前記3D位置を判定させるかが、
前記第1のモバイルデバイスのカメラを使用して、前記現実世界オブジェクトの画像を捕捉することと、
少なくとも、深度感知技術を使用して前記現実世界オブジェクトの前記画像を処理することによって、前記第1のモバイルデバイスと前記現実世界オブジェクトとの間の距離を判定することと、
少なくとも、(i)前記追跡された前記第1のモバイルデバイスの3D位置、(ii)前記第1のモバイルデバイスと前記現実世界オブジェクトとの間の前記距離、及び(iii)前記追跡された前記第1のモバイルデバイスの配向に基づいて、前記現実世界オブジェクトの前記3D位置を判定するか、または前記現実世界オブジェクトの前記3D位置を判定させるか、を含む、
請求項9に記載の方法。 - 前記第1のモバイルデバイスにおいて、前記新しいノードの識別子及び/または記述を示すユーザ入力を受信することを更に含み、
前記ノードデータベースに前記新しいノードを前記プロセス制御環境の前記3Dマップに追加させることが、前記新しいノードの前記識別子及び/または前記記述を前記新しいノードに関連付けて記憶させることを更に含む、
請求項9に記載の方法。 - 前記第1のモバイルデバイス及び前記第2のモバイルデバイスが、拡張現実(AR)モバイルデバイスのディスプレイを介して提示される現実世界のビューにデジタル情報を重ね合わせる前記ARモバイルデバイスである、請求項9に記載の方法。
- 現実世界のプロセス制御環境をマッピングするためのシステムであって、前記システムが、
サーバと、
慣性測定ユニットを備えるモバイルデバイスであって、前記モバイルデバイスが、
前記プロセス制御環境内の基準位置に登録し、
少なくとも前記慣性測定ユニットを使用して、(i)前記基準位置に対する前記モバイルデバイスの3次元(3D)位置、及び(ii)前記モバイルデバイスの配向を追跡し、かつ
新しいノードが前記プロセス制御環境の3Dマップに追加されるべきであることを示すユーザ入力を検出する、ように構成されている、モバイルデバイスと、を備え、
前記モバイルデバイスまたは前記サーバのいずれかが、(i)追跡された前記モバイルデバイスの3D位置、及び(ii)追跡された前記モバイルデバイスの配向に基づいて、前記基準位置に対する現実世界オブジェクトの3D位置を判定するように構成され、
前記サーバが、前記現実世界オブジェクトの前記3D位置を前記新しいノードに関連付けて記憶するノードデータベースに、前記プロセス制御環境の前記3Dマップに新しいノードの追加するように構成されている、
システム。 - 前記モバイルデバイスが、カメラを更に備え、
前記モバイルデバイスが、少なくとも、前記カメラを使用してコードの視覚的表現をスキャンすることによって、前記基準位置に登録するように構成され、前記視覚的表現は、前記基準位置に位置している、
請求項16に記載のシステム。 - 前記モバイルデバイスが、少なくとも、
音声コマンド、キーボード入力、またはタッチスクリーン入力を検出することによって、新しいノードが前記3Dマップに追加されるべきであることを示すユーザ入力を検出するように構成されている、
請求項16に記載のシステム。 - 前記モバイルデバイスが、カメラを更に備え、
前記モバイルデバイスが、前記カメラを使用して前記現実世界オブジェクトの画像を捕捉するように構成され、
前記モバイルデバイスまたは前記サーバが、少なくとも深度感知技術を使用して前記現実世界オブジェクトの前記画像を処理することによって、前記モバイルデバイスと前記現実世界オブジェクトとの間の距離を判定するように構成され、
前記モバイルデバイスまたは前記サーバが、少なくとも、(i)前記追跡された前記モバイルデバイスの3D位置、(ii)前記モバイルデバイスと前記現実世界オブジェクトとの間の前記距離、及び(iii)前記追跡された前記モバイルデバイスの配向に基づいて、前記現実世界オブジェクトの前記3D位置を判定するように構成されている、
請求項16に記載のシステム。 - 前記モバイルデバイスが、現実世界のビューにデジタル情報を重ね合わせるディスプレイを更に備える、拡張現実(AR)モバイルデバイスである、請求項16に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023115085A JP2023153815A (ja) | 2017-09-27 | 2023-07-13 | プロセス制御環境の3dマッピング |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762564074P | 2017-09-27 | 2017-09-27 | |
US62/564,074 | 2017-09-27 | ||
US16/036,358 | 2018-07-16 | ||
US16/036,358 US10796487B2 (en) | 2017-09-27 | 2018-07-16 | 3D mapping of a process control environment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023115085A Division JP2023153815A (ja) | 2017-09-27 | 2023-07-13 | プロセス制御環境の3dマッピング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019067383A true JP2019067383A (ja) | 2019-04-25 |
JP2019067383A5 JP2019067383A5 (ja) | 2021-11-04 |
JP7315313B2 JP7315313B2 (ja) | 2023-07-26 |
Family
ID=65807773
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179420A Active JP7315313B2 (ja) | 2017-09-27 | 2018-09-25 | プロセス制御環境の3dマッピング |
JP2020517557A Active JP7198276B2 (ja) | 2017-09-27 | 2018-09-26 | アクセス制限されたオブジェクトへの仮想アクセス |
JP2020517566A Active JP7209704B2 (ja) | 2017-09-27 | 2018-09-26 | プロセス制御環境における仮想x線視角 |
JP2023115085A Pending JP2023153815A (ja) | 2017-09-27 | 2023-07-13 | プロセス制御環境の3dマッピング |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020517557A Active JP7198276B2 (ja) | 2017-09-27 | 2018-09-26 | アクセス制限されたオブジェクトへの仮想アクセス |
JP2020517566A Active JP7209704B2 (ja) | 2017-09-27 | 2018-09-26 | プロセス制御環境における仮想x線視角 |
JP2023115085A Pending JP2023153815A (ja) | 2017-09-27 | 2023-07-13 | プロセス制御環境の3dマッピング |
Country Status (6)
Country | Link |
---|---|
US (4) | US11062517B2 (ja) |
JP (4) | JP7315313B2 (ja) |
CN (3) | CN111149133B (ja) |
DE (2) | DE112018004347T5 (ja) |
GB (3) | GB2607819B (ja) |
WO (2) | WO2019067570A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10650597B2 (en) * | 2018-02-06 | 2020-05-12 | Servicenow, Inc. | Augmented reality assistant |
US10977867B2 (en) * | 2018-08-14 | 2021-04-13 | Goodrich Corporation | Augmented reality-based aircraft cargo monitoring and control system |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
US10547974B1 (en) * | 2019-03-19 | 2020-01-28 | Microsoft Technology Licensing, Llc | Relative spatial localization of mobile devices |
JP2020197836A (ja) * | 2019-05-31 | 2020-12-10 | ファナック株式会社 | 産業用機械のデータ収集確認装置 |
US11307647B2 (en) * | 2019-09-11 | 2022-04-19 | Facebook Technologies, Llc | Artificial reality triggered by physical object |
CN110718043B (zh) * | 2019-10-17 | 2021-07-30 | 辽宁中航信诺科技有限公司 | 基于ar人工智能设备的危险区域的检查报警方法 |
US11250624B2 (en) * | 2020-04-24 | 2022-02-15 | Trimble Inc. | Methods of displaying an augmented reality model on an augmented reality device |
CN112292655A (zh) * | 2020-05-15 | 2021-01-29 | 北京小米移动软件有限公司 | 物联网设备定位的方法及设备 |
US11120093B1 (en) * | 2020-06-02 | 2021-09-14 | Capital One Services, Llc | System and method for providing a content item based on computer vision processing of images |
US11816887B2 (en) | 2020-08-04 | 2023-11-14 | Fisher-Rosemount Systems, Inc. | Quick activation techniques for industrial augmented reality applications |
US20240024065A1 (en) * | 2020-08-10 | 2024-01-25 | Orcana Inc. | Method and Platform for Portable Remote Support During Medical Device Implantation Using Augmented Reality Devices |
CN112287928A (zh) * | 2020-10-20 | 2021-01-29 | 深圳市慧鲤科技有限公司 | 一种提示方法、装置、电子设备及存储介质 |
CN116917847A (zh) | 2021-03-01 | 2023-10-20 | 昕诺飞控股有限公司 | 根据图像中到最近设备的距离显示数据的聚合 |
WO2023009864A2 (en) * | 2021-07-30 | 2023-02-02 | Vuzix Corporation | Interactive reticle |
TWI808669B (zh) * | 2022-03-04 | 2023-07-11 | 國眾電腦股份有限公司 | 多點同步指導偕同作業系統及其方法 |
CN115468560B (zh) * | 2022-11-03 | 2023-03-24 | 国网浙江省电力有限公司宁波供电公司 | 基于多传感信息融合的质检方法、机器人、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010123121A (ja) * | 2008-11-17 | 2010-06-03 | Honeywell Internatl Inc | シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 |
JP2016167688A (ja) * | 2015-03-09 | 2016-09-15 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
JP2016533565A (ja) * | 2013-06-18 | 2016-10-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 仮想オブジェクトの方向付け及び可視化 |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1183578B1 (de) | 1999-03-02 | 2003-08-20 | Siemens Aktiengesellschaft | Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung |
US7079990B2 (en) | 2001-02-08 | 2006-07-18 | Solidworks Corporation | Automated connections of computer-aided design components |
US7092974B2 (en) | 2003-03-12 | 2006-08-15 | Right Hemisphere Limited | Digital asset server and asset management system |
DE102005061211B4 (de) | 2004-12-22 | 2023-04-06 | Abb Schweiz Ag | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche |
US7920071B2 (en) * | 2006-05-26 | 2011-04-05 | Itt Manufacturing Enterprises, Inc. | Augmented reality-based system and method providing status and control of unmanned vehicles |
US20090322671A1 (en) | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
US8839121B2 (en) | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
US20140063055A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US9710554B2 (en) * | 2010-09-23 | 2017-07-18 | Nokia Technologies Oy | Methods, apparatuses and computer program products for grouping content in augmented reality |
US9424371B2 (en) * | 2010-11-05 | 2016-08-23 | Autodesk, Inc. | Click to accept as built modeling |
US9865125B2 (en) | 2010-11-15 | 2018-01-09 | Bally Gaming, Inc. | System and method for augmented reality gaming |
US8509483B2 (en) * | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
KR101199290B1 (ko) | 2011-03-31 | 2012-11-09 | 전자부품연구원 | 증강현실을 이용한 플랜트 관리 방법 및 시스템 |
US20120306850A1 (en) | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US20150153181A1 (en) | 2011-07-27 | 2015-06-04 | Google Inc. | System and method for providing indoor navigation services |
CA2754225A1 (en) * | 2011-08-29 | 2013-02-28 | Clover Point Cartographics Ltd. | Geographic asset management system and method |
US9268406B2 (en) | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
JP5999679B2 (ja) | 2012-01-18 | 2016-09-28 | 株式会社日立製作所 | 設備保守管理システム |
US8948456B2 (en) | 2012-05-11 | 2015-02-03 | Bosch Automotive Service Solutions Llc | Augmented reality virtual automotive X-ray having service information |
US9147221B2 (en) * | 2012-05-23 | 2015-09-29 | Qualcomm Incorporated | Image-driven view management for annotations |
US9420275B2 (en) | 2012-11-01 | 2016-08-16 | Hexagon Technology Center Gmbh | Visual positioning system that utilizes images of a working environment to determine position |
CN102981616B (zh) * | 2012-11-06 | 2017-09-22 | 中兴通讯股份有限公司 | 增强现实中对象的识别方法及系统和计算机 |
US9730029B2 (en) | 2012-11-08 | 2017-08-08 | Duke University | Unsupervised indoor localization and heading directions estimation |
JP6016268B2 (ja) | 2012-12-20 | 2016-10-26 | Kddi株式会社 | フィールド作業支援装置、方法及びプログラム |
US9336629B2 (en) * | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
US9959674B2 (en) * | 2013-02-26 | 2018-05-01 | Qualcomm Incorporated | Directional and X-ray view techniques for navigation using a mobile device |
US20140267234A1 (en) * | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
US9129430B2 (en) * | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
US20150062123A1 (en) | 2013-08-30 | 2015-03-05 | Ngrain (Canada) Corporation | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model |
US9383816B2 (en) * | 2013-11-15 | 2016-07-05 | Kopin Corporation | Text selection using HMD head-tracker and voice-command |
US10209955B2 (en) * | 2013-11-15 | 2019-02-19 | Kopin Corporation | Automatic speech recognition (ASR) feedback for head mounted displays (HMD) |
US9530250B2 (en) | 2013-12-10 | 2016-12-27 | Dassault Systemes | Augmented reality updating of 3D CAD models |
US20150169597A1 (en) | 2013-12-17 | 2015-06-18 | Qualcomm Incorporated | Methods and Systems for Locating Items and Determining Item Locations |
US9629774B2 (en) | 2014-01-14 | 2017-04-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
FR3019333B1 (fr) | 2014-03-26 | 2016-03-11 | Schneider Electric Ind Sas | Procede de generation d'un contenu en realite augmentee |
EP3132390A1 (en) * | 2014-04-16 | 2017-02-22 | Exxonmobil Upstream Research Company | Methods and systems for providing procedures in real-time |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US9723109B2 (en) | 2014-05-28 | 2017-08-01 | Alexander Hertel | Platform for constructing and consuming realm and object feature clouds |
FR3023948B1 (fr) * | 2014-07-21 | 2017-12-22 | Airbus Operations Sas | Procede d'aide a la maintenance d'un aeronef par realite augmentee. |
US9865089B2 (en) * | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US20160140868A1 (en) * | 2014-11-13 | 2016-05-19 | Netapp, Inc. | Techniques for using augmented reality for computer systems maintenance |
US10950051B2 (en) * | 2015-03-27 | 2021-03-16 | Rockwell Automation Technologies, Inc. | Systems and methods for presenting an augmented reality |
US20180073889A1 (en) | 2015-04-01 | 2018-03-15 | Snapback S.R.L. | Methods and systems foe electronic device interactions |
EP3281404A4 (en) * | 2015-04-06 | 2018-03-07 | Scope Technologies US Inc. | Method and apparatus for sharing augmented reality applications to multiple clients |
US10007413B2 (en) * | 2015-04-27 | 2018-06-26 | Microsoft Technology Licensing, Llc | Mixed environment display of attached control elements |
US10083544B2 (en) * | 2015-07-07 | 2018-09-25 | Google Llc | System for tracking a handheld device in virtual reality |
US10206068B2 (en) | 2015-07-09 | 2019-02-12 | OneMarket Network LLC | Systems and methods to determine a location of a mobile device |
US10037627B2 (en) | 2015-08-14 | 2018-07-31 | Argis Technologies Llc | Augmented visualization system for hidden structures |
US20170053042A1 (en) * | 2015-08-19 | 2017-02-23 | Benjamin John Sugden | Holographic building information update |
US10395116B2 (en) | 2015-10-29 | 2019-08-27 | Hand Held Products, Inc. | Dynamically created and updated indoor positioning map |
EP3171302A1 (en) * | 2015-11-18 | 2017-05-24 | F. Hoffmann-La Roche AG | A method for generating an entry for an electronic laboratory journal |
US10489981B2 (en) * | 2015-12-10 | 2019-11-26 | Sony Corporation | Information processing device, information processing method, and program for controlling display of a virtual object |
JP6687835B2 (ja) * | 2016-02-10 | 2020-04-28 | 株式会社Jvcケンウッド | 移動端末装置およびプログラム |
US10176641B2 (en) * | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10198874B2 (en) | 2016-05-13 | 2019-02-05 | Google Llc | Methods and apparatus to align components in virtual reality environments |
US10802147B2 (en) | 2016-05-18 | 2020-10-13 | Google Llc | System and method for concurrent odometry and mapping |
CN109478091A (zh) * | 2016-07-12 | 2019-03-15 | 富士胶片株式会社 | 图像显示系统、以及头戴式显示器的控制装置及其工作方法和工作程序 |
US10685489B2 (en) * | 2017-03-02 | 2020-06-16 | Daqri, Llc | System and method for authoring and sharing content in augmented reality |
US10878240B2 (en) | 2017-06-19 | 2020-12-29 | Honeywell International Inc. | Augmented reality user interface on mobile device for presentation of information related to industrial process, control and automation system, or other system |
-
2018
- 2018-07-16 US US16/036,384 patent/US11062517B2/en active Active
- 2018-07-16 US US16/036,358 patent/US10796487B2/en active Active
- 2018-07-16 US US16/036,379 patent/US11080931B2/en active Active
- 2018-08-31 GB GB2212775.7A patent/GB2607819B/en active Active
- 2018-09-25 JP JP2018179420A patent/JP7315313B2/ja active Active
- 2018-09-26 CN CN201880063431.9A patent/CN111149133B/zh active Active
- 2018-09-26 CN CN201880063496.3A patent/CN111149134A/zh active Pending
- 2018-09-26 WO PCT/US2018/052894 patent/WO2019067570A1/en active Application Filing
- 2018-09-26 WO PCT/US2018/052897 patent/WO2019067573A1/en active Application Filing
- 2018-09-26 JP JP2020517557A patent/JP7198276B2/ja active Active
- 2018-09-26 CN CN201811124251.5A patent/CN109559380A/zh active Pending
- 2018-09-26 GB GB2004546.4A patent/GB2580824B/en active Active
- 2018-09-26 DE DE112018004347.9T patent/DE112018004347T5/de active Pending
- 2018-09-26 DE DE112018004395.9T patent/DE112018004395T5/de active Pending
- 2018-09-26 JP JP2020517566A patent/JP7209704B2/ja active Active
- 2018-09-26 GB GB2004547.2A patent/GB2580825B/en active Active
-
2020
- 2020-09-08 US US17/014,294 patent/US11244515B2/en active Active
-
2023
- 2023-07-13 JP JP2023115085A patent/JP2023153815A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010123121A (ja) * | 2008-11-17 | 2010-06-03 | Honeywell Internatl Inc | シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 |
JP2016533565A (ja) * | 2013-06-18 | 2016-10-27 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 仮想オブジェクトの方向付け及び可視化 |
JP2016167688A (ja) * | 2015-03-09 | 2016-09-15 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
Also Published As
Publication number | Publication date |
---|---|
WO2019067573A1 (en) | 2019-04-04 |
GB2580824B (en) | 2022-08-17 |
GB2607819B (en) | 2023-04-12 |
JP7315313B2 (ja) | 2023-07-26 |
GB2607819A (en) | 2022-12-14 |
GB202212775D0 (en) | 2022-10-19 |
GB202004547D0 (en) | 2020-05-13 |
JP2020535536A (ja) | 2020-12-03 |
GB202004546D0 (en) | 2020-05-13 |
US11244515B2 (en) | 2022-02-08 |
JP7198276B2 (ja) | 2022-12-28 |
US20190096133A1 (en) | 2019-03-28 |
JP2020535534A (ja) | 2020-12-03 |
US11062517B2 (en) | 2021-07-13 |
JP2023153815A (ja) | 2023-10-18 |
US10796487B2 (en) | 2020-10-06 |
CN109559380A (zh) | 2019-04-02 |
CN111149133B (zh) | 2023-12-15 |
GB2580825A (en) | 2020-07-29 |
CN111149134A (zh) | 2020-05-12 |
CN111149133A (zh) | 2020-05-12 |
GB2580825B (en) | 2022-09-28 |
JP7209704B2 (ja) | 2023-01-20 |
GB2580824A (en) | 2020-07-29 |
DE112018004347T5 (de) | 2020-05-07 |
US20190096131A1 (en) | 2019-03-28 |
DE112018004395T5 (de) | 2020-05-14 |
US20200402320A1 (en) | 2020-12-24 |
US20190096132A1 (en) | 2019-03-28 |
WO2019067570A1 (en) | 2019-04-04 |
US11080931B2 (en) | 2021-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7315313B2 (ja) | プロセス制御環境の3dマッピング | |
US11783553B2 (en) | Systems and methods for facilitating creation of a map of a real-world, process control environment | |
US11816887B2 (en) | Quick activation techniques for industrial augmented reality applications | |
JP6307273B2 (ja) | 改良された位置認識機能を有する手持ち式フィールドメンテナンス装置 | |
KR102289745B1 (ko) | 실시간 현장 작업 모니터링 방법 및 시스템 | |
CN105659170A (zh) | 用于向远程用户传送视频的方法及视频通信装置 | |
KR101894471B1 (ko) | 플랜트의 가상 현실 서비스 제공 방법 및 이를 위한 장치 | |
GB2568138A (en) | 3D Mapping of a process control environment | |
JP2021018710A (ja) | 現場連携システムおよび管理装置 | |
GB2606650A (en) | Drift correction for industrial augmented reality applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210924 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7315313 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |