JP7442278B2 - 工業用拡張現実アプリケーションのためのドリフト補正 - Google Patents
工業用拡張現実アプリケーションのためのドリフト補正 Download PDFInfo
- Publication number
- JP7442278B2 JP7442278B2 JP2019144568A JP2019144568A JP7442278B2 JP 7442278 B2 JP7442278 B2 JP 7442278B2 JP 2019144568 A JP2019144568 A JP 2019144568A JP 2019144568 A JP2019144568 A JP 2019144568A JP 7442278 B2 JP7442278 B2 JP 7442278B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- user
- node
- location
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims description 19
- 238000012937 correction Methods 0.000 title description 6
- 238000000034 method Methods 0.000 claims description 137
- 238000010801 machine learning Methods 0.000 claims description 79
- 238000004886 process control Methods 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 56
- 238000005259 measurement Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 21
- 230000015654 memory Effects 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 18
- 230000004807 localization Effects 0.000 description 13
- 230000004044 response Effects 0.000 description 13
- 238000012423 maintenance Methods 0.000 description 11
- 239000003550 marker Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013507 mapping Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 239000003623 enhancer Substances 0.000 description 5
- 238000012369 In process control Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000010965 in-process control Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000012806 monitoring device Methods 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 231100001261 hazardous Toxicity 0.000 description 3
- 230000001976 improved effect Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000011217 control strategy Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 231100000331 toxic Toxicity 0.000 description 2
- 230000002588 toxic effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001824 photoionisation detection Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000009420 retrofitting Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Description
図1は、環境(例えば、プロセス制御環境)でAR経験を提供するためのARプラットフォームを一般的に提供する、例示的拡張現実(AR)システム10を示す。ARシステム10は、ユーザのARモバイル機器12と、ネットワーク16を通してARモバイル機器12に通信可能に連結されているバックエンドサーバー14とを含んでいる。ARモバイルシステム12は、適切な処理および検知機能を有し、ユーザが着用または持ち運びできる任意の計算装置であってよい。例えば、ARモバイル装置12は、ARヘルメット(例えば、DAQRI(登録商標)が開発したスマートヘルメット(登録商標))、ARゴーグルなど、AR用に特別に構成された装置であってよい。あるいは、ARモバイル機器12は、非ARアプリケーション(例えば、タブレット、スマートフォン、スマート眼鏡、スマート時計など)を有し、AR機能を持つように装置12を構成したソフトウェアアプリケーションを実行する装置であってもよい。図1はARモバイル機器12を1つだけ示しているが、ARモバイル機器12と同一またはそれとは異なる多くのARモバイル機器が同様にARシステム10で使用できることは理解されている。
)によって撮像された画像は、時間経過と共に集められ、環境の「ARクラウド」を作成してもよく、集められた画像は、仮想現実設定でオペレータを訓練したり、遠隔サポート技師のために没入型の経験を提供したりするのに使用されてもよい。更に、いくつかの実装において、バックエンドサーバー14は、MLモデル65を用いて、例えば、上述の方法ではあるが、任意タイプのユーザ確認または他の入力/コマンドを要求することなく、認識されたオブジェクト用に新しいノードを自動的に作成してもよい。従って、3Dマップは、ARモバイル機器12を保持または着用しながら、環境内を歩いたり眺めたりするだけで作成できる。更に、いくつかの実施形態において、MLモデル65は、オブジェクトの特定の物理的表面、オブジェクトのコンポーネント、オブジェクトの状態(物理的スイッチがオンであるかオフであるか、コンベヤベルトが現在作動しているか否かなど)など、オブジェクトタイプだけでなく、オブジェクトの特定の部分に対応するタイプまたはクラスをも認識するように訓練してもよい。
図2は、図1のARシステム10が利用される例示的プロセス管理環境100のブロック図である。プロセス制御環境100(本明細書では、プロセス制御システム100またはプロセスプラント100と同意語として言及される)は、1つ以上のプロセスコントローラ―であって、フィールド装置によって得られるプロセス測定値を示す信号を受信し、制御ルーチンを実施するために斯かる情報を処理し、プラント100内のプロセスの作業を制御するため、有線および/または無線プロセス制御通信リンクまたはネットワークを通して、他のフィールド装置へ送信される制御信号を生成するプロセスコントローラを含んでいる。通常、プロセスの動作を制御するため、少なくとも1つのフィールド装置が物理的機能を実行する(例えば、弁の開閉、コンベヤに素材を移動させる機能、温度の増減、測定、状態の感知など)特定のタイプのフィールド装置は、I/O装置を用いてコントローラと通信する。プロセスコントローラ、フィールド装置、およびI/O装置は有線であってもよいし、無線であってもよいし、有線および無線のコントローラ、フィールド装置、およびI/O装置の任意の数および組み合わせが、プロセスプラント環境またはシステム100に含まれていてもよい。
ARシステム10の3D「マップ」は環境の全モデルである必要はなく、その環境内のノードの3D場所だけを含むだけでよいことは、上述の図1の記述から理解されるべきである。4つのオブジェクト/ノードだけを含む極めて単純化された例示的3Dマップ200が、図3に示されている。図3において、z軸は高さ(例えば、地上レベルより上)に対応する。上述のように、ランドマークの場所202が、環境内の他の全ての場所(例えば、ノードおよびユーザ/AR機器の場所)の参照点を提供してもよい。
ARディスプレイ(例えば、図1のARモバイル機器12のディスプレイ22)に重ね合わされる一組の例示的ユーザインターフェースが、図4A~4Hとの関連で以下に記載される。説明を簡単にするため、図1のARシステム10が参照されるが、ユーザインターフェースは他のシステムで使用されてもよい。ユーザ選択を行うユーザインターフェースに関して言えば、その選択は、(例えば、ユーザインターフェースが、ディスプレイ22の中心に対する固定位置ではなく、環境に対する固定位置を有している場合には)特定のメニューオプションを直接見ているユーザによって行われてもよい。他の実施形態では、選択は、適切な音声コマンドを発するユーザ、鍵盤またはタッチスクリーンにデータを入力するユーザ、または別の適切な方法を用いるユーザによって行われてもよい。
図5Aおよび5Bは、図1のARデータベース72によって利用されるデータベース構造体400(例えば、図2のプロセス制御環境で使用される場合)を総合的に示す。データベース構造体400において、各ボックスは、ARデータベース72に記憶される表を表し、各ボックスの上部線は表の名前(例えば、「ノード」、「ノード状況」など)である。表は主キーを用いてリンクされ、主キーの各々は、図5Aおよび5Bでは、キーアイコンおよび「PK」の文字で示される。
図6および7は、(例えば、図1のARシステム10によって提供される)ARプラットフォームが、ユーザの「仮想視覚」を強化するという特徴を提供する実施形態に関係している。図6は、(例えば、図2のプロセス制御環境100内にある)プロセス制御環境内の閉鎖されたキャビネットの中を「見る」のに、(図1との関連で考察された)「仮想透視能力」が使用される特定のシナリオを示しており、図7Aおよび7Bは、(図1との関連で考察された)「アバター」が、プロセス制御環境のアクセス制限(例えば、到達しにくい、または危険な)領域にある、および/またはユーザの現在場所から離れているセンサ/トランスミッタ装置用に提供される。
図8は、モバイル機器を用いて、実際世界のプロセス制御環境(例えば、図2のプロセス制御環境100)をマッピングする例示的方法600を示す。該方法600は、例えば、図1のARモバイル機器12を用いて実行されてもよいし、あるいは別の適切なモバイル装置を用いて実行されてもよい。いくつかの実施形態では、AR機能のないモバイル装置が使用されてもよい。
図9は、実際世界のプロセス制御環境(例えば、図2のプロセス制御環境100)におけるARモバイル機器のユーザへ、仮想強化視覚(例えば、仮想「透視能力」)を提供する例示的方法620を示す。方法620は、計算システムまたは装置の1つ以上のプロセッサ、例えば、図1のバックエンドサーバー14、および/または図1のARモバイル機器12などのARモバイル機器によって実行されてもよい。
図10は、ARモバイル機器のユーザと、プロセス制御環境(例えば、図2のプロセス制御環境100)のアクセス制限(例えば、危険な、バリケードされた)領域にある実際世界のオブジェクト(「第一オブジェクト」)との間の相互関係を促進するための例示的方法640を示す。方法640は、例えば、計算システムまたは装置の1つ以上のプロセッサ(例えば、図1のバックエンドサーバー14)および/またはARモバイル機器(例えば、図1のARモバイル機器12)によって実行されてもよい。
図11は、実際世界のマップされた環境(例えば、図2のプロセス制御環境100)をナビゲートしているユーザに提示されるAR情報の正確性を増大するための例示的方法660を示す。方法660は、例えば、計算システムまたは装置の1つ以上のプロセッサ(例えば、図1のバックエンドサーバー14)および/またはARモバイル機器(例えば、図1のARモバイル機器12)によって実行されてもよい。
図12は、実際世界のプロセス制御環境(例えば、図2のプロセス制御環境100)のマップの作製を促進するための例示的方法680を示す。方法680は、例えば、計算システムまたは装置の1つ以上のプロセッサ(例えば、図1のバックエンドサーバー14)および/またはARモバイル機器(例えば、図1のARモバイル機器12)によって実行されてもよい。
図13は、実際世界のマップされた環境(例えば、図2のプロセス制御環境100)においてノード場所を更新するための例示的方法700を示す。方法700は、例えば、計算システムまたは装置の1つ以上のプロセッサ(例えば、図1のバックエンドサーバー14)および/またはARモバイル機器(例えば、図1のARモバイル機器12)によって実行されてもよい。
ソフトウェアで実施される場合、本明細書記載のアプリケーションおよび機能のいずれも、有形の持続性コンピュータ読み取り可能メモリ(磁気ディスク、レーザディスク、ソリッドステートメモリ装置、分子メモリ記憶装置、または他の記憶媒体など)、あるいはコンピュータまたはプロセッサのRAMまたはROMに命令として記憶させてもよい。本明細書記載の例示的システムは、コンポーネントの中でも特に、ハードウェアで実行されるソフトウェアおよび/またはファームウェアを含むように記載されているが、斯かるシステムは単に例示目的だけであり限定的に考慮されるべきではないことは、明記されるべきである。例えば、斯かるハードウェア、ソフトウェア、およびファームウェアのいずれかまたは全部が、全てハードウェアで、全てソフトウェアで、またはハードウェアとソフトウェアの任意の組み合わせで具体化されてもよい。従って、本明細書記載の例示システムは、1つ以上のコンピュータ装置のプロセッサで実行されるソフトウェアで実施されるものとして記載されているが、提示されている例は斯かるシステムを実施するための唯一の方法ではないことは、当業者には容易に想到できるであろう。
Claims (20)
- 実際世界のマップされた環境をナビゲートしているユーザへ提示される拡張現実(AR)情報の正確性を増大させる方法であって、
前記ユーザがマップされた環境を移動するにつれて、1つ以上のプロセッサによって、前記ユーザのモバイル機器のカメラの視界内の特定のオブジェクトを識別する工程であって、前記特定のオブジェクトの識別が、以下、すなわち、
前記カメラによって撮像された1つ以上の画像を処理する機械学習(ML)モデルによって、オブジェクトタイプを予想する工程と、
前記1つ以上のプロセッサによって、前記マップされた環境を表示するマップデータベース内の、前記オブジェクトタイプに対応するノードを識別する工程とを含む工程と、を含み、
前記1つ以上のプロセッサによって、前記ノードに関連付けられた場所を前記マップデータベースから検索する工程と、
前記1つ以上のプロセッサによって、前記検索された場所を用いて、前記モバイル機器の1つ以上の推定場所を更新または確認する工程と、
前記1つ以上のプロセッサによって、前記ユーザへ提示される実際世界の視界上に、前記モバイル機器のディスプレイを通してデジタル情報を重ね合わせる工程であって、前記デジタル情報は、少なくとも部分的に、前記モバイル機器の前記更新または確認された1つ以上の推定場所に基づいて選択される工程とを有するものである
方法。 - 請求項1記載の方法において、前記ノードを識別する工程は、前記マップデータベース内にあり、前記オブジェクトタイプに対応し、前記モバイル機器の推定場所の閾値距離内にあるノードを識別する工程であって、前記推定場所が前記モバイル機器の慣性測定装置によって決定される工程を有するものである方法。
- 請求項1記載の方法において、前記ノードを識別する工程は、(i)前記オブジェクトタイプに対応し、(ii)前記モバイル機器の推定場所の閾値距離内にあり、(iii)前記モバイル機器が特定の方位にある間に、前記ノードに対応するオブジェクトが前記カメラの視界内に存在するのを可能とする方向に、前記モバイル機器の推定場所からオフセットされている、前記マップデータベース内にあるノードを識別する工程であって、前記推定場所および前記特定の方位は、前記モバイル機器の慣性測定装置を用いて決定される工程である方法。
- 請求項1記載の方法において、前記ノードの検索場所を用いて前記モバイル機器の1つ以上の推定場所を更新または確認する工程は、
前記ノードの検索場所と前記モバイル機器の推定場所との間の差を計算する工程であって、前記推定場所は前記モバイル機器の慣性測定装置を用いて決定される工程と、
前記計算された差を用いて前記モバイル機器の推定場所を調整する工程とを有するものである方法。 - 請求項1記載の方法において、
前記モバイル機器と前記特定のオブジェクトとの間の実際の距離を決定する工程と、
前記モバイル機器の方位を決定する工程とを更に有し、
前記ノードの検索場所を用いて前記モバイル機器の1つ以上の推定場所を更新または確認する工程は、(i)前記ノードの検索場所、(ii)前記モバイル機器と前記特定のオブジェクトとの間の実際の距離と、(iii)前記モバイル機器の方位とを用いて、前記1つ以上の推定場所を更新または確認する工程である方法。 - 請求項5記載の方法において、前記モバイル機器と前記特定のオブジェクトとの間の実際の距離を決定する工程は、前記カメラによって撮像された前記1つ以上の画像のうち少なくとも1つを処理することにより前記実際の距離を決定する工程を有するものである方法。
- 請求項5記載の方法において、前記モバイル機器の方位を決定する工程は、前記モバイル機器の慣性測定装置によって生成されるデータを用いて前記方位を決定する工程を有するものである方法。
- 請求項1記載の方法において、前記カメラの視界内の前記特定のオブジェクトを識別する工程は、少なくとも部分的には、前記モバイル機器に通信可能に連結されたサーバーによって実行されるものである方法。
- 請求項1記載の方法において、前記カメラの視界内の前記特定のオブジェクトを識別する工程は、少なくとも部分的には、前記モバイル機器によって実行されるものである方法。
- 実際世界のマップされた環境をナビゲートしているユーザへ、正確な拡張現実(AR)情報を提示するシステムであって、
前記ユーザのモバイル機器であって、カメラとディスプレイとを含んでいるモバイル機器と、
前記モバイル機器に通信可能に連結されているサーバーとを有し、
前記モバイル機器は、前記ユーザがマップされた環境を通して移動するにつれて、前記カメラを用いて、前記マップされた環境の画像を撮像するように構成されており、
前記モバイル機器および/または前記サーバーは、
少なくとも部分的には、(i)前記カメラで撮像した1つ以上の画像を処理する機械学習(ML)モデルによってオブジェクトタイプを推定し、(ii)前記マップされた環境を表示するマップデータベース内の、前記オブジェクトタイプに対応するノードを識別することにより、前記カメラの視界内の特定のオブジェクトを識別するように、
前記マップデータベースから前記ノードに関連付けられた場所を検索するように、
前記ノードの検索場所を用いて、前記モバイル機器の1つ以上の推定場所を更新または確認するように、および
前記ユーザへ提示された実際世界の視界に、前記モバイル機器のディスプレイを通してデジタル情報を重ね合わるように構成されており、前記デジタル情報は、少なくとも部分的には、前記モバイル機器の更新または確認された1つ以上の推定場所に基づいて選択されるものである
システム。 - 請求項10記載のシステムにおいて、前記モバイル機器は慣性測定装置を有しており、前記モバイル機器および/または前記サーバーは、(i)前記オブジェクトタイプに対応し、(ii)前記モバイル機器の推定場所の閾値距離内にあり、(iii)前記モバイル機器が特定の方位にある間に、前記ノードに対応するオブジェクトが前記カメラの視界内にあるのを可能とする方向に前記モバイル機器の推定場所からオフセットされている、前記マップデータベース内にあるノードを識別するように構成されており、前記推定場所および前記特定の方位は、前記慣性測定装置を用いて決定されるものであるシステム。
- 請求項10記載のシステムにおいて、前記モバイル機器および/または前記サーバーは、
前記モバイル機器と前記特定のオブジェクトとの間の実際の距離を決定し、および
前記モバイル機器の方位を決定するように更に構成されており、
前記モバイル機器および/または前記サーバーは、少なくとも部分的には(i)前記ノードの検索場所と、(ii)前記モバイル機器と前記特定のオブジェクトとの間の前記実際の距離と、(iii)前記1つ以上の推定場所を更新または確認するための前記モバイル機器の方位とを用いることによって、前記モバイル機器の1つ以上の推定場所を更新または確認するため、前記ノードの検索場所を利用するように構成されているものであるシステム。 - 実際世界のプロセス制御環境のマップの作成を簡便化する方法であって、
1つ以上のプロセッサによって、ユーザがマップされた環境を移動するにつれてモバイル機器の場所を追跡する工程と、
前記ユーザが前記マップされた環境を移動するにつれて、前記モバイル機器のカメラにより、前記マップされた環境の画像を撮像する工程と、
前記1つ以上のプロセッサにおいて、前記ユーザがノードを前記マップへ付け加えたいと言う意図の表示を受け取る工程と、
前記1つ以上のプロセッサによって、前記撮像画像のうち1つ以上の画像を機械学習(ML)モデルへ提供する工程であって、前記MLモデルが画像を処理してオブジェクトタイプを認識するように訓練する工程と、
前記1つ以上の画像を処理するMLモデルによって、前記カメラの視界内の特定のオブジェクトに対応するオブジェクトタイプを予想する工程と、
前記1つ以上のプロセッサによって、前記新しいノード用のデスクリプタをユーザが容易に指定できるようにするため、前記モバイル機器のディスプレイが、前記ユーザへ提示された実際世界の視界上に、前記予想されたオブジェクトタイプの表示を重ね合わせる工程とを有するものである
方法。 - 請求項13記載の方法において、前記ユーザが前記ノードを前記マップへ付け加えたいと言う意図の表示を受け取る工程は、前記ユーザが前記モバイル機器を通してコマンドを入力した表示を受け取る工程を含むものである方法。
- 請求項13記載の方法において、前記モバイル機器の場所を追跡する工程は、前記モバイル機器の慣性測定装置を用いて、前記モバイル機器の場所を追跡する工程を含むものである方法。
- 請求項13記載の方法において、
前記特定のオブジェクトに対応する前記オブジェクトタイプを予想する工程は、前記特定のオブジェクトに潜在的に対応する複数の候補オブジェクトタイプを予想する工程を有するものであり、
前記モバイル機器のディスプレイが前記予想されたオブジェクトタイプの表示を重ね合わせる工程は、前記ディスプレイが、前記ユーザに提示された前記実際世界の視界上に、前記予想された複数のオブジェクトタイプの表示を重ね合わせる工程を有するものである方法。 - 実際世界のマップされた環境におけるノード場所を更新する方法であって、
1つ以上のプロセッサによって、モバイル機器のユーザがマップされた環境を通して移動するにつれて、前記モバイル機器の場所を追跡する工程と、
前記ユーザが前記マップされた環境を通して移動するにつれて、前記モバイル機器のカメラによって、前記マップされた環境の画像を撮像する工程と、
前記1つ以上のプロセッサによって、前記カメラの視界内に特定のオブジェクトを識別する工程であって、前記撮像画像の1つ以上を処理する機械学習(ML)モデルによってオブジェクトタイプを予想する工程と、前記マップされた環境を表示するマップデータベース内の、前記オブジェクトタイプに対応するノードを識別する工程とを有する工程と、を含み、
前記1つ以上のプロセッサによって、前記モバイル機器の追跡場所を用いて、前記マップデータベースに記憶された前記ノードの場所を更新または確認する工程とを有するものである
方法。 - 請求項17記載の方法において、前記モバイル機器の追跡場所を用いて前記マップデータベースに記憶された前記ノードの場所を更新または確認する工程は、(i)前記モバイル機器の追跡場所と、(ii)1つ以上の他のモバイル機器の追跡場所とを用いて、前記マップデータベースに記憶された前記ノードの場所を更新または確認する工程を有するものである方法。
- 請求項17記載の方法において、前記ユーザが前記マップされた環境を通して移動するにつれて前記モバイル機器の場所を追跡する工程は、前記モバイル機器の慣性測定装置を用いて、前記モバイル機器の場所を追跡する工程を有するものである方法。
- 請求項17記載の方法において、
前記モバイル機器と前記特定のオブジェクトとの間の実際の距離を決定する工程と、
前記モバイル機器の方位を決定する工程とを更に有し、
前記モバイル機器の追跡場所を用いて前記マップデータベース内に記憶された前記ノードの場所を更新または確認する工程は、(i)前記モバイル機器の追跡場所と、(ii)前記モバイル機器と前記特定のオブジェクトとの間の前記実際の距離と、(iii)前記モバイル機器の方位とを用いて、前記マップデータベース内に記憶された前記ノードの場所を更新または確認する工程を有するものである方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/105,249 | 2018-08-20 | ||
US16/105,249 US11244509B2 (en) | 2018-08-20 | 2018-08-20 | Drift correction for industrial augmented reality applications |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020106513A JP2020106513A (ja) | 2020-07-09 |
JP7442278B2 true JP7442278B2 (ja) | 2024-03-04 |
Family
ID=67990350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019144568A Active JP7442278B2 (ja) | 2018-08-20 | 2019-08-06 | 工業用拡張現実アプリケーションのためのドリフト補正 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11244509B2 (ja) |
JP (1) | JP7442278B2 (ja) |
CN (1) | CN110850959A (ja) |
DE (1) | DE102019122343A1 (ja) |
GB (2) | GB2577775B (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10650597B2 (en) * | 2018-02-06 | 2020-05-12 | Servicenow, Inc. | Augmented reality assistant |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
US11270471B2 (en) | 2018-10-10 | 2022-03-08 | Bentley Systems, Incorporated | Efficient refinement of tiles of a HLOD tree |
CN113287153A (zh) * | 2018-10-14 | 2021-08-20 | 本特利系统有限公司 | Hlod树的动态前端驱动生成 |
WO2020081347A1 (en) | 2018-10-14 | 2020-04-23 | Bentley Systems, Incorporated | Conversion of infrastructure model geometry to a tile format |
US11494051B1 (en) * | 2018-11-01 | 2022-11-08 | Intuit, Inc. | Image template-based AR form experiences |
US20200186786A1 (en) * | 2018-12-06 | 2020-06-11 | Novarad Corporation | Calibration for Augmented Reality |
DE102019104822A1 (de) * | 2019-02-26 | 2020-08-27 | Wago Verwaltungsgesellschaft Mbh | Verfahren und Vorrichtung zum Überwachen eines industriellen Prozessschrittes |
US11315287B2 (en) * | 2019-06-27 | 2022-04-26 | Apple Inc. | Generating pose information for a person in a physical environment |
US10916062B1 (en) * | 2019-07-15 | 2021-02-09 | Google Llc | 6-DoF tracking using visual cues |
US11451928B2 (en) | 2019-08-14 | 2022-09-20 | Qualcomm Incorporated | Hierarchical reporting of location assistance information for positioning reference signal (PRS) resources in a multi-beam user equipment-based positioning scenario |
US11393202B2 (en) * | 2020-02-28 | 2022-07-19 | CareAR Holdings LLC | Augmented reality support platform |
US11816887B2 (en) * | 2020-08-04 | 2023-11-14 | Fisher-Rosemount Systems, Inc. | Quick activation techniques for industrial augmented reality applications |
CN112035046B (zh) * | 2020-09-10 | 2024-03-08 | 脸萌有限公司 | 榜单信息显示方法、装置、电子设备及存储介质 |
GB202015887D0 (en) * | 2020-10-07 | 2020-11-18 | Veeride Geo Ltd | Hands-free pedestrian navigation system and method |
US20220188545A1 (en) * | 2020-12-10 | 2022-06-16 | International Business Machines Corporation | Augmented reality enhanced situational awareness |
DE102020133616A1 (de) | 2020-12-15 | 2022-06-15 | Endress+Hauser Process Solutions Ag | Verfahren zum Informieren über einen Fehlerfall in einer Anlage der Automatisierungstechnik |
DE102021108255B3 (de) | 2021-03-31 | 2022-09-01 | Vega Grieshaber Kg | Feldgerät mit Anzeigemittel zur optischen Wiedergabe von erfassten Zuständen und Verfahren |
US20220398847A1 (en) * | 2021-06-09 | 2022-12-15 | Lily Vittayarukskul | Machine learning based remote monitoring of moveable objects using sensor data |
CN113364538A (zh) * | 2021-06-17 | 2021-09-07 | 温州职业技术学院 | 一种基于vr的跆拳道反应能力测试方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100287485A1 (en) | 2009-05-06 | 2010-11-11 | Joseph Bertolami | Systems and Methods for Unifying Coordinate Systems in Augmented Reality Applications |
US20150350378A1 (en) | 2014-05-28 | 2015-12-03 | Alexander Hertel | Platform for Constructing and Consuming Realm and Object Feature Clouds |
JP2016170060A (ja) | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | 設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法 |
Family Cites Families (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002538543A (ja) * | 1999-03-02 | 2002-11-12 | シーメンス アクチエンゲゼルシヤフト | 強調現実感技術により対話を状況に応じて支援するためのシステム及び方法 |
US7079990B2 (en) | 2001-02-08 | 2006-07-18 | Solidworks Corporation | Automated connections of computer-aided design components |
US7092974B2 (en) | 2003-03-12 | 2006-08-15 | Right Hemisphere Limited | Digital asset server and asset management system |
DE102005061211B4 (de) | 2004-12-22 | 2023-04-06 | Abb Schweiz Ag | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche |
US7920071B2 (en) | 2006-05-26 | 2011-04-05 | Itt Manufacturing Enterprises, Inc. | Augmented reality-based system and method providing status and control of unmanned vehicles |
GB2471036B (en) * | 2008-03-03 | 2012-08-22 | Videoiq Inc | Object matching for tracking, indexing, and search |
US20090322671A1 (en) | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
US9024972B1 (en) * | 2009-04-01 | 2015-05-05 | Microsoft Technology Licensing, Llc | Augmented reality computing with inertial sensors |
US8406997B2 (en) * | 2009-07-15 | 2013-03-26 | Mapquest, Inc. | Systems and methods for improved generation of textual directions based on positional information |
US20140063055A1 (en) | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US9424371B2 (en) | 2010-11-05 | 2016-08-23 | Autodesk, Inc. | Click to accept as built modeling |
US9865125B2 (en) | 2010-11-15 | 2018-01-09 | Bally Gaming, Inc. | System and method for augmented reality gaming |
US8509483B2 (en) | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
KR101199290B1 (ko) * | 2011-03-31 | 2012-11-09 | 전자부품연구원 | 증강현실을 이용한 플랜트 관리 방법 및 시스템 |
US9581994B2 (en) * | 2011-04-05 | 2017-02-28 | Fisher-Rosemount Systems, Inc. | Methods and apparatus to manage process control resources |
US20120306850A1 (en) | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US20150153181A1 (en) | 2011-07-27 | 2015-06-04 | Google Inc. | System and method for providing indoor navigation services |
CA2754225A1 (en) | 2011-08-29 | 2013-02-28 | Clover Point Cartographics Ltd. | Geographic asset management system and method |
US9268406B2 (en) | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
US8948456B2 (en) | 2012-05-11 | 2015-02-03 | Bosch Automotive Service Solutions Llc | Augmented reality virtual automotive X-ray having service information |
US9147221B2 (en) | 2012-05-23 | 2015-09-29 | Qualcomm Incorporated | Image-driven view management for annotations |
US9420275B2 (en) | 2012-11-01 | 2016-08-16 | Hexagon Technology Center Gmbh | Visual positioning system that utilizes images of a working environment to determine position |
US9489635B1 (en) * | 2012-11-01 | 2016-11-08 | Google Inc. | Methods and systems for vehicle perception feedback to classify data representative of types of objects and to request feedback regarding such classifications |
CN102981616B (zh) | 2012-11-06 | 2017-09-22 | 中兴通讯股份有限公司 | 增强现实中对象的识别方法及系统和计算机 |
US9730029B2 (en) | 2012-11-08 | 2017-08-08 | Duke University | Unsupervised indoor localization and heading directions estimation |
US9336629B2 (en) | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
US9959674B2 (en) | 2013-02-26 | 2018-05-01 | Qualcomm Incorporated | Directional and X-ray view techniques for navigation using a mobile device |
US9928652B2 (en) * | 2013-03-01 | 2018-03-27 | Apple Inc. | Registration between actual mobile device position and environmental model |
US20140267234A1 (en) | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
US10139623B2 (en) | 2013-06-18 | 2018-11-27 | Microsoft Technology Licensing, Llc | Virtual object orientation and visualization |
US9129430B2 (en) | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
US9426653B2 (en) * | 2013-07-17 | 2016-08-23 | Honeywell International Inc. | Secure remote access using wireless network |
US20150062123A1 (en) | 2013-08-30 | 2015-03-05 | Ngrain (Canada) Corporation | Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model |
US9383816B2 (en) | 2013-11-15 | 2016-07-05 | Kopin Corporation | Text selection using HMD head-tracker and voice-command |
US10209955B2 (en) | 2013-11-15 | 2019-02-19 | Kopin Corporation | Automatic speech recognition (ASR) feedback for head mounted displays (HMD) |
US9530250B2 (en) | 2013-12-10 | 2016-12-27 | Dassault Systemes | Augmented reality updating of 3D CAD models |
US20150169597A1 (en) * | 2013-12-17 | 2015-06-18 | Qualcomm Incorporated | Methods and Systems for Locating Items and Determining Item Locations |
US9629774B2 (en) | 2014-01-14 | 2017-04-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
FR3019333B1 (fr) | 2014-03-26 | 2016-03-11 | Schneider Electric Ind Sas | Procede de generation d'un contenu en realite augmentee |
WO2015160515A1 (en) | 2014-04-16 | 2015-10-22 | Exxonmobil Upstream Research Company | Methods and systems for providing procedures in real-time |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
US9455957B2 (en) * | 2014-05-07 | 2016-09-27 | Gigamon Inc. | Map sharing for a switch device |
FR3023948B1 (fr) | 2014-07-21 | 2017-12-22 | Airbus Operations Sas | Procede d'aide a la maintenance d'un aeronef par realite augmentee. |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US20160140868A1 (en) | 2014-11-13 | 2016-05-19 | Netapp, Inc. | Techniques for using augmented reality for computer systems maintenance |
US10950051B2 (en) | 2015-03-27 | 2021-03-16 | Rockwell Automation Technologies, Inc. | Systems and methods for presenting an augmented reality |
WO2016157193A1 (en) | 2015-04-01 | 2016-10-06 | Snapback S.R.L. | Methods and systems foe electronic device interactions |
EP3281403A4 (en) | 2015-04-06 | 2018-03-07 | Scope Technologies US Inc. | Methods and apparatus for augmented reality applications |
US10007413B2 (en) | 2015-04-27 | 2018-06-26 | Microsoft Technology Licensing, Llc | Mixed environment display of attached control elements |
US10083544B2 (en) | 2015-07-07 | 2018-09-25 | Google Llc | System for tracking a handheld device in virtual reality |
US10206068B2 (en) * | 2015-07-09 | 2019-02-12 | OneMarket Network LLC | Systems and methods to determine a location of a mobile device |
US10037627B2 (en) | 2015-08-14 | 2018-07-31 | Argis Technologies Llc | Augmented visualization system for hidden structures |
US20170053042A1 (en) | 2015-08-19 | 2017-02-23 | Benjamin John Sugden | Holographic building information update |
US10395116B2 (en) | 2015-10-29 | 2019-08-27 | Hand Held Products, Inc. | Dynamically created and updated indoor positioning map |
US10176641B2 (en) | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
US10198874B2 (en) | 2016-05-13 | 2019-02-05 | Google Llc | Methods and apparatus to align components in virtual reality environments |
US10802147B2 (en) | 2016-05-18 | 2020-10-13 | Google Llc | System and method for concurrent odometry and mapping |
EP3486750B1 (en) | 2016-07-12 | 2023-10-18 | FUJIFILM Corporation | Image display system, control device for head-mounted display, and operating method and operating program for operating same |
CN109791295A (zh) | 2016-07-25 | 2019-05-21 | 奇跃公司 | 使用增强和虚拟现实眼镜的成像修改、显示和可视化 |
CN106230628B (zh) | 2016-07-29 | 2019-08-02 | 山东工商学院 | 一种设备辅助检修方法和系统 |
MX2019002626A (es) | 2016-09-06 | 2019-10-02 | Walmart Apollo Llc | Selector de imagenes de una pieza de un producto. |
US10685489B2 (en) | 2017-03-02 | 2020-06-16 | Daqri, Llc | System and method for authoring and sharing content in augmented reality |
US10878240B2 (en) | 2017-06-19 | 2020-12-29 | Honeywell International Inc. | Augmented reality user interface on mobile device for presentation of information related to industrial process, control and automation system, or other system |
US11074656B2 (en) | 2017-09-14 | 2021-07-27 | Walmart Apollo, Llc | Using machine learning to classify insurance card information |
US11062517B2 (en) | 2017-09-27 | 2021-07-13 | Fisher-Rosemount Systems, Inc. | Virtual access to a limited-access object |
US10620721B2 (en) | 2018-01-29 | 2020-04-14 | Google Llc | Position-based location indication and device control |
US10846902B2 (en) | 2018-03-02 | 2020-11-24 | Imvu, Inc. | Preserving the state of an avatar associated with a physical location in an augmented reality environment |
US20190279438A1 (en) | 2018-03-09 | 2019-09-12 | Progress Rail Locomotive Inc. | Systems and methods for servicing a vehicle |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
US11010809B2 (en) | 2018-09-12 | 2021-05-18 | L'oreal | Advanced techniques for improved product photography, interactivity, and information distribution |
US20210020306A1 (en) | 2019-07-15 | 2021-01-21 | Carefusion 303, Inc. | Systems and methods for updating firmware of medical devices while minimizing clinical impact |
US11483670B2 (en) | 2019-10-30 | 2022-10-25 | Sonos, Inc. | Systems and methods of providing spatial audio associated with a simulated environment |
US11455300B2 (en) | 2019-11-18 | 2022-09-27 | Rockwell Automation Technologies, Inc. | Interactive industrial automation remote assistance system for components |
-
2018
- 2018-08-20 US US16/105,249 patent/US11244509B2/en active Active
-
2019
- 2019-07-31 GB GB1910902.4A patent/GB2577775B/en active Active
- 2019-07-31 GB GB2209128.4A patent/GB2606649B/en active Active
- 2019-08-06 JP JP2019144568A patent/JP7442278B2/ja active Active
- 2019-08-20 CN CN201910767393.1A patent/CN110850959A/zh active Pending
- 2019-08-20 DE DE102019122343.1A patent/DE102019122343A1/de active Pending
-
2021
- 2021-12-28 US US17/563,899 patent/US11783553B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100287485A1 (en) | 2009-05-06 | 2010-11-11 | Joseph Bertolami | Systems and Methods for Unifying Coordinate Systems in Augmented Reality Applications |
US20150350378A1 (en) | 2014-05-28 | 2015-12-03 | Alexander Hertel | Platform for Constructing and Consuming Realm and Object Feature Clouds |
JP2016170060A (ja) | 2015-03-13 | 2016-09-23 | 三菱電機株式会社 | 設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200058169A1 (en) | 2020-02-20 |
GB2577775A (en) | 2020-04-08 |
US20220122332A1 (en) | 2022-04-21 |
GB201910902D0 (en) | 2019-09-11 |
JP2020106513A (ja) | 2020-07-09 |
US11783553B2 (en) | 2023-10-10 |
US11244509B2 (en) | 2022-02-08 |
DE102019122343A1 (de) | 2020-02-20 |
GB2606649B (en) | 2023-05-31 |
GB202209128D0 (en) | 2022-08-10 |
CN110850959A (zh) | 2020-02-28 |
GB2606649A (en) | 2022-11-16 |
GB2577775B (en) | 2023-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7442278B2 (ja) | 工業用拡張現実アプリケーションのためのドリフト補正 | |
JP7209704B2 (ja) | プロセス制御環境における仮想x線視角 | |
US11816887B2 (en) | Quick activation techniques for industrial augmented reality applications | |
RU2557468C2 (ru) | Переносной полевой инструмент для технического обслуживания с улучшенной функцией базовой информированности | |
EP3055744B1 (en) | A method and a device for verifying one or more safety volumes for a movable mechanical unit | |
US20190377330A1 (en) | Augmented Reality Systems, Methods And Devices | |
US11395102B2 (en) | Field cooperation system and management device | |
GB2568138A (en) | 3D Mapping of a process control environment | |
GB2606650A (en) | Drift correction for industrial augmented reality applications | |
KR20170089575A (ko) | 증강 현실을 이용한 물류 관리 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7442278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |