JP2020531965A - 支援型の拡張現実 - Google Patents
支援型の拡張現実 Download PDFInfo
- Publication number
- JP2020531965A JP2020531965A JP2020508470A JP2020508470A JP2020531965A JP 2020531965 A JP2020531965 A JP 2020531965A JP 2020508470 A JP2020508470 A JP 2020508470A JP 2020508470 A JP2020508470 A JP 2020508470A JP 2020531965 A JP2020531965 A JP 2020531965A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- physical object
- augmented reality
- static
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 148
- 230000003068 static effect Effects 0.000 claims abstract description 101
- 238000000034 method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 12
- 238000009877 rendering Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 15
- 230000000007 visual effect Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 7
- 230000036544 posture Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
静的な物理オブジェクトを見るための拡張現実システムは、移動可能ユニットの6次元の絶対位置姿勢を取得するために、静的な追跡ベースステーションからの信号を受信する移動可能なユニットを含む。移動可能ユニットの絶対位置姿勢と、静的な物理オブジェクトの絶対位置姿勢とから、静的な物理オブジェクトに対する移動可能ユニットの相対的な位置姿勢を計算する。オブジェクトに対するユニットのこの相対的な位置姿勢を使用して、拡張された画像をレンダリングして表示する、または仮想オブジェクトを静的な物理オブジェクト上に投影する。【選択図】 図3A
Description
本発明は、コンピュータ利用現実(computer−mediated reality)に関し、より詳細には、拡張現実(「AR:Augmented Reality」)に関する。
拡張現実においては、ユーザは、コンピュータによって生成されるコンテンツおよび視覚要素(visuals)(テキスト、グラフィックス、および/またはアニメーションなど)によって拡張された実世界の物理オブジェクトを、拡張現実ビューアを使用して見る。
一般的な拡張現実ビューア(タブレットコンピュータや立体ゴーグルなど)は、見る対象の物理オブジェクトのリアルタイム画像を撮影する背面カメラを有し、撮影された画像を、2つの目的、すなわち、(i)コンピュータによって生成される情報および視覚要素が、適切に、リアルに、および/または見栄え良く物理オブジェクトの上に重ね合わされるように、物理オブジェクトに対する拡張現実ビューアのカメラの相対的な位置姿勢(relative position)を計算する、リアルタイム画像のリアルタイム分析、および(ii)ゴーグル型以外のビューアの場合に、物理オブジェクトおよびその付近の物理的環境の画像を撮影する目的、に使用する。ゴーグル型以外のビューアの標準的なケースでは、カメラの画像と、コンピュータによって生成される重ね合わされる情報/グラフィックスとが一体化されて画面に提示され、一方で、ゴーグル型ARビューアの標準的なケースでは、コンピュータによって生成される視覚要素のみが、ユーザの両目の前の半透明の画面に投影され、ユーザが見ている現実の上に重ね合わされて現実を拡張する。
場合によっては、物理オブジェクトに対する拡張現実ビューアのリアルタイムの相対的な位置姿勢を導くビューアの能力が、満足のいくものではなく、その理由として例えば、表示される領域に十分な視覚的特徴が含まれず、マークすることができない、またはマークする機能がない、あるいは、物理オブジェクトを扱うユーザの手などによって、視覚的特徴が時折隠れる(occluded)ことがある、あるいは、照明が不十分であるかまたは不安定である、あるいは、視覚ベースの追跡システムとの通信を可能にする通信設備が利用できないためである。
本開示は、拡張現実のシステムおよび方法であって、拡張現実ビューアのカメラおよび追跡システムのデータ通信のいずれにも頼ることなく、物理オブジェクトに対する拡張現実ビューアのリアルタイムの相対的な位置姿勢を導く拡張現実(AR)ビューアの動作を可能にする、拡張現実のシステムおよび方法、を教示する。
本開示は、拡張現実ビューアの(1つまたは複数の)カメラおよび追跡システムとのデータ通信のいずれにも頼ることなく、見る対象の物理オブジェクトに対する拡張現実ビューアのリアルタイムの相対的な位置姿勢を導く、拡張現実のシステムおよび機能、を提供することを模索する。
「拡張現実ビューア」(または「ARビューア」)とは、物理オブジェクトを見るためにユーザによって使用される装置である。この装置は、画像を表示する画面または立体ゴーグルと、物理オブジェクトの画像を継続的に撮影する背面カメラとを含む。「物理オブジェクト」とは、例えば製造を学習する、訓練する、もしくはガイドを目的として、または娯楽を目的として、ユーザが見ている実世界の品目である。背面カメラ(または「カメラ」)は、ARビューア装置の一部とする、またはARビューア装置に無線または有線で接続されている単独のカメラとすることができる。
物理オブジェクトおよび拡張現実ビューアのカメラのいずれも、固体本体(solid body)を有するものと想定され、したがって6次元の空間内位置姿勢(six−dimensional position in space)を有し、この場合に「位置姿勢」は、6つの座標によって(例えばワールド座標系内の3つの空間座標および3つの角度座標によって)定義可能であり、「ワールド座標系」は、本発明の好ましい実施形態によれば、システムの基準系を追跡することによって定義可能である。少なくとも物理オブジェクトまたは拡張現実ビューアのカメラは、ユーザによって移動させることができ、したがって位置姿勢が動的に変化し、その一方で、いくつかの実施形態では、少なくともユーザが操作している間、これらの一方が静的である(すなわち固定された空間内位置姿勢を有する)ものと想定する。物理オブジェクトは、その物理的外観も変化させうるさまざまな状態を有することがある。
したがって、本発明の好ましい実施形態によれば、物理オブジェクトを見るためにユーザによって操作可能な拡張現実システムであって、ユーザによって使用可能な拡張現実ビューアと、拡張現実(AR)ビューアが物理オブジェクトまたは拡張現実ビューアのカメラの少なくとも一方の6次元絶対位置姿勢を自律的に計算することを可能にする追跡システムと、ARビューアに属しうる少なくとも1つのプロセッサであって、(i)物理オブジェクトの6次元絶対位置姿勢を取得し、(ii)拡張現実ビューアのカメラの6次元絶対位置姿勢を取得し、(iii)拡張現実ビューアのカメラの6次元絶対位置姿勢と、物理オブジェクトの6次元絶対位置姿勢とから、物理オブジェクトに対する拡張現実ビューアのカメラの相対的な位置姿勢を計算し、(iv)物理オブジェクトを拡張するための、仮想オブジェクトの3Dモデル、および/または、コンピュータによって生成される他の視覚要素、を取得し、仮想オブジェクトおよび/またはコンピュータによって生成される他の視覚要素によって拡張された物理オブジェクトの画像を、物理オブジェクトに対する拡張現実ビューアのカメラの相対的な位置姿勢に従ってレンダリングし、(v)ユーザによって見えるようにこの画像を拡張現実ビューアに提供する、ようにプログラムされている、少なくとも1つのプロセッサと、を含む、拡張現実システム、を提供する。オプションとして、AR画像を、人が見ることができるように遠隔の場所に送信してもよく、この人は、動的なAR体験を目的としてカメラを遠隔から操作することもできる。
ARビューアがゴーグル型である場合、カメラ映像からの物理オブジェクトおよび/または環境の画像をレンダリングするステップは必要なく、仮想オブジェクトと、コンピュータによって生成される他の画像のみがレンダリングされて、それに応じてゴーグルに提示される。さらに、このような場合、カメラの位置姿勢ではなく、ユーザの目それぞれの6次元のおよその絶対位置姿勢を計算し、次に物理オブジェクトに対する目それぞれの相対的な位置姿勢を計算し、これにより、ゴーグルのディスプレイそれぞれ(左右の目に1つずつ)に投影される正しい3Dモデルおよびコンピュータによって生成される他のグラフィックスを、相対的な位置姿勢に従ってレンダリングすることが可能になる。
物理オブジェクトが静的であり、拡張現実ビューアがユーザによって移動可能である場合、追跡システムは、灯台型の静的な追跡ベースステーション(tracking base station)と、追跡ベースステーションから送られる信号を検出することのできるセンサーのアレイを含む追跡機と、を含むことができる。追跡機は、拡張現実(AR)ビューアがベースステーションおよび他のセンサー(例えば加速度計)から送られる信号を使用してワールド座標系内の6次元位置姿勢を自律的に計算することが可能であるように、拡張現実(AR)ビューアに取り付けられている、または外部カメラを使用する拡張現実(AR)ビューアの場合には外部カメラに取り付けられている。本発明においては、例えば灯台型の追跡ベースステーションがアクティブであり、カメラベースではなく、したがってARビューアは、ARビューアまたは単独のカメラに取り付けられている追跡機のセンサーによって検出されるベースステーション信号に基づいて、追加の入力または通信を必要とすることなく、追跡機のデータを使用してワールド座標系内のカメラの6次元位置姿勢を自律的に計算することが可能である。この場合、拡張現実ビューアおよび追跡システムは、例えば次の方法によって物理オブジェクトの6次元絶対位置姿勢を取得するようにさらに動作することができる。この例の場合、物理オブジェクトが「デジタルツイン」を有すると想定し、「デジタルツイン」とは、その表面が物理オブジェクトに正確に合致する3Dモデルである。3Dモデルの表面上に、同一線上にない少なくとも3つの正確な物理点を定義し、これらは「アンカー(anchor)」として使用される。各アンカーについて、(i)ARビューアの画面において、3Dモデルの表面上の現在のアンカー点のマークと、カメラ映像とをユーザに提示し、(ii)ユーザに、物理オブジェクトのアンカー点をカメラの視野内に含めて、カメラ映像内で、現在マークされているアンカー点が見える正確な位置姿勢においてARビューアの画面にタッチするように要求し、(iii)次いでユーザに、現在マークされているアンカー点を動かして、今回は別の角度から再びカメラの視野内に入れ、カメラ映像内で、現在マークされているアンカー点が見える正確な位置において画面にもう一度タッチするように要求し、(iv)両方の繰り返しにおいて、カメラの絶対位置姿勢と、画面に提示されたカメラ映像上でユーザがタッチした点の正確な座標とが既知であるため、ワールド座標系内のカメラの絶対位置からアンカー点に向かう線を計算することができる。カメラのレンズの垂線に対する、物理アンカー点に向かう線の角度は、例えば、カメラ映像画面の中心から、カメラ映像画面上のタッチした座標までの距離と、カメラの既知の視野の比率に基づいて、計算することができ、(v)最も近い2点(上の2本のスキューライン(skew line)それぞれに1つ)を計算し、これら2つの最も近い点を結ぶ線の中心の点を、現在のアンカー点の絶対的な空間内位置の近似として使用する。この計算は、最も近い2点が両方のスキューラインに垂直であることに基づいている。
アンカー点それぞれについて上の計算を繰り返す。これら3つのアンカーの位置が計算されると、それらの位置によって、3D「デジタルツイン」モデル、したがって対応する物理オブジェクトの6次元の空間内位置姿勢を、追跡システムのワールド座標系内に置くことが可能になる。この計算は、例えば、アンカー点の1つを使用してモデルを配置し、次いで仮想オブジェクトを、すべてのアンカー点がほぼ一致するまで適切な軸を中心に回転させることによって、行うことができる。一致が十分に正確でない場合、上述した方法においてアンカー点のさらなるサンプリングを提供するようにユーザに要求することができる。物理オブジェクトの6次元位置姿勢が計算されたら、物理オブジェクトに、または物理オブジェクトに取り付けられている別のオブジェクトに、追加の追跡機を取り付けて、物理オブジェクトの6次元位置姿勢の変化を識別することができ、これにより、拡張層(augmented layer)を供給するためのARビューアの能力を維持しながら物理オブジェクトを動かすことが可能になる。
これに代えて、拡張現実ビューアおよび追跡システムを、上述したアンカー点の絶対位置を別の方法で取得することによって、物理オブジェクトの6次元絶対位置姿勢を取得するようにさらに動作するようにしてもよい。例えば、追跡システムの追跡機における既知の長さの物理的ロッド(既知の位置および既知の向きにある)を既知の位置および既知の向きに調整し、したがってロッド端部の正確な位置が継続的に既知である。次に、3Dモデルの表面上の現在のアンカー点のマークを、ARビューアの画面上に提示する。次に、追跡システムのワールド座標内のアンカー点の3次元位置の計算を可能にする目的で、ユーザに、物理オブジェクトの実際の物理的表面上の現在マークされているアンカー点に上記のロッド端部によって触れて、さらに画面にタッチするように、または別の合図を入力するように、またはシステムが安定するまで単に待機して触れたことを伝えるように、要求する。3つのアンカー点の位置が求められると、追跡システムのワールド座標系内の物理オブジェクトの6次元の空間内位置姿勢を、上述した方法を含むさまざまな方法で計算することができる。
拡張現実ビューアのカメラが静的であり、物理オブジェクトがユーザによって移動可能である場合、追跡システムは、静的な追跡ベース(tracking base)と、追跡機と、を含むことができ、追跡機は、ARビューアまたはカメラではなく物理オブジェクトに(既知の正確な6次元位置姿勢において)取り付けられており、有線または無線でARビューアと通信し、これにより、追跡機、したがって物理オブジェクトの6次元位置姿勢を、ARビューアによって自律的に計算することが可能になる。この場合、拡張現実ビューアは、上記のプロセスを反対に実行し、ARビューアではなく物理オブジェクトを動かして、カメラ映像内の画面上で追跡機の位置姿勢を識別することによって、拡張現実ビューアのカメラの6次元絶対位置姿勢を取得し、それに応じて計算を調整するように、さらに動作可能とすることができる。またはこれに代えて、物理オブジェクトに取り付けられている追跡機を使用して、ARビューア上のアンカー点(このうちの1つは好ましくは背面カメラである)、またはカメラの収容ケース(外部カメラの場合)上のアンカー点(アンカー点の1つは好ましくはカメラである)の位置を正確に求め、追跡システムのワールド座標内のARビューアのカメラの6次元位置姿勢を計算する。
拡張現実ビューアおよび物理オブジェクトの両方が移動可能である場合には、追跡システムは、静的な追跡ベースと、正確な既知の6次元位置において物理オブジェクトに取り付けられているオブジェクト追跡機と、を含むことができ、オブジェクト追跡機は、追跡ベースの信号を使用して、拡張現実ビューアに取り付けられている追跡機の位置姿勢も求める。
システムの動作に関連付けられる計算は、拡張現実ビューアのマイクロプロセッサによって実行することができ、場合によっては、リアルタイム計算に適する別の計算装置のプロセッサによってさらに補足する。追跡機は、カスタムメイドとする、または灯台型の追跡ベースステーションと一緒に販売されている市販の追跡機とすることができる。
本開示の態様によれば、拡張現実システムであって、信号を送る静的な追跡ベースステーションと、静的な物理オブジェクトを拡張するための、ユーザによって操作可能な移動可能ユニットと、を含む、拡張現実システム、を提供する。移動可能ユニットは、静的な追跡ベースステーションによって送られる信号を受信する追跡機と、静的な物理オブジェクトのリアルタイム画像を撮影するカメラと、静的な物理オブジェクトの拡張された画像を表示するビューアと、少なくとも1つのプロセッサであって、(i)静的な物理オブジェクトの6次元絶対位置姿勢を取得し、(ii)追跡機によって受信された信号から、カメラの6次元絶対位置姿勢を計算し、(iii)カメラの6次元絶対位置姿勢と、静的な物理オブジェクトの6次元絶対位置姿勢とから、静的な物理オブジェクトに対するカメラの相対的な位置姿勢を計算し、(iv)静的な物理オブジェクトを拡張するための仮想オブジェクトのモデルを受信し、(v)仮想オブジェクトによって拡張された、カメラから受信された静的な物理オブジェクトの画像を、静的な物理オブジェクトに対するカメラの相対的な位置姿勢に従ってレンダリングし、(vi)レンダリングされた画像をビューアに表示する、ようにプログラムされている、少なくとも1つのプロセッサと、を含む。ビューアは、画面、またはウェアラブル型の拡張現実ゴーグルを含むことができる。上の拡張現実システムにおいては、静的な追跡ベースステーションは、少なくとも1つの灯台型装置(lighthouse)を含むことができる。さらに、上の拡張現実システムにおいては、静的な物理オブジェクトの6次元絶対位置姿勢を取得するステップは、ユーザ入力を受信して処理するステップを含むことができる。
別の態様によれば、拡張現実システムであって、信号を送る静的な追跡ベースステーションと、静的な物理オブジェクトを拡張するための、ユーザによって操作可能な移動可能ユニットと、を含み、移動可能ユニットが、静的な追跡ベースステーションによって送られる信号を受信する追跡機と、静的な物理オブジェクト上に投影するプロジェクタと、少なくとも1つのプロセッサであって、(i)静的な物理オブジェクトの6次元絶対位置姿勢を取得し、(ii)追跡機によって受信された信号から、プロジェクタの6次元絶対位置姿勢を計算し、(iii)プロジェクタの6次元絶対位置姿勢と、静的な物理オブジェクトの6次元絶対位置姿勢とから、静的な物理オブジェクトに対するプロジェクタの相対的な位置姿勢を計算し、(iv)静的な物理オブジェクト上に投影するための仮想オブジェクトのモデルを受信し、(v)仮想オブジェクトの画像を、静的な物理オブジェクトに対するプロジェクタの相対的な位置姿勢に従ってレンダリングし、(vi)レンダリングされた画像を静的な物理オブジェクト上に投影する、ようにプログラムされている、少なくとも1つのプロセッサと、を含む、拡張現実システム、を提供する。静的な追跡ベースステーションは、少なくとも1つの灯台型装置を含むことができる。さらに、静的な物理オブジェクトの6次元絶対位置姿勢を取得するステップは、ユーザ入力を受信して処理するステップを含むことができる。
別の態様によれば、拡張現実の方法であって、静的な物理オブジェクトの6次元絶対位置姿勢を取得するステップと、プロジェクタを含む移動可能ユニットにおいて、静的な追跡ベースステーションからの信号を受信するステップと、受信された信号から、プロジェクタの6次元絶対位置姿勢を計算するステップと、プロジェクタの6次元絶対位置姿勢と、静的な物理オブジェクトの取得された6次元絶対位置姿勢とから、静的な物理オブジェクトに対するプロジェクタの相対的な位置姿勢を計算するステップと、静的な物理オブジェクト上に投影するための仮想オブジェクトのモデルを受信するステップと、仮想オブジェクトの画像を、静的な物理オブジェクトに対するプロジェクタの相対的な位置姿勢に従ってレンダリングするステップと、レンダリングされた画像を静的な物理オブジェクト上に投影するステップと、を含む、拡張現実の方法、を提供する。上の拡張現実の方法においては、静的な物理オブジェクトの6次元絶対位置姿勢を取得するステップは、ユーザ入力を受信して処理するステップを含むことができる。
[背景技術の要約]
[拡張現実]
図1A〜図1Cは、拡張現実のコンセプトを示している。図1Aは、コーヒーメーカー100などの物理オブジェクトを示しており、コーヒーメーカー100は、いくつかのボタンと、カップを置くための基台とを有する。架空の未体験ユーザは、これらのボタンの機能と基台の役割に精通しておらず、コーヒーメーカー100をユーザに紹介するために拡張現実が呼び出される。
図1A〜図1Cは、拡張現実のコンセプトを示している。図1Aは、コーヒーメーカー100などの物理オブジェクトを示しており、コーヒーメーカー100は、いくつかのボタンと、カップを置くための基台とを有する。架空の未体験ユーザは、これらのボタンの機能と基台の役割に精通しておらず、コーヒーメーカー100をユーザに紹介するために拡張現実が呼び出される。
図1Bは、図1Aのコーヒーメーカー100の前にいるユーザによって保持されているタブレットコンピュータ110を示している。タブレットコンピュータ110は、コーヒーメーカーの現在の画像を撮影する背面カメラ(図示していない)と、カメラによって撮影されたコーヒーメーカーの写真124Bを画面120に表示するプロセッサ(図示していない)とを有する。プロセッサは、ボタンの機能を説明する引き出し線(pointer)およびテキストと、カップをどこに置くかを示すための点線で描かれた架空のカップ132B(引き出し線およびテキストによって補足されている)とを加えることによって、表示されている写真をさらに拡張する。
次にユーザは自分の左側にタブレットコンピュータ110を動かし、すると図1Cに示したように、画面上の写真が、新しい視点および視野に従って変化する。コーヒーメーカーの写真124Cは、タブレットコンピュータ110の背面カメラによって現在撮影されており、一方で拡張現実層(引き出し線およびテキスト128Cならびに架空のカップ132Cから構成される)は、コーヒーメーカーに対するタブレットコンピュータのカメラの現在の相対的な6次元位置姿勢に従って、自動的に調整される。拡張現実の技術分野において公知であるように、通常では、コーヒーメーカーに対するタブレットコンピュータ110のカメラ(図示していない)の相対的な位置姿勢が、撮影された画像の画像処理を通じてタブレットコンピュータ110のプロセッサによって分析され、この画像処理は、撮影された画像内のコーヒーメーカーの選択された視覚的特徴の現在のビットマップ位置を識別および分析することによる。
したがって、拡張現実の現在の技術には、(a)拡張現実層のモデル(本例においては、加えられた引き出し線、テキスト、および架空のカップ)を入力する、(b)見る対象のオブジェクトに対する拡張現実ビューアの相対的な位置姿勢を導く、(c)拡張現実層の要素(本例においては、引き出し線、テキスト、および架空のカップ)が、適切に(例:正しいボタンを指している)、リアルに(架空のカップがあらゆる視点から3次元オブジェクトとして提示される)、かつ見栄え良く(例:好ましくは空いたスペースにテキストが表示される)現れるように、拡張された写真(拡現在撮影されており拡張現実層が重ね合わされた画像を示す)をレンダリングする、ための知識、アルゴリズム、およびソフトウェアライブラリ、が含まれる。
[非視覚的な追跡システム]
本開示の文脈において、「非視覚的な追跡システム(non−visual tracking system)」とは、カメラおよび画像処理に頼らずにオブジェクトの位置姿勢を求めるシステムである。特に対象となるのは、1つまたは複数の追跡ステーションの静的な追跡ベースを有するシステムであり、追跡ベースは、移動可能オブジェクトそれぞれの現在の絶対位置姿勢を正確に求める自律的な計算を可能にする目的で、対象の移動可能オブジェクトに取り付けられている追跡機のセンサーによって捕捉される信号を送るための灯台型装置として使用される。語「静的な(static)」は、追跡動作全体を通じて同じ位置姿勢にとどまるものと想定される要素に関連し、その一方で、「移動可能な(movable)」は、ユーザによって動かされることが予期され、その現在の位置姿勢を取得する目的で追跡を必要とする要素に関連する。
本開示の文脈において、「非視覚的な追跡システム(non−visual tracking system)」とは、カメラおよび画像処理に頼らずにオブジェクトの位置姿勢を求めるシステムである。特に対象となるのは、1つまたは複数の追跡ステーションの静的な追跡ベースを有するシステムであり、追跡ベースは、移動可能オブジェクトそれぞれの現在の絶対位置姿勢を正確に求める自律的な計算を可能にする目的で、対象の移動可能オブジェクトに取り付けられている追跡機のセンサーによって捕捉される信号を送るための灯台型装置として使用される。語「静的な(static)」は、追跡動作全体を通じて同じ位置姿勢にとどまるものと想定される要素に関連し、その一方で、「移動可能な(movable)」は、ユーザによって動かされることが予期され、その現在の位置姿勢を取得する目的で追跡を必要とする要素に関連する。
図2Aは標準的なユースケースを描いており、この場合、ベースステーション210は、センサー230によって捕捉される同期された信号を送るための灯台型装置として使用され、センサー230により、6つの次元すべてにおいて仮想現実ヘッドセット220の位置姿勢を求めることが可能になる。類似する技術を使用するシステムは、2017年の時点で世界で最も一般的なVRヘッドセットの1つであるHTC VIVEであり、HTC VIVEは数百万人のユーザを持ち、台湾を本拠地とするHTC社によって製造されている。視覚ベースである別の一般的なシステム(図示していない)も存在しており、移動可能オブジェクトに取り付けられている視覚的追跡機をカメラを使用して追跡することで、移動可能オブジェクトの位置姿勢を計算してそれを伝えることを可能にしている。このような視覚ベースのシステムでは、追跡システムとARビューアとの間にデータ通信が存在しなければならず、したがって例えばARビューアによる位置姿勢の自律的な計算を可能にすることはできない。灯台型装置の信号を識別するセンサーは、「追跡機」装置に統合することもでき、「追跡機(tracker)」装置の位置姿勢が、センサーが灯台型装置から受信した信号に基づいて計算される。
図2Bは、別のタイプの追跡システムを描いている。この場合、ベースステーション(240Z,240Y,240X)は(例えばUWB周波数における)RF信号を送り、これらの信号がシステムの追跡機260によって検出され、ベースステーションから受信された信号に基づいて追跡機260の位置姿勢が計算される。この場合、追跡システムを使用して、タブレット250に提示される位置ベースの情報を供給する。この技術に基づくシステムは、例えばCiholas社(3700 Bell Road, Newburgh, IN 47630)によって提供されている。このようなシステムは視覚ベースではなく、位置姿勢の自律的な計算が可能であるが、高品質のAR用には計算は十分に正確ではなく、向きを計算するためのさらなるセンサーを必要とする。
[静的な物理オブジェクトおよび移動可能ビューアを有するシステム]
[システムのレイアウト]
図3Aは、シナリオ300を絵で表した図解であり、物理オブジェクト310はコーヒーメーカーとして具体化されている。物理オブジェクト310は静的であり、すなわちシナリオ300の実施形態の動作全体を通じて同じ位置姿勢にとどまるものと想定される。ユーザは、第1の位置姿勢330Aにおいて拡張現実ビューア(タブレットコンピュータなど)を保持して、カメラ映像画像338Aを見ており、この画像338Aは、拡張現実ビューアの背面カメラ(図示していない)によって現在撮影されている物理オブジェクト310を、図1Bの教示内容と同様にテキストおよびグラフィックスによって拡張された状態で示しており、ただし異なる点として、物理オブジェクト310に対する第1の位置姿勢330Aにおける拡張現実ビューアのカメラの相対的な位置姿勢は、写真338Aの画像処理または他の画像処理によって求められるのではなく、後から図3Bを参照しながらさらに詳しく説明するように、静的な追跡ベース320からの信号を使用する、拡張現実ビューアに取り付けられている追跡機334を使用して、背面カメラ(図示していない)の位置姿勢を自律的に計算することによって、求められる。
図3Aは、シナリオ300を絵で表した図解であり、物理オブジェクト310はコーヒーメーカーとして具体化されている。物理オブジェクト310は静的であり、すなわちシナリオ300の実施形態の動作全体を通じて同じ位置姿勢にとどまるものと想定される。ユーザは、第1の位置姿勢330Aにおいて拡張現実ビューア(タブレットコンピュータなど)を保持して、カメラ映像画像338Aを見ており、この画像338Aは、拡張現実ビューアの背面カメラ(図示していない)によって現在撮影されている物理オブジェクト310を、図1Bの教示内容と同様にテキストおよびグラフィックスによって拡張された状態で示しており、ただし異なる点として、物理オブジェクト310に対する第1の位置姿勢330Aにおける拡張現実ビューアのカメラの相対的な位置姿勢は、写真338Aの画像処理または他の画像処理によって求められるのではなく、後から図3Bを参照しながらさらに詳しく説明するように、静的な追跡ベース320からの信号を使用する、拡張現実ビューアに取り付けられている追跡機334を使用して、背面カメラ(図示していない)の位置姿勢を自律的に計算することによって、求められる。
次にユーザは、拡張現実ビューアを第2の位置姿勢330Bに動かし、これによりカメラ映像写真338Bは、拡張現実ビューアの背面カメラによって現在撮影されている物理オブジェクト310を、図1Cの教示内容と同様にテキストおよびグラフィックスによって拡張された状態で示し、ただし異なる点として、物理オブジェクト310に対する第2の位置姿勢330Bにおける拡張現実ビューアのカメラの相対的な位置姿勢は、写真338Bの画像処理によって求められるのではなく、後から図3Bを参照しながらさらに詳しく説明するように、静的な追跡ベース320からの信号を使用する、拡張現実ビューアに取り付けられている追跡機334を使用して、背面カメラ(図示していない)の位置姿勢を自律的に計算することによって、求められる。
シナリオ300は、追跡ステーション320の1つまたは複数基によって送られる追跡信号に基づいて、絶対位置姿勢および相対的な位置姿勢を継続的に計算するステップを含む。追跡ベースステーション320のみが信号を送り、これらの信号が追跡機334におけるセンサーによって捕捉される。このような計算は、拡張現実ビューアのプロセッサによって行うことができる。
[動作]
以下の動作は、拡張現実ビューアのプロセッサ、および/または、リアルタイム計算をサポートするためにオプションとして追加される別のコンピュータのプロセッサ、によって実行される。
以下の動作は、拡張現実ビューアのプロセッサ、および/または、リアルタイム計算をサポートするためにオプションとして追加される別のコンピュータのプロセッサ、によって実行される。
図3Bは、図3Aのシナリオ300下でのシステムの動作を描いており、このシナリオでは物理オブジェクト310は固定された位置姿勢にある。ステップ351においては、例えば3つの方法、すなわち、(a)物理オブジェクト310は静的であるため、その位置姿勢を前もって求めて記録しておくことができ、動作時にそれをメモリから単に取り出す、(b)従来の任意の位置姿勢測定システムを採用して、物理オブジェクト310の位置姿勢を測定する、(c)図4A〜図4Eなどの方法を使用する、のうちの1つによって、物理オブジェクト310の位置姿勢を求める。ステップ355においては、図3Aの追跡機334および追跡ベース320ならびにプロセッサを使用して、例えば図2Aまたは図2Bの背景技術の教示内容に従って、その一方でARビューアのカメラ(図示していない)と追跡機334との間の6次元のオフセットを考慮に入れて、拡張現実ビューアのカメラの現在の絶対位置姿勢を取得する。ステップ359においては、ステップ351において取得した物理オブジェクトの絶対位置姿勢と、ステップ355において取得した拡張現実ビューアの絶対位置姿勢とを使用して、物理オブジェクトに対する拡張現実ビューアのカメラの相対的な6次元位置姿勢を求める。ステップ363においては、拡張現実ビューアのカメラが、その視野内に物理オブジェクトを有する画像を撮影する。ステップ365においては、仮想オブジェクトのモデル(図2B+図2Cの引き出し線、テキスト、およびカップの3次元モデルなど)をメモリから取り出し、ステップ367においては、レンダリングされた仮想オブジェクトによって拡張された物理オブジェクトの画像を、図1A〜図1Cを参照しながら説明したように物理オブジェクトに対する拡張現実ビューアのカメラの現在の相対的な位置姿勢に従ってレンダリングする。このような仮想オブジェクトのレンダリングは、拡張現実の技術分野において公知の方法によって、例えばUnity3Dなどの3Dエンジンを使用することによって行い、このような3Dエンジンは、例えば仮想オブジェクトおよび仮想カメラを、同じワールド座標系内である、それらの上記の取得された6次元位置姿勢において配置し、次いで仮想カメラによってレンダリングされた画像を撮影することを可能にする。この場合、正確な拡張現実を可能にするため、仮想カメラもARビューアのカメラと同じ射影行列(projection matrix)を使用するべきである。ステップ371においては、ステップ367においてレンダリングされた画像を、ユーザによって見えるように拡張現実ビューアの画面に提供する。ユーザが引き続きビューアを操作する(場合によっては例えば図3Aにおける位置姿勢330Aから位置姿勢330Bにビューアを動かす)場合、ステップ375において、プロセスはステップ355に戻り、拡張現実ビューアの現在の絶対位置姿勢を取得し、ステップ371において、現在の視点からの別の写真を提供する。
[静的なオブジェクトの絶対位置姿勢を求める]
図4A〜図4Cは、図3Aのような設備を使用して、図3Bのステップ351において物理オブジェクト310の絶対位置姿勢を取得するプロセスを説明している。
図4A〜図4Cは、図3Aのような設備を使用して、図3Bのステップ351において物理オブジェクト310の絶対位置姿勢を取得するプロセスを説明している。
図4Aは、ARビューアを描いており、この場合には、背面カメラ(図示していない)と、背面カメラ(図示していない)の位置姿勢を求めることを可能にする追跡機404とを有するタブレット400である。画面は2つの部分に分割されており、左側は、背面カメラ(図示していない)によって供給されるカメラ映像420Cであり、物理的なコーヒーメーカーのビューを示しており、右側は、コンピュータによって生成されるグラフィックス420Mであり、同じタイプのコーヒーメーカーの3Dモデルのレンダリングされた画像408が見える。仮想3Dモデル408の表面には、同一線上にない3つのアンカー点(410X,410Y,410Z)が定義されてマークされている。
図4Bでは、カメラ映像セクション420C上で、ユーザに、自身がアンカー点410Hを認識する正確な位置410Tにおいて画面にタッチするように要求する。ユーザは点410Tにおいて画面にタッチし、さらにユーザに、物理オブジェクト(コーヒーメーカー)上のこのアンカー点を別の角度から動かして表示させ、プロセスを繰り返すように要求する。各アンカー点について、この動作を繰り返す。カメラ映像420Cのフレーム内のタッチした点410TのXピクセル座標およびYピクセル座標から、カメラ映像420Cのフレームの中心430のXピクセル座標およびYピクセル座標を減じて、デルタX 442およびデルタY 441(正または負であり得る)を求め、これらをカメラ映像420Cのフレームのピクセル幅およびピクセル長さでそれぞれ除して比率を設定し、この比率は、背面カメラ(図示していない)の視野を乗じたときに、背面カメラから物理オブジェクト上の物理的アンカー点に向かう線の、カメラのレンズの垂線に対する相対的な角度を定義する。この場合、背面カメラ(図示していない)の6次元位置姿勢を、追跡機404の6次元位置姿勢に基づき、これらの間の事前定義される6次元のオフセットを使用して計算することができるため、垂線と、カメラのレンズから物理オブジェクト上のアンカー点に向かう線とを導くことができる。
このユースケースでは、物理オブジェクトの十分に正確な3Dモデルが存在するものと想定する。ステップ451においては、視野内に物理オブジェクトを有するカメラ映像と、画面の他方のセクションにおける物理オブジェクトのレンダリングされた3Dモデルの両方をビューアに表示し、3Dモデルの表面上には、同一線上にない少なくとも3つのアンカー点を明瞭に識別することができる。
ステップ455においては、3Dモデル上で現在のアンカー点を強調表示し、ユーザに、画面のカメラ映像セクションにおいて、物理オブジェクト上の対応するアンカー点が見える各点にタッチするように要求する。
ユーザが画面にタッチしたら、示された点の2Dスクリーン座標と、ARビューアのカメラから既知の6次元のオフセットにある現在の追跡機の位置姿勢から導かれる、ARビューアのカメラの現在の6次元位置姿勢とを、一緒に記録する(ステップ459)。なお、画面上の点は、タッチによってのみならず、別の方法によって(例えばマウスによって)示すこともできることに留意されたい。
ステップ461においては、ユーザに、別の角度から物理オブジェクトを動かして表示させ、ステップ455の動作を繰り返すように要求する。ステップ459と同様に、新しいタッチ点の2D座標と、ARビューアのカメラの現在の位置姿勢とを記録する。
ステップ463においては、すべてのアンカー点が少なくとも2つの異なる角度から記録されているかをチェックし、記録されている場合には次のステップに続き、記録されていない場合には次のアンカー点についてステップ455〜ステップ463を繰り返す。
ステップ467においては、記録された2Dスクリーン座標とARビューアのカメラの位置姿勢とから、以下に説明するように物理オブジェクトの6次元位置姿勢を計算する。
記録された各「タッチ」は、記録されたカメラの絶対位置姿勢から、現実世界におけるアンカー点に向かう線を定義する。これが可能であるのは、カメラの6次元位置姿勢が既知であり、これとともに、画面上のカメラ映像の既知の2D座標に対する、画面上の記録されたタッチ点の2D座標の比率と、カメラの視野とが既知であるためであり、これにより線の方向を計算することが可能になる。さらに詳しい説明は、図4Bの説明の一部として記載してある。
各アンカー点について、そのアンカー点に関連付けられる2本のスキューラインを定義することを可能にする少なくとも2本の線を、上述したように計算する。次に、スキューライン上の最も近い2点を計算し、これら最も近い2点を結ぶ線の中心にある点を、物理空間内のアンカー点の実際の位置の近似として定義する。すべての座標は、追跡システムのワールド座標系に従う。精度を改善するために、このプロセスをさらに繰り返すことができる。少なくとも3つのアンカー点の位置が計算されると、これらによって、物理オブジェクトの3Dモデル、したがって対応する物理オブジェクトの6次元の空間内位置姿勢を、追跡システムのワールド座標系内に置くことが可能になる。この計算は、いくつかの公知の方法で行うことができ、例えば反復的な回転を使用し、すなわち物理オブジェクトの3Dモデルを、アンカー点の1つが追跡システムのワールド座標系におけるそのアンカー点の以前に計算された近似位置にすでに一致した状態で配置し、次いでその3Dモデルを、アンカー点1を旋回中心として使用してワールド座標系の3本の軸(X,Y,Z)の周りに軸ごとに回転させ、各軸において仮想モデル上のアンカー点2がアンカー点2の物理的な近似位置に最も近いときに回転を止める。このプロセスの終了時、アンカー点1およびアンカー点2の両方が、追跡システムのワールド座標系内で前に計算されたそれぞれの物理的位置の近くに配置されている。次に、アンカー点1とアンカー点2を結ぶ線の軸を使用して、モデル上のアンカー点3がその物理的座標に最も近くなるまで、その軸の周りにモデルを回転させる。一致が十分に正確ではない場合、説明した方法の1つにおいて物理オブジェクト上のアンカー点のさらなるサンプリングを供給するように、ユーザに要求することもできる。既知のアンカー点の位置から物理オブジェクトの位置を計算するための別の標準的な方法では、SVD分解(SVD decomposition)を使用することができる。ステップ471においては、拡張現実を可能にする目的で、物理オブジェクトの計算された6次元位置姿勢を記録する。
アンカー点を使用せずに物理オブジェクトの位置姿勢を計算するための代替方法としては、物理オブジェクトがカメラ映像内に見える状態になるようにユーザに要求し、ユーザの正面の物理オブジェクトの3D仮想モデルを、AR層として任意の位置姿勢において提示し、3Dモデルの仮想グラフィックスが物理オブジェクトと互いに整列するまで、ユーザに、すべての次元においてオブジェクトを動かして回転させる。3Dモデルの仮想グラフィックスと物理オブジェクトとが互いに整列すると、物理オブジェクトの位置姿勢は、仮想オブジェクトの位置姿勢と実際に同じであり、なぜならこれらは同じワールド座標系内で操作されて、仮想カメラが実際のカメラの位置姿勢に配置されるためである。1つまたは2つのアンカー点のみが既知である場合にも、類似する方法を使用することができる。このような場合、ユーザは、仮想3Dモデルが物理オブジェクトに視覚的に整列するまで、アンカー点としての1つの点を使用して、または2つのアンカー点の場合には軸の周りに、仮想3Dモデルを回転させることによって、物理オブジェクトの仮想3Dモデルを操作することができる。
物理オブジェクトの6次元位置姿勢が計算されたら、物理オブジェクトに、または物理オブジェクトにしっかりと取り付けられている任意の別のオブジェクト(物理オブジェクトが乗っている受け台など)に、追跡機を取り付けることができ、したがって物理オブジェクトの6次元位置姿勢の変化を識別し、これにより物理オブジェクトを、その物理的位置を認識しながら動かすことが可能になり、ARビューアが機能して拡張層を供給する能力が維持される。
図4Dは、3D空間内のオブジェクトの位置、具体的には物理空間内の強調表示されたアンカー点440Zの位置を定義する別の方法の実例を示している。強調表示されたアンカー点440Zの物理的位置に、追跡機のポインタ(例えば円錐部436の端部)で触れるように、ユーザに要求する。追跡機のポインタは、例えばロッドまたは円錐部436のように追跡機に対して調整されており、既知の長さであり、追跡機の上に既知の6次元位置姿勢において配置されている。例えば、既知の長さの物理的円錐部436を、追跡システムの追跡機の上に既知の位置および向きに調整することにより、円錐部436の端部の正確な位置を継続的に認識することが可能になる。したがって、ARビューアの画面上に現在のアンカー点440Zのマークを提示し、ユーザに、物理オブジェクトの実際の物理的表面上の同じ点に円錐部436の端部で物理的に触れて、さらに画面にタッチする、または別の合図を行うように要求し、これにより、追跡システムのワールド座標系内でのアンカー点のこの物理的位置の3次元位置を計算することが可能になる。3つのアンカー点の位置が求められたら、追跡システムのワールド座標系内の物理オブジェクトの6次元の空間内位置姿勢を、上述したように計算することができる。
ステップ481においては、強調表示された現在のアンカーを画面に提示し、ユーザに、物理オブジェクト上のこの点に追跡機のポインタ(円錐部)の端部で触れて、実行したら合図するように要求する。合図は、ARビューアの画面にタッチすることによって、または音声命令によって、または任意の別の方法によって、行うことができる。
ステップ485においては、ユーザの合図を受信したら、追跡機の現在の位置姿勢を取り出し、ポインタ端部の3次元の空間内位置を計算する。この計算を行うことができるのは、調整の長さおよび正確な位置姿勢が事前定義されているため、追跡機に対する追跡機のポインタの端部の相対的な位置が既知であるためである。これは、ポインタ端部の位置を測定してそれを現在の追跡機の位置姿勢と比較するために使用することのできる別の追跡機のポインタによって、計算することもできる。
ステップ485においては、計算されたポインタ端部の位置を、以降に使用できるように記録する。
[静的なビューアおよび移動可能オブジェクトを有するシステム]
[システムのレイアウト]
図5A〜図5Dは、拡張現実ビューアが静的であり、その一方で、検査される物理オブジェクトが移動可能であるシナリオを示している。図5Aは、静的な拡張現実ビューアを介して表示される物理オブジェクトを表している靴510を描いている。ユーザは、静的なビューアのカメラの視野内で、靴を手にとって自由に動かしたり操作することが予期され、しばしば靴の一部が恣意的に隠れることにより、拡張現実ビューアのカメラを介しての靴の視覚的特徴の従来の追跡の信頼性は低い。したがって、図3Aの設備などの設備の中で靴510の絶対位置姿勢の継続的な追跡を可能にするために、靴に追跡機512が、この移動するオブジェクト上の既知の6次元位置姿勢にしっかりと固定されている。位置姿勢を求める別の方法としては、移動可能な物理オブジェクトを、動かすことなく静的な位置姿勢に配置し、最初にこのオブジェクトを、図4A〜図4Eに説明した方法に類似する方法または別の方法によって(場合によってはこの段階で静的なARビューアに追跡機が配置された状態で)位置姿勢を求め、位置姿勢を求めたら、この移動可能な物理オブジェクトに追跡機を配置し(すでに取り付けられていない場合)、次いでシステムに合図する。完了すると、移動可能オブジェクト(この場合には靴510)を再び動かすことができ、靴510の位置姿勢が変化すると追跡機512の位置姿勢も同じように変化し、この変化が検出され、したがって靴510の新しい位置姿勢も取得することが可能になる。
図5A〜図5Dは、拡張現実ビューアが静的であり、その一方で、検査される物理オブジェクトが移動可能であるシナリオを示している。図5Aは、静的な拡張現実ビューアを介して表示される物理オブジェクトを表している靴510を描いている。ユーザは、静的なビューアのカメラの視野内で、靴を手にとって自由に動かしたり操作することが予期され、しばしば靴の一部が恣意的に隠れることにより、拡張現実ビューアのカメラを介しての靴の視覚的特徴の従来の追跡の信頼性は低い。したがって、図3Aの設備などの設備の中で靴510の絶対位置姿勢の継続的な追跡を可能にするために、靴に追跡機512が、この移動するオブジェクト上の既知の6次元位置姿勢にしっかりと固定されている。位置姿勢を求める別の方法としては、移動可能な物理オブジェクトを、動かすことなく静的な位置姿勢に配置し、最初にこのオブジェクトを、図4A〜図4Eに説明した方法に類似する方法または別の方法によって(場合によってはこの段階で静的なARビューアに追跡機が配置された状態で)位置姿勢を求め、位置姿勢を求めたら、この移動可能な物理オブジェクトに追跡機を配置し(すでに取り付けられていない場合)、次いでシステムに合図する。完了すると、移動可能オブジェクト(この場合には靴510)を再び動かすことができ、靴510の位置姿勢が変化すると追跡機512の位置姿勢も同じように変化し、この変化が検出され、したがって靴510の新しい位置姿勢も取得することが可能になる。
図5Bは、1つまたは複数の支持部524(従来の任意の固定装置である)によって固定の位置姿勢に静的に維持されている拡張現実ビューア514を描いている。靴510を手にしているユーザは、画面518上で写真520を見るが、この写真520は、拡張現実ビューア514のカメラ(図示していない)によって現在撮影されている靴および手と、仮想オブジェクト528の層(この例では、靴のさまざまな部分の名称を示す引き出し線およびテキストによって具体化されている)とを示している。図5Cは代替の実施形態530を描いており、この実施形態では、拡張現実の論理によって、透けて見える機能が提供され、したがって、前にカメラによって撮影されていたが現在は手によって隠れている靴の部分が、手の上に点線で示されるが、図5Bの代替方法ではこれらの部分は示されない。手の位置姿勢は、カメラ映像の視覚的分析によって、または手の検出および追跡に特化されている専用アクセサリ(例えばLeap Motion(登録商標)(図示していない))によって、計算することができ、専用アクセサリは、ARビューアに対して調整されており、センサーとARビューアのカメラとの間のオフセットおよびそれらの視野が与えられると、手によって覆われている2D画面上の領域の計算を可能にする。手を検出するセンサーとARビューアのカメラとの間の位置姿勢のオフセットが固定されているか既知である限りは、ARビューアが動く場合にも同じ方法を適用することができる。
図5Dは、靴538と、拡張現実ビューア542の画面上のその拡張現実写真546の両方を含むシナリオ534を示している。追跡機512は、有線または無線でARビューアに接続することができる。
[動作]
以下の動作は、拡張現実ビューアのプロセッサ、および/または、リアルタイム計算をサポートするためにオプションとして追加される別のコンピュータのプロセッサ、によって実行される。
以下の動作は、拡張現実ビューアのプロセッサ、および/または、リアルタイム計算をサポートするためにオプションとして追加される別のコンピュータのプロセッサ、によって実行される。
図5Eは、図5Dの実施形態のシステムの動作を描いており、この場合、拡張現実ビューア542は固定された位置姿勢にある。ステップ551においては、拡張現実ビューアのカメラ542の6次元位置姿勢を、例えば3つの方法、すなわち、(a)拡張現実ビューア542は静的であるため、その位置姿勢を前もって求めて記録しておくことができ、動作時にそれをメモリから単に取り出す、(b)従来の任意の位置姿勢測定システムを採用して、拡張現実ビューア542の位置姿勢を測定する、(c)追跡機のポインタを使用するなどの方法、またはアンカー点を識別するために使用される方法に類似する別の方法を反対に適用する(したがってARビューアではなく物理オブジェクトが動く)、のうちの1つによって、取得する。ステップ555においては、ARビューアが、追跡機512および対応する追跡ベース(図3Aの追跡ベース320など)を使用して、例えば図2Aまたは図2Bの背景技術の教示内容に従って、追跡機の現在の絶対位置姿勢を取得し、既知の6次元のオフセットから、物理オブジェクト(靴538)の6次元位置姿勢を導く。ステップ559においては、ステップ555において取得した物理オブジェクトの絶対位置姿勢と、ステップ551において取得した拡張現実ビューアのカメラの絶対位置姿勢とを使用して、物理オブジェクトに対する拡張現実ビューアのカメラの相対的な位置姿勢を求める。ステップ563においては、拡張現実ビューアのカメラによって、物理オブジェクトの画像を撮影する。ステップ565においては、仮想オブジェクトのモデル(図5B+図5Cの引き出し線およびテキストなど)をメモリから取り出し、ステップ567においては、ステップ559において計算した物理オブジェクトに対する拡張現実ビューアのカメラの現在の相対的な位置姿勢に従って、仮想オブジェクトによって拡張された物理オブジェクトの画像をレンダリングする。このようなレンダリングおよび関連する計算は、図1A〜図1C、図3A〜図3B、および図4A〜図4Eを参照しながらも説明した、拡張現実の技術分野において公知の方法によって行う。オプションのステップ569においては、カメラ映像の視覚的分析を使用することによって、または手を検出および追跡するための上述した専用アクセサリ、またはオブジェクトおよびその位置姿勢を識別するために使用される別の公知の方法を使用することによって、ユーザの手または別の識別されるオブジェクトによって現在隠れている物理オブジェクトの特徴に関連する仮想オブジェクトの要素を、レンダリングされた画像から選択的に排除する。ステップ571においては、ステップ567およびオプションのステップ569においてレンダリングされた画像を、ユーザによって見えるように拡張現実ビューアの画面に提供する。ユーザが引き続きビューアを操作する(場合によっては物理オブジェクト(靴538)を動かす)場合、プロセスはステップ575からステップ555に戻り、ステップ571において、現在の視点からの別の写真を提供する。
[移動可能ビューアおよび移動可能オブジェクトを有するシステム]
図3Aおよび図3Bは、静的な物理オブジェクトおよび移動可能な拡張現実ビューアのシナリオに関連していた。図5A〜図5Dは、移動可能な物理オブジェクトおよび静的な拡張現実ビューアのシナリオに関連していた。第3のシナリオは、物理オブジェクトおよび拡張現実ビューアの両方が移動可能であり、この場合、追跡機は物理オブジェクトおよび拡張現実ビューアの両方に取り付けられる。
図3Aおよび図3Bは、静的な物理オブジェクトおよび移動可能な拡張現実ビューアのシナリオに関連していた。図5A〜図5Dは、移動可能な物理オブジェクトおよび静的な拡張現実ビューアのシナリオに関連していた。第3のシナリオは、物理オブジェクトおよび拡張現実ビューアの両方が移動可能であり、この場合、追跡機は物理オブジェクトおよび拡張現実ビューアの両方に取り付けられる。
図6は、物理オブジェクトおよび拡張現実ビューアの両方がユーザによって移動可能であり、したがって両方が追跡機を装備している実施形態におけるシステムの動作を描いており、追跡機は、追跡ベースシステムを使用して、オブジェクトの絶対位置姿勢を、物理オブジェクト上の追跡機の既知の6次元位置に基づいて求め、ビューアのカメラの絶対位置姿勢を、追跡機とカメラとの間の既知のオフセットに基づいて求める。物理オブジェクトからの追跡機の6次元位置姿勢のオフセットは、物理オブジェクト上に追跡機を正確な6次元位置姿勢において正確に位置決めすることによって取得することができ、または、図4A〜図4Eの説明に類似する方法または別の方法において物理オブジェクトを静止させたら物理オブジェクトの絶対位置姿勢を検出することで、間接的に取得することができ、完了したらシステムに合図し、次いで追跡機を使用して位置姿勢の変化を追跡する。ステップ651においては、拡張現実ビューア542のカメラの絶対位置姿勢を、追跡機と追跡ベースの間の通信を介して取得する。ステップ655においては、物理オブジェクトの絶対位置姿勢を、上述したように追跡機を介して取得する。ステップ659においては、ステップ655において取得した物理オブジェクトの絶対位置姿勢と、ステップ651において取得した拡張現実ビューアのカメラの絶対位置姿勢とを使用して、物理オブジェクトに対する拡張現実ビューアのカメラの相対的な位置姿勢を求める。ステップ663においては、拡張現実ビューアのカメラによって、その視野内に物理オブジェクトを有する画像を撮影する。ステップ665においては、仮想オブジェクトのモデル(図5B+図5Cの引き出し線およびテキストなど)をメモリから取り出し、ステップ667においては、仮想オブジェクトによって拡張された物理オブジェクトの画像を、ステップ659において計算した物理オブジェクトに対する拡張現実ビューアのカメラの現在の相対的な位置姿勢に従ってレンダリングする。このようなレンダリングは、図1A〜図1C、図3A〜図3B、および図4A〜図4Eを参照しながらも説明した、拡張現実の技術分野において公知の方法によって行う。オプションのステップ669においては、カメラ映像の視覚的分析を使用することによって、または手を検出および追跡するための上述した専用アクセサリを使用することによって、ユーザの手または別の検出可能なオブジェクトによって現在隠れている物理オブジェクトの特徴に関連する仮想オブジェクトの要素を、レンダリングされた画像から選択的に排除する。ステップ671においては、ステップ667およびオプションのステップ669においてレンダリングされた画像を、ユーザによって見えるように拡張現実ビューアの画面に提供する。ユーザが引き続きビューアを操作する(場合によっては物理オブジェクトおよび/または拡張現実ビューアを動かす)場合、プロセスはステップ675からステップ651に戻り、ステップ671において、現在の視点からの別の写真を提供する。
図7には、複数の異なるタイプのARビューアのカメラを描いてある。1つのオプションは、装置の背面カメラ704を使用することである。このような場合、カメラと追跡機720の正確な6次元のオフセットを、標準的な方法によって、または別の追跡機(図示していない)を使用して背面カメラの正確な位置姿勢を取得することによって、取得するべきである。背面カメラ704およびARビューア装置700ならびに追跡機720の向きは、しばしば整列しており、この場合、別の追跡機(図示していない)または別の方法によって背面カメラ704の3次元の空間内位置を迅速に識別することが可能になり、追跡機720からの背面カメラ704のオフセットを計算し、したがって追跡機720の絶対位置姿勢からの背面カメラ704の6次元の絶対的なオフセットを推定することが可能になる。
図7は別のユースケースも描いており、このユースケースでは、統合ケース710の中に単独のカメラ714が追跡機720と一緒に組み立てられており、単独のカメラ714からの追跡機720の6次元オフセットは既知かつ一定であるため、追跡機720の位置姿勢からカメラ714の位置姿勢を計算することが可能である。単独のカメラ714は、USBケーブル718を通じて装置700に接続することができ、その一方で、ケース710の内側のUSBハブ(図示していない)は、追跡機720および単独のカメラ714の両方を、同じUSBケーブル718を使用して装置700に接続することを可能にする。このシステムは、追跡機のポインタ722として使用される、短いロッドに似た物体をさらに含む。追跡機のポインタ722は、既知の長さであり、既知の位置姿勢において追跡機720に配置されており、したがってロッド722の端部の正確な6次元位置姿勢が、追跡機720の位置姿勢から導かれる。追跡機のポインタ722を使用して、3D空間内位置を示す(例えばアンカー点に触れることができ、表面に触れたら合図を生成し、この合図は、ユーザが示す(例えば画面にタッチする)ことによって、またはロッド端部の位置姿勢がしばらく安定した後に自動的に、または、例えばロッドの接触から発生する圧力に反応することのできる、追跡機のポインタ722の基部内のセンサーによる。
図8も、別のユースケースを描いており、このユースケースでは、ケース810の中に、カメラ830、追跡機820、追跡機のポインタ822、およびUSBケーブル818と一緒に、プロジェクタ814も統合されている。追跡機820に対するプロジェクタ814のレンズの正確な6次元位置姿勢が既知であり、かつケース810の構造によって定義され、またプロジェクタの型および視野も既知であるため、プロジェクタ814のレンズの正確な位置姿勢を計算することができ、その位置姿勢を使用してAR画像をレンダリングし、次いでプロジェクタ814によって物理オブジェクトの表面上に投影することができる。これを実施するための1つの方法として、Unity3Dなどの3Dレンダリングエンジンを使用し、物理オブジェクトの位置姿勢に対するプロジェクタのレンズ814の相対的な位置姿勢と同じ相対的な位置姿勢において、仮想オブジェクトに対して仮想カメラを配置し、次いで仮想オブジェクトの画像をレンダリングし、これにより2つを整列させることが可能になり、なぜなら仮想オブジェクトおよび物理オブジェクトが同じワールド座標系内で適切に整列するためである。これらはいずれも、AR画像の生成に関連して図1A〜図1C、図3A〜図3B、および図4A〜図4Eに関連して説明した方法に類似する方法に基づき、ただし、ARゴーグルを使用しないときには物理オブジェクトの表面上の点のみを正確に投影できることを考慮して、画面のカメラ映像上で拡張される画像ではなく物理オブジェクト上に投影される画像を意味する。この仮想オブジェクトは、物理オブジェクトの3Dモデルの表面上の点と注釈マークとを含むことができ、したがって物理オブジェクト上の点を強調表示することと、投影される関連付けられるグラフィックスを追加することが可能になる。
アスペクト比を維持する画像または映像の、物理オブジェクトの表面への投影は、プロジェクタのレンズ814に対する表面の角度を計算し、画像をスケーリングおよび回転させるべき比率を、プロジェクタ814が投影する表面に対するARビューアの位置姿勢に基づいて標準的な三角法を使用して計算することによって、生成することができる。
図9は、ウェアラブルデバイスに関連して本発明をどのように使用するかを示しており、ウェアラブルデバイスは、この例では、内蔵のマイクロプロジェクタ(図示していない)を使用してゴーグルレンズ950(左右の目に1つずつ)に画像を投影する複合現実ゴーグル900である。追跡機930は、ゴーグルレンズ950に対する既知の6次元位置姿勢に、コネクタ920を使用して固定されており、したがって、追跡機930の6次元位置姿勢を知ることによって、ゴーグルレンズ950の6次元位置姿勢を計算することが可能になる。これにより、仮想オブジェクトをレンダリングし、ゴーグルレンズ950上にプロジェクタ(図示していない)によって投影される拡張画像(レンズ950ごとに1つ)を供給して、レンズ950を通じてユーザの目(図示していない)が見ている現実に拡張層を加えることが可能になる。拡張する仮想オブジェクトは、3Dモデルと、物理オブジェクトおよびその環境の上に拡張されるテキストおよび注釈を含むことができる。これを実施するための1つの方法は、図1A〜図1C、図3A〜図3B、および図4A〜図4Eにおいて説明した方法を使用することであり、例えば3Dレンダリングエンジンを使用して、物理オブジェクトに対するゴーグルレンズ950の相対的な位置姿勢と同じ相対的な位置姿勢において、仮想オブジェクトに対して2つの仮想カメラを配置し、次いで仮想オブジェクトの画像をレンダリングし、これにより2つのカメラを整列させることが可能であり、なぜなら仮想オブジェクトと物理オブジェクトが同じワールド座標内で適切に整列するためである。
[複数のビューアおよび/または複数のオブジェクトを有するシステム]
別のシナリオは、複数の移動可能な物理オブジェクトもしくは複数の静的な物理オブジェクトまたはその両方、および/または、複数の移動可能な拡張現実ビューアもしくは複数の静的な拡張現実ビューアまたはその両方、を含む。この場合、すべての移動可能物理オブジェクトおよびすべての移動可能拡張現実ビューアには、追跡機が装備され、オブジェクトと追跡機のすべての組合せは、上記の図3B、図5E、および図6に従って動作する。
別のシナリオは、複数の移動可能な物理オブジェクトもしくは複数の静的な物理オブジェクトまたはその両方、および/または、複数の移動可能な拡張現実ビューアもしくは複数の静的な拡張現実ビューアまたはその両方、を含む。この場合、すべての移動可能物理オブジェクトおよびすべての移動可能拡張現実ビューアには、追跡機が装備され、オブジェクトと追跡機のすべての組合せは、上記の図3B、図5E、および図6に従って動作する。
ここまで本発明について、限られた数の実施形態に関連して説明してきたが、本明細書に具体的に図示および説明してきた内容によって本発明が制限されないことが、当業者には理解されるであろう。そうではなく、本発明の範囲は、本明細書に記載されているさまざまな特徴の組合せおよび部分的な組合せの両方のみならず、本明細書を読んだ時点で当業者に明らかであろう、従来技術にはない変形形態および修正形態を含む。
Claims (10)
- 拡張現実システムであって、
信号を送る静的な追跡ベースステーションと、
静的な物理オブジェクトを拡張するための、ユーザによって操作可能な移動可能ユニットと、
を備えており、
前記移動可能ユニットが、
前記静的な追跡ベースステーションによって送られる信号を受信する追跡機と、
前記静的な物理オブジェクトのリアルタイム画像を撮影するカメラと、
前記静的な物理オブジェクトの拡張された画像を表示するビューアと、
少なくとも1つのプロセッサであって、(i)前記静的な物理オブジェクトの6次元絶対位置姿勢を取得し、(ii)前記追跡機によって受信された前記信号から、前記カメラの6次元絶対位置姿勢を計算し、(iii)前記カメラの前記6次元絶対位置姿勢と、前記静的な物理オブジェクトの前記6次元絶対位置姿勢とから、前記静的な物理オブジェクトに対する前記カメラの相対的な位置姿勢を計算し、(iv)前記静的な物理オブジェクトを拡張するための仮想オブジェクトのモデルを受信し、(v)前記仮想オブジェクトによって拡張された、前記カメラから受信された前記静的な物理オブジェクトの画像を、前記静的な物理オブジェクトに対する前記カメラの前記相対的な位置姿勢に従ってレンダリングし、(vi)前記レンダリングされた画像を前記ビューアに表示する、ようにプログラムされている、前記少なくとも1つのプロセッサと、
を含む、
拡張現実システム。 - 前記ビューアが画面を含む、請求項1に記載の拡張現実システム。
- 前記ビューアが、ウェアラブルな拡張現実ゴーグルを含む、請求項1に記載の拡張現実システム。
- 前記静的な追跡ベースステーションが、少なくとも1つの灯台型装置を備えている、請求項1から請求項3のいずれか1項に記載の拡張現実システム。
- 前記静的な物理オブジェクトの6次元絶対位置姿勢を取得する前記ステップが、ユーザ入力を受信して処理するステップを含む、請求項1から請求項3のいずれか1項に記載の拡張現実システム。
- 拡張現実システムであって、
信号を送る静的な追跡ベースステーションと、
静的な物理オブジェクトを拡張するための、ユーザによって操作可能な移動可能ユニットと、
を備えており、
前記移動可能ユニットが、
前記静的な追跡ベースステーションによって送られる信号を受信する追跡機と、
前記静的な物理オブジェクト上に投影するプロジェクタと、
少なくとも1つのプロセッサであって、(i)前記静的な物理オブジェクトの6次元絶対位置姿勢を取得し、(ii)前記追跡機によって受信された前記信号から、前記プロジェクタの6次元絶対位置姿勢を計算し、(iii)前記プロジェクタの前記6次元絶対位置姿勢と、前記静的な物理オブジェクトの前記6次元絶対位置姿勢とから、前記静的な物理オブジェクトに対する前記プロジェクタの相対的な位置姿勢を計算し、(iv)前記静的な物理オブジェクト上に投影するための仮想オブジェクトのモデルを受信し、(v)前記仮想オブジェクトの画像を、前記静的な物理オブジェクトに対する前記プロジェクタの前記相対的な位置姿勢に従ってレンダリングし、(vi)前記レンダリングされた画像を前記静的な物理オブジェクト上に投影する、ようにプログラムされている、前記少なくとも1つのプロセッサと、
を含む、
拡張現実システム。 - 前記静的な追跡ベースステーションが、少なくとも1つの灯台型装置を備えている、請求項6に記載の拡張現実システム。
- 前記静的な物理オブジェクトの6次元絶対位置姿勢を取得する前記ステップが、ユーザ入力を受信して処理するステップを含む、請求項6または請求項7に記載の拡張現実システム。
- 拡張現実の方法であって、
静的な物理オブジェクトの6次元絶対位置姿勢を取得するステップと、
プロジェクタを含む移動可能ユニットにおいて、静的な追跡ベースステーションからの信号を受信するステップと、
前記受信された信号から、前記プロジェクタの6次元絶対位置姿勢を計算するステップと、
前記プロジェクタの前記6次元絶対位置姿勢と、前記静的な物理オブジェクトの前記取得された6次元絶対位置姿勢とから、前記静的な物理オブジェクトに対する前記プロジェクタの相対的な位置姿勢を計算するステップと、
前記静的な物理オブジェクト上に投影するための仮想オブジェクトのモデルを受信するステップと、
前記仮想オブジェクトの画像を、前記静的な物理オブジェクトに対する前記プロジェクタの前記相対的な位置姿勢に従ってレンダリングするステップと、
前記レンダリングされた画像を前記静的な物理オブジェクト上に投影するステップと、
を含む、拡張現実の方法。 - 前記静的な物理オブジェクトの6次元絶対位置姿勢を取得する前記ステップが、ユーザ入力を受信して処理するステップを含む、請求項9に記載の拡張現実の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762551868P | 2017-08-30 | 2017-08-30 | |
US62/551,868 | 2017-08-30 | ||
PCT/IB2018/056544 WO2019043568A1 (en) | 2017-08-30 | 2018-08-28 | ASSISTED ENHANCED REALITY |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020531965A true JP2020531965A (ja) | 2020-11-05 |
Family
ID=65527237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020508470A Pending JP2020531965A (ja) | 2017-08-30 | 2018-08-28 | 支援型の拡張現実 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11386611B2 (ja) |
EP (1) | EP3676805A4 (ja) |
JP (1) | JP2020531965A (ja) |
WO (1) | WO2019043568A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11386611B2 (en) | 2017-08-30 | 2022-07-12 | Skill Real Ltd | Assisted augmented reality |
US11734477B2 (en) * | 2018-03-08 | 2023-08-22 | Concurrent Technologies Corporation | Location-based VR topological extrusion apparatus |
US10692299B2 (en) * | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
US10909772B2 (en) | 2018-07-31 | 2021-02-02 | Splunk Inc. | Precise scaling of virtual objects in an extended reality environment |
FR3086423B1 (fr) * | 2018-09-21 | 2021-09-10 | Diotasoft | Procede et systeme de visualisation en realite augmentee |
JP6787966B2 (ja) * | 2018-10-02 | 2020-11-18 | ファナック株式会社 | 拡張現実と複合現実を用いたロボット制御装置及び表示装置 |
CN111489448B (zh) * | 2019-01-24 | 2024-08-20 | 宏达国际电子股份有限公司 | 检测真实世界光源的方法、混合实境系统及记录介质 |
JP2020166424A (ja) * | 2019-03-28 | 2020-10-08 | 三菱重工業株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US11625140B2 (en) * | 2019-05-31 | 2023-04-11 | Ptc Inc. | Configuring remote devices through volumetric video telepresence interfaces |
KR20210030147A (ko) * | 2019-09-09 | 2021-03-17 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
WO2021192686A1 (ja) * | 2020-03-23 | 2021-09-30 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
US12039674B2 (en) | 2020-09-18 | 2024-07-16 | Apple Inc. | Inertial data management for extended reality for moving platforms |
US20220092860A1 (en) * | 2020-09-18 | 2022-03-24 | Apple Inc. | Extended reality for moving platforms |
US20220198764A1 (en) * | 2020-12-18 | 2022-06-23 | Arkh, Inc. | Spatially Aware Environment Relocalization |
US11514648B2 (en) * | 2020-12-23 | 2022-11-29 | Microsoft Technology Licensing, Llc | Aligning input image data with model input data to generate image annotations |
WO2022177505A1 (en) * | 2021-02-17 | 2022-08-25 | National University Of Singapore | Methods relating to virtual reality systems and interactive objects |
US11889012B2 (en) * | 2021-04-15 | 2024-01-30 | Verizon Patent And Licensing Inc. | Systems and methods for utilizing augmented reality to identify an optimal location for providing a wireless network device |
US12102873B2 (en) * | 2021-06-09 | 2024-10-01 | Huawei Technologies Co., Ltd. | Method and apparatus for flexible local tracking |
US11676351B1 (en) * | 2022-02-16 | 2023-06-13 | International Business Machines Corporation | Automated refinement of augmented reality virtual object annotations |
EP4280157A1 (en) * | 2022-05-17 | 2023-11-22 | Holo-Light GmbH | Extended reality (xr) object alignment method and xr projection system |
GB2619552B (en) * | 2022-06-10 | 2024-09-18 | Sony Interactive Entertainment Europe Ltd | Computer implemented method and system for providing an augmented reality entertainment environment |
US20240211090A1 (en) * | 2022-12-23 | 2024-06-27 | Rovi Guides, Inc. | Methods and systems for displaying virtual elements in an xr environment |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6973202B2 (en) * | 1998-10-23 | 2005-12-06 | Varian Medical Systems Technologies, Inc. | Single-camera tracking of an object |
US7203277B2 (en) * | 2003-04-25 | 2007-04-10 | Brainlab Ag | Visualization device and method for combined patient and object image data |
US7463823B2 (en) * | 2003-07-24 | 2008-12-09 | Brainlab Ag | Stereoscopic visualization device for patient image data and video images |
US20160098095A1 (en) * | 2004-01-30 | 2016-04-07 | Electronic Scripting Products, Inc. | Deriving Input from Six Degrees of Freedom Interfaces |
US20090109240A1 (en) * | 2007-10-24 | 2009-04-30 | Roman Englert | Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment |
US9626786B1 (en) * | 2010-07-19 | 2017-04-18 | Lucasfilm Entertainment Company Ltd. | Virtual-scene control device |
US20120113141A1 (en) | 2010-11-09 | 2012-05-10 | Cbs Interactive Inc. | Techniques to visualize products using augmented reality |
GB2524983B (en) | 2014-04-08 | 2016-03-16 | I2O3D Holdings Ltd | Method of estimating imaging device parameters |
US20170085656A1 (en) | 2015-09-22 | 2017-03-23 | Nvidia Corporation | Automatic absolute orientation and position |
US10254546B2 (en) * | 2016-06-06 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optically augmenting electromagnetic tracking in mixed reality |
US10692288B1 (en) * | 2016-06-27 | 2020-06-23 | Lucasfilm Entertainment Company Ltd. | Compositing images for augmented reality |
WO2018049196A1 (en) * | 2016-09-09 | 2018-03-15 | GYS Tech, LLC d/b/a Cardan Robotics | Methods and systems for display of patient data in computer-assisted surgery |
US10754416B2 (en) * | 2016-11-14 | 2020-08-25 | Logitech Europe S.A. | Systems and methods for a peripheral-centric augmented/virtual reality environment |
US11740690B2 (en) * | 2017-01-27 | 2023-08-29 | Qualcomm Incorporated | Systems and methods for tracking a controller |
US20190005733A1 (en) * | 2017-06-30 | 2019-01-03 | Paul Alexander Wehner | Extended reality controller and visualizer |
US11386611B2 (en) | 2017-08-30 | 2022-07-12 | Skill Real Ltd | Assisted augmented reality |
GB2569267A (en) * | 2017-10-13 | 2019-06-19 | Mo Sys Engineering Ltd | Lighting integration |
-
2018
- 2018-08-28 US US16/327,929 patent/US11386611B2/en active Active
- 2018-08-28 WO PCT/IB2018/056544 patent/WO2019043568A1/en unknown
- 2018-08-28 EP EP18852429.2A patent/EP3676805A4/en not_active Withdrawn
- 2018-08-28 JP JP2020508470A patent/JP2020531965A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3676805A1 (en) | 2020-07-08 |
WO2019043568A1 (en) | 2019-03-07 |
US20210042992A1 (en) | 2021-02-11 |
EP3676805A4 (en) | 2021-06-02 |
US11386611B2 (en) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020531965A (ja) | 支援型の拡張現実 | |
US10733801B2 (en) | Markerless image analysis for augmented reality | |
JP6860488B2 (ja) | 複合現実システム | |
TWI722280B (zh) | 用於多個自由度之控制器追蹤 | |
US9201568B2 (en) | Three-dimensional tracking of a user control device in a volume | |
US10529141B2 (en) | Capturing and aligning three-dimensional scenes | |
US10037614B2 (en) | Minimizing variations in camera height to estimate distance to objects | |
WO2017134886A1 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
WO2015122108A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7546116B2 (ja) | 拡張現実のためのシステムおよび方法 | |
US11164378B1 (en) | Virtual reality detection and projection system for use with a head mounted display | |
KR20150093831A (ko) | 혼합 현실 환경에 대한 직접 상호작용 시스템 | |
US10878285B2 (en) | Methods and systems for shape based training for an object detection algorithm | |
WO2019171557A1 (ja) | 画像表示システム | |
WO2018113759A1 (zh) | 基于定位系统和ar/mr的探测系统及探测方法 | |
US20220321851A1 (en) | Portable projection mapping device and projection mapping system | |
JP7198149B2 (ja) | 情報処理装置およびデバイス情報導出方法 | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Piérard et al. | I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes | |
Siegl et al. | An augmented reality human–computer interface for object localization in a cognitive vision system | |
JP7288792B2 (ja) | 情報処理装置およびデバイス情報導出方法 | |
JP7544071B2 (ja) | 情報処理装置、情報処理システム及び情報処理方法 | |
WO2023238678A1 (ja) | 情報処理装置、コントローラ表示方法およびコンピュータプログラム | |
WO2021166751A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
WO2022129646A1 (en) | Virtual reality environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200330 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20200327 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210324 |