JP2021089678A - 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 - Google Patents
頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 Download PDFInfo
- Publication number
- JP2021089678A JP2021089678A JP2019220724A JP2019220724A JP2021089678A JP 2021089678 A JP2021089678 A JP 2021089678A JP 2019220724 A JP2019220724 A JP 2019220724A JP 2019220724 A JP2019220724 A JP 2019220724A JP 2021089678 A JP2021089678 A JP 2021089678A
- Authority
- JP
- Japan
- Prior art keywords
- head
- user
- rotation center
- display system
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法を提供すること。【解決手段】頭部装着型ディスプレイ・システムは、ユーザーの頭部に装着可能であり、本体と、センサと、プロセッサとを含む。センサは、本体に配置され、ユーザーの頭部の少なくとも1つの姿勢に対応する感知データを取得する。プロセッサは、センサに結合され、感知データに基づいてユーザーの頭部の姿勢データを生成するように、姿勢データに基づいてユーザーの頭部の回転中心情報を生成するように構成され、回転中心情報は、ユーザーの頭部の回転に対応する中心と関係する。したがって、回転の中心は、異なるユーザーに合わせて調整されることが可能である。【選択図】図2
Description
本開示は、一般に、補正機構に関し、特に、頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法に関する。
電子装置(ゲーム機、コンピュータ、スマートフォン、スマート機器など)上で直観的な操作を提供するのに、ユーザーの動作により電子装置を直接に操作すべく、ユーザーの動作が検出される場合がある。
一部の電子装置では、ユーザーの人体部分(手、脚、頭部など)によってこれらの電子装置の動作を制御することが可能であり、人体部分の動作が追跡されることが可能である。例えば、頭部装着型ディスプレイ(HMD)に、ユーザーの頭部の動作を追跡するセンサが埋め込まれることが可能である。センサの感知結果は、ユーザーの頭部の回転状況と関係し、頭部の回転は、HMDにおけるディスプレイの画像内容に影響を与えることが可能であることに留意されたい。例えば、頭部が右に向かって回転し、画像内容におけるシーンが中央から右に動かされる。
従来のアプローチにおいて、HMDは、中心軸を有するように事前定義されることが可能である。HMDのディスプレイの回転は、中心軸に対応するものと想定される。しかし、事前定義された中心軸は、すべてのユーザーに適合しているわけではない。事前定義された中心軸がユーザーの実際の中心軸と一致していない場合、画像内容は、ユーザーの認知とユーザーが見たいと思うものとの相違を持ち、そのことが乗り物酔いをさらにもたらす可能性がある。
HMDの事前定義された中心軸は、すべてのユーザーに適合しているわけではない可能性がある。したがって、本開示は、頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法に関する。
例示的な実施形態のうちの1つにおいて、頭部装着型ディスプレイ・システムは、ユーザーの頭部に装着可能であり、本体と、センサと、プロセッサとを含むが、これらに限定されない。センサは、本体に配置され、ユーザーの頭部の姿勢に対応する感知データを取得するのに使用される。プロセッサは、センサに結合される。プロセッサは、感知データに基づいてユーザーの頭部の姿勢データを生成するように、かつ姿勢データに基づいてユーザーの頭部の回転中心情報を生成するように構成される。回転中心情報は、ユーザーの頭部の回転に対応する中心と関係する。
例示的な実施形態のうちの1つにおいて、回転中心補正方法は、ユーザーの頭部に装着可能な頭部装着型ディスプレイ・システムに適合させられ、回転中心補正方法は、以下のステップを含む。ユーザーの頭部の姿勢データが、感知データに基づいて生成される。感知データは、ユーザーの頭部の少なくとも1つの姿勢に対応する。ユーザーの頭部の回転中心情報は、姿勢データに基づいて生成される。回転中心情報は、ユーザーの頭部の回転に対応する中心と関係する。
以上のことに鑑みて、頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法によれば、ユーザーの頭部の姿勢が追跡され、回転中心情報が、追跡された結果に基づいて更新される。したがって、頭部装着型ディスプレイ・システムの回転の中心を修正することが可能であり、乗り物酔いを軽減するために、回転の更新された中心を頭部装着型ディスプレイ・システムを現在装着しているユーザーに適合することが可能である。
しかし、この概要は、本開示の態様及び実施形態のすべてを包含するわけではなく、いかなる方法においても限定又は制限的することを意味するものでもなく、本明細書において開示される発明は、本発明の明白な改良形態及び変形形態を包含するように当業者によって理解されるであろうことを理解されたい。
添付の図面は、本開示のさらなる理解を提供するために含まれており、本明細書に組み込まれ、本明細書の一部分を構成する。図面は、本開示の実施形態を例示し、説明とともに、本開示の原理を説明するのに役立つ。
ここで、本開示の現在の好ましい実施形態を詳細に参照し、その例を添付の図面に示す。可能限り、同一の部分又は同様の部分を参照するのに同一の参照符号が、図面及び説明において使用される。
図1は、本開示の例示的な実施形態のうちの1つによる頭部装着型ディスプレイ・システムを示すブロック図である。図1を参照すると、頭部装着型ディスプレイ・システム100は、センサ110と、ディスプレイ130と、メモリ140と、プロセッサ150とを含むが、これらに限定されない。頭部装着型ディスプレイ・システム100は、VR技術、AR技術、MR技術、XR技術、又は他の現実関連の技術に適合させられる。
センサ110は、頭部装着型ディスプレイ・システム100の本体に配置される。ユーザーが、頭部装着型ディスプレイ・システム100を装着した後、センサ110は、ユーザーの目又は眉の前方に位置することが可能である。センサ110は、ユーザーの頭部の1つ又は複数の姿勢に対応する感知データを取得するために使用される。
一実施形態において、センサ110は、モノクロ・カメラもしくはカラー・カメラ、ディープ・カメラ、ビデオ・レコーダ、又は画像をキャプチャすることができる他の画像センサなどのカメラであってよい。一部の実施形態において、センサ110は、カメラ画像を生成すべく、ユーザーの前方における感覚をキャプチャするのに使用されてよい。
別の実施形態において、センサ110は、加速度計、ジャイロスコープ、磁力計、レーザ・センサ、慣性測定ユニット(IMU)、赤外線(IR)センサ、又は前述の動作センサの任意の組合せであってよい。センサ110は、動作自体を感知するために使用され、センサ110自体が配置される頭部装着型ディスプレイ・システム100の本体と作用させられる。ユーザーが、頭部装着型ディスプレイ・システム100を装着した後、センサ110は、期間内の複数の時点でセンサ110の感知結果(例えば、感知された強度値など)から一連の感知データを生成するように、ユーザーの頭部の動作を追跡してよい。一実施例として、感知データは、3自由度(3−DoF)データを含み、3−DoFデータは、ヨー、ロール、及びピッチにおける加速度などの3次元(3D)空間における人体部分の回転データと関係する。別の実施例として、感知データは、2D/3D空間における人体部分の相対位置及び/又は相対変位を含む。
さらに別の実施形態において、センサ110は、前述した画像センサと動作センサの両方を含んでよい。
ディスプレイ130は、頭部装着型ディスプレイ・システム100の本体に配置される。ディスプレイ130は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、又は他のディスプレイであってよい。本開示の実施形態において、ディスプレイ130は、画像を表示するために使用される。
メモリ140は、任意のタイプの固定又は可動ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、フラッシュ・メモリ、類似したデバイス、又は上記のデバイスの組合せであってよい。メモリ140は、プログラム・コード、デバイス構成、バッファ・データもしくは永久データ(画像、感知結果、感知データ、姿勢データ、回転中心情報など)を記録し、これらのデータについては、後述する。
プロセッサ150は、センサ110、ディスプレイ130、及びメモリ140に結合される。プロセッサ150は、本開示の例示的な実施形態の手続きを実行すべく、メモリ140に記憶されたプログラム・コードをロードするように構成される。
一部の実施形態において、プロセッサ150の機能は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)チップ、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラム可能なユニットを使用することによって実施されてよい。また、一実施形態において、プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実装されてもよく、プロセッサ150の動作は、ソフトウェアによって実施されてもよい。
本開示の1つ又は複数の実施形態において提供される動作プロセスをよりよく理解するように、頭部装着型ディスプレイ・システム100の動作プロセスを詳しく述べるいくつかの実施形態が、以下に例示される。頭部装着型ディスプレイ・システム100におけるデバイス及びモジュールは、本明細書において提供されるシーン走査方法を説明すべく以下の実施形態において適用される。方法の各ステップは、実際の実装状況に応じて調整されることが可能であり、本明細書において説明されるものに限定されるべきではない。
図2は、本開示の例示的な実施形態のうちの1つによる回転中心補正方法を示すフローチャートである。図2を参照すると、プロセッサ150が、感知データに基づいてユーザーの頭部の姿勢データを生成する(ステップS210)。異なるタイプのセンサ110に関して、2D/3D空間におけるユーザーの頭部の動作に関するカメラ画像、加速度、回転、磁力、向き、距離、及び/又は位置(以下、感知結果と呼ばれる)が、取得され、センサ110の1つ又は複数の感知結果は、人体部分の感知データとなる。
一実施形態において、センサ110は、画像センサであり、1つ又は複数のカメラ画像を取得する。プロセッサ150は、カメラ画像から感知データを取得することが可能である。例えば、1つ又は複数の現実物体(壁、テーブル、床など)に対応する感知強度及びピクセル位置が、ユーザーが位置する空間におけるセンサ110の位置及び向きを推定するように、目標現実物体の深度情報(すなわち、センサ110に対する距離、又は頭部装着型ディスプレイ・システム100の本体上の任意の点)を推定するために使用されることが可能である。センサ110の位置データ及び回転データ(向きに対応する)は、ユーザーの頭部の姿勢に対応する。
別の実施形態において、センサ110は、IMUであり、プロセッサ150が、IMUから感知データを取得する。例えば、センサ110の加速度、回転(向きと、角速度とを含んでよい)、及び/又は磁場などの感知結果が、姿勢データの回転データであることが可能である。ユーザーの頭部の変位は、姿勢データの位置データを推定するために、3つの軸におけるセンサ110の検出された加速度の二重積分を通じて推定されることが可能である。
さらに別の実施形態において、センサ110は、画像センサとIMUの両方を含んでよい。プロセッサ150は、画像センサからのカメラ画像及びIMUからの感知結果に従って感知データを決定してよい。例えば、プロセッサ150は、画像センサに基づく回転データ及び/又は位置データを補正すべく、IMUに基づく回転データを使用してよい。別の例として、姿勢データが、IMU及び画像センサに基づく回転データ及び位置データの加重された組合せと関係付けられてよい。
感知データが決定された後、プロセッサ150は、前述した位置データ及び/又は回転データに基づいて姿勢データを生成してよい。姿勢データは、ユーザーの頭部の1つ又は複数の姿勢に対応してよいことに留意されたい。
プロセッサ150は、姿勢データに基づいてユーザーの頭部の回転中心情報を生成してよい(ステップS230)。具体的には、回転中心情報は、ユーザーの頭部の回転に対応する中心と関係する。回転中心情報は、ユーザーごとに異なってよい。図3は、本開示の例示的な実施形態のうちの1つによる頭部の回転を示す概略図である。図3を参照すると、ユーザーの頭部Hのヨーが、軸A1に対応し、頭部Hのピッチが、軸A2に対応するものと仮定される。軸A1と軸A2の交点が、頭部Hの回転の中心Cとみなすことができる。基準点RPが、センサ110の位置、又は頭部装着型ディスプレイ・システム100の本体上の別の点に対応する場合、中心Cと基準点RPの間の距離は、頭部の姿勢のうちのほとんど、又はすべてに応じて同一であることが可能である。一実施形態において、プロセッサ150は、頭部Hの実際の回転状況に基づいて中心Cを決定してもよい。
一実施形態において、ステップS210において、プロセッサ150が、空間内の複数の基準点に対応する姿勢データを生成してもよい。基準点は、ユーザーの頭部の異なる姿勢におけるセンサ110の複数の位置に対応する。プロセッサ150は、ディスプレイ130、スピーカ、又はLEDを通じて誘導命令を与えてよく、誘導命令は、ユーザーの頭部をどのように動かすべきか、又は何らかの特定の姿勢にどのように移るべきかと関係してよい。プロセッサ150は、トリガ条件に応じて頭部の現在の姿勢に対応する姿勢データを生成してよい。トリガ条件は、何らかの特定の回転度、期間、又は音声コマンドもしくはジェスチャなどのユーザーの入力データなどであってもよい。
一実施形態において、プロセッサ150は、3つ以上の基準点に対応する感知データを取得してもよく、これらの基準点は、空間の水平面における2つの象限に位置する。例えば、図4Aは、本開示の例示的な実施形態のうちの1つによる基準点の決定を示す概略図である。図4Aを参照すると、この図の最上部は、ユーザーの頭部の前方に対応し、この図の右側は、頭部の右側に対応する。水平面において、軸A1と軸A2によって形成される座標系において4つの象限が存在する。この実施例において、3つの基準点RP1、RP2、及びRP3が取得され、基準点RP1及びRP2は、2つの象限Q4及びQ1にそれぞれ位置する。
一実施形態において、プロセッサ150は、5つ以上の基準点に対応する感知データを取得してよく、これらの基準点は、空間における4つの象限に位置する。例えば、図4Bは、本開示の例示的な実施形態のうちの1つによる基準点の決定を示す概略図である。図4Bを参照すると、この図の左上側は、ユーザーの頭部の前方に対応し、この図の右上側は、頭部の右側に対応し、この図の最上部は、頭部の最上部に対応する。3次元空間において、軸A1、軸A2、及び軸A3によって形成される座標系の前半分に4つの象限が存在する。この実施例において、基準点RP4〜RP8が取得され、基準点RP6、RP7、RP8、及びRP5は、4つの象限Q1、Q2、Q3、及びQ4にそれぞれ位置する。
プロセッサ150は、決定された基準点の感知データを収集し、これらの基準点に対応する姿勢データを相応するように生成してよい。
一実施形態において、プロセッサ150は、決定された基準点が回転楕円体の表面に位置する回転楕円体を決定してもよい。具体的には、プロセッサ150は、センサ110、又は頭部装着型ディスプレイ・システム100の本体における特定の点が移動する軌道が、その回転楕円体の表面に位置し、したがって、センサ110、又は頭部装着型ディスプレイ・システム100の本体におけるその特定の点に対応する基準点もまた、その回転楕円体の表面に位置するものと仮定する。図4Aを例にとると、回転楕円体Sは、球体であるものと仮定される。基準点RP1〜RP3は、回転楕円体Sの表面に位置する。プロセッサ150は、回転楕円体の形状を決定すべくフィッティング・アルゴリズム(例えば、曲線フィッティング、スプライン曲線など)を使用して、決定されたすべての基準点が、決定された回転楕円体の表面に位置することが可能であるようにしてもよい。
図4Aを例にとると、円フィッティング・アルゴリズムに関して、プロセッサ150が、軸A1と軸A2によって形成される座標平面における基準点RP1〜RP3のx座標とy座標を決定することができ、x座標とy座標は、円関数に入れられてよい。次に、プロセッサ150は、回転楕円体Sの表面を決定するために、中心Cのx座標とy座標、及び距離Rを取得すべく、円関数の最小二乗解を計算する。
基準点の前述した数は、フィッティング・アルゴリズムに基づいて決められ、実際の要件に基づいて修正されてよいことに留意されたい。
一実施形態において、プロセッサ150は、回転楕円体の中心に基づいて回転中心情報を生成してもよい。図4Aを例にとると、回転楕円体Sは、球体である。回転楕円体Sの中心Cと基準点RP1〜RP3のうちの任意の1つの間の距離Rは、同一であり、回転楕円体Sの半径と等しい。それぞれ、基準点RP1〜RP3を円の中心とすることに基づいて形成された円の交点が、中心Cである。
図4Bを別の例にとると、回転楕円体S2もまた、球体である。回転楕円体S2の中心C2と基準点RP4〜RP8のうちの任意の1つの間の距離R2は、同一であり、回転楕円体S2の半径と等しい。そこで、プロセッサ150は、回転楕円体S/S2の中心C/C2の位置データに基づいて回転中心情報を生成してよい。
したがって、回転中心情報は、更新されることが可能である。回転中心補正方法は、ユーザー入力、起動、又はその他の状況に応じて頭部装着型ディスプレイ・システム100上でトリガされることが可能である。ユーザーが頭部装着型ディスプレイ・システム100を装着するたびに、回転中心情報は、回転中心情報の更新の後、現在使用しているユーザーに適合させられる。
一部の実施形態において、回転楕円体は、扁平な回転楕円体、扁長の回転楕円体、又はその他の回転楕円体であってよいことに留意されたい。
さらに、回転中心情報に関する前述の更新手続きは、複数の状況において実行されてよい。一実施形態において、プロセッサ150は、工場試験時に、工場較正時に、工場構成時に、又は頭部装着型ディスプレイ・システム100が出荷される前の他の段階で回転中心情報を更新してよい。別の実施形態において、プロセッサ150は、ランタイムに回転中心情報を更新してよい。ランタイム又は実行時間は、実施形態の回転中心補正方法のプログラムがプロセッサ150によって稼働させられている(実行されている)時間である。例えば、頭部装着型ディスプレイ・システム100が出荷された後、ユーザーが、頭部装着型ディスプレイ・システム100の回転中心情報を依然として修正することが可能である。したがって、1つの頭部装着型ディスプレイ・システム100が、異なるユーザーが、ユーザーの頭部に関して異なる回転状況を有することが可能である、複数のユーザーに適合させられてよい。一部の実施形態において、頭部装着型ディスプレイ・システム100の起動手続きの間又は何らかの特定のプログラムの間に、回転中心情報が更新されることも可能である。
一実施形態において、プロセッサ150は、ユーザーの頭部の回転に応じてディスプレイ130を通じて回転中心情報に基づく画像を表示してもよい。例えば、プロセッサ150は、センサ又は頭部装着型ディスプレイ・システム100の本体における特定の点に関して第1の座標系を生成し、回転中心情報に基づいて第2の座標系を生成してもよい。次に、プロセッサ150は、第1の座標系を第2の座標系に位置づけしてもよく、センサ110の位置データ及び回転データが、第2の座標系の位置データ及び回転データに変換されることが可能である。最終的に、プロセッサ150は、第2の座標系を、ユーザーの視界に対応する視野(FoV)座標系に変換してもよい。次に、プロセッサ150は、FoV座標系に基づいて、ディスプレイ130上に表示される画像を生成することができる。これらの座標系の間の変換関係に基づいて、ユーザーが実際に見るものは、乗り物酔いを低減又は防止するために、ディスプレイ130上に表示される画像に対応することが可能である。
要約すると、例示的な実施形態は、前述した頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法が、ユーザーの頭部の姿勢に基づいてユーザーの回転の中心を更新することが可能であることを説明した。任意のユーザーが、そのユーザーが頭部装着型ディスプレイ・システムを装着した後、回転中心情報を変更することが可能である。
本開示の範囲も趣旨も逸脱することなく、本開示の構造に様々な変形及び変更が行われることが可能であることが、当業者には明白であろう。前述を考慮して、本開示は、以下の特許請求の範囲およびそれらの均等物の範囲内にある限り、本開示の修正および変形を包含することが意図されている。
本発明の頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法は、頭部装着型ディスプレイの構成に適用することができる。
100 頭部装着型ディスプレイ・システム
110 センサ
130 ディスプレイ
140 メモリ
150 プロセッサ
S210〜S230 ステップ
A1、A2、A3 軸
RP、RP2、RP3、RP4、RP5、RP6、RP7、RP8 基準点
C、C2 中心
H 頭部
R、R2 距離
Q1、Q2、Q3、Q4 象限
S、S2 回転楕円体
110 センサ
130 ディスプレイ
140 メモリ
150 プロセッサ
S210〜S230 ステップ
A1、A2、A3 軸
RP、RP2、RP3、RP4、RP5、RP6、RP7、RP8 基準点
C、C2 中心
H 頭部
R、R2 距離
Q1、Q2、Q3、Q4 象限
S、S2 回転楕円体
Claims (11)
- ユーザーの頭部に装着可能な頭部装着型ディスプレイ・システムであって、
本体と、
前記本体に配置され、前記ユーザーの頭部の少なくとも1つの姿勢に対応する感知データを取得するセンサと、
前記センサに結合され、
前記感知データに基づいて前記ユーザーの頭部の姿勢データを生成すること、及び
前記姿勢データに基づいて前記ユーザーの頭部の回転中心情報を生成すること
のために構成されるプロセッサであって、前記回転中心情報は、前記ユーザーの頭部の回転に対応する中心と関係する、プロセッサと
を備える頭部装着型ディスプレイ・システム。 - ユーザーの頭部に装着可能な頭部装着型ディスプレイ・システムに適合させられた回転中心補正方法であって、
感知データに基づいて前記ユーザーの頭部の姿勢データを生成するステップであって、前記感知データは、前記ユーザーの頭部の少なくとも1つの姿勢に対応する、ステップと、
前記姿勢データに基づいて前記ユーザーの頭部の回転中心情報を生成するステップであって、前記回転中心情報は、前記ユーザーの頭部の回転に対応する中心と関係する、ステップと
を含む回転中心補正方法。 - 前記回転中心情報は、ランタイムに更新される、請求項1に記載の頭部装着型ディスプレイ・システム、又は
前記回転中心情報をランタイムに更新するステップをさらに含む請求項2に記載の回転中心補正方法。 - 前記プロセッサは、
空間内の複数の基準点に対応する前記姿勢データを生成することであって、前記複数の基準点は、前記ユーザーの頭部の異なる姿勢における前記センサの複数の位置に対応する、ことのために構成される、請求項1に記載の頭部装着型ディスプレイ・システム、又は
前記感知データに基づいて前記ユーザーの頭部の前記姿勢データを生成する前記ステップは、
空間内の複数の基準点に対応する前記姿勢データを生成するステップであって、前記複数の基準点は、前記ユーザーの頭部の異なる姿勢におけるセンサの複数の位置に対応する、ステップを含む、請求項2に記載の回転中心補正方法。 - 前記プロセッサは、
前記複数の基準点が表面に位置する回転楕円体を決定すること、及び
前記回転楕円体の中心に基づいて前記回転中心情報を生成することのために構成される、請求項4に記載の頭部装着型ディスプレイ・システム、又は
前記姿勢データに基づいて前記ユーザーの頭部の前記回転中心情報を生成する前記ステップは、
前記複数の基準点が表面に位置する回転楕円体を決定するステップと、
前記回転楕円体の中心に基づいて前記回転中心情報を生成するステップと
を含む請求項4に記載の回転中心補正方法。 - 前記プロセッサは、
前記基準点のうちの少なくとも3つに対応する前記感知データを取得することであって、前記基準点のうちの前記少なくとも3つは、前記空間の水平面における2つの象限に位置する、ことのために構成される、請求項4に記載の頭部装着型ディスプレイ・システム、又は
前記空間内の前記複数の基準点に対応する前記姿勢データを生成する前記ステップは、
前記基準点のうちの少なくとも3つに対応する前記感知データを取得するステップであって、前記基準点のうちの前記少なくとも3つは、前記空間の水平面における2つの象限に位置する、ステップを含む、請求項4に記載の回転中心補正方法。 - 前記プロセッサは、
前記基準点のうちの少なくとも5つに対応する前記感知データを取得することであって、前記基準点のうちの前記少なくとも5つは、前記空間における4つの象限に位置する、ことのために構成される、請求項4に記載の頭部装着型ディスプレイ・システム、又は
前記空間内の前記複数の基準点に対応する前記姿勢データを生成する前記ステップは、
前記基準点のうちの少なくとも5つに対応する前記感知データを取得するステップであって、前記基準点のうちの前記少なくとも5つは、前記空間における4つの象限に位置する、ステップを含む、請求項4に記載の回転中心補正方法。 - 前記センサは、複数のカメラ画像を取得し、前記プロセッサは、
前記カメラ画像から前記感知データを決定することのために構成される、請求項1に記載の頭部装着型ディスプレイ・システム、又は
前記空間内の前記複数の基準点に対応する前記姿勢データを生成する前記ステップは、
複数のカメラ画像を取得するステップと、
前記カメラ画像から前記感知データを決定するステップと
を含む、請求項2に記載の回転中心補正方法。 - 前記センサは、慣性測定ユニット(IMU)であり、前記プロセッサは、
前記IMUから前記感知データを取得することのために構成される、請求項1に記載の頭部装着型ディスプレイ・システム、又は
前記空間内の前記複数の基準点に対応する前記姿勢データを生成するための前記ステップは、
IMUから前記感知データを取得するステップを含む、請求項2に記載の回転中心補正方法。 - 前記センサは、複数のカメラ画像を取得し、前記頭部装着型ディスプレイ・システムは、
IMUである第2のセンサをさらに備え、前記プロセッサは、
前記カメラ画像及び前記IMUからの感知結果に従って前記感知データを決定するために構成される、請求項1に記載の頭部装着型ディスプレイ・システム、又は
前記空間内の前記複数の基準点に対応する前記姿勢データを生成するための前記ステップは、
複数のカメラ画像を取得するステップと、
前記カメラ画像及びIMUからの感知結果に従って前記感知データを決定するステップと
を含む、請求項2に記載の回転中心補正方法。 - ディスプレイをさらに備え、前記プロセッサは、
前記ユーザーの頭部の前記回転に応じて前記ディスプレイを通じて前記回転中心情報に基づく画像を表示することのために構成される、請求項1に記載の頭部装着型ディスプレイ・システム、又は
前記ユーザーの頭部の前記回転に応じて前記回転中心情報に基づく画像を表示するステップをさらに含む請求項2に記載の回転中心補正方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220724A JP2021089678A (ja) | 2019-12-05 | 2019-12-05 | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220724A JP2021089678A (ja) | 2019-12-05 | 2019-12-05 | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021089678A true JP2021089678A (ja) | 2021-06-10 |
Family
ID=76220276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019220724A Pending JP2021089678A (ja) | 2019-12-05 | 2019-12-05 | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021089678A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012223363A (ja) * | 2011-04-20 | 2012-11-15 | Tokyo Institute Of Technology | 手術用撮像システム及び手術用ロボット |
WO2015098211A1 (ja) * | 2013-12-25 | 2015-07-02 | ソニー株式会社 | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム |
US20170132453A1 (en) * | 2014-06-02 | 2017-05-11 | Amrita E-Learning Research lab | Systems and methods for yaw estimation |
JP2018525693A (ja) * | 2015-06-12 | 2018-09-06 | グーグル エルエルシー | ヘッドマウントディスプレイの電子ディスプレイ安定化 |
-
2019
- 2019-12-05 JP JP2019220724A patent/JP2021089678A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012223363A (ja) * | 2011-04-20 | 2012-11-15 | Tokyo Institute Of Technology | 手術用撮像システム及び手術用ロボット |
WO2015098211A1 (ja) * | 2013-12-25 | 2015-07-02 | ソニー株式会社 | 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム |
US20170132453A1 (en) * | 2014-06-02 | 2017-05-11 | Amrita E-Learning Research lab | Systems and methods for yaw estimation |
JP2018525693A (ja) * | 2015-06-12 | 2018-09-06 | グーグル エルエルシー | ヘッドマウントディスプレイの電子ディスプレイ安定化 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6381711B2 (ja) | 仮想現実システムの較正 | |
US9928650B2 (en) | Computer program for directing line of sight | |
US11455072B2 (en) | Method and apparatus for addressing obstruction in an interface | |
TWI722280B (zh) | 用於多個自由度之控制器追蹤 | |
US11127380B2 (en) | Content stabilization for head-mounted displays | |
US20170357332A1 (en) | Six dof mixed reality input by fusing inertial handheld controller with hand tracking | |
JP2018505472A (ja) | 拡張現実視野オブジェクトフォロワー | |
KR20160132411A (ko) | 제스처 파라미터 튜닝 | |
KR20210010437A (ko) | 광학 위치 추적 장치를 위한 전력 관리 | |
TWI744606B (zh) | 動作偵測系統、動作偵測方法及其電腦可讀記錄媒體 | |
TWI704376B (zh) | 視角校正方法、虛擬實境顯示系統與運算裝置 | |
WO2016163183A1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
KR20210107741A (ko) | 눈 추적 기능이 있는 헤드 마운트 디스플레이의 사용자 상호 작용 | |
WO2019155840A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20190019308A1 (en) | Image display device | |
TW202123691A (zh) | 頭戴式顯示系統及其旋轉中心修正方法 | |
WO2019017224A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2021089678A (ja) | 頭部装着型ディスプレイ・システム及び頭部装着型ディスプレイ・システムの回転中心補正方法 | |
JP2017059212A (ja) | 視線誘導のためのコンピュータ・プログラム | |
US11061469B2 (en) | Head mounted display system and rotation center correcting method thereof | |
EP3832374A1 (en) | Head mounted display system and rotation center correcting method thereof | |
CN113031754A (zh) | 头戴式显示系统及其旋转中心修正方法 | |
US20240104820A1 (en) | Tracking system, tracking method, and self-tracking tracker | |
JP6533946B1 (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法及びヘッドマウントディスプレイ | |
TW202414033A (zh) | 追蹤系統、追蹤方法及自追蹤追蹤器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211026 |