JP6565465B2 - 画像表示装置、コンピュータープログラム、および画像表示システム - Google Patents

画像表示装置、コンピュータープログラム、および画像表示システム Download PDF

Info

Publication number
JP6565465B2
JP6565465B2 JP2015159484A JP2015159484A JP6565465B2 JP 6565465 B2 JP6565465 B2 JP 6565465B2 JP 2015159484 A JP2015159484 A JP 2015159484A JP 2015159484 A JP2015159484 A JP 2015159484A JP 6565465 B2 JP6565465 B2 JP 6565465B2
Authority
JP
Japan
Prior art keywords
unit
marker
inertial sensor
image display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015159484A
Other languages
English (en)
Other versions
JP2017037554A5 (ja
JP2017037554A (ja
Inventor
國益 符
國益 符
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015159484A priority Critical patent/JP6565465B2/ja
Priority to US15/210,593 priority patent/US9864192B2/en
Publication of JP2017037554A publication Critical patent/JP2017037554A/ja
Publication of JP2017037554A5 publication Critical patent/JP2017037554A5/ja
Application granted granted Critical
Publication of JP6565465B2 publication Critical patent/JP6565465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像表示装置の技術に関する。
近年、現実空間の物体に対してコンピューターによる情報を付加する拡張現実(AR、Augmented Reality)と呼ばれる技術が注目されている。拡張現実を実現する手法の一つとして、外界を透過視認可能なシースルー型の表示装置がある。特許文献1は、このような表示装置として、頭部装着型表示装置を記載している。
特開2007−213407号公報
以下では、シースルー型の表示装置の一例として、HMDを例として説明する。HMDは、AR機能を提供できるように、トラッキングカメラを備える。そして、トラッキングカメラを介して、HMD(またはトラッキングカメラ)に対する実オブジェクトの位置を検出し、追跡する(この方式による実オブジェクトの追跡を「光学トラッキング」と表記する)。HMDは、当該実オブジェクトの位置に追従するように、CG等の仮想オブジェクトを表示する。このとき使用者は、実オブジェクトの位置に、仮想オブジェクトの位置が対応づけられるように、仮想オブジェクトを視認する。
トラッキングカメラの視野における実オブジェクトの位置と姿勢は、実オブジェクトの動きだけでなく、使用者の頭部の動き(特に回転)によっても変化する。そして、頭部の回転の角速度が速く、および/または角度が大きい場合には、光学トラッキングだけでは、仮想オブジェクトの表示に、実オブジェクトの位置、さらには姿勢の変化が反映されるまでの時間差(レイテンシ)が目立つようになる場合がある。
技術的に、トラッキングカメラの時間分解能(画像のフレームレート)より、慣性センサーの時間分解能を高くしやすい。そこで、上記レイテンシ対策として、HMDが、トラッキングカメラだけでなく、慣性センサーを搭載し、トラッキングカメラと慣性センサーとによって、HMDに対する実オブジェクトの位置・姿勢(実オブジェクトとHMDとの間の空間的位置関係)を推定することが効果的であると考えられる(この方式による実オブジェクトの追跡を「慣性・光学融合トラッキング」と表記する)。
上記場合のように、トラッキングカメラと慣性センサーとが協働して「トラッカー(追跡装置)」として機能する場合には、トラッキングカメラの座標系と慣性センサーの座標系とが、対応付けられている(較正されている)ことが望まれる。また、上記「トラッカー」として利用される場合以外でも、たとえば、使用者の眼(網膜)を基準にしてトラッキングカメラと画像表示部とが較正される場合に、トラッキングカメラの座標系と慣性センサーの座標系とが較正されていることは、有用である。そして、較正方法は簡易で、かつ較正結果が高精度であることが望ましい。
本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態によれば、画像表示装置が提供される。この画像表示装置は、第1慣性センサーと;前記第1慣性センサーに対して可動な撮像部と;算出部と、を備え;前記算出部は;前記撮像部が、前記第1慣性センサーに対して可動な第2慣性センサーを備えた識別部が提示するマーカーを撮像し撮像画像を取得した場合に前記撮像画像に少なくとも基づいて前記マーカーと前記撮像部との間の第1空間位置関係を算出し;前記マーカーが撮像された場合の前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ得られる前記第1慣性センサーの第1配向を含む第1データおよび前記第2慣性センサーの第2配向を含む第2データと、前記第1空間位置関係と、に少なくとも基づいて、前記撮像部と前記第1慣性センサーとの間の第2空間位置関係を算出する。この形態の画像表示装置によれば、撮像部と識別部との位置を変更するだけで、外景に画像を重畳表示させるためのキャリブレーションが実行できる。また、静的な位置におけるマーカーを撮像すればキャリブレーションが実行できるため、動的なマーカーを撮像する場合と比較して、時間の同期等の問題がなく、精度の高いキャリブレーションを実行できる。また、第1慣性センサーおよび第2慣性センサーによって検出された加速度がキャリブレーションの実行に用いられるため、算出される座標系の配向の精度を高くできる。また、キャリブレーションを実行するために、画像表示装置以外の装置が不要であるため、使用者の利便性が向上する。
(2)上記形態の画像表示装置において、さらに;前記第1データを格納する第1メモリ領域と;前記第2データを格納する第2メモリ領域と;前記第1空間位置関係を格納する第3メモリ領域と、を備え;前記算出部は、前記第1メモリ領域に格納された前記第1データと、前記第2メモリ領域に格納された前記第2データと、前記第3メモリ領域に格納された前記第1空間位置関係と、を用いて、前記第2空間位置関係を算出してもよい。
(3)上記形態の画像表示装置において、さらに、静状態判定部を備え;前記静状態判定部が、前記第1慣性センサーおよび前記第2慣性センサーからの出力に基づいて、前記第1慣性センサーおよび前記第2慣性センサーが静状態にあると判定した場合に前記撮像部が前記マーカーを撮像するとともに、前記算出部が前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ前記第1データおよび前記第2データを取得し;前記算出部は、前記取得された前記第1データと、前記第2データと、前記マーカーを撮像することにより得られた撮像画像に基づく前記第1空間位置関係と、に少なくとも基づいて、前記第2空間位置関係を算出してもよい。
(4)上記形態の画像表示装置において、さらに、前記マーカーと第2慣性センサーとの間の第3空間位置関係を記憶する記憶部を有し;前記算出部は、前記第1データと、前記第2データと、前記第1空間位置関係と、前記第3空間位置関係と、に少なくとも基づいて、前記第2空間位置関係を算出してもよい。
(5)上記形態の画像表示装置において、さらに、前記マーカーと第2慣性センサーとの間の第3空間位置関係を記憶する記憶部を有し;前記静状態判定部が、前記第1慣性センサーおよび前記第2慣性センサーが静状態にあると判定した場合に、前記算出部は、さらに、前記第1慣性センサーが計測した第1加速度および前記第1配向を含む前記第1データと、前記第2慣性センサーが計測した第2加速度および前記第2配向を含む前記第2データと、を取得し;前記算出部は、取得された前記第1加速度と、前記第1配向と、前記第2加速度と、前記第2配向と、前記第1空間位置関係と、前記第3空間位置関係と、に少なくとも基づいて、前記第2空間位置関係を算出してもよい。
(6)上記形態の画像表示装置において、前記撮像部は、所定の1軸を中心に回転可能に形成され、前記所定の1軸と直交する他の2軸に対しては回転できないように形成されていてもよい。この形態の画像表示装置によれば、撮像部が回転可能な軸が制限されることで、第1変換パラメーターおよび第2変換パラメーターを算出するための処理時間を短くできる。
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
例えば、本発明の一形態は、第1慣性センサーと、撮像部と、算出部との3つの要素の内の一部または全部の要素を備えた方法として実現可能である。すなわち、この装置は、第1慣性センサーを有していてもよく、有していなくてもよい。また、装置は、撮像部を有していてもよく、有していなくてもよい。また、装置は、算出部を有していてもよく、有していなくてもよい。撮像部は、例えば、前記第1慣性センサーに対して可動であってもよい。算出部は、例えば、前記撮像部が、前記第1慣性センサーに対して可動な第2慣性センサーを備えた識別部が提示するマーカーを撮像し撮像画像を取得した場合に前記撮像画像に少なくとも基づいて前記マーカーと前記撮像部との間の第1空間位置関係を算出し;前記マーカーが撮像された場合の前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ得られる前記第1慣性センサーの第1配向を含む第1データおよび前記第2慣性センサーの第2配向を含む第2データと、前記第1空間位置関係と、に少なくとも基づいて、前記撮像部と前記第1慣性センサーとの間の第2空間位置関係を算出してもよい。こうした装置は、例えば、画像表示装置として実現できるが、画像表示装置以外の装置などとしても実現可能である。このような形態によれば、装置の精度の向上および簡易化、方法を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した方法の各形態の技術的特徴の一部または全部は、いずれもこの方法に適用することが可能である。
本発明は、装置以外の種々の形態で実現することも可能である。例えば、画像表示装置、これらの装置を制御する各種制御方法、これらの制御方法を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
本発明の第1実施形態における画像表示装置としての頭部装着型表示装置の概略構成を示す説明図である。 制御部の裏面に配置された識別マーカーを示す概略図である。 識別マーカーの詳細図である。 HMDの構成を機能的に示すブロック図である。 各キャリブレーションを説明する図である。 IMUにおいて拡張カルマンフィルター(EFK)に基づく検出値の融合を行なう融合部を示すブロック図である。 識別マーカーが撮像されている場合のカメラと識別マーカーとの位置関係を表す概略図である。 2つの異なる静的な位置にある画像表示部および装着帯の概略図である。 静的な位置にあるカメラが撮像する識別マーカーとの関係を表す説明図である。 姿勢が異なる識別マーカーがカメラに撮像された画像の概略図である。 オンラインキャリブレーションを実行するために識別マーカーを異なる静的な位置で撮像するマーカー撮像処理のフローチャートである。 コスト関数を用いた最適化処理のフローチャートである。 静状態の判定を加えた撮像データ取得処理の流れを示す説明図である。 コスト関数を最適化するためのコスト関数最適化処理のフローチャートである。 第2実施形態のコスト関数最適化処理のフローチャートである。 第3実施形態のHMDを含む画像表示システムを機能的に示すブロック図である。
A.実施形態:
本実施形態では、以下の項目に沿って順番に説明する。
A−1.頭部装着型表示装置の構成:
A−2.キャリブレーションについて:
A−3.オフラインキャリブレーション:
A−3−1.キャリブレーションデータ収集処理:
A−3−2.最適化処理:
A−4.オンラインキャリブレーション:
A−4−1.キャリブレーションデータ処理:
A−4−2.コスト関数最適化処理:
A−1.頭部装着型表示装置の構成:
図1は、本発明の第1実施形態における画像表示装置としての頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイである。
HMD100は、使用者の頭部に装着可能な装着帯90と、画像を表示する画像表示部20と、画像表示部20を制御する制御部(コントローラー)10と、を備えている。画像表示部20は、換言すると、使用者の頭部に装着された状態において使用者に虚像を視認させる、
装着帯90は、樹脂製の装着基部91と、装着基部91に連結される布製のベルト部92と、カメラ60と、IMU71と、を備える。装着基部91は、人の前頭部の形に合った湾曲した形状を有する。ベルト部92は、使用者の頭部の周りに装着されるためのベルトである。
カメラ60は、外景を撮像可能で、装着基部91の中心部分に配置されている。換言すると、カメラ60は、装着帯90が使用者の頭部に装着された状態で、使用者の額の中央に対応する位置に配置されている。そのため、カメラ60は、使用者が装着帯90を頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。
カメラ60は、装着基部91に対して可動するカメラ基部61と、カメラ基部61に対して相対位置が固定されたレンズ部62と、を有する。カメラ基部61は、装着帯90が使用者の頭部に装着された際に、使用者の中心軸を含む面に含まれる軸の所定の範囲である矢印CS1に沿って回動可能に配置されている。そのため、カメラ60の光軸であるレンズ部62の光軸は矢印CS1の範囲で向きを変更可能である。また、レンズ部62は、光軸を中心としたズームによって変化する範囲を撮像する。
IMU71(Inertial Measurement Unit)は、加速度を検出する慣性センサーである。また、本実施形態のIMU71は、加速度に加えて、角速度と、地磁気とを検出できる。IMU71は、装着基部91におけるカメラ60の近くに内蔵されている。そのため、IMU71は、装着帯90およびカメラ基部61の加速度と角速度と地磁気とを検出する。なお、IMU71は、請求項における第1慣性センサーに相当する。
画像表示部20は、装着帯90の装着基部91に連結される表示部であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置する。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、前記端部ERと装着基部91の右側の連結部93との間を結ぶ。同様に、左保持部23は、左光学像表示部28の他端である端部ELから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、前記端部ELと装着基部91の左側の連結部(図示せず)との間を結ぶ。右保持部21および左保持部23が左右の連結部93によって装着基部91に連結されることで、右光学像表示部26と左光学像表示部28を使用者の眼前に位置させる。なお、各連結部93は、右保持部21および左保持部23を回動可能に、かつ任意の回動位置に固定可能に連結する。連結部93の詳しい機構は周知の構成であることから、詳しい説明は省略する。この結果、画像表示部20は、装着基部91に対して回動可能に設けられることになる。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。
表示駆動部22,24は、図2で後述する液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む。表示駆動部22,24の構成の詳細な説明は後述する。光学像表示部26,28は、後述する導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御部10は、HMD100を制御するための装置である。制御部10は、静電式のトラックパッドや押下可能な複数のボタンなどを含む操作部135と、IMU15と、撮像されることでキャリブレーションに用いられる識別マーカーMK1と、を有する。なお、識別マーカーMK1は、制御部10において、操作部135が形成されている表面とは反対側の裏面に配置されている。そのため、図1では、識別マーカーMK1が示されていないが、識別マーカーMK1の詳細については後述する。
IMU15は、画像表示部20に内蔵されているIMU71と同じ慣性センサーである。そのため、IMU15は、制御部10および識別マーカーMK1の加速度と角速度と地磁気とを検出する。なお、IMU15は、請求項における第2慣性センサーに相当する。
図2は、制御部10の裏面に配置された識別マーカーMK1を示す概略図である。図3は、識別マーカーMK1の詳細図である。図2に示すように、制御部10の裏面には、正方形の中に10個の円が形成された識別マーカーMK1が配置されている。図3に示すように、識別マーカーMK1は、4つの頂点P0,P1,P2,P3を直線で結んだ正方形の中に、10個の円が形成された2次元のマーカーである。マーカーMK1では、図2および図3においてハッチングで表す黒色の部分に、ハッチングが施されないで図2および図3に表された白色の円が形成されている。後述する変換パラメーター算出処理では、白色の円の中心の座標値が用いられることで、カメラ60によって撮像された識別マーカーMK1と後述する識別マーカーMK1に対応するように予め用意されたマーカー画像IMGとの重複の度合いが判定される。なお、識別マーカーMK1は、請求項におけるマーカーMK1に相当し、識別マーカーMK1が配置された制御部10は、請求項における被識別部に相当する。
図4は、HMD100の構成を機能的に示すブロック図である。図4に示すように、制御部10は、ROM121と、RAM122と、電源130と、操作部135と、識別対象記憶部139と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、IMU15と、を有している。
電源130は、HMD100の各部に電力を供給する。ROM121には、種々のコンピュータープログラムが格納されている。後述するCPU140は、ROM121に格納された各種コンピュータープログラムを、RAM122に展開することで、各種コンピュータープログラムを実行する。
CPU140は、ROM121に格納されているコンピュータープログラムを、RAM122に展開することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、マーカー識別部165および算出部167として機能する。なお、RAM122は、請求項における第1メモリ領域と第2メモリ領域と第3メモリ領域とに相当する。本実施形態では、第1メモリ領域と第2メモリ領域と第3メモリ領域とがRAM122に相当したが、これらの3つのメモリ領域は、他の実施形態では、異なるメモリに格納されてもよい。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。
画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51,52を介して、取得した画像信号を画像表示部20の受信部53,54へと送信する。音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。
マーカー識別部165は、カメラ60によって得られた撮像画像に対して、所定の階調値を閾値として2値化を行なう。マーカー識別部165は、2値化した画像の中から、ROM121に記憶されたマーカー画像IMGと同じマーカーMK1を抽出する。本実施形態では、マーカー識別部165は、撮像画像に対して、初めに、予め設定された初期閾値で2値化を行なう。マーカー識別部165は、2値化した画像に対して、マーカー画像IMGの特徴点と同じと判定する画像を撮像画像の中から抽出する。マーカー画像IMGの特徴点としては、正方形の4個の頂点である頂点P0,P1,P2,P3および正方形の中に含まれる白色の9個の円である。マーカー識別部165は、9個の円の特徴点として、対向する2つの頂点を結んだ対角線上に、マーカー画像IMGと同じ位置関係で円が並んでいるか否かの判定をすることで、撮像画像の中からマーカー画像IMGと同じと判定する識別マーカーMK1を抽出する。例えば、マーカー識別部165は、図3において、頂点P0と頂点P2とを結んだ直線上、および/または頂点P1と頂点P3を結んだ直線上に、2値化された白色の円が黒色に対して5個並んでいるか否かや並んでいる白色の円の大きさや複数の円に挟まれる黒色の領域の大きさなどで判定する。
マーカー識別部165は、初期閾値を用いた2値化で識別マーカーMK1を抽出できない場合には、予め設定された階調値である加算閾値を初期閾値に加えた新たな閾値として、撮像画像に対して、2値化を行ない、識別マーカーMK1を抽出する。このように、マーカー識別部165は、いくつかの階調値を閾値として2値化することで、撮像画像の中から識別マーカーMK1を抽出する。なお、マーカー識別部165は、複数の閾値を用いても撮像範囲から識別マーカーMK1を抽出できない場合には、撮像範囲に識別マーカーMK1が含まれないと判定する。
マーカー識別部165によって識別マーカーMK1が抽出された場合に、算出部167は、例えばホモグラフィーにより、カメラ60に対する空間的関係(回転および並進の少なくとも一方で表わされる相対的位置関係)を算出する。また、後述するように、算出部167は、算出した上記空間的関係と、IMU71によって検出された加速度等の検出値と、IMU15によって検出された加速度等の検出値と、を用いて、カメラに固定された座標系からIMU71に固定された座標系(第1センサー座標系)へと変換するための変換行列を算出する。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。
図4に示すように、画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、を備えている。
右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160および表示制御部190から送信された制御信号に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、左表示駆動部24は、右表示駆動部22と同様の構成を有し、使用者の左眼LEに対応するため、説明を省略する。
A−2.キャリブレーションについて:
IMU71、IMU15、およびカメラ60を用いたキャリブレーション(以降、IMU−カメラ・キャリブレーションとも呼ぶ)は、慣性センサーであるIMUの性能によって精度が異なる。精度が高くない安価なIMUが用いられると、キャリブレーションには、大きな誤差やドリフトが発生する。
本実施形態では、IMU71およびIMU15の2つのIMUを用いたマルチポジション法を用いたバッチ・ソリューション・ベース・アルゴリズムによってキャリブレーションを行なう。マルチポジション法は、キャリブレーションを行なうにあたり、下記(1)−(4)のメリットを有する。
(1)IMU71およびIMU15の検出と、カメラ60による撮像とが静的な位置で行なわれるため、時間の同期(シンクロ)が問題にならない。
(2)複数の位置における検出値や撮像画像を用いることで、フィルタリングにより、IMU(に含まれる各センサー)およびカメラ60のノイズを少なくできる。
(3)図5に示すように、IMUにおけるジャイロセンサー、加速度センサー、磁気センサーの出力が融合されてIMUの配向が求められることから、各センサーのドリフトが修正され、IMUの配向が高精度ある。
(4)制御部10に配置された識別マーカーMK1を用いることで、複雑なキャリブレーションを実行するための装置やHMD100以外の他の装置が不要になる。
なお、本実施形態では、IMU71とカメラ60との間の並進については、製造時の設計データを用いる。
図5は、キャリブレーション実行処理の各処理の主な実施主体を説明する図である。ただし、これらの処理は連続して行なわれてもよい。キャリブレーション実行処理では、初めに、独立センサーのキャリブレーションが実行される(ステップS10)。ステップS10の処理では、IMU71とIMU15とカメラ60とのそれぞれに対して、別々のキャリブレーションが実行される。なお、独立センサーのキャリブレーションの方法については、一般的に広く知られている周知技術を用いればよく、本明細書では記載を省略する。
ステップS10では、IMU71およびIMU15のそれぞれが較正される。具体的には、IMU71に含まれる3軸の加速度センサー(Ax,Ay,Az)と、3軸のジャイロセンサー(Gx,Gy,Gz)と、3軸の地磁気センサー(Mx,My,Mz)とに対して、ゲイン/スケールと、静的なバイアス/オフセットと、3軸間のスキューと、についてキャリブレーションが実行される。これらのキャリブレーションが実行されると、IMU71およびIMU15のそれぞれは、加速度、角速度、地磁気のそれぞれについての出力値として、加速度(Acccali(t)),角速度(Gyrocali(t)),地磁気(Magcali(t))を出力する。これらの出力値は、ゲイン、静的なバイアス/オフセット、および3軸間のミスアライメントを修正した値である。これらのキャリブレーションは、図5に示すように、HMD100の製造時において、製造工場などで実施されることが多い。
ステップS10で行なわれるカメラ60のキャリブレーションでは、カメラ60における焦点距離、スキュー、主点位置、歪みを含むカメラ60の内部パラメーターがキャリブレーションされる。カメラ60のキャリブレーションには、周知技術を適用できる。
IMU71およびIMU15のそれぞれのセンサーのキャリブレーションが実行された後、IMU71およびIMU15における加速度、角速度、地磁気のそれぞれのセンサーの検出値(計測された出力)を融合して、当該センサーにおいて精度の高いセンサー配向を得ることができる。
図6は、IMU71およびIMU15のそれぞれにおける融合部300を示す。融合部300は、IMU71およびIMU15の外部にあってもよい。融合部300は、拡張カルマンフィルター(EKF)に基づいて、内部の各センサーの計測(値または信号)を融合する。本実施形態では、センサー配向(姿勢)は、4元数により表記される。4元数による配向表記は、回転行列へ変換可能である。拡張カルマンフィルターは、以下のように表される状態ベクトルに適用される。
Figure 0006565465
制御入力ベクトルは、ジャイロセンサーの入力によって決定される。
Figure 0006565465
インターバルΔtの間のK−1からKへ状態遷移モデルは、次のように表される。
Figure 0006565465
ここで、wk-1は、ノイズベクトルである。
図6に示すように、融合部300は、測定部310と、予測部320と、更新部330と、重力キャンセル部340と、回転変換部350と、を含む。測定部310は、加速度センサーおよび磁気センサーから出力された加速度と地磁気の計測as k,ms kに基づき機能する。測定部310は、ローパスフィルター311/312を含む。ローパスフィルター311は、計測された加速度as kにおけるノイズを低減する。同様に、ローパスフィルター312は、計測された地磁気ms kにおけるノイズを低減する。
予測部320は、所定時間期間に亘って、検出された角速度ωs k-1を積分することによって、角度変化の量(または姿勢)を推定し、予測された角度変化(または姿勢)を、更新部330へ出力する。更新部330は、予測された角度変化(または姿勢)を用いて、計測されたものzk(加速度および地磁気)を、フィルターすなわち融合する。そうすると、融合されたIMU配向(姿勢)qs2w kが更新されて出力され、そして、融合された姿勢qs2w kが、次のサイクルのために、遅延器を介して、測定部320へフィードバックされる。融合されたIMU配向qs2w kが計算されると、重力キャンセル部340による重力のキャンセルよって、IMUの動的または線形な加速度aw kが計算される。
回転変換部350は、IMU配向qs2w kを受け取り、回転行列Rs2w kに変換し出力する。加速度センサーからの計測された加速度as kは、重力キャンセル部340に入力される。重力キャンセル部340は、回転行列Rs2w kで表されたIMU配向を用いて地球の重力加速度を打消し、地球の重力加速度の成分を含まないIMUの線形加速度aw kを計算し、出力する。
図6を用いて上述した拡張カルマンフィルターに基づく検出値の融合のための調整は、HMD100を製造する工場で実施されることが多い。
CPU140は、図5のステップS10の処理を実行すると、IMU71におけるオフラインキャリブレーションおよび検証を行なう(ステップS20)。カメラ60が装着基部91に対して固定ではなく、回動可能であるため、ステップS20の処理では、カメラ60が変化した位置に応じたキャリブレーションが必要となる。本明細書では、この点について、詳細に説明する。
A−3.オフラインキャリブレーション:
次に、CPU140は、HMDのオフラインキャリブレーションを実行する(ステップS20)。オフラインキャリブレーションでは、識別マーカーMK1に固定された座標系からIMU15に固定された座標系への回転行列(Rmarker2conImu)と、カメラ60に固定された座標系からIMU71に固定された座標系への回転行列(Rcam2hmdImu)とが、導出される。つまり、オフラインキャリブレーションでは、識別マーカーMK1とIMU15との間の空間的関係と、カメラ60とIMU71との間の空間的関係とが、導出される。
図7は、識別マーカーMK1が撮像されている場合のカメラ60と識別マーカーMK1との位置関係を表す概略図である。図7には、画像表示部20と、装着帯90の一部である装着基部91と、カメラ60と、装着基部91に内蔵されて固定されているIMU71と、制御部10と、が示されている。また、図7には、制御部10の内部において固定されているIMU15および識別マーカーMK1が示されている。さらに、図7には、X(East),Y(North),Z(gravity)の3軸で表される絶対座標系と、絶対座標系と異なる4つの座標系が示されている。なお、以降では、絶対座標系をワールド座標系とも呼ぶ。
絶対座標系と異なる4つの座標系の内の1つは、IMU71に固定されたX1,Y1,Z1の3軸で表される第1座標系である。他の1つは、IMU15に固定されたX2,Y2,Z2で表される第2座標系である。他の1つは、カメラ60に固定されたX3,Y3,Z3で表されるカメラ座標系である。残りの1つは、識別マーカーMK1に固定されたX4,Y4,Z4で表されるマーカー座標系である。また、図7には、カメラ座標系から第1座標系への回転行列Rcam2hmdImuと、マーカー座標系からカメラ座標系への回転行列Rmarker2camと、マーカー座標系から第2座標系への回転行列Rmarker2conImuと、が示されている。
ここで、IMU71からの配向(この場合、後述する対地配向)の出力は、第1座標系からワールド座標系への回転行列Rhmdimu2worldとして定義できる。同様に、IMU15から配向の出力は、第2座標系からワールド座標系への回転行列RconImu2worldとして定義できる。また、図7に示す以外の回転行列として、マーカー座標系からワールド座標系への回転行列をRmarker2worldと定義すると、下記の式(4)の関係が成立する。
Figure 0006565465
本実施形態では、オフラインキャリブレーションによって、カメラ60とIMU71との間の空間的関係を表す回転行列Rcam2hmdImuおよび識別マーカーMK1とIMU15との間の空間的関係を表す回転行列Rmarker2conImuを算出する。オフラインキャリブレーションは、繰り返し高精度化する非線形最適化を伴う。この点では、後述のオンラインキャリブレーションも同様である。これらの非線形最適化のための初期想定値については、設計時の値または装置の仕様の値を用いた精度の低い値でよく、例えば、下記の式(5)に表す値を初期想定値として用いてもよい。
Figure 0006565465
式(4)から、算出部167は、IMU15が出力するIMU15の配向を表す回転行列RconImu2worldおよび識別マーカーMK1とIMU15との間の空間的関係を表す回転行列Rmarker2conImuに基づいて、IMU71の配向の予測値を表す下記の式(6)の左辺を算出でき、下記の式(6)が導出される。本実施形態では「IMUの配向」とは、IMUの出力によって表され、IMUが静的な状態にある場合には、IMUの配向は地球の重力加速度の方向および地磁気に対するIMUの姿勢を表し、上述の絶対座標系に対する姿勢である。本明細書ではIMUが静状態にある場合のIMUの配向を、IMUの「対地配向」とも呼ぶ。なお、以下において式中のinvは逆数を意味する。
Figure 0006565465
式(4)から、同様に、算出部167は、IMU71が出力するIMU71の対地配向を表す回転行列Rhmdimu2worldと、カメラ60とIMU71との間の空間的関係を表す回転行列Rcom2hmdImと、識別マーカーMK1とカメラ60との間の空間的関係を表す回転行列Rmarker2camと、識別マーカーMK1とIMU15との間の空間的関係を表す回転行列Rmarker2conImuと、に基づいて、IMU15の対地配向の予測値を表す下記の式(7)の左辺を算出でき、下記の式(7)が導出される。
Figure 0006565465
算出部167は、高精度の識別マーカーMK1の検出アルゴリズムおよびホモグラフィーを用いて、式(7)における回転行列Rmarker2camを算出できる。
算出部167は、センサーノイズやマーカージッタリングを低減することで、より精度の高い予測値を算出できる。例えば、マーカージッタリングは、式(8)に示すように、静的な位置における識別マーカーMK1を撮像した複数のフレームが平均化されることで低減される。
Figure 0006565465
また、同様に、IMUのセンサー配向も静的な位置における複数のフレームが平均化されることで、式(9)、(10)に示すように、センサーノイズおよび計測値の誤差を少なくできる。
Figure 0006565465
Figure 0006565465
また、同様に、IMU71およびIMU15における加速度センサー、ジャイロセンサー、および磁気センサーによって検出(または計測)される加速度、角速度、地磁気は、静的な位置における複数のフレームが平均化されることで、式(11)−(13)に示すように、融合部300によって推定されたバイアスが修正/補償され、ドリフトが低減されたノイズの少ない値として算出される。
Figure 0006565465
Figure 0006565465
Figure 0006565465
ここで、バイアスとしてのbacc (t)、bgyro (t)、bmag (t)は、融合部300によって推定された動的なセンサードリフトである。
IMUが静的な状態にある場合、IMUが検出する加速度は、重力加速度のみである。IMU71またはIMU15が検出する地磁気h=[h,0, h]の計測は、画像表示部20および装着帯90を装着している使用者の頭部の位置を推定する。本実施形態では、重力加速度および地磁気に対して、慣用されているノース・イースト・ダウン座標系(NED座標系)にしたがっている。重力ベクトルを、g=[0, 0, g](g=9.81m/s)とし、磁気傾斜角を55度とみなして、地磁気を、h=0.26ガウス(Gauss)、h=0.37ガウスとしている。
NED座標系とは異なる磁場が存在する特定の環境では、非特許文献4に記載されているベクトル選択技術を採用した。このベクトル選択技術では、感知された磁場の強さhhormおよびディップ角δdipは、所定の閾値を用いた磁場の公称値としてのλhおよびλdipと比較される。比較の結果、所定の閾値を超える磁気の計測は、キャリブレーションにおいて無視される。このベクトル選択技術において、誤差計測式は、式(9)、(11)、および(13)から、IMU71について、下記の式(14)、(15)のように表される。
Figure 0006565465
Figure 0006565465
なお、式(14)の右辺は、IMU71における加速度センサーが計測した加速度ベクトルACCobs(hmdimu)と、式(6)から予測されたIMU71の配向を表す回転行列に重力加速度のベクトルgを乗じて得たベクトルとの差ベクトルの距離の2乗である。式(15)の右辺は、IMU71における磁気センサーが計測した磁気ベクトルMagobs(hmdimu)と、式(6)から予測されたIMU71の配向を表す回転行列に地磁気ベクトルhを乗じて得たベクトルとの差ベクトルの距離の2乗である。
また、式(10)、(11)、および(13)から、IMU15について、下記の式(16)、(17)のように表される。
Figure 0006565465
Figure 0006565465
なお、式(16)の右辺は、IMU15における加速度センサーが計測した加速度ベクトルACCobs(conImu)と、式(7)から予測されたIMU15の配向を表す回転行列に重力加速度のベクトルgを乗じて得たベクトルとの差ベクトルの距離の2乗である。式(17)の右辺は、IMU15における磁気センサーが計測した磁気ベクトルMagobs(conImu)と、式(7)から予測されたIMU15の配向を表す回転行列に地磁気ベクトルhを乗じて得たベクトルとの差ベクトルの距離の2乗である。そのため、誤差を低減するために最小化したいコスト関数は、下記の式(18)のように表される。
Figure 0006565465
ここで、η0,η1,η2,η3は、各項の差を調整するための重み付けをする係数である。この係数は、式(19)に示すように、センサーのノイズの分散に応じて設定される。
Figure 0006565465
IMUが地磁気を検出しない場合には、コスト関数は、3軸の加速度についてのみ考えればよく、式(20)のように表される。
Figure 0006565465
コスト関数については、周知の関数を適用可能である。
本実施形態では、カメラ60が、IMU71を内蔵する装着基部91に対して回動可能であるため、結果として、カメラ60に固定された座標系がIMU71に固定された座標系に対して可動である。本実施形態では、カメラ60が、その可動範囲の両端のそれぞれにセットされた場合について、演算部167は、複数の異なる静的な位置におけるデータを収集する。収集するデータは、(1)IMU71に含まれる加速度センサーおよび磁気センサーの出力であるACCobs(hmdimu)およびMagobs(hmdimu)、(2)融合部300が出力するIMU71の配向Rimuhmd2world、(3)IMU15に含まれる加速度センサーおよび磁気センサーの出力であるACCobs(conImu)およびMagobs(conImu)、(4)融合部300が出力するIMU15の配向RimuCon2world、(5)識別マーカーMK1とカメラ60との間の空間的関係を表す回転行列Rmarker2camである。以上のデータをキャリブレーションデータとも表記する。後述するオンラインキャリブレーションにおいても、上記(1)〜(5)のキャリブレーションデータを収集する。そして、算出部167は、収集したデータに基づいて、上述した式(18)または式(20)の左辺を最小化することで、識別マーカーMK1とIMU15との間の空間的関係およびカメラ60とIMU71との間の空間的関係を算出する。式(18)または式(20)を最小化するための具体的方法は、後述のA−3−2において述べる。なお、算出された識別マーカーMK1とIMU15との間の空間位置関係は、後述するオンラインキャリブレーションでは、固定値として利用される。
図8は、2つの異なる静的な位置にある画像表示部20および装着帯90の概略図である。図9は、静的な位置にあるカメラ60が撮像する識別マーカーMK1との関係を表す説明図である。図10は、姿勢が異なる識別マーカーMK1がカメラ60に撮像された画像の概略図である。図9には、カメラ60が撮像可能な撮像範囲に、3パターンの異なる位置に存在する制御部10が示されている。なお、図9では、3つの制御部10が一度に撮像されることを表すものではなく、一度に撮像されるわけではないことを表すために、2つの制御部10については、破線で示されている。図10には、制御部10の裏面に配置された識別マーカーMK1が撮像された向きや位置に応じて、識別マーカーMK1の撮像画像が異なることが表されている。図10には、一例として、6つの識別マーカーMK1の撮像画像が示されているが、識別マーカーMK1の撮像画像については、図10に示す画像に限られない。
A−3−1.キャリブレーションデータ収集処理:
図11は、本実施形態において、オフラインキャリブレーションを実行するために異なる静的な位置で、IMU15、71からのデータを収集するとともに識別マーカーMK1を撮像する処理のフローチャートである。具体的にはこの処理によって、上述のキャリブレーションデータ(1)〜(5)が収集される。マーカー撮像処理では、初めに、カメラ60の撮像範囲の中で、識別マーカーMK1の位置や向き(以下、IMU15の姿勢とも呼ぶ)を変更する(ステップS43)。算出部167は、カメラ60の静的な位置が固定された状態で、異なる姿勢のそれぞれでのキャリブレーションデータを収集する(ステップS45)。算出部167は、HMDに対する識別マーカーMK1の姿勢が異なるN個のキャリブレーションデータを収集したか否かを判定する(ステップS47)。算出部167は、N個未満のキャリブレーションデータしか取得できていないと判定した場合には(ステップS47:NO)、識別マーカーMK1の姿勢の変化がN個以上になるように使用者に促して、ステップS43移行の処理を行なう。なお、当該処理および以降の処理も含め、使用者への各種処理を促す方法としては、イヤホン32,34による音声出力および光学像表示部26,28による文字画像の表示などの方法がある。
ステップS47の処理において、算出部167は、識別マーカーMK1の姿勢をN個以上変えてキャリブレーションデータを収集していると判定した場合には(ステップS47:YES)、HMDの静的な位置(以下、IMU71の姿勢とも呼ぶ)がM個変えられてキャリブレーションデータが収集されたか否かを判定する(ステップS49)。算出部167は、HMDの姿勢がM個未満の姿勢であると判定した場合には(ステップS49:NO)、ステップS43以降の処理を再度行なうように使用者に促す。ステップS49の処理において、算出部167は、キャリブレーションデータを既に取得した画像表示部20の姿勢がM個以上であると判定した場合には(ステップS49:YES)、画像表示部20の姿勢の数であるM個に識別マーカーMK1の姿勢の数であるN個を乗じた積の数のデータを、キャリブレーションを実行するためのデータとして収集して(ステップS51)、マーカー撮像処理を終了する。
A−3−2.最適化処理:
本実施形態では、非線形のコスト関数を定義して、定義したコスト関数を最小化することで、キャリブレーションの誤差を低減する最適化処理を実行する。コスト関数としては、ガウス・ニュートン法を用いたエネルギー関数が用いられる。ガウス・ニュートン法を用いると、マーカー撮像処理によって取得された画像表示部20のM個の姿勢の撮像データにおける数値の二乗和を最小化することで、キャリブレーションの誤差を最小にできる。ガウス・ニュートン法を用いたコスト関数Eは、下記の式(21)で表される。
Figure 0006565465
本実施形態では、e2(r)は,式(18)で表わされ得る。最小値は、設定された初期予測値に対して、式(22)のように、rを徐々に変化させることを繰り返すことで、導出される。
Figure 0006565465
式(22)における増分Δrが正規方程式の解であり、式(21)のeは、ヤコビ行列を用いて、式(23)で表される。
Figure 0006565465
ガウス・ニュートン法の二乗和を最小化するには、式(24)を解けばよい。
Figure 0006565465
増分Δrは、下記の式(25)によって導出される。
Figure 0006565465
ここで、回転行列は、一般的に、オイラー角を用いて以下の式(26)、(27)のように表される。
Figure 0006565465
Figure 0006565465
前述したオフラインキャリブレーションでは、カメラ60とIMU71との間の空間的関係を表す回転行列Rcam2hmdImuおよび識別マーカーMK1とIMU15との間の空間的関係を表す回転行列Rmarker2conImuを、式(28)、(29)のように表すことができる。
Figure 0006565465
Figure 0006565465
本実施形態では、上記式で表したrは、式(30)、(31)のように表される。
Figure 0006565465
Figure 0006565465
図12は、コスト関数Eを用いた最適化処理のフローチャートである。最適化処理では、初めに、算出部167が、キャリブレーションデータ収集処理(図11)で収集し、記憶したキャリブレーションデータを用いて、コスト関数Eを計算する(ステップS61)。算出部167は、コスト関数Eの計算にヤコビ行列を用いて計算する(ステップS63)。算出部167は、ヤコビ行列を解くことで、Δrを計算して、rを算出する(ステップS65)。算出部167は、(A)算出したrを用いたΔrが予め設定された所定値以下または(B)繰り返しの回数nが予め設定された上限値以上であるか否かを判定する(ステップS67)。算出部167は、(A)または(B)のいずれの条件も満たさないと判定した場合には(ステップS67:NO)、ステップS51以降の処理を繰り返す。算出部167は、(A)と(B)との少なくとも一方の条件を満たしたと判定した場合には(ステップS67:YES)、ノイズ等の誤差を少なくしたrまたは回転行列Rcam2hmdImuおよび回転行列Rmarker2conImuを出力して(ステップS69)、最適化処理を終了する。なお、コスト関数Eを用いて、ノイズを少なくする最適化処理を行なうことをリファインするともいう。図5に示すように、オフラインキャリブレーションは、例えば、工場またはHMD100の使用者に実施される。
A−4.オンラインキャリブレーション:
オンラインキャリブレーションも、オフラインキャリブレーションと同様に、上記式(1)から式(31)に基づいている。本実施形態では、カメラ60のレンズ部62は、カメラ基部61に対して矢印CS1(図1)に沿って回動可能である。すなわち、レンズ部62は、カメラ基部61に対して、1軸を中心軸として回動し、その他の2軸に対しては向きを変えない、すなわち回動しない。そのため、本実施形態のオンラインキャリブレーション実行処理では、カメラ基部61が中心軸の回りの1自由度の回転としてモデル化できる。カメラ基部61が上下のそれぞれに最も回動した場合の2端点の間を補間するために、球面線形補完(SLERP)および四元数(p、q、θ、t)を用いて、式(32)が導出される。
Figure 0006565465
式(32)におけるp、qは、回動の2端点を表し、θは、2端点の間の角度を表す。パラメーターであるtは、0以上1以下の数値をとる。2端点の間の角度が0度に近い場合には、式(32)における分母が0で除することを回避するため、式(33)で表す線形補間を使用する。
Figure 0006565465
結果として、本実施形態のオンラインキャリブレーションでは、式(32)または式(33)のパラメーターであるtが推定されることで、IMU71に対するカメラ60の空間的関係が導出される。この導出において、識別マーカーMK1とIMU15との間の空間的関係は、オフラインキャリブレーションにより導出された空間的関係に固定されればよい。
オンラインキャリブレーションの精度を上げるために、キャリブレーションデータを収集するカメラ60の複数の静的な位置は、画像表示部20および装着帯90を装着した使用者の頭部の動きにより、互いに大きく異なっていることが望ましい。使用者が識別マーカーMK1のキャリブレーションデータを取得する手順は、使用者の視界に識別マーカーMK1が存在している状態で、使用者が首を横に振るまたは頷く行為を行ない、かつ当該行為の端点では、使用者が2,3秒間、頭部を静止させることが望ましい。そして、この静止している間に、好適には複数回に亘ってキャリブレーションデータが収集され得る。ただし、使用者が頭部を動かすことは必須ではなく、1つの静的な相対位置において収集されたキャリブレーションデータが用いられても、IMU71に対するカメラ60の空間的関係は導出され得る。
実際の撮像状況では、使用者にとって、頷いた状態などの端点で正確に静止することが難しい。具体的には、使用者は、静止していると認識している状態でも、手や頭が小刻みに震えており、この震えはキャリブレーションの誤差の原因となりえる。なお、震え(ジッターともいう)も含む静止状態を、本明細書では、静状態とも呼ぶ。静状態における使用者のジッターは、並進ではなく、回転による運動に支配されているため、静状態での検出値は、角速度を検出するジャイロセンサーによって検出される。本実施形態では、CPU140における静状態判定部が、ジャイロセンサーによって検出される角速度が静状態におけるジッターか使用者が意図する頭の回転かを、検出値の大きさだけでなく、時間の経過に伴う検出値の履歴である使用者の頭部の動き履歴に基づいて、静状態であるか否かの確率を定義する。具体的には、まず、静状態判定部は、IMU71に含まれるジャイロセンサーの検出値を記憶部に記憶する。そして、記憶部に記憶された記録値に基づき、所定の期間の動き履歴の分散を求める。ここで、静状態判定部は、所定の期間の動き履歴の分散が小さい場合には、安定した角速度の検出であり、ジッターであると判定する。る。静状態の確率は、下記の式(34)で表される。
Figure 0006565465
式(34)は、時刻tでの静状態の確率であり、v(t)は、短い固定された時間における角速度の分散であり、m(t)は、当該固定された時間における角速度の平均値であり、ω(t)は、IMUセンサー融合の後のドリフトが排除された角速度であり、式(35)のように表される。
Figure 0006565465
式(34)におけるσ、σ、σωは、擬似静止状態を表すパラメーターである。
使用者の頭部の静状態は、2,3秒と短いことが多いため、角速度の分散および角速度の平均を短い時間T(例えば、1秒)として計算する。角速度の平均値は、式(36)のように表すことができ、角速度の分散は、式(37)のように表すことができる。
Figure 0006565465
Figure 0006565465
本実施形態では、使用者の頭部の角速度が全く検出されない状態と、式(34)で表す確率が予め設定された閾値以上(例えば、80%以上)の場合に、CPU140における静状態判定部は、使用者の頭部が静止していると判断する。つまり、静状状態判定部は、所定期間内の角速度の分散、角速度の平均およびその時点での角速度に基づいて判定する。算出部167は、使用者の頭部が静止していると判断した場合に、自動的に、キャリブレーションデータを収集する。本実施形態のオンラインキャリブレーションの実行中では、識別マーカーMK1の検出が30fps(frame per second)で行なわれ、装着基部91に内蔵されたIMU71は、識別マーカーMK1の検出よりもさらに高いレート(例えば、100MHz)で行なわれる。本実施形態では、できるだけ異なる位置での撮像データによるキャリブレーションを実行するために、2つの異なる静的な位置の間での大きな角度差(例えば、20度以上)を要求している。角度差θは、下記の式(38)で表される。
Figure 0006565465
A−4−1.キャリブレーションデータ処理:
図13は、静状態の判定を加えた撮像データ取得処理の流れを示す説明図である。図13では、以上で説明した使用者の頭部の静状態の確率判定の処理も含めた1軸回転のカメラ60を有するHMD100の撮像データ処理が示されている。撮像データ取得処理では、初めに、マーカー識別部165は、カメラ60の撮像範囲に識別マーカーMK1が含まれるか否かを判定する(ステップS71)。マーカー識別部165は、ROM121に記憶された識別マーカーMK1に対応する画像データを用いて、識別マーカーMK1を撮像範囲から抽出する。マーカー識別部165は、撮像範囲に識別マーカーMK1が含まれていないと判定した場合には(ステップS71:NO)、撮像範囲に識別マーカーMK1が含まれるように、識別マーカーMK1の位置を変化させるよう使用者に促す(ステップS73)。
ステップS73の処理において、撮像範囲に識別マーカーMK1が含まれると判定された場合には(ステップS73:YES)、算出部167は、IMU71が検出する角速度等の検出値と、IMU15が検出する角速度等の検出値とを用いて、カメラ60および識別マーカーMK1が静状態であるか否かを判定する(ステップS75)。すなわち、算出部167は、画像表示部20および装着帯90を装着している使用者と、使用者の視界に含まれる識別マーカーMK1とが固定された状態であるか否かを判定する。算出部167は、カメラ60および識別マーカーMK1が静状態でないと判定した場合には(ステップS75:NO)、使用者に頭部および識別マーカーMK1が配置された制御部10の位置を固定するように促す(ステップS77)。
ステップS75の処理において、算出部167は、上述した式(34)等を用いて、カメラ60および識別マーカーMK1が静状態であると判定した場合には(ステップS75:YES)、キャリブレーションデータを収集して、収集したキャリブレーションデータが示すカメラ60の角度と、直前に取得されたキャリブレーションデータが示すカメラ60の角度との角度差(静状態にある位置間や配向間の角度差)を算出する(ステップS79)。算出部167は、算出した角度差が予め設定された角度(例えば、20度)以上であるか否かを判定する(ステップS81)。算出部167は、算出した角度差が設定された角度未満であると判定した場合には(ステップS81:NO)、角度差が設定された角度を満たす撮像データを取得するために、使用者に頭部を動かすように促し(ステップS83)、ステップS41以降の処理を実行する。
ステップS81の処理において、算出部167は、算出した角度差が設定された角度以上である判定した場合には(ステップS81:YES)、IMU15、IMU71、カメラ60の撮像から、キャリブレーションデータを収集する(ステップS85)。具体的には、算出部167は、算出した角度差が設定された角度以上と判定することをトリガーとして、静状態におけるIMU15、71のデータ(その配向でIMUにより計測された加速度および地磁気)、IMUの絶対配向、カメラ60に対する識別マーカーMK1の姿勢を検出する。なお、本実施形態のカメラ60の可動範囲は、20度から25度までになるように設定されている。
次に、算出部167は、キャリブレーションデータを、予め設定された数以上収集したか否かを判定する(ステップS87)。算出部167は、予め設定された数以上のキャリブレーションデータを収集していないと判定した場合には(ステップS87:NO)、さらにデータを収集するために、ステップS41以降の処理を繰り返す。
ステップS87の処理において、算出部167は、予め設定された数以上のキャリブレーションデータを取得したと判定した場合には(ステップS87:YES)、収集したキャリブレーションデータを記憶し(ステップS89)、キャリブレーションデータ収集処理を終了する。
A−4−2.コスト関数最適化処理:
本実施形態では、式(32)であらわすパラメーターtを0から1までの0.25毎(t=0,t=0.25,t=0.5,0.75,1)に検索する(サーチする)荒いコスト関数と、パラメーターとを0から1までを0.1毎(t=0,t=0.1,t=0.2,・・・t=1)にサーチする高精度のコスト関数と、のいずれのコスト関数によってキャリブレーションが実行されてもよい。荒いコスト関数では、最適化した後のパラメーターtに相当するパラメーターt*は、下記の式(39)で表される。
Figure 0006565465
図14は、コスト関数を最適化するためのコスト関数最適化処理のフローチャートである。図14に示すコスト関数最適化処理では、算出部167が、荒いコスト関数を最適化することで、式(39)に示すパラメーターt*を算出する。コスト関数最適化処理では、初めに、算出部167は、0から1までを0.25毎にパラメーターtについてサーチする(ステップS91)。次に、算出部167は、サーチの結果とキャリブレーションデータ収集処理(図13)によって収集されたキャリブレーションデータとを用いてコスト関数(式(18)、(21))を計算する(ステップS93)。算出部167は、コスト関数を計算することによって、最適化されたパラメーターt*を算出する(ステップS95)。次に、算出部167は、算出したt*を、さらに高精度のサーチによってより最適化するか否かを決定する(ステップS97)。算出部167は、予め設定された指令に従い、パラメーターtに対して、0.1毎の高精度のサーチを行なうか否かを決定する。算出部167は、高精度のサーチを行なうと決定した場合には(ステップS97:YES)、算出したt*の近くの値に対して高精度のサーチを行ない(ステップS99)、ステップS93以降の処理を実行する。
ステップS97の処理において、密なサーチを行わないと決定した場合には(ステップS101)、算出したパラメーターt*を、カメラ60の位置を表すパラメーターtとして出力する。図5に示すように、想定されるオンラインキャリブレーションの実施主体は、HMD100の使用者個人である。なお、本実施形態では、カメラ60とIMU71との間に1つの軸の回りでの回転関係しかないが、他の実施形態では、カメラ60とIMU71との間に、2軸以上の回りでの回転関係があってもよく、この場合でも、式(18)または(20)を用いて、カメラ60とIMU71との間の空間的関係を導出することができる。
以上説明したように、本実施形態のHMD100では、IMU71がIMU71の配向(対地姿勢)を表すデータを検出し、IMU15が、IMU15の配向を表すデータを検出する。外景を撮像するカメラ60は、撮像範囲を装着帯90に固定されたIMU71に対して変化させることができる。算出部167は、カメラ60が識別マーカーMK1を撮像した撮像データを用いて、カメラ60と識別マーカーMK1との間の空間的関係を表す回転行列Rmarker2camを算出する。そして、算出部167は、検出されたIMU71の配向を含むデータと、IMU15の配向を含むデータと、カメラ60と識別マーカーMK1との間の空間的関係と、に基づいて、カメラ60とIMU71との間の空間的関係を導出する。また、静的な位置におけるIMU71の配向およびIMU15の配向を取得すればよいので、動的な位置での撮像と比較して、時間の同期(シンクロ)の問題がなく、精度の高いキャリブレーションを実行できる。また、画像表示部20に対応するIMU71と、識別マーカーMK1に対応するIMU15との2つのIMUによって検出された加速度がキャリブレーションの実行に用いられることで、変換する座標軸における精度の高い配向を得ることができる。また、キャリブレーションの実行では、制御部10に配置された識別マーカーMK1が用いられるため、HMD100以外の装置が不要となり、使用者の利便性が向上する。
また、本実施形態のHMD100では、カメラ60は、1軸に対して矢印CS1に沿って回動可能であり、その他の軸に対しては回動しない。そのため、本実施形態のHMD100では、式(32)のように、簡略化した式を用いてキャリブレーションを実行でき、第1変換パラメーターPM1および第2変換パラメーターPM2を算出するまでの処理を迅速に行なえる。
B.第2実施形態:
第2実施形態では、第1実施形態の「A−3−5.コスト関数最適化処理」についてのみ異なるため、コスト関数最適化処理について説明し、その他の構成および処理等については、説明を省略する。
図15は、第2実施形態のコスト関数最適化処理のフローチャートである。第2実施形態では、コスト関数をより最適化するために、カメラ60の配向がパラメーターt*に近い値であるとの制約を付加して、コスト関数に対して非線形の最適化が行なわれる。第2実施形態のコスト関数最適化処理では、算出部167は、キャリブレーションデータ収集処理(図13)によって取得されたデータを用いてコスト関数を計算する(ステップS111)。算出部167は、式(23)ないし式(25)に示すヤコビ行列を計算する(ステップS113)。算出部167は、上述した制約を付加して、回転行列Rcam2hmdImuを更新する(ステップS115)。算出部167は、更新された回転行列Rcam2hmdImuに含まれる誤差が予め設定された許容誤差以下であるか否かを判定する(ステップS117)。算出部167は、回転行列Rcam2hmdImuに含まれる誤差が許容誤差よりも大きいと判定した場合には(ステップS117:NO)、ステップS111以降の処理を繰り返す。ステップS117の処理において、算出部167は、回転行列Rcam2hmdImuに含まれる誤差が許容誤差以下であると判定した場合(ステップS117:YES)、更新された回転行列Rcam2hmdImuを高精度化された回転行列Rcam2hmdImuとして出力し(ステップS119)、コスト関数最適化処理を終了する。
C.第3実施形態:
図16は、第3実施形態のHMD100aを含む画像表示システム500を機能的に示すブロック図である。第3実施形態では、第1実施形態の識別マーカーMK1の代わりに、HMD100とは異なる他の装置であるマーカー表示装置400の表示パネルに、識別マーカーMK1に対応する画像が表示されることで、キャリブレーションが実行される。
図16に示すように、画像表示システム500は、HMD100aと、マーカー表示装置400と、を備える。第3実施形態のHMD100aは、第1実施形態のHMD100と比較して、制御部10aの構成が異なり、その他の構成については同じであるため、同じ構成については説明を省略する。制御部10aは、第1実施形態の制御部10が有する構成に加えて、通信部128を有し、IMU15を有しない。通信部128は、他の装置を情報の送受信を行なうことができる。通信部128は、ROM121に記憶されている識別マーカーMK1の画像データを、マーカー表示装置400へと送信する。また、通信部128は、他の装置から送信された情報を受信する。なお、第2実施形態では、通信部128および算出部167が請求項における算出部に相当する。
マーカー表示装置400は、画像を表示可能な表示パネル410を有する装置である。マーカー表示装置400としては、例えば、スマートフォンや携帯電話などが挙げられる。マーカー表示装置400は、表示パネル410と、他の装置と情報を送受信できる送受信部420と、表示パネル410への画像表示の制御を行なうパネル制御部430と、IMU440と、を備えている。送受信部420は、通信部128から送信された画像データを受信する。パネル制御部430は、送受信部420が受信した画像データを用いて、表示パネル410に識別マーカーMK1に対応するマーカー画像IMGを表示させる。IMU440は、IMU440を内蔵しているマーカー表示装置400の加速度と、角速度と、地磁気と、を検出し、IMU440の配向を出力する慣性センサーである。送受信部420は、IMU440が検出した加速度およびIMU440の配向などをデータとして通信部128へと送信する。通信部128は、送受信部420から送信されたIMU440の検出値を受信する。算出部167は、IMU440のからのデータを用いて、キャリブレーションを実行する。
以上説明したように、第3実施形態では、第1実施形態の識別マーカーMK1の代わりに、マーカー表示装置400の表示パネル410にマーカー画像IMGが表示される。そのため、マーカー画像IMGを受信して表示できる装置さえあれば、実物としてのマーカーMK1を携帯していなくてもキャリブレーションを実行でき、使用者の利便性が向上する。
D.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
カメラ60によって撮像される識別マーカーMK1は、第1実施形態では、制御部10の裏面に配置され、第3実施形態では、表示パネル410にマーカー画像IMGとして表示されたが、態様については種々変形可能である。例えば、制御部10以外の使用者が携帯できる装置のどこかに配置されていてもよい。
第1実施形態では、IMU71およびIMU15は、加速度と角速度と地磁気とのそれぞれを検出したが、加速度のみを検出してもよく、角速度や地磁気については検出しなくてもよい。例えば、IMU71およびIMU15は、加速度のみを検出するセンサーに代用してもよいし、角速度と地磁気とも異なる圧力を検出してもよい。
上記実施形態では、画像表示装置として、外景を透過するシースルー型のHMD100が用いられたが、画像表示装置の態様については種々変形可能である。例えば、モニターを有するパーソナルコンピューター(PC)によって、カメラ60を基準とする座標系とPCのモニターまたは他の装置の画像表示部を基準とする座標系とを変換する第1変換パラメーターPM1および第2変換パラメーターPM2が算出される画像表示装置であればよい。
上記第1実施形態では、カメラ60は、装着帯90に対して、矢印CS1に沿うように1軸を中心軸として回転可能であったが、それ以外の軸に対して書いて可能であってもよい。例えば、カメラ60は、3軸の全てに対して回転可能であってもよいし、回転だけでなく、並進方向に平行移動する構成であってもよい。
本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…制御部(識別部)
15…IMU(第2慣性センサー)
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
60…カメラ
61…カメラ基部
62…レンズ部
71…IMU(第1慣性センサー)
90…装着帯
91…装着基部
92…ベルト部
93…連結部
100…HMD
121…ROM
122…RAM
128…通信部(算出部)
130…電源
135…操作部
139…識別対象記憶部
140…CPU
150…オペレーティングシステム
160…画像処理部
165…マーカー識別部
167…算出部(算出部)
170…音声処理部
180…インターフェイス
190…表示制御部
200…融合部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…液晶ディスプレイ
251…右投写光学系
261…右導光板
262…左導光板
300…融合部
310…測定部
311…ローパスフィルター
312…ローパスフィルター
313…チルト角測定部
314…ヨー角測定部
320…予測部
330…更新部
340…重力取消部
350…回転補正部
400…マーカー表示装置
410…表示パネル
420…送受信部(識別部)
430…パネル制御部
440…IMU(第2慣性センサー)
500…画像表示システム
AP…先端部
CS1…矢印
EL…左光学像表示部の端部
ER…右光学像表示部の端部
IMG…マーカー画像
LE…左眼
RE…右眼
MK1…識別マーカー(マーカー)
OA…外部機器
P0、P1,P2,P3…頂点
PM1…第1変換パラメーター
PM2…第2変換パラメーター

Claims (8)

  1. 画像表示装置であって、
    第1慣性センサーと、
    像部と、
    算出部と、を備え、
    前記算出部は、
    前記撮像部が、前記第1慣性センサーに対して可動な第2慣性センサーを備えた識別部が提示するマーカーを撮像し撮像画像を取得した場合に前記撮像画像に少なくとも基づいて前記マーカーと前記撮像部との間の第1空間位置関係を算出し、
    前記マーカーが撮像された場合の前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ得られる前記第1慣性センサーの第1配向を含む第1データおよび前記第2慣性センサーの第2配向を含む第2データと、前記第1空間位置関係と、に少なくとも基づいて、前記撮像部と前記第1慣性センサーとの間の第2空間位置関係を算出する、
    画像表示装置。
  2. 請求項1に記載の画像表示装置であって、さらに、
    前記第1データを格納する第1メモリ領域と、
    前記第2データを格納する第2メモリ領域と、
    前記第1空間位置関係を格納する第3メモリ領域と、を備え、
    前記算出部は、前記第1メモリ領域に格納された前記第1データと、前記第2メモリ領域に格納された前記第2データと、前記第3メモリ領域に格納された前記第1空間位置関係と、を用いて、前記第2空間位置関係を算出する、
    画像表示装置。
  3. 請求項1記載の画像表示装置であって、
    さらに、静状態判定部を備え、
    前記静状態判定部が、前記第1慣性センサーおよび前記第2慣性センサーからの出力に基づいて、前記第1慣性センサーおよび前記第2慣性センサーが静状態にあると判定した場合に前記撮像部が前記マーカーを撮像するとともに、前記算出部が前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ前記第1データおよび前記第2データを取得し、
    前記算出部は、前記取得された前記第1データと、前記第2データと、前記マーカーを撮像することにより得られた撮像画像に基づく前記第1空間位置関係と、に少なくとも基づいて、前記第2空間位置関係を算出する、
    画像表示装置。
  4. 請求項3記載の画像表示装置であって、
    さらに、前記マーカーと前記第2慣性センサーとの間の第3空間位置関係を記憶する記憶部を有し、
    前記算出部は、前記第1データと、前記第2データと、前記第1空間位置関係と、前記第3空間位置関係と、に少なくとも基づいて、前記第2空間位置関係を算出する、
    画像表示装置。
  5. 請求項3に記載の画像表示装置であって、
    さらに、前記マーカーと前記第2慣性センサーとの間の第3空間位置関係を記憶する記憶部を有し、
    前記静状態判定部が、前記第1慣性センサーおよび前記第2慣性センサーが静状態にあると判定した場合に、前記算出部は、さらに、前記第1慣性センサーが計測した第1加速度および前記第1配向を含む前記第1データと、前記第2慣性センサーが計測した第2加速度および前記第2配向を含む前記第2データと、を取得し、
    前記算出部は、取得された前記第1加速度と、前記第1配向と、前記第2加速度と、前記第2配向と、前記第1空間位置関係と、前記第3空間位置関係と、に少なくとも基づいて、前記第2空間位置関係を算出する、
    画像表示装置。
  6. 請求項1から請求項5までのいずれか一項に記載の画像表示装置であって、
    前記撮像部は、所定の1軸を中心に回転可能に形成され、前記所定の1軸と直交する他の2軸に対しては回転できないように形成されている、画像表示装置。
  7. 加速度を検出可能な第1慣性センサーと、景を撮像可能な撮像部と、を備える画像表示装置のためのコンピュータープログラムであって、
    算出機能は、
    前記撮像部が、前記第1慣性センサーに対して可動な第2慣性センサーを備えた識別部が提示するマーカーを撮像し撮像画像を取得した場合に前記撮像画像に少なくとも基づいてマーカーと前記撮像部との間の第1空間位置関係を算出し、
    前記マーカーが撮像された場合の前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ得られる前記第1慣性センサーの第1配向を含む第1データおよび前記第2慣性センサーの第2配向を含む第2データと、前記第1空間位置関係と、に少なくとも基づいて、前記撮像部と前記第1慣性センサーとの間の第2空間位置関係を算出する機能を、画像表示装置に実現させるためのコンピュータープログラム。
  8. 画像を表示可能な第1表示部を有する頭部装着型表示装置と、マーカーの画像を表示可能な第2表示部を有するマーカー表示装置と、を備える画像表示システムであって、
    前記頭部装着型表示装置は、
    第1慣性センサーと、
    像部と、
    前記マーカーの画像を送信する算出部と、を備え、
    前記マーカー表示装置は、
    前記算出部から送信された前記マーカーの画像を受信する被識別部と、
    前記被識別部に設けられた第2慣性センサーと、を備え、
    前記算出部は、
    前記撮像部が、前記第2表示部に表示された前記マーカーを撮像し撮像画像を取得した場合に前記撮像画像に少なくとも基づいて前記マーカーとの前記撮像部と間の第1空間位置関係を算出し、
    前記マーカーが撮像された場合の前記第1慣性センサーおよび前記第2慣性センサーからそれぞれ得られる前記第1慣性センサーの第1配向を含む第1データおよび前記第2慣性センサーの第2配向を含む第2データと、前記第1空間位置関係と、に少なくとも基づいて、前記撮像部と前記第1慣性センサーとの間の第2空間位置関係を算出する、画像表示システム。
JP2015159484A 2015-08-12 2015-08-12 画像表示装置、コンピュータープログラム、および画像表示システム Active JP6565465B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015159484A JP6565465B2 (ja) 2015-08-12 2015-08-12 画像表示装置、コンピュータープログラム、および画像表示システム
US15/210,593 US9864192B2 (en) 2015-08-12 2016-07-14 Image display device, computer program, and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015159484A JP6565465B2 (ja) 2015-08-12 2015-08-12 画像表示装置、コンピュータープログラム、および画像表示システム

Publications (3)

Publication Number Publication Date
JP2017037554A JP2017037554A (ja) 2017-02-16
JP2017037554A5 JP2017037554A5 (ja) 2018-09-13
JP6565465B2 true JP6565465B2 (ja) 2019-08-28

Family

ID=57994758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015159484A Active JP6565465B2 (ja) 2015-08-12 2015-08-12 画像表示装置、コンピュータープログラム、および画像表示システム

Country Status (2)

Country Link
US (1) US9864192B2 (ja)
JP (1) JP6565465B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160077166A1 (en) * 2014-09-12 2016-03-17 InvenSense, Incorporated Systems and methods for orientation prediction
JP2017182274A (ja) 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム
US10334240B2 (en) * 2016-10-28 2019-06-25 Daqri, Llc Efficient augmented reality display calibration
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
KR102551780B1 (ko) 2017-03-30 2023-07-04 매직 립, 인코포레이티드 비차단 이중 드라이버 이어폰들
CN107102735B (zh) * 2017-04-24 2018-06-19 广东虚拟现实科技有限公司 一种对齐方法及对齐装置
CN107194968B (zh) * 2017-05-18 2024-01-16 腾讯科技(上海)有限公司 图像的识别跟踪方法、装置、智能终端和可读存储介质
US10621751B2 (en) * 2017-06-16 2020-04-14 Seiko Epson Corporation Information processing device and computer program
JP6604998B2 (ja) * 2017-07-20 2019-11-13 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
US10835809B2 (en) 2017-08-26 2020-11-17 Kristina Contreras Auditorium efficient tracking in auditory augmented reality
WO2019057496A1 (de) 2017-09-25 2019-03-28 Continental Automotive Gmbh Head-up-display
GB2569785B (en) * 2017-12-20 2022-07-13 Sony Interactive Entertainment Inc Data processing
US10970425B2 (en) * 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
PT3756073T (pt) * 2018-02-23 2022-08-19 Ericsson Telefon Ab L M Coordenação de alinhamento de sistemas de coordenadas utilizados por um dispositivo de realidade gerada por computador e um dispositivo háptico
US10311833B1 (en) * 2018-03-27 2019-06-04 Seiko Epson Corporation Head-mounted display device and method of operating a display apparatus tracking an object
JP7409307B2 (ja) * 2018-07-17 2024-01-09 ソニーグループ株式会社 ヘッドマウントディスプレイ、およびヘッドマウントディスプレイの制御方法、情報処理装置、表示装置、並びに、プログラム
US11210772B2 (en) * 2019-01-11 2021-12-28 Universal City Studios Llc Wearable visualization device systems and methods
JP7095628B2 (ja) * 2019-03-07 2022-07-05 日本電信電話株式会社 座標系変換パラメータ推定装置、方法及びプログラム
JP2021051000A (ja) * 2019-09-25 2021-04-01 キヤノン株式会社 角速度検出装置、画像表示装置、角速度検出方法、及びプログラム
JP2021071672A (ja) * 2019-11-01 2021-05-06 セイコーエプソン株式会社 表示システム、表示方法、及び、表示プログラム
US11061469B2 (en) * 2019-11-20 2021-07-13 XRSpace CO., LTD. Head mounted display system and rotation center correcting method thereof
EP3832374A1 (en) * 2019-12-04 2021-06-09 XRSpace CO., LTD. Head mounted display system and rotation center correcting method thereof
CN113920189A (zh) * 2020-07-08 2022-01-11 财团法人工业技术研究院 同时追踪可移动物体与可移动相机的六自由度方位的方法与系统
GB2608186A (en) * 2021-06-25 2022-12-28 Thermoteknix Systems Ltd Augmented reality system
IL284600B2 (en) * 2021-07-04 2023-10-01 Elbit Systems Ltd System and method for non-conformal display
EP4367547A1 (en) * 2021-07-04 2024-05-15 Elbit Systems Ltd. A conformal display system and a method thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6160666A (en) * 1994-02-07 2000-12-12 I-O Display Systems Llc Personal visual display system
JP4734640B2 (ja) 2006-02-10 2011-07-27 国立大学法人岐阜大学 仮想現実画像表示装置
US8477425B2 (en) * 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
US10444845B2 (en) * 2012-12-21 2019-10-15 Qualcomm Incorporated Display of separate computer vision based pose and inertial sensor based pose
JP2015118442A (ja) * 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20170045736A1 (en) 2017-02-16
US9864192B2 (en) 2018-01-09
JP2017037554A (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
JP6565465B2 (ja) 画像表示装置、コンピュータープログラム、および画像表示システム
US9401050B2 (en) Recalibration of a flexible mixed reality device
WO2017077918A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
CN111696213B (zh) 图像生成装置、图像生成方法以及计算机可读介质
US9395543B2 (en) Wearable behavior-based vision system
US10365710B2 (en) Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration
US11127380B2 (en) Content stabilization for head-mounted displays
JP2017224984A (ja) プログラム、装置、キャリブレーション方法
US11662589B2 (en) Geometry modeling of eyewear devices with flexible frames
CN108156441A (zh) 视觉视频稳定
JP2019500660A (ja) 構造化光を用いた視線追跡
US20150097772A1 (en) Gaze Signal Based on Physical Characteristics of the Eye
CN114189789A (zh) 用于个性化声传递函数的动态确定的音频系统
JP7438188B2 (ja) ユーザ相互作用システムにおけるトーテムの融合姿勢の非融合姿勢ベースのドリフト補正
JP2018055589A (ja) プログラム、物体の追跡方法、表示装置
JP2018067115A (ja) プログラム、追跡方法、追跡装置
US11914762B2 (en) Controller position tracking using inertial measurement units and machine learning
WO2022146858A1 (en) Controller position tracking using inertial measurement units and machine learning
GB2599145A (en) Large space tracking using a wearable optics device
US20230367390A1 (en) Large space tracking using a wearable optics device
EP3975040A1 (en) Large space tracking using a wearable optics device
US11947119B2 (en) Display control device, display control method, and recording medium
US11954269B2 (en) Information processing apparatus, information processing method, and program for generating location data
JP6890524B2 (ja) 姿勢制御システム
WO2024112351A1 (en) System and method for offline calibration of a motion-tracking device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150