JPWO2012172719A1 - ヘッドマウントディスプレイおよびその位置ずれ調整方法 - Google Patents

ヘッドマウントディスプレイおよびその位置ずれ調整方法 Download PDF

Info

Publication number
JPWO2012172719A1
JPWO2012172719A1 JP2013520409A JP2013520409A JPWO2012172719A1 JP WO2012172719 A1 JPWO2012172719 A1 JP WO2012172719A1 JP 2013520409 A JP2013520409 A JP 2013520409A JP 2013520409 A JP2013520409 A JP 2013520409A JP WO2012172719 A1 JPWO2012172719 A1 JP WO2012172719A1
Authority
JP
Japan
Prior art keywords
eye
image
display
viewer
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013520409A
Other languages
English (en)
Other versions
JP5414946B2 (ja
Inventor
加藤 弓子
弓子 加藤
小澤 順
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2013520409A priority Critical patent/JP5414946B2/ja
Application granted granted Critical
Publication of JP5414946B2 publication Critical patent/JP5414946B2/ja
Publication of JPWO2012172719A1 publication Critical patent/JPWO2012172719A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

頭部からずれた状態で装着されても、立体視の異常や、視聴時の疲労あるいは映像酔いを引き起こすことが抑制されたHMD等を提供する。3次元映像を表示するディスプレイ(80)と、視聴者のディスプレイ(80)に対する目頭または目じりの位置を計測する位置取得部(100)と、その位置に関する標準位置を決定するキャリブレーションにおいて計測された目頭または目じりの位置を標準位置として取得して記憶する標準位置記憶部(50)と、新たに計測されたコンテンツ視聴中の視聴者のディスプレイに対する目頭または目じりの位置と標準位置との差を位置ずれとして検出する位置ずれ検出部(60)と、検出された位置ずれに応じてディスプレイ(80)に表示される3次元映像が回転または平行移動するように3次元映像に対する画像処理をする画像処理部(70)とを備える。

Description

本発明は、ヘッドマウントディスプレイに関し、特に、ヘッドマウントディスプレイにおける3次元映像を表示する技術、および、その位置ずれを調整する技術に関する。
頭部装着型映像表示装置、つまり、ヘッドマウントディスプレイ(Head Mounted Display;以下「HMD」とも記述する。)は、人間が直接操作することのできない危険区域での作業や、遠隔地での作業のために遠隔操作システムのディスプレイとして用いられる他、没入型のゲーム等のディスプレイに用いられてきた。没入型の場合、目の周りを覆い、頭部に固定するゴーグル型のものが提案されてきたが、機器の小型軽量化により、携帯型の映像コンテンツ観賞用としてより軽量なめがね型のものが提案されている。
一方、3次元映像は、映画のみでなく、家庭用の3次元テレビやコンピュータディスプレイの普及とともにテレビコンテンツやゲームの映像として広まりつつある。3次元映像は、右目に提示する画像と左目に提示する画像との間に視差を作ることで、視聴者に奥行きがあるように錯覚させる映像である。HMDはディスプレイを視聴者の目の至近に維持しており、左右の目に異なる画像を提示するのが容易である。そのため、3次元映像を視聴するのに向いている。
しかしながら、HMDは視聴者の頭部に固定されているため、視聴者が頭部を傾けた場合に、画面は頭部とともに傾き、画面の垂直軸と実際の視聴空間での垂直軸とがずれてしまう。そのために、前庭器官により重力加速度を感じている人間は、実際の空間の垂直軸と、画面の垂直軸ずれにより、酔ってしまうことがある。これに対して、従来、特許文献1のように、頭部の傾きをセンサで検出し、その傾きを補正するように矩形の表示領域を回転して表示することで、頭部が傾いても表示される画像の向きが水平に固定されているように視聴者に認識させることができるという技術がある。
近年はHMDも小型軽量化され、大きなゴーグル型でなく、手軽なめがね型の提案が増えている。周辺の実環境をまったく見えなくする没入型の視聴を行うゴーグル型とは異なり、シースルーレンズや、小さめのレンズ径を採用しためがね型HMDでは視聴者はHMDディスプレイ上の画像のみでなく、周辺実環境をも見ることになる。このタイプは携帯型の映像コンテンツ観賞用に適している。乗り物での移動中や歩きながらの使用が想定されている。このように頭部が動く、あるいは、振動する状態で、軽量のめがね型HMDを使用した場合、HMDと頭部との位置関係がずれる可能性がある。
HMDの装着状態により、視聴者の目の位置と画面位置との間にずれが生じる課題に対しては、特許文献2では、視聴者の視野にあわせて水平方向と垂直方向のずれを補正する技術があり、特許文献3のように、虹彩あるいは瞳孔の画像から眼球の位置を求めて水平方向と垂直方向のずれを補正する技術がある。
特開2002−14300号公報 特開2010−232718号公報 特開平7−154829号公報
しかしながら、特許文献2および特許文献3の技術では、HMDが頭部からずれた状態で装着された場合には、立体視の異常や、視聴時の疲労あるいは映像酔いを引き起こすという課題を有している。
そこで、本発明は、上記課題に鑑みてなされたものであり、頭部からずれた状態で装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されるヘッドマウントディスプレイ等を提供することを目的とする。
上記目的を達成するために、本発明に係るヘッドマウントディスプレイの一形態は、3次元映像を表示するディスプレイと、視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得部と、前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得部で計測された前記目頭または前記目じりの位置を前記標準位置として取得して記憶する標準位置記憶部と、前記位置取得部により新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出部と、前記位置ずれ検出部により位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理部とを備える。
なお、本発明は、このような構成を備えるヘッドマウントディスプレイとして実現できるだけでなく、ヘッドマウントディスプレイが備える処理部をステップとして含む、ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整(あるいは、補償)する方法として実現したり、その調整方法をコンピュータに実行させるプログラムとして実現したり、そのプログラムを記録したコンピュータ読み取り可能な非一時的なCD−ROM等の記録媒体として実現することもできる。
本発明のヘッドマウントディスプレイ(HMD)によれば、HMDの装着位置のずれに影響されることなく3次元映像を快適に視聴することができる。
よって、本発明により、頭部からずれた状態で装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されるヘッドマウントディスプレイが提供され、3次元映像が普及してきた今日における本発明の実用的価値は極めて高い。
図1は、ヘッドマウントディスプレイの装着位置のずれと3次元映像の見え方を説明する模式図である。 図2は、視聴者が頭を傾けた場合に生じる頭の縦方向のずれに対して視聴者の目が動く方向を模式的に示した図である。 図3は、右に10度回転させて表示した立体画像を正立して視聴した際の左右眼球の視点を視線検出装置によって記録した図である。 図4は、図3における視線検出装置の概略図と視線検出に用いる目の映像の例を示す図である。 図5は、本発明の実施の形態1におけるヘッドマウントディスプレイの全体構成の一例を示すブロック図である。 図6は、目頭と眼球と瞳の位置を示す図である。 図7は、同ヘッドマウントディスプレイが備える画像処理部の詳細な構成の一例を示すブロック図である。 図8は、本実施の形態1におけるヘッドマウントディスプレイの処理部をソフトウェアで実現する場合に用いられるハードウェア構成を示すブロック図である。 図9は、本発明の実施の形態1におけるヘッドマウントディスプレイの動作の一例を示すフローチャートである。 図10は、図9におけるキャリブレーションステップ(S120)の詳細な処理の流れの一例を示すフローチャートである。 図11は、目頭形状のモデルの情報の一例を示す図である。 図12は、左右のカメラの撮像範囲を示す図である。 図13は、標準位置記憶部に記憶されるデータの例を示す図である。 図14は、図9における位置ずれ計算ステップ(S150)の詳細な処理の流れの一例を示すフローチャートである。 図15は、図9における補正処理ステップ(S170)の詳細な処理の流れの一例を示すフローチャートである。 図16は、本発明の実施の形態1におけるヘッドマウントディスプレイの装着位置のずれのセンシング状態を示す模式図と装着位置のずれを座標平面状で計算する方法の一例を説明するための図である。 図17は、標準位置蓄積部に蓄積されるデータの例を示す図である。 図18は、本発明の実施の形態1における微調整(S220)の詳細な処理の流れの一例を示すフローチャートである。 図19は、目頭標準位置の周辺領域の一例を示す図である。 図20は、図9における補正処理ステップ(S170)の別の詳細な処理の流れの一例を示すフローチャートである。 図21は、図9における補正処理ステップ(S170)のさらに別の詳細な処理の流れの一例を示すフローチャートである。 図22は、本発明の実施の形態2におけるヘッドマウントディスプレイのハードウェア構成の一例を示す図である。 図23は、同ヘッドマウントディスプレイの装着状態の各種例を示す図である。 図24は、本発明の実施の形態2におけるヘッドマウントディスプレイにおいて傾いた角度を算出する方法を説明する図である。
(背景技術における課題の詳細)
本発明者は、「背景技術」の欄において記載した特許文献2および特許文献3の技術に関し、以下の問題が生じることを見出した。
しかしながら、特許文献2特許文献3の技術では、視野や眼球位置、すなわち視聴者の目の動きに合わせて画像の位置補正を行うため、視聴者が画面の端に視線を移した際には不必要に画像がずれることがある。また、視野や眼球位置からは水平と垂直の眼球の動きしか捉えることができず、視聴者の頭部の水平垂直軸と画面の水平垂直軸とがずれた状態を検出することはできない。
図1はHMDにより3次元映像を視聴する際の左右の目と画像との関係を示した図である。左欄(「正常時」)に、HMDと頭部との位置が正常な場合を示し、右欄(「装着位置ずれ時」)にHMDが頭部に対してずれている場合の例(「ディスプレイと目の位置関係」、「見え方」)を示している。図1に示される右欄の例では、HMDの右側が右目の位置に対して下がっており、かつ、左側が左目の位置に対して上がっている状態を示している。先述のとおり、3次元映像は右目に提示する画像と左目に提示する画像との間に水平方向の視差を作っているが、この視差は両眼を結ぶ直線に平行である必要がある。HMDの右目用と左目用のディスプレイが視聴者の右目と左目を結ぶ直線と平行に配置されている場合、すなわち、図1の左欄に示した「正常時」には、3次元映像の右目用画像と左目用画像との視差は正しく両眼を結ぶ直線に平行に配置される。ところが、HMDと視聴者頭部との位置関係がずれた場合、すなわち、図1の右欄に例示した「装着位置ずれ時」には、HMDが頭部からずれたことにより、左の画面はより上に提示され、右の画面はより下に提示される。左右の画面で上下位置が同じで水平方向の視差がある本来の画像は、HMDの傾きにより、視聴者からは水平方向だけでなく垂直方向にも差のある左右画像となってしまう。右目用、左目用の各画面の水平軸の傾きは先述の特許文献1の技術で画像を回転させることで解消することができるが、左右の画面の上下位置のずれは、特許文献1の技術では解消することができない。人間の眼球はもともと近くを見るときには、より目(輻輳)となり、遠くを見るときには、両目が開く(散開)。水平方向の視差に対して左右の目が互いに逆方向に動くことは自然な動作である。ところが、実世界で対象物を見る際には、左右の目が垂直方向に逆向きに動くことはない。3次元映像における垂直方向のずれは、対象物を見ようとする左右の目に垂直方向で逆向きの動きをさせる。そのために、3次元映像における垂直方向のずれは立体視の異常や、視聴時の疲労あるいは映像酔いの原因となる。すなわちHMDが頭部からずれた状態で装着された場合には、特許文献1〜3のいずれの補正を施したとしても、立体視の異常や、視聴時の疲労あるいは映像酔いを引き起こすという課題を有している。
(課題を解決するための態様)
そこで、本願発明者らは、頭部からずれた状態で装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されるヘッドマウントディスプレイ等を考案した。
つまり、本発明に係るヘッドマウントディスプレイの一形態は、3次元映像を表示するディスプレイと、視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得部と、前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得部で計測された前記目頭または前記目じりの位置を前記標準位置として取得して記憶する標準位置記憶部と、前記位置取得部により新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出部と、前記位置ずれ検出部により位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理部とを備える。
これにより、視線が移動しても、移動しない目頭または目じりとディスプレイとの相対位置により、視線にかかわり無く、目とディスプレイとの相対位置のずれが補正されるので、ヘッドマウントディスプレイの装着位置がずれた場合であっても、目とディスプレイとの相対位置のずれによる立体視の異常や疲労および映像酔いを防止することができる。
ここで、前記位置取得部は、前記視聴者の瞳と前記ディスプレイとの相対位置を計測するセンサを有し、前記ヘッドマウントディスプレイはさらに、前記センサにより計測された、前記ディスプレイに前記3次元映像を表示しない状態における、前記相対位置に基づき、前記標準位置を決定し、決定した標準位置を前記標準位置記憶部に格納するキャリブレーション部を備えるのが好ましい。これにより、視聴者が無限遠を見る場合と同等の瞳位置と画像の中心とを一致させることができ、視聴者の眼軸のずれに合わせて画像の表示位置を設定することができ、視聴者の映像視聴による疲労を軽減することができる。
また、前記画像処理部は、前記3次元映像を構成する左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。これにより、目とディスプレイとの相対位置のずれを補償して、両眼の垂直軸方向の差をなくし、両眼の水平軸上に映像作成時の両眼視差を持つ画像を表示することができる。したがって、ヘッドマウントディスプレイの装着位置がずれても、視聴者は快適に3次元映像の視聴を続けられる。
また、前記画像処理部はさらに、前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行ってもよい。これにより、目とディスプレイとの相対位置がずれた場合には、3次元映像を2次元映像に切り替えて表示することで、ヘッドマウントディスプレイの装着位置のずれによる立体視の異常や疲労、映像酔いを防ぐことができる。
また、前記位置取得部は、前記視聴者の左目と右目のそれぞれについて前記位置を計測し、前記標準位置記憶部は、前記視聴者の左目と右目のそれぞれについて前記標準位置を記憶し、前記位置ずれ検出部は、前記視聴者の左目と右目のそれぞれについて前記位置ずれを検出し、前記画像処理部は、前記位置ずれ検出部により検出された前記視聴者の左目と右目のそれぞれについての前記位置ずれのうち、ずれ量の小さい方の目用の画像に対して前記画像処理を行ってもよい。これにより、ヘッドマウントディスプレイの装着位置がずれた場合には、目とディスプレイの相対位置が、視聴者が、より見やすい相対位置であるほうの目に対応する画像を連続して見ることになり、3次元画像から2次元画像へ切り替える際の違和感を小さくすることができる。
また、前記画像処理部は、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えた場合には前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。これにより、ヘッドマウントディスプレイの装着位置のずれが大きいときには、3次元画像から2次元画像へ切り替え、装着位置のずれが小さいときには、ずれを補償する画像処理を行うことで、ヘッドマウントディスプレイの装着ずれが起こっても、ずれが大きすぎるとき以外は3次元映像を楽しむことができるとともに、装着のずれが大きすぎる時には2次元映像に切り替えて安全に映像を視聴し続けることができる。
また、前記画像処理部は、前記位置ずれ検出部により検出された位置ずれを回転と水平方向および垂直方向への移動とに分解し、前記回転の角度があらかじめ定められた値を超えた場合には前記左目用と前記右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記回転の角度があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。これにより、ヘッドマウントディスプレイの装着位置のずれが大きい、両眼の垂直ずれを起こしている場合は、3次元画像から2次元画像へ切り替え、一方、装着位置のずれが起こす両眼の垂直ずれが小さい場合は、ずれを補償する画像処理を行うことで、ヘッドマウントディスプレイの装着ずれのうち、より視聴者に負荷がかかるずれの場合以外は3次元映像を楽しむことができるともに、3次元映像の視聴により視聴者に大きな負荷がかかる場合には2次元映像に切り替えて安全に映像を視聴し続けることができる。
また、前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻を支点とする当該ヘッドマウントディスプレイの回転による位置ずれを検出し、かつ、当該ヘッドマウントディスプレイの右が下がる回転は、前記視聴者の鼻の右の凸面の一点を中心とする回転であり、ヘッドマウントディスプレイの左が下がる回転は、前記視聴者の鼻の左の凸面の一点を中心とする回転であるとして、前記位置ずれを検出してもよい。これにより、予め位置関係が分った支点を中心にHMDの位置がずれることを想定して位置ずれが検出されるので、より少ない画像の特徴量でHMDの位置ずれが検出される。
また、前記位置取得部は、前記目頭を撮像するカメラを有し、前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻の凸面の一部である支点から前記カメラの位置までの相対位置を用いて当該ヘッドマウントディスプレイの回転量を算出することで、前記位置ずれを検出してもよい。これにより、位置ずれとして、視聴者の鼻の凸面の一部である支点からカメラの位置までの相対位置を用いてHMDの回転量が算出されるので、より簡易に、HMDの位置ずれ(傾き)が検出される。
また、前記位置ずれ検出部は、前記標準位置として、前記カメラで撮像された画像の中心に近い前記目頭または前記目じりの位置を用いて前記位置ずれを検出してもよい。これにより、標準位置として、カメラで撮像された画像の中心に近い目頭または目じりの標準位置を用いて決定されるので、HMDの位置ずれがより高い精度で検出される。
以下、図面を用いて、本発明に係るヘッドマウントディスプレイおよびその位置ずれ調整方法の実施の形態について説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成する任意の構成要素として説明される。
(本発明者らが得た知見)
次に、本発明の実施の形態を詳細に説明する前に、本発明に関して発明者らが実験で得た知見について以下に説明する。
本願発明者らは、実験により、視聴者が頭を傾けて立体視を行う際に、実空間の目の動きとしてはありえない、左右反対方向の上下の動きをすることを確認した。頭部又は画像が傾き、視聴者の両眼を結ぶ線と立体画像の水平軸すなわち視差の方向にずれがある場合、視聴者の目は傾きによって生じた縦ずれを修正する方向に動く。すなわち、傾きにより下に位置する目は上向きに動き、上に位置する目は下向きに動く。
図2は視聴者が頭を傾けた場合に生じる頭の縦方向のずれに対して視聴者の目が動く方向を模式的に示した図である。図3は右に10度回転させて表示した立体画像を正立して視聴した際の左右眼球の視点を、視線検出装置によって記録した図である。図4は、その視線検出装置の概略図と視線検出に用いる目の映像の例を示す図である。
図4に示されるように、視線検出装置は、眼球に向けて近赤外線を照射し、角膜表面での反射光と瞳孔中心位置を画像処理により求め、それらの相対位置の関係を利用することで、視線を検出する装置である。視線位置が変わると反射光の位置は変わらないが、瞳孔中心位置が変わる。この両者の相対位置関係の変化を利用して、本実験では、左右の視線を独立に検出した。図3には、画像の傾きがなく、視聴者の両眼を結ぶ線と立体画像の水平軸すなわち視差の方向が一致している際の水平方向の視線の動きを示すグラフ(図3の(a))と、垂直方向の視線の動きを示すグラフ(図3の(b))と、画像が視聴者から見て右周りに10度回転し、視聴者の両眼を結ぶ線と立体画像の水平軸が10度ずれた条件での水平方向の視線の動きを示すグラフ(図3の(c))と、垂直方向の視線の動きを示すグラフ(図3の(d))が示されている。図3における縦軸はディスプレイ上の位置に換算された視線の相対移動量であり、図4に示されるディスプレイの表示サイズを1とする移動量である。すなわち、水平方向の移動量はディスプレイの横幅を1とした比で表され、垂直方向の移動量はディスプレイの高さを1とした比で表される。また、何も出力されていない暗い画面を見ている状態(ターゲットなし)での視線位置の平均を0とする。図3の(a)と図3の(c)においては、左方向への移動が負の値、右方向への移動が正の値として示されている。図3の(b)と図3の(d)においては、上方向への移動が負の値、下方向への移動が正の値として示されている。横軸は時間を表しており、単位は秒である。約17msごとに測定された左目の視線を○で示し、右目の視線を×で示している。
本実験では、データは40代女性を被験者として得られたデータである。ディスプレイは視聴者顔面から90cmの位置に配置した。図4に示されるように、黒の背景に白抜きの十字図形をターゲットとして提示した。ターゲットは視聴者正面に提示され、立体画像として、図形の奥行きがディスプレイ面より奥30cm、10cm、ディスプレイ面より手前10cm、30cm、50cm、70cmとなるように視差を調節した。ターゲットなしの画面を5秒提示した後、上記の順で各奥行き設定の画面を5秒ずつ提示した。図3の(a)では、ディスプレイより奥のターゲットに対しては右目が右(負側)を、左目が左(正側)を見ており、ディスプレイより手前のターゲットに対しては右目が左(負側)を、左目が右(正側)を見ている。図3の(b)では、ターゲットが提示されている間は、奥行きにかかわらず両眼の垂直方向の位置は一定である。画面の水平軸と視聴者の両眼を結んだ線とが平行でない場合は、図3の(c)に示した水平方向の視線は、図3の(a)の傾きがない場合に比べて移動量が減っている。図3の(d)に示した垂直方向の視線はディスプレイより奥ではわずかに右目が下(正側)を、左目が上(負側)を見ており、ディスプレイより手前では右目が上を、左目が下を見ている。ただしディスプレイの手前70cmでは左目の視線は右目と同様の位置を見ている。これはディスプレイの手前70cmの条件では左右画像の融像ができなかった(視聴者内観報告)ことと合致している。この実験により、ディスプレイ位置がずれる等、画面の水平軸と視聴者の両眼を結んだ線とが平行でない場合には、実空間あるいは平面画像を見る際には起こらない上下逆向きの目の動きが起こることが示された。これにより、HMDの装着位置がずれた状態で立体画像を視聴することの視聴者の負荷が非常に高いことが示された。
次に、本発明に係るヘッドマウントディスプレイおよびその位置ずれ調整方法について、図面を参照しながら詳細に説明する。
(実施の形態1)
まず、本発明の実施の形態1におけるヘッドマウントディスプレイおよびその位置ずれ調整方法について説明する。
図5は、本実施の形態によるヘッドマウントディスプレイ1の構成図である。
このヘッドマウントディスプレイ1は、頭部からずれて装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されたHMDであり、視聴者からの操作指示を受け取る入力部110と、視聴者の目頭と瞳の位置を取得する位置取得部100と、位置取得部100で検出された目頭と瞳の位置から瞳と目頭の標準位置を取得する眼球位置キャリブレーション部40と、眼球位置キャリブレーション部40で計算された瞳と目頭の標準位置とを記憶する標準位置記憶部50と、標準位置記憶部50に記憶された瞳と目頭の標準位置とカメラ10で新たに撮像された画像から目頭検出部30で検出された目頭位置とのずれを検出する位置ずれ検出部60と、画像を記憶する、あるいは、画像情報を通信路で受信する画像記憶・受信部120と、位置ずれ検出部60で検出された位置ずれに対応して、HMDの右目用と左目用のディスプレイに表示する画像(画像記憶・受信部120から取得した画像)を回転および垂直方向と水平方向に移動する画像処理部70と、左右それぞれの画像を表示するディスプレイ80とを備えている。
ここで、目に関する用語の意味を明確にしておくために、図6に、目頭と眼球と瞳の位置を示す。目頭の位置は目頭の上まぶたと下まぶたがつながる接合部分の点であり、瞳は眼球中の黒目の中心である。
入力部110は、視聴者からの操作指示を受け取るスイッチまたはダイヤル等の入力機器であり、このヘッドマウントディスプレイ1の動作を開始/終了させる指示等を視聴者から受け付ける。
位置取得部100は、視聴者のディスプレイ80に対する目頭または目じりの位置を計測する処理部であり、目頭と眼球を撮像するカメラ10と、カメラ10で撮像された画像から瞳を検出する瞳検出部20と、カメラ10で撮像された画像から目頭を検出する目頭検出部30とから成る。
カメラ10は、視聴者の瞳とディスプレイ80との相対位置を計測するセンサの一例(デジタルカメラ等の撮像装置)であり、ここでは、スイッチやダイヤル等の入力部110による視聴者の操作に基づく制御信号を受付、表示開始、表示終了、表示切替等の制御信号入力のタイミングを0時点として、一定時間間隔たとえば10msごとに撮像を反復する。カメラ10は可視光により撮像を行うものであっても、赤外線発光部を伴い、赤外線による撮像を行うものであっても良い。
眼球位置キャリブレーション部40は、ディスプレイ80に3次元映像を表示しない状態(つまり、視聴者が見るものが何もない状態)において位置取得部100によって取得された視聴者の瞳とディスプレイとの相対位置に基づき、視聴者の目頭または目じりの標準位置を決定し、決定した標準位置を標準位置記憶部50に格納する処理部であり、ここでは、位置取得部100で検出された目頭と瞳の位置から瞳と目頭の標準位置を算出する。なお、「標準位置」とは、視聴者がヘッドマウントディスプレイ1をずれなく装着したときにおける、ヘッドマウントディスプレイ1(あるいは、ディスプレイ80)に対する、視聴者の目頭および目じりの少なくとも一方の位置を意味し、本実施の形態では、視聴者がヘッドマウントディスプレイ1を装着した状態で行うキャリブレーションにおける視聴者の目頭および目じりの少なくとも一方の位置である。
標準位置記憶部50は、眼球位置キャリブレーション部40によるキャリブレーションにおいて位置取得部100で計測された視聴者の目頭または目じりの位置を標準位置として取得して記憶するハードディスク等であり、ここでは、眼球位置キャリブレーション部40によって算出された標準位置を保持する。
位置ずれ検出部60は、位置取得部100により新たに計測されたコンテンツ視聴中の視聴者のディスプレイ80に対する目頭または目じりの位置と、位置記憶部に記憶された視聴者の標準位置との差を位置ずれとして検出する処理部である。
画像記憶・受信部120は、視聴者に提示する3次元映像を予め保存しているハードディスク等のメモリ、あるいは、無線等の通信路を介して外部から3次元映像を受信する通信インターフェイスである。
画像処理部70は、位置ずれ検出部60により位置ずれが検出された際に、検出された位置ずれに応じてディスプレイ80に表示される3次元映像(つまり、画像記憶・受信部120から送られてくる3次元映像)が回転または平行移動するように、その3次元映像に対する画像処理をする処理部であり、画像を記憶するあるいは画像情報を受信する、画像記憶・受信部120からの入力を受け、入力された画像の処理を行う。
より具体的には、画像処理部70は、視聴者に提示する3次元映像を構成する左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ったり、その左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示されるための画像処理(2次元化処理)を行ったりする。つまり、この画像処理部70は、位置ずれ検出部60により検出された位置ずれの量があらかじめ定められた値を超えた場合は、視聴者に提示する3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示させるための画像処理を行い、一方、位置ずれ検出部60により検出された位置ずれの量があらかじめ定められた値を超えない場合は、左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う。
また、ディスプレイ80は、3次元映像を表示するLCD等であり、スイッチやダイヤル等の入力部110による視聴者の操作に基づく制御信号を受付け、表示開始、表示終了、表示切替等を行う。
なお、図5において、点線枠で囲まれた構成要素(眼球位置キャリブレーション部40、入力部110、画像記憶・受信部120)は、本発明に係るヘッドマウントディスプレイ1として必須ではない。つまり、ヘッドマウントディスプレイ1として、3次元映像を表示するディスプレイ80と、視聴者のディスプレイ80に対する目頭または目じりの位置を計測する位置取得部100と、その位置に関する標準位置を決定するキャリブレーションにおいて計測された目頭または目じりの位置を標準位置として取得して記憶する標準位置記憶部50と、新たに計測されたコンテンツ視聴中の視聴者のディスプレイ80に対する目頭または目じりの位置と標準位置との差を位置ずれとして検出する位置ずれ検出部60と、検出された位置ずれに応じてディスプレイ80に表示される3次元映像が回転または平行移動するように3次元映像に対する画像処理をする画像処理部70とを備えることで、視聴者の視線が移動したとしても、移動しない目頭または目じりとディスプレイ80との相対位置により、視線にかかわり無く、目とディスプレイ80との相対位置のずれが補正されるので、目とディスプレイ80との相対位置のずれによる立体視の異常や疲労および映像酔いが防止されるからである。
また、カメラ10とディスプレイ80は、いずれも、右目用と左目用の2つを備える。左右の区別をして説明する際には、左目用カメラ10をカメラ10L、右目用カメラ10をカメラ10R、左目用ディスプレイ80をディスプレイ80L、右目用ディスプレイ80をディスプレイ80Rと表記して区別する。
また、瞳検出部20、目頭検出部30、眼球位置キャリブレーション部40、位置ずれ検出部60、画像処理部70は、例えば、1つ以上のCPUと1つ以上のメモリとそのCPUによって実行されるプログラムによって実現される。また、標準位置記憶部50は、1つ以上のメモリによって実現される。
図7は本実施の形態における画像処理部70の詳細な構成図である。
画像処理部70は、判定部71、回転計算部72、画像記憶部73、回転処理部74、平行移動計算部75、平行移動処理部76、左右画像制御部77よりなる。
判定部71は、位置ずれ検出部60が計算した現在の目頭の位置と目頭標準位置との距離と、あらかじめ定められた基準値とを比較する。
回転計算部72は、判定部71での判定において、現在の目頭の位置と目頭標準位置との距離が基準値より小さいと判定された場合に、HMD1の装着位置のずれによるディスプレイ80と視聴者の目との位置のずれを示す座標変換のうち、回転による部分を算出する。
平行移動計算部75は、判定部71での判定において、現在の目頭の位置と目頭標準位置との距離が基準値より小さいと判定された場合に、ヘッドマウントディスプレイ1の装着位置のずれによるディスプレイ80と視聴者の目との位置のずれを示す座標変換のうち、平行移動による部分を算出する。
画像記憶部73は、ディスプレイ80に表示する3次元映像を一時的に記憶するバッファメモリである。
回転処理部74は、画像記憶部73に記憶された3次元映像に対して、回転計算部72で得られた回転を施す。
平行移動処理部76は、画像記憶部73に記憶された3次元映像に対して、平行移動計算部75で得られた平行移動を施す。
左右画像制御部77は、画像記憶部73に記憶された3次元映像に対して、その3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示されるための画像処理を行う。例えば、左目用画像を右目用画像に入れ替える。
なお、画像記憶部73は1つ以上のメモリにより実現され、判定部71、回転計算部72、回転処理部74、平行移動計算部75、平行移動処理部76、左右画像制御部77は1つ以上のCPUと1つ以上のメモリとそのCPUによって実行されるプログラムによって実現される。
図8は、本実施の形態におけるヘッドマウントディスプレイ1の処理部をソフトウェアで実現する場合に用いられるハードウェア構成を示すブロック図である。本実施の形態におけるヘッドマウントディスプレイ1の処理部をソフトウェア的で実現する場合には、図8に示されるように、キーボード、マウス等の入力部211、ハードディスク等の記憶部212と、ディスプレイ装置等の出力部213、CPU214、ROM215、RAM216、および、外部機器との間で信号の入出力をする入出力I/F217で構成されるコンピュータ220によって本実施の形態におけるヘッドマウントディスプレイ1を実現することができる。つまり、図5における入力部110は主にコンピュータ220が備える入力部211で実現され、図5におけるディスプレイ80は主にコンピュータ220が備える出力部213で実現され、図5における画像記憶・受信部120は主にコンピュータ220が備える記憶部212または入出力I/F217で実現され、図5における標準位置記憶部50は主にコンピュータ220が備える記憶部212で実現され、他の処理部(瞳検出部20、目頭検出部30、眼球位置キャリブレーション部40、位置ずれ検出部60、画像処理部70)は、コンピュータ220が備えるROM215または記憶部212に格納されたプログラムに従ってRAM216を一時的な記憶エリアとして利用しながらCPU214が実行することによって実現される。
図9は、以上のように構成された本実施の形態のヘッドマウントディスプレイ1の処理手順を示すフローチャート、つまり、本発明に係るヘッドマウントディスプレイ1の位置ずれを調整する方法を示す図である。図10、図14、図15は、ヘッドマウントディスプレイ1の処理手順(図9のフローチャート)の一部を詳細に示した図である。以下処理手順を図9、図10、図14、図15に従って説明する。
まず、視聴者がHMD1を装着し、入力部110を用いて視聴開始を指示する入力を行う(S110)。視聴開始入力の直後には、眼球位置キャリブレーション部40は、ディスプレイ80に表示のない状態で瞳と目頭を検出して、瞳と目頭の相対位置を標準位置として決定するキャリブレーションを行う(S120)。キャリブレーションの詳細な手順については後述する。
S120でキャリブレーションを行った後に、視聴者は入力部110で指示すること等によって映像コンテンツの視聴を行う(S130)。映像コンテンツの視聴時には、まず、カメラ10は入力部110から3次元視聴終了を指示する制御信号が入力されたか否かを判断する(S140)。3次元視聴終了を指示する制御信号が入力された場合は(S140でYes)、HMD1は、動作を終了する(S190)。3次元視聴終了を指示する制御信号が入力されていない場合には(S140でNo)、目頭検出部30は、視聴中の視聴者の目をカメラ10で撮影しながら前記視聴者の目頭の位置を検出する。位置ずれ検出部60は、標準位置記憶部50に記憶された目頭の標準位置と目頭検出部30で検出した目頭の位置とのずれを計算する(S150)。
そして、位置ずれ検出部60は、S150で計算された位置ずれがあらかじめ定められた許容範囲を超えた位置ずれであるか否かを検出する(S160)。位置ずれの許容範囲は、例えば、両目の位置ずれを合計して2mmとする。
その結果、目頭の標準位置とカメラ10で撮像された目頭の位置との間にずれがあった(位置ずれが許容範囲を超えていた)場合(S160でYes)、画像処理部70で目頭位置のずれに応じて画面を回転させ、さらに水平移動させる処理を行う(S170)。一方、目頭の標準位置とカメラ10で撮像された目頭の位置との間にずれがなかった場合(S160でNo)、画像処理部70は入力された画像に対して処理を加えずにディスプレイ80に画像を出力する(S180)。なお、以上のような映像コンテンツ視聴の間(S130)、ステップS140からS180が繰り返される。
以上のように、本実施の形態におけるヘッドマウントディスプレイ1の位置ずれ調整方法は、ヘッドマウントディスプレイ1に表示される3次元映像の位置ずれを調整する調整方法であって、主要なステップとして、3次元映像をディスプレイ80に表示する表示ステップ(S180等)と、視聴者のディスプレイ80に対する目頭または目じりの位置を計測する位置取得ステップ(S120、S150等)と、その位置に関する標準位置を決定するためのキャリブレーションにおいて位置取得ステップで計測された目頭または目じりの位置を標準位置として標準位置記憶部50に格納する標準位置記憶ステップ(S120)と、位置取得ステップにより新たに計測されたコンテンツ視聴中の視聴者のディスプレイ80に対する目頭または目じりの位置と標準位置との差を位置ずれとして検出する位置ずれ検出ステップ(S150、S160)と、位置ずれ検出ステップにより位置ずれが検出された際に(S160でYes)、検出された位置ずれに応じてディスプレイ80に表示される3次元映像が回転または平行移動するように、3次元映像に対する画像処理をする画像処理ステップ(S180)とを含む。
これにより、本実施の形態におけるヘッドマウントディスプレイ1の位置ずれ調整方法によれば、視聴者の視線が移動したとしても、移動しない目頭または目じりとディスプレイ80との相対位置により、視線にかかわり無く、目とディスプレイ80との相対位置のずれが補正されるので、目とディスプレイ80との相対位置のずれによる立体視の異常や疲労および映像酔いが防止される。
ここで、図10に従って、図9に示されるS120のキャリブレーションの手順の詳細を説明する。
まず、キャリブレーションの最初にディスプレイ80に何も表示しない状態で(S121)、カメラ10により、視聴者の目全体を含む範囲を撮像する(S122)。瞳検出部20と目頭検出部30は、S122で撮像した画像より、それぞれ瞳がある部分と目頭がある部分とを切り出す(S123)。例えば、図6に示されるように、瞳検出部20はS122で撮像した目を含む画像を縦に3分割した中央の1/3を瞳用に切り出し、目頭検出部30はS122で撮像した鼻側の1/3を目頭認識用に切り出す。
続いて、目頭検出部30は目頭に特徴的な上瞼と下瞼とがなす形を認識する(S124)。認識の方法は、例えば、典型的な目頭形状のモデルを複数保持し、画像中の形とモデルとを照合する方法である。目頭形状のモデルの情報としては、例えば、図11に示されるように、「モデルID」と、類似したモデルをまとめた「類型」と、モデル図形とモデル図形における目頭位置の情報(図中における「モデル」)を保持する。目頭検出部30は、合致したモデル上の目頭位置より画像中の目頭位置を決定する。モデルは図形としてではなく、線分の傾きや角度といった特徴量によって記述しても良い。
眼球位置キャリブレーション部40は画像で認識した目頭の座標上の位置を決定する(S125)。位置は、例えば、左右のディスプレイを結ぶ線をx軸とし、それに直行する方向をy軸とする座標平面であらわす。
x軸の0点を、例えば、カメラ10Lとカメラ10Rの撮像範囲の中間点とする。y軸の0点を、例えば、カメラ10の上下方向の中心とする。図12においては、x軸の0点はカメラ10Lとカメラ10Rのどちらの撮像範囲からも外れた位置にある。座標系はカメラ10Lとカメラ10Rの撮像範囲の実際の位置関係を反映するように設定される。カメラ10Lとカメラ10Rの撮像範囲が重なる場合には、x軸の0点は両撮像範囲に含まれることになる。瞳検出部20は、ステップS124での処理(目頭認識)と並行して、あるいは、順次に、S123で切り出した中央の1/3の画像から楕円形で周辺より色の濃い部分を特定し、瞳を認識する(S126)。瞳については、虹彩の色が濃い場合は虹彩の輪郭を認識し、虹彩の色が薄い場合は瞳孔の輪郭を認識する。そして、眼球位置キャリブレーション部40は瞳として認識された虹彩または瞳孔の楕円の中心を瞳の位置として決定する(S127)。位置は目頭と同一座標平面で表す。
さらに、眼球位置キャリブレーション部40は、標準の画像表示位置を決定する(S128)。画像表示位置は、ディスプレイ80LについてはS127で決定された左の瞳位置の正面を画像中心位置とし、ディスプレイ80RついてはS127で決定された右の瞳位置の正面を画像中心位置とする。そして、標準位置記憶部50はS125で眼球位置キャリブレーション部40が決定した左右の目頭位置を記憶する(S129)。ここで、標準位置記憶部50に記憶されるデータは、例えば図13のように、左右の目頭の標準位置を2次元座標で表したデータである。
このように、何も表示されていない、暗いディスプレイ80を見ている状態で瞳の位置を特定することで、無限遠を見た際の瞳位置を特定し、標準位置として、画像表示の中心とすることができる。映像観賞中の瞳の位置は視線によって移動するが、目頭の位置は映像観賞中も移動しない。目頭の標準位置を設定することで、映像観賞中でも無限遠を見た場合の瞳位置を相対的に求めることができる。また、何も表示されていない、暗いディスプレイ80を見ている状態で瞳の位置を特定することで、斜視や斜位等の左右の眼球の向きにずれのある、あるいは、ずれが起こる視聴者に対して、注視点があるときの負荷のかかった眼球の向きではなく、最も負荷のかからない眼球の向きに対して左右それぞれの眼球の正面に画像を提示することができ、視聴者が注視するための眼球への負荷の少ない画像の提示ができる。
また、瞳位置の情報は、標準位置における画像の提示位置を決定するためにのみ利用する。映像視聴中の瞳は、視聴者が画像のどこを見ているかによって移動する。例えば画像の中心でなく、右端を見ている場合には、瞳は目の中で右端へ寄る。そのため、映像視聴中の瞳位置は必ずしも画像の中心位置の指標としてふさわしくない。そこで、本実施の形態では、ステップS120のキャリブレーションで標準位置を定める際にのみ瞳位置を用い、以降は目頭の位置を用いてHMDのずれに対応する画像提示位置を調整する。
次に、図9に示されるS150の目頭の位置ずれを計算する手順の詳細を図14のフローチャートに従って説明する。
まず、カメラ10により視聴者の目全体を含む範囲を撮像する(S151)。目頭検出部30は、S151で撮像した画像より、目頭がある部分を切り出す(S152)。画像の切り出しは、例えば、S120のキャリブレーションにおけるS123の切り出しと同様に画像の鼻側1/3を切り出すものとする。そして、目頭検出部30は目頭に特徴的な上瞼と下瞼とがなす形を認識する(S153)。ここで、認識の方法は、例えば、S124と同様にモデルとの照合を行うものとする。S124で複数のモデルから特定のモデルにより目頭が特定された場合、目頭検出部30はS124で特定されたモデルを記憶しておき、S153で目頭の認識を行う際には、記憶されたS124で特定されたモデルのみあるいは当該のモデルとそれに類似したモデルのみを用いて目頭の認識を行うことで、処理時間を短縮することができる。類似したモデルを用いる場合、例えば、図11に示したモデルの類型に従い、S124で特定されたモデルと同じ類型のモデルのみを認識に用いる。
続いて、位置ずれ検出部60は画像中に認識した目頭の位置を決定する(S154)。この位置については、S125でキャリブレーション時の目頭位置を決定した座標軸上で決定する。さらに、位置ずれ検出部60は、S129で標準位置記憶部50に記憶された目頭標準位置とS154で決定した目頭の位置との距離を計算し(S155)、S160で位置ずれ検出を行う。
次に、図9に示されるS170の補正処理の手順を図15のフローチャートに従って詳細に説明する。
まず、判定部71は、S155で位置ずれ検出部が計算した現在の目頭の位置と目頭標準位置との距離と、あらかじめ定められた基準値とを比較する(S171)。ここで、基準値は、例えば、30mmとし、現在の目頭の位置と目頭標準位置との距離が基準値以上の場合、すなわち、図15のS171ではNoの場合、左右画像制御部77は、左目用の画像を右目用の画像に入れ替える(S172)。すなわち、両目に同一の画像を提示することで、3次元ではなく2次元の映像として表示する。
S171において現在の目頭の位置と目頭標準位置との距離が基準値より小さい場合、すなわち図15のS171ではYesの場合、平行移動計算部75および回転計算部72は、HMD1の装着位置のずれによるディスプレイ80と視聴者の目との位置のずれを座標変換として求め、回転処理部74および平行移動処理部76は、その座標変換を補償する画像の表示位置の座標変換を行う。
図16はディスプレイ80と視聴者の目との位置のずれの一例と、ずれを座標変換として計算する過程を模式的に示した図である。図16の(a)は映像の視聴中にカメラ10で撮像された眼球を実線で示し、S120で行ったキャリブレーションの際にカメラ10Lで撮像された状態を点線で示している。左側が右目用カメラ10Rの画像を示し、右側が左目用カメラ10Lの画像を示す。
映像視聴中瞳の位置は視聴者の注視点によって移動する。注視点が画像の端にある場合、瞳位置はディスプレイ80と目との位置にずれがなくてもS120のキャリブレーション時の標準瞳位置から大きく外れる。一方、目頭は注視点が移動しても固定されており、ディスプレイ80と目との相対位置をより正確に捉えることができる。そこで、ディスプレイ80と目との相対位置のずれを補正するため、画像処理部70により、目頭標準位置と目頭の現在位置のずれを補償する画像変換処理を行う。
ここで、右目目頭と左目目頭の相対位置には変化がないため、右目目頭標準位置から右目目頭現在位置への移動と左目目頭標準位置から左目目頭現在位置への移動を実現する座標変換はアフィン変換に当たる。2次元のアフィン変換は回転と平行移動によって表現できることが知られている。従って、2次元のアフィン変換は、以下の式1のように記述できる。
Figure 2012172719
ただし(xp、yp)は変換後の座標、(xs、ys)は変換前の座標を示し、行列
Figure 2012172719
は座標の回転を示し、
Figure 2012172719
は平行移動を示す。
図16の(a)に示される例では、S120のキャリブレーションで得られた左右の目頭の座標を変換前の座標とし、S154で決定された現在の左右の目頭の位置を変換後の座標として上記の式を解き、変換行列
Figure 2012172719
と変換ベクトル
Figure 2012172719
とを得る。変換行列と変換ベクトルは、S120のキャリブレーション時に設定した画像の中心と瞳の位置の相対位置が、現在どのようにずれたかを示すベクトルである。従って、得られた変換行列と変換ベクトルの逆行列を用いて画像を処理することにより、現在の瞳の位置の正面に画像中心点が位置するように画像を変換することができる。
実際の計算方法の一例として、ここでは、幾何的に回転と平行移動を求める方法を図16の(b)に従って説明する。
左右の目頭の標準位置から左右の目頭の現在位置への変換は、右目または左目の目頭標準位置を中心として、左右の目頭標準位置を結ぶ線分と、左右の目頭現在位置を結ぶ線分とがなす角度θで回転し、回転中心とした側の目頭の標準位置から現在位置へのベクトルを移動ベクトルとして平行移動することで実現できる。ここでは、右目頭標準位置を回転中心として変換行列を求める場合を例に説明する。
まず、回転計算部72は左右の目頭標準位置を結ぶ線分と、左右の目頭現在位置を結ぶ線分とがなす角度θを求め、−θを画像の回転角度として算出する(S173)。左右の目頭標準位置を結ぶ線分と座標のx軸とがなす角をθs、左右の目頭現在位置を結ぶ線分と座標のx軸とがなす角をθpとすると、回転計算部72は、以下の式2ように、θおよび−θを求めることができる。
Figure 2012172719
ただし、左目頭標準位置を(xls,yls)、右目頭標準位置を(xrs,yrs)、左目頭現在位置を(xlp,ylp)、右目頭現在位置を(xrp,yrp)とする。
次に、平行移動計算部75は、図16の(b)の右目頭標準位置を始点とし右目頭現在位置を終点とする移動ベクトルDを求め、ベクトル−Dを画像の移動ベクトルとする(S174)。その移動ベクトルDは以下の式3となる。
Figure 2012172719
続いて、回転処理部74は画像記憶部73に記憶された視聴中の映像に含まれる左右の画像をS173で求められた−θだけ回転する(S175)。各点の座標の変換は以下の式4で示される変換行列によって行われる。
Figure 2012172719
次いで、平行移動処理部76はS175で回転された左右の画像を−Dだけ移動する(S176)。各点の座標の移動はx座標に(−xrp+xrs)を加算し、y座標に(−yrp+yrs)を加算することで行う。
以上のように、本実施の形態におけるHMD1は、視聴者の目とディスプレイ80との初期位置を決定し、その位置のずれを検出するためのカメラ10と眼球位置キャリブレーション部40と位置ずれ検出部60と画像処理部70を備え、HMD装着当初に表示のない暗いディスプレイ80を見たときの瞳位置と目頭位置を標準位置として記憶し、映像視聴中は、逐次目頭の位置の標準位置からのずれを検出する。目頭の位置が標準位置からずれている場合には、目頭のずれを補償する画像提示位置および角度の変換を行って表示する。このように動作するHMD1では、何も表示されていない、暗いディスプレイ80を見ている状態で瞳の位置を特定することで、無限遠を見た際の瞳位置を特定し、画像表示の中心を決める。
さらに、本実施の形態におけるHMD1では、映像観賞中も移動しない目頭の位置を基準にしてHMDの装着位置ずれによるディスプレイ80と目の位置のずれを補償することで左右の目に対して上下方向のずれの無い、正しい視差の画像を表示することができる。これにより3次元映像視聴時の立体視の異常や、3次元映像の視聴による違和感、疲労、不快感を低減することができる。また、何も表示されていない、暗いディスプレイ80を見ている状態で左右の瞳の位置を独立に特定することで、斜視等の左右の眼球の向きにずれのある視聴者の疲労を低減することができる。
つまり、本実施の形態におけるHMD1によれば、視聴者の視線が移動したとしても、移動しない目頭または目じりとディスプレイ80との相対位置により、視線にかかわり無く、目とディスプレイ80との相対位置のずれが補正されるので、HMD1の装着位置がずれても、目とディスプレイ80との相対位置のずれによる立体視の異常や疲労および映像酔いが防止される。
なお、本実施の形態では視聴開始直後にS121で暗画面を表示し、S122で目全体を撮像し、S123で大まかに画像を切り出してS124の目頭認識、S126の瞳認識の動作を行うとしたが、S190の視聴終了時に瞳標準位置と目頭標準位置および目頭認識の適用モデルを図17に示す、不揮発性のメモリである標準位置蓄積部130に記憶し、次回の視聴開始時には暗画面表示によるキャリブレーションを行わず、直前の標準位置の微調整のみを行うとしても良い。この場合は、ステップS129で目頭標準位置を標準位置記憶部50に記憶する際に、ステップS127で決定した瞳位置の座標も標準位置記憶部50に記憶する。標準位置蓄積部130は、データとして、たとえば視聴終了時の左右の目頭標準位置と左右の瞳標準位置と目頭の検出に用いられた適用モデルのIDと視聴終了時の日時を蓄積する。次回視聴開始時には直近のデータを呼び出して利用する他、次回視聴開始時に蓄積された日時をディスプレイ80に表示し、視聴者は表示された日時から自分のデータを選択しても良い。データに視聴者を識別する個人IDを入力蓄積するものとして、個人IDにより視聴者本人がデータを選択しても良い。また、次回視聴開始時に、これまで当該のHMDを利用したことのない視聴者である場合には、キャリブレーションを行うため入力を入力部110から入力する。
標準位置の微調整は、例えば、図18に示すとおり、S110の視聴開始の後に置かれるステップS220である微調整を行う。S220の微調整は以下の動作である。
まず、カメラ10により目全体を撮像する(S122)。次に、眼球位置キャリブレーション部40は、標準位置蓄積部130に記憶された直前使用時の瞳標準位置と目頭標準位置および目頭認識の適用モデルを呼び出す(S221)。目頭検出部30はS221で呼び出した直前の視聴時の目頭標準位置の周辺領域のみを切り出す(S223)。周辺領域は、図19に示すように、例えば、S221で呼び出した目頭標準位置のx軸上の位置からx軸上で±5mmの範囲とする。
さらに、目頭検出部30はS221で呼び出した直前使用時の目頭認識の適用モデルとの照合によりS223で切り出した直前使用時の目頭標準位置の周辺領域内で目頭の認識を行う(S224)。
次に、眼球位置キャリブレーション部40は画像中に認識した目頭の位置を決定する(S125)。続いて、眼球位置キャリブレーション部40は瞳位置を決定する(S227)。ここで、瞳位置は瞳を認識することなく、以下の手順で決定する。まず、S221で呼び出した直前使用時の目頭標準位置からS224で認識し、S125で決定された目頭位置への移動ベクトルを左右の目頭それぞれについて求める。次いで、S221で呼び出した直前使用時の左右の瞳標準位置の座標を、左右それぞれ求めた移動ベクトルにしたがって変換する。変換した座標を左右それぞれの瞳の位置として決定する。
以降本実施の形態と同様に眼球位置キャリブレーション部40が画像表示位置を決定し(S128)、標準位置記憶部50はS125で眼球位置キャリブレーション部40が決定した左右の目頭位置を記憶する(S129)。さらに標準位置記憶部50はS227で眼球位置キャリブレーション部40が決定した左右の瞳の位置を記憶する(S131)。これにより、HMD1のユーザが固定の場合には、初回使用時にキャリブレーションすれば、その後の使用時のキャリブレーションは微調整のみとなり、視聴開始時に暗画面表示を見る手間を省くことができる。さらにキャリブレーションの時間も短縮することができ、視聴者が視聴開始入力してからコンテンツ映像を視聴するまでの時間を短縮することができる。また、不揮発性のメモリに複数ユーザの直前使用時の情報を記憶する。ユーザは視聴開始時に、開始信号とともにユーザを指定する信号を入力する。入力部は、例えば、ダイヤルやスイッチ、タッチパネルなどである。S110の視聴開始時に視聴開始信号とともにユーザを特定する信号を受け付け、S221で特定されたユーザの直前使用時の情報を読み出すことで、複数のユーザに対応することもできる。
また、本実施の形態では、S172において左右両方のディスプレイに左目用画像を表示することで3次元映像を2次元映像に切り替えたが、両方のディスプレイに右目用画像を表示しても良い。また、瞳の位置とディスプレイの中心位置との距離が短い側の画像を両側のディスプレイに表示することで、3次元映像を2次元映像に切り替えても良い。
例えば、図9におけるS170の詳細を示す別のフローチャート(図20)のように、S173の回転角度の計算とS174の移動ベクトルの計算の後、目頭位置のずれ量が基準値を超えないかを判断する(S271)。その結果、ずれ量が基準値以上の場合、すなわちS271でNoの場合に、左右画像制御部77は標準位置記憶部50に記憶された左右の瞳標準位置の座標をS173とS174で決定された回転θと平行移動Dに基づいて変換し、現在の無限遠を見た場合の瞳の位置を求める。さらに、左右画像制御部77は瞳標準位置の変換座標、すなわち現在の無限遠を見た場合の瞳の位置と、現在のディスプレイ中心との距離を求める(S272)。基準値は、例えば、両目のずれ量の合計が6.5mmとする。3次元映像を作成する際に一般的に用いられる左右の瞳孔間の距離が6.5cmであり、6.5mmはその10%である。左右画像制御部77はS272で求めた距離を左右のディスプレイについて比較する(S273)。右側の瞳とディスプレイの距離が左側より大きい場合、すなわちS273でYesの場合には、左右画像制御部77は左目用画像を右目用画像に入れ替える(S274)。すなわち、右目用画像として左目用画像を利用して、左右両方の目に左目用画像を提示することになる。S273において左側の瞳とディスプレイの距離が右側より大きい場合、すなわちS273でNoの場合には、左右画像制御部77は右目用画像を左画像に入れ替える(S275)。すなわち、左右両方の目に右目用画像を提示することになる。このように、2次元化処理では、画像処理部70は、位置ずれ検出部60により検出された視聴者の左目と右目のそれぞれについての位置ずれのうち、ずれ量の大きい方の目用の画像に対して画像処理を行う。
これにより、3次元映像を2次元映像に切り替えた際により映像が見やすい状態の目に合わせた2次元映像を表示することができる。この処理を行う場合、ステップS120でキャリブレーションを行う際に、標準位置記憶部50はS125で決定した目頭標準位置のみでなく、S127で決定した瞳標準位置をも記憶する。
また、本実施の形態では、S171でキャリブレーション時の目とディスプレイ80の相対位置に対して現在の目とディスプレイ80の相対位置のずれの量が基準値以上か否かを判断して、3次元画像表示のための補正を行うか、3次元画像から2次元画像への切り替えを行うかを決定しているが、ずれ量で判断せず、回転計算部72でずれを回転と移動とに分解した際の回転角を求め、回転角の大きさがあらかじめ定められた基準値以上である場合には3次元画像から2次元画像への切り替えを行うとしても良い。
つまり、画像処理部70は、位置ずれ検出部60により検出された位置ずれを回転と水平方向および垂直方向への移動とに分解し、分解された回転の角度があらかじめ定められた値を超えた場合は、左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示されるための画像処理を行い、一方、分解された回転の角度があらかじめ定められた値を超えない場合は、左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。
例えば、図9におけるS170の詳細を示す別のフローチャート(図21)のように、ずれ量による判断はせず、まず回転計算部72で図16の(b)に示す回転角θを求め(S173)、判定部71が、その回転角θとあらかじめ定められた値、例えば6度、とを比較する(S371)。回転角θが6度以上の場合、すなわちS371でNoの場合、左右画像制御部77は左目用画像を右画像に入れ替えて、3次元画像を2次元画像に切り替える(S172)。3次元画像を2次元画像に切り替える方法については、右目用画像を左画像に入れ替えても良い。また、前記のS272からS275の動作で行っても良い。一方、S371で回転角θが6度未満の場合、すなわちS371でYesの場合は、本実施の形態と同様にS174からS176の動作で、移動ベクトルを計算し、画像の回転と平行移動を行う。これにより、HMD1の装着ずれのうち、立体視の障害となる縦ずれ画像の原因となる回転の成分が大きすぎる場合に2次元映像に切り替えることができる。すなわち、立体視の異常や疲労あるいは映像酔いを起こしやすいずれに対してのみ2次元映像に切り替えることになり、必要以上に3次元映像の視聴を妨げないようにすることができる。
また、本実施の形態では、S151において、必ず目頭が撮像されるものとして説明したが、極端にHMD1の装着位置がずれた場合には、目頭がカメラ10の撮像範囲から外れる場合がある。その場合には、左右どちらか一方の画像を左右両側のディスプレイ80に提示して、2次元映像に切り替えてもよい。これにより、HMD1の装着位置が大きくずれて、3次元映像を視聴するための視差を正確に作ることができない場合にも、視聴者が無理なく映像の視聴を続けことができる。
また、本実施の形態では、映像コンテンツの視聴中はS140からS180の動作を逐次行い、都度、HMD1の装着位置のずれに対して画像処理を行うとしたが、一定のずれが、一定の時間以上続く場合にだけ、画像処理を行うものとしても良い。一定のずれとは、ずれの変動がある範囲内で、一定とみなせる場合をさす。例えば、ずれの変動がS160で許容範囲内とされる範囲にあれば一定のずれとみなす。本実施の形態ではS160での許容範囲を両眼のずれの和が2mm以内とした。例えば、両眼のずれの和の時間変動が2mm以内である場合に一定のずれとみなす。さらに一定の時間とは、例えば、1秒である。視聴者がHMD1の装着位置がずれたまま視聴を続けるのは、視聴者が装着位置のずれに気がついていない場合と考えることができる。ずれに気がついて装着しなおすまでを約1秒として、1秒以上一定のずれが維持された場合にS170の補正処理を行うものとする。これにより、視聴者がすぐに修正する装着ずれや、HMDの一時的な揺れに対して画像処理を施すことで、かえって違和感のある表示になることを防ぐことができる。さらに、逐次の画像処理の必要がなくなり処理量が削減できる。また、ずれが一定でない状態が、一定時間以上続く場合には、左右どちらか一方の画像を左右両側のディスプレイに提示して、2次元映像に切り替える。ずれが一定でない状態は、視聴者の頭部が激しく動いていることを示す。すなわち、視聴者が歩行等の運動をしているか、乗り物等の振動が伝わっている可能性がある。このように頭部が激しく運動している状態は、映像酔いを起こしやすい状態であるため、ずれが一定でない場合に2次元映像に切り替えることで、視聴者の映像酔いを防ぐことができる。ずれが一定でない状態が続く時間については、例えば5分とする。
また、本実施の形態では、目頭の位置を指標としてディスプレイ80と目との相対位置のずれを検出したが、目じり等、映像視聴中に位置の変わらない目の周辺部位であれば目頭以外でも良い。
(実施の形態2)
次に、本発明の実施の形態2におけるヘッドマウントディスプレイおよびその位置ずれ調整方法について説明する。
実施の形態1においては、HMD1の形状に拘束されずに、HMD1が眼球の前からずれた場合に、そのずれのベクトルを算出する方法について説明した。しかしながら、一般に、HMD1は視聴者の鼻の凸部分によって、支えられている場合が多い。図22は、本実施の形態におけるHMD1のハードウェア構成の一例を示す図である。視聴者の左目の前に左目用ディスプレイ80Lを設置し、視聴者の右目の前に右目用ディスプレイ80Rを設置する。2つのディスプレイの間に視聴者の目を撮影するためのカメラ10を設置する。赤外線カメラである場合は、赤外線の発光部をカメラ10に隣接して設置する。HMD1を装着、固定するためにつると鼻あてを備える。HMD1の支点が両耳と鼻であり、中心位置を支えるのが鼻であるため、HMD1が傾く場合には、つまり、正常時におけるHMD1の装着状態を示す図23の(a)に対して、図23の(b)に示すように、右下がりにずれる場合には、Paを支点として傾く場合が多い。逆に、図23の(c)に示すように、左下がりにずれる場合には、Pbを支点としてずれる場合が多い。これらの支点PaおよびPbを中心にずれる場合には、より少ない画像特徴量でHMD1のずれを検出することが可能になる。
つまり、本実施の形態では、位置ずれ検出部60は、検出する位置ずれとして、視聴者の鼻を支点とするヘッドマウントディスプレイ1の回転による位置ずれを検出し、かつ、ヘッドマウントディスプレイ1の右が下がる回転は、視聴者の鼻の右の凸面の一点を中心とする回転であり、ヘッドマウントディスプレイの左が下がる回転は、視聴者の鼻の左の凸面の一点を中心とする回転であるとして、位置ずれを検出する。
より詳しくは、位置ずれ検出部60は、位置ずれとして、視聴者の鼻の凸面の一部である支点からカメラ10の位置までの相対位置を用いてヘッドマウントディスプレイ1の回転量を算出することで、位置ずれを検出する。このとき、位置ずれ検出部60は、標準位置として、カメラ10で撮像された画像の中心に近いほうの目頭または目じりの位置を用いて位置ずれを検出する。
以下、具体的に、本実施の形態における位置ずれの検出方法、つまり、HMD1の傾いた角度を算出する方法について、図24を用いて説明する。図24における点Xsは実施の形態1のステップS120でキャリブレーションにより決定された標準目頭位置である。本実施の形態では、原点を左右のカメラ10の間に設定せず、右目用カメラの左上端(点Os)に設定する。図24の(a)に示される状態では、鼻の点Paの点を支点にHMD1が支えられており、視聴者の眼球を撮像しているカメラからは、原点をOsに対して、目頭の位置がXs(xrs,yrs)の座標値として検出されている。このとき、点Paを支点として、傾きθだけHMD1が図24の(b)に示すように、傾いたとする。このとき、カメラの原点Osも、基準座標系(カメラ、眼球の位置に依存しない基準の座標系)に対してθだけ傾いた位置にずれることとなる。その結果、基準座標系に対して原点Osは原点O’sに、Paを中心に、回転し、また、点Xsの座標もX’sに、Paを中心に、回転することとなる。すなわち、回転座標変換行列をRとすると
Figure 2012172719
Figure 2012172719
となる。ただし、
Figure 2012172719
で表現することができる。また、図24の(a)において、点Paに対する点Osのベクトルを、基準座標系において、(X0,Y0)とする。すなわち、HMD1が支えられている鼻の位置と、カメラ10が撮像している原点の座標との相対的な位置関係が設計時の計測等によって、あらかじめ、与えられているものとする。このとき、基準座標系における点Paに対する点Xsの位置ベクトル(座標値)は、
Figure 2012172719
によって計算することができる。
一方、HMD1がθだけ傾いたときの状態での点Xsの位置座標について計算する。図24の(b)に示される状態において、基準座標系における点Paに対する点Xsの位置ベクトルは(座標値)は、回転後の点O’sの位置を利用して、
Figure 2012172719
で表現できる。さらに、点O’sが、点Paを中心に点Osの位置をθだけ回転させた座標であり、また、図24の(b)に示されるカメラ10の画像において、視聴者の目頭の位置座標X’sが(xrp,yrp)として計測されたとき、PaXsのベクトルは、
Figure 2012172719
で算出することができる。ここで、基準座標系において、目頭の位置が固定されているとすると、
Figure 2012172719
Figure 2012172719
という、2つの式(式11、式12)が成立することとなる。
ここで、鼻の支点座標Paに対する点Osの位置座標(X0,Y0)は、設計時に視聴者の鼻のあたる位置として想定されていたときには、あらかじめ与えられている値となる。さらに、眼球を撮像しているカメラ10によって、図24の(a)の状態での目頭の座標値として(xrs,yrs)が与えられ、HMD1が点Paを支点として傾いた図24の(b)の状態での目頭の座標値として(xrp,yrp)が与えられたとき、HMD1の傾きθを計算することができる。
上記、2つの式(式11、式12)では、各式から傾きθを計算することが可能である。しかしながら、点Paを中心とした回転方向のずれは、目頭の位置により測定する場合、目頭と支点との位置関係は、y軸方向のずれの方がx軸方向のずれより大きい。そのため、図24の(b)に示されるようにθ回転したときには、水平方向のずれ量の方が大きくなる。よって、式11におけるxrsとxrpを計測して、θの値を計算する方が、精度がよくなる。
なお、図24に示される例では、ヘッドマウントディスプレイの一方が下に下がることにより、ずれ量を算出したが、逆の場合には、Pbを支点とした回転として計算することが可能である。
また、図24に示される例では、HMD1が右に傾いたときに、右目の目頭の位置を用いて回転角を求めた。しかしながら、目頭の画像が鮮明に取得できなかったり、目頭の位置がカメラ10の画角からはずれてしまったりするときには、左目の目頭の位置を用いて回転量を計算することも可能である。ただし、回転中心は、同じ点Paを回転中心とする算出方法を用いる必要がある。
また、上記の計算では、カメラ10のレンズによる歪を考慮しないで算出を行っている。一般に、カメラで撮像される画像は、撮像される画像が中心から離れるほど(周辺部分に近づくほど)歪が生じる。そこで、カメラ10で撮像された画像からHMD1の傾きの量を算出するに当って、目頭または目じりを用いる場合には、なるべく、カメラ10の中心で撮像されている対象を基準にする方が、精度がよくなる。そこで、目頭または目じりの2つのうち、撮像中心に近い対象を用いて、傾き量を検出する方が精度よく算出可能となる。
また、実施の形態1および2では、視聴者の目頭を検出して目頭の位置のずれに対応して画像の表示位置を補正するとしたが、目尻を検出して目尻の位置のずれに対応して画像の表示位置を補正するとしても良い。図22に示される例では、カメラ10を左右のディスプレイの間、すなわち撮像するそれぞれの目頭側にカメラを設置したが、目尻を検出する場合には、左右のカメラ10をHMD1のつる側、すなわち撮像するそれぞれの目尻側に設置しても良い。このとき、目頭検出部30は目尻検出部となり、目頭認識用モデルではなく目尻認識用モデルを持つ。標準位置記憶部50は目頭標準位置でなく目尻標準位置を記憶する。これにより、目尻の位置のずれに対応して画像の表示位置を補正することができる。
以上、本発明に係るヘッドマウントディスプレイ1およびその位置ずれ調整方法について、実施の形態1および2を用いて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の主旨を逸脱しない範囲で、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、各実施の形態および変形例における構成要素を任意に組み合わせて得られる形態も、本発明に含まれる。
たとえば、上記ブロック図(図5、図7)における処理系の機能ブロックは、半導体集積回路であるLSIで実現されてもよい。そのLSIは、機能ブロックごとに1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。なお、ここでは、LSIとは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されるものが含まれる。
また、集積回路化の手法としては、LSI化に限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用して集積回路化をしてもよい。
また、上記実施の形態におけるヘッドマウントディスプレイ1は、図8を用いて説明したように、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムで実現されてもよい。ここで、RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサがそのコンピュータプログラムにしたがって動作することにより、ヘッドマウントディスプレイ1はその機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
すなわち、そのようなプログラムは、コンピュータ(あるいは、プロセッサ)に、ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整する方法であって、3次元映像をディスプレイに表示する表示ステップと、視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得ステップと、前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得ステップで計測された前記目頭または前記目じりの位置を前記標準位置として標準位置記憶部に格納する標準位置記憶ステップと、前記位置取得ステップにより新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出ステップと、前記位置ずれ検出ステップにより位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理ステップととを実行させてもよい。
また、上記実施の形態におけるヘッドマウントディスプレイ1を構成する構成要素の一部または全部は、脱着可能なICカードまたは単体のモジュールから構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、超多機能LSIを含んでもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有してもよい。
また、本発明は、上記実施の形態におけるフローチャートに示す方法として実現してもよい。また、その方法をコンピュータにより実現するコンピュータプログラムとして実現してもよいし、そのコンピュータプログラムを表すデジタル信号として実現してもよい。さらに、そのコンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなどに記録した記録媒体として実現してもよい。
また、上記コンピュータプログラムまたはデジタル信号は、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送することができるのは言うまでもない。
また、上記コンピュータプログラムまたはデジタル信号を記録媒体に記録して移送することにより、または、上記コンピュータプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより、本発明に係るヘッドマウントディスプレイまたはその位置ずれ調整方法を実施してもよい。
本発明にかかるヘッドマウントディスプレイは、3次元映像を表示する場合に広く利用可能であり、映画やビデオ等の収録済みコンテンツを視聴するシステムを構築する際に有用である。また、遠隔作業や遠隔手術あるいはゲームや教育、訓練用のバーチャルリアリティによる体験システム等の用途にも応用できる。
1 ヘッドマウントディスプレイ(HMD)
10 カメラ
10L カメラ(左目用カメラ)
10R カメラ(右目用カメラ)
20 瞳検出部
30 目頭検出部
40 眼球位置キャリブレーション部
50 標準位置記憶部
60 位置ずれ検出部
70 画像処理部
71 判定部
72 回転計算部
73 画像記憶部
74 回転処理部
75 平行移動計算部
76 平行移動処理部
77 左右画像制御部
80 ディスプレイ
80L ディスプレイ(左目用ディスプレイ)
80R ディスプレイ(右目用ディスプレイ)
100 位置取得部
110 入力部
120 画像記憶・受信部
130 標準位置蓄積部
211 入力部
212 記憶部
213 出力部
214 CPU
215 ROM
216 RAM
217 入出力I/F
220 コンピュータ

Claims (12)

  1. 3次元映像を表示するディスプレイと、
    視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得部と、
    前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得部で計測された前記目頭または前記目じりの位置を前記標準位置として取得して記憶する標準位置記憶部と、
    前記位置取得部により新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出部と、
    前記位置ずれ検出部により位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理部と
    を備えるヘッドマウントディスプレイ。
  2. 前記位置取得部は、前記視聴者の瞳と前記ディスプレイとの相対位置を計測するセンサを有し、
    前記ヘッドマウントディスプレイはさらに、前記センサにより計測された、前記ディスプレイに前記3次元映像を表示しない状態における、前記相対位置に基づき、前記標準位置を決定し、決定した標準位置を前記標準位置記憶部に格納するキャリブレーション部を備える
    請求項1に記載のヘッドマウントディスプレイ。
  3. 前記画像処理部は、前記3次元映像を構成する左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う
    請求項1に記載のヘッドマウントディスプレイ。
  4. 前記画像処理部はさらに、前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行う
    請求項1に記載のヘッドマウントディスプレイ。
  5. 前記位置取得部は、前記視聴者の左目と右目のそれぞれについて前記位置を計測し、
    前記標準位置記憶部は、前記視聴者の左目と右目のそれぞれについて前記標準位置を記憶し、
    前記位置ずれ検出部は、前記視聴者の左目と右目のそれぞれについて前記位置ずれを検出し、
    前記画像処理部は、前記位置ずれ検出部により検出された前記視聴者の左目と右目のそれぞれについての前記位置ずれのうち、ずれ量の小さい方の目用の画像に対して前記画像処理を行う
    請求項4に記載のヘッドマウントディスプレイ。
  6. 前記画像処理部は、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えた場合には前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う
    請求項1に記載のヘッドマウントディスプレイ。
  7. 前記画像処理部は、前記位置ずれ検出部により検出された位置ずれを回転と水平方向および垂直方向への移動とに分解し、前記回転の角度があらかじめ定められた値を超えた場合には前記左目用と前記右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記回転の角度があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う
    請求項6に記載のヘッドマウントディスプレイ。
  8. 前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻を支点とする当該ヘッドマウントディスプレイの回転による位置ずれを検出し、かつ、当該ヘッドマウントディスプレイの右が下がる回転は、前記視聴者の鼻の右の凸面の一点を中心とする回転であり、ヘッドマウントディスプレイの左が下がる回転は、前記視聴者の鼻の左の凸面の一点を中心とする回転であるとして、前記位置ずれを検出する
    請求項1に記載のヘッドマウントディスプレイ。
  9. 前記位置取得部は、前記目頭を撮像するカメラを有し、
    前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻の凸面の一部である支点から前記カメラの位置までの相対位置を用いて当該ヘッドマウントディスプレイの回転量を算出することで、前記位置ずれを検出する
    請求項8に記載のヘッドマウントディスプレイ。
  10. 前記位置ずれ検出部は、前記標準位置として、前記カメラで撮像された画像の中心に近い前記目頭または前記目じりの位置を用いて前記位置ずれを検出する
    請求項9に記載のヘッドマウントディスプレイ。
  11. ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整する方法であって、
    3次元映像をディスプレイに表示する表示ステップと、
    視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得ステップと、
    前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得ステップで計測された前記目頭または前記目じりの位置を、前記標準位置として、取得し、標準位置記憶部に格納する標準位置記憶ステップと、
    前記位置取得ステップにより新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出ステップと、
    前記位置ずれ検出ステップにより位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理ステップと
    を含むヘッドマウントディスプレイの位置ずれ調整方法。
  12. ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整するためのプログラムであって、
    請求項11記載の位置ずれ調整方法に含まれるステップをコンピュータに実行させる
    プログラム。
JP2013520409A 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法 Active JP5414946B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013520409A JP5414946B2 (ja) 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011134632 2011-06-16
JP2011134632 2011-06-16
JP2013520409A JP5414946B2 (ja) 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法
PCT/JP2012/002499 WO2012172719A1 (ja) 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法

Publications (2)

Publication Number Publication Date
JP5414946B2 JP5414946B2 (ja) 2014-02-12
JPWO2012172719A1 true JPWO2012172719A1 (ja) 2015-02-23

Family

ID=47356740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013520409A Active JP5414946B2 (ja) 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法

Country Status (4)

Country Link
US (1) US9191658B2 (ja)
JP (1) JP5414946B2 (ja)
CN (1) CN103380625A (ja)
WO (1) WO2012172719A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11880043B2 (en) 2018-07-24 2024-01-23 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user
US11906742B2 (en) 2016-10-05 2024-02-20 Magic Leap, Inc. Periocular test for mixed reality calibration

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5414946B2 (ja) * 2011-06-16 2014-02-12 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US8744666B2 (en) * 2011-07-06 2014-06-03 Peloton Technology, Inc. Systems and methods for semi-autonomous vehicular convoys
US9789762B2 (en) * 2012-12-14 2017-10-17 Visteon Global Technologies, Inc. System and method for automatically adjusting an angle of a three-dimensional display within a vehicle
JP6318462B2 (ja) * 2013-01-30 2018-05-09 株式会社ニコン 表示装置
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
JP6238532B2 (ja) * 2013-03-11 2017-11-29 キヤノン株式会社 画像表示装置及び画像表示方法
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
JP2016530755A (ja) * 2013-06-28 2016-09-29 トムソン ライセンシングThomson Licensing 位置の検知及び適応的な数のビューを伴うマルチビュー3次元ディスプレイシステム及び方法
US9736467B2 (en) * 2013-08-05 2017-08-15 Samsung Display Co., Ltd. Apparatus and method for adjusting stereoscopic images in response to head roll
CN105432081B (zh) * 2013-08-06 2019-12-31 索尼电脑娱乐公司 三维图像生成设备、三维图像生成方法、程序和信息存储介质
CN103442195B (zh) * 2013-08-27 2015-01-07 肖遥 一种多媒体头戴接收装置
US11343487B2 (en) * 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
KR102138520B1 (ko) * 2013-11-11 2020-08-11 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US9524580B2 (en) * 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
JP5956479B2 (ja) 2014-01-29 2016-07-27 株式会社東芝 表示装置及び視線推定装置
US10228562B2 (en) * 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
EP3116616B1 (en) 2014-03-14 2019-01-30 Sony Interactive Entertainment Inc. Gaming device with volumetric sensing
US10996473B2 (en) 2014-03-26 2021-05-04 Atheer, Inc. Method and apparatus for adjusting motion-based data space manipulation
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
GB2525170A (en) 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
US20150312558A1 (en) * 2014-04-29 2015-10-29 Quentin Simon Charles Miller Stereoscopic rendering to eye positions
JP2015215505A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置、および表示方法
US9835862B1 (en) 2014-05-15 2017-12-05 Google Llc Graphic interface for real-time vision enhancement
CN105204604B (zh) * 2014-05-30 2019-03-01 华为技术有限公司 一种眼球交互控制设备
EP2958074A1 (en) * 2014-06-17 2015-12-23 Thomson Licensing A method and a display device with pixel repartition optimization
JP2016009873A (ja) * 2014-06-20 2016-01-18 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
US9995933B2 (en) * 2014-06-24 2018-06-12 Microsoft Technology Licensing, Llc Display devices with transmittance compensation mask
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP2016031439A (ja) * 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
KR102361025B1 (ko) * 2014-07-31 2022-02-08 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
KR102194787B1 (ko) 2014-09-24 2020-12-24 삼성전자주식회사 사용자 기반 센서 정보 획득 방법 및 그 전자 장치
US20160109952A1 (en) * 2014-10-17 2016-04-21 Top Victory Investments Ltd. Method of Controlling Operating Interface of Display Device by User's Motion
JP6492531B2 (ja) * 2014-10-27 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
CN104581126A (zh) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示设备的画面显示处理方法和处理装置
US9904053B2 (en) 2014-12-25 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
CN107005668B (zh) * 2014-12-25 2020-09-22 索尼公司 信息处理装置
CN105812777B (zh) * 2015-01-21 2018-02-09 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
WO2016117061A1 (ja) * 2015-01-22 2016-07-28 株式会社野村総合研究所 ウェアラブル端末およびそれを用いた情報処理システム
JP2016149660A (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP3278174B1 (en) 2015-04-02 2023-06-07 Essilor International A monitoring system of the position of a head mounted device
CN104793741A (zh) * 2015-04-03 2015-07-22 深圳市虚拟现实科技有限公司 带眼球跟踪虚拟现实成像系统和方法
CN107431778B (zh) * 2015-04-22 2021-06-22 索尼公司 信息处理装置、信息处理方法和程序
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
JP6725967B2 (ja) * 2015-07-02 2020-07-22 アルパイン株式会社 画像補正装置および画像補正方法
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
CN107850784B (zh) * 2015-07-20 2021-06-01 奇跃公司 虚拟/增强现实系统中具有内向指向角度的准直光纤扫描仪设计
CN105204618B (zh) * 2015-07-22 2018-03-13 深圳多新哆技术有限责任公司 虚拟空间中虚拟物件的投影显示方法及装置
AU2016310451B2 (en) 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
JP6649010B2 (ja) * 2015-08-24 2020-02-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
CN105192982B (zh) * 2015-09-07 2018-03-23 北京小鸟看看科技有限公司 可调节式虚拟现实头盔的图像矫正方法和系统
US10757399B2 (en) 2015-09-10 2020-08-25 Google Llc Stereo rendering system
KR20180072734A (ko) * 2015-10-16 2018-06-29 매직 립, 인코포레이티드 눈 피처들을 사용한 눈 포즈 식별
CN113489967A (zh) 2015-11-04 2021-10-08 奇跃公司 可穿戴显示系统和用于校准可穿戴显示器的方法
CN105376546A (zh) * 2015-11-09 2016-03-02 中科创达软件股份有限公司 一种2d转3d方法、装置及移动终端
US10347048B2 (en) 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
CN105898275A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 虚拟现实图像校准方法及装置
CN106372569B (zh) * 2016-08-18 2019-07-05 瑞声科技(新加坡)有限公司 具虹膜采集功能的虚拟现实设备
CN106325521B (zh) 2016-08-31 2018-06-29 北京小米移动软件有限公司 测试虚拟现实头显设备软件的方法及装置
EP3514765A4 (en) 2016-09-14 2020-04-22 Square Enix Co.,Ltd. VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD AND VIDEO DISPLAY PROGRAM
JP6732617B2 (ja) * 2016-09-21 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
EP3519878B1 (en) 2016-09-28 2023-04-19 Magic Leap, Inc. Face model capture by a wearable device
US10869026B2 (en) * 2016-11-18 2020-12-15 Amitabha Gupta Apparatus for augmenting vision
WO2018120554A1 (zh) * 2016-12-26 2018-07-05 华为技术有限公司 图像显示方法和头戴显示设备
US10962779B2 (en) * 2017-02-15 2021-03-30 Sharp Kabushiki Kaisha Display control device, method for controlling display control device, and storage medium
CN106873159A (zh) * 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 虚拟现实头戴设备
JP2018142857A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
WO2018165906A1 (zh) * 2017-03-15 2018-09-20 廖建强 一种头戴式显示装置及其显示方法
TWI622806B (zh) * 2017-04-11 2018-05-01 宏碁股份有限公司 虛擬實境顯示裝置
CN106991706B (zh) * 2017-05-08 2020-02-14 北京德火新媒体技术有限公司 一种拍摄校准方法及系统
CN107157588B (zh) * 2017-05-08 2021-05-18 上海联影医疗科技股份有限公司 影像设备的数据处理方法以及影像设备
EP3425907B1 (en) * 2017-07-03 2022-01-05 Vestel Elektronik Sanayi ve Ticaret A.S. Display device and method for rendering a three-dimensional image
CN107462992B (zh) * 2017-08-14 2020-09-18 深圳创维新世界科技有限公司 一种头戴显示设备的调节方法、装置及头戴显示设备
DE102017214546B4 (de) * 2017-08-21 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
GB201714349D0 (en) * 2017-09-06 2017-10-18 Xyz Reality Ltd A method and equipment for setting out a construction site
EP3454300A1 (en) * 2017-09-12 2019-03-13 HTC Corporation Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium thereof
JP6934806B2 (ja) * 2017-11-02 2021-09-15 キヤノン株式会社 表示装置、表示装置の制御方法
US20190138789A1 (en) * 2017-11-09 2019-05-09 Mindtronic Ai Co.,Ltd. Display system and method for displaying images
CN108111837B (zh) * 2017-11-27 2020-08-07 北京灵犀微光科技有限公司 双目近眼显示的图像融合方法和装置
JP2019101811A (ja) 2017-12-04 2019-06-24 富士通株式会社 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置
IL311004A (en) 2018-01-17 2024-04-01 Magic Leap Inc Display systems and methods for determining registration between a display and a user's eyes
WO2019160698A2 (en) * 2018-02-16 2019-08-22 Valve Corporation Using detected pupil location to align optical components of a head-mounted display
US11202059B2 (en) * 2018-02-21 2021-12-14 Sony Interactive Entertainment Inc. Image processing apparatus and image processing method
DE102018105917A1 (de) 2018-03-14 2019-09-19 tooz technologies GmbH Verfahren zur benutzerindividuellen Kalibrierung einer auf den Kopf eines Benutzers aufsetzbaren Anzeigevorrichtung für eine augmentierte Darstellung
JP6774975B2 (ja) * 2018-03-19 2020-10-28 株式会社東芝 眼球回転検出装置、電子機器及びシステム
JP2018146966A (ja) * 2018-04-05 2018-09-20 株式会社ニコン 情報入出力装置、及び情報入出力方法
KR20190118040A (ko) * 2018-04-09 2019-10-17 삼성전자주식회사 웨어러블 디스플레이 장치 및 그의 입체 영상 표시 방법
US10491890B1 (en) * 2018-05-14 2019-11-26 Dell Products L.P. Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays
CN108732764B (zh) * 2018-06-06 2024-05-31 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
WO2019244419A1 (ja) * 2018-06-19 2019-12-26 コニカミノルタ株式会社 画像表示装置とウェアラブルディスプレイ
US10921595B2 (en) * 2018-06-29 2021-02-16 International Business Machines Corporation Contextual adjustment to augmented reality glasses
WO2020023672A1 (en) * 2018-07-24 2020-01-30 Magic Leap, Inc. Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
DE102018215272A1 (de) * 2018-09-07 2020-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
DE102018216613A1 (de) * 2018-09-27 2020-04-02 Bayerische Motoren Werke Aktiengesellschaft Datenbrillen mit automatischer Ausblendung von angezeigten Inhalten für Fahrzeuge
EP3671692A1 (en) * 2018-12-19 2020-06-24 Ningbo Geely Automobile Research & Development Co. Ltd. Time for passage of a platoon of vehicles
US20200211512A1 (en) * 2018-12-27 2020-07-02 Facebook Technologies, Llc Headset adjustment for optimal viewing
US10904516B2 (en) 2019-01-14 2021-01-26 Valve Corporation Counterrotation of display panels and/or virtual cameras in a HMD
AU2019100368B4 (en) * 2019-01-25 2019-11-28 Norman BOYLE A driverless impact attenuating traffic management vehicle
US11823576B2 (en) * 2019-02-04 2023-11-21 Nec Corporation Vehicle management device, vehicle management method, and storage medium having program stored therein
WO2020185219A1 (en) * 2019-03-13 2020-09-17 Hewlett-Packard Development Company, L.P. Detecting eye tracking calibration errors
US11579688B2 (en) 2019-06-28 2023-02-14 Canon Kabushiki Kaisha Imaging display device and wearable device
US11137596B2 (en) * 2019-08-29 2021-10-05 Apple Inc. Optical adjustment for head-mountable device
CN114341703B (zh) * 2019-09-25 2024-02-02 Jvc建伍株式会社 显示装置、显示系统、显示调整方法
US11228745B2 (en) * 2019-11-26 2022-01-18 Varjo Technologies Oy Display apparatus and method of correcting image distortion therefor
US11846782B1 (en) 2020-04-13 2023-12-19 Apple Inc. Electronic devices with deformation sensors
US20240053822A1 (en) * 2021-01-14 2024-02-15 Sony Group Corporation Image display device and image display system
GB2603496A (en) 2021-02-05 2022-08-10 Xyz Reality Ltd Aligning multiple coordinate systems for information model rendering
JP1700156S (ja) * 2021-03-08 2021-11-22
JP7468425B2 (ja) * 2021-03-25 2024-04-16 トヨタ自動車株式会社 ライドシェアシステム及びライドシェア方法
GB2605442B (en) 2021-04-01 2023-03-22 Xyz Reality Ltd Configuration method for the display of a building information model
US11869361B2 (en) * 2021-04-01 2024-01-09 Gm Cruise Holdings Llc Coordinated multi-vehicle routing
GB2613155A (en) 2021-11-24 2023-05-31 Xyz Reality Ltd Matching a building information model
US20230368403A1 (en) * 2022-05-16 2023-11-16 Microsoft Technology Licensing, Llc Systems and methods for facilitating display misalignment correction
GB2619966A (en) 2022-06-24 2023-12-27 Xyz Reality Ltd Augmented reality for a construction site with multiple devices

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
JPH07154829A (ja) * 1993-11-25 1995-06-16 Matsushita Electric Ind Co Ltd 眼鏡型映像表示装置
JPH0821975A (ja) * 1994-07-06 1996-01-23 Olympus Optical Co Ltd 頭部装着型映像表示システム
JP2000013818A (ja) * 1998-06-23 2000-01-14 Nec Corp 立体表示装置及び立体表示方法
JP2002014300A (ja) * 2000-06-28 2002-01-18 Seiko Epson Corp 頭部装着型表示装置
US7197165B2 (en) * 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
JP2005010687A (ja) * 2003-06-20 2005-01-13 Pentax Corp 電子双眼鏡
CA2685976C (en) * 2007-05-23 2013-02-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
JP2010122879A (ja) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab 端末装置、表示制御方法および表示制御プログラム
JP2010124339A (ja) * 2008-11-20 2010-06-03 Scalar Corp ヘッドマウントディスプレイ
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
JP2010232718A (ja) * 2009-03-25 2010-10-14 Olympus Corp 頭部装着型画像表示装置
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
KR101627214B1 (ko) * 2009-11-12 2016-06-03 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
EP2649932A4 (en) * 2010-12-08 2017-06-14 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9766698B2 (en) * 2011-05-05 2017-09-19 Nokia Technologies Oy Methods and apparatuses for defining the active channel in a stereoscopic view by using eye tracking
CN103283244A (zh) * 2011-05-20 2013-09-04 松下电器产业株式会社 立体影像提供装置以及其方法
JP5414946B2 (ja) * 2011-06-16 2014-02-12 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
WO2013021505A1 (ja) * 2011-08-11 2013-02-14 富士通株式会社 立体画像表示装置
KR20140067575A (ko) * 2012-11-27 2014-06-05 삼성디스플레이 주식회사 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11906742B2 (en) 2016-10-05 2024-02-20 Magic Leap, Inc. Periocular test for mixed reality calibration
US11880043B2 (en) 2018-07-24 2024-01-23 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user

Also Published As

Publication number Publication date
US20130235169A1 (en) 2013-09-12
WO2012172719A1 (ja) 2012-12-20
US9191658B2 (en) 2015-11-17
JP5414946B2 (ja) 2014-02-12
CN103380625A (zh) 2013-10-30

Similar Documents

Publication Publication Date Title
JP5414946B2 (ja) ヘッドマウントディスプレイおよびその位置ずれ調整方法
US11880043B2 (en) Display systems and methods for determining registration between display and eyes of user
JP5967597B2 (ja) 画像表示装置および画像表示方法
JP5637560B2 (ja) 近視および疲労の防止および治療のための方法およびデバイス
US20220237823A1 (en) Systems and techniques for estimating eye pose
CN111771179A (zh) 用于确定显示器与用户的眼睛之间的配准的显示系统和方法
CN112805659A (zh) 通过用户分类为多深度平面显示系统选择深度平面
US20180130227A1 (en) Computer program and head-mounted display device
JP6026836B2 (ja) 画像表示装置、制御方法、プログラム及び記憶媒体
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
CN115053270A (zh) 用于基于用户身份来操作头戴式显示系统的系统和方法
KR20170118693A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
CN114424147A (zh) 利用一个或多个眼睛跟踪相机确定眼睛旋转中心
TW201814356A (zh) 頭戴顯示裝置與其鏡片位置調整方法
JP6576639B2 (ja) 電子眼鏡および電子眼鏡の制御方法
CN106708249B (zh) 交互方法、交互装置及用户设备
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2016203844A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Hwang et al. 23.4: Augmented Edge Enhancement for Vision Impairment using Google Glas
JP2016133541A (ja) 電子眼鏡および電子眼鏡の制御方法
JP6479836B2 (ja) 入出力装置、入出力プログラム、および入出力方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131112

R150 Certificate of patent or registration of utility model

Ref document number: 5414946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150