JP2017134630A - 表示装置、表示装置の制御方法、及び、プログラム - Google Patents

表示装置、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP2017134630A
JP2017134630A JP2016013943A JP2016013943A JP2017134630A JP 2017134630 A JP2017134630 A JP 2017134630A JP 2016013943 A JP2016013943 A JP 2016013943A JP 2016013943 A JP2016013943 A JP 2016013943A JP 2017134630 A JP2017134630 A JP 2017134630A
Authority
JP
Japan
Prior art keywords
display
image
unit
display unit
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016013943A
Other languages
English (en)
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
総志 木村
Fusayuki Kimura
総志 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016013943A priority Critical patent/JP2017134630A/ja
Publication of JP2017134630A publication Critical patent/JP2017134630A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】移動可能な表示装置によって、動きによる入力に対応して表示を行う。【解決手段】HMD100は、使用者の頭部に装着され、画像を表示する右導光板26及び左導光板28を有する画像表示部20と、右導光板26及び左導光板28とは別体で構成される制御装置10と、画像表示部20と制御装置10との相対位置を検出する検出部と、検出部の検出結果に基づき右導光板26及び左導光板28の表示画像を制御する表示制御部と、を備える。【選択図】図1

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。
従来、動きによる入力を受け付ける装置が知られている(例えば、特許文献1参照)。特許文献1記載の電子装置は、ユーザーのモーションに従ってポインターを移動させ、装置の機能に対応するアイコンの操作を受け付ける。
特開2013−140578号公報
特許文献1に記載された装置のように、動きによる入力を行う場合は、動きの基準となる装置が必要である。例えば、特許文献1に開示された構成では、スマートテレビ、セットトップボックス等の固定的な装置が、ユーザーのモーションを撮像した映像をもとに、モーションの入力を受け付けて、アイコンやポインターを表示する。このため、表示装置が移動可能な状態、或いは、表示装置を移動させて表示を行う構成で、動きによる入力を受け付けたり、動きによる入力に対応する表示を行ったりする例は無かった。
本発明は上記事情に鑑みてなされたものであり、移動可能な表示装置によって、動きによる入力に対応して表示を行うことを目的とする。
上記目的を達成するために、本発明の表示装置は、使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、前記第1デバイスと前記第2デバイスとの相対位置を検出する検出部と、前記検出部の検出結果に基づき前記表示部の表示画像を制御する表示制御部と、を備えることを特徴とする。
本発明によれば、使用者の頭部に装着される表示部により、第1デバイス及び/または第2デバイスの動きや位置に応じた表示を行うことが可能となる。また、表示を行う第1デバイスの動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
また、本発明は、上記表示装置において、前記表示制御部は、前記検出部の検出結果に基づき前記表示部により表示される所定画像の表示位置を制御すること、を特徴とする。
本発明によれば、第1デバイスまたは第2デバイスの動きに対応して、使用者の頭部に装着される表示部に画像を表示する表示位置を制御できる。
また、本発明は、上記表示装置において、前記表示制御部が前記表示部により表示させる前記所定画像は、前記使用者の注目を促すポインターであること、を特徴とする。
本発明によれば、使用者の注目を促すポインターの表示を、第1デバイスと第2デバイスとの相対位置に基づき制御できる。
また、本発明は、上記表示装置において、前記検出部は、前記第1デバイスと前記第2デバイスとの相対位置に基づき、前記第2デバイスにより所定のジェスチャー操作が行われたことを検出し、前記表示制御部は、前記ジェスチャー操作に応じて前記表示部の表示画像を制御すること、を特徴とする。
本発明によれば、第1デバイスまたは第2デバイスの動きを利用したジェスチャー操作に対応して、表示を制御できる。
また、本発明は、上記表示装置において、前記表示制御部は、前記検出部により検出される前記第1デバイスと前記第2デバイスとの相対位置に基づき、前記表示部に表示される表示画像の表示位置を制御し、前記検出部により前記アクションが検出された場合には、前記表示部に表示される表示画像について予め設定された変更を行うこと、を特徴とする。
本発明によれば、第1デバイスと第2デバイスとの相対位置に基づき所定画像の表示を制御する処理とは別に、使用者がアクションを行うことで、他の処理を実行させることができる。
また、本発明は、上記表示装置において、前記表示部は、外光を透過することにより実物体を視認可能に構成され、前記実物体に重ねて画像を表示し、前記表示制御部は、前記表示部により前記実物体に重ねて表示される画像の表示状態を、前記検出部の検出結果に基づき制御すること、を特徴とする。
本発明によれば、表示部を透過して視認できる実物体に対応する表示を行うことができる。
また、本発明は、上記表示装置において、前記表示制御部は、前記表示部と前記実物体との距離に対応して画像の表示状態を制御すること、を特徴とする。
本発明によれば、実物体により高度に対応した表示を行うことができる。
また、本発明は、上記表示装置において、前記第1デバイスは動きを検出する第1センサーを備え、前記第2デバイスは動きを検出する第2センサーを備え、前記検出部は、前記第1センサー及び前記第2センサーの検出値に基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、を特徴とする。
本発明によれば、第1デバイスと第2デバイスとの相対位置を、的確に検出できる。
また、本発明は、上記表示装置において、前記検出部は、初期状態における前記第1デバイスと前記第2デバイスとの相対位置と、前記初期状態に対する前記第1デバイス及び前記第2デバイスの動きに基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、を特徴とする。
本発明によれば、初期状態を基準として、第1デバイスと第2デバイスとの相対位置を、より速やかに、かつ正確に検出できる。
また、本発明は、上記表示装置において、前記第1デバイスは撮像部を備え、前記検出部は、前記第1デバイスが備える前記撮像部の撮像画像から前記第2デバイスの画像を検出することにより、初期状態における前記第1デバイスと前記第2デバイスとの相対位置を特定すること、を特徴とする。
本発明によれば、撮像画像を利用して、初期状態における第1デバイスと第2デバイスとの相対位置を特定できる。
また、本発明は、上記表示装置において、前記検出部は、前記第1デバイスと前記第2デバイスとの相対位置が特定の位置となったことを検出し、前記特定の位置を、初期状態における前記第1デバイスと前記第2デバイスとの相対位置とすること、を特徴とする。
本発明によれば、初期状態における第1デバイスと第2デバイスとの相対位置を特定できる。
また、本発明は、上記表示装置において、前記第1デバイスは第1地磁気センサーを備え、前記第2デバイスは第2地磁気センサーを備え、前記検出部は、前記第1地磁気センサー及び前記第2地磁気センサーの検出値に基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、を特徴とする。
本発明によれば、第1デバイスと第2デバイスとの相対位置を、地磁気センサーを利用して検出できる。
また、上記目的を達成するために、本発明の表示装置の制御方法は、使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、を備える表示装置を制御して、前記第1デバイスと前記第2デバイスとの相対位置を検出し、前記相対位置の検出結果に基づき前記表示部の表示画像を制御すること、を備えることを特徴とする。
本発明の表示装置の制御方法を実行することにより、使用者の頭部に装着される表示部によって、第1デバイス及び/または第2デバイスの動きや位置に応じた表示を行うことが可能となる。また、表示を行う第1デバイスの動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
また、上記目的を達成するために、本発明は、使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記第1デバイスと前記第2デバイスとの相対位置を検出し、前記相対位置の検出結果に基づき前記表示部の表示画像を制御するためのプログラムである。
本発明のプログラムをコンピューターが実行することにより、使用者の頭部に装着される表示部によって、第1デバイス及び/または第2デバイスの動きや位置に応じた表示を行うことが可能となる。また、表示を行う第1デバイスの動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
本発明は、上述した表示装置、表示装置の制御方法、及びプログラム以外の種々の形態で実現することも可能である。例えば、上記のプログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
第1実施形態のHMDの外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 画像表示部と撮像範囲の対応を示す説明図。 HMDを構成する各部のブロック図。 制御部および記憶部のブロック図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの操作と表示態様の例を示す説明図。 HMDの動作を示すフローチャート。 HMDの表示例を示す説明図。 HMDの操作と表示態様の例を示す説明図。 第2実施形態のHMDの外観構成を示す説明図。 HMDの動作を示すフローチャート。
[第1実施形態]
図1は、本発明を適用した第1実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(第1デバイス)と、画像表示部20を制御する制御装置10(第2デバイス)と、を備える表示装置である。制御装置10は、使用者の操作を受け付ける各種のボタン、スイッチ、及び、トラックパッド14を備え、使用者がHMD100を操作するコントローラーとして機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26(表示部)、及び左導光板28(表示部)を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
また、右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。
カメラ61(撮像部)は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部150(図5)が備える撮像制御部149の制御に従って撮像を実行し、撮像画像データを撮像制御部149に出力する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図1に戻り、制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及び、マイク63を有するヘッドセット30が、コネクター46に接続される。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
制御装置10は、使用者により操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。
ボタン11は、制御装置10が実行するオペレーティングシステム143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。
また、制御装置10は、図示はしないが、タッチ操作を検出するタッチ操作部を備える。タッチ操作部は操作により変位するスイッチ等を持たず、例えば操作位置と操作内容を示すアイコン等が画面による表示や印刷で配置される。このタッチ操作部への接触(タッチ操作)は、後述するタッチセンサー13(図4)により検出される。
図3は、画像表示部20の要部構成を示す図であり、図3(A)は画像表示部20を使用者の頭部側から見た要部斜視図、図3(B)はカメラ61の画角の説明図である。なお、図3(A)では接続ケーブル40の図示を省略する。
図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、上記のように画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。図3(B)は、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図3(B)には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。
カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図3(B)に示すように、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図3(B)の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角Cは、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111(第2センサー)、磁気センサー113(第2地磁気センサー)、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(Embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、制御装置10が有するタッチ操作部へのタッチ操作を検出する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、LEDインジケーター12(図1)が備えるLED、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。また、LED表示部17は、LEDが発光する輝度を制御してもよい。また、LED表示部17は、赤、青、緑の3色のLEDを備える構成であってもよく、この場合、各色のLEDの輝度を調整することによって任意の色でLEDインジケーター12を発光させてもよい。
6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。磁気センサー113の地磁気の検出結果を利用すれば、地面を基準とする制御装置10の3次元的な向きを特定できる。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
また、HMD100は、バイブレーター19を備える。バイブレーター19は、モーター(図示略)、偏心した回転子(図示略)等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215(記憶部)が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235(第1センサー)、及び、磁気センサー237(第1地磁気センサー)が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。磁気センサー237の地磁気の検出結果を利用すれば、地面を基準とする画像表示部20の3次元的な向きを特定できる。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
図5は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図5に示す記憶部122は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び、制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。
制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、及び操作設定データ127を記憶する。設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
制御部150は、記憶部122に記憶されるコンテンツデータ124がAR(Augmented Reality)コンテンツのデータである場合に、このコンテンツデータ124に基づきAR表示を行うことができる。AR表示では、切替スイッチ16及び左導光板28を透過して使用者が視認する実空間の対象物に合わせて、いわゆるAR効果を奏する画像(以下、AR画像と呼ぶ)を表示する。AR表示を行うと、使用者には、実空間に存在する対象物を見ている状態で、対象物に重なる位置または対象物に対応する位置にAR画像が見える。このため、使用者にとっては、実空間の対象物に、文字や画像を含む仮想的な表示オブジェクトが付加されて視認できるため、あたかも現実を拡張するような効果がある。
表示設定データ128は、制御部150により画像表示部20の表示状態を制御する処理に関する各種設定データを含む。具体的には、操作検出制御部152が検出する制御装置10と画像表示部20との相対位置に応じて、画像表示部20により表示するポインター等の画像データを含む。また、表示設定データ128は、制御装置10と画像表示部20との相対位置の変化に対応して表示される画像のデータを含む。
また、表示設定データ128は、操作検出制御部152が検出する制御装置10と画像表示部20との相対位置に対応して、画像表示部20の表示を変更するためのプログラム、演算式、関数、パラメーター、行列等の設定データを含む。
また、表示設定データ128は、操作検出制御部152が制御装置10を用いるジェスチャー操作を検出した場合に、このジェスチャー操作に対応して画像表示部20に表示する画像の画像データを含んでも良い。また、ジェスチャー操作に対応して画像表示部20の表示を変更するためのプログラム、演算式、関数、パラメーター、行列等の設定データを含んでもよい。
位置検出データ129は、制御部150の制御によって制御装置10と画像表示部20との相対位置を検出(特定)する処理に関する設定データを含む。具体的には、制御装置10と画像表示部20の相対位置の初期状態に関するデータを含む。また、例えば、6軸センサー111の検出値と、6軸センサー235の検出値とを用いて相対位置を算出する演算式、パラメーター、行列、関数等を含んでもよい。また、6軸センサー111の検出値及び6軸センサー235の検出値を補正あるいは校正するデータを含んでもよい。
また、位置検出データ129は、制御装置10を用いるジェスチャー操作に関する設定データを含む。この場合、位置検出データ129は、予め登録されるジェスチャー操作の番号や名称、及び、ジェスチャー操作時の制御装置10の動き、或いは制御装置10と画像表示部20の相対位置の変化に関するデータを含む。
HMD100が検出するジェスチャーは、画像表示部20と制御装置10との相対位置の変化の態様が、予め設定された条件に該当する場合に検出される。具体的には、画像表示部20及び制御装置10のいずれか、または両方が、特定のパターンで動くことで検出される。つまり、使用者が、画像表示部20を装着した頭部、及び制御装置10のいずれか、または両方を、特定のパターンで動くかす操作を行うと、ジェスチャーが検出される。ジェスチャーは使用者の動き(アクション)を入力として検出する、いわゆるアクションUI(User Interface)といえる。
ジェスチャーの具体例としては、画像表示部20に対して制御装置10を上下または左右に小さく(設定された角度以下の角度で)複数回繰り返して回動させる動作が挙げられる。また、制御装置10が複数回揺れる動作が挙げられ、例えば使用者が制御装置10を複数回叩く場合の動きに相当する。また、画像表示部20に対して制御装置10を振り回す操作が挙げられる。この場合、画像表示部20に対し、制御装置10が円または楕円の軌道を描くように移動するので、操作検出制御部152が検出する動きが円または楕円の軌道に該当する場合にジェスチャーが検出される。
制御部150は、オペレーティングシステム(OS)143、画像処理部145、表示制御部147、撮像制御部149、及び、操作検出制御部152の機能を有する。オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
画像処理部145は、画像表示部20により表示する画像または映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
表示制御部147は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。
操作検出制御部152は、トラックパッド14や操作部110を用いた制御装置10に対する操作を検出し、操作に対応するデータを出力する。
また、操作検出制御部152は、制御装置10と画像表示部20との相対位置を検出する。操作検出制御部152は、制御装置10と画像表示部20との相対位置を検出することにより、制御装置10を用いたモーションの入力を受け付ける。操作検出制御部152は、制御装置10と画像表示部20との相対位置の変化、すなわち画像表示部20に対する相対的な制御装置10によるモーション(動き)の入力内容を示す操作データを生成して出力する。この操作データは、例えば、画像表示部20に対する相対的な制御装置10の移動を示す移動データである。
操作検出制御部152が、制御装置10と画像表示部20との相対位置を検出する処理は、例えば、初期位置に対する制御装置10の位置、及び、初期位置に対する画像表示部20の位置をそれぞれ求める処理である。初期位置は、後述するキャリブレーションにより定められる。また、操作検出制御部152は、初期位置に対する制御装置10の位置の変化と画像表示部20の位置の変化の差分を算出し、この差分の累積値から、制御装置10と画像表示部20との相対位置及び相対位置の変化を求めてもよい。
初期位置に対する制御装置10の位置は、6軸センサー111の検出値を累積することで、求めることができる。この場合、6軸センサー111は第1センサーに相当する。初期位置に対する画像表示部20の位置は、6軸センサー235の検出値を累積することで、求めることができる。この場合、6軸センサー235は第2センサーに相当する。制御装置10及び画像表示部20の位置及び位置の変化は、例えば、図9(B)を参照して後述するX方向、Y方向、Z方向の位置、及び位置の変化として求めることができる。6軸センサー111及び6軸センサー235の検出値として、加速度センサーの検出値、及び、角速度センサーの検出値のどちらを用いてもよいし、これらの検出値を合わせて用いてもよい。
また、操作検出制御部152は、初期位置に対する制御装置10の位置を、磁気センサー113の検出値を用いて求めてもよい。この場合、磁気センサー113は第1センサーに相当する。同様に、操作検出制御部152は、初期位置に対する画像表示部20の位置を、磁気センサー237の検出値を用いて求めてもよい。この場合、磁気センサー237は第2センサーに相当する。この場合、操作検出制御部152は、制御装置10の位置と、画像表示部20の位置のそれぞれを、地磁気の方向を基準として求めれば良い。
これらの処理において、操作検出制御部152は、第1センサーである6軸センサー111または磁気センサー113、及び、第2センサーである6軸センサー235または磁気センサー237の検出値を利用する検出部に相当する。すなわち、操作検出制御部152の機能を実行するメインプロセッサー140が、検出部に相当する。ここで、第1センサーである6軸センサー111または磁気センサー113、及び、第2センサーである6軸センサー235または磁気センサー237を、検出部と呼んでもよい。
移動データは、制御装置10と画像表示部20の相対位置の変化を示すベクトル量であってもよい。即ち、移動方向と、移動量とを示すデータを含んでもよい。或いは、移動データは、図9(B)を参照して後述するX方向、Y方向、及びZ方向のそれぞれにおける相対位置の変化量を含むデータであってもよい。また、移動データは、移動の初期位置と終了位置とを示すデータを含んでもよく、このデータは、例えば相対座標データであってもよい。
さらに、操作検出制御部152は、第1センサー、及び第2センサーの検出値とともに、或いはこれらの検出値に代えて、カメラ61の撮像画像を利用して相対位置を求めてもよい。例えば、操作検出制御部152は、カメラ61に写る被写体のうち基準とする被写体を選択する。操作検出制御部152は、カメラ61が撮像する複数の撮像画像における被写体の位置を比較することで、画像表示部20の位置変化を求めることができる。また、カメラ61の撮像画像に、制御装置10が被写体として写る場合、撮像画像における基準の被写体と制御装置10との相対位置の変化を求めることで、制御装置10の位置変化を求めることができる。この場合、カメラ61は、第1センサー及び第2センサーのいずれか、または両方に相当し、カメラ61を検出部としてもよい。また、画像表示部20が複数のカメラを備える構成とすれば、三角測量法を用いて、基準の被写体までの距離を算出し、画像表示部20の位置変化を求めることができる。また、操作検出制御部152は、画像表示部20が、予め設定された測定方向に位置する測定対象物までの距離を検出する、距離センサー(図示略)を備える構成であてもよい。この場合、例えば、操作検出制御部152は、距離センサーにより距離を測定可能な対象物のうち基準とする対象物を選択する。操作検出制御部152は、基準として選択した対象物までの距離の変化に基づき、画像表示部20の位置変化を求めてもよい。また、操作検出制御部152は、上述した各種の方法の組合せにより、例えば6軸センサー111、磁気センサー113、6軸センサー235、及び磁気センサー237を利用して、制御装置10と画像表示部20との相対位置の変化を求めてもよい。
このように、操作検出制御部152が制御装置10と画像表示部20との相対位置の変化を求める方法は種々あるが、本実施形態では一例として、6軸センサー111及び6軸センサー235の検出値を利用する例を説明する。
また、操作検出制御部152は、制御装置10の動きが予め設定された特定のジェスチャーに該当する場合に、このジェスチャーを検出する。ここで、制御装置10の動きは、6軸センサー111、磁気センサー113などにより検出される動き、或いは、操作検出制御部152が検出する画像表示部20に対する相対的な制御装置10の動きのどちらでもよい。操作検出制御部152は、検出したジェスチャーを示すデータを出力する。
操作検出制御部152は、相対位置の検出、及び、ジェスチャーの検出を行う際に、記憶部122が記憶する位置検出データ129を参照する。
移動データは、基点位置の移動方向と移動量とを示すベクトル量のデータ、或いは、基点位置の座標の変化を示すデータである。
ここで、基点とは、操作検出制御部152が生成する仮想の操作位置であり、基点がトラックパッド14における操作位置と一致することもある。基点の位置は、表示制御用の位置、及び、処理位置に相当する。また、操作検出制御部152が、操作位置に基づき、操作位置とは異なる位置の基点の座標を算出する処理を行うこともある。移動データは、基点位置の座標の変化を示すデータとして、基点位置のX座標とY座標の変化量のデータを含むことができる。
移動データが含むベクトル量または座標は、操作検出制御部152が検出するトラックパッド14の検出領域における座標を基準とする。
表示制御部147は、例えば、ポインティングデバイスの操作に対応して移動するポインターを表示する。ポインターの形状やサイズは任意であり、表示する数も任意であるが、本実施形態では、トラックパッド14における操作に応じて移動する1個のポインターを表示する例を説明する。
表示制御部147は、操作検出制御部152が出力する移動データに基づき、ポインターの表示位置を移動させる。移動データはトラックパッド14の検出領域における座標を基準とするデータであるから、表示制御部147は、移動データが含む座標または量を、画像表示部20の表示領域における座標または量に変換する。表示制御部147が変換を行う場合のパラメーターや演算式等は、例えば操作設定データ127に含まれる。
ポインターは、本発明の所定画像に相当する。ポインターは、例えば、図9(A)、図9(C)等に示すポインターPV、図11(B)に示す工具ポインターCV、図12(B)に示すポインターHVとすることができる。表示制御部147は、例えば記憶部122が記憶するコンテンツデータ124或いは表示設定データ128に格納される画像データに基づき、これらの所定画像を表示し、移動データに基づいて所定画像の表示位置を変化させる。ここで、所定画像は上述した例に限定されず、幾何学図形、「+」形状の図形、矢印、或いは各種画像で構成されるポインターやマーカーを用いてもよい。また、カメラ61の撮像画像や他の装置から通信部117を介して受信する画像、或いは、これらの画像から切り出した画像を用いてもよい。また、表示制御部147が表示させる所定画像は、例えばポインターのように、使用者に対して注目を促す画像であり、使用者の注意を喚起する注目オブジェクトであってもよい。表示制御部147が表示させるポインターは、画像表示部20を透過して視認される実世界(実空間)の物体(実物体)でない画像を示唆するためのポインター等として機能する。
表示制御部147は、移動データに基づき、上述のように所定画像としてのポインター等の表示位置を移動させる動作を実行する。また、操作検出制御部152がジェスチャーを検出した場合、表示制御部147は、例えば、ポインター等の表示位置を移動させる処理とは異なる、予め設定された制御を行う。例えば、表示制御部147は、ジェスチャー操作(アクション)に対応して、ポインターの画像を、ポインターPV、ポインターHV、工具ポインターCV、幾何学図形、矢印型等、表示制御部147が表示可能な画像の中から順次切り替える。また、例えば、表示制御部147は、表示中の画像を拡大または縮小する制御、画像を貼り付ける制御、ポインターの表示色の濃さや輝度を変更する制御を行うことができる。1または複数のジェスチャー操作に対応して、1つの制御が設定される構成とし、表示制御部147が、複数種類の制御を実行してもよく、この場合、使用者はジェスチャーを行うことで、複数の処理を実行させることができる。
また、HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図6〜図8は、HMD100の動作を示すフローチャートである。図6は、制御装置10を用いるモーション入力に対応する動作を示す。また、図7及び図8は、図6のステップS12に示すキャリブレーションの具体例を示す。
制御部150は、制御装置10に対する操作に応じて、或いはARコンテンツの表示の指示に応じて、制御装置10と画像表示部20との相対位置の検出を開始する(ステップS11)。操作検出制御部152は、制御装置10と画像表示部20の初期状態を特定するキャリブレーションを実行する(ステップS12)。キャリブレーションの詳細については後述するが、ステップS12では、初期状態における6軸センサー111及び6軸センサー235の検出値、及び、制御装置10と画像表示部20との相対位置が特定される。このため、キャリブレーションの実行後は、初期状態からの制御装置10の方向及び位置の変位を求め、画像表示部20の方向及び位置の変化を求めることで、制御装置10と画像表示部20との相対位置を特定できる。
表示制御部147は、画像表示部20におけるARコンテンツの表示を開始する(ステップS13)。操作検出制御部152は、画像表示部20が備える6軸センサー235の検出値、及び、制御装置10が備える6軸センサー111の検出値を取得する(ステップS14)。操作検出制御部152は、6軸センサー111と6軸センサー235の検出値に基づいて、制御装置10と画像表示部20との相対位置を検出(特定)する(ステップS15)。具体的には、操作検出制御部152は、6軸センサー111の検出値に基づいて、ステップS12のキャリブレーション実行後の制御装置10の方向及び位置の変位を求める。また、操作検出制御部152は、6軸センサー235の検出値に基づいて、ステップS12のキャリブレーション実行後の画像表示部20の方向及び位置の変位を求める。操作検出制御部152は、位置検出データ129を参照し、初期状態すなわちステップS12のキャリブレーション実行時における制御装置10と画像表示部20との相対位置を取得する。操作検出制御部152は、これらのデータに基づき、ステップS14で取得した検出値に対応する制御装置10と画像表示部20の相対位置を求める。
操作検出制御部152は、制御装置10と画像表示部20の相対位置を解析し(ステップS16)、相対位置の変化が、予め登録された制御装置10のジェスチャー操作に該当するか否かを判定する(ステップS17)。ジェスチャー操作は、例えば、制御装置10を特定の向きや大きさで動かす操作であり、複数の動きを組み合わせた操作であってもよい。HMD100は、ジェスチャー操作における制御装置10の動きのパターンを示すデータを、位置検出データ129に含めて記憶している。ステップS16で、操作検出制御部152は、画像表示部20に対する制御装置10の相対位置の履歴(相対位置の軌跡ともいえる)が、ジェスチャー操作時の相対位置の変化に該当するか否かを解析し、ステップS17で判定を行う。
制御装置10と画像表示部20の相対位置の変化がジェスチャー操作に該当する場合(ステップS17;Yes)、操作検出制御部152は、ジェスチャー操作を示す操作データを出力する。この場合、表示制御部147は、ジェスチャー操作に対応して画像表示部20の表示を更新し(ステップS18)、ステップS20に移行する。
また、制御装置10と画像表示部20の相対位置の変化がジェスチャー操作に該当しない場合(ステップS17;No)、操作検出制御部152は、制御装置10と画像表示部20の相対位置の変化を示す操作データを出力する。この場合、表示制御部147は、相対位置の変化に対応して画像表示部20の表示を更新し(ステップS19)、ステップS20に移行する。
ステップS20で、制御部150は、制御装置10の動きによる操作を終了する条件が成立したか否かを判定する(ステップS20)。操作を終了する条件とは、例えば、制御装置10の動きに対応するARコンテンツの表示終了が指示された場合、或いは、HMD100の動作の停止が指示された場合が該当する。操作を終了する条件が成立していない場合(ステップS20;No)、制御部150はステップS14に戻る。ここで、制御部150は、制御装置10に対する操作に従って、ステップS12に戻り、キャリブレーションを実行してもよい。操作を終了する条件が成立したと判定した場合(ステップS20;Yes)、本処理を終了する。
図6には、操作検出制御部152が6軸センサー111、235の検出値を取得し(ステップS14)、その後、ステップS14で取得した検出値に基づき相対位置を特定する(ステップS15)例を示したが、本発明はこれに限定されない。例えば、操作検出制御部152は、6軸センサー111、235の検出値を、ステップS14〜S19を実行するサイクルよりも高速(短周期)で取得し、メモリー118に一時的に記憶してもよい。ステップS14では、メモリー118に記憶した検出値を取得して処理を行えばよい。この方法によれば、処理のサイクルの制約を受けずに、検出値を取得するタイミングを設定できるので、6軸センサー111、235の仕様によりサンプリング周期が短い場合に対応できる等の利点がある。
ステップS12のキャリブレーションは、いくつかの方法により実現できる。
図7には、画像表示部20が搭載するカメラ61を利用する例を示す。
表示制御部147は、キャリブレーションの実行を案内する案内画面を画像表示部20により表示させる(ステップS51)。ステップS51で表示される案内画面には、制御装置10の位置を、カメラ61の画角(撮像範囲)に収まる位置とするように案内する画像やテキストを含む。カメラ61の画角が、使用者が右導光板26及び左導光板28を透過して視認する視野を含む場合、案内画面により、制御装置10が視野に収まるように、制御装置10を手に持つ等を指示すればよい。
撮像制御部149は、カメラ61による撮像を実行させ(ステップS52)、撮像画像データから制御装置10の画像を検出する。制御装置10の画像を検出するための画像の特徴量等のデータは、例えば、設定データ123に含まれる。撮像制御部149は、制御装置10の画像の検出に成功したか否かを判定する(ステップS53)。撮像画像データから制御装置10の画像を検出できない場合(ステップS53;No)、ステップS52に戻って撮像を再試行する。
撮像画像データから制御装置10の画像を検出できた場合(ステップS53;Yes)、操作検出制御部152は、制御装置10と画像表示部20との相対位置を特定する(ステップS54)。ステップS54で、操作検出制御部152は、撮像制御部149が検出した制御装置10の画像の向きと撮像画像における座標軸とに基づいて、カメラ61の画角に対する制御装置10の向きを特定する。また、操作検出制御部152は、撮像画像における制御装置10の画像の大きさをもとに、カメラ61の撮像面から制御装置10までの距離を求めてもよい。これらの処理、或いは他の公知の処理により、操作検出制御部152は、画像表示部20に対する制御装置10の相対位置を求めることができる。
操作検出制御部152は、ステップS54で求めた相対位置を、初期状態における相対位置として位置検出データ129に設定する(ステップS55)。
図8には、磁気センサーを利用するキャリブレーションの例を示す。
表示制御部147は、キャリブレーションの実行を案内する案内画面を画像表示部20により表示させる(ステップS61)。ステップS61で表示される案内画面は、例えば、キャリブレーションを開始することを報知する画像やテキストを含む。
操作検出制御部152は、制御装置10が備える磁気センサー113の検出値を取得して(ステップS62)、取得した検出値に基づき制御装置10の方向を特定する。また、操作検出制御部152は、画像表示部20が備える磁気センサー237の検出値を取得して(ステップS63)、取得した検出値に基づき画像表示部20の方向を特定する。ここで得られる制御装置10及び画像表示部20の方向は、地磁気の向きを基準とする、いわゆる絶対的な方向である。操作検出制御部152は、ステップS62、S63で取得した、地磁気を基準とする制御装置10及び画像表示部20の向きに基づいて、制御装置10と画像表示部20との相対位置を特定する(ステップS64)。操作検出制御部152は、ステップS64で求めた相対位置を、初期状態における相対位置として位置検出データ129に設定する(ステップS65)。
図8の動作において、ステップS61で表示される案内画面に、制御装置10と画像表示部20との位置を、特定の位置にするよう案内する画像やテキストを含めてもよい。例えば、制御装置10を前部フレーム27や右保持部21、左保持部23等に接触させるよう案内する画像やテキストを表示してもよい。この場合、初期状態における制御装置10と画像表示部20との距離の概算値が決定されるので、磁気センサー113、237の検出値から、制御装置10と画像表示部20の相対位置をより高精度で特定できる。
図7の例では、カメラ61を利用することにより、磁気センサー113、237を用いた検出を行うことなく、キャリブレーションを実行できる。これに対し、図8の動作例では、磁気センサー113、237を利用してキャリブレーションを実行でき、カメラ61の撮像画像の解析等を必要としない。磁気センサー113、237が出力する検出値が安定するまでには比較的長い時間がかかるのに対し、カメラ61の撮像面は速やかに取得できる。その一方で、カメラ61の撮像画像を解析する処理は負荷が高い。従って、例えば、高負荷の処理を実行可能な構成では図7の方法を採用し、処理負荷を抑えたい場合は図8の方法を採用すればよい。また、磁気センサー113、237の仕様により、短時間で高精度の検出値を得られる場合は図8の動作を採用すればよい。
また、図7に示す動作において磁気センサー113、237の検出値を取得して地磁気に対する制御装置10、画像表示部20の方向を特定してもよい。また、図8に示す動作においてカメラ61の撮像画像に基づき、制御装置10からカメラ61の撮像面までの距離や、制御装置10の向き等を特定してもよい。
図9は、HMD100の操作と表示態様の例を示す説明図である。図9(A)は、HMD100を装着する使用者Uが行う操作の例を示し、図9(B)は制御装置10に対する仮想の軸を示す。図9(C)は画像表示部20における表示例を示す。
図9(A)、図9(B)、図9(C)には、制御装置10を用いた操作の一例として、制御装置10の向きに応じてレーザーポインターの動作を仮想的に実現する例を説明する。この例では、図9(A)に示すように、使用者の前方に仮想スクリーンSCVが位置するものと仮定して、この仮想スクリーンSCVに、制御装置10の向きに対応するポインターPVが表示される。仮想スクリーンSCVは実在しないのでポインターPVも仮想であり、この例では、画像表示部20によって、使用者に、仮想スクリーンSCV上のポインターPVのような画像を視認させる。
この例では、図9(B)に示すように、制御装置10の長軸方向に重なる仮想の軸AXが設定される。制御装置10の筐体において、トラックパッド14が配置された面を前面とし、前面に垂直な方向をY方向とし、トラックパッド14の幅方向に相当する方向をX方向とし、X方向及びY方向に垂直な方向をZ方向とした場合、軸AXはZ方向に平行である。
表示制御部147は、操作検出制御部152が検出する画像表示部20と制御装置10の相対位置に基づいて、図9(C)に示すように、ポインターPVを表示する。図9(C)においてVRは使用者の視野を示す。また、Vは視野VRにおいてハーフミラー261、262により画像が視認される範囲、すなわち表示領域を示す。表示領域Vは、図9(A)に示す仮想スクリーンSCVに対応し、ポインターPVの表示位置は、仮想スクリーンSCVに軸AXが交わる交点に対応する。
使用者が制御装置10を動かすと、制御装置10の動きに対応して、ポインターPVの位置が変化するように、表示が更新される。
ところで、仮想スクリーンSCVは、画像表示部20の正面に位置すると仮定される仮想の面であり、画像表示部20に対する相対位置が固定される。従って、使用者が頭の向きを変えることで、画像表示部20の向きが変われば、仮想スクリーンSCVの位置は画像表示部20に合わせて変わる。
従って、ポインターPVの位置は、制御装置10の動きだけでなく、画像表示部20の動きを考慮して求める必要がある。例えば、制御装置10と画像表示部20とが同じ方向に同じ量だけ移動した場合、ポインターPVの表示位置が変わらないことがある。この場合、6軸センサー111は動きがあったことを示す値であるが、ポインターPVの表示位置を更新しないことが望ましい。
このように、制御装置10の動きのみを用いてポインターPVの表示位置を適切に制御することは容易ではない。そこで、本実施形態のHMD100は、制御装置10と画像表示部20との相対位置に基づいて表示の制御を行う。
表示に係る制御部150の動作を詳細に説明する。
図10はHMD100の動作を示すフローチャートであり、制御装置10の相対位置に対応して画像を表示する動作を示す。
操作検出制御部152は、図9(A)に符号D1で示す仮想スクリーンSCVまでの距離を設定する(ステップS71)。仮想スクリーンSCVと制御装置10の仮想の軸AXとの交点であるポインターPVの位置は、距離D1によって異なるため、最初に距離D1が設定される。距離D1は使用者が入力してもよいし、デフォルト値として設定データ123に設定された距離であってもよい。
操作検出制御部152は、キャリブレーションで特定した初期状態からの制御装置10と画像表示部20の相対位置の変化量を求め、この変化量に基づき、仮想スクリーンSCVに対する制御装置10の変位量を特定する(ステップS72)。操作検出制御部152は、制御装置10の6軸センサー111の検出値の履歴から、初期状態から制御装置10が動いた方向と量を特定できる。同様に、操作検出制御部152は、初期状態から画像表示部20が動いた方向と量を特定できる。操作検出制御部152は、制御装置10と画像表示部20の動きの差分を方向ごとに求めることで、相対位置の変化量を求めることができる。操作検出制御部152は、初期状態からの制御装置10と画像表示部20の相対位置の変化量に基づき、仮想スクリーンSCVに対する制御装置10の方向を特定する(ステップS73)。ステップS73で、操作検出制御部152は、制御装置10と画像表示部20の相対位置の変化量から、画像表示部20に対する制御装置10の現在の位置及び方向を求める。そして、ステップS71で設定した距離D1だけ離れた仮想スクリーンSCVに対する制御装置10の方向と位置を求めることができる。
ここで、制御部150は、仮想スクリーンSCVに対する制御装置10の方向の変化と、位置の変化との両方を、画像表示部20の表示に反映するように処理を行ってもよいが、本実施形態では方向の変化のみを反映させる。すなわち、図9(B)に矢印C1で示すように、制御装置10がX−Z面内で(Y軸まわりに)回転する動き、及び、矢印C2で示すようにY−Z面内で(X軸まわりに)回転する動きに対応して、表示を更新する。この場合、制御装置10のY軸まわりの動きと、X軸回りの動きのそれぞれに対応して、ポインターPVの表示位置を更新する。また、Z軸まわりの動きはポインターPVの表示位置の変化を招かないため、考慮しなくてもよい。
本実施形態で、制御部150は、制御装置10の動きのうち、X軸、Y軸あるいはZ軸方向における平行移動成分に対応する表示位置の変更を行わない。例えば、図9(A)において、制御装置10が仮想スクリーンSCVに対して平行に移動した場合、制御装置10の方向を変える場合に比べてポインターPVの移動量は小さい。また、制御装置10を手に持って使用者が操作する場合、制御装置10を平行移動させる操作よりも、制御装置10を傾ける操作の方が、操作性が良い。このため、本実施形態では一例として、制御装置10のY軸まわりの動きと、X軸回りの動きのそれぞれに対応して、ポインターPVの表示位置を更新する。
操作検出制御部152は、ステップS73で求めた仮想スクリーンSCVに対する制御装置10の方向に基づき、ポインターPVの表示位置を算出し(ステップS74)、この表示位置を示すデータを出力する。表示制御部147は、ステップS74で算出された表示位置にポインターPVを移動させるように,表示を更新する(ステップS75)。なお、ステップS73〜S74の動作を表示制御部147が行ってもよい。また、ステップS71〜S75の全ての処理について、表示制御部147と操作検出制御部152のいずれが実行するかは適宜に決めてよく、上記は一例である。
図11は、HMD100の表示例を示す説明図であり、図11(A)及び図11(B)はジェスチャー操作に対応して表示を更新する前後の状態を示す。
図11(A)は、コンテンツの一種として、木の画像WVを表示する例を示す。画像WVはCG等の画像であって、実空間にある物体(実物体)ではない。ポインターPVは、制御装置10の向きに対応して表示される。
制御部150は、画像表示部20に対する制御装置10の向きの変化に追従するように、ポインターPVの表示位置を更新する。ここで、画像表示部20に対する制御装置10の相対位置の変化が所定のジェスチャーに該当する場合、制御部150は、ポインターPVの表示を切り替える。
図11(B)の例では、ジェスチャー操作に応じて、ポインターPVを工具ポインターCVに変更する例を示す。この例では、制御装置10により、木の画像WVに対し工具ポインターCVを動かす操作が可能になり、制御部150は、制御装置10の動きに追従して木の画像WVに対する彫刻を行うように表示を変化させる。このように、ジェスチャー操作により、ポインターPVの表示を工具ポインターCVに変化させ、さらに、工具ポインターCVの位置に対応する処理を切り替えさせることができる。
図12はHMD100の表示例を示す説明図であり、特に、実空間に位置する物体を対象とするAR表示を行う例を示す。図12(A)は実空間の物体と使用者との位置関係を示し、図12(B)は表示領域における表示例を示す。
図12(A)に示すように、HMD100は、使用者Uの視野にAR表示の対象物OBが視認される状態で、制御装置10の操作に対応するポインター等をAR表示することができる。
図12(B)はAR表示の例であり、視野VRに視認される対象物OBに対し、制御装置10の軸AX(図9(B))に対応してポインターHVが表示される。ポインターHVの表示位置は、制御装置10の軸AXと対象物OBとの接点、或いは、軸AXと対象物OBの近傍にある仮想面との交点に相当する位置である。
この場合、制御部150は、図12(A)に示すように、画像表示部20から実空間の対象物OBまでの距離D2を設定する。距離D2は、カメラ61の撮像画像を利用して検出してもよい。また、HMD100が、予め設定された測定方向に位置する測定対象物までの距離を検出する、上述した距離センサー(図示略)を備える構成であれば、この距離センサーにより距離D2を測定してもよい。また、使用者の入力操作により、距離D2が入力されてもよいし、予め距離D2のデフォルト値が設定されてもよい。この場合、使用者に対し、対象物OBから距離D2となる位置に移動するように、使用者を誘導する画像やテキストを表示してもよい。
以上説明したように、使用者が装着して使用するHMD100は、使用者の頭部に装着され、画像を表示する右導光板26及び左導光板28を有する画像表示部20と、右導光板26及び左導光板28とは別体で構成される制御装置10とを備える。HMD100は、画像表示部20と制御装置10との相対位置を検出する操作検出制御部152と、操作検出制御部152の検出結果に基づき右導光板26及び左導光板28の表示画像を制御する表示制御部147と、を備える。これにより、使用者の頭部に装着される右導光板26及び左導光板28によって、画像表示部20及び/または制御装置10の動きや位置に応じた表示を行うことが可能となる。また、表示を行う画像表示部20の動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
また、表示制御部147は、操作検出制御部152の検出結果に基づき右導光板26及び左導光板28によって表示される所定画像の表示位置を制御する。これにより、画像表示部20または制御装置10の動きに対応して、使用者の頭部に装着される右導光板26及び左導光板28に画像を表示する表示位置を制御できる。
また、表示制御部147が画像表示部20により表示させる所定画像は、使用者の注目を促すポインターであってもよく、この場合、使用者の注目を促すポインターの表示を、制御装置10と画像表示部20との相対位置に基づき制御できる。
また、操作検出制御部152は、画像表示部20と制御装置10との相対位置に基づき、制御装置10により所定のジェスチャー操作が行われたことを検出し、表示制御部147は、ジェスチャー操作に応じて右導光板26及び左導光板28の表示画像を制御する。これにより、画像表示部20または制御装置10の動きを利用したジェスチャー操作に対応して、表示を制御できる。
また、表示制御部147は、操作検出制御部152により検出される制御装置10と画像表示部20との相対位置に基づき、画像表示部20に表示される表示画像の表示位置を制御する。また、表示制御部147は、操作検出制御部152によりジェスチャー操作が検出された場合に、画像表示部20に表示される表示画像について、例えば拡大、縮小、貼り付け、ポインターの切り替え等の予め設定された変更を行う。これにより、制御装置10と画像表示部20との相対位置に基づきポインター等の表示を制御する処理とは別に、使用者がアクションを行うことで、他の処理を実行させることができる。
また、右導光板26及び左導光板28は、外光を透過することにより実物体を視認可能に構成され、実物体に重ねて画像を表示する。表示制御部147は、右導光板26及び左導光板28によって実物体に重ねて表示される画像の表示状態を、操作検出制御部152の検出結果に基づき制御する。これにより、右導光板26及び左導光板28を透過して視認できる実物体に対応する表示を行うことができる。
また、表示制御部147は、右導光板26及び左導光板28と実物体との距離に対応して画像の表示状態を制御するので、より高度に実物体に対応した表示を行うことができる。
また、画像表示部20は動きを検出する第1センサーを備え、制御装置10は動きを検出する第2センサーを備え、操作検出制御部152は、第1センサー及び第2センサーの検出値に基づき、画像表示部20と制御装置10との相対位置を検出する。これにより、画像表示部20と制御装置10との相対位置を、的確に検出できる。
また、操作検出制御部152は、初期状態における画像表示部20と制御装置10との相対位置と、初期状態に対する画像表示部20及び制御装置10の動きに基づき、画像表示部20と制御装置10との相対位置を検出する。これにより、初期状態を基準として、画像表示部20と制御装置10との相対位置を、より速やかに、かつ正確に検出できる。
また、画像表示部20はカメラ61を備え、操作検出制御部152は、画像表示部20が備えるカメラ61の撮像画像から制御装置10の画像を検出することにより、初期状態における画像表示部20と制御装置10との相対位置を特定する。これにより、撮像画像を利用して、初期状態における画像表示部20と制御装置10との相対位置を特定できる。
また、画像表示部20は磁気センサー237を備え、制御装置10は磁気センサー113を備え、操作検出制御部152は、磁気センサー237及び磁気センサー113の検出値に基づき、画像表示部20と制御装置10との相対位置を検出する。これにより、画像表示部20と制御装置10との相対位置を、地磁気センサーを利用して検出できる。
[第2実施形態]
図13は、第2実施形態に係るHMD100Aの構成を示す図である。
HMD100Aは、画像表示部20(図1)に代えて、NFCタグ69を有する画像表示部20Aを備えた構成である。すなわち、画像表示部20の右保持部21に、図13に示すようにNFCタグ69を埋設した構成を、第2実施形態として示す。
NFCタグ69は、NFC(Near Field Communication)規格に準拠したRFICタグである。NFCタグ69は、外部から送信される電波により起電力を発生して動作するパッシブタグであってもよく、画像表示部20A内部から電源供給を受けて動作するアクティブタグであってもよい。
制御装置10が備える通信部117は、NFCタグ69の読み取り用の周波数の無線信号を送信して、NFCタグ69を読み取ることが可能である。通信部117は、例えば、制御装置10においてトラックパッド14の反対側の面、すなわち裏面に設けることができる。この場合、制御装置10の裏面を右保持部21に接触させることで、通信部117がNFCタグ69を読み取れる。
第1実施形態で説明したキャリブレーション(図7、図8)において、NFCタグ69を利用することで、初期状態における画像表示部20と制御装置10の相対位置を特定の位置に設定できる。このキャリブレーションについて図14を参照して説明する。
図14はHMD100の動作を示すフローチャートであり、図6のステップS12のキャリブレーションの一例を示す。
表示制御部147は、キャリブレーションの実行を案内する案内画面を画像表示部20により表示させる(ステップS81)。ステップS81で表示される案内画面には、制御装置10の裏面を、右保持部21に当てるように案内する画像やテキストを含む。
制御部150は、通信部117によるNFCタグ69の読み取りを試行し(ステップS82)、読み取りができない間は(ステップS82;No)、成功するまで待機する。
NFCタグ69の読み取りに成功した場合(ステップS82;Yes)、操作検出制御部152は、初期状態の相対位置を位置検出データ129に設定する(ステップS83)。ステップS83では、NFCタグ69を読み取る姿勢として、予め登録された制御装置10と画像表示部20との相対位置を、位置検出データ129に設定する。NFCタグ69の読み取りに成功したことにより、制御装置10が右保持部21に接触したことは明らかであるから、制御装置10と画像表示部20の相対位置が特定できる。なお、制御装置10の向きについて厳密に初期状態を定義することも可能である。この場合、ステップS81で表示する案内画面によって、制御装置10を右保持部21に当接させるときの向き、角度等について詳細に案内すればよい。
このように、制御部150は、NFCタグ69を利用して、画像表示部20と制御装置10との相対位置が特定の位置となったことを検出し、画像表示部20と制御装置10との相対位置を設定してもよい。
なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。例えば、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示、或いは仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、上記各実施形態では、画像表示部20にポインターPV、HV、工具ポインターCV等を表示する表示位置の制御を例示して説明した。本発明はこれに限定されるものではなく、画像表示部20において表示可能な画像や調整内容は任意である。
例えば、制御装置10の位置や方向の変化に基づきジェスチャーを検出した場合に、HMD100の動作に関する設定を行うメニューを表示し、制御装置10の動きにより、メニューに対する操作を行うことが可能な構成であってもよい。また、ジェスチャーを検出した場合に、画像表示部20における表示輝度を変更する処理や、表示と音声出力とを停止するミュート処理を行ってもよく、その他、制御装置10の動きに応じてHMD100が実行する処理の内容は任意である。
また、画像表示部20、20Aは、使用者の頭部に装着されて画像を表示するものであればよい。例えば、画像表示部20、20Aに代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、画像表示部20、20Aと制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20、20Aとが無線通信回線により接続する構成であってもよい。また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
10…制御装置(第2デバイス)、20、20A…画像表示部(第1デバイス)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、40…接続ケーブル、61…カメラ(撮像部)、63…マイク、65…照度センサー、67…LEDインジケーター、100、100A…HMD(表示装置)、110…操作部、111…6軸センサー(第2センサー)、113…磁気センサー(第2センサー、第2地磁気センサー)、115…GPS、117…通信部、118…メモリー、119…バイブレーター、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、128…表示設定データ、129…位置検出データ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、149…撮像制御部、150…制御部、152…操作検出制御部(検出部)、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、211、231…インターフェイス、213、233…受信部、215…EEPROM、217、239…温度センサー、221、241…OLEDユニット、235…6軸センサー(第1センサー)、237…磁気センサー(第1センサー、第1地磁気センサー)。

Claims (14)

  1. 使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、
    前記表示部とは別体で構成される第2デバイスと、
    前記第1デバイスと前記第2デバイスとの相対位置を検出する検出部と、
    前記検出部の検出結果に基づき前記表示部の表示画像を制御する表示制御部と、
    を備えることを特徴とする表示装置。
  2. 前記表示制御部は、前記検出部の検出結果に基づき前記表示部により表示される所定画像の表示位置を制御すること、
    を特徴とする請求項1記載の表示装置。
  3. 前記表示制御部が前記表示部により表示させる前記所定画像は、前記使用者の注目を促すポインターであること、
    を特徴とする請求項2記載の表示装置。
  4. 前記検出部は、前記第1デバイスと前記第2デバイスとの相対位置に基づき、前記第2デバイスにより所定のアクションが行われたことを検出し、
    前記表示制御部は、前記アクションに応じて前記表示部の表示画像を制御すること、
    を特徴とする請求億1から3のいずれかに記載の表示装置。
  5. 前記表示制御部は、前記検出部により検出される前記第1デバイスと前記第2デバイスとの相対位置に基づき、前記表示部に表示される表示画像の表示位置を制御し、前記検出部により前記アクションが検出された場合には、前記表示部に表示される表示画像について予め設定された変更を行うこと、
    を特徴とする請求項4記載の表示装置。
  6. 前記表示部は、外光を透過することにより実物体を視認可能に構成され、前記実物体に重ねて画像を表示し、
    前記表示制御部は、前記表示部により前記実物体に重ねて表示される画像の表示状態を、前記検出部の検出結果に基づき制御すること、
    を特徴とする請求項1から5のいずれかに記載の表示装置。
  7. 前記表示制御部は、前記表示部と前記実物体との距離に対応して画像の表示状態を制御すること、
    を特徴とする請求項6記載の表示装置。
  8. 前記第1デバイスは動きを検出する第1センサーを備え、
    前記第2デバイスは動きを検出する第2センサーを備え、
    前記検出部は、前記第1センサー及び前記第2センサーの検出値に基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、
    を特徴とする請求項1から7のいずれかに記載の表示装置。
  9. 前記検出部は、初期状態における前記第1デバイスと前記第2デバイスとの相対位置と、前記初期状態に対する前記第1デバイス及び前記第2デバイスの動きに基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、
    を特徴とする請求項1から8のいずれかに記載の表示装置。
  10. 前記第1デバイスは撮像部を備え、
    前記検出部は、前記第1デバイスが備える前記撮像部の撮像画像から前記第2デバイスの画像を検出することにより、初期状態における前記第1デバイスと前記第2デバイスとの相対位置を特定すること、
    を特徴とする請求項9記載の表示装置。
  11. 前記検出部は、前記第1デバイスと前記第2デバイスとの相対位置が特定の位置となったことを検出し、前記特定の位置を、初期状態における前記第1デバイスと前記第2デバイスとの相対位置とすること、
    を特徴とする請求項9記載の表示装置。
  12. 前記第1デバイスは第1地磁気センサーを備え、
    前記第2デバイスは第2地磁気センサーを備え、
    前記検出部は、前記第1地磁気センサー及び前記第2地磁気センサーの検出値に基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、
    を特徴とする請求項1から8のいずれかに記載の表示装置。
  13. 使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、を備える表示装置を制御して、
    前記第1デバイスと前記第2デバイスとの相対位置を検出し、
    前記相対位置の検出結果に基づき前記表示部の表示画像を制御すること、
    を備えることを特徴とする表示装置の制御方法。
  14. 使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記第1デバイスと前記第2デバイスとの相対位置を検出し、前記相対位置の検出結果に基づき前記表示部の表示画像を制御するためのプログラム。
JP2016013943A 2016-01-28 2016-01-28 表示装置、表示装置の制御方法、及び、プログラム Pending JP2017134630A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016013943A JP2017134630A (ja) 2016-01-28 2016-01-28 表示装置、表示装置の制御方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016013943A JP2017134630A (ja) 2016-01-28 2016-01-28 表示装置、表示装置の制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2017134630A true JP2017134630A (ja) 2017-08-03

Family

ID=59503603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016013943A Pending JP2017134630A (ja) 2016-01-28 2016-01-28 表示装置、表示装置の制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2017134630A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112558300A (zh) * 2019-09-10 2021-03-26 精工爱普生株式会社 显示系统、记录介质、信息处理装置的控制方法和显示装置
CN113050278A (zh) * 2019-12-26 2021-06-29 精工爱普生株式会社 显示系统、显示方法以及记录介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110735A (ja) * 1993-10-14 1995-04-25 Nippon Telegr & Teleph Corp <Ntt> 装着型ペン入力装置
JPH07281818A (ja) * 1994-04-08 1995-10-27 Canon Inc 3次元仮想指示入力システム
JP2001159951A (ja) * 1999-12-02 2001-06-12 Nec Corp 情報処理装置および情報処理方法
JP2005321479A (ja) * 2004-05-06 2005-11-17 Olympus Corp 頭部装着型表示装置
JP2011186856A (ja) * 2010-03-09 2011-09-22 Nec Corp ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
US20120249531A1 (en) * 2011-03-29 2012-10-04 Sony Mobile Communications Ab Virtual pointer
JP2015026286A (ja) * 2013-07-26 2015-02-05 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP2015090635A (ja) * 2013-11-07 2015-05-11 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP2015118442A (ja) * 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015158706A (ja) * 2014-02-21 2015-09-03 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2015170257A (ja) * 2014-03-10 2015-09-28 富士通株式会社 入力方法,プログラム及び入力装置
JP2015213212A (ja) * 2014-05-01 2015-11-26 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110735A (ja) * 1993-10-14 1995-04-25 Nippon Telegr & Teleph Corp <Ntt> 装着型ペン入力装置
JPH07281818A (ja) * 1994-04-08 1995-10-27 Canon Inc 3次元仮想指示入力システム
JP2001159951A (ja) * 1999-12-02 2001-06-12 Nec Corp 情報処理装置および情報処理方法
JP2005321479A (ja) * 2004-05-06 2005-11-17 Olympus Corp 頭部装着型表示装置
JP2011186856A (ja) * 2010-03-09 2011-09-22 Nec Corp ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
US20120249531A1 (en) * 2011-03-29 2012-10-04 Sony Mobile Communications Ab Virtual pointer
JP2015026286A (ja) * 2013-07-26 2015-02-05 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP2015090635A (ja) * 2013-11-07 2015-05-11 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP2015118442A (ja) * 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015158706A (ja) * 2014-02-21 2015-09-03 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2015170257A (ja) * 2014-03-10 2015-09-28 富士通株式会社 入力方法,プログラム及び入力装置
JP2015213212A (ja) * 2014-05-01 2015-11-26 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112558300A (zh) * 2019-09-10 2021-03-26 精工爱普生株式会社 显示系统、记录介质、信息处理装置的控制方法和显示装置
CN113050278A (zh) * 2019-12-26 2021-06-29 精工爱普生株式会社 显示系统、显示方法以及记录介质
CN113050278B (zh) * 2019-12-26 2023-06-06 精工爱普生株式会社 显示系统、显示方法以及记录介质

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US11536964B2 (en) Head-mounted display apparatus, display control method, and computer program
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US20230251490A1 (en) Head-mounted type display device and method of controlling head-mounted type display device
JP2018160735A (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US20190285896A1 (en) Transmission-type head mounted display apparatus, method of controlling transmission-type head mounted display apparatus, and computer program for controlling transmission-type head mounted display apparatus
JP2018142168A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018124721A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017182228A (ja) 入力装置、入力方法、コンピュータープログラム
JP2020071587A (ja) 表示装置、及び、表示装置の制御方法
JP2017146726A (ja) 移動支援装置、及び、移動支援方法
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017142294A (ja) 表示装置、及び、表示装置の制御方法
JP2017182413A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2018067160A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200519