JP2018022426A - 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、頭部装着型表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP2018022426A
JP2018022426A JP2016154688A JP2016154688A JP2018022426A JP 2018022426 A JP2018022426 A JP 2018022426A JP 2016154688 A JP2016154688 A JP 2016154688A JP 2016154688 A JP2016154688 A JP 2016154688A JP 2018022426 A JP2018022426 A JP 2018022426A
Authority
JP
Japan
Prior art keywords
unit
output
display
control unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016154688A
Other languages
English (en)
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016154688A priority Critical patent/JP2018022426A/ja
Publication of JP2018022426A publication Critical patent/JP2018022426A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示装置を操作する使用者が、表示され画像等を見ながら操作を行うことを可能にし、利便性の向上を図る。【解決手段】画像を表示する画像表示部20と、操作領域における操作を検出する操作検出部と、振動または音を出力するヘッドセット30及び振動出力部19と、検出制御部151で検出した操作を画像表示部20による表示に反映させる制御部150と、を備え、制御部150は、操作検出部で検出される操作の位置と、操作領域に設定される報知対象領域との相対位置に基づいて、出力部による出力を実行するHMD100。【選択図】図5

Description

本発明は、表示装置、頭部装着型表示装置、及び、表示装置の制御方法に関する。
従来、使用者の操作を検出する機能を有する表示装置が知られている(例えば、特許文献1参照)。特許文献1記載の頭部装着型表示装置は、タッチパッドの操作面に対する操作に応じて、ポインティング操作、クリック操作、ドラッグ操作、フリック操作等を検出する。また、操作面に設定される特定操作領域では十字キーによる操作やボタン操作を行った場合と同様の機能が割り当てられる。
特開2014−154074号公報
特許文献1記載の特定操作領域のように、操作用の領域が予め定められている場合、例えばタッチパッドを目視して操作位置を確認することが求められる。このため、使用者は、表示部が表示する画像等から目を離す必要があった。
本発明は上記事情に鑑みてなされたものであり、表示装置を操作する使用者が、表示され画像等を見ながら操作を行うことを可能にし、利便性の向上を図ることを目的とする。
上記課題を解決するため、本発明は、画像を表示する表示部と、操作領域における操作を検出する操作検出部と、振動または音を出力する出力部と、前記操作検出部で検出した操作を前記表示部による表示に反映させる制御部と、を備え、前記制御部は、前記操作検出部で検出される操作の位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部による出力を実行する。
本発明によれば、操作の位置と報知対象領域との相対位置を振動または音によって報知し、操作を行う使用者に知らせることができる。これにより、使用者は、表示部が表示する内容を見ながら適切な位置を操作することができ、表示装置の利便性の向上を図ることができる。
また、本発明は、前記制御部は、前記操作検出部で検出される操作の位置が前記報知対象領域内である場合、または、前記報知対象領域外である場合に、前記出力部による出力を実行する。
本発明によれば、出力部によって、操作の位置が報知対象領域内であること、または、報知対象領域外であることを報知できる。
また、本発明は、前記制御部は、前記操作検出部で検出される操作の位置が、前記報知対象領域の外から前記報知対象領域内に移動した場合、または、前記報知対象領域内から前記報知対象領域の外に移動した場合に、前記出力部による出力を実行する。
本発明によれば、出力部によって、操作の位置が報知対象領域の外から報知対象領域内に移動したこと、または、報知対象領域内から報知対象領域の外に移動したことを報知できる。
また、本発明は、前記制御部は、前記表示装置の動作モードを、前記操作検出部で検出される操作の位置に基づき位置入力操作を検出する第1入力モードと、前記操作検出部で検出される操作の位置に基づき位置入力操作以外の操作を検出する第2入力モードとに設定し、前記操作検出部で検出される操作の位置が前記報知対象領域内である場合は前記第2入力モードを設定する。
本発明によれば、報知対象領域内の操作を、報知対象領域内に該当しない位置と異なる操作として検出する構成において、報知対象領域内の操作を検出した場合に報知を行うことができる。このため、操作性を低下させることなく、表示装置に対する操作のバリエーションを増やすことができ、利便性の向上を図ることができる。
また、本発明は、前記制御部は、前記操作検出部で検出される操作の位置と前記操作領域に設定される報知対象領域との相対位置に基づき前記出力部による出力を実行する場合に、所定の画像を前記表示部によって表示させる。
本発明によれば、操作検出部で検出される操作の位置と報知対象領域との相対位置に関して、振動または音による報知とともに、表示による報知を行うことができる。
また、本発明は、前記制御部は、前記操作検出部で検出される操作の位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部により出力する振動または音について、周波数または出力パターンを設定する。
本発明によれば、出力部が出力する振動または音の周波数または出力パターンにより、操作検出部で検出される操作の位置と報知対象領域との相対位置に関する情報を、使用者に知らせることができる。
また、本発明は、前記制御部は、前記出力部により出力する振動または音について、前記操作検出部で検出される操作の位置と前記操作領域に設定される報知対象領域との間の距離に応じて、周波数または出力パターンを設定する。
本発明によれば、出力部が出力する振動または音の周波数または出力パターンにより、操作検出部で検出される操作の位置と報知対象領域との距離を知らせることができる。
また、本発明は、前記表示部と別体の出力部本体を有し、前記出力部、若しくは、前記出力部と前記操作検出部が前記出力部本体に配置される。
本発明によれば、表示部と別体として設けられる出力部により振動または音を出力して、操作の位置に関して報知を行うことができる。また、振動または音の出力が表示に影響しにくいという利点がある。
また、本発明は、前記出力部及び前記操作検出部は前記表示部に配置される。
本発明によれば、表示部に配置される操作検出部が検出する操作の位置について報知を行うことができる。
また、本発明は、前記操作検出部は接触操作を検出し、前記制御部は、前記操作検出部で検出される接触位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部による出力を実行する。
本発明によれば、接触操作の操作の位置に関して出力部により報知を行うので、使用者は、表示部が表示する内容を見ながら適切な位置を接触操作することができる。
また、本発明は、前記操作検出部は、仮想的に設定される仮想操作領域に対する操作を検出する。
本発明によれば、仮想操作領域における操作の位置について、出力部によって報知を行うことができる。
また、本発明は、前記表示部は、使用者の頭部に装着されて前記使用者に画像を視認させる頭部装着型表示装置である。
本発明によれば、頭部装着型表示装置が表示する画像を見ながら、適切な位置を操作できる。
また、上記課題を解決するため、使用者の頭部に装着され、外景を視認可能に画像を表示する表示部と、前記表示部により外景を視認可能な範囲に重なる操作領域に対する操作を検出する制御部と、振動または音を出力する出力部と、を備え、前記制御部は、前記操作検出部で検出した操作を前記表示部による表示に反映させ、前記操作検出部で検出される操作の位置と、前記操作領域に設定される仮想の報知対象領域との相対位置に基づいて、前記出力部による出力を実行する。
本発明によれば、外景を視認可能に画像を表示する頭部装着型表示装置により、操作領域における操作を表示に反映させることができ、操作性の向上を図ることができる。さらに、操作の位置と報知対象領域との相対位置を、出力部により報知できる。これにより、使用者は、表示部が表示する内容を見ながら適切な位置を操作することができ、表示装置の利便性の向上を図ることができる。
また、上記課題を解決するため、本発明は、画像を表示する表示部、操作領域における操作を検出する操作検出部、及び、振動または音を出力する出力部を備える表示装置を制御して、前記操作検出部で検出した操作を前記表示部による表示に反映させるステップと、前記操作検出部で検出される操作の位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部による出力を実行するステップと、を有する。
本発明によれば、操作の位置と報知対象領域との相対位置を振動または音によって報知し、操作を行う使用者に知らせることができる。これにより、使用者は、表示部が表示する内容を見ながら適切な位置を操作することができ、表示装置の利便性の向上を図ることができる。
本発明は、上述した表示装置、及び表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記の表示装置を含む表示システムを構成することも可能である。また、上記の制御方法を実行するために制御部やコンピューターが実行するプログラムとして実現してもよい。また、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
第1実施形態のHMDの外観図。 HMDの光学系の構成を示す図。 画像表示部の構成を示す斜視図。 制御装置の構成を示す平面図。 HMDのブロック図。 制御装置の機能ブロック図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 第2実施形態のHMDの外観図。 第2実施形態の制御装置の構成を示す平面図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの表示例を示す図。 HMDの表示例を示す図。 HMDの表示例を示す図。 第3実施形態のHMDの表示例を示す図。 仮想的な操作領域を使用する操作の例を示す図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 時計型デバイスの外観図。 リング型デバイスの外観図。
[第1実施形態]
図1は、本発明を適用した第1実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、図1に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備える。
ケース10Aは、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18の各部を備える。ボタン11、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18は、使用者により操作される被操作部である。また、LEDインジケーター12は、例えばHMD100の動作状態を示す副表示部として機能する。使用者は、被操作部を操作することにより、HMD100を操作できる。制御装置10は、HMD100(表示装置)のコントローラーとして機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示を実現する。右表示ユニット22は、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を実現する。左表示ユニット24は、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導く。右導光板26及び左導光板28に導かれた画像光は使用者の右眼と左眼に入射して、使用者に虚像を視認させる。これにより、画像表示部20は画像を表示する。
使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の構成、及び配置は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像するように決められる。例えば、カメラ61は、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例で、カメラ61は、前部フレーム27の端部ER側に配置されるが、カメラ61は端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の方向および広さは適宜設定可能である。本実施形態では、後述するように、カメラ61の画角が、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、カメラ61の画角は、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように設定される。
カメラ61は、制御部150(図6)が備える撮像制御部149の制御に従って撮像を実行する。カメラ61は、撮像画像データを、講述するインターフェイス211を介して制御部150に出力する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図6)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図6)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図1に戻り、制御装置10及び画像表示部20は、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46及び制御装置10は、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及び、マイク63を有するヘッドセット30が、コネクター46に接続される。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図5)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
図4は、制御装置10の構成を詳細に示す平面図である。
ケース10Aが有する面のうち1つの面に、ボタン11、LEDインジケーター12、及びトラックパッド14が配置される。この面を操作面10Bとする。ケース10Aの側面には、上下キー15、切替スイッチ16、及び電源スイッチ18が配置される。
ボタン11は、使用者が操作するメニューキー、ホームキー、戻るキー等、独立して操作可能なキーを含む。ボタン11が有するキーは、いわゆる物理キーであってもよいし、ソフトウェアキーであってもよい。使用者は、ボタン11が備える各種キーを、制御装置10が実行するオペレーティングシステム143(図6)に対する操作等を行うために使用できる。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
トラックパッド14は、ケース10Aの平面に重ねて配置され、接触操作を検出する。トラックパッド14は、例えば、使用者の手、指、その他の身体の一部による接触操作を検出するが、トラックパッド14を操作する操作体は使用者の身体に限定されない。例えば、使用者が手に持って使用するペン型の操作体による接触操作を、トラックパッド14が検出してもよい。トラックパッド14の操作面は操作領域に相当する。
トラックパッド14は、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。具体的には、トラックパッド14に、静電容量の変化により操作を検出する静電容量式のセンサーや、押圧を検出する抵抗膜式のセンサーを利用できる。また、操作体(図示略)がコイルを有する回路を備える場合、トラックパッド14は、操作体のコイルと電磁的に結合するコイルを有し、操作体の位置を電磁的に検出する検出回路を備えてもよい。
トラックパッド14の検出面には、例えば図4に示すように、座標系が設定される。図4の例では、ケース10Aの長手方向に沿ってY軸が設定され、Y軸に直交する方向にX軸が設定される。これにより、トラックパッド14がタッチ操作を検出する検出位置を、X−Y直交座標系の座標で特定できる。
トラックパッド14の操作面の一部は、検出領域14Aに割り当てられる。制御装置10は、トラックパッド14に対する接触操作を検出でき、検出領域14Aに含まれる位置の接触操作を、検出領域14Aに含まれない位置の接触操作と区別できる。検出領域14Aは、トラックパッド14がタッチ操作を検出する領域の少なくとも一部を含む。図4の例で、検出領域14Aは、トラックパッド14の側方の一端部に位置するジェスチャー領域14B、及び、他端部に位置するジェスチャー領域14Cを含む。ジェスチャー領域14B、14Cは、トラックパッド14の検出面においてX軸方向の端部にある。検出領域14Aは、本発明の報知対象領域に相当する。
検出領域14Aは、トラックパッド14の操作面の一部にソフトウェア的に設定され、トラックパッド14の外観から検出領域14Aが特定できない構成が考えられるが、検出領域14Aを区別可能な構成であってもよい。例えば、トラックパッド14においてジェスチャー領域14B、14Cの位置や、ジェスチャー領域14B、14Cと他の領域との境界を視覚的に示す画像、模様、線等を印刷または付着してもよい。また、タッチ操作時に指や手の触感により、ジェスチャー領域14B、14Cの位置や、ジェスチャー領域14B、14Cと他の領域との境界を認識できるようにしてもよい。例えば、ジェスチャー領域14B、14Cの輪郭を凹凸により示す構成としてもよい。
本実施形態では、制御装置10は、ジェスチャー領域14B、14Cにおけるタッチ操作に基づきジェスチャーを検出する。ジェスチャーは、タッチ操作された位置の軌跡について、予め設定されたパターンである。例えば、ジェスチャー領域14B、14CにおいてY軸方向に移動する操作位置の軌跡をジェスチャーとして設定できる。この場合、ジェスチャー領域14Bあるいはジェスチャー領域14Cで、タッチ操作の位置がY軸方向に所定量移動した場合、制御装置10はジェスチャー操作を検出する。制御装置10は、ジェスチャー操作に対応する機能を実行する。例えば、制御装置10は、画像表示部20が表示する映像コンテンツを上下方向にスクロールさせる。
ジェスチャーに該当しないタッチ操作を検出した場合、制御装置10は、位置入力操作を検出する。位置入力操作は、ジェスチャー領域14B、14Cを含むトラックパッド14の操作面の全体で検出される。これに対し、ジェスチャー操作は、ジェスチャー領域14B、14Cで検出され、ジェスチャー領域14B、14Cの外でジェスチャーに該当する操作が行われた場合、制御装置10は、位置入力操作を検出する。
制御装置10で設定できるジェスチャーの種類、及び、数は任意である。ジェスチャーとして検出する操作位置の軌跡の形状も任意である。また、ジェスチャー領域14B、14Cの位置、サイズ、及び大きさも任意である。ケース10Aの形状、トラックパッド14の形状やサイズ、ジェスチャー領域14B、14Cで検出するジェスチャーの形を考慮して任意に設定できる。
制御装置10は、トラックパッド14の検出領域14Aに対応して、バイブレーター19A〜19Dを備える。バイブレーター19A〜19Dは、後述する制御部150の制御に従って振動を発生する装置である。バイブレーター19A〜19Dは、それぞれ、モーター或いはアクチュエーターで構成される動力源と、動力源が発生する動きを振動に変える変換部とを有する。例えば、バイブレーター19A〜19Dは、モーターと、モーターの回転軸に偏心して固定される錘とを備えて構成される。バイブレーター19A〜19Dが生成する振動の強さは特に制限されないが、使用者がケース10Aを手に持つ状態で、使用者が振動を知覚できることが望ましい。
バイブレーター19A〜19Dは、ケース10Aに収容され、例えば、ケース10Aの内部に固定される基板(図示略)に取り付けられる。本実施形態では、バイブレーター19A〜19Dの設置位置が、ジェスチャー領域14B、14Cの位置に対応する。バイブレーター19Aの位置は、ジェスチャー領域14BのY軸方向の一端部に重なる位置であり、バイブレーター19Bの位置は、ジェスチャー領域14BのY軸方向の他端部に重なる位置である。バイブレーター19Cの位置は、ジェスチャー領域14CのY軸方向の一端部に重なる位置であり、バイブレーター19Dの位置は、ジェスチャー領域14CのY軸方向の他端部に重なる位置である。
後述するように、制御部150は、使用者がトラックパッド14にタッチ操作を行ったことを検出した場合、検出した操作位置と、ジェスチャー領域14B、14Cとの位置関係に対応して、バイブレーター19A〜19Dのいずれかを振動させる。使用者は、バイブレーター19A〜19Dの振動を知覚して、操作位置とジェスチャー領域14B、14Cとの位置関係を知ることができる。制御部150は、使用者が操作した操作位置に対応してバイブレーター19A〜19Dを選択して、振動させる。これにより、使用者は、振動を知覚した位置を判断することで、操作位置とジェスチャー領域14B、14Cとの相対的な位置関係を、より詳細に知ることができる。
図3は、画像表示部20の構成を示す斜視図であり、画像表示部20を使用者の頭部側から見た要部構成を示す。この図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物を注視する場合、使用者から対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物が画角に含まれるように、設定されることが好ましい。
一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
図5は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、およびLED表示部17を含む。操作部110は、ボタン11が有するボタンやスイッチ等の操作子が操作された場合に、操作された操作子に対応する操作信号をメインプロセッサー140に出力する。
LED表示部17は、メインプロセッサー140の制御に従って、LEDインジケーター12の点灯、及び消灯を制御する。また、LED表示部17は、トラックパッド14(図1)の直下に配置されるLED(図示略)、及び、このLEDを点灯させる駆動回路を含む構成であってもよい。この場合、LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。コネクター46はヘッドセット30に接続される。音声インターフェイス182が出力する音声信号は右イヤホン32、及び左イヤホン34に入力され、これにより右イヤホン32及び左イヤホン34が音声を出力する。また、ヘッドセット30が備えるマイク63は、音声を集音して、音声信号を音声インターフェイス182に出力する。マイク63から音声インターフェイス182に入力される音声信号は、外部コネクター184に入力される。
音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。ヘッドセット30は、本発明の出力部に相当する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
バイブレーター19A、19B、19C、19Dは、振動出力部19を構成する。振動出力部19は、メインプロセッサー140の制御に従って動作し、振動を発生する。振動出力部19は本発明の出力部に相当する。
振動出力部19は、メインプロセッサー140の制御によりバイブレーター19A、19B、19C、19Dに駆動電力を出力する駆動回路(図示略)を備えてもよい。この場合、メインプロセッサー140は駆動回路(図示略)を制御して、バイブレーター19A、19B、19C、19Dにより振動を発生させる。また、バイブレーター19A、19B、19C、19Dに対し電源部130から電力が供給され、メインプロセッサー140がバイブレーター19A、19B、19C、19Dを個別に制御して振動を発生させてもよい。これらのいずれの構成でも、メインプロセッサー140は、バイブレーター19A、19B、19C、19Dのいずれか1以上を選択して振動させることができる。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図4)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図4)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
図6は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図6に示す記憶部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び、制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。
制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、検出データ125、表示制御データ126、及び、出力設定データ127を記憶する。設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
検出データ125は、トラックパッド14に対する操作を検出する処理に関する設定データである。制御部150は、トラックパッド14に対する操作を検出する場合に検出データ125を参照する。検出データ125は、トラックパッド14へのタッチ操作を検出する条件を定めるデータを含む。具体的には、検出データ125は、検出領域14Aでジェスチャー操作を検出する処理に関するデータを含む。例えば、検出データ125は、トラックパッド14における検出領域14Aの位置及びサイズを示すデータを含む。また、例えば、検出データ125は、検出領域14Aにおいて検出される操作がジェスチャー操作に該当するか否かを判定するためのデータを含む。例えば、ジェスチャー操作として検出する操作位置の軌跡の形状、位置、大きさ、その他の条件を含めることができる。また、検出データ125は、ジェスチャー操作に対応して制御部150が実行する処理を指定するデータを含んでもよい。検出データ125が含むデータは、トラックパッド14に設定されるX−Y座標系における座標を用いて記述されたデータであってもよい。
表示制御データ126は、トラックパッド14に対する操作を画像表示部20による表示に反映させる処理に関する設定データである。制御部150は、トラックパッド14に対する操作を検出した後、表示制御データ126を参照して、画像表示部20の表示を制御する。例えば、表示制御データ126は、制御部150がジェスチャー操作に対応して表示を制御する場合に、検出されたジェスチャー操作に対応する表示態様、或いは、表示の変化の態様を設定するデータを含む。具体的には、検出データ125により、ジェスチャー領域14Bにおけるジェスチャー操作に対応して表示スクロールを実行するよう設定された場合、表示制御データ126は、表示をスクロールする方向、及び、スクロール量を設定するデータを含む。
出力設定データ127は、制御部150がヘッドセット30による報知音の出力、及び/または振動出力部19による振動の出力を実行させる処理を設定するデータである。具体的には、出力設定データ127は、トラックパッド14の操作位置に対応して制御部150が音及び/または振動を出力する条件を指定するデータを含む。例えば、出力設定データ127は、トラックパッド14の操作位置から、使用する出力部としてヘッドセット30及び振動出力部19のいずれか1以上を選択するためのデータを含む。また、例えば、出力設定データ127は、振動出力部19において振動を生成するバイブレーター19A〜19Dを選択するためのデータを含んでも良い。また、例えば、出力設定データ127は、バイブレーター19A〜19Dを振動させる場合の振動パターンを示すデータを含んでもよい。振動パターンは、例えば、振動の周波数、振動継続時間、間欠的に振動する場合の振動継続時間と振動停止時間の組合せ等で構成される。また、振動の周波数や振動継続時間を経時的に変化させる振動パターンであってもよく、この場合、出力設定データ127は、振動の周波数や振動継続時間の変化を指定するデータを含む。出力設定データ127は複数の振動パターンを示すデータを含んでもよく、トラックパッド14の操作位置と振動パターンとを対応付けるデータを含んでもよい。
また、出力設定データ127は、ヘッドセット30により出力する音のパターンを示すデータを含んでもよい。ヘッドセット30が出力する音は、いわゆる報知音とすることができるが、報知音は単一または複数の音階の音で構成されるビープ音、警報音、その他の音であってもよいし、より複雑な音声を用いてもよい。例えば、報知音は人の声、楽器の音、音楽(楽曲)等を用いてもよい。ヘッドセット30が出力する音、或いは報知音のパターンは、例えば、音声の周波数、音色、メロディー、リズム等を含んでもよい。また、出力設定データ127は、右イヤホン32と左イヤホン34の両方から音声を出力するか、一方から音声を出力するかを指定するデータを含んでもよい。また、出力設定データ127は、複数の音声のパターンに関するデータを含んでもよく、それぞれの音声のパターンがトラックパッド14の検出位置に対応づけられてもよい。
制御部150は、オペレーティングシステム(OS)143、画像処理部145、表示制御部147、撮像制御部149、検出制御部151(操作検出部)、及び、出力制御部153の機能を有する。オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
画像処理部145は、画像表示部20により表示する画像または映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
表示制御部147は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
また、表示制御部147は、検出制御部151がジェスチャー操作を検出した場合に、表示制御データ126に従って、画像表示部20に表示する画像等の表示態様を変化させる。
撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。
検出制御部151は、トラックパッド14及び操作部110における操作を検出し、操作に対応するデータを出力する。検出制御部151は、例えば、操作部110のボタン等が操作された場合、操作内容を示す操作データを生成して、表示制御部147に出力する。表示制御部147は、検出制御部151から入力される操作データに従って表示状態を変更する。
検出制御部151は、トラックパッド14における操作を検出した場合に、トラックパッド14における操作位置の座標を取得する。検出制御部151は、操作位置の軌跡を生成する。操作位置の軌跡は、トラックパッド14のタッチ操作が解除されない間、すなわち操作体がトラックパッド14に接触した状態が継続する間の操作位置の軌跡である。検出制御部151は、操作位置の軌跡が、検出データ125に含まれるジェスチャー操作のデータに該当するか否かを判定する。検出制御部151は、操作位置の軌跡がジェスチャー操作のデータに該当する場合、ジェスチャー操作を検出する。
出力制御部153は、検出制御部151により検出された操作位置に基づき、表示制御データ126の設定に従って、振動出力部19による振動の出力、及び、ヘッドセット30による音の出力のいずれか1以上を実行する。
HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図7、図8、及び図9は、HMD100の動作を示すフローチャートであり、詳細には、トラックパッド14の操作を検出した場合の動作を示す。
HMD100は、トラックパッド14の操作を検出した場合に、操作位置に基づきヘッドセット30または振動出力部19で出力する動作(図7、図8)、及び、操作を表示に反映させる動作(図9)を実行する。これらの動作は、検出制御部151がトラックパッド14のタッチ操作を検出した後で、互いに独立して実行され、例えば並列的に実行することも可能である。
図7は、トラックパッド14の操作に応じて音及び/または振動を出力する動作のフローチャートである。図7の動作は主として出力制御部153が実行する。図7の動作は、HMD100がトラックパッド14のタッチ操作を検出可能な状態になってから、開始される。例えば、HMD100の電源がオンにされ、制御部150がトラックパッド14を含む各部を初期化した後で開始される。
制御部150は、トラックパッド14のタッチ操作を検出したか否かを判定し(ステップS11)、タッチ操作が行われるまで待機する(ステップS11;No)。タッチ操作を検出した場合(ステップS11;Yes)、制御部150は操作位置に応じた出力をする出力処理を実行する(ステップS12)。出力処理については図8を参照して詳述する。
その後、制御部150は、HMD100の動作を停止するか否かを判定する(ステップS13)。HMD100が動作を継続し、トラックパッド14の操作を検出する状態が継続する場合(ステップS13;No)、ステップS11に戻る。また、HMD100が動作を終了する場合(ステップS13;Yes)、制御部150は本処理を終了する。
図8は、出力処理(ステップS12)を詳細に示すフローチャートである。
制御部150は、トラックパッド14で検出されたタッチ操作の操作位置が、検出領域14A(ジェスチャー領域14Bまたはジェスチャー領域14C)内であるか否かを判定する(ステップS21)。ステップS21で、操作位置が検出領域14Aとその他の領域との境界上である場合の判定結果は予め検出データ125で設定される。検出制御部151は、検出データ125に従って判定を行い、例えば、境界上の位置を、検出領域14A内の位置と判定してもよいし、検出領域14Aの外と判定してもよい。本実施形態で操作位置が検出領域14A内であるか外であるかを判定する他の全ての処理についても同様である。
操作位置が検出領域14A内である場合(ステップS21;Yes)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS22)。第1実施形態では、操作位置が検出領域14A内であることを報知する音のパターン或いは振動パターンとして、パターン1が指定される。
また、操作位置が検出領域14A内でない場合(ステップS21;No)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS31)。第1実施形態では、操作位置が検出領域14A内でないことを報知する音のパターン或いは振動パターンとして、パターン3が指定される。また、ステップS31では、操作位置が検出領域14Aの外であるため、操作位置とジェスチャー領域14Bまたはジェスチャー領域14Cとの距離に対応するパターンを設定してもよい。この場合、出力設定データ127に、距離に対応付けてパターンが設定され、制御部150が、操作位置とジェスチャー領域14Bまたはジェスチャー領域14Cとの距離に対応するパターンを設定する。ここで、制御部150は、ジェスチャー領域14B、14Cのうち操作位置に近い側のジェスチャー領域を特定し、特定したジェスチャー領域と操作位置との距離に対応するパターンを設定すればよい。また、ジェスチャー領域14B、14Cと操作位置との距離は、予め設定されるジェスチャー領域14B、14Cの基準位置と操作位置との距離に基づき求めることができる。ジェスチャー領域14B、14Cの基準位置は、ジェスチャー領域14B、14Cの境界に設定される位置、端部の位置、或いは中心位置等とすることができる。ステップS31より後の動作は後述する。
続いて、制御部150は、出力設定データ127に含まれるデータ或いは設定データ123に従って、使用する出力部を設定する(ステップS23)。具体的には、制御部150は、ヘッドセット30と振動出力部19のどちらを使用するかを設定する。振動出力部19を使用する場合、制御部150は、バイブレーター19A〜19Dのいずれかを選択する。例えば、制御部150は、バイブレーター19A〜19Dのうち、ステップS11(図7)で検出された操作位置に最も近いバイブレーターを、振動を発生するバイブレーターとして選択する。
制御部150は、ステップS23で設定した出力部によって、ステップS22で設定した出力パターンに従って出力を開始させる(ステップS24)。
その後、制御部150は、トラックパッド14において検出される操作位置が検出領域14Aの外に出たか否かを判定する(ステップS25)。操作位置が検出領域14Aの外に出ない間は(ステップS25;No)、待機する。この待機中において振動または音の出力は継続される。
ここで、制御部150は、トラックパッド14への操作が解除されたか否かを判定してもよい。すなわち、トラックパッド14から操作体(使用者の指等)が離れたか否かを判定し、操作が解除された場合は、振動または音の出力を停止して図7の動作に戻ればよい。また、制御部150は、トラックパッド14の操作の解除を常時監視し、操作の解除を検出した場合に、割り込み処理として振動または音の出力を停止してもよい。
トラックパッド14の操作位置が検出領域14Aの外に出た場合(ステップS25;Yes)、制御部150は、出力設定データ127を参照し、操作位置が検出領域14Aから出たことを報知するための出力パターンを設定する(ステップS26)。第1実施形態では、操作位置が検出領域14Aから出た場合の音のパターン或いは振動パターンとして、パターン3が指定される。
続いて、制御部150は、使用する出力部を設定する(ステップS27)。制御部150は、例えば、ステップS23と同様に、出力設定データ127または設定データ123に従って、ヘッドセット30と振動出力部19のどちらを使用するかを設定する。また、振動出力部19を使用する場合、制御部150は、バイブレーター19A〜19Dのいずれかを選択する。
制御部150は、ステップS27で設定した出力部によって、ステップS26で設定した出力パターンに従って出力を実行させる(ステップS28)。ステップS28で振動または音を出力する時間は、予め、出力設定データ127により指定される。制御部150は、設定された時間だけ出力を行った後、出力を停止する(ステップS29)。制御部150は、トラックパッド14への操作が解除されたか否かを判定する(ステップS30)。操作が解除されていない場合(ステップS30;No)、制御部150はステップS31に移行する。また、操作が解除された場合は(ステップS30;Yes)、制御部150は図7の動作に戻る。
ステップS31で、制御部150は、上述したように、検出領域14Aの外に対する操作が行われたことを報知する。すなわち、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS31)。制御部150は、出力設定データ127に含まれるデータ或いは設定データ123に従って、使用する出力部を設定する(ステップS32)。具体的には、制御部150は、ヘッドセット30と振動出力部19のどちらを使用するかを設定する。また、振動出力部19を使用する場合、制御部150は、バイブレーター19A〜19Dのいずれかを選択する。例えば、制御部150は、バイブレーター19A〜19Dのうち、ステップS11(図7)で検出された操作位置に最も近いバイブレーターを、振動を発生するバイブレーターとして選択する。
制御部150は、ステップS32で設定した出力部によって、ステップS31で設定した出力パターンに従って出力を開始させる(ステップS33)。
制御部150は、トラックパッド14において検出される操作位置が検出領域14Aの内部に入ったか否かを判定する(ステップS34)。操作位置が検出領域14A内に入っていない間は(ステップS34;No)、待機する。この待機中において振動または音の出力は継続される。ここで、制御部150は、トラックパッド14への操作が解除されたか否かを判定してもよい。すなわち、トラックパッド14から操作体が離れたか否かを判定し、操作が解除された場合は、振動または音の出力を停止して図7の動作に戻ればよい。また、制御部150は、トラックパッド14の操作の解除を常時監視し、操作の解除を検出した場合に、割り込み処理として振動または音の出力を停止してもよい。
トラックパッド14の操作位置が検出領域14A内に入った場合(ステップS34;Yes)、制御部150は、出力設定データ127を参照し、操作位置が検出領域14Aに入ったことを報知するための出力パターンを設定する(ステップS35)。第1実施形態では、操作位置が検出領域14Aに入った場合の音のパターン或いは振動パターンとして、パターン4が指定される。
続いて、制御部150は、使用する出力部を設定する(ステップS36)。制御部150は、例えば、ステップS32と同様に、出力設定データ127または設定データ123に従って、ヘッドセット30と振動出力部19のどちらを使用するかを設定する。また、振動出力部19を使用する場合、制御部150は、バイブレーター19A〜19Dのいずれかを選択する。
制御部150は、ステップS36で設定した出力部によって、ステップS35で設定した出力パターンに従って出力を実行させる(ステップS37)。ステップS37で振動または音を出力する時間は、予め、出力設定データ127により指定される。制御部150は、設定された時間だけ出力を行った後、出力を停止する(ステップS38)。制御部150は、トラックパッド14への操作が解除されたか否かを判定する(ステップS39)。操作が解除されていない場合(ステップS39;No)、制御部150はステップS22に移行する。また、操作が解除された場合は(ステップS39;Yes)、制御部150は図7の動作に戻る。
このように、制御部150は、トラックパッド14のタッチ操作を検出した場合に、操作位置と検出領域14Aとの相対位置に応じて報知を実行する。使用者は、トラックパッド14を見ることなく、トラックパッド14を操作した位置と検出領域14Aとの相対位置に関する情報を得ることができる。また、制御部150は、操作位置が移動して、操作位置が検出領域14Aに入った場合、及び検出領域14Aから出た場合に、報知を行う。このため、使用者に対し、操作位置と検出領域14Aとの位置関係について、より詳細な情報を提供できる。
また、操作が解除された場合、即ちトラックパッド14から操作体が離れた場合には、振動または音の出力による報知を停止して、図7の動作に戻り、次のトラックパッド14への操作を待機できる。
図9は、HMD100の動作を示すフローチャートであり、トラックパッド14に対する操作を画像表示部20の表示に反映させる動作を示す。図9の動作は、HMD100がトラックパッド14のタッチ操作を検出可能な状態になってから、開始される。例えば、HMD100の電源がオンにされ、制御部150がトラックパッド14を含む各部を初期化した後で開始される。上述のように、図9に示す動作は図7及び図8の動作と独立して実行される。
制御部150は、トラックパッド14のタッチ操作を検出したか否かを判定し(ステップS41)、タッチ操作が行われるまで待機する(ステップS41;No)。タッチ操作を検出した場合(ステップS41;Yes)、制御部150は、トラックパッド14で検出されたタッチ操作の操作位置が、検出領域14A(ジェスチャー領域14Bまたはジェスチャー領域14C)内であるか否かを判定する(ステップS42)。
操作位置が検出領域14A内でない場合(ステップS42;No)、制御部150は、HMD100の動作モードを、位置入力モード(第1入力モード)に切り替える(ステップS43)。位置入力モードはトラックパッド14に対する操作を位置入力として受け付ける動作モードである。位置入力モードで、制御部150は、トラックパッド14における操作位置の座標に対応して、画像表示部20が表示する画面に含まれるポインターの位置を移動させて、表示を更新する(ステップS44)。
制御部150は、HMD100の動作を停止するか否かを判定する(ステップS45)。HMD100が動作を継続し、トラックパッド14の操作を検出する状態が継続する場合(ステップS45;No)、ステップS41に戻る。また、HMD100が動作を終了する場合(ステップS45;Yes)、制御部150は本処理を終了する。
一方、操作位置が検出領域14A内である場合(ステップS42;Yes)、制御部150は、HMD100の動作モードを、ジェスチャーモード(第2入力モード)に切り替える(ステップS46)。ジェスチャーモードはトラックパッド14に対する操作をジェスチャー入力として受け付ける動作モードである。制御部150は、トラックパッド14の操作位置の軌跡を取得する(ステップS47)。制御部150は、検出データ125を検索し、検出データ125により設定されるジェスチャーから、取得した操作位置の軌跡に該当するジェスチャーを特定する(ステップS48)。制御部150は、ステップS46で特定したジェスチャーに対応して、画像表示部20が表示する画面を更新する処理を実行する(ステップS49)。例えば、ステップS46で上方向のスクロールを指示するジェスチャーを特定した場合、制御部150は、画像表示部20が表示中の画面を上方向に所定量スクロールさせる。その後、制御部150は、ステップS45に移行する。
以上説明したように、HMD100は、使用者に画像を視認させる画像表示部20を有する頭部装着型の表示装置であり、トラックパッド14における操作を検出する検出制御部151を備える。HMD100は、振動または音を出力する出力部としての振動出力部19、及びヘッドセット30を備える。具体的には、振動を出力する出力部として振動出力部19、及び、音を出力する出力部としてのヘッドセット30を備える。HMD100は、検出制御部151で検出した操作を画像表示部20による表示に反映させる制御部150を備える。制御部150は、検出制御部151で検出される操作の位置と、トラックパッド14に設定される検出領域14Aとの相対位置に基づいて、出力部による出力を実行する。HMD100は、操作の位置と検出領域14Aとの相対位置を振動または音によって報知し、操作を行う使用者に知らせることができる。このため、使用者は、画像表示部20が表示する内容を見ながら適切な位置を操作することができ、表示装置の利便性の向上を図ることができる。
制御部150は、検出制御部151で検出される操作の位置が検出領域14A内である場合、または、検出領域14A外である場合に、出力部による出力を実行する。これにより、出力部によって、操作の位置が検出領域14A内であること、または、検出領域14A外であることを報知できる。
制御部150は、検出制御部151で検出される操作の位置が、検出領域14Aの外から検出領域14A内に移動した場合、または、検出領域14A内から検出領域14Aの外に移動した場合に、出力部による出力を実行する。これにより、出力部によって、操作の位置が検出領域14Aの外から検出領域14A内に移動したこと、または、検出領域14A内から検出領域14Aの外に移動したことを報知できる。
制御部150は、HMD100の動作モードを、位置入力モードと、ジェスチャーとに設定可能であり、検出された操作位置が検出領域14A内である場合は、ジェスチャーモードを設定する。これにより、検出領域14A内の操作を、検出領域14A内に該当しない位置の操作と異なる操作として検出し、報知を行うことができる。このため、操作性を低下させることなく、表示装置に対する操作のバリエーションを増やすことができ、利便性の向上を図ることができる。
制御部150は、検出制御部151で検出される操作の位置と、トラックパッド14に設定される検出領域14Aとの相対位置に基づいて、出力部により出力する振動または音について、周波数または出力パターンを設定する。これにより、出力部が出力する振動または音の周波数または出力パターンにより、検出制御部151で検出される操作の位置と検出領域14Aとの相対位置に関する情報を、使用者に知らせることができる。
制御部150は、出力部により出力する振動または音について、検出制御部151で検出される操作の位置とトラックパッド14に設定される検出領域14Aとの間の距離に応じて、周波数または出力パターンを設定してもよい。この場合、出力部が出力する振動または音の周波数または出力パターンにより、検出制御部151で検出される操作の位置と検出領域14Aとの距離を知らせることができる。
また、検出制御部151はトラックパッド14への接触操作を検出し、制御部150は、検出制御部151で検出される接触位置と、トラックパッド14に設定される検出領域14Aとの相対位置に基づいて、出力部による出力を実行する。これにより、接触操作の操作の位置に関して出力部により報知を行うので、使用者は、画像表示部20が表示する内容を見ながら適切な位置を接触操作することができる。
画像表示部20は、使用者の頭部に装着されて使用者に画像を視認させる頭部装着型表示装置であるため、使用者は、頭部装着型表示装置が表示する画像を見ながら、適切な位置を操作できる。
本実施形態では、HMD100が備える振動出力部19及びトラックパッド14はケース10Aに配置されるので、ケース10Aに配置される検出制御部151が検出する操作の位置について報知を行うことができる。この報知が振動出力部19の振動により行われる場合、使用者は、操作を行うトラックパッド14とともにケース10Aに設けられる振動出力部19の振動をもとに、操作位置に関する情報を得ることができる。
また、出力部として、ケース10Aと別体として構成されるヘッドセット30の右イヤホン32及び左イヤホン34を使用する場合、操作されるトラックパッド14と別体の出力部で報知を行うことができる。この場合、使用者は、操作を行うトラックパッド14と別の部位により、例えば耳において、報知が行われたことを知覚する。このため、操作性に影響しないように、報知を行うことができる。
また、振動出力部19を構成するバイブレーター19A〜19Dの少なくとも一部を収容する報知部本体(図示略)を、ケース10A、及びヘッドセット30と別体として構成してもよい。この場合、報知部本体を、例えば制御装置10と異なる位置において使用者の身体に装着してもよい。
さらにまた、出力部である振動出力部19を構成するバイブレーター19A〜19Dの少なくとも一部、或いは、右イヤホン32または左イヤホン34を、画像表示部20に設けてもよい。この場合、トラックパッド14に相当する操作部を、画像表示部20に設けてもよい。この構成によれば、使用者は、画像表示部20に設けられる操作部を操作し、この操作部により位置入力やジェスチャー入力を行うことができる。また、操作位置と、ジェスチャー入力が検出される検出領域との相対位置について、出力部による報知をたよりに、情報を得ることができる。
第1実施形態では、タッチ操作の位置が検出領域14Aであればジェスチャーモードを実行し、検出領域14Aの外であれば位置入力モードを実行する構成としたが、ジェスチャーモードと位置入力モードの切り替えに時間に関する判定を加味してもよい。
例えば、ステップS41で検出した操作が検出領域14A内であって、かつ、予め設定された時間以上、タッチ操作が継続した場合(いわゆる長押し操作)に、ステップS46に移行してジェスチャーモードを実行してもよい。この場合、ステップS41で検出した操作が検出領域14A内であって、設定時間内にトラックパッド14のタッチ操作が解除された場合、操作位置を入力する位置入力モードを実行すればよい。このほか、検出領域14Aの外にタッチ操作が行われても設定時間以上のタッチ操作が行われた場合に、ジェスチャーモードを実行してもよく、その他の構成も可能である。
また、検出領域14Aにおいて、2以上の操作位置で同時にタッチ操作されるマルチタッチに対応してジェスチャーを検出してもよい。例えば、ジェスチャー領域14Bで2点のタッチを検出した場合に、音や振動で選択したことを報知し、その後の2点の操作位置の動きで、表示中の画像や文書をスクロール表示する構成が挙げられる。例えば、図4のジェスチャー領域14Cで2点のタッチ操作がされ、ジェスチャー領域14Bに向かいタッチ操作位置が移動するスワイプ操作が行われた場合に、表示中の画像や文書を右にスクロール表示する態様が挙げられる。また、例えば、ジェスチャー領域14Bで2点のタッチ操作がされ、ジェスチャー領域14Cに向かいタッチ操作位置が移動するスワイプ操作が行われた場合に、表示中の画像や文書を左にスクロール表示する態様が挙げられる。このように、マルチタッチを組み合わせることで検出するジェスチャーの種類を増すことが可能となる。
[第2実施形態]
図10は、本発明を適用した第2実施形態のHMD101(表示装置)の外観構成を示す説明図である。
HMD101は、HMD100(図1)と同様に構成される画像表示部20と、画像表示部20を制御する制御装置70と、を備える表示装置である。HMD101は、HMD100の制御装置10(図1)を制御装置70に代えた構成に相当する。以下の説明において第1実施形態と共通する構成には同符号を付して説明を省略する。
制御装置70は、制御装置10(図1)のケース10Aと同様に、平たい箱形のケース70A(筐体、あるいは本体ともいえる)を備える。
ケース70Aは、ボタン11、LEDインジケーター12、上下キー15、切替スイッチ16、及び電源スイッチ18の各部を備える。また、制御装置70は、トラックパッド14(図1)に代えてトラックパッド71を備える。制御装置70は、接続ケーブル40(図1)により画像表示部20に接続され、HMDのコントローラーとして機能する。また、制御装置70には、ヘッドセット30を接続できる。
トラックパッド71は、ケース70Aの平面に重ねて配置され、接触操作を検出する。トラックパッド71は、例えば、使用者の手、指、その他の身体の一部による接触操作を検出するが、トラックパッド71を操作する操作体は使用者の身体に限定されない。例えば、使用者が手に持って使用するペン型の操作体による接触操作を、トラックパッド71が検出してもよい。トラックパッド71の操作面は操作領域に相当する。
トラックパッド71は、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。具体的には、トラックパッド71に、静電容量の変化により操作を検出する静電容量式のセンサーや、押圧を検出する抵抗膜式のセンサーを利用できる。また、操作体(図示略)がコイルを有する回路を備える場合、トラックパッド71は、操作体のコイルと電磁的に結合するコイルを有し、操作体の位置を電磁的に検出する検出回路を備えてもよい。
トラックパッド71の検出面には、例えば図11に示すように、座標系が設定される。図11の例では、ケース70Aの長手方向に沿ってY軸が設定され、Y軸に直交する方向にX軸が設定される。これにより、トラックパッド71がタッチ操作を検出する検出位置を、X−Y直交座標系の座標で特定できる。
ケース70Aの平面において、ボタン11を除くほぼ全体が、トラックパッド71の操作面である。トラックパッド71の操作面には、十字キー領域72、及び機能キー領域73が配置される。トラックパッド71の操作面で十字キー領域72及び機能キー領域73以外の部分を、検出領域74と呼ぶ。
制御部150(図6)の検出制御部151(図6)は、トラックパッド71における操作体のタッチ操作を検出し、操作位置を特定する。制御部150は、十字キー領域72、或いは機能キー領域73においてタッチ操作を検出した場合に、検出領域74に対するタッチ操作と異なる操作を受け付ける。
十字キー領域72は、図11に示すように、十字キー操作部81を有する。十字キー操作部81は、複数のキーを模した画像あるいは目印である。図11の例では、十字キー操作部81は、上下左右の各方向に対応する方向キー81A、81B、81C、81D、及び、方向キーの中央に位置する決定キー81Eを模した画像で構成される。十字キー操作部81は、トラックパッド71の操作面に印刷され、或いはステッカーを貼付することにより、十字キー領域72に表示され、機能キー操作部82の各キーはソフトウェアボタンとして機能する。
検出制御部151は、トラックパッド71の操作を検出し、操作位置が十字キー領域72内である場合、十字キー操作部81に対する操作を受け付ける動作モードに移行する。検出制御部151は、十字キー操作部81の方向キー81A、81B、81C、81D、及び決定キー81Eのうち、操作位置に該当するキーを特定し、特定したキーに対応する処理を行う。
機能キー領域73は、機能キー操作部82を有する。機能キー操作部82は、特定の機能が割り当てられるキーを模した画像あるいは目印である。図11の例では、3つの記号□(四角形)、○(丸)、△(三角形)が、機能キー操作部82に配置される。すなわち、機能キー操作部82は、記号□に対応する機能キー82A、記号○に対応する機能キー82B、記号△に対応する機能キー82Cを含む。機能キー82A、82B、82Cは、トラックパッド71の操作面に印刷され、或いはステッカーを貼付することにより、十字キー領域72に表示されてもよい。また、機能キー操作部82の各記号は、トラックパッド71の操作面に透かしとして形成され、透かしの直下にLEDが埋設された構成であってもよい。この構成では、HMDの電源がオンにされた場合に、トラックパッド71に埋設されたLEDが、LED表示部17の制御により点灯し、機能キー操作部82の各記号が視認可能となる。
機能キー82Aは、オペレーティングシステム143上で動作するアプリケーションプログラムの動作履歴を操作する履歴ボタンとして機能する。機能キー82Aが操作された場合、制御部150は、実行したアプリケーションプログラムの履歴を表示し、この履歴に対する動作の指示を受け付ける。機能キー82Bはホームボタンとして機能する。機能キー82Bが操作された場合、制御部150は、画像表示部20が表示する画面を、オペレーティングシステム143の動作に関するホーム画面に切り替えて、ホーム画面に対する動作の指示を受け付ける。機能キー82Cは、戻るボタンとして機能する。機能キー82Cが操作された場合、制御部150は、画像表示部20が表示する画面を、1段階前の処理で表示した画面に遷移させ、アプリケーションプログラムまたはオペレーティングシステム143の動作状態を1段階前の状態に移行させる。
検出制御部151は、トラックパッド71の操作を検出し、操作位置が機能キー領域73内である場合、機能キー操作部82に対する操作を受け付ける動作モードに移行する。検出制御部151は、機能キー操作部82の機能キー82A、82B、82Cのうち、操作位置に該当するキーを特定し、特定したキーに対応する処理を行う。十字キー領域72、及び機能キー領域73は、本発明の報知対象領域に相当する。
また、検出制御部151は、トラックパッド71の操作を検出し、操作位置が十字キー領域72及び機能キー領域73の外である場合、位置入力操作を受け付ける動作モードに移行する。検出制御部151は、位置入力操作に対応する処理を行う。
ここで、操作位置が十字キー領域72とその他の領域との境界上である場合の判定結果は予め検出データ125で設定される。検出制御部151は、検出データ125に従って判定を行い、例えば、境界上の位置を、十字キー領域72内の位置と判定してもよいし、十字キー領域72の外と判定してもよい。機能キー領域73についても同様である。
制御装置70は、トラックパッド71に対応する位置に設置されるバイブレーター19Fを備える。バイブレーター19Fは、制御部150の制御に従って振動を発生する装置であり、振動出力部19(図6)と同様に出力部として機能する。バイブレーター19Fの構成は、バイブレーター19A〜19Dと同様である。バイブレーター19Fが生成する振動の強さは特に制限されないが、使用者がケース70Aを手に持つ状態で、使用者が振動を知覚できることが望ましい。
図11の例では、バイブレーター19Fは、検出領域74において、機能キー領域73の近傍に配置されるが、バイブレーター19Fの位置は特に制限されない。後述するように、例えば、出力制御部153は、トラックパッド71の操作位置が十字キー領域72または機能キー領域73内である場合に、バイブレーター19Fを動作させる。この例では、十字キー領域72または機能キー領域73に対する操作であることを使用者に報知できることが好ましいので、十字キー領域72または機能キー領域73の近傍にバイブレーター19Fを設置することが好ましい。
図12は、HMD101の動作を示すフローチャートであり、図7に示したステップS12において実行される動作を詳細に示す。
第2実施形態のHMD101は、HMD100と同様に図7の動作を実行する。ステップS12で実行する動作は、トラックパッド71の構成に対応して、図12に示す動作となる。
図12、及び図13は、いずれも制御部150がトラックパッド71の操作を検出した場合の動作であり、検出制御部151がトラックパッド71のタッチ操作を検出した後で、互いに独立して実行され、例えば並列的に実行することも可能である。すなわち、HMD101は、トラックパッド71の操作を検出した場合に、操作位置に基づきヘッドセット30または振動出力部19で出力する動作(図7、図12)、及び、操作を表示に反映させる動作(図13)を実行する。
図12において、制御部150は、トラックパッド71で検出されたタッチ操作の操作位置が、十字キー領域72内であるか否かを判定する(ステップS101)。操作位置が十字キー領域72内である場合(ステップS101;Yes)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS102)。第2実施形態では、操作位置が十字キー領域72内であることを報知する音のパターン或いは振動パターンとして、パターン11が指定される。
制御部150は、ステップS102で設定した出力パターンに従ってバイブレーター19Fを動作させ、振動を出力させる(ステップS103)。
制御部150は、トラックパッド71への操作が解除されたか否かを判定する(ステップS104)。操作が解除されていない場合(ステップS104;No)、制御部150はステップS101に戻る。また、操作が解除された場合は(ステップS104;Yes)、制御部150は図7の動作に戻る。
また、操作位置が十字キー領域72内でない場合(ステップS101;No)、制御部150は、トラックパッド71で検出されたタッチ操作の操作位置が、機能キー領域73内であるか否かを判定する(ステップS105)。操作位置が機能キー領域73内である場合(ステップS105;Yes)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS106)。第2実施形態では、操作位置が機能キー領域73内であることを報知する音のパターン或いは振動パターンとして、パターン12が指定される。
制御部150は、ステップS106で設定した出力パターンに従ってバイブレーター19Fを動作させ、振動を出力させ(ステップS107)、ステップS104へ移行する。
また、操作位置が機能キー領域73内でない場合(ステップS105;No)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS108)。第2実施形態では、操作位置が十字キー領域72内及び機能キー領域73内のいずれにも該当しないことを報知する音のパターン或いは振動パターンとして、パターン13が指定される。
制御部150は、ステップS108で設定した出力パターンに従ってバイブレーター19Fを動作させ、振動を出力させ(ステップS109)、ステップS104へ移行する。
このように、制御部150は、トラックパッド71のタッチ操作を検出した場合に、操作位置が十字キー領域72であるか、機能キー領域73であるか、それ以外の位置であるかを示す報知を実行する。使用者は、振動のパターンを識別することで、トラックパッド71を見ることなく、トラックパッド71を操作した位置と、十字キー領域72及び機能キー領域73との相対位置に関する情報を得ることができる。
図13は、HMD101の動作を示すフローチャートであり、トラックパッド71に対する操作を画像表示部20の表示に反映させる動作を示す。図13の動作は、HMD101がトラックパッド71のタッチ操作を検出可能な状態になってから、開始される。例えば、HMD101の電源がオンにされ、制御部150がトラックパッド71を含む各部を初期化した後で開始される。上述のように、図13に示す動作は図7及び図12の動作と独立して実行される。
制御部150は、トラックパッド71のタッチ操作を検出したか否かを判定し(ステップS121)、タッチ操作が行われるまで待機する(ステップS121;No)。タッチ操作を検出した場合(ステップS121;Yes)、制御部150は、トラックパッド71で検出されたタッチ操作の操作位置が、十字キー領域72内であるか否かを判定する(ステップS122)。
操作位置が十字キー領域72内である場合(ステップS122;Yes)、制御部150は、HMD101の動作モードを、十字キーモード(第2入力モード)に切り替える(ステップS123)。十字キーモードはトラックパッド71に対する操作を十字キー操作部81の操作として受け付ける動作モードである。
制御部150は、表示制御部147の機能により、画像表示部20が表示する画面に、十字キー操作部81を模した画像を表示させる(ステップS124)。この表示によって、使用者に対し、操作者が操作体を接触させた位置が十字キー操作部81上であることを報知できる。
さらに、制御部150は、方向キー81A、81B、81C、81D、及び、決定キー81Eのうち、操作位置に対応するキーを特定し、特定したキーが意味する指示を検出する(ステップS125)。制御部150は、検出した指示に従って処理を実行する(ステップS126)。例えば、制御部150は、画像表示部20が表示する画面に含まれる表示オブジェクトを選択する操作や移動させる操作において、方向指示に対応して、表示オブジェクトの選択の切り替えや表示位置の移動を行い、表示を更新する。
制御部150は、トラックパッド71への操作が解除されたか否かを判定する(ステップS127)。操作が解除されていない場合(ステップS127;No)、制御部150はステップS125に戻る。
操作が解除された場合(ステップS127;Yes)、制御部150は、ステップS124で表示した十字キー操作部81の画像を消去する(ステップS128)。
その後、制御部150は、HMD101の動作を停止するか否かを判定する(ステップS129)。HMD101が動作を継続し、トラックパッド14の操作を検出する状態が継続する場合(ステップS129;No)、ステップS121に戻る。また、HMD101が動作を終了する場合(ステップS129;Yes)、制御部150は本処理を終了する。
また、操作位置が十字キー領域72内でない場合(ステップS122;No)、制御部150は、トラックパッド71で検出されたタッチ操作の操作位置が、機能キー領域73内であるか否かを判定する(ステップS130)。
操作位置が十字キー領域72内である場合(ステップS130;Yes)、HMD101の動作モードを、機能キーモード(第2入力モード)に切り替える(ステップS131)。機能キーモードはトラックパッド71に対する操作を機能キー操作部82の操作として受け付ける動作モードである。
制御部150は、表示制御部147の機能により、画像表示部20が表示する画面に、機能キー操作部82を模した画像を表示させる(ステップS132)。この表示によって、使用者に対し、操作者が操作体を接触させた位置が機能キー操作部82上であることを報知できる。
さらに、制御部150は、機能キー操作部82A、82B、82Cのうち、操作位置に対応するキーを特定し、特定したキーが意味する指示を検出する(ステップS133)。制御部150は、検出した指示に従って処理を実行する(ステップS134)。具体的には、制御部150は、機能キー操作部82Aの操作に応じてアプリケーションプログラムの実行の履歴を表示する。或いは、制御部150は、機能キー82Bの操作に応じてホーム画面を表示する。或いは、制御部150は、機能キー82Cの操作に応じて画面を1段階前に遷移させる。
制御部150は、トラックパッド71への操作が解除されたか否かを判定する(ステップS135)。操作が解除されていない場合(ステップS135;No)、制御部150はステップS133に戻る。
操作が解除された場合(ステップS135;Yes)、制御部150は、ステップS128に移行して、ステップS132で表示した十字キー操作部81の画像を消去する(ステップS128)。
また、操作位置が機能キー領域73内でない場合(ステップS130;No)、制御部150は、HMD101の動作モードを、トラックパッドモード(第1入力モード)に切り替える(ステップS137)。トラックパッドモードはトラックパッド71に対する操作を位置入力操作として受け付ける動作モードである。
制御部150は、表示制御部147の機能により、画像表示部20が表示する画面に、トラックパッド71を模した画像を表示させる(ステップS137)。この表示によって、使用者に対し、操作者が操作体を接触させた位置が十字キー操作部81及び機能キー操作部82のいずれでもないことを報知できる。
制御部150は、ステップS121で検出した操作位置の座標を、入力座標として検出し(ステップS138)、トラックパッド71における操作位置の座標に対応する処理を実行する(ステップS139)。例えば、制御部150は、画像表示部20が表示する画面に含まれるポインターの位置を移動させて、表示を更新する。
制御部150は、トラックパッド71への操作が解除されたか否かを判定する(ステップS140)。操作が解除されていない場合(ステップS140;No)、制御部150はステップS138に戻る。
操作が解除された場合(ステップS140;Yes)、制御部150は、ステップS128に移行して、ステップS137で表示した十字キー操作部81の画像を消去する(ステップS128)。
図14、図15、及び図16は、HMDの表示例を示す図である。図中の符号Vは、使用者の視野において、右表示ユニット22及び左表示ユニット24により画像を表示可能な表示領域を示す。
図14は、ステップS124(図13)で十字キー操作部81の画像を表示した例を示す。表示領域Vに十字キー操作部81の画像P1が表示されることで、使用者は、トラックパッド71を見ることなく、操作位置が十字キー操作部81に重なる位置であることを知ることができる。
図15は、ステップS132(図13)で機能キー操作部82の画像を表示した例を示す。表示領域Vに機能キー操作部82の画像P2が表示されることで、使用者は、トラックパッド71を見ることなく、操作位置が機能キー操作部82に重なる位置であることを知ることができる。
また、図16は、ステップS137(図13)でトラックパッドの画像を表示した例を示す。表示領域Vにトラックパッドの画像P3が表示されることで、使用者は、トラックパッド71を見ることなく、位置入力操作が可能な操作位置であることを知ることができる。
このように、本発明を適用した実施形態に係るHMD101は、上述した第1実施形態のHMD100と同様に、使用者がトラックパッド71を見なくても操作状態を認識できるように、報知を行うことができる。これにより、HMD100と同様の作用効果を得ることができる。また、制御部150は、検出制御部151で検出される操作の位置とトラックパッド14に設定される検出領域14Aとの相対位置に基づき、バイブレーター19Fによる出力を実行する場合に、所定の画像を画像表示部20によって表示させる。具体的には、十字キー操作部81を模した画像P1、機能キー操作部82を模した画像P2、或いは、トラックパッドを模した画像P3を、表示させる。これにより、検出制御部151で検出される操作の位置と検出領域14Aとの相対位置に関して、振動または音による報知とともに、表示による報知を行うことができる。
第2実施形態では、タッチ操作の位置が十字キー領域72か、機能キー領域73か、それ以外かによって、実行するモードを切り替える構成としたが、実行するモードの切り替えに時間に関する判定を加味してもよい。例えば、ステップS121で検出した操作が十字キー領域72内であって、かつ、予め設定された時間以上、タッチ操作が継続した場合(いわゆる長押し操作)に、ステップS123に移行して十字キーモードを実行してもよい。同様に、ステップS121で検出した操作が機能キー領域73内であって、かつ、予め設定された時間以上、タッチ操作が継続した場合(いわゆる長押し操作)に、ステップS131に移行して機能キーモードを実行してもよい。
このような構成では、例えばトラックパッド71の操作面が限られていて、検出領域74の大きさを確保しにくい場合であっても、トラックパッドモードで使用する領域を広く確保できる。また、十字キー領域72及び機能キー領域73で長押し操作を行うことで、十字キーモード及び機能キーモードへの切り替えを容易に行うことが可能となり、高い機能性と利便性を両立できる。
[第3実施形態]
図17は、本発明を適用した第3実施形態に係るHMDの表示例を示す図である。第3実施形態で説明する表示は、HMD100、及び、HMD101のいずれにおいても実行可能である。以下ではHMD100が表示を行うものとして説明する。
図中、符号VRは使用者の視野を示す。符号Vは、使用者の視野において、右表示ユニット22及び左表示ユニット24により画像を表示可能な表示領域を示す。また、符号Bは、使用者が右表示ユニット22及び左表示ユニット24を透過する外光によって視認する実空間であり、表示領域Vの背景となる。
第3実施形態で、HMD100は、表示領域Vに重なる仮想的な操作領域VIN(仮想操作領域)を設定する。図17の例では、表示領域Vに操作対象の各種のアイコンが設定され、この表示領域Vに、使用者の手などの操作体を重ねることにより、HMD100が操作を検出できる。この例では表示領域Vの全体、或いはほぼ全体が操作領域VINであるため、使用者が操作領域VINを認識しやすいように、画像表示部20によって、表示領域Vに枠を表示する。表示領域Vを視認可能とする表示形態は任意であり、例えば表示領域Vまたは操作領域VINの全体に色や模様を表示してもよい。表示領域Vは、実空間の背景Bに重ねて視認できるように、AR(Augmented Reality)表示される。実際には、表示領域VにAR表示されるアイコンや枠等(これをAR画像と呼ぶ)が、実空間における所定距離の位置に存在するように見える。ここでいう所定距離は、使用者の眼から表示領域Vまでの距離を指し、使用者が、表示領域Vが存在する位置までの距離として知覚する。
操作領域VINは、使用者の視野VRに設定される仮想的な領域であり、画像表示部20に対する相対的な位置が固定される。画像表示部20に対する操作領域VINの相対位置は、表示領域Vと一致する。
使用者が知覚する画像表示部20から表示領域Vまでの距離は、右表示ユニット22及び左表示ユニット24により表示するAR画像の輻輳角により決定される。輻輳角は、使用者の右眼REの視線と左眼LEの視線とがなす角度である。すなわち、実空間の対象を視認する場合、右眼REが対象を見る視線と、左眼LEが対象を見る視線とが、対象において交差する角度を輻輳角という。輻輳角は、使用者の眼から対象までの距離が長いほど小さく、距離が短いほど大きい。
画像表示部20が表示するAR画像は実空間に存在しないため、ハーフミラー261、281(図3)における画像の表示位置を調整することで、使用者がAR画像を見る場合の輻輳角を誘導できる。第3実施形態では表示領域Vの全体に表示される枠などのAR画像の輻輳角を制御するので、使用者が知覚する表示領域Vまでの距離を誘導できる。HMD100が実行する輻輳角制御の方法はこれに限定されず、例えば、表示領域Vに表示される表示オブジェクトの輻輳角を制御することもできる。この場合、表示領域Vに複数の表示オブジェクトを表示する場合に、各表示オブジェクトの輻輳角を個別に設定することで、使用者に、複数の表示オブジェクトが異なる距離にあるように知覚させることができる。
第3実施形態では、使用者の手H(図18)を操作体として使用することを想定する。制御部150は、使用者が知覚する操作領域VINまでの距離が、手Hで操作しやすい距離となるように輻輳角を設定する。例えば、使用者から操作領域VINまでの距離が30cm〜1m程度となるように輻輳角を制御する。具体的には、HMD100は、操作領域VINを示す表示オブジェクト(枠など)の輻輳角を制御する。表示領域Vに、操作領域VINを示す表示オブジェクトと、その他の表示オブジェクトとを表示する場合は、操作領域VINを示す表示オブジェクトの輻輳角を、30cm〜1m程度の距離に対応させればよい。
図18は、仮想的な操作領域VINを使用する操作の例を示す図である。
HMD100は、画像表示部20に対する操作体(手H)の位置を検出する。図18に示すように、HMD100を装着する使用者が操作領域VINに向かって手Hを移動させ、HMD100が検出する手Hの位置が操作領域VINの位置に重なると、HMD100は手Hによる操作を検出する。HMD100は、操作領域VINと手Hとの相対位置を検出し、この相対位置を、位置入力操作の操作位置として処理する。
HMD100が操作体の位置、すなわち手Hの位置を検出する方法は任意であり、たとえば、カメラ61の撮像画像を使用する方法が挙げられる。
第1の方法では、撮像制御部149によりカメラ61を制御して撮像を実行させ、検出制御部151が撮像画像から操作体の画像を抽出する。検出制御部151は、撮像画像における操作体の画像のサイズから画像表示部20から操作体までの距離を算出できる。検出制御部151は、操作領域VINの輻輳角に基づき、使用者が知覚する操作領域VINまでの距離を推定できる。検出制御部151は、推定した操作領域VINまでの距離と、算出した操作体までの距離とに基づき、操作領域VINに対する操作体の相対位置を求めることができる。ここで求められる相対位置は、画像表示部20からの距離すなわち奥行き方向の位置である。また、検出制御部151は、撮像画像における操作体の画像の位置から、画像表示部20に対する操作体の相対位置を求めることができる。ここで求められる位置は、カメラ61の画角の中における位置であり、撮像画像の上下方向、及び、左右方向における位置である。
この場合、HMD100によって、予め、キャリブレーションが実行されることが望ましい。キャリブレーションにおいて、撮像制御部149及び検出制御部151は、撮像画像における位置、及びサイズと、実空間における位置とを対応付ける。このキャリブレーションの結果として、撮像画像における位置及びサイズと実空間における画像表示部20からの距離及び画像表示部20に対する相対位置とを対応付けるデータが生成され、例えば検出データ125として記憶される。
また、画像表示部20が、前方に位置する物体までの距離を検出する距離センサーを備え、この距離センサーを用いて手Hの位置を検出する構成であってもよい。距離センサーは、使用者の視野の方向、或いは、カメラ61の画角内に位置する物体までの距離を検出できるものであればよい。HMD100は、カメラ61の撮像画像と距離センサーの検出結果とを用いて、手Hの位置を検出してもよい。
図19及び図20は、HMD100の動作を示すフローチャートであり、詳細には、操作領域VINに対する手Hの操作を検出した場合の動作を示す。
HMD100は、操作領域VINの操作を検出した場合に、操作体の位置に基づきヘッドセット30または振動出力部19で出力する動作を実行する。また、HMD100は、操作領域VINで操作された位置に基づき位置入力操作を受け付ける動作(図示略)を実行する。これらの動作は、検出制御部151が操作領域VINのタッチ操作を検出した後で、互いに独立して実行され、例えば並列的に実行することも可能である。
図19の動作は、HMD100が操作領域VINの操作を検出可能な状態になってから、開始される。例えば、HMD100の電源がオンにされ、制御部150が、操作領域VINに対応する表示を開始し、カメラ61を含む各部を初期化した後で開始される。
制御部150は、カメラ61の撮像画像に基づき操作体を検出する(ステップS151)。カメラ61の画角は表示領域Vより広いので、ステップS151で操作体が検出された場合であっても操作領域VINに対する操作が行われたとは限らない。
制御部150は、HMD100が操作体を検出できる範囲であるカメラ61の画角において、操作体を検出したか否かを判定する(ステップS152)。すなわち、制御部150は、カメラ61の撮像画像から操作体を検出したか否かを判定する。操作体が検出されない場合(ステップS151;No)、ステップS151に戻って操作が行われるまで待機する。
制御部150は、カメラ61の撮像画像から操作体を検出した場合(ステップS152)、操作体の位置と操作領域VINのAR表示の位置とに基づき出力をする出力処理を実行する(ステップS153)。出力処理については図20を参照して詳述する。
その後、制御部150は、HMD100の動作を停止するか否かを判定する(ステップS154)。HMD100が動作を継続し、トラックパッド14の操作を検出する状態が継続する場合(ステップS154;No)、ステップS151に戻る。また、HMD100が動作を終了する場合(ステップS154;Yes)、制御部150は本処理を終了する。
図20は、出力処理(ステップS153)を詳細に示すフローチャートである。
制御部150は、操作体の位置と、操作領域VINとの相対位置を特定する(ステップS161)。ステップS161で、制御部150は、使用者が操作領域VINを視認する位置及び距離と、カメラ61の撮像画像から検出された操作体の位置とを比較する。使用者が操作領域VINを視認する位置及び距離は、上述したように、操作領域VINの輻輳角から推定される。
制御部150は、操作体の位置が、操作領域VIN内であるか否かを判定する(ステップS162)。操作体の位置が操作領域VIN内である場合(ステップS162;Yes)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS163)。第3実施形態では、操作体の位置が操作領域VIN内であることを報知する音のパターン或いは振動パターンとして、パターン1が指定される。
制御部150は、出力設定データ127に含まれるデータ或いは設定データ123に従って、使用する出力部を設定する(ステップS164)。具体的には、制御部150は、ヘッドセット30と振動出力部19のどちらを使用するかを設定する。振動出力部19を使用する場合、制御部150は、バイブレーター19A〜19Dのいずれかを選択する。
制御部150はステップS164で選択した出力部により、ステップS163で設定した出力パターンに従って出力を開始する(ステップS165)。
制御部150は、操作領域VINへの操作が解除されたか否かを判定する(ステップS166)。ステップS166で、制御部150は、カメラ61の撮像画像から操作体を検出できない場合に、操作が解除されたと判定する。操作が解除されていない場合(ステップS166;No)、制御部150はステップS151に戻る。また、操作が解除された場合は(ステップS166;Yes)、制御部150は図19の動作に戻る。
操作体の位置が操作領域VIN内でないと判定した場合(ステップS162;No)、制御部150は、出力設定データ127を参照して、出力パターンを設定する(ステップS167)。例えば、操作体の位置が操作領域VIN内でないことを報知する音のパターン或いは振動パターンとして、パターン2が指定される。
制御部150は、出力設定データ127に含まれるデータ或いは設定データ123に従って、使用する出力部を設定する(ステップS168)。制御部150は、ステップS168で選択した出力部により、ステップS167で設定した出力パターンに従って出力を開始し(ステップS169)、ステップS166に移行する。
このように、制御部150は、操作体による操作を検出した場合に、操作体の位置と操作領域VINとの相対位置に応じて報知を実行する。使用者は、AR画像として表示される操作領域VINに対する操作を行う場合に、操作体が操作領域VINに重なる位置であるか否かを、視覚以外の感覚により知ることができる。これにより、仮想的に設定される操作領域VINに対する操作の状態を、視覚以外の方法で確実に使用者に報知できる。
また、外景を視認可能に画像を表示するHMD100は、制御部150により、仮想的な操作領域VINを設定し、操作領域VINにおける操作を画像表示部20の表示に反映させることができる。そして、操作の位置と操作領域VINとの相対位置を、出力部により報知できる。これにより、使用者は、画像表示部20が表示する内容を見ながら適切な位置を操作することができ、HMD100の利便性の向上を図ることができる。
なお、第3実施形態では、操作領域VINが、報知対象領域であり、仮想的に設定される操作領域である例を説明した。本発明はこれに限定されず、操作領域VINよりも広い操作領域を設定し、報知対象領域としての操作領域VINを設定する構成であってもよい。
ところで、上記各実施形態では、操作位置と報知対象領域との相対位置に応じて、制御装置10、70により音や振動を出力する構成を例示したが、他の装置により、音や振動を出力することも可能である。
図21は、時計型デバイス3の外観図である。時計型デバイス3は、出力を行うデバイスの例であり、例えば、制御装置10、70とともに使用できる。時計型デバイス3は、いわば出力デバイスの1つであり、この場合、制御装置10、70は、音や振動を出力しない構成であってもよい。
時計型デバイス3は、腕時計のバンドと同様の形状であるバンド部300を有する。バンド部300は、図示しないバックル等の固定部を有し、例えば使用者の前腕部に巻き付けて固定できる。時計型デバイス3のバンド部300には、時計の文字盤に相当する位置に、略円盤状の平面部300Aが形成される。平面部300Aには、ベゼル301、LCD303、ボタン305、リュウズ型操作子307、及び、複数のボタン309が設けられる。
ベゼル301は、リング形状の操作子であり、平面部300Aの周縁部に配置される。ベゼル301は、バンド部300に対して円周方向に回転可能に設けられる。時計型デバイス3は、後述するように、ベゼル301の回転方向、及び回転量を検出する機構を備える。また、ベゼル301を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。
LCD303は、文字や画像を表示する液晶ディスプレイである。
ボタン305は、ベゼル301の外側に配置される押しボタン式スイッチである。ボタン305は、時計型デバイス3の装着状態において、使用者から見てベゼル301の下方に位置する。ボタン305は、リュウズ型操作子307やボタン309に比べて大型であり、手探りでも操作が可能である。
リュウズ型操作子307は、腕時計の竜頭を模した形状の操作子であり、図中矢印で示すように回転させることが可能である。時計型デバイス3は、使用者がリュウズ型操作子307を回転させた場合に、リュウズ型操作子307の回転方向、及び回転量を検出する機構を備える。また、リュウズ型操作子307を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。
ボタン309は、平面部300Aの外周部に設けられた押しボタン式のスイッチである。ボタン309の数について特に制限はなく、本実施形態では4つのボタン309を設けた例を示す。
ボタン309には異なる機能を割り当てることが可能であり、各々のボタン309に割り当てられた機能を、LCD303に表示できる。
時計型デバイス3は、通信部117と同様に機能する図示しない通信部を備える。この通信部は、制御装置10、70から無線送信される制御信号や制御データを受信するものであればよい。
時計型デバイス3は、振動を出力するバイブレーター319A、319Bを備える。バイブレーター319AはLCD303の上部側に位置し、バイブレーター319BはLCD303の下部側に位置する。バイブレーター319A、319Bは時計型デバイス3のケースまたはバンド300部に埋設または固定される。
時計型デバイス3は、制御装置10、70から振動の出力パターンと振動出力の指示とを含む制御データが無線送信された場合に、この制御データを受信し、バイブレーター319Aまたはバイブレーター319Bにより振動を出力する。使用者は、時計型デバイス3の振動によって、操作位置と報知対象領域との相対位置を容易に知ることができる。
時計型デバイス3において振動するバイブレーター319A、319Bは、制御装置10、70の制御により指定することができる。このため、バイブレーター319Aとバイブレーター319Bとを選択的に振動させることで、操作位置と報知対象領域との相対位置について、より詳細に情報を提供できる。
なお、時計型デバイス3は、スピーカーを備え、スピーカーから音を出力する構成であってもよい。この場合、時計型デバイス3は、制御装置10、70から音の出力パターンと音出力の指示とを含む制御データが無線送信された場合に、この制御データを受信し、スピーカーから音を出力する。
また、時計型デバイス3は、6軸センサー111と同様の図示しないモーションセンサーを内蔵してもよい。また、時計型デバイス3は、ベゼル301、ボタン305、リュウズ型操作子307、及び、ボタン309に対する操作を検出することができる。そして、時計型デバイス3は、モーションセンサーの検出結果や、ベゼル301、ボタン305、リュウズ型操作子307、及び、ボタン309に対する操作内容を示すデータを、制御装置10、70に送信可能な構成であってもよい。
図22は、リング型デバイス4の外観図である。リング型デバイス4は、指輪と同様の形状を有し、例えば使用者の指に装着される。リング型デバイス4は、周方向に分散して、バイブレーター419A、419B、419C、419Dが配置される。リング型デバイス4は、図示しない通信部及び電源回路を備える。
リング型デバイス4の通信部は、通信部117と同様に機能し、制御装置10、70と制御データを送受信する。また、リング型デバイス4の通信部は、制御装置10、70から無線送信される制御信号や制御データを受信するものであればよい。
リング型デバイス4は、制御装置10、70から振動の出力パターンと振動出力の指示とを含む制御データが無線送信された場合に、この制御データを受信し、バイブレーター419A、419B、419C、419Dの少なくとも1以上により振動を出力する。使用者は、リング型デバイス4の振動によって、操作位置と報知対象領域との相対位置を容易に知ることができる。
なお、リング型デバイス4は、スピーカーを備え、スピーカーから音を出力する構成であってもよい。この場合、リング型デバイス4は、制御装置10、70から音の出力パターンと音出力の指示とを含む制御データが無線送信された場合に、この制御データを受信し、スピーカーから音を出力する。
また、時計型デバイス3やリング型デバイス4に限らず、音及び/または振動を出力する出力部は、例えば、筐体を有さないカード型のデバイスとして、制御装置10、70とは別体とすることができる。また、他の装置に一体として構成された出力部を用いることも可能である。例えば、スマートフォン、携帯電話機、タブレット型コンピューターが備えるスピーカーやバイブレーターを、出力部として利用してもよい。
また、図22に示すリング型デバイス4は、第3実施形態で説明した実施態様において使用者の操作を検出するために利用できる。
この場合、リング型デバイス4は、上記の通信部(図示略)に加え、6軸センサー111と同様の図示しないモーションセンサーを内蔵する。リング型デバイス4は、バッテリー等を備える電源部、電源部へ充電する非接触充電回路、地磁気センサー、LEDインジケーター等を備える構成であってもよい。また、リング型デバイス4が備える通信部は、NFC(Near Field Communication)に準拠した構成であってもよい。
第3実施形態で、HMD100は、表示領域Vに重なる仮想的な操作領域VIN(仮想操作領域)に対する操作を検出する。第3実施形態では、HMD100が操作体の位置、すなわち手Hの位置を検出する方法として、カメラ61の撮像画像を使用する方法を説明した。
リング型デバイス4を利用する場合、HMD100は、リング型デバイス4の位置を、使用者が操作する指示体の位置として検出する。この場合、使用者はリング型デバイス4を指に装着し、リング型デバイス4の位置を、リング型デバイス4自身またはHMD100が検出する。
第1の方法として、HMD100がカメラ61の撮像画像データからリング型デバイス4を検出し、リング型デバイス4の位置を特定することで、操作位置を求める方法が挙げられる。この場合、HMD100は、手Hを検出する上記の手法と同様に、リング型デバイス4を検出する。この方法では、リング型デバイス4は、上述した通信部、モーションセンサー、電源部等を備える必要はない。
第2の方法として、HMD100が備える通信部117とリング型デバイス4とが通信を行うことにより、無線信号の受信強度などにより、画像表示部20に対するリング型デバイス4の相対位置を検出する方法が挙げられる。この場合、HMD100は、カメラ61の撮像画像データからリング型デバイス4の位置を検出する処理を、合わせて用いてもよい。この場合、リング型デバイス4は、電源部及び通信部を備えていればよい。
第3の方法として、リング型デバイス4が備えるモーションセンサーや地磁気センサーの検出値を、リング型デバイス4がHMD100に無線送信することにより、画像表示部20に対するリング型デバイス4の相対位置を検出する方法が挙げられる。この場合、リング型デバイス4の位置を求める処理を、リング型デバイス4が行ってもよいし、HMD100が行ってもよく、他の装置が行ってもよい。また、この場合に、画像表示部20に対するリング型デバイス4の位置の基準を定めるキャリブレーションを予め実行してもよい。また、リング型デバイス4またはHMD100が、リング型デバイス4の動きの方向と動き量とを検出して、リング型デバイス4の位置を求めてもよい。この場合、リング型デバイス4を動かす方向は、例えば、図22に示すX軸方向、Y軸方向、及びZ軸方向を基準として検出し、特定できる。
なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記各実施形態では、出力部としてヘッドセット30の右イヤホン32及び左イヤホン34、或いは、バイブレーター19A〜19D、19Fを用いる構成を例示したが、本発明はこれに限定されない。例えば、ケース10A、70Aにスピーカーを設けて、このスピーカーから音を出力する構成であってもよい。また、ケース10A、70Aとは別体のケースにスピーカーや振動出力部を収容し、このケースを、制御装置10、70とは別に、使用者の身体に装着可能としてもよい。
また、上記第1実施形態及び第2実施形態では、本発明の操作デバイスの一例として、ケース10Aを有する制御装置10、及び、ケース70Aを有する制御装置70について説明した。本発明はこれに限定されず、ケース10A、70Aの形状は、丸みをおびた形状であってもよいし、棒状、楕円形、或いはその他の立体形状とすることができる。
また、例えば、上記実施形態において操作を検出する領域は、トラックパッド14、71及び操作領域VINのいずれも矩形である場合を例示したが、矩形に限定されない。例えば、トラックパッド14、71の形状は、ケース10A、70Aの形状に合わせて任意の形状とすることができる。具体的には、トラックパッド14、71は、丸みをおびたケース10A、70Aの形状に合わせて、角部を丸くした形状であってもよい。また、トラックパッド14、71を円形にしてもよい。また、トラックパッド14、71を制御装置10、70から分離して、例えば、画像表示部20の右保持部21及び/または左保持部23に、タッチ操作を検出するタッチパッドを配置してもよい。この場合、画像表示部20が有するタッチパッドに対する操作に応じて、画像表示部20または制御装置10、70が、振動または音を出力する構成とすることができる。
また、タッチ操作されるトラックパッド14、71は、制御装置10、70に一体に設ける必要はない。制御装置10、70とは別に、タッチ操作される操作デバイスとして使用される装置、デバイス、ユニット、或いは器具を備えてもよい。例えば、制御装置10、70に代えて、或いは、制御装置10、70とは別体として、操作デバイスを設けてもよい。この場合、操作デバイスは、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスに適用できる。具体的には、ウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等が挙げられる。
また、上記各実施形態では、制御装置10、70が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10、70に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10、70が備える一部の機能を画像表示部20に設けてもよく、制御装置10、70を複数の装置により実現してもよい。すなわち、制御装置10、70は、箱形のケース10A、70Aを備える構成に限定されない。例えば、制御装置10、70に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、上記各実施形態では、画像表示部20と制御装置10、70とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10、70と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10、70として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10、70として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
また、上記各実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示、或いは仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図5、図6等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。また、制御装置10、70に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
10…制御装置、10A…ケース、10B…操作面、14…トラックパッド(操作領域)、14A…検出領域(報知対象領域)、14B…ジェスチャー領域(報知対象領域)、14C…ジェスチャー領域(報知対象領域)、19…振動出力部(出力部)、19A、19B、19C、19D、19F…バイブレーター(出力部)、20…画像表示部(表示部)、22…右表示ユニット、24…左表示ユニット、30…ヘッドセット(出力部)、32…右イヤホン(出力部)、34…左イヤホン(出力部)、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、70…制御装置、70A…ケース、71…トラックパッド(操作領域)、72…十字キー領域(報知対象領域)、73…機能キー領域(報知対象領域)、74…検出領域、81…十字キー操作部、81A、81B、81C、81D…方向キー、81E…決定キー、82…機能キー操作部、82A、82B、82C…機能キー、100、101…HMD(表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、125…検出データ、127…出力設定データ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、149…撮像制御部、150…制御部、151…検出制御部(操作検出部)、153…出力制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、261、281…ハーフミラー、V…表示領域、VIN…操作領域(報知対象領域、仮想操作領域)。

Claims (14)

  1. 画像を表示する表示部と、
    操作領域における操作を検出する操作検出部と、
    振動または音を出力する出力部と、
    前記操作検出部で検出した操作を前記表示部による表示に反映させる制御部と、を備え、
    前記制御部は、前記操作検出部で検出される操作の位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部による出力を実行する表示装置。
  2. 前記制御部は、前記操作検出部で検出される操作の位置が前記報知対象領域内である場合、または、前記報知対象領域外である場合に、前記出力部による出力を実行する請求項1記載の表示装置。
  3. 前記制御部は、前記操作検出部で検出される操作の位置が、前記報知対象領域の外から前記報知対象領域内に移動した場合、または、前記報知対象領域内から前記報知対象領域の外に移動した場合に、前記出力部による出力を実行する請求項1または2記載の表示装置。
  4. 前記制御部は、前記表示装置の動作モードを、前記操作検出部で検出される操作の位置に基づき位置入力操作を検出する第1入力モードと、前記操作検出部で検出される操作の位置に基づき位置入力操作以外の操作を検出する第2入力モードとに設定し、
    前記操作検出部で検出される操作の位置が前記報知対象領域内である場合は前記第2入力モードを設定する請求項1から3のいずれか1項に記載の表示装置。
  5. 前記制御部は、前記操作検出部で検出される操作の位置と前記操作領域に設定される報知対象領域との相対位置に基づき前記出力部による出力を実行する場合に、所定の画像を前記表示部によって表示させる請求項1から4のいずれか1項に記載の表示装置。
  6. 前記制御部は、前記操作検出部で検出される操作の位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部により出力する振動または音について、周波数または出力パターンを設定する請求項1から5のいずれか1項に記載の表示装置。
  7. 前記制御部は、前記出力部により出力する振動または音について、前記操作検出部で検出される操作の位置と前記操作領域に設定される報知対象領域との間の距離に応じて、周波数または出力パターンを設定する請求項6記載の表示装置。
  8. 前記表示部と別体の出力部本体を有し、前記出力部、若しくは、前記出力部と前記操作検出部が前記出力部本体に配置される請求項1から7のいずれか1項に記載の表示装置。
  9. 前記出力部及び前記操作検出部は前記表示部に配置される請求項1から7のいずれか1項に記載の表示装置。
  10. 前記操作検出部は接触操作を検出し、
    前記制御部は、前記操作検出部で検出される接触位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部による出力を実行する請求項1から9のいずれか1項に記載の表示装置。
  11. 前記操作検出部は、仮想的に設定される仮想操作領域に対する操作を検出する請求項1から9のいずれか1項に記載の表示装置。
  12. 前記表示部は、使用者の頭部に装着されて前記使用者に画像を視認させる頭部装着型表示装置である請求項1から12のいずれか1項に記載の表示装置。
  13. 使用者の頭部に装着され、外景を視認可能に画像を表示する表示部と、
    前記表示部により外景を視認可能な範囲に重なる操作領域に対する操作を検出する制御部と、
    振動または音を出力する出力部と、を備え、
    前記制御部は、前記操作検出部で検出した操作を前記表示部による表示に反映させ、前記操作検出部で検出される操作の位置と、前記操作領域に設定される仮想の報知対象領域との相対位置に基づいて、前記出力部による出力を実行する頭部装着型表示装置。
  14. 画像を表示する表示部、操作領域における操作を検出する操作検出部、及び、振動または音を出力する出力部を備える表示装置を制御して、
    前記操作検出部で検出した操作を前記表示部による表示に反映させるステップと、
    前記操作検出部で検出される操作の位置と、前記操作領域に設定される報知対象領域との相対位置に基づいて、前記出力部による出力を実行するステップと、
    を有する表示装置の制御方法。
JP2016154688A 2016-08-05 2016-08-05 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 Pending JP2018022426A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016154688A JP2018022426A (ja) 2016-08-05 2016-08-05 表示装置、頭部装着型表示装置、及び、表示装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016154688A JP2018022426A (ja) 2016-08-05 2016-08-05 表示装置、頭部装着型表示装置、及び、表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2018022426A true JP2018022426A (ja) 2018-02-08

Family

ID=61165160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016154688A Pending JP2018022426A (ja) 2016-08-05 2016-08-05 表示装置、頭部装着型表示装置、及び、表示装置の制御方法

Country Status (1)

Country Link
JP (1) JP2018022426A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210041815A (ko) * 2019-10-08 2021-04-16 한양대학교 산학협력단 모바일을 조작하기 위한 입력 장치
JP2021521512A (ja) * 2018-05-03 2021-08-26 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
JP2022174119A (ja) * 2019-07-17 2022-11-22 ロウ,グスタフ 拡張された解剖学的特徴を表示するためのシステム及び方法
JP7445976B2 (ja) 2019-11-06 2024-03-08 Mil株式会社 動画表示システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021521512A (ja) * 2018-05-03 2021-08-26 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
JP7252252B2 (ja) 2018-05-03 2023-04-04 マイクロソフト テクノロジー ライセンシング,エルエルシー 手の位置に基づいたモーダル制御の開始
JP2022174119A (ja) * 2019-07-17 2022-11-22 ロウ,グスタフ 拡張された解剖学的特徴を表示するためのシステム及び方法
JP7453708B2 (ja) 2019-07-17 2024-03-21 ロウ,グスタフ 拡張された解剖学的特徴を表示するためのシステム及び方法
KR20210041815A (ko) * 2019-10-08 2021-04-16 한양대학교 산학협력단 모바일을 조작하기 위한 입력 장치
KR102316514B1 (ko) * 2019-10-08 2021-10-22 한양대학교 산학협력단 모바일을 조작하기 위한 입력 장치
JP7445976B2 (ja) 2019-11-06 2024-03-08 Mil株式会社 動画表示システム

Similar Documents

Publication Publication Date Title
CN105759422B (zh) 显示系统和显示装置的控制方法
US10635182B2 (en) Head mounted display device and control method for head mounted display device
JP2018101019A (ja) 表示装置及び表示装置の制御方法
CN108508603B (zh) 头部佩戴型显示装置及其控制方法、以及记录介质
WO2013088725A1 (en) Head-mounted display and information display apparatus
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US10261327B2 (en) Head mounted display and control method for head mounted display
JP2019128693A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2018124651A (ja) 表示システム
JP6740584B2 (ja) 表示システム、表示装置の制御方法、及び、プログラム
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
CN113267896A (zh) 显示系统、控制器、显示系统的控制方法和记录介质
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6439448B2 (ja) 表示システム、プログラム、及び、表示装置の制御方法
JP2020071587A (ja) 表示装置、及び、表示装置の制御方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2019053644A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6459516B2 (ja) 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法
JP6790769B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法