JP2017120302A - 表示装置、表示システム、表示装置の制御方法、及び、プログラム - Google Patents

表示装置、表示システム、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP2017120302A
JP2017120302A JP2015256140A JP2015256140A JP2017120302A JP 2017120302 A JP2017120302 A JP 2017120302A JP 2015256140 A JP2015256140 A JP 2015256140A JP 2015256140 A JP2015256140 A JP 2015256140A JP 2017120302 A JP2017120302 A JP 2017120302A
Authority
JP
Japan
Prior art keywords
unit
display
image
display unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015256140A
Other languages
English (en)
Other versions
JP6740613B2 (ja
Inventor
小嶋 輝人
Teruhito Kojima
輝人 小嶋
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015256140A priority Critical patent/JP6740613B2/ja
Priority to US15/372,079 priority patent/US10133407B2/en
Publication of JP2017120302A publication Critical patent/JP2017120302A/ja
Application granted granted Critical
Publication of JP6740613B2 publication Critical patent/JP6740613B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】頭部装着型の表示装置を装着する使用者が、容易に、表示装置に対する操作を行えるようにする。【解決手段】HMD100は、使用者の頭部に装着された状態で、使用者が実物体を視認可能に画像を表示する表示部としての右導光部26及び左導光部28を備える。HMD100は、右導光部26及び左導光部28に対する指示体の接近を検出する右センサー部410、左センサー部420と、操作を受け付けるタッチパッド401、402とを備える。HMD100の制御部は、右センサー部410、左センサー部420により検出される指示体の動きにより、右導光部26及び左導光部28における表示と指示体の動きに対応する操作とを対応させる。【選択図】図1

Description

本発明は、表示装置、表示システム、表示装置の制御方法、及び、プログラムに関する。
従来、頭部装着型の表示装置であるヘッドマウントディスプレイ(Head Mounted Display:HMD)が知られている(例えば、特許文献1参照)。特許文献1には、ユーザーの眼前に装着され、ユーザーを、現実世界からの干渉を受けることなく仮想世界の画像に没入させる。
特開2015−118332号公報
ところで、HMDの中には、現実世界の実空間を視認できる構成を有するものもある。この種のHMDの用途として、例えば、実空間の対象に対する作業を支援する目的で使用されるHMDは、テキストや画像を表示する用途がある。このような場合に、使用者がHMDを操作するために、コントローラーのスイッチを触る動作を行うことは、操作を行う手を空ける必要があり、面倒である。また、特許文献1に記載されたように使用者の眼前に配置されるタッチセンサーに触る動作も、操作を行う手を空ける必要があり、面倒である。さらに、特許文献1に記載されたタッチセンサーは眼前のスペースに配設されており、現実世界の実空間を視認できる構成のHMDに適用することはできない。
本発明は上記事情に鑑みてなされたものであり、頭部装着型の表示装置を装着する使用者が、容易に、表示装置に対する操作を行えるようにすることを目的とする。
上記目的を達成するために、使用者の頭部に装着された状態で、前記使用者が実物体を視認可能に画像を表示する表示部と、前記表示部周辺への指示体の接近を検出する検出部と、操作を受け付ける操作部と、前記検出部により検出される前記指示体の動きにより、前記表示部における表示と前記指示体の動きに対応する操作とを対応させる制御部と、を備えることを特徴とする。
本発明によれば、表示部に指示体を接近させることにより、表示部に接触することなく容易に表示装置を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。
また、本発明は、上記表示装置において、前記制御部は、前記操作部により受け付けられた操作に対応して処理を行う通常動作モードと、前記検出部の検出結果に応じて前記表示部の表示を伴う処理を実行する近接操作モードと、を切り替えて実行すること、を特徴とする。
本発明によれば、表示部に対する接近による操作を行う近接操作モードと通常動作モードとを切り替えることで、誤操作を防止できる。
また、本発明は、上記表示装置において、前記制御部は、操作用のメニュー画面を前記表示部に表示させ、前記通常動作モードでは前記操作部により受け付ける操作を前記メニュー画面の選択または確定の操作として処理し、前記近接操作モードでは前記検出部が検出する物体の接近または離隔に対応して前記メニュー画面の選択または確定の処理を行うこと、を特徴とする。
本発明によれば、メニュー画面を利用して、通常動作モード及び近接操作モードのいずれにおいても、簡単に表示装置を操作することが可能となる。
また、本発明は、上記表示装置において、前記表示部は、前記使用者の頭部に装着された状態で前記使用者の左眼側に位置する左眼用表示部、及び、右眼側に位置する右眼用表示部を備え、前記検出部が検出する前記左眼用表示部に対する操作と前記右眼用表示部に対する操作との組み合わせに対応付けて、前記制御部が実行する処理が設定されること、を特徴とする。
本発明によれば、表示装置の右側と左側のそれぞれに対する操作の組合せに応じた処理を実行するので、誤操作のおそれが小さいため、高度で複雑な処理を近接操作に割り当てることができる。これにより、より容易に表示装置を操作できる。
また、本発明は、上記表示装置において、前記制御部は、前記検出部が検出する操作に係る情報を含む案内画面を前記表示部によって表示し、前記案内画面の左半分に表示される情報は前記左眼用表示部の左側部分に対する操作に対応し、前記案内画面の右半分に表示される情報は前記右眼用表示部の右側部分に対する操作に対応すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部の形状を利用して、使用者が案内画面を見ながら直感的に操作を行うことができる。
また、本発明は、上記表示装置において、前記制御部は、前記表示部によって前記使用者の右眼と左眼との両方に視認可能な態様で操作用画面を表示し、前記左眼用表示部の左側部分に対する操作に対応して前記操作用画面の左半分の表示を変更し、前記右眼用表示部の右側部分に対する操作に対応して前記操作用画面の右半分の表示を変更すること、を特徴とする。
本発明によれば、使用者の頭部に装着される表示部の形状を利用して、使用者の感覚に適する態様で表示を変更できる。
また、本発明は、上記表示装置において、前記検出部は、前記左眼用表示部に対する物体の接近、及び、前記右眼用表示部に対する物体の接近を検出すること、を特徴とする。
本発明によれば、使用者が、表示部に接触することなく容易に表示装置を操作できる。
また、本発明は、上記表示装置において、前記制御部は、前記検出部によって検出される前記使用者の頭を基準として上下方向に物体が移動する動作、左右方向に物体が移動する操作、及び、前記表示部に対し物体が接近及び離隔する操作に対応して、前記表示部の表示を変更すること、を特徴とする。
本発明によれば、物体を表示部に接近及び離隔させる操作と、上下や左右に移動させる操作とを検出するので、より容易に、表示装置に対する多彩な操作を行うことができる。
また、本発明は、上記表示装置において、前記制御部は、前記検出部によって、前記右眼用表示部及び前記左眼用表示部の両方において前記使用者の頭を基準として上下方向または左右方向に物体が移動する操作を検出した場合に、前記表示部の表示領域における上下方向または左右方向の位置入力を受け付けること、を特徴とする。
本発明によれば、物体を表示部に接近させて移動させる操作によって位置入力を行うことができ、より容易に表示装置を操作できる。
また、本発明は、上記表示装置において、前記制御部は、前記検出部によって検出される2以上の位置における操作に対応して、検出された操作位置とは異なる位置に対応する入力を受け付けること、を特徴とする。
本発明によれば、位置入力を行う場合に、入力する位置と操作位置との対応に関する制約を緩和し、より容易に表示装置を操作できる。
上記表示装置において、前記検出部は、前記表示部の外表面への接触、及び、前記表示部の外側からの物体の接近を検出する構成であってもよい。
また、上記表示装置において、前記制御部は、前記検出部によって回転する操作を検出した場合に、前記表示部の表示領域における表示を回転させる構成であってもよい。
また、上記表示装置において、前記制御部は、前記検出部によって2点に対する操作が検出され、検出された2点の操作位置間の距離が変化した場合に、当該距離の変化に対応して前記表示部の表示領域における表示を拡大または縮小させる構成であってもよい。
また、本発明は、上記表示装置において、前記検出部は、前記表示部、或いは、前記表示部を構成する光学部品を保持する保持部への指示体の接近を検出すること、を特徴とする。
本発明によれば、表示部周辺への指示体の接近の接近をより確実に検出し、表示に反映させることができる。
また、本発明は、上記表示装置において、前記検出部は、前記表示部の周囲に配置された近接センサーを有し、前記近接センサーにより検出される前記指示体の動きに基づき前記表示と操作制御を対応させること、を特徴とする。
本発明によれば、表示部の周囲に配置される近接センサーによって、表示部の周囲に対する指示体の接近をより確実に検出し、表示に反映させることができる。
また、本発明は、上記表示装置において、前記制御部は、前記近接センサーにより前記表示部周辺への前記指示体の接近を検出した場合に、前記表示部によって操作制御命令画像を表示させ、前記操作部による操作と前記操作制御命令画像とを対応付けること、を特徴とする。
本発明によれば、表示部の周囲に配置される近接センサーによって検出される指示体の動きを利用して、例えばGUI(Graphical User Interface)として機能する操作制御命令画像を用いて操作を行うことが可能となり、操作性の向上を図ることができる。
また、本発明は、上記表示装置において、前記制御部は、前記近接センサーにより2つの位置に対する接近が検出された場合に、2つの位置に対する接近に対応する前記操作制御命令画像を表示させ、前記操作制御命令画像が表示された状態で、前記近接センサーにより検出される前記指示体の所定方向の動きに、前記表示部が表示する前記操作制御命令画像の前記所定方向の動きを対応付けること、を特徴とする。
本発明によれば、近接センサーに2つの位置で指示体を接近させる操作により、表示部に表示される操作制御命令画像を、指示体の動きに対応する方向に動かすことができる。これにより、位置指示や方向指示等の操作を、2つの指示体で容易に行うことができる。
また、本発明は、上記表示装置において、前記制御部は、前記表示部に対する前記近接センサーの配置状態を案内する表示を前記表示部に表示させること、を特徴とする。
本発明によれば、指示体を接近させる操作をより確実に行うことができる。
また、本発明は、上記表示装置において、前記表示部は、外光を透過させることにより前記実物体を視認可能に構成され、前記実物体と重ねて視認されるように画像を表示すること、を特徴とする。
本発明によれば、外光を透過して実物体を視認可能であって画像を視認させる表示部を装着した使用者には、実物体と画像とが重なって視認される。そして、この視認される画像に対し、表示部に指示体を接近させる操作を行うことができる。これにより、実物体に関連する表示を、表示部に指示体を接近させる簡単な操作によって、容易に制御できる。
また、上記目的を達成するために、本発明は、使用者の頭部に装着された状態で、前記使用者が実物体を視認可能に画像を表示する表示部と、操作を受け付ける操作部とを備える表示装置の制御方法であって、前記表示部周辺への指示体の接近を検出し、検出される前記指示体の動きにより、前記表示部における表示と前記指示体の動きに対応する操作とを対応させること、を特徴とする。
本発明の制御方法を実行することにより、表示部に指示体を接近させることによって、表示部に接触することなく容易に表示装置を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。
また、上記目的を達成するために、本発明は、使用者の頭部に装着された状態で、前記使用者が実物体を視認可能に画像を表示する表示部と、操作を受け付ける操作部とを備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部周辺への指示体の接近を検出し、検出される前記指示体の動きにより、前記表示部における表示と前記指示体の動きに対応する操作とを対応させるためのプログラムである。
本発明のプログラムをコンピューターが実行することにより、表示部に指示体を接近させることによって、表示部に接触することなく容易に表示装置を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。
本発明に係るプログラムは、当該プログラムを前記コンピューターで読み取り可能に記録した記録媒体等の態様で構成することも可能である。記録媒体としては、フレキシブルディスクやHDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc、光磁気ディスク、不揮発性メモリーカード、画像表示装置の内部記憶装置(RAM(Random Access Memory)やROM(Read Only Memory)等の半導体メモリー)、および外部記憶装置(USB(Universal Serial Bus)メモリー等)等、前記コンピューターが読み取り可能な種々の媒体を利用できる。
第1実施形態のHMDの外観図。 第1実施形態のHMDの外観図。 HMDの構成を示す要部断面図。 画像表示部の光学系の構成を示す図。 HMDを構成する各部の機能ブロック図。 HMDの動作を示すフローチャート。 HMDに対する操作の態様と表示の具体例を示す図。 HMDに対する操作の態様と表示の具体例を示す図。 HMDに対する操作の態様と表示の具体例を示す図。 HMDに対する操作の態様と表示の具体例を示す図。 HMDに対する操作の態様と表示の具体例を示す図。 第2実施形態のHMDの外観図。 第3実施形態のHMDの外観図。 第4実施形態のHMDの外観図。 第5実施形態のHMDの外観図。
[第1実施形態]
図1及び図2は、本発明を適用した実施形態に係るHMD100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる表示装置であり、眼鏡型の形状である。図1は正面側から見た斜視図であり、図2は裏面側から見た斜視図である。なお、図2においては説明の便宜のために右保持部31及び左保持部32の図示を省略する。
HMD100の本体を構成するフレーム3は、使用者の顔の前に位置して画像を表示する右導光部26及び左導光部28を備え、右導光部26及び左導光部28を保持する眼鏡形状の枠を有する。また、フレーム3は、使用者の側頭部に接する右保持部31及び左保持部32を有する。HMD100は、全体として視力矯正用の眼鏡やサングラス等のフレームと同様の形状を有し、フレーム3は、例えば、眼鏡フレームと相似する形状とすることができる。
右保持部31及び左保持部32は、眼鏡のテンプル(つる)のようにして、使用者の頭部にフレーム3を保持する。フレーム3には、使用者がHMD100を装着する装着状態において使用者の右眼前に位置し、使用者の右眼に画像を視認させる右導光部26が取り付けられる。また、フレーム3には、HMD100の装着状態において使用者の左眼前に位置し、使用者の左眼に画像を視認させる左導光部28が取り付けられる。右導光部26及び左導光部28は、透光性を有する光学素子(光学部品)であり、眼鏡のレンズと同様に、フレーム3に形成されるリム3a、3bに嵌め込まれて保持される。
また、フレーム3の中央位置には、HMD100の装着状態においてフレーム3を使用者の鼻において指示する鼻当部37、38が設けられる。また、鼻当部37、38が設けられる中央位置は、使用者の眉間の前に位置し、この位置にはカメラ61が設けられる。
フレーム3の左右両端部に位置するフレーム端部35、36は、後述する各種光学系を内蔵する。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光部26、左導光部28を通して視認する外界を含む。さらに、右導光部26及び左導光部28を通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140が備える撮像制御部161(図5)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
右表示駆動部22、及び、左表示駆動部24は、画像光を形成する。右表示駆動部22が形成する画像光は右導光部26により使用者の右眼に導かれ、左表示駆動部24が形成する画像光は左導光部28により使用者の左眼に導かれる。例えば、図1には、右表示駆動部22がフレーム端部35に収められ、左表示駆動部24がフレーム端部36に収められる構成例を示す。
図3は、HMD100の構成を示す要部断面図であり、右導光部26とその周囲を支持するフレーム3とを含む位置で、HMD100の縦断面を示す。
右導光部26は、周囲をリム3aに囲まれてフレーム3に指示される。リム3aは溝形状を有し、右導光部26はリム3aに嵌めこまれる。
図4は、HMD100の光学系の構成を示す要部平面図である。図4には説明のため使用者の左眼LE及び右眼REを図示する。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、及び、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右表示駆動部22が発する画像光、及び、左表示駆動部24が発する画像光は、右導光部26及び左導光部28にそれぞれ入射する。
右導光部26及び左導光部28は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光部28に入射される。左導光部28は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光部28の内部において複数回の反射を経て左眼LE側に導かれる。左導光部28には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左導光部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光部26に入射される。右導光部26は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光部26の内部において複数回の反射を経て右眼RE側に導かれる。右導光部26には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右導光部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、右導光部26を透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、左導光部28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光部26及び左導光部28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。
本実施形態において、右導光部26及び左導光部28は実像を結像させる構成ではなく、虚像を形成して、使用者に画像を視認させるものであるが、結果として使用者に画像を認識させる意味で、本実施形態では「画像を表示する」と表現する。言い換えれば、HMD100は、実像であるか虚像であるかを問わず画像を構成する画像光Lを使用者に向けて出射し、使用者に画像を認識させるものであればよい。
なお、左投写光学系252と左導光部28とを総称して「左表示部」と呼び、右投写光学系251と右導光部26とを総称して「右表示部」と呼ぶこともできる。右表示部及び左表示部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図2に示すように、右導光部26及び左導光部28は、使用者の右眼及び左眼のそれぞれに、矩形の画像を視認させる。右眼に対応する矩形の右表示部301は、ハーフミラー261Aにより形成される矩形の画像表示領域であり、右投写光学系251が形成する画像光である。左表示部302は、ハーフミラー262Aにより形成される矩形の画像表示領域であり、右投写光学系251が形成する画像光である。
このように、HMD100が画像を表示する間、使用者には、ハーフミラー261Aが右表示部301の内部に位置する四角形の領域として見え、ハーフミラー262Aが、左表示部302の内部に位置する略四角形の領域として見える。ハーフミラー261A、262Aの全体が、上述したように外光を透過するので、使用者には、右表示部301及び左表示部302の全体が、外景に重なって視認される。
カメラ61は、図1に示したようにフレーム3の前面の中央位置に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。言い換えれば、カメラ61の撮像方向すなわち画角は、使用者の前方を向き、使用者が実空間(外景)を見る場合の視線方向を向く。カメラ61は、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
以下の説明では、図1に示すように、フレーム3を基準とした方向をX、Y、Zの直交座標により説明する。X方向は、右導光部26及び左導光部28を含むフレーム3の前面に対し接近及び離隔する方向であり、右保持部31及び左保持部32の延長方向に相当する。X方向は、使用者の視界に対する奥行き方向とも言える。また、Y方向は、HMD100の高さ方向、より具体的には、フレーム3の高さ方向であり、HMD100の装着状態において使用者の視界の鉛直方向である。Z方向は、フレーム3の幅方向、より具体的には、右導光部26と左導光部28とが並ぶ方向に対応し、HMD100の装着状態において使用者の右眼と左眼とを結ぶ、略水平な線に沿う方向である。
HMD100は、外部からの入力操作を検出する外部センサー400、及び、タッチパッド401、402を備える。
外部センサー400は、右センサー部410、及び、左センサー部420を含んで構成される。
タッチパッド401、402は、HMD100の装着状態においてHMD100の側方に面して配置される。より詳細には、タッチパッド401は、右保持部31においてフレーム3の外側の面に配置され、タッチパッド402は、左保持部32においてフレーム3の外側の面に配置される。タッチパッド401、402は、それぞれ、右保持部31と左保持部32の形状に合わせて、長手形状であってもよいし、矩形であってもよい。HMD100の装着状態で、使用者は、例えば右手でタッチパッド401を操作し、左手でタッチパッド402を操作できる。
タッチパッド401、402は、接触操作を検出して操作位置を特定する操作部(操作受付部)であり、例えば静電容量式あるいは感圧式のタッチパッドである。
フレーム3の前面側には、右センサー部410、及び、左センサー部420が配置される。
右センサー部410は、センサー411、412、413で構成される。センサー411、412、413は、右導光部26の周囲に配置される。詳細には、センサー411は右導光部26の上方に位置し、Z方向に延びるように配置され、横長の検出領域を有する。また、センサー412は右導光部26の側方に、Y方向に延びるように配置され、縦長の検出領域を有する。また、センサー413は、右導光部26の下方において、Z方向に延びるように配置され、横長の検出領域を有する。
右センサー部410の各センサーは、右導光部26を透過する外光OLを遮らないように、右導光部26に重ならないように配置されることが好ましい。なお、センサー411、412、413が外光OLを透過可能である場合、センサー411、412、413が右導光部26に重なってもよい。
左センサー部420は、センサー421、422、423で構成される。センサー421、422、423は、左導光部28の周囲に配置される。詳細には、センサー421は左導光部28の上方に位置し、Z方向に延びるように配置され、横長の検出領域を有する。また、センサー422は左導光部28の側方に、Y方向に延びるように配置され、縦長の検出領域を有する。また、センサー423は、左導光部28の下方において、Z方向に延びるように配置され、横長の検出領域を有する。左センサー部420を構成する各センサーは、左導光部28を透過する外光OLを遮らないように、左導光部28に重ならないように配置されることが好ましい。なお、センサー421、422、423が外光OLを透過可能である場合、センサー421、422、423が左導光部28に重なってもよい。
右センサー部410は、右導光部26の周辺に対応する検出部を構成し、左センサー部420は、左導光部28の周辺に対応する検出部を構成する。
センサー411、412、413、421、422、423は、物体の接近を検出する近接センサーであり、例えば静電容量式のセンサーで構成される。センサー411、412、413、421、422、423のそれぞれの検出範囲はHMD100の前方に広がる。つまり、右センサー部410及び左センサー部420は、HMD100の前方から接近する物体が、検出範囲の外側から検出範囲内に接近した場合に、この物体を検出する。ここで、右センサー部410及び左センサー部420が検出する実空間の物体を、操作体(指示体)とする。
近接センサーは、例えば、近接センサーに接触しない操作体であって、近接センサーから1cm以内に存在する操作体を検出できることが好ましい。近接センサーに接触する操作体を検出してもよい。また、HMD100を装着した状態における誤検知を防止または抑制できることが好ましく、例えば、HMD100の装着状態における誤検知抑制機能として、感度調整、感度のカスタマイズ等を実行できる構成としてもよい。また、HMD100の装着状態において右導光部26、左導光部28と使用者の顔との間における操作体の接近を検出しない、検出方向に指向性が設定された近接センサーを利用してもよい。
図3に示すように、右導光部26の上方に位置するセンサー411は、矢印A11で示すようにフレーム3の前方から接近する操作体を検出できる。また、矢印A13で示すようにフレーム3の後方から接近する操作体を検出可能な構成としてもよい。また、矢印A12で示すように上方から接近する操作体を検出できる。つまり、センサー411は、X方向、及びY方向に接近する物体(操作体)を検出可能である。センサー421も同様である。
また、右導光部26の下方に位置するセンサー413は、矢印A31で示すようにフレーム3の前方から接近する操作体を検出できる。また、矢印A33で示すようにフレーム3の後方から接近する操作体を検出可能な構成としてもよい。また、矢印A32で示すように下方から接近する操作体を検出できる。つまり、センサー413は、X方向、及びY方向に接近する物体を検出可能である。センサー423も同様である。
また、センサー412、422は、X方向、及び、Z方向に接近する物体を検出可能である。また、センサー412、422のそれぞれは、センサー412、422の検出可能範囲において操作体がX方向あるいはY方向に移動した場合、この移動を検出する。
また、センサー411、421のそれぞれは、センサー411の検出可能範囲において操作体がX方向あるいはZ方向に移動した場合、この移動を検出する。また、センサー413、423のそれぞれは、センサー413、423の検出可能範囲において操作体がX方向あるいはZ方向に移動した場合、この移動を検出する。
HMD100は、右センサー部410の各センサーの検出値、及び、左センサー部420の各センサーの検出値に基づき、物体の接近を検出可能である。また、各センサーの検出値を解析することにより、検出範囲内に位置する物体の移動を検出できる。
図5は、HMD100を構成する各部の機能ブロック図である。
HMD100は、大別して、処理部10及び画像表示部20を備える。
画像表示部20は、右表示駆動部22及び左表示駆動部24を含み、右導光部26及び左導光部28に対して画像光を供給する。画像表示部20は、フレーム3に配置される構成部を含み、具体的には、カメラ61、9軸センサー66、外部センサー400、タッチパッド401、402を含む。例えば、図1には、右表示駆動部22がフレーム端部35に収められ、左表示駆動部24がフレーム端部36に収められる構成例を示す。画像表示部20を構成する他の部位は、フレーム3のフレーム端部35、36、或いは、フレーム3の前面を含む部分に配置してもよい。
画像表示部20が備える右表示駆動部22、左表示駆動部24、カメラ61、9軸センサー66、外部センサー400、及びタッチパッド401、402の各部は、インターフェイス25に接続される。
インターフェイス25は、処理部10が有する制御部140に接続される。制御部140は、後述するように、画像処理部160、撮像制御部161、入力検出部162、入力解析部163、処理実行部164、通信制御部170、及び表示制御部190として機能する。インターフェイス25は、制御部140の各部と、処理部10の各部とを相互に接続し、各種データ及び信号を送受信させる。
例えば、インターフェイス25は、表示制御部190が出力する制御信号を、右表示駆動部22及び左表示駆動部24に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、9軸センサー66、外部センサー400、及びタッチパッド401、402のそれぞれを、制御部140に接続する。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
右バックライト制御部201は、表示制御部190が送信する制御信号に従って、右バックライト221を駆動する。右LCD制御部211は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
左バックライト制御部202は、表示制御部190が送信する制御信号に従って、左バックライト222を駆動する。左LCD制御部212は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
カメラ61は、撮像制御部161から入力される制御データに従って撮像を実行し、撮像画像データを、インターフェイス25を介して撮像制御部161に出力する。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサー(慣性センサー)である。9軸センサー66は、複数のセンサーを統合したセンサーユニットであってもよい。9軸センサー66は、インターフェイス25を介して制御部140に接続され、制御部140の制御に従って、所定の周期(サンプリング周波数)で検出を実行し、検出値を制御部140に出力する。制御部140は、HMD100が使用者の頭部に装着された状態で、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。
図5に示す外部センサー400は、右センサー部410及び左センサー部420を含み、右センサー部410と左センサー部420のそれぞれがインターフェイス25に接続されてもよい。例えば、右センサー部410のセンサー411、412、413がユニット化されてインターフェイス25に接続されてもよい。また、左センサー部420のセンサー421、422、423が、ユニット化されてインターフェイス25に接続されてもよい。或いは、センサー411、412、413、421、422、423のそれぞれが、インターフェイス25に接続されてもよい。
外部センサー400は、入力検出部162の制御に従って、所定の周期(サンプリング周波数)で検出を実行し、検出値を入力検出部162に出力する。
タッチパッド401、402は、それぞれ、インターフェイス25に接続される。タッチパッド401、402は、入力検出部162の制御に従って、所定の周期(サンプリング周波数)で検出を実行し、検出値を入力検出部162に出力する。
ここで、タッチパッド401、402が、検出値を解析する検出回路(図示略)を備え、この検出回路がインターフェイス25に接続される構成としてもよい。この場合、タッチパッド401、402は検出回路の制御により検出を実行し、検出回路は、タッチパッド401、402で接触操作を検出し、操作位置を特定し、操作位置を示すデータを入力検出部162に出力する。また、入力検出部162が、タッチパッド401、402から入力される検出値に基づき、接触操作を検出し、操作位置を特定してもよい。
処理部10は、HMD100を制御する。処理部10は、使用者の操作を受け付ける操作部111を備える。操作部111は、例えば、HMD100の電源のオン/オフの指示を行う電源スイッチ(図示略)、及び、その他の各種スイッチを備える。
処理部10を構成する各部は、例えば、フレーム3のフレーム端部35、36に収容される。また、処理部10の全部または一部を、右保持部31や左保持部32に収容してもよいし、フレーム3とは別体として構成される筐体に納めてもよい。この場合、当該筐体とフレーム3の内部の画像表示部20とを、ケーブルで有線接続してもよいし、無線通信により接続してもよい。
処理部10は、制御部140、入力情報取得部110、及び、記憶部120を有する。
入力情報取得部110は、操作部111に接続される。入力情報取得部110は、操作部111から入力される信号に基づき、使用者の操作を受け付ける。入力情報取得部110は、操作部111における操作内容を示すデータを制御部140に出力する。
処理部10は、電源部113を備える。電源部113は、例えば一次電池、二次電池、或いはキャパシターを有し、処理部10及び画像表示部20の各部に電源部113から電源が供給される。電源部113からの電源供給状態は、電源スイッチ(図示略)の操作、及び、制御部140が実行するプログラムの実行状況に応じて、制御部140が制御する。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、及び、これらのプログラムに係るデータを記憶する。また、記憶部120は、右表示駆動部22及び左表示駆動部24により表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部111の操作で入力された値であってもよいし、通信部117を介して外部の機器(図示略)または他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、入力解析データ122、及び、画像データ123を記憶する。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、撮像制御部161、入力検出部162、入力解析部163、処理実行部164、通信制御部170、及び、表示制御部190として機能する。
撮像制御部161は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部120に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部161は撮像画像データをカメラ61から取得して、記憶部120に一時的に記憶する。
画像処理部160は、右表示駆動部22及び左表示駆動部24により表示させる画像データに基づいて、画像表示用の信号を生成し、右表示駆動部22及び左表示駆動部24に送信する。画像処理部160が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部160は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して送信する。
表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
制御部140は、記憶部120が記憶するコンテンツのデータ(図示略)に基づく画像や、HMD100の設定を行うメニュー画面の画像等を表示する。記憶部120が記憶するコンテンツのデータは、テキストデータ、静止画像データ、動画像データ、及び音声データ等を含むことができる。また、制御部140は、カメラ61で撮像する撮像画像、または、撮像画像から生成する表示用の画像を、画像表示部20により表示してもよい。
制御部140は、外部センサー400、及び、タッチパッド401、402で検出する使用者の操作に従って、表示中の画像の表示態様を変化させる。
また、制御部140は、右導光部26及び左導光部28(図1)を透過する外光OLにより使用者が視認する実空間に重ねて、画像表示部20に画像を表示させてもよい。この場合、制御部140は、カメラ61の撮像画像に基づいて実空間の対象物(実物体)を検出し、検出した対象物を使用者が視認する位置を特定する。制御部140は、対象物を使用者が視認する位置に対応する右LCD241及び左LCD242上の表示位置を求め、この表示位置にテキストや画像を表示する。これにより、画像表示部20で表示するテキストや画像は、実空間の対象物に対応する位置に表示され、いわゆるAR(Augmented Reality:拡張現実)効果を奏する画像(以下、AR画像という)として機能する。
また、HMD100を、コンテンツの供給元となる種々の外部の機器(図示略)に接続してもよい。この場合、外部の機器を接続するインターフェイスは、通信部117を用いてもよいし、その他のインターフェイスを設けてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを備えてもよい。外部の機器としては、HMD100に画像を供給する画像供給装置が挙げられ、例えば、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等である。
入力検出部162は、外部センサー400、及び、タッチパッド401、402を動作させて、検出値を取得する。入力検出部162は、図1に符号A1で示すように、タッチパッド401における面内すなわちX方向とY方向の操作位置を検出する。また、入力検出部162は、タッチパッド402における面内すなわちX方向とY方向の操作位置を検出する。また、入力検出部162は、センサー411、412、413、421、422、423のそれぞれの検出値を取得してもよいし、右センサー部410及び左センサー部420のそれぞれの検出値を一括して取得してもよい。
入力解析部163は、入力検出部162が取得する検出値を解析することにより、HMD100に対する操作を検出する。
具体的には、入力解析部163は、右センサー部410が備えるセンサー411、412、413の検出値に基づいて、外部センサー400の検出範囲内に位置する物体を検出する。また、入力解析部163は、左センサー部420のセンサー421、422、423の検出値に基づいて、HMD100の左眼側表示部に対する操作を検出する。これにより、入力解析部163は、使用者の手や使用者が使用する操作用具(例えば、手袋、指示棒、筆記具など)を含む操作体がフレーム3に接近し、或いは接触したことを検出し、これらの操作体による操作を検出する。
ここで、入力解析部163は、HMD100の右眼側表示部に対する操作と左眼側表示部に対する操作とを個別に検出してもよい。或いは、HMD100の右眼側表示部に対する操作の検出結果と、左眼側表示部に対する操作の検出結果とに基づき、HMD100全体に対する操作を検出してもよい。例えば、操作体をセンサー411とセンサー421との両方が検出した場合、入力解析部163は、一つの操作体による操作であることを特定可能な構成としてもよい。
また、入力解析部163は、外部センサー400の検出値を解析して、外部センサー400の検出範囲内に位置する物体の動きを検出してもよい。
入力解析部163は、外部センサー400の各センサーの検出値の変化を求めることにより、検出範囲内の物体の動きを、例えば仮想的に設定されるXYZ直交座標系を用いて検出してもよい。この場合、入力解析部163は、例えば、図1にX、Y、Zで示す方向における物体の動きを算出する。X方向、Y方向、及びZ方向は、図1を参照して説明した通りである。
入力解析部163は、外部センサー400の検出範囲内における物体の動きについて、X方向、Y方向、Z方向のそれぞれにおける移動速度及び/または移動量を算出し、算出した移動速度及び/または移動量を示すデータを生成する。ここで、入力解析部163は、各方向における移動が正方向か逆方向かを示すデータを生成してもよい。
入力解析部163は、タッチパッド401、402の検出結果に基づいて、タッチパッド401、402のそれぞれについて、操作の有無、操作位置、操作位置の移動の軌跡等を示すデータを生成する。また、入力解析部163は、タッチパッド401、402で検出した接触操作の位置の経時変化に基づき、タッチパッド401、402に複数回接触する操作を、一つの操作として検出してもよい。具体的には、使用者が操作体によりタッチパッド401を複数回叩く(タップ)操作を、一つの操作として検出してもよい。この場合、入力解析部163は、2回のタップ操作を、一つのダブルタップ操作として検出してもよいし、3回のタップ操作を一つのトリプルタップ操作として検出してもよい。タッチパッド402についても同様である。
また、入力解析部163は、タッチパッド401またはタッチパッド402に接触した操作体が、接触状態を保って移動した場合に、この移動の軌跡を求めてもよい。この場合、入力解析部163は、例えば、図1にX、Yで示す方向における物体の動きを算出する。入力解析部163は、タッチパッド401、402のそれぞれについて、操作位置および操作位置の軌跡を、X方向及びY方向の成分として表すデータを生成する。また、操作の軌跡については、X方向及びY方向の移動速度や移動量を含むデータを生成してもよく、X,Y各方向における移動が正方向か逆方向かを示すデータを生成してもよい。
入力解析部163は、外部センサー400、タッチパッド401、402の検出値を解析して操作を検出する処理で、記憶部120が記憶する入力解析データ122を読み出して使用する。入力解析データ122は、外部センサー400の検出値から物体の位置や動きを求めるためのデータである。具体的には、外部センサー400のセンサーの検出値、検出値の経時変化、各センサー411、412、413、421、422、423の検出値の組合せ等を、物体の位置や動きに対応付けるデータである。入力解析データ122は、例えば、演算式、パラメーター、複数のパラメーターを格納するデータベース、複数のパラメーターを含み検出値を他のデータに変換するLUT(LookUp Table)等のいずれかの形式とすることができる。また、入力解析データ122は、入力解析部163が検出値のデータを処理するプログラムとデータの組合せであってもよい。また、入力解析データ122は、センサー411、412、413、421、422、423のそれぞれについて個別に用意されたデータであってもよい。また、右センサー部410と左センサー部420のそれぞれについて個別に用意されたデータであってもよく、センサー411、412、413、421、422、423の検出値を統合的に処理する場合に用いるデータであってもよい。
また、入力解析データ122は、タッチパッド401、402の検出値から、接触操作の操作位置や操作位置の軌跡を求める処理に用いられるパラメーターを含んでもよい。
入力解析部163は、上述したように、外部センサー400或いはタッチパッド401、402に対する複数回の操作を、一つの操作または一連の操作として検出できる。このため、複数のタッチ操作で構成される一つの操作や、操作体を特定の態様で動かす操作を、検出できる。具体的には、タッチパッド401、402に対するダブルタップやトリプルタップの操作、操作体を動かすジェスチャー操作を、一つの操作として検出できる。このため、HMD100に対して多様な操作を行える。
処理実行部164は、入力解析部163が検出する操作に対応する処理を実行する。例えば、処理実行部164は、入力解析部163が検出する操作が行われた場合に、記憶部120が記憶する画像データ123に基づき、メニュー画像を表示する処理を実行する。ここで、画像データ123は、上述したコンテンツのデータの一つであり、メニュー画像のほか、制御部140の制御により表示される各種の画像の画像データを含んでもよい。
処理実行部164は、入力解析部163が生成するデータを取得して、外部センサー400、タッチパッド401、402による操作を特定する。このため、外部センサー400、及びタッチパッド401、402に対する複数回の操作で構成される複雑な操作に対応して、設定された処理を実行できる。
処理実行部164が実行する処理は、例えば、設定データ121により指定できる。この場合、設定データ121は、入力解析部163が検出する操作と、処理実行部164が実行する処理とを対応付けるデータを含む。
制御部140は、HMD100の動作モードとして、通常動作モードと、近接操作モードとを切り替えて実行する。通常動作モードは、HMD100が、タッチパッド401、402の操作に従って動作する動作モードである。この通常動作モードにおいて、制御部140は、外部センサー400に対する操作に応答した処理を実行しない。
通常動作モードにおいて、制御部140は、例えば、入力検出部162が外部センサー400による検出を行わせない。或いは、入力解析部163が、入力検出部162が取得する検出値を解析する処理を行わない。また、処理実行部164が、入力解析部163が解析した操作のうち外部センサー400に係る操作に対応する処理を実行しない。これらの動作状態のいずれを実行してもよいが、上記のように、入力検出部162が外部センサー400の検出を制限する場合、電力消費を抑制できるという利点がある。また、上記のように入力解析部163または処理実行部164の処理の実行を制限する場合には、通常動作モードから、次で述べる近接操作モードへの切り替えを速やかに実行できるという利点がある。
近接操作モードは、外部センサー400により操作を検出する動作モードである。すなわち、使用者が、外部センサー400に操作体を接近させて操作することが可能な動作モードである。
近接操作モードにおいては、右センサー部410及び左センサー部420の検出範囲に位置する物体を検出し、上述した入力検出部162及び入力解析部163の動作によって操作を検出する。
通常動作モードは、外部センサー400の操作に対応する処理を制限することで、誤操作あるいは意図しない操作による誤動作を防止するための動作モードである。例えば、使用者が意図しない物体の接近により制御部140が表示を変化させてしまうことを、防止できる。また、近接操作モードは、外部センサー400に物体を接近させる操作が可能であり、より容易に、HMD100に対する多彩な操作が可能となる。通常動作モードと近接操作モードとを切り替える動作についてはフローチャートを参照して後述する。
外部センサー400が物体の接近を検出する検出範囲は任意であるが、例えば、HMD100の表示部の周辺への物体の接近を検出できる範囲であればよい。ここで、表示部は、画像表示部20が配置されるフレーム3の前面部、画像を表示する右導光部26及び左導光部28、または、右導光部26及び左導光部28を保持するフレーム3の前面部等を指す。外部センサー400は、図1及び図2に示すように、フレーム3の前面部(前部)に対する物体の接近および接触を検出可能な右センサー部410及び左センサー部420を備え、これらの各センサーによって近接操作モードで接近を検出できる。
近接操作モードでは、後述する入力検出部162の処理により、外部センサー400の各センサーの検出値に基づき、各センサーの検出範囲における物体の有無が検出される。また、入力検出部162は、検出範囲内における物体の接近及び離隔を検出してもよく、検出範囲への物体の侵入及び離脱を検出してもよい。
外部センサー400が物体の接近を検出する距離、すなわち検出範囲は、具体的には、センサー411、412、413及びセンサー421、422、423が、接触していない物体を検出する範囲であり、各センサーからの距離で表すことができる。この距離は固定的であってもよいし可変であってもよい。また、近接操作モードで接近を検出するセンサーにタッチパッド401、402を含んでもよい。
例えば、外部センサー400の各センサーの検出範囲は、接触位置(例えば、センサーの表面あるいはフレーム3の表面)から1cm〜2cmとしてもよく、2cm〜5cm程度としてもよい。また、近接操作モードにおいて、入力検出部162の制御により、検出範囲を変更してもよい。検出範囲を変更する具体的な方法は、例えば、外部センサー400の各センサーが出力する検出値を解析する入力検出部162の処理を切り替える方法が挙げられる。また、外部センサー400の各センサーを駆動する回路の設定値、或いは、各センサーを駆動する電流、電圧、パルス周波数等の検出条件を切り替える方法を採用してもよい。
制御部140には、GPS115、及び通信部117が接続される。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、処理部10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えてもよい。
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
また、HMD100は、音声を集音するマイク(図示略)を備えてもよい。また、音声を出力するヘッドホンやスピーカーを備えてもよい。この場合、制御部140は、マイクで集音される音声のデータを取得する機能、及び、音声データに基づき音声信号を出力する機能を備える。また、マイクは、例えば、集音した音声の音声信号を制御部140に出力する回路(図示略)に接続される。また、例えば、スピーカー或いはヘッドホンは、制御部140が出力する音声信号を増幅するアンプ(図示略)に接続され、増幅された音声信号に基づき音声を出力する。この場合、制御部140は、コンテンツのデータに含まれる音声データに基づく音声を、使用者に聴かせることができる。また、マイクにより集音した音声に基づき、例えば表示を変化させる等の処理を実行できる。これらの処理を行う処理部として、制御部140は、音声処理部を備えてもよい。
図6はHMD100の動作を示すフローチャートである。
HMD100の電源がオンされた後、制御部140は、通常動作モードで動作を開始する(ステップS11)。
制御部140は、入力検出部162がタッチパッド401、402に対する操作を検出すると(ステップS12)、入力解析部163が操作を解析して操作状態を特定する(ステップS13)。ここで、処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当するか否かを判定する(ステップS14)。
動作モードの切り替えを指示する操作に該当しない場合(ステップS14;NO)、処理実行部164は、設定データ121を参照して、ステップS13で入力解析部163が特定した操作状態に対応する処理に関する設定を取得する(ステップS15)。処理実行部164は、設定された処理を実行し(ステップS16)、その後、制御部140は動作を終了するか否かを判定する(ステップS17)。例えば電源スイッチが操作された場合など動作を終了すると判定した場合(ステップS17;YES)、制御部140は本処理を終了する。また、動作を終了しない場合(ステップS17;NO)、ステップS12に戻る。
処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当すると判定した場合(ステップS14;YES)、処理実行部164は、近接操作モードに移行する(ステップS18)。ステップS18では、処理実行部164が外部センサー400に対する操作に応じて処理を実行可能な状態に移行する。具体的には、入力検出部162の制御による外部センサー400の検出動作の開始、或いは、入力解析部163による解析の開始等が行われる。
次いで、入力検出部162が外部センサー400またはタッチパッド401、402に対する操作を検出すると(ステップS19)、入力解析部163が操作を解析して操作状態を特定する(ステップS20)。ここで、処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当するか否かを判定する(ステップS21)。
動作モードの切り替えを指示する操作に該当しない場合(ステップS21;NO)、処理実行部164は、設定データ121を参照して、ステップS20で入力解析部163が特定した操作状態に対応する処理に関する設定を取得する(ステップS22)。処理実行部164は、設定された処理を実行し(ステップS23)、その後、制御部140は動作を終了するか否かを判定する(ステップS24)。動作を終了すると判定した場合(ステップS24;YES)、制御部140は本処理を終了する。また、動作を終了しない場合(ステップS24;NO)、ステップS19に戻る。
処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当すると判定した場合(ステップS21;YES)、処理実行部164は、通常動作モードに移行し(ステップS25)、ステップS12に戻る。
動作モードの切り替えを指示する操作は、例えば、タッチパッド401またはタッチパッド402に対するダブルタップ操作である。通常動作モードから近接操作モードへの切り替え、及び、近接操作モードから通常動作モードへの切り替えの両方で、動作モードの切り替えを指示する操作を共通する操作としてもよい。この場合、通常動作モード及び近接操作モードの両方で検出可能な操作とするため、当該操作はタッチパッド401、402に対する操作とすることが好ましい。
また、通常動作モードにおいては、外部センサー400の操作に対応する処理を行わないが、動作モードの切り替えを指示する外部センサー400の操作のみ検出し、動作モードの切り替えを行ってもよい。
ここで、外部センサー400の操作に対応して処理実行部164が表示態様を変化させる動作の具体例について説明する。
図7は、HMD100に対する操作の態様と表示の具体例を示す図である。図7(A)は操作の一例を示し、図7(B)は図7(A)の操作に対応する表示例を示す。また、図7(C)は操作の別の例を示し、図7(D)は図7(C)の操作に対応する表示例を示す。
図7(A)では、2つの操作体をHMD100の側方において近接させた状態を示し、より具体的には、2つの操作体RH、LHを左右に離隔させた状態で、HMD100に近接させた状態を示す。操作体RHは、例えば使用者の右手であり、操作体LHは使用者の左手である。操作体RH、LHは、HMD100の側方に限らず、右導光部26、左導光部28の前方であってもよい。図7(A)には、理解の便宜のため、HMD100を裏面側、すなわち装着状態における使用者の顔の側から見た図を示す。
図7(A)及び(B)に符号Dで示すように、外部センサー400の検出範囲Dは、右導光部26、左導光部28の前方および上下左右に拡がる空間に位置する。
図7(A)の操作は、操作体RH、LHを右導光部26、左導光部28のそれぞれに近接させて、上方向U、または下方向Dに動かす操作を示す。この場合、入力解析部163は、外部センサー400の右センサー部410により操作体RHを検出し、左センサー部420により操作体LHを検出する。処理実行部164は、右センサー部410と左センサー部420とがそれぞれ一つの物体を検出した場合に、設定された動作として、位置入力用のY方向ガイドGY(操作制御命令画像)を表示する。図7(B)には使用者の視野VRにおいて、表示領域VAにY方向ガイドGYが表示される。ここで、表示領域VAは右導光部26及び左導光部28が形成する虚像を使用者が視認する最大の範囲を示す。表示領域VAは、実際には、使用者の右眼が視認する虚像と左眼が視認する虚像とが、使用者の視機能により合成された領域であるが、ここでは使用者が視認する像を示す意味で一つの矩形として表現する。
Y方向ガイドGYは、縦方向すなわちY方向における位置を入力する操作を行うためのガイドであり、例えば表示領域VAに横方向に延びる直線である。
処理実行部164は、表示領域VAにY方向ガイドGYを表示させ、入力解析部163が操作体RH及び操作体LHの上方向Uへの移動を検出した場合、この上方向Uの移動に追従するように、Y方向ガイドGYを上方向Uに移動させる。また、入力解析部163が操作体RH及び操作体LHの下方向Dへの移動を検出した場合、この下方向Dの移動に追従するように、Y方向ガイドGYを下方向Dに移動させる。入力解析部163が検出する操作体RH、操作体LHの移動量と、Y方向ガイドGYの移動量との対応は、予め設定データ121に設定される。
図7(A)、(B)に示すように、HMD100では、使用者が右手を右眼側に位置させ、左手を左眼側に位置させてフレーム3に近づけることにより、Y方向の位置入力を行える。Y方向ガイドGYを所望の位置に移動させた後、使用者が操作体RH、LHを所定の態様で動かすと、Y方向の位置が確定される。所定の態様とは、例えば、操作体RH、LHを所定時間静止させる、操作体RH、LHの両方を水平方向すなわちX方向(図7(C)の右方向Rまたは左方向L)に平行移動させる,等が挙げられる。また、操作体RH、LHを上方向Uまたは下方向Dに移動させる間、操作体RH、LHをフレーム3に接触させている場合、操作体RH、LHをフレーム3から離隔させることで、Y方向の位置を確定してもよい。
図7(C)の操作は、操作体RH、LHをフレーム3に近接させて、右方向R、または左方向Lに動かす操作を示す。この場合、入力解析部163は、外部センサー400の右センサー部410により操作体RHを検出し、左センサー部420により操作体LHを検出する。処理実行部164は、図7(A)に示す操作でY方向の位置が確定された後、右センサー部410と左センサー部420とがそれぞれ一つの物体を検出している場合に、設定された動作として、位置入力用のX方向ガイドGX(操作制御命令画像)を表示する。
図7(D)では使用者の視野VRにおいて、表示領域VAにX方向ガイドGXが表示される。X方向ガイドGXは、横方向すなわちX方向における位置を入力する操作を行うためのガイドであり、例えば表示領域VAに縦方向に延びる直線である。
処理実行部164は、表示領域VAにX方向ガイドGXを表示させ、入力解析部163が操作体RH及び操作体LHの右方向Rへの移動を検出した場合、この右方向Rの移動に追従するように、X方向ガイドGXを右方向Rに移動させる。また、入力解析部163が操作体RH及び操作体LHの左方向Lへの移動を検出した場合、この左方向Lの移動に追従するように、X方向ガイドGXを左方向Lに移動させる。入力解析部163が検出する操作体RH、操作体LHの移動量と、X方向ガイドGXの移動量との対応は、予め設定データ121に設定される。
図7(C)、(D)に示すように、HMD100では、使用者が右手を右眼側に位置させ、左手を左眼側に位置させてフレーム3に近づけることにより、X方向の位置入力を行える。X方向ガイドGXを所望の位置に移動させた後、使用者が操作体RH、LHを所定の態様で動かすと、X方向の位置が確定される。所定の態様とは、Y方向ガイドGYを用いる位置入力と同様、例えば、操作体RH、LHを所定時間静止させる、操作体RH、LHの両方を縦方向すなわちY方向(上方向Uまたは下方向D)に平行移動させる、等が挙げられる。また、操作体RH、LHを右方向Rまたは左方向Lに移動させる間、操作体RH、LHをフレーム3に接触させている場合、操作体RH、LHをフレーム3から離隔させることで、X方向の位置を確定してもよい。
図7(A)〜(D)に示す例は、使用者が、視野VRにおける位置を入力または指定する位置入力操作に使用できる。X方向ガイドGX及びY方向ガイドGYの位置により入力された位置は、例えば、入力解析部163が、視野VRにおける位置として検出する。この場合、入力解析部163は、検出した位置を、右LCD241及び左LCD242における表示位置の座標に変換する処理を行ってもよい。
また、Y方向ガイドGY及びX方向ガイドGXを表示させて位置入力を開始するトリガーを、2つの物体の接触を外部センサー400が検出することや、2つの物体の接触を検出した後でいずれか一方の物体の接触が解除されることとしてもよい。つまり、外部センサー400に操作体を接触させる操作と、外部センサー400の検出範囲において操作体を近接させる操作との組み合わせに対応して、処理実行部164が処理を実行してもよい。また、Y方向ガイドGY、X方向ガイドGXを表示する場合に、処理実行部164の制御により、操作方法を案内するテキストや画像を表示してもよい。
また、図7(A)〜(D)に示す操作を、片手で行うことが可能な構成としてもよい。例えば、入力解析部163が、外部センサー400の右センサー部410または左センサー部420のいずれか一方で、2つの位置における接近を検出した場合が挙げられる。この場合、設定された動作として、処理実行部164が、位置入力用のY方向ガイドGY(操作制御命令画像)を表示する。例えば、使用者の右手の人差し指と中指のそれぞれを、操作体として検出する場合に相当する。
処理実行部164は、図7(B)に示すように、Y方向ガイドGYが表示された状態で、2つの操作体(右手の人差し指と中指)を上下(図1のY方向)に動かす操作を検出し、この操作に対応して、Y方向ガイドGYを上下に移動させる。入力解析部163が検出する2つの操作体の移動量と、Y方向ガイドGYの移動量との対応は、予め設定データ121に設定される。そして、入力解析部163が、2つの操作体のいずれかがフレーム3から所定距離以上、離隔したことを検出した場合に、Y方向の位置を確定する。
さらに、入力解析部163が、外部センサー400の右センサー部410または左センサー部420のいずれか一方で、2つの位置における接近を検出した場合、処理実行部164は、位置入力用のX方向ガイドGX(操作制御命令画像)を表示する。例えば、使用者の右手の人差し指と中指のそれぞれを、操作体として検出する場合に相当する。
処理実行部164は、図7(D)に示すように、X方向ガイドGXが表示された状態で、2つの操作体(右手の人差し指と中指)を左右(図1のZ方向)に動かす操作を検出し、この操作に対応して、X方向ガイドGXを左右に移動させる。入力解析部163が検出する2つの操作体の移動量と、X方向ガイドGXの移動量との対応は、予め設定データ121に設定される。そして、入力解析部163が、2つの操作体のいずれかがフレーム3から所定距離以上、離隔したことを検出した場合に、X方向の位置を確定する。
また、この操作は、2つの操作体を図1のX方向に移動させた場合に、フレーム3を通してみる使用者の視界の奥行き方向における位置入力に適用してもよい。
図8は、HMD100に対する操作の態様と表示の具体例を示す図である。図8(A)は操作の一例を示し、図8(B)、(C)は図8(A)の操作に対応する表示例を示す。
図8(A)では、2つの操作体をHMD100の前方において近接させた状態を示し、より具体的には、2つの操作体RH、LHを左右に離隔させた状態で、右導光部26、左導光部28の前面に近接させた状態を示す。図8(A)の例では、操作体RHはセンサー413に近接し、操作体LHはセンサー423に近接する。図8(A)には、理解の便宜のため、HMD100を表面側、すなわち装着状態における使用者の顔を外から見た図を示す。
図8(A)に符号Dで示すように、外部センサー400の検出範囲Dは、右導光部26、左導光部28の前方および上下左右に拡がる空間に位置する。
図8(A)の操作は、操作体RHをセンサー413に沿って移動させ、操作体LHをセンサー423に沿って移動させる操作を示す。この場合、入力解析部163は、右センサー部410のセンサー413により操作体RH及びその移動を検出し、左センサー部420のセンサー423により操作体LH及びその移動を検出する。
処理実行部164は、外部センサー400が備えるセンサー(本実施形態では6個)により、2つの物体を検出し、2つの物体が接近或いは離隔する操作を検出した場合に、設定された動作として、表示の拡大または縮小を行う。
図8(B)、(C)には使用者の視野VRにおいて、表示画像V1が表示される。処理実行部164は、入力解析部163が外部センサー400の操作として、2つの物体が離隔する操作を検出した場合に、表示中の画像を拡大する。例えば、処理実行部164は、図8(C)の表示状態から表示画像V1の表示倍率を変更し、図8(B)の表示状態に移行させる。また、処理実行部164は、入力解析部163が外部センサー400の操作として、2つの物体が接近隔する操作を検出した場合に、表示中の画像を縮小する。例えば、処理実行部164は、図8(B)の表示状態から表示画像V1の表示倍率を変更し、図8(C)の表示状態に移行させる。
外部センサー400において検出される2つの物体の距離の変化量と、表示画像V1の表示倍率または表示サイズの変化量との対応は、予め設定データ121に設定される。
図8(A)〜(C)に示すように、HMD100では、使用者が手をフレーム3に接近させて、少なくとも2つの物体として検出させ、この2つの物体を接近または離隔させる操作を行うことで、表示画像V1の表示サイズを変更できる。この操作は、物体を一つのセンサーが検出し続ける場合に限定されない。例えば、物体がセンサー411、412、413に跨がって検出されてもよく、この場合、入力解析部163は、隣接するセンサーで連続して物体を検出する検出値を解析して、一つの物体が異なるセンサーに跨がって移動した操作を検出できればよい。また、2つの物体を、右センサー部410と左センサー部420とがそれぞれ一つずつ検出することを条件にしてもよいし、物体を検出するセンサーについて条件を設けなくてもよい。例えば、入力解析部163が1つのセンサーにより2つの物体を検出可能な構成である場合、1つのセンサーが検出する2つの物体について接近、離隔を検出してもよい。従って、例えば、使用者の一方の手を用い、2本の指をフレーム3に近接させ、これら2本の指を接近または離隔させる操作によって表示領域VAの表示サイズを変更させてもよい。
また、図8(A)に示すように外部センサー400が2つの操作体を検出した場合、これら2つの操作体の回転操作に対応して、表示画像V1を回転させてもよい。この場合、入力解析部163は、2つの操作体の検出位置が相対的に移動し、一方の検出位置の動きが他方の検出位置の動きより大きい場合に、回転したと判定してもよい。表示画像V1を回転させる回転角度は、操作体の回転の度合いまたは回転スピードに従って決めてもよい。また、例えば、操作位置がほぼ移動せず、操作体が複数回回転した場合に、回転数により回転角度を決めても良い。
そのほか、表示領域VAの表示画像V1に対する操作として、次の例が挙げられる。
1.拡大/縮小回転:外部センサー400に2点で接触または近接を検出させ、フレーム3に対し右回転させながらいずれか1点を右センサー部410のいずれかのセンサーに接触させる。ここで、さらに別の1点でいずれかのセンサーに接触または近接を検出させる。この操作に対応して、処理実行部164は、表示画像V1を拡大させながら回転させる。上記操作で左回転させることで表示画像V1を縮小しながら回転させる動作を行ってもよい。
2.拡大/縮小回転:外部センサー400に2点で接触または近接を検出させて表示画像V1を拡大/縮小させる場合に、視野VRの外側に他の操作体を位置させ、この操作体の回転の角度または速度に応じた回転量で表示画像V1を回転させる。
3.外部センサー400の検出範囲において、操作体を外部センサー400に接近させる操作に応じて、表示画像V1を拡大し、操作体Hを外部センサー400から離隔させる操作に応じて、表示画像V1を縮小してもよい。操作体を外部センサー400に接近または離隔させる操作を、他の操作体を外部センサー400のセンサーに接触させる操作と組み合わせてもよい。
図9は、HMD100に対する操作の態様と表示の別の具体例を示す図である。図9(A)、(B)は仮想キーボードVKBを用いた入力操作の例を示す。
図9(A)、(B)では、外部センサー400またはタッチパッド401、402の操作により、仮想キーボードVKBが呼び出された状態を示す。仮想キーボードVKBは、複数の入力キーを含むキーボード形状の画像であり、画像表示部20が表示領域VAに表示する。使用者が、仮想キーボードVKBが表示され視認可能な状態で、表示領域VAにおける位置入力操作を行うと、入力された位置にポインターVPが表示される。ここで、使用者により確定操作が行われると、ポインターVPに重なる位置のキーが選択され、文字が入力される。ポインターVPの位置を指定する操作は、例えば、図7(A)〜(C)を参照して説明した位置入力操作を採用できる。
図9(B)には、仮想キーボードVKBとともにアプリケーション画面VAPを表示した例を示す。アプリケーション画面VAPは、制御部140が実行するアプリケーションプログラムにより、例えば文書編集を行う画面である。アプリケーション画面VAPはアプリケーションプログラムで使用者が実行する処理に対応する画面である。アプリケーションプログラムがGUIによる操作を可能とする場合、例えば、アイコン配置部IAに配置されたアイコンを選択する操作が行われる。
図9(B)の例では、仮想キーボードVKBのキーを選択する操作、及び、アプリケーション画面VAPのアイコン配置部IAに配置されたアイコンを選択する操作が行われる。これらはいずれも位置入力操作を利用できる。また、仮想キーボードVKBを操作する第1状態と、アプリケーション画面VAPを操作する第2状態とを、外部センサー400を利用した操作により切り替えさせることができる。
例えば、使用者の手等の操作体により、右センサー部410または左センサー部420を覆う操作により、第1状態と第2状態とを切り替えてもよい。この場合、入力解析部163は、右センサー部410の各センサーがほぼ同時に物体を検出した検出値、又は、左センサー部420の各センサーがほぼ同時に物体を検出した検出値に基づき、右センサー部410又は左センサー部420を覆う操作を検出する。また、タッチパッド401、402に対するダブルタップの操作で第1状態と第2状態とを切り替えてもよい。
図9(A)、(B)に示す例において、図8(A)〜(C)を参照して説明した操作により、処理実行部164は、仮想キーボードVKBの表示サイズを拡大、或いは縮小してもよい。また、仮想キーボードVKBを回転させる処理や、仮想キーボードVKBにおけるキー配列の変更、キーボードの種類(日本語キーボード、英語キーボード、テンキーなど)の変更等を行ってもよい。
また、図9(A)で仮想キーボードVKBを使用して文字入力が行われた後、入力された文字または文字列を、アプリケーションプログラムに転送して処理してもよい。転送するアプリケーションプログラムの選択や転送実行の指示をする操作として、外部センサー400に操作体を接近させる操作、外部センサー400の検出範囲内において操作体を所定の態様で動かす操作等が挙げられる。
また、仮想キーボードVKBの表示開始時、仮想キーボードVKBとアプリケーション画面VAPの表示時または切り替え時に、操作を案内する画像やテキストを、ポップアップ表示またはバルーン表示してもよい。
図10は、HMD100に対する操作の態様と表示の別の具体例を示す図であり、仮想リモートコントローラーVRCを用いた入力操作の例を示す。
図10では、外部センサー400またはタッチパッド401、402の操作により、仮想リモートコントローラーVRCが呼び出された状態を示す。仮想リモートコントローラーVRCは、複数の入力キーを含み、家庭用電化製品やAV(Audio Visual)機器を操作するリモートコントローラーを模した画像である。仮想リモートコントローラーVRCは、実空間のリモートコントローラーと同様に複数の操作用スイッチが配置される。仮想リモートコントローラーVRCが表示された状態で、上記の位置入力操作により、仮想リモートコントローラーVRCの操作用スイッチを選択することができる。
また、上述した表示画像V1の拡大/縮小を指示する操作により、仮想リモートコントローラーVRCの表示サイズを拡大/縮小できる。また、上述した表示画像V1の回転を指示する操作により、仮想リモートコントローラーVRCの表示角度の変更すなわち回転を行える。
また、図10には方向指示ガイドVAGが表示される。方向指示ガイドVAGは、上下左右に対応する4つの方向指示の操作を行うための画像である。方向指示ガイドVAGに対する上記の位置入力操作により、上下左右のいずれかの方法を指示できる。
図10の状態では、位置入力操作により指示される位置に、円形のポインターVPが表示され、仮想リモートコントローラーVRC、及び、方向指示ガイドVAGに対する位置入力操作をガイドする。
仮想リモートコントローラーVRC、及び、方向指示ガイドVAGは、上述した仮想キーボードVKBを表示させる操作と同様の操作により、或いは後述するメニュー操作により、表示を開始させることができる。
仮想リモートコントローラーVRCの操作用スイッチを位置入力操作によって選択すると、処理実行部164は、通信部117を制御して、仮想リモートコントローラーVRCが操作対象とする外部の機器に信号を送信する。操作対象の外部の機器は、例えば、上述したように家庭用電化製品やAV機器であるが、無線信号により制御または操作可能な装置であれば限定されない。また、通信部117は、処理実行部164の制御に従って、無線LAN、Bluetooth等の無線信号を送信してもよい。また、通信部117が、赤外線信号を送信するIR送信機(図示略)を備える場合、処理実行部164の制御により、通信部117が操作対象の機器に赤外線信号を送信してもよい。
また、HMD100においては、カメラ61により使用者の視線方向を撮像できる。この場合、カメラ61による撮像実行を、外部センサー400を用いた操作で指示できる。
具体的には、外部センサー400に操作体を所定時間以上接触させる操作、或いは、右センサー部410又は左センサー部420を覆う操作に応じて、処理実行部164は、カメラ61のフォーカス調整を指示する。入力解析部163は、外部センサー400が備える所定数以上のセンサーがほぼ同時に接触または近接を検出した場合に、右センサー部410または左センサー部420を覆う操作を検出すればよい。この操作の後で、同様の操作が行われた場合に、カメラ61のシャッター(撮影実行)を行ってもよい。また、表示画像V1を拡大、縮小する上記の操作により、カメラ61のズーム調整を行ってもよい。
図11は、HMDに対する操作の態様と表示の具体例を示す図であり、特に、Z方向における操作を利用する例を示す。図11(A)は使用者の視野VRを示し、図11(B)は表示領域VAに表示される操作ガイド領域GAを特に示す。図11(A)の操作ガイド領域GAを含む画面は、操作用画面、及び、案内画面に相当し、操作ガイド領域GAは特に案内画面に対応する。
図11(A)の例では、視野VRに、操作をガイドする表示を行う操作ガイド領域GAが配置される。操作ガイド領域GAは、操作アイコンA1〜A4、メニューボタンB1、メニューリストB2、ガイド表示B3等を表示する領域である。これら操作アイコンA1〜A4、メニューボタンB1、メニューリストB2、ガイド表示B3等は、操作制御命令画像に対応する。また、操作ガイド領域GAは、それ自体を使用者が視認可能なように、色付きの領域、或いは枠線を有する領域として、表示領域VAに配置される。メニューリストB2はメニュー画面に相当する。
図11(B)に操作ガイド領域GAを示す。図11(B)に例示する操作ガイド領域GAは、上端部US、下端部GS、右端部RS、及び左端部LSの4つの辺を有する矩形である。また、上端部US、下端部GS、右端部RS、及び左端部LSは、それぞれ台形となっており、奥行き感のある画像を構成する。使用者には、視界(視野)の奥(前方)に向かって延びる矩形の枠のように見える。操作ガイド領域GAは、表示制御部190が右表示駆動部22と左表示駆動部24とによって視差を有する画像を表示することで、立体画像として表示してもよい。また、平面画像として、図11(B)に示すように上端部US、下端部GS、右端部RS、及び左端部LSを台形にして奥行き感を有する画像として表示してもよい。
操作ガイド領域GAにおいて、奥行き方向で移動するように見える向きを、図11(B)にZ方向として示す。また、操作ガイド領域GAにおいて横方向を、X方向とし、操作ガイド領域GAにおいて縦方向をY方向とする。
図11(A)に示すように、操作ガイド領域GAには、操作アイコンA1〜A4が表示される。操作アイコンA1〜A4は操作ガイド領域GAの四隅に配置され、外部センサー400の四隅に対する操作に対応する。
例えば、操作ガイド領域GAの右下隅に表示される操作アイコンA1、A2は、外部センサー400の検出範囲の右下隅に対応する。外部センサー400の検出範囲の右下隅に操作体を接触または近接する操作が、操作アイコンA1、A2を選択する操作として検出される。操作アイコンA1、A2は、その後の操作体の移動に伴って、X、Y、Z方向に移動する。使用者の片手の2本の指で操作アイコンA1、A2を操作する態様も可能である。
また、操作アイコンA3は外部センサー400の検出領域の左下隅に対応する。外部センサー400の検出範囲の左下隅に操作体を接触または近接する操作が、操作アイコンA3を選択する操作として検出される。操作アイコンA3は、その後の操作体の移動に伴って、X、Y、Z方向に移動する。
操作アイコンA4、A5は外部センサー400の検出領域の右上隅に対応する。外部センサー400の検出範囲の左右上隅に操作体を接触または近接する操作が、操作アイコンA4、A5を選択する操作として検出される。操作アイコンA4、A5は、その後の操作体の移動に伴って、X、Y、Z方向に移動する。使用者の片手の2本の指で操作アイコンA4、A5を操作する態様も可能である。
また、ガイド表示B3は、例えば確定指示を行うアイコンであり、外部センサー400の検出領域の左下隅に対応する。外部センサー400の検出範囲の左下隅に操作体を接触または近接する操作が、ガイド表示B3を選択する操作として検出される。
メニューリストB2は、メニューボタンB1の操作により表示されるリストであり、設定項目等のリストである。メニューリストB2に表示される項目は上述した位置入力操作により指定できる。
本実施形態では、外部センサー400が物体を検出する検出範囲は、図7(A)、(B)及び図8(A)に符号Dで示したように、右導光部26、左導光部28の前方及び周囲に拡がる空間である。表示領域VAに表示される操作ガイド領域GAは、検出範囲Dに対応する。従って、操作ガイド領域GAの右半分は、検出範囲Dの右半分に対応付けられ、操作ガイド領域GAの左半分は検出範囲Dの左半分に対応付けられる。検出範囲Dの右半分における物体の検出は、実際は右センサー部410のセンサー411、412、413により行われる。また、検出範囲Dの左半分における物体の検出は、左センサー部420のセンサー421、422、423により行われる。つまり、操作ガイド領域GAの右半分は右センサー部410の検出結果に対応付けられ、操作ガイド領域GAの左半分は左センサー部420に対応付けられる。
上述したように表示領域VAは右導光部26と左導光部28により使用者の両眼に視認させる画像を、使用者の視機能により合成して認識される。従って、右導光部26において、操作ガイド領域GAの左半分は、右導光部26が表示する画像の左半分に位置するが、左センサー部420に対応付けられる。同様に、左導光部28において、操作ガイド領域GAの右半分は左導光部28が表示する画像の右半分に位置するが、右センサー部410に対応付けられる。このように、操作ガイド領域GAは、使用者が意識する検出範囲Dに対応するように、外部センサー400の全体と位置関係が対応付けられている。従って、使用者はフレーム3の全体を、操作体を近接および接触させる範囲として意識し、操作ガイド領域GAに表示される操作アイコンA1〜A5、メニューボタンB1、ガイド表示B3等に対する直感的な操作が可能である。
また、図11(A)に示す表示中、HMD100は、通常動作モードを実行して、操作アイコンA1〜A5、メニューボタンB1、メニューリストB2、ガイド表示B3に対する操作を行うことができる。操作ガイド領域GAの表示中に、タッチパッド401、402の操作により、表示領域VAにおける位置指定操作を行い、操作アイコンA1〜A5、メニューボタンB1、メニューリストB2、ガイド表示B3を選択できる。この選択の操作の後に、タッチパッド401、402において、タップ操作や押圧操作を行うことで、選択を確定できる。
上記実施形態において、近接操作モードにおける外部センサー400の検出範囲の大きさ、或いは広さを、処理実行部164が表示する画像すなわちユーザーインターフェイスの態様により切り替えてもよい。センサーの検出範囲の大きさは、例えば、接触、近接、中近接の3段階に切り替えてもよい。例えば、図7(B)、(D)の表示状態では検出範囲を中近接とし、図8(B)〜(C)に示す表示状態では検出範囲を接触とし、図9〜図11に示す表示状態では検出範囲を近接としてもよい。例えば、検出範囲が接触に設定された場合、入力検出部162は各センサーへの接触を検出し、近接に設定された場合は検出範囲をセンサー表面から2cm以内とし、中近接に設定された場合は検出範囲をセンサー表面から5cm以内としてもよい。また、近接および中近接に設定された状態で、センサー表面に接触する操作と、接触しない操作とを入力検出部162が区別する構成としてもよい。
以上説明したように、本発明を適用した第1実施形態に係るHMD100は、使用者の頭部に装着された状態で、使用者が実空間を視認可能に画像を表示する表示部としての右導光部26、左導光部28、或いは画像表示部20を備える。HMD100は、右導光部26、左導光部28周辺への操作体の接近を検出する外部センサー400と、操作を受け付けるタッチパッド401、402とを備える。制御部140は、外部センサー400が検出する操作体の動きにより、右導光部26、左導光部28が表示する表示と操作体の動きに対応する操作とを対応させる。
このHMD100の構成、及び、HMD100の制御方法によれば、使用者は、フレーム3に接触することなく容易にHMD100を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。
また、制御部140は、タッチパッド401、402により受け付けられた操作に対応して処理を行う通常動作モードと、外部センサー400の検出結果に対応して画像表示部20の表示を伴う処理を実行する近接操作モードと、を切り替えて実行する。これにより、接近による操作を行う近接操作モードと通常動作モードとを切り替えることで誤操作を防止できる。
また、制御部140は、操作用のメニュー画面として、例えばメニューリストB2を含む画面を画像表示部20に表示させてもよい。この場合、制御部140は、通常動作モードではタッチパッド401、402により受け付ける操作を、メニューリストB2の選択または確定の操作として処理できる。また、制御部140は、近接操作モードでは外部センサー400が検出する物体の接近または離隔に対応して、メニューリストB2を含む操作ガイド領域GAにおける選択または確定の処理を行うことができる。これにより、メニュー画面を利用して、通常動作モード及び近接操作モードのいずれにおいても、簡単にHMD100を操作することが可能となる。
また、画像表示部20は、使用者の頭部に装着された状態で使用者の左眼側に位置する左眼用表示部としての左導光部28、及び、右眼側に位置する右眼用表示部としての右導光部26を備える。制御部140は、外部センサー400が検出する左眼用表示部に対する操作と右眼用表示部に対する操作との組み合わせに対応付けて、制御部140が実行する処理が設定される。これにより、HMD100の右側と左側のそれぞれに対する操作の組合せに応じた処理を実行するので、誤操作のおそれが小さいため、高度で複雑な処理を近接操作に割り当てることができる。これにより、より容易にHMD100を操作できる。
また、制御部140は、図11(A)に示したように、外部センサー400が検出する操作に係る情報を含む案内画面としての操作ガイド領域GAを画像表示部20によって表示してもよい。この場合、操作ガイド領域GAの左半分に表示される情報は左眼用表示部の左側部分に対する操作に対応し、操作ガイド領域GAの右半分に表示される情報は右眼用表示部の右側部分に対する操作に対応付けられる。これにより、使用者の頭部に装着される画像表示部20の形状を利用して、使用者が案内画面を見ながら直感的に操作を行うことができる。
また、制御部140は、画像表示部20によって使用者の右眼と左眼との両方に視認可能な態様で操作用画面を表示する。そして、制御部140は、図11(A)に示したように、左眼用表示部の左側部分に対する操作に対応して操作用画面の左半分の表示を変更する。また、右眼用表示部の右側部分に対する操作に対応して操作用画面の右半分の表示を変更する。これにより、使用者の頭部に装着される画像表示部20の形状を利用して、使用者の感覚に適する態様で表示を変更できる。
また、外部センサー400は、左眼用表示部に対する物体の接近、及び、右眼用表示部に対する物体の接近を検出するので、使用者はフレーム3に触れることなくHMD100を操作できる。
また、制御部140は、外部センサー400によって検出される使用者の頭を基準として上下方向すなわちY方向に物体が移動する動作、左右方向すなわちX方向に物体が移動する操作に対応して表示を変更できる。また、制御部140は、外部センサー400が検出する、画像表示部20に対し物体が接近及び離隔する操作、すなわちZ方向の操作に対応して、画像表示部20の表示を変更する。これにより、物体を画像表示部20に接近及び離隔させる操作と、上下や左右に移動させる操作とを検出するので、より容易に、HMD100に対する多彩な操作を行うことができる。
また、制御部140は、図7(A)〜(D)に示したように、外部センサー400によって、右眼用表示部及び左眼用表示部の両方においてX方向及びY方向に物体が移動する操作を検出した場合に、画像表示部20の表示領域における上下方向または左右方向の位置入力を受け付ける。これにより、物体を画像表示部20に接近させて移動させる操作によって位置入力を行うことができ、より容易にHMD100を操作できる。
また、図7(A)〜(D)に示したように、制御部140は、右導光部26及び左導光部28により表示される画像の表示位置は、外部センサー400が検出する操作の操作位置と一致する位置でなくてもよい。図7(A)〜(D)の例では、操作体RH、LHが移動する方向に対応して、X方向ガイドGX、Y方向ガイドGYが移動する。この例で、ガイドの表示位置が操作体RH、LHを検出した検出位置と異なっていてもよい。言い換えれば、制御部140は、外部センサー400が検出する2以上の位置における操作に対応して、検出された操作位置とは異なる位置に対応する入力を受け付ける。これにより、位置入力を行う場合に、入力する位置と操作位置との対応に関する制約を緩和し、より容易に表示装置を操作できる。
また、ガイドの表示位置を、検出位置に対応または一致する位置でなく、操作体RH、LHの検出時のガイドの位置、または、使用者が視認しやすい位置としてもよい。この場合、マウス等の相対位置を入力する入力デバイスのような操作性を実現できる。
外部センサー400は、画像表示部20の外表面への接触、及び、画像表示部20の外側からの物体の接近を検出する構成であってもよい。
また、制御部140は、外部センサー400によって回転する操作を検出した場合に、画像表示部20の表示領域における表示を回転させる構成であってもよい。
また、制御部140は、外部センサー400によって2点に対する操作が検出され、検出された2点の操作位置間の距離が変化した場合に、当該距離の変化に対応して画像表示部20の表示領域における表示を拡大または縮小させる構成であってもよい。
外部センサー400は、表示部を構成する光学部品である右導光部26、左導光部28を保持する保持部への指示体の接近を検出する構成であってもよい。これにより、右導光部26及び左導光部28周辺に対する操作体の接近をより確実に検出し、表示に反映させることができる。
また、外部センサー400は、右導光部26及び左導光部28の周囲に配置された近接センサーであるセンサー411、412、413、421、422、423を有する。制御部140は、上記の近接センサーにより検出される操作体の動きに基づき表示と操作制御を対応させる。これにより、右導光部26及び左導光部28の周囲に配置される近接センサーによって、右導光部26及び左導光部28の周囲に対する操作体の接近をより確実に検出し、表示に反映させることができる。
また、制御部140は、上記近接センサーにより右導光部26及び左導光部28の周辺への操作体の接近を検出した場合に、例えば図11(A)に示したように、右導光部26及び左導光部28によって操作制御命令画像を表示させる。制御部140は、タッチパッド401、402による操作と操作制御命令画像とを対応付けてもよい。この場合、右導光部26及び左導光部28の周囲に配置される近接センサーによって検出される操作体の動きを利用して、例えばGUIとして機能する操作制御命令画像を用いて操作を行うことが可能となり、操作性の向上を図ることができる。
また、制御部140は、近接センサーにより2つの位置に対する接近が検出された場合に、例えば図7に示す操作制御命令画像としてのY方向ガイドGY、X方向ガイドGXを表示させてもよい。すなわち、2本指など2つの操作体の操作を検出した場合に、これら2つの操作体に対応する操作制御命令画像としてY方向ガイドGYまたはX方向ガイドGXを表示する。そして、これら2つの位置に対応する操作制御命令画像が表示された状態で検出される操作体の所定方向の動きに、Y方向ガイドGYまたはX方向ガイドGXの所定方向の動きを対応付けてもよい。この場合、近接センサーに2つの位置で操作体を接近させる操作により、操作制御命令画像を操作体の動きに対応する方向に動かすことができる。また、この操作は、たとえば手や1本の指など、1つの操作体を接近させた場合とは異なる動作として、切り替えて実行できる。これにより、位置指示や方向指示等の操作を、2つの操作体で容易に行うことができる。
また、制御部140は、右導光部26及び左導光部28に対する近接センサーの配置状態を案内する表示を右導光部26及び左導光部28に表示させてもよい。例えば、右導光部26及び左導光部28のそれぞれの周囲に配置されるセンサー411、412、413、421、422、423の位置、数、検出範囲等を図で示す画像を、右導光部26及び左導光部28により表示してもよい。この場合、操作体を接近させる操作をより確実に行うことができる。
また、右導光部26及び左導光部28は、外光OLを透過させることにより実物体を視認可能に構成され、実物体と重ねて視認されるように画像を表示する。これにより、外光OLを透過して実物体を視認可能であって画像を視認させる右導光部26及び左導光部28を装着した使用者には、実物体と画像とが重なって視認される。そして、この視認される画像に対し、右導光部26及び左導光部28に操作体を接近させる操作を行うことができる。これにより、実物体に関連する表示を、右導光部26及び左導光部28に操作体を接近させる簡単な操作によって、容易に制御できる。
また、上記実施形態において、外部環境に合わせて、右導光部26及び左導光部28が表示する、Y方向ガイドGY、X方向ガイドGX等の操作制御命令画像の表示を変更してもよい。例えば、カメラ61によりHMD100周囲の明るさ(外光の輝度、照度)を検出して、検出した明るさに合わせて右導光部26、及び左導光部28の表示輝度や配色を自動調整してもよい。また、HMD100の消費電力を抑制する目的で、省エネモード等を実行し、操作制御命令画像を右導光部26または左導光部28のいずれか一方にのみ表示してもよい。この場合、入力解析部163は、右センサー部410または左センサー部420のうち、表示を行っている側でのみ操作体の接近を検出してもよい。また、AR画像を重ねるターゲットである実空間の対象物を特定するためのマーカーを利用し、このマーカーを近接センサーにより制御してもよい。或いは、使用者の視線を検出する視線センサーを備え、この視線センサーの検出結果と組み合わせて、対象物を特定しても良い。
また、処理部10が、フレーム3における外部センサー400の構成に適合するGUIを表示可能な構成としてもよく、このGUIをアプリケーションプログラムにより提供可能な構成であってもよい。この場合、カメラ61により、HMD100を装着した使用者の鏡像またはHMD100に対応するマーカーなどを撮像すると、この撮像画像データに基づき制御部140がHMD100の型番等を特定する。制御部140は、特定したHMD100の型番に適合するGUI(例えば、上述した操作制御命令画像)のデータを取得して、GUIを表示すればよい。この場合のGUIのデータや、HMD100の型番等を特定するためのデータは、HMD100が予め記憶部120に記憶してもよいし、通信部117等により外部の機器と通信して取得してもよい。
また、制御部140は、外部センサー400で検出した操作体の操作と操作制御命令画像とに対応する処理を実行してもよく、この場合、操作内容が判るGUIの表示等を行ってもよい。
[第2実施形態]
図12は、本発明を適用した第2実施形態に係るHMD100Aの構成を示す外観図である。
図12に示すHMD100Aは、上記第1実施形態のHMD100において、使用者の眼に面する位置に視線センサー65を有する。視線センサー65は、使用者の右眼、及び、左眼のそれぞれに対応するように、右導光部26と左導光部28との中央位置に一対、設けられる。視線センサー65は、例えば、使用者の右眼と左眼とをそれぞれ撮像する一対のカメラで構成される。視線センサー65は、制御部140の制御に従って撮像を行い、制御部140が、撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、視線方向を特定する。
これにより、例えば、通常動作モードの位置入力操作において、制御部140は、使用者の視線方向を特定し、視線方向の位置を、入力として検出してもよい。また、近接操作モードにおいて、制御部140は、視線センサー65の検出結果に基づき、確定操作を受け付けてもよい。例えば、外部センサー400が検出する物体の位置や動きにより、メニューリストB2のメニュー項目などが選択された場合に、視線センサー65が使用者の瞬きを検出し、この瞬きを、選択を確定する操作として検出してもよい。
その他の動作について、HMD100Aは、HMD100と同様に動作を実行できる。
[第3実施形態]
図13は、本発明を適用した第3実施形態に係るHMD100Bの構成を示す外観図である。
図13に示すHMD100Bは、上記第1実施形態に係るHMD100において、タッチパッド401、402を持たない。HMD100Bは、カメラ61の下方に方向キー67、及び確定キー68を備える。
HMD100Bにおいては、方向キー67の操作によって上下左右の4方向における方向指示を行うことができ、この方向指示を利用して位置入力を行える。方向キー67は、タッチパッド401、402と同様に、通常動作モードにおいて利用できる。
また、方向キー67の中央に位置する確定キー68は、押下操作によって確定を指示するキーとして機能する。
制御部140は、通常動作モードにおいて、方向キー67及び確定キー68の操作に従って、表示態様を変更する。
その他の動作について、HMD100Bは、HMD100と同様に動作を実行できる。
[第4実施形態]
図14は、本発明を適用した第4実施形態に係るHMD100Cの構成を示す外観図である。
図14に示すHMD100Cは、上記第1実施形態に係るHMD100が有するセンサー411、412、413、421、422、423に代えて、センサー451〜456、462〜466を備える。
センサー451は、カメラ61の上方に位置し、フレーム3の上端面または前面の上部に配置される。センサー452、453、454、455、及び456は、右導光部26の周囲に配置される。また、センサー462、463、464、465、及び466は、左導光部28の周囲に配置される。
センサー451〜456、462〜466は、外部センサー400を構成するセンサーとして利用できる。センサー451〜456、462〜466のそれぞれは、センサー411〜413、421〜423と同様に、物体の接近および接触を検出可能であり、例えば静電容量式の近接センサーで構成できる。
センサー451〜456、462〜466は、それぞれ、右導光部26及び左導光部28を透過する外光OLを遮らないように配置されることが好ましい。また、センサー451〜456、462〜466の各センサーの間隔や配置は任意であり、各センサーの特性により適宜に設定可能であって、結果として第1実施形態と同様の検出範囲Dを実現できることが好ましい。
外部センサー400をセンサー451〜456、462〜466で構成した場合の検出範囲Dは、上述した第1実施形態で説明した例とほぼ同様とすることができる。また、HMD100Cの機能および動作については、HMD100と同様とすることができる。
このように、HMDにおける近接センサーの数および配置状態は任意であり、より多くのセンサーを用いてもよい。また、HMD100、100A、100B、100Cにおいて、物体の接近を検出するセンサーと、物体の接触を検出するセンサーとを、別のセンサーとして配置してもよい。
これらのいずれの場合も、センサーの検出値を入力解析部163が適宜に解析することにより、使用者が操作体を用いて行う操作を適切に検出できる。
[第5の実施形態]
図15は、本発明を適用した第5実施形態に係るHMD100Dの構成を示す外観図である。
HMD100Dは、使用者の頭部に装着された状態で使用者に虚像を視認させる表示装置の別の態様であり、眼鏡型の形状である。図15は正面側から見た斜視図である。
HMD100Dの本体を構成するフレーム300は、使用者の顔の前に位置する透過表示部337と、透過表示部337を側方から指示する右収容部335及び左収容部336と、使用者の側頭部に接する右保持部331及び左保持部332とを有する。
透過表示部337は全体として板状であり、透過表示部337の下端中央には、使用者の鼻に当接可能な凹部である鼻当部338が形成される。透過表示部337は、HMD100Dを使用者が装着する状態で、使用者の両眼の前に位置し、使用者の眼に画像を視認させる。
右収容部335は、透過表示部337の側端部に固定され、右保持部331を支持する。右収容部335の内側には、ケース333が取り付けられる。左収容部336は、透過表示部337の側端部に固定されて、左保持部332を支持する。左収容部336の内側には、ケース334が取り付けられる。本実施形態のHMD100Dが有するフレーム300は、右保持部331、右収容部335、透過表示部337、左収容部336、及び左保持部332が互いに固定される構造である。HMD100Dの構成について右及び左と呼ぶ方向は、HMD100Dを使用者が装着した状態で使用者の右及び左である。右眼側、及び、左眼側の呼称についても同様である。
右保持部331及び左保持部332は、眼鏡のテンプルのようにして、使用者の頭部にフレーム300を保持する。フレーム300は、使用者の眼前に位置して使用者に画像を視認させる右透過部301A、及び、左透過部302Aを有する。右透過部301Aは使用者の右眼の前に位置し、左透過部302Aは使用者の左眼の前に位置する。透過表示部337において鼻当部338が設けられる中央位置は、使用者の眉間の前に位置し、この位置にはカメラ61が設けられる。
右透過部301Aは、右表示部301に相当し、外光OLを透過して使用者の右眼に外景を視認させるとともに、画像光Lを使用者の右眼に導いて、画像を視認させる。左透過部302Aは、左表示部302に相当し、外光OLを透過して使用者の左眼に外景を視認させるとともに、画像光Lを使用者の左眼に導いて、画像を視認させる。
カメラ61、外部センサー400、及び、タッチパッド401、402の構成は、詳細な形状等を除き、上記第1実施形態と同様である。
フレーム300は、フレーム3(図1)が備える画像表示部20と同様に、右表示駆動部22及び左表示駆動部24を含み、カメラ61、9軸センサー66、外部センサー400、タッチパッド401、402を含む画像表示部21を備える。
ケース333は、例えば、右表示駆動部22を収容し、ケース334は、例えば、左表示駆動部24を収容する。
また、画像表示部21を構成する他の部位は、フレーム300の右収容部335及び左収容部336等に配置してもよい。
また、フレーム300には、処理部10(図4)を構成する各部が配置される。
透過表示部337の前面側には、右センサー部410、及び、左センサー部420が配置される。右センサー部410を構成するセンサー411、412、413は、右透過部301Aの周囲に配置される。詳細には、センサー411は右透過部301Aの上方に配置され、センサー412は右透過部301Aよりも右保持部331側に配置され、センサー413は右透過部301Aの下方に配置される。
左センサー部420を構成するセンサー421は、左透過部302Aの上方に配置され、センサー422は左透過部302Aよりも左保持部332側に配置され、センサー423は左透過部302Aの下方に配置される。
右センサー部410は、透過表示部337において使用者の右眼側に位置する部分に対応する検出部を構成し、左センサー部420は、透過表示部337において使用者の左眼側に位置する部分に対応する。
この構成では、右透過部301Aと左透過部302Aとを備え、外観上一体に構成された透過表示部337に、右センサー部410及び左センサー部420を構成する各センサーを配置する。この構成により、フレーム300の前方から操作体を接近させる操作等を効率よく検出できる。
なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記各実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光部26及び左導光部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、上記実施形態では、外部センサー400を構成する各近接センサーにより、操作体の接近を検出する構成を例示したが、本発明はこれに限定されない。例えば、フレーム3においてリム3a、3bなど内側から外側を撮像するカメラ(図示略)を設けて、このカメラの撮像画像に基づいて、操作体の接近を検出してもよい。
また、例えば、フレーム3に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、画像表示部20、21と処理部10とがフレーム3、300に収容された構成として説明したが、フレーム3、300から処理部10を分離し、接続ケーブルを介して接続された構成としてもよい。この場合、処理部10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、処理部10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、処理部10がフレーム3、300と分離して構成され、処理部10と画像表示部20、21との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20、21において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid Crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
本発明でいう「表示部」は、画像光を出射する構成に相当し、HMD100〜100Dが画像光を出射することを「表示する」と説明した。例えば、上記実施形態では、左右の画像光生成部により画像光を生成し、右導光部26及び左導光部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示した。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであればよい。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
例えば、右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、フレーム3、300の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、フレーム3に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光部26及び左導光部28のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
MEMS等を有する走査光学系を備えた構成では、フレーム3、300における走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。
また、上記各実施形態において、使用者の眼に画像を視認させる構成として、ホログラム素子を利用して眼に画像光を導く構成であってもよい。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。
また、上記各実施形態では使用者の眼前に位置する右導光部26及び左導光部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右導光部26及び左導光部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光部26、左導光部28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または処理部10内の他の記憶装置(図示略)に記憶されてもよいし、外部の装置に記憶されたプログラムを、通信部117等を介して取得して実行する構成としてもよい。また、処理部10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。
3、300…フレーム、10…処理部、20、21…画像表示部、26…右導光部(表示部)、28…左導光部(表示部)、61…カメラ、65…視線センサー、66…9軸センサー、67…方向キー、68…確定キー、100、100A、100B、100C、100D…HMD(表示装置)、120…記憶部、121…設定データ、122…入力解析データ、123…画像データ、140…制御部、160…画像処理部、161…撮像制御部、162…入力検出部、163…入力解析部、164…処理実行部、170…通信制御部、190…表示制御部、241…右LCD、242…左LCD、301…右表示部、302…左表示部、400…外部センサー(検出部)、401、402…タッチパッド(操作部)、410…右センサー部、411、412、413…センサー、420…左センサー部、421、422、423…センサー、451、452、453、454、455、456…センサー、462、463、464、465、466…センサー、B2…メニューリスト、D…検出範囲、GA…操作ガイド領域、GS…下端部、GX…X方向ガイド、GY…Y方向ガイド、V1…表示画像、VA…表示領域。

Claims (21)

  1. 使用者の頭部に装着された状態で、前記使用者が実物体を視認可能に画像を表示する表示部と、
    前記表示部周辺への指示体の接近を検出する検出部と、
    操作を受け付ける操作部と、
    前記検出部により検出される前記指示体の動きにより、前記表示部における表示と前記指示体の動きに対応する操作とを対応させる制御部と、
    を備えることを特徴とする表示装置。
  2. 前記制御部は、前記操作部により受け付けられた操作に対応して処理を行う通常動作モードと、前記検出部の検出結果に応じて前記表示部の表示を伴う処理を実行する近接操作モードと、を切り替えて実行すること、
    を特徴とする請求項1記載の表示装置。
  3. 前記制御部は、操作用のメニュー画面を前記表示部に表示させ、前記通常動作モードでは前記操作部により受け付ける操作を前記メニュー画面の選択または確定の操作として処理し、前記近接操作モードでは前記検出部が検出する物体の接近または離隔に対応して前記メニュー画面の選択または確定の処理を行うこと、
    を特徴とする請求項2記載の表示装置。
  4. 前記表示部は、前記使用者の頭部に装着された状態で前記使用者の左眼側に位置する左眼用表示部、及び、右眼側に位置する右眼用表示部を備え、
    前記検出部が検出する前記左眼用表示部に対する操作と前記右眼用表示部に対する操作との組み合わせに対応付けて、前記制御部が実行する処理が設定されること、
    を特徴とする請求項2または3記載の表示装置。
  5. 前記制御部は、前記検出部が検出する操作に係る情報を含む案内画面を前記表示部によって表示し、前記案内画面の左半分に表示される情報は前記左眼用表示部の左側部分に対する操作に対応し、前記案内画面の右半分に表示される情報は前記右眼用表示部の右側部分に対する操作に対応すること、
    を特徴とする請求項4記載の表示装置。
  6. 前記制御部は、前記表示部によって前記使用者の右眼と左眼との両方に視認可能な態様で操作用画面を表示し、
    前記左眼用表示部の左側部分に対する操作に対応して前記操作用画面の左半分の表示を変更し、前記右眼用表示部の右側部分に対する操作に対応して前記操作用画面の右半分の表示を変更すること、
    を特徴とする請求項4記載の表示装置。
  7. 前記検出部は、前記左眼用表示部に対する物体の接近、及び、前記右眼用表示部に対する物体の接近を検出すること、
    を特徴とする請求項4から6のいずれかに記載の表示装置。
  8. 前記制御部は、前記検出部によって検出される前記使用者の頭を基準として上下方向に物体が移動する動作、左右方向に物体が移動する操作、及び、前記表示部に対し物体が接近及び離隔する操作に対応して、前記表示部の表示を変更すること、
    を特徴とする請求項4から7のいずれかに記載の表示装置。
  9. 前記制御部は、前記検出部によって、前記右眼用表示部及び前記左眼用表示部の両方において前記使用者の頭を基準として上下方向または左右方向に物体が移動する操作を検出した場合に、前記表示部の表示領域における上下方向または左右方向の位置入力を受け付けること、
    を特徴とする請求項4から8のいずれかに記載の表示装置。
  10. 前記制御部は、前記検出部によって検出される2以上の位置における操作に対応して、検出された操作位置とは異なる位置に対応する入力を受け付けること、
    を特徴とする請求項9記載の表示装置。
  11. 前記検出部は、前記表示部の外表面への接触、及び、前記表示部の外側からの物体の接近を検出すること、
    を特徴とする請求項1から10のいずれかに記載の表示装置。
  12. 前記制御部は、前記検出部によって回転する操作を検出した場合に、前記表示部の表示領域における表示を回転させること、
    を特徴とする請求項11記載の表示装置。
  13. 前記制御部は、前記検出部によって2点に対する操作が検出され、検出された2点の操作位置間の距離が変化した場合に、当該距離の変化に対応して前記表示部の表示領域における表示を拡大または縮小させること、
    を特徴とする請求項11または12記載の表示装置。
  14. 前記検出部は、前記表示部、或いは、前記表示部を構成する光学部品を保持する保持部への指示体の接近を検出すること、
    を特徴とする請求項1から13のいずれかに記載の表示装置。
  15. 前記検出部は、前記表示部の周囲に配置された近接センサーを有し、前記近接センサーにより検出される前記指示体の動きに基づき前記表示と操作制御を対応させること、
    を特徴とする請求項1から13のいずれかに記載の表示装置。
  16. 前記制御部は、前記近接センサーにより前記表示部周辺への前記指示体の接近を検出した場合に、前記表示部によって操作制御命令画像を表示させ、前記操作部による操作と前記操作制御命令画像とを対応付けること、
    を特徴とする請求項15記載の表示装置。
  17. 前記制御部は、前記近接センサーにより2つの位置に対する接近が検出された場合に、2つの位置に対する接近に対応する前記操作制御命令画像を表示させ、
    前記操作制御命令画像が表示された状態で、前記近接センサーにより検出される前記指示体の所定方向の動きに、前記表示部が表示する前記操作制御命令画像の前記所定方向の動きを対応付けること、
    を特徴とする請求項15記載の表示装置。
  18. 前記制御部は、前記表示部に対する前記近接センサーの配置状態を案内する表示を前記表示部に表示させること、
    を特徴とする請求項15から17のいずれかに記載の表示装置。
  19. 前記表示部は、外光を透過させることにより前記実物体を視認可能に構成され、前記実物体と重ねて視認されるように画像を表示すること、
    を特徴とする請求項1から18のいずれかに記載の表示装置。
  20. 使用者の頭部に装着された状態で、前記使用者が実物体を視認可能に画像を表示する表示部と、操作を受け付ける操作部とを備える表示装置の制御方法であって、
    前記表示部周辺への指示体の接近を検出し、
    検出される前記指示体の動きにより、前記表示部における表示と前記指示体の動きに対応する操作とを対応させること、
    を特徴とする表示装置の制御方法。
  21. 使用者の頭部に装着された状態で、前記使用者が実物体を視認可能に画像を表示する表示部と、操作を受け付ける操作部とを備える表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記表示部周辺への指示体の接近を検出し、
    検出される前記指示体の動きにより、前記表示部における表示と前記指示体の動きに対応する操作とを対応させるためのプログラム。
JP2015256140A 2015-12-28 2015-12-28 表示装置、表示装置の制御方法、及び、プログラム Active JP6740613B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015256140A JP6740613B2 (ja) 2015-12-28 2015-12-28 表示装置、表示装置の制御方法、及び、プログラム
US15/372,079 US10133407B2 (en) 2015-12-28 2016-12-07 Display apparatus, display system, method for controlling display apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015256140A JP6740613B2 (ja) 2015-12-28 2015-12-28 表示装置、表示装置の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2017120302A true JP2017120302A (ja) 2017-07-06
JP6740613B2 JP6740613B2 (ja) 2020-08-19

Family

ID=59272183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015256140A Active JP6740613B2 (ja) 2015-12-28 2015-12-28 表示装置、表示装置の制御方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP6740613B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019120979A (ja) * 2017-12-28 2019-07-22 Dynabook株式会社 電子機器
JP2021507277A (ja) * 2017-12-20 2021-02-22 ビュージックス コーポレーションVuzix Corporation 拡張現実ディスプレイシステム
CN113655638A (zh) * 2021-07-21 2021-11-16 青岛海尔空调器有限总公司 用于控制智能家电的方法及装置、智能眼镜

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013150118A (ja) * 2012-01-18 2013-08-01 Sony Corp ヘッドマウントディスプレイ
WO2013136696A1 (ja) * 2012-03-13 2013-09-19 ソニー株式会社 ヘッドマウントディスプレイ
WO2014088971A1 (en) * 2012-12-06 2014-06-12 Microsoft Corporation Multi-touch interactions on eyewear
JP2014142751A (ja) * 2013-01-23 2014-08-07 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013150118A (ja) * 2012-01-18 2013-08-01 Sony Corp ヘッドマウントディスプレイ
WO2013136696A1 (ja) * 2012-03-13 2013-09-19 ソニー株式会社 ヘッドマウントディスプレイ
WO2014088971A1 (en) * 2012-12-06 2014-06-12 Microsoft Corporation Multi-touch interactions on eyewear
JP2014142751A (ja) * 2013-01-23 2014-08-07 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507277A (ja) * 2017-12-20 2021-02-22 ビュージックス コーポレーションVuzix Corporation 拡張現実ディスプレイシステム
JP7171727B2 (ja) 2017-12-20 2022-11-15 ビュージックス コーポレーション 拡張現実ディスプレイシステム
US11921289B2 (en) 2017-12-20 2024-03-05 Vuzix Corporation Augmented reality display system
JP2019120979A (ja) * 2017-12-28 2019-07-22 Dynabook株式会社 電子機器
CN113655638A (zh) * 2021-07-21 2021-11-16 青岛海尔空调器有限总公司 用于控制智能家电的方法及装置、智能眼镜
CN113655638B (zh) * 2021-07-21 2024-04-30 青岛海尔空调器有限总公司 用于控制智能家电的方法及装置、智能眼镜

Also Published As

Publication number Publication date
JP6740613B2 (ja) 2020-08-19

Similar Documents

Publication Publication Date Title
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
WO2022005693A1 (en) Augmented reality experiences using speech and text captions
US20180176547A1 (en) Display apparatus and method for controlling display apparatus
JP6123365B2 (ja) 画像表示システム及び頭部装着型表示装置
JP6277673B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10261327B2 (en) Head mounted display and control method for head mounted display
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP6492419B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム、画像表示システム、および、情報処理装置
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2015115038A (ja) 情報処理装置および情報処理装置の制御方法
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2017134575A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018206080A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
US20180260068A1 (en) Input device, input control method, and computer program
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2018091882A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US20240089362A1 (en) Terminal Device
JP7031112B1 (ja) 眼鏡型端末
JP6669183B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6740613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150