JP5428943B2 - ヘッドマウントディスプレイ - Google Patents

ヘッドマウントディスプレイ Download PDF

Info

Publication number
JP5428943B2
JP5428943B2 JP2010045012A JP2010045012A JP5428943B2 JP 5428943 B2 JP5428943 B2 JP 5428943B2 JP 2010045012 A JP2010045012 A JP 2010045012A JP 2010045012 A JP2010045012 A JP 2010045012A JP 5428943 B2 JP5428943 B2 JP 5428943B2
Authority
JP
Japan
Prior art keywords
image
unit
operation surface
cpu
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010045012A
Other languages
English (en)
Other versions
JP2011180867A (ja
Inventor
雄介 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010045012A priority Critical patent/JP5428943B2/ja
Publication of JP2011180867A publication Critical patent/JP2011180867A/ja
Application granted granted Critical
Publication of JP5428943B2 publication Critical patent/JP5428943B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、ユーザの頭部に装着され、ユーザに画像を提示するヘッドマウントディスプレイに関する。
従来、ユーザの頭部に装着され、ユーザに画像を提示するシースルー型のヘッドマウントディスプレイ(Head Mounted Display:以下、HMD)に関する技術が提案されている。例えば、特許文献1においては、ユーザからの入力を受け付ける手段として、HMDが提示する画像に対してユーザがペンを用いて入力を行う構成が開示されている。
特開2005−339267号公報
特許文献1に示されるHMDでは、ユーザが画像に対してペンを用いて空中において入力する構成である。しかし、空中において画像に対して入力が行われるので、ユーザは入力する対象である画像に対する距離感を把握し難いと考えられる。即ち、ユーザにとっては入力が難しいという問題があった。
本発明は、HMDによって提示される画像に対する入力が容易なHMDを提供することを目的とする。
上記従来の課題に鑑みなされた本発明では、実空間に存在する任意の実体物の表面における所定の範囲が、画像に対する入力操作を行う操作面として定義される。そして、操作面における実空間での位置が、画像における画像空間での座標と対応付けられる。そして、実空間での位置に対応付けられた画像空間での座標が、画像に対する入力位置として受け付けられる。
上記課題を解決するために、本発明の一側面を反映した第1の課題解決手段は、ユーザの頭部に装着される装着部に保持され、画像をユーザの眼に視認可能に提示する画像提示部と、ユーザの手に保持され、ユーザの手の移動量を検知する移動量検知部と、前記移動量に基づいて、前記移動量検知部の実空間での位置を決定する位置決定手段と、ユーザからの入力を取得する取得部と、前記取得部がユーザからの入力を取得したときの前記移動量検知部の実空間での位置に基づいて、実空間に存在する任意の実体物の表面における所定の範囲を、前記画像に対する入力操作を行う操作面として定義する定義手段と、前記操作面における実空間での位置を、前記画像における画像空間での座標と対応付ける対応付け手段と、前記移動量検知部が前記操作面に存在する場合に、前記移動量検知部の前記実空間での位置に対応付けられた前記画像空間での座標を、前記画像に対する入力座標として受け付ける入力受付手段と、前記入力座標に基づいて、前記画像提示部の動作を制御する画像制御手段とを備える。
第1の課題解決手段によれば、前記取得部がユーザからの入力を取得したときの前記移動量検知部の実空間での位置に基づいて、実空間に存在する任意の実体物の表面における所定の範囲が、画像に対する入力操作を行う操作面として定義される。そして、その操作面における実空間での位置が、画像における画像空間での座標と対応付けられる。移動量検知部が操作面に存在する場合に、移動量検知部の実空間での位置に対応付けられた画像空間での座標が、画像に対する入力座標として受け付けられる。即ち、ユーザは、実空間に存在する任意の実体物の表面を、操作面として利用することができる。画像に対する入力が操作面に対して行われるので、画像に対しての距離感に左右されること無く、画像に対する入力が容易に行われる。
本発明の他の側面を反映した第2の課題解決手段は、第1の課題解決手段に加えて、前
記画像提示部は、前記画像提示部の方向を検知する方向検知部を有し、ユーザが外界像と
画像とを重畳した状態で視認可能に構成され、前記移動量検知部の実空間上の位置と、前
記取得部によって取得された入力とに基づいて、前記画像提示部に対する前記移動量検知
部の相対位置を決定する相対位置決定手段と、前記相対位置とに基づいて、前記移動量検
知部が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する
判断手段と、移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含ま
れると前記判断手段が判断した場合、前記画像提示部の方向に基づいて、前記画像提示部
によって提示される画像に前記操作面が追随するように、前記操作面の位置を変更する変
更手段とをさらに備える。
第2の課題解決手段によれば、移動量検知部が画像提示部によって提示される画像の画角の範囲に含まれる場合、画像提示部によって提示される画像に操作面が追随するように、操作面の位置が変更される。移動量検知部が画像の画角の範囲に含まれる場合とは、ユーザが視認する画像と操作面とが、同一方向に存在する場合である。この場合、ユーザは、例えば画像内に設けられた所定のアイコンなどに対して、移動量検知部による直接入力を試みる。画像に操作面が追随しているので、ユーザが頭を動かすなどの理由で画像の提示位置が変化しても、ユーザは視認する画像に対して、操作面を介して直接入力が可能となる。また、ユーザは画像に対して入力を行うような操作感を得るが、実際に操作を受け付けるのは操作面である。従って、画像に対しての距離感に左右されること無く、画像に対する入力が容易に行われる。
本発明の他の側面を反映した第3の課題解決手段は、第2の課題解決手段に加えて、前
記変更手段は、移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含
まれないと前記判断手段が判断した場合、前記操作面の位置を変更せず、前記画像制御手
段は、移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれない
と前記判断手段が判断した場合、前記入力座標に対応する識別子を前記画像提示部に提示
させる。
第3の課題解決手段によれば、移動量検知部が画像提示部によって提示される画像の画角の範囲に含まれない場合、操作面の位置は変更されない。移動量検知部が画像の画角の範囲に含まれない場合とは、ユーザが視認する画像の方向と操作面の方向とがずれている場合、換言すれば、視認される画像とは異なる方向に存在する操作面に対してユーザが入力を行う場合である。この場合、ユーザは画像に対して直接入力を行わないので、ユーザが頭を動かすなどの理由で画像の提示位置が変化しても、操作面を移動させる必要が無い。また、入力位置に対応する識別子が提示されるので、ユーザは、画像のどの位置に対して入力を行っているかを容易に把握できる。
本発明の他の側面を反映した第4の課題解決手段は、第3の課題解決手段に加えて、前
移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれないと前
記判断手段が判断した場合、前記操作面の実空間での位置と前記虚像の実空間での位置と
が重なる重複領域が存在するか否かを判断し、前記重複領域が存在する場合、前記重複領
域の表示様態を変更する操作面表示手段をさらに有する。
第4の課題解決手段によれば、移動量検知部が画像提示部によって提示される画像の画角の範囲に含まれない場合、重複領域が存在するか否かが判断される。そして、重複領域が存在する場合、重複領域の表示様態が変更される。上記したように、移動量検知部が画像の画角の範囲に含まれない場合とは、視認される画像とは異なる方向に存在する操作面に対してユーザが入力を行う場合である。そして、重複領域が存在する場合とは、例えばユーザが頭を動かすなどして画像の実空間での位置が変化し、操作面の実空間での位置と画像の実空間での位置とが少なくとも一部において重複する場合である。この様な場合、ユーザが操作面の実空間での位置を認識できると便利である。即ち、重複領域の表示様態が変更されることで、操作面の実空間での位置が容易に認識される。
本発明の他の側面を反映した第5の課題解決手段は、第〜第4の何れか課題解決手段
に加えて、前記定義手段は、前記取得部によってユーザからの入力が取得されたときの前
記移動量検知部の実空間上の位置を、少なくとも3つ用いて、前記操作面を定義する。
第5の課題解決手段によれば、取得部によってユーザからの入力が取得されたときの移動量検知部の実空間上の位置を、少なくとも3つ用いて、操作面が定義される。従って、ユーザは、少なくとも3つの実空間上の位置において入力を行うだけで、操作面の定義が可能になる。
本発明の他の側面を反映した第6の課題解決手段は、第5の課題解決手段に加えて、前記判断手段は、前記定義手段による前記操作面の定義に係る、前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置が、少なくとも1つ決定された後で、前記画像提示部の方向と移動量検知部の実空間での位置とに基づいて、前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する。
第6の課題解決手段によれば、定義手段による操作面の定義に係る、取得部によってユーザからの入力が取得されたときの移動量検知部の実空間上の位置が、少なくとも1つ決定された後で、判断手段による判断が行われる。ユーザからの入力を受けた後で判断が行われ、操作面が定義される。従って、ユーザの意図したときに操作面の定義が可能になる。
本発明によれば、HMDによって提示される画像に対する入力が容易なHMDを得ることができる。
HMD1の概要を示す図。 (A)画像提示部10の平面図、(B)画像提示部10の正面図、(C)画像提示部10の左側面図。 HMD1の機能的構成を示すブロック図。 (A)RAM260が一時記憶する内容を示す図、(B)プログラムROM250が記憶する各種処理手段を示す図。 CPU230が実行する処理を説明するフローチャート。 (A)直接モードを説明する図、(B)間接モードを説明する図。 図5のステップS30にて実行される、操作面定義処理を説明するフローチャート。 (A)画像提示部120の位置を設定するための画像を説明する図、(B)操作面CPの中心位置を設定するための画像を説明する図、(C)操作面CPの左上位置を設定するための画像を説明する図、(D)操作面CPの右上位置を設定するための画像を説明する図、(E)虚像VIの左上の位置を設定するための画像を説明する図、(F)虚像VIの右上の位置を設定するための画像を説明する図。 図5のステップS65にて実行される、操作面表示処理を説明するフローチャート。 間接モードにおいて、重複領域SAが存在する場合の視認状態を説明する図。 図5のステップS70にて実行される、操作面変更処理を説明するフローチャート。
本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。上記課題解決手段は以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に説明する各構成において、所定の構成を省略し、または他の構成などに置換してもよい。また、他の構成を含むようにしてもよい。また、以下の説明では、ユーザの頭部に装着される頭部装着部と、頭部装着部に含まれる画像提示部に対して各種の信号を提供する制御ボックスと、を接続して構成されたHMDを例に説明するが、これら各装置を一体の装置として構成することもできる。
[HMD1の概要]
HMD1について、図1を用いて説明する。HMD1は、頭部装着部10と、制御ボックス20と、ペンマウス30とを含む。頭部装着部10に含まれる画像提示部120は、ケーブル50を介して制御ボックス20に接続される。ペンマウス30は、ケーブル51を介して制御ボックス20に接続される。頭部装着部10は、ユーザUSRの頭部に装着される。制御ボックス20は、ユーザUSRの腰などに取り付けられる。HMD1は、実空間に存在する任意の実体物の表面における所定の範囲を、画像提示部120によって提示される画像である虚像VIに対する入力操作を行うための操作面CPとして定義する。本実施形態において、任意の実体物の一例であるテーブルTBLの表面における所定の範囲が、操作面CPとして定義される。即ち、ユーザUSRは、虚像VIを視認した状態で、テーブルTBLの表面に定義された操作面CPに対して、ペンマウス30を用いて入力を行う。
頭部装着部10について、図2を用いて説明する。頭部装着部10の骨格は、ユーザの頭部に装着される装着部として働く。頭部装着部10の骨格は、テンプル104A,104Bと、ヨロイ106A,106Bと、フロントフレーム108とによって構成される。テンプル104A,104Bの一端には、ユーザUSRの耳に当たるモダン102A,102Bが取り付けられる。テンプル104A,104Bの他端は、蝶番112A,112Bを介してヨロイ106A,106Bに連結される。ヨロイ106A,106Bは、フロントフレーム108の左右両端に連結される。フロントフレーム108の中央には、利用者の鼻に当接する鼻パッド110が設けられる。テンプル104A,104Bは、ヨロイ106A,106Bに形成された蝶番112A,112Bによって、フロントフレーム108に対して折りたたむことができる。頭部装着部10の骨格の構成は、例えば、通常の眼鏡と同様である。頭部装着部10は、ユーザUSRに装着された状態において、モダン102A,102Bと、鼻パッド110と、により利用者の頭部に保持される(図1参照)。なお、図2(B)において、モダン102A,102B及びテンプル104A,104Bの図示は省略される。
画像提示部120は、画像をユーザの眼に視認可能に提示する。画像提示部120は、ヨロイ106A付近に配設された取付部129を介して、頭部装着部10の骨格に保持される。画像提示部120は、頭部装着部10の骨格に取り付けられた状態において、頭部装着部10を装着したユーザUSRの左眼LEと略同一の高さとなる位置に配設される。画像提示部120は、制御ボックス20からケーブル50を介して送信された各種の信号に基づく画像光を、ハーフミラー140に向けて出射する。ハーフミラー140は、画像提示部120から入射された画像光の一部を反射し、ユーザUSRの左眼LEに導く。ハーフミラー140はまた、外界像を表す外界光の一部を透過し、ユーザUSRの左眼LEに導く。即ち、ユーザUSRは、画像光を外界光に重畳した状態で視認する。なお、本実施形態において、画像提示部120は、取得された画像信号に応じた光を2次元方向に走査し、その走査された画像光を利用者の左眼LEに導き網膜上にコンテンツ画像を形成する、周知の網膜走査型のディスプレイを用いて構成される。しかし、画像提示部120は、液晶ディスプレイ、有機EL(Organic Electro―Luminescence)ディスプレイなど、その他の周知の装置を用いて構成することもできる。
[HMD1の機能的構成]
図3に示されるように、HMD1は、頭部装着部10と、制御ボックス20と、ペンマウス30とで構成される。なお、これらの構成は、制御ボックス20に含まれる非図示のバッテリーによって駆動される。以下、HMD1を構成する各構成の説明を行う。
制御ボックス20は、フラッシュROM210と、周辺インターフェース(以下、I/F)220と、CPU230と、ペンマウス用I/F240と、プログラムROM250と、RAM260と、入力ボタン群270とを含む。フラッシュROM250は、画像提示部120によってユーザUSRに提示される、各種のコンテンツデータを記憶する。周辺I/F220は、HMD1とPCなどの外部装置との接続を行う。例えば、周辺I/F220を介してPCから転送された各種コンテンツが、フラッシュROM210に記憶される。CPU230は、プログラムROM250に記憶された各種プログラムを、RAM260上で実行する。CPU230はまた、フラッシュROM210と、周辺I/F220と、ペンマウス用I/F240と、入力ボタン群270との間で各種信号の送受信を行う。ペンマウス用I/F240は、ケーブル51(図1参照)を介して、ペンマウス30との間で各種信号の送受信を行う。プログラムROM250は、CPU230によって実行される各種処理のためのプログラムを記憶する。RAM260は、CPU230で処理される各種プログラムや、CPU230が処理するデータを、そのアドレス空間に一時記憶する。入力ボタン群270は、HMD1を操作するための構成である。ユーザUSRが入力ボタン群270に対して操作を行うことで、入力ボタン群270から操作信号がCPU230に対して送信される。
頭部装着部10は、画像提示部120と、角速度センサ130とを含む。画像提示装置120は、CPU230からの制御信号に従って、画像光をユーザUSRの左眼LEに対して射出する。角速度センサ130は、画像提示部120の方向を検知する方向検知部として機能する。角速度センサ130は、例えばMEMS技術を応用して静電容量の変化を検知する3次元加速度センサによって構成される。角速度センサ130が検知した画像提示部120の方向は、HMD方向信号として制御ボックス20に対して送信される。
ペンマウス30は、3次元加速度センサ310と、第1スイッチ320と、第2スイッチ330と、I/F340とを含む。ペンマウス30はユーザUSRの手に保持されるため、3次元加速度センサ310は、ユーザの手の移動量を検知する移動量検知部として機能する。3次元加速度センサ310によって検知されたユーザの手の移動量は、移動量信号としてI/F340を介して制御ボックス20に対して逐次送信される。第1スイッチ320は、後記するメイン処理を終了する際にユーザUSRによって押下される。第1スイッチ320が押下されることによって生じる終了信号は、I/F340を介して制御ボックス20に対して送信される。第2スイッチ330は、ユーザUSRが各種決定を行う際に押下される。即ち、第2スイッチ330は、ユーザからの入力を取得する取得部として機能する。第2スイッチ330が押下されることによって生じる決定信号は、I/F340を介して制御ボックス20に対して送信される。I/F340は、ケーブル51(図1参照)を介して、制御ボックス20との間で各種信号の送受信を行う。
図4(A)は、RAM260がそのアドレス空間に一時記憶する、データの内容を説明する図である。RAM420は、ペンマウス位置データ261、虚像位置データ262、操作面位置データ263、実空間―画像変換式データ264、入力座標データ265、HMD方向データ266、アイコン座標データ267及び入力モードフラグ268を少なくとも一時記憶する。ペンマウス位置データ261は、実空間でのペンマウス30の位置を示す。虚像位置データ262は、虚像VIの実空間での位置を示す。操作面位置データ263は、実空間での操作面CPの位置を示す。実空間―画像変換式データ264は、実空間での位置を、虚像VIにおける画像空間での座標に変換するための変換式を示す。入力座標データ265は、ペンマウス30から操作面CPを介して虚像VIに対して行われた入力の、画像空間での座標を示す。HMD方向データ266は、画像提示部120が実空間において向く方向を示す。アイコンデータ267は、虚像VIに含まれる、画像提示部120の動作を制御するためのアイコンVIa(図6参照)の画像空間での座標と、そのアイコンに割り付けられた処理内容とを示す。なお、CPU230がフラッシュROM210に含まれる所定のコンテンツの再生を開始したときに、そのコンテンツに含まれるアイコンの位置を定義する座標及びそのアイコンに割り付けられた処理内容が、アイコンデータ267に一時記憶される。入力モードフラグ268は、後記する図6に示されるように、虚像VIに対する入力が直接モードか間接モードかの何れであるかを示す。
図4(B)は、プログラムROM250に記憶された各種処理手段の内容を説明する図である。これらの処理手段は、CPU230が、RAM260上で、プログラムROM250に記憶されたこれらの処理手段のためのプログラムを実行することで達成される。プログラムROM250は、位置決定手段251、定義手段252、対応付け手段253、入力受付手段254、画像制御手段255、判断手段256、変更手段257及び操作面表示手段258を少なくとも記憶する。以下、これらの処理手段に関して説明する。
位置決定手段251は、ペンマウス30の移動量に基づいて、ペンマウス30の実空間での位置を決定する。具体的には、CPU230は、3次元加速度センサ310から送信された移動量信号に基づいて、ペンマウス30の実空間での移動量を決定する。そして、CPU230は、その移動量をペンマウス位置データ261に対して加算することで、ペンマウス30の実空間での位置を決定する。
定義手段252は、実空間に存在する任意の実体物の表面における所定の範囲を、画像提示部120によって提示される虚像VIに対する入力操作を行う操作面CPとして定義する。本実施形態においては、図1に示されるように、テーブルTBLの表面における所定の範囲が、操作面CPとして定義される。具体的には、CPU230は、操作面CPを定義するための各種設定画像(図8参照)を画像提示部120に提示させる。そして、CPU230は、第2スイッチ330からの決定信号を受信したときのペンマウス位置261に基づいて、実空間での操作面CPの位置を決定する(詳細は後述する図7参照)。
対応付け手段253は、操作面CPにおける実空間での位置を、虚像VIにおける画像空間での座標と対応付ける。具体的には、CPU230は、操作面位置データ263に含まれる操作面CPの実空間での中心位置、左上位置及び右上位置と、虚像VIの画像空間での中心座標、左上座標及び右上座標とを用いて、実空間での位置から画像空間での座標への変換式を計算する。この変換式は、例えば、座標の平行移動、回転及び拡大縮小を含む一次変換を行う行列式である。但し、上記した3箇所以上の座標点を用いて、二次以上の項を含む変換式が用いられても良い。また、一次変換の変換式を計算される際に用いられる座標点は、異なる3箇所以上であればよく、上記の中心、左上、右上の位置には限定されない。CPU230は、この変換式を、実空間―画像変換式データ264として、RAM260に一時記憶する。
入力受付手段254は、操作面CPに含まれる位置にペンマウス30が存在する場合に、ペンマウス30の実空間での位置に対応付けられた画像空間での座標を、虚像VIに対する入力座標として受け付ける。具体的には、ペンマウス30が操作面CPに含まれる位置に存在する場合、CPU230は、実空間―画像変換式データ264を用いて、ペンマウス位置データ261を、ペンマウス30の実空間での位置に対応付けられた画像空間での座標に変換する。そして、CPU230は、変換された画像空間での座標を、入力座標データ265に一時記憶する。なお、ペンマウス30が操作面CPに含まれる位置に存在するか否かの判断は、ペンマウス位置データ261と操作面位置データ263との比較によって達成される。
画像制御手段255は、入力座標データ265に基づいて、画像提示部120の動作を制御する。具体的には、CPU230は、入力座標データ265と、アイコンデータ267とを比較する。入力座標データ265に含まれる画像空間での座標が、アイコンVIaの画像空間での座標と一致する場合、CPU230は、アイコンデータ267を参照し、アイコンVIaに割り付けられた画像提示部120の動作を制御するための所定の処理を実行する。画像制御手段255はまた、虚像VIの画角の範囲にペンマウス30が含まれないと判断手段256によって判断された場合、入力座標データ265に対応した識別子を、画像提示部120に提示させる。具体的には、CPU230は、入力モードフラグ268が間接モードの場合、入力座標データ265の座標にカーソルCS(図6(B)参照)を提示するように、画像提示部120の動作を制御する。
判断手段256は、角速度センサ130の検出結果である画像提示部の120の方向とペンマウス30の実空間での位置とに基づいて、虚像VIの画角の範囲にペンマウス30が含まれるか否かを判断する。具体的には、CPU230は、HMD方向データ266に基づいて、虚像VIの画角の範囲を決定する。そして、CPU230は、その虚像VIの画角の範囲とペンマウス位置データ261とに基づいて、虚像VIの画角の範囲にペンマウス30が含まれるか否かを判断する。
変更手段257は、虚像VIの画角の範囲にペンマウス30が含まれると判断手段256によって判断された場合、画像提示部120の方向に基づいて、虚像VIに操作面CPが追随するように、操作面CPの位置を変更する。具体的には、CPU230は、入力モードフラグ268が直接モードの場合、HMD方向データ266に基づいて虚像VIの実空間での移動量を決定し、その移動量を操作面位置データ263に加算する。
操作面CPの実空間での位置と虚像VIの実空間での位置とが一致しない間接モードの場合(詳細は後述)、ユーザが操作面CPの実空間での位置を認識できると便利である。そこで、操作面表示手段258は、間接モードにおいて虚像VIの実空間の位置と操作面CPの実空間の位置とが重なる重複領域SAが存在する場合に、重複領域SAにおける操作面CPを虚像VIに表示する(図10参照)。具体的には、CPU230は、虚像位置データ262と操作面位置データ263とを比較して、重複領域SAが存在するか否かを判断する。重複領域SAが存在する場合、CPU230は、虚像VIにおける重複領域SAの表示様態を変更する。一方、操作面CPの実空間での位置と虚像VIの実空間での位置とが一致する直接モードの場合(詳細は後述)、操作面表示手段258は実行されない。
[HMD1の行う処理]
以下、図5を用いて、HMD1によって行われる一連の処理を説明する。尚、図5に示される処理は、CPU230が所定の信号を受信することをトリガとして開始される。具体的には、例えば、虚像VIが画像提示部120によって提示されている状態において、ユーザUSRが入力ボタン群270に対して操作面CPの定義を開始する旨の操作を行うことによって発生した操作信号を、CPU230が受信したときに図5の処理が開始される。
ステップS10において、CPU230は、位置決定手段251の実行を開始する。具体的には、CPU230は、ペンマウス30の3次元加速度センサ310から送信された移動量信号に基づいて、ペンマウス30の実空間での位置を決定する。CPU230は、最初に移動量信号を受信したときのペンマウス30の実空間での位置を、ペンマウス30の原点位置と設定する。そして、CPU230は、ペンマウス30の原点位置を設定した後で受信した移動量信号に基づいて、ペンマウス30の実空間での移動量を決定する。そして、CPU230は、決定された移動量をペンマウス位置データ261に対して加算することで、ペンマウス30の実空間での位置を決定する。なお、位置決定手段251は、図5に示される一連の処理がCPU230によって行われている間は常に実行される。従って、CPU230は、3次元加速度センサ310から移動量信号を逐次受信し、ペンマウス位置データ261を更新する。位置決定手段251の実行が開始された後、CPU230は、処理をステップS20に移行する。
ステップS20において、CPU230は、頭部装着部10の角速度センサ130からのHMD方向信号の受信を開始する。CPU230は、最初にHMD方向信号を受信したときの画像提示部120の向きを、画像提示部120の初期の向きと設定する。そして、CPU230は、画像提示部120の初期の向きを設定した後で受信したHMD方向信号に基づいて、画像提示部120の移動角度を決定する。そして、CPU230は、決定された移動角度をHMD方向データ266に対して加算することで、画像提示部120の向きを決定する。なお、図5に示される一連の処理がCPU230によって行われている間は、CPU230はS20の処理を常に実行する。従って、CPU230は、角速度センサ130からHMD方向信号を逐次受信し、HMD方向データ266を更新する。角速度センサ130からのHMD方向信号の受信が開始された後、CPU230は、処理をステップS30に移行する。
ステップS30において、CPU230は、定義手段252を実行する(詳細は、図7を用いて後述)。この処理によって、CPU230は、虚像VIに対する入力操作を行う操作面CPの実空間での位置を定義する。そして、CPU230は、操作面CPの実空間での位置を、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS40に移行する。
ステップS40において、CPU230は、入力受付手段254の実行を開始する。具体的には、CPU230は、ペンマウス位置データ261と操作面位置データ263とを比較することで、操作面CPに含まれる位置にペンマウス30が存在するか否かを判断する。操作面CPに含まれる位置にペンマウス30が存在する場合、CPU230は、実空間―画像変換式データ264を用いて、ペンマウス位置データ261を、ペンマウス30の実空間での位置に対応付けられた画像空間での座標に変換する。そして、CPU230は、変換された画像空間での座標を、入力座標データ265としてRAM260に一時記憶する。なお、図5に示される一連の処理がCPU230によって行われている間は、CPU230はS40の処理を常に実行する。従って、CPU230は、ペンマウス30が操作面CP内に存在する場合、入力座標データ265を逐次更新する。一方、ペンマウス30が操作面CP内に存在しない場合は、入力座標データ265の更新は行われない。従って、ペンマウス30が一旦操作面CPから離れると、ペンマウス30が最後に操作面CP内に存在したときの、入力座標データ265が保持される。そして、ペンマウス30が再度操作面CP内に存在する状態になると、入力座標データ265が更新される。CPU230は、入力受付手段254の実行を開始した後、処理をステップS50に移行する。
ステップS50において、CPU230は、ペンマウス30を用いて操作面CPに対して行う入力が直接モードか間接モードかを判断する。具体的には、CPU230は、RAM260に一時記憶される入力モードフラグ268が直接モードか間接モードかを判断する。尚、直接モードとは、図6(A)に示されるように、操作面CPの実空間での位置と、虚像VIの実空間での位置とが一致した状態のことである。図6(A)において、テーブルTBLの表面における所定の範囲に定義された操作面CPが、画像提示部120によって提示される虚像VIの画角の範囲に含まれる。換言すれば、ユーザUSRは、虚像VIがテーブルTBLと重畳された状態で、虚像VIを視認する。そのため、ユーザUSRは、あたかも虚像VIがテーブルTBLの表面に提示されているかのように、虚像VIを視認する。従って、直接モードでは、虚像VIに対して直接ペンマウス30を用いて入力を行っているかのような操作感が得られる。また、間接モードとは、図6(B)に示されるように、虚像VIの実空間での位置とが一致していない状態のことである。図6(B)において、操作面CPは、虚像VIの画角の範囲外に存在するテーブルTBLの表面に定義される。そのため、間接モードでは、あたかもテーブルTBLの表面が虚像VIに対する入力デバイスであるかのような操作感が得られる。入力モードフラグ268が直接モードの場合(ステップS50:Y)、CPU230は、処理をステップS70に移行する。一方、入力モードフラグ268が間接モードの場合(ステップS50:N)、CPU230は、処理をステップS60に移行する。
ステップS60において、CPU230は、画像制御手段255を実行することで、入力座標データ265に対応した識別子してのカーソルCSを、画像提示部120に提示させる。具体的には、図6(B)に示されるように、CPU230は、入力座標データ265と等しい虚像VIの座標にカーソルCSが提示されるように、制御信号を画像提示部120に対して送信する。ユーザUSRは、カーソルCSを視認することによって、ペンマウス30によって虚像VIに対して行われる入力座標を認識することが可能になる。なお、図6(B)において、カーソルCSとして矢印が用いられる。しかし、入力の座標を認識することが可能であれば、カーソルCSはどのような形状でもよい。CPU230は、入力座標データ265を参照し、カーソルCSの提示位置を逐次更新する。カーソルCSの提示が開始された後、CPU230は、処理をステップS65に移行する。
ステップS65において、CPU230は、操作面表示手段258を実行する(詳細は、図9を用いて後述)。操作面表示手段258の実行によって、虚像VIの実空間の位置と操作面CPの実空間の位置とが重なる重複領域SAが存在する場合に、重複領域SAにおける操作面CPが虚像VIに表示される。その後、CPU230は、処理をステップS80に移行する。
ステップS70において、CPU230は、変更手段257を実行する(詳細は、図11を用いて後述)。変更手段257の実行によって、虚像VIに操作面CPが追随するように、操作面CPの位置が変更される。直接モードでは、虚像VIに対して直接ペンマウス30を用いて入力を行っているかのような操作感が得られる。従って、虚像VIに操作面CPが追随するように操作面CPの位置が変更されることで、ユーザUSRは、操作面CPの位置を気にすることなく、虚像VIに対して直接ペンマウス30を用いて入力を行なえる。その後、CPU230は、処理をステップS80に移行する。
ステップS80において、CPU230は、操作面CP内に含まれる位置にペンマウス30が存在するか否かを判断する。具体的には、CPU230は、ペンマウス位置データ261と操作面位置データ263とを比較する。比較の結果、ペンマウス30が操作面CPに存在する場合(ステップS80:Y)、CPU230は、処理をステップS90に移行する。一方、ペンマウス30が操作面CPに存在しない場合(ステップS80:N)、CPU230は、処理をステップS120に移行する。
ステップS90において、CPU230は、ペンマウス30の第2スイッチ330が押されたか否かを判断する。具体的には、CPU230は、第2スイッチ330からの決定信号が受信されたか否かを判断する。第2スイッチ330が押された場合(ステップS90:Y)、CPU230は、処理をステップS100に移行する。一方、第2スイッチ330が押されない場合(ステップS90:N)、CPU230は、処理をステップ120に移行する。
ステップS100及びS110において、CPU230は、画像制御手段255を実行する。具体的には、ステップS100において、CPU230は、入力座標データ265と、アイコンデータ267とを比較する。入力座標データ265に含まれる画像空間での座標がアイコンVIaの画像空間での座標と一致する場合(ステップS100:Y)、CPU230は、処理をステップS110に移行する。一方、不一致の場合(ステップS100:N)、CPU230は、処理をステップS120に移行する。ステップS110において、CPU230は、入力座標データ265の位置に一致したアイコンVIaに割り付けられた、画像提示部120の動作を制御するための所定の処理を実行する。この所定の処理は、画像提示部120の動作が制御されるものであれば、どの様な処理であっても良い。所定の処理の一例としては、画像提示部120によって提示されているコンテンツの再生開始、一時停止、再生終了などである。また、所定の処理の他の例として、画像提示部120の電源遮断や虚像VIの提示輝度調整など、コンテンツとは無関係の制御であっても良い。その後、CPU230は、処理をステップS120に移行する。
ステップS120において、CPU230は、ペンマウス30の第1スイッチ320が押されたか否かを判断する。具体的には、CPU230は、第1スイッチ320からの終了信号が受信されたか否かを判断する。第1スイッチ320が押された場合(ステップS120:Y)、CPU230は、一連の処理を終了する。一方、第1スイッチ320が押されない場合(ステップS120:N)、CPU230は、処理をステップS40に戻す。
[定義手段252の処理内容]
以下、図7を用いて、図5のステップS30において、定義手段252がCPU230によって実行される際の処理内容の説明を行う。
ステップS310において、CPU230は、図8(A)に示される、画像提示部位置設定画像を画像提示部120に表示させる。このステップS310によって、ユーザUSRは、ペンマウス30を画像提示部120に接触させた状態で第2スイッチ330を押すことを促される。その後、CPU230は、処理をステップS311に移行する。
ステップS311において、CPU230は、図5のステップS90と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS311:Y)、CPU230は、処理をステップS312に移行する。一方、第2スイッチ330が押されない場合(ステップS311:N)、CPU230は、処理を再びS311に戻し、第2スイッチ330が押されるのを待つ。
ステップS311において、CPU230は、ステップS311において第2スイッチ330が押されたときのペンマウス位置データ261を、画像提示部120の実空間での位置として、HMD方向データ266に一時記憶する。その後、CPU230は、処理をステップS313に移行する。
ステップS313において、CPU230は、図8(B)に示される、操作面中心設定画像を画像提示部120に表示させる。このステップS313によって、ユーザUSRは、操作面CPの中心位置を定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS314に移行する。
ステップS314において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS314:Y)、CPU230は、処理をステップS315に移行する。一方、第2スイッチ330が押されない場合(ステップS314:N)、CPU230は、処理を再びS314に戻し、第2スイッチ330が押されるのを待つ。
ステップS315において、CPU230は、ステップS314において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での中心位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS316に移行する。
ステップS316において、CPU230は、判断手段256を実行する。具体的には、CPU230は、HMD方向データ266に含まれる画像提示部120の実空間での位置と、操作面位置データ263に含まれる操作面CPの実空間での中心位置とを比較することで、画像提示部120と操作面CPとの間の距離を決定する。画像提示部120によって提示される虚像VIの画角は予め決まっているので、CPU230は、画像提示部120と操作面CPとの間の距離と、HMD方向データ266に含まれる画像提示部120の向きとに基づいて、操作面CPの距離における虚像VIの画角の範囲を決定する。換言すれば、虚像VIの実空間での位置が決定される。この虚像VIの実空間での位置と、画像提示部120と操作面CPとの間の距離とは、RAM260の虚像位置データ262に一時記憶される。そして、CPU230は、その画角の範囲とペンマウス位置データ261とを比較することで、ペンマウス30が虚像VIの画角の範囲に含まれるか否かを判断する。ペンマウス30が虚像VIの画角の範囲に含まれる場合(ステップS316:Y)、CPU230は、処理をステップS324に移行する。一方、ペンマウス30が虚像VIの画角の範囲に含まれない場合(ステップS316:N)、CPU230は、処理をステップS317に移行する。
ステップS317において、CPU230は、RAM260の入力モードフラグ268を間接モードに設定する。その後、CPU230は、処理をステップS318に移行する。
ステップS318において、CPU230は、図8(C)に示される、操作面左上設定画像を画像提示部120に表示させる。このステップS318によって、ユーザUSRは、操作面CPの左上位置を定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS319に移行する。
ステップS319において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS319:Y)、CPU230は、処理をステップS320に移行する。一方、第2スイッチ330が押されない場合(ステップS319:N)、CPU230は、処理を再びS319に戻し、第2スイッチ330が押されるのを待つ。
ステップS320において、CPU230は、ステップS319において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での左上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS321に移行する。
ステップS321において、CPU230は、図8(D)に示される、操作面右上設定画像を画像提示部120に表示させる。このステップS321によって、ユーザUSRは、操作面CPの右上位置を定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS322に移行する。
ステップS322において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS322:Y)、CPU230は、処理をステップS323に移行する。一方、第2スイッチ330が押されない場合(ステップS322:N)、CPU230は、処理を再びS322に戻し、第2スイッチ330が押されるのを待つ。
ステップS323において、CPU230は、ステップS322において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での右上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS331に移行する。
ここで、ステップS316の判断がYとなった場合における、ステップS324以下の処理を説明する。ステップS324において、CPU230は、RAM260の入力モードフラグ268を直接モードに設定する。その後、CPU230は、処理をステップS325に移行する。
ステップS325において、CPU230は、図8(E)に示される、虚像左上設定画像を画像提示部120に表示させる。このステップS325によって、ユーザUSRは、虚像VIの左上位置を操作面CPの左上位置として定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS326に移行する。
ステップS326において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS326:Y)、CPU230は、処理をステップS327に移行する。一方、第2スイッチ330が押されない場合(ステップS326:N)、CPU230は、処理を再びS326に戻し、第2スイッチ330が押されるのを待つ。
ステップS327において、CPU230は、ステップS326において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での左上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS328に移行する。
ステップS328において、CPU230は、図8(F)に示される、虚像右上設定画像を画像提示部120に表示させる。このステップS321によって、ユーザUSRは、虚像VIの右上位置を操作面CPの右上位置として定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS329に移行する。
ステップS329において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS329:Y)、CPU230は、処理をステップS330に移行する。一方、第2スイッチ330が押されない場合(ステップS329:N)、CPU230は、処理を再びS329に戻し、第2スイッチ330が押されるのを待つ。
ステップS330において、CPU230は、ステップS329において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での右上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS331に移行する。
ステップS331において、CPU230は、操作面位置データ263に一時記憶された操作面CPの実空間での中心位置、左上位置及び右上位置に基づいて、操作面CPの実空間での位置を決定する。具体的には、CPU230は、操作面CPを、前記中心位置を中心とし、前記左上位置及び前記右上位置を端とする矩形領域として定義する。このとき、CPU230は、操作面CPを、平面の方程式を用いて定義する。そして、CPU230は、操作面CPの境界を、前記中心位置、前記左上位置及び前記右上位置に基づいて決定する。CPU230は、決定された操作面CPの平面の方程式と、操作面CPの境界とを、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS332に移行する。
ステップS332において、CPU230は、対応付け手段253を実行する。具体的には、CPU230は、操作面データ263に含まれる虚像VIの実空間での中心位置、左上位置及び右上位置と、虚像VIの画像空間での中心座標、左上座標及び右上座標とを用いて、実空間での位置から画像空間での座標への変換を行う変換式を計算する。なお、虚像VIの画像空間での中心座標、左上座標及び右上座標は、虚像VIの中心に位置する画素の座標、左上に位置する画素の座標及び右上に位置する画素の座標にそれぞれ相当する。CPU230は、計算した変換式を、RAM260の実空間―画像変換式データ264に一時記憶する。CPU230はさらに、この変換式を計算したときのHMD方向データ264の値を、この変換式に紐付けした状態で、実空間―画像変換式データ264に一時記憶する。その後、CPU230は、定義手段252の実行を終了し、処理を図5のステップS40に戻す。
[操作面表示手段258の処理内容]
以下、図9を用いて、図5のステップS65において、操作面表示手段258がCPU230によって実行される際の、操作面変更処理の内容を説明する。
ステップS651において、CPU230は、虚像VIの実空間での位置と、操作面CPの実空間での位置とを比較する。具体的には、CPU230は、操作面位置データ263に含まれる操作面CPの実空間での位置と、HMD方向データ266に含まれる画像提示部120の実空間での位置とに基づいて、画像提示部120と操作面CPの境界とを繋ぐ直線の方向を定義する。この直線は、所定の間隔をおいて、操作面CPの境界の全周に対して定義される。そして、CPU230は、この直線の方向と虚像位置データ262に含まれる虚像VIの実空間での位置とに基づいて、この直線と虚像VIとの交点を決定する。交点が存在する場合、図10に示されるように、交点と虚像VIの境界とによって囲まれる領域が、虚像VIの実空間の位置と操作面CPの実空間の位置とが重なる重複領域SAとなる。交点を決定した後、CPU230は、処理をステップS652に移行する。
ステップS652において、CPU230は、ステップS651における比較結果に基づいて、重複領域SAが存在するか否かを判断する。この判断は、画像提示部120と操作面CPの境界とを繋ぐ直線と、虚像VIとの交点が存在するか否かを判断することによって達成される。重複領域SAが存在する場合(ステップS652:Y)、CPU230は、処理をステップS653に移行する。一方、重複領域SAが存在しない場合(ステップS652:N)、CPU230は、操作面表示手段258の実行を終了し、処理を図5のステップS80に戻す。
ステップS653において、CPU230は、虚像VIにおける重複領域SAの位置の色を変更する。この重複領域SAの色の変更は、ユーザUSRが操作面CPを認識可能な様態であれば、どのような様態でも良い。例えば、CPU230は、重複領域SAにおいて、虚像VIの色を反転する処理を行う。あるいは、CPU230は、重複領域SAにおける虚像VIのカラーバランスを変更することによって、重複領域SAに色が付いた様に視認される虚像VIを提示しても良い。この処理によって、図10に示されるように、ユーザは虚像VIにおける重複領域SAを認識することが可能になる。その後、CPU230は、操作面表示手段258の実行を終了し、処理を図5のステップS80に戻す。
[変更手段257の処理内容]
以下、図11を用いて、図5のステップS70において、変更手段257がCPU230によって実行される際の操作面変更処理の内容を説明する。
ステップS701において、CPU230は、操作面CPの位置が決定されたときの画像提示部120の向きと、現在の画像提示部120の向きとを比較する。具体的には、CPU230は、実空間―画像変換式データ264に含まれる画像提示部120の向きと、HMD方向データ266とを比較する。その後、CPU230は、処理をステップS702に移行する。
ステップS702において、CPU230は、ステップS701の比較結果に基づいて、操作面CPの位置が決定されたときの画像提示部120の向きと、現在の画像提示部120の向きとが一致するか否かを判断する。向きが一致する場合(ステップS702:Y)、CPU230は、変更手段257の実行を終了し、処理を図5のステップS80に戻す。一方、向きが一致する場合(ステップS702:N)、CPU230は、処理をステップS703に移行する。
ステップS703において、CPU230は、ステップS701の比較結果に従って、虚像VIの実空間での位置を更新する。具体的には、CPU230は、操作面CPの位置が決定されたときの画像提示部120の向きと、現在の画像提示部120の向きとの差から、画像提示部120の回転量を決定する。そして、CPU230は、その回転量と、虚像位置データ262に含まれる画像提示部120と操作面CPとの間の距離とに基づいて、虚像VIの実空間での位置の移動量を決定する。CPU230は、この位置の移動量を虚像位置データ262に加算することで、虚像VIの実空間での位置を更新する。その後、CPU230は、処理をステップS704に移行する。
ステップS704において、CPU230は、操作面CPの実空間での位置を更新する。具体的には、CPU230は、ステップS703で決定された虚像VIの実空間での位置の移動量を、操作面位置データ263に加算する。直接モードでは、虚像VIの実空間での位置と、操作面CPの位置とが一致している。従って、操作面CPの操作面位置データ263に虚像VIの実空間での位置の移動量を加算することで、操作面CPの実空間での位置は、虚像VIの実空間での位置に一致する。その後、CPU230は、処理をステップS705に移行する。
ステップS705において、CPU230は、実空間―画像変換式データ264に含まれる、実空間での位置から画像空間での座標への変換を行う変換式を更新する。具体的には、CPU230は、更新された虚像位置データ262を用いて、対応付け手段253を再度実行する。この処理によって、実空間―画像変換式データ264に含まれる変換式が更新される。CPU230はまた、現在のHMD方向データ264の値を、この変換式に紐付けした状態で、実空間―画像変換式データ264に一時記憶する。即ち、空間―画像変換式データ264に含まれる画像提示部120の向きも更新される。その後、CPU230は、変更手段257の実行を終了し、処理を図5のステップS80に戻す。
<変形例>
本発明は、今までに述べた実施形態に限定されることは無く、その趣旨を逸脱しない範囲において種々の変形・変更が可能である。以下にその一例を述べる。
前記実施形態において、頭部装着部10の骨格の構成は、例えば、通常の眼鏡と同様である。しかし、頭部装着部10の骨格は、画像提示部を保持した状態でユーザUSRの頭部に装着可能な構成であれば、他の構成であっても良い。例えば、頭部装着部10の骨格は、ヘッドバンドの様に、ユーザの頭に載せられる形状であっても良い。あるいは、頭部装着部10は、骨格を有さなくても良い。この場合、頭部装着部は、画像提示部120と、ユーザUSRが日常的に用いている眼鏡に対して画像提示部120を取り付け可能な取付部などで構成可能である。
前記実施形態において、画像提示部120は、ユーザUSRの左目LEに虚像VIを提示するために、頭部装着部10を装着したユーザUSRの左眼LEと略同一の高さとなる位置に配設される。しかし、画像提示部120は、ユーザUSRの右目に対して虚像VIを提示可能な位置に配設されても良い。あるいは、画像提示部120は、ユーザUSRの両眼に虚像VIを提示するために、左右一対設けられても良い。
前記実施形態において、ユーザUSRは、ペンマウス30を用いて虚像VIに対する入力を行う。しかし、ユーザUSRの手に保持され、ユーザUSRの手の移動量を検知する構成であれば、ペンマウス30以外であっても差し支えない。例えば、ユーザUSRの指に嵌合する指輪型の入力デバイスに、ペンマウス30が有する機能を組み込んでも差し支えない。あるいは、通常PCなどで用いられるマウスの様な形状が用いられても良い。また、ペンマウス30と制御ボックス20とは、ケーブル51にて接続されなくても良い。この場合、ペンマウス用I/F240及びI/F340は、例えばBluetooth(登録商標)などの無線通信によって構成可能である。さらに、制御ボックス20からペンマウス30へのケーブル51を介した電力供給が不可能になるため、ペンマウス30は、別途バッテリーを備えるのが良い。
1 HMD
10 頭部装着部
20 コントロールボックス
30 ペンマウス
50,51 ケーブル
102A,102B モダン
104A,104B テンプル
106A,106B ヨロイ
108 フロントフレーム
110 鼻パッド
112A,112B 蝶番
120 画像提示部
129 取付部
130 角速度センサ
140 ハーフミラー
210 フラッシュROM
220 周辺I/F
230 CPU
240 ペンマウス用I/F
250 プログラムROM
260 RAM
270 入力ボタン群
310 3次元加速度センサ
320 第1スイッチ
330 第2スイッチ
340 I/F
CP 操作面
CS カーソル
LE ユーザUSRの左目
SA 重複領域
TBL テーブル
USR ユーザ
VI 虚像
VIa アイコン

Claims (6)

  1. ユーザの頭部に装着される装着部に保持され、画像をユーザの眼に視認可能に提示する画像提示部と、
    ユーザの手に保持され、ユーザの手の移動量を検知する移動量検知部と、
    前記移動量に基づいて、前記移動量検知部の実空間での位置を決定する位置決定手段と、
    ユーザからの入力を取得する取得部と、
    前記取得部がユーザからの入力を取得したときの前記移動量検知部の実空間上の位置に基づいて、実空間に存在する任意の実体物の表面における所定の範囲を、前記画像に対する入力操作を行う操作面として定義する定義手段と、
    前記操作面における実空間での位置を、前記画像における画像空間での座標と対応付ける対応付け手段と、
    前記移動量検知部が前記操作面に存在する場合に、前記移動量検知部の実空間での位置に対応付けられた前記画像空間での座標を、前記画像に対する入力座標として受け付ける入力受付手段と、
    前記入力座標に基づいて、前記画像提示部の動作を制御する画像制御手段と、
    を備えることを特徴とするヘッドマウントディスプレイ。
  2. 前記画像提示部は、
    前記画像提示部の方向を検知する方向検知部を有し、
    ユーザが外界像と画像とを重畳した状態で視認可能に構成され、
    前記移動量検知部の実空間上の位置と、前記取得部によって取得された入力とに基づいて、前記画像提示部に対する前記移動量検知部の相対位置を決定する相対位置決定手段と、
    前記画像提示部の方向と前記相対位置とに基づいて、前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する判断手段と、
    前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれると前記判断手段が判断した場合、前記画像提示部の方向に基づいて、前記画像提示部によって提示される画像に前記操作面が追随するように、前記操作面の位置を変更する変更手段とをさらに備える、
    請求項1に記載のヘッドマウントディスプレイ。
  3. 前記変更手段は、前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記操作面の位置を変更せず、
    前記画像制御手段は、前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記入力座標に対応する識別子を前記画像提示部に提示させる、
    請求項2に記載のヘッドマウントディスプレイ。
  4. 前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、
    前記操作面の実空間での位置と前記虚像の実空間での位置とが重なる重複領域が存在するか否かを判断し、前記重複領域が存在する場合、前記重複領域の表示様態を変更する操作面表示手段をさらに有する、
    請求項3に記載のヘッドマウントディスプレイ。
  5. 前記定義手段は、
    前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置を、少なくとも3つ用いて、前記操作面を定義する、
    請求項1〜4の何れかに記載のヘッドマウントディスプレイ。
  6. 前記判断手段は、前記定義手段による前記操作面の定義に係る、前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置が、少なくとも1つ決定された後で、前記画像提示部の方向と前記移動量検知部の実空間での位置とに基づいて、前記移動量検知部が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する、
    請求項5に記載のヘッドマウントディスプレイ
JP2010045012A 2010-03-02 2010-03-02 ヘッドマウントディスプレイ Expired - Fee Related JP5428943B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010045012A JP5428943B2 (ja) 2010-03-02 2010-03-02 ヘッドマウントディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010045012A JP5428943B2 (ja) 2010-03-02 2010-03-02 ヘッドマウントディスプレイ

Publications (2)

Publication Number Publication Date
JP2011180867A JP2011180867A (ja) 2011-09-15
JP5428943B2 true JP5428943B2 (ja) 2014-02-26

Family

ID=44692299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010045012A Expired - Fee Related JP5428943B2 (ja) 2010-03-02 2010-03-02 ヘッドマウントディスプレイ

Country Status (1)

Country Link
JP (1) JP5428943B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227413B2 (en) 2017-03-27 2022-01-18 Suncorporation Image display system

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
JP6064316B2 (ja) 2011-11-28 2017-01-25 セイコーエプソン株式会社 透過型表示装置、及び操作入力方法
JP5957875B2 (ja) * 2011-12-26 2016-07-27 ソニー株式会社 ヘッドマウントディスプレイ
KR101958778B1 (ko) 2012-08-31 2019-03-15 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 디지털 디바이스 제어 방법
WO2014035118A1 (en) * 2012-08-31 2014-03-06 Lg Electronics Inc. Head mounted display and method of controlling digital device using the same
KR20140090552A (ko) 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
US9619021B2 (en) 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
JP6500477B2 (ja) * 2015-02-12 2019-04-17 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
KR20150141461A (ko) 2014-06-10 2015-12-18 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
JP2019023767A (ja) * 2015-11-17 2019-02-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US10908694B2 (en) * 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
JP6883394B2 (ja) * 2016-08-03 2021-06-09 株式会社コロプラ プログラム、コンピュータ及び方法
KR102288431B1 (ko) * 2020-01-31 2021-08-10 주식회사 빌리버 가상현실을 이용한 이미지입력시스템 및 이를 이용한 이미지데이터 생성방법
US20220004262A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3456735B2 (ja) * 1994-02-21 2003-10-14 沖電気工業株式会社 情報入力装置及びそれを用いたプレゼンテーションシステム
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2004185488A (ja) * 2002-12-05 2004-07-02 Canon Inc 座標入力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227413B2 (en) 2017-03-27 2022-01-18 Suncorporation Image display system

Also Published As

Publication number Publication date
JP2011180867A (ja) 2011-09-15

Similar Documents

Publication Publication Date Title
JP5428943B2 (ja) ヘッドマウントディスプレイ
US10191281B2 (en) Head-mounted display for visually recognizing input
US9377869B2 (en) Unlocking a head mountable device
CN103294180B (zh) 一种人机交互控制方法及电子终端
JP5927867B2 (ja) 表示システム、及び操作入力方法
US20160132189A1 (en) Method of controlling the display of images and electronic device adapted to the same
US20140191927A1 (en) Head mount display device providing eye gaze calibration and control method thereof
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
US20170115736A1 (en) Photo-Based Unlock Patterns
WO2014128752A1 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
US20150199111A1 (en) Gui system, display processing device, and input processing device
WO2013146862A1 (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
CN110140166B (zh) 用于向计算机提供免手工输入的系统
US11019992B2 (en) Eyesight examination method, eyesight examination device, and downloader server for storing program of eyesight examination method
JP2016206617A (ja) 表示システム
JP2017009777A (ja) 表示装置、表示装置の制御方法、表示システム、及び、プログラム
JP2021192178A (ja) デバイス、制御方法及びプログラム
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6714632B2 (ja) 情報表示端末及び情報表示方法
CN103713387A (zh) 电子设备和采集方法
JP7055111B2 (ja) ユーザの首曲げ状態を推定可能な携帯装置、プログラム及び方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2012194626A (ja) 表示装置
JP5610297B2 (ja) 頭部装着型撮像システム、頭部装着撮像装置、画像表示方法
JP6789377B2 (ja) 画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5428943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees