JP2018142168A - 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 - Google Patents
頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 Download PDFInfo
- Publication number
- JP2018142168A JP2018142168A JP2017035981A JP2017035981A JP2018142168A JP 2018142168 A JP2018142168 A JP 2018142168A JP 2017035981 A JP2017035981 A JP 2017035981A JP 2017035981 A JP2017035981 A JP 2017035981A JP 2018142168 A JP2018142168 A JP 2018142168A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- user
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000001514 detection method Methods 0.000 claims abstract description 72
- 238000003384 imaging method Methods 0.000 claims description 40
- 238000002834 transmittance Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 24
- 230000006870 function Effects 0.000 description 148
- 210000003811 finger Anatomy 0.000 description 110
- 210000003128 head Anatomy 0.000 description 23
- 239000004973 liquid crystal related substance Substances 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000003825 pressing Methods 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 239000000758 substrate Substances 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 230000004397 blinking Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】画像の視認性を維持したまま、使用者に指示体の状態を認識させる。【解決手段】使用者の頭部に装着され、使用者が外景を視認可能に画像を表示する画像表示部20と、カメラ61と、カメラ61の撮像画像に基づき指示体による操作を検出する検出制御部149と、検出制御部149が検出する操作に基づいて画像表示部20の画像を制御する操作制御部151と、を備え、操作制御部151は、カメラ61の撮像画像から指示体が検出された場合に、画像表示部20により、指示体の位置及び形状の少なくともいずれかを示す手指画像305を表示させる頭部装着型表示装置100。【選択図】図5
Description
本発明は、頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法に関する。
従来、頭部装着型表示装置は、HMD(Head Mounted Display)と呼ばれ、HMDを頭部に装着した使用者に画像を視認させることができる。使用者は、HMDにより表示される画像を視認しながら作業を行うことで、作業を効率的に進めることができる。また、HMDの操作は、主としてコントローラーを用いて行われるため、操作の度にコントローラーを操作するのは不便であった。このため、直感的な操作により情報の入力が可能なHMDが提案されている(例えば、特許文献1参照)。
特許文献1は、眼鏡型透過型ディスプレイに組み込まれた一体型の装着型計算機を開示する。この装着型計算機は、透過型ディスプレイ装置を被った利用者が眼前に手を開いて提示することで入力画面を呼び出し、もう一方の手で指さしする、或いは開いた手の指を折ることでメニューを選択する。
特許文献1は、眼鏡型透過型ディスプレイに組み込まれた一体型の装着型計算機を開示する。この装着型計算機は、透過型ディスプレイ装置を被った利用者が眼前に手を開いて提示することで入力画面を呼び出し、もう一方の手で指さしする、或いは開いた手の指を折ることでメニューを選択する。
しかしながら、透過型のHMDは、表示部を通して視認する外界に画像を重畳させるが、外界光よりも画像光の光が強い場合、画像光に遮られて外界の視認性が低下してしまう場合がある。このため、使用者の手を避けて画像を表示させたり、画像光の輝度を外界光の輝度よりも小さくしたりする対策も考えられる。しかし、操作を行う度に画像の表示位置が変更されてしまったり、画像光の光量が変更されてしまったりすると、使用者に煩わしさを感じさせてしまう場合があった。
本発明は、画像の視認性を維持したまま、使用者に指示体の状態を認識させることを目的とする。
本発明は、画像の視認性を維持したまま、使用者に指示体の状態を認識させることを目的とする。
上記課題を解決するため、本発明は、使用者の頭部に装着され、前記使用者が外景を視認可能に画像を表示する表示部と、撮像部と、前記撮像部の撮像画像に基づき指示体による操作を検出する操作検出部と、前記操作検出部が検出する操作に基づいて前記表示部の画像を制御する制御部と、を備え、前記制御部は、前記操作検出部によって前記撮像部の撮像画像から前記指示体が検出された場合に、前記表示部により、前記指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトを表示させる。
本発明によれば、撮像部の撮像画像から前記指示体が検出された場合に、表示部により、指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトが表示される。このため、表示部が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に指示体の位置又は形状を認識させることができる。
本発明によれば、撮像部の撮像画像から前記指示体が検出された場合に、表示部により、指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトが表示される。このため、表示部が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に指示体の位置又は形状を認識させることができる。
また、本発明は、前記表示部は、前記使用者が視認する外景に重ねて前記画像を表示し、前記撮像部は、前記使用者が視認する外景の少なくとも一部を含む範囲を撮像し、前記制御部は、前記表示オブジェクトを、前記使用者が外景において前記指示体を視認する位置に対応する位置に表示させる。
本発明によれば、使用者が外景において指示体を視認する位置に対応する位置に表示オブジェクトを表示させることができる。このため、表示された表示オブジェクトの位置により指示体の位置を認識することができる。
本発明によれば、使用者が外景において指示体を視認する位置に対応する位置に表示オブジェクトを表示させることができる。このため、表示された表示オブジェクトの位置により指示体の位置を認識することができる。
また、本発明は、前記表示部は、外光を透過可能に構成され、前記表示部を透過する外光の透過率を調整する透過率調整部を備え、前記制御部は、前記透過率調整部による外光の透過率に基づき、前記表示オブジェクトの表示と非表示とを切り替える。
本発明によれば、外光の透過率に基づいて表示オブジェクトの表示と非表示とが切り替えられる。このため、透過率調整部によって外光の透過率が低く抑えられ、外界の視認性が低下している場合には、表示オブジェクトを表示させることで、使用者に指示体の状態を認識させることができる。
本発明によれば、外光の透過率に基づいて表示オブジェクトの表示と非表示とが切り替えられる。このため、透過率調整部によって外光の透過率が低く抑えられ、外界の視認性が低下している場合には、表示オブジェクトを表示させることで、使用者に指示体の状態を認識させることができる。
また、本発明は、前記制御部は、前記表示部が表示する前記画像のサイズに基づき、前記表示オブジェクトの表示と非表示とを切り替える。
本発明によれば、表示部が表示する画像のサイズが大きく、外界の視認性が低下すると判定される場合に、表示オブジェクトを表示させることができる。
本発明によれば、表示部が表示する画像のサイズが大きく、外界の視認性が低下すると判定される場合に、表示オブジェクトを表示させることができる。
また、本発明は、前記操作検出部は、前記撮像部の撮像画像に基づき、前記指示体と、前記指示体とは異なる副指示体とを組み合わせた操作を検出する。
本発明によれば、指示体と副指示体とを組み合わせた操作により表示部の画像を制御することができる。
本発明によれば、指示体と副指示体とを組み合わせた操作により表示部の画像を制御することができる。
また、本発明は、前記制御部は、前記指示体の部位、又は前記指示体の形状を示す前記表示オブジェクトの部位に対応させて、前記制御部が実行可能な処理を特定する画像を表示させ、前記操作検出部により検出される前記指示体又は前記表示オブジェクトに対する前記副指示体の指示位置に基づいて選択された部位を判定し、判定した前記部位に対応付けられた処理を実行する。
本発明によれば、指示体又は表示オブジェクトに対する副指示体の指示位置を変更することで、指示体又は表示オブジェクトの部位に対応付けられた処理を特定する画像の選択が可能になる。また、選択した処理を特定する画像に対応した処理を実行させることができる。
本発明によれば、指示体又は表示オブジェクトに対する副指示体の指示位置を変更することで、指示体又は表示オブジェクトの部位に対応付けられた処理を特定する画像の選択が可能になる。また、選択した処理を特定する画像に対応した処理を実行させることができる。
また、本発明は、前記制御部は、前記指示体、若しくは前記指示体の形状を示す前記表示オブジェクトに処理を特定する前記画像を重畳して表示させる、又は前記指示体若しくは前記表示オブジェクトの周囲に処理を特定する前記画像を表示させる。
本発明によれば、指示体若しくは表示オブジェクトに重畳させて、又は指示体若しくは表示オブジェクトの周囲に表示オブジェクトを表示させることができる。従って、指示体と副指示体とを組み合わせた操作により処理を特定する画像の選択を容易に行うことができる。
本発明によれば、指示体若しくは表示オブジェクトに重畳させて、又は指示体若しくは表示オブジェクトの周囲に表示オブジェクトを表示させることができる。従って、指示体と副指示体とを組み合わせた操作により処理を特定する画像の選択を容易に行うことができる。
また、本発明は、前記表示オブジェクトは、前記撮像部により撮像される前記使用者の手の画像、又は前記手の輪郭の一部又は全部を示す画像である。
本発明によれば、表示オブジェクトとして、使用者の手の画像、又は手の輪郭の一部又は全部を示す画像を表示させることができる。このため、表示部の表示する画像によって使用者の手が見えない場合であっても、使用者に手の画像又は手の輪郭を認識させ、使用者が手を使った操作を実行可能とすることができる。
本発明によれば、表示オブジェクトとして、使用者の手の画像、又は手の輪郭の一部又は全部を示す画像を表示させることができる。このため、表示部の表示する画像によって使用者の手が見えない場合であっても、使用者に手の画像又は手の輪郭を認識させ、使用者が手を使った操作を実行可能とすることができる。
また、本発明は、前記制御部は、前記操作検出部が検出する操作により選択された前記指示体又は前記表示オブジェクトの部位に対応付けられた処理を実行する操作モードと、前記指示体又は前記表示オブジェクトの部位に対応させる処理を設定する設定モードとを切り替えて実行する。
本発明によれば、設定モードを備えることで、手又は手の画像の部位に対応させる処理を変更することができる。また、操作モードを備えることで、指示体又は表示オブジェクトの部位に対応する処理を頭部装着型表示装置に実行させることができる。
本発明によれば、設定モードを備えることで、手又は手の画像の部位に対応させる処理を変更することができる。また、操作モードを備えることで、指示体又は表示オブジェクトの部位に対応する処理を頭部装着型表示装置に実行させることができる。
上記課題を解決するため、本発明は、使用者の頭部に装着され、前記使用者が外景を視認可能に画像を表示する表示部と、撮像部と、前記表示部に表示させる画像を制御する制御部と、を備える頭部装着型表示装置に搭載されるコンピューターに実行させるプログラムであって、前記コンピューターに、前記撮像部の撮像画像に基づき指示体を検出する手順と、前記撮像画像から前記指示体が検出された場合に、前記表示部により、前記指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトを表示させる手順と、を実行させる。
本発明によれば、撮像部の撮像画像から前記指示体が検出された場合に、表示部により、指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトが表示される。このため、表示部が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に指示体の位置又は形状を認識させることができる。
本発明によれば、撮像部の撮像画像から前記指示体が検出された場合に、表示部により、指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトが表示される。このため、表示部が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に指示体の位置又は形状を認識させることができる。
上記課題を解決するため、本発明は、使用者の頭部に装着され、前記使用者が外景を視認可能に画像を表示する表示部と、撮像部と、前記表示部に表示させる画像を制御する制御部と、を備える頭部装着型表示装置の制御方法であって、前記撮像部の撮像画像に基づき指示体を検出するステップと、前記撮像画像から前記指示体が検出された場合に、前記表示部により、前記指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトを表示させるステップと、を有することを特徴とする。
本発明によれば、撮像部の撮像画像から前記指示体が検出された場合に、表示部により、指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトが表示される。このため、表示部が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に指示体の位置又は形状を認識させることができる。
本発明によれば、撮像部の撮像画像から前記指示体が検出された場合に、表示部により、指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトが表示される。このため、表示部が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に指示体の位置又は形状を認識させることができる。
図1は、本発明を適用した実施形態のHMD(頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で、使用者に、外景を視認可能に画像を表示する画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、図1に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備え、ケース10Aに後述する各部を備える。ケース10Aの表面には、使用者の操作を受け付ける各種の操作ボタン11、スイッチ、トラックパッド14等が設けられる。これらを使用者が操作することによって、制御装置10は、HMD100のコントローラーとして機能する。
HMD100は、使用者の頭部に装着された状態で、使用者に、外景を視認可能に画像を表示する画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、図1に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備え、ケース10Aに後述する各部を備える。ケース10Aの表面には、使用者の操作を受け付ける各種の操作ボタン11、スイッチ、トラックパッド14等が設けられる。これらを使用者が操作することによって、制御装置10は、HMD100のコントローラーとして機能する。
画像表示部20は、使用者の頭部に装着される眼鏡形状の装着体であり、外光を透過可能に構成される。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。右導光板26と左導光板28との連結位置は、使用者が画像表示部20を装着する装着状態において、使用者の眉間に位置する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムによって構成される。右導光板26及び左導光板28は、右表示ユニット22及び左表示ユニット24が出力する画像光を使用者の眼に導く。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に右電子シェード227及び左電子シェード247(図4)を配置し、虚像の視認のしやすさを調整できる。右電子シェード227及び左電子シェード247は、本発明の「透過率調整部」に相当する。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。カメラ61は、本発明の「撮像部」に相当する。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲又は方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部150(図5)が備える検出制御部149の制御に従って撮像を実行し、撮像画像データを検出制御部149に出力する。
カメラ61は、制御部150(図5)が備える検出制御部149の制御に従って撮像を実行し、撮像画像データを検出制御部149に出力する。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
また、画像表示部20は、右電子シェード227及び左電子シェード247を備える。右電子シェード227は、シェード駆動部228(図4)と、液晶パネル229とを備える。左電子シェード247は、シェード駆動部248(図4)と、液晶パネル249とを備える。
右電子シェード227の液晶パネル229は、右導光板26の前面側、すなわち、使用者の頭部の側とは反対側に設けられる。液晶パネル229は、図2に示すように、右導光板26と距離をおいて配置される。これは、液晶パネル229を右導光板26に貼り合わせると、画像光Lの右導光板26での全反射を阻害する可能性があるからである。
左電子シェード247の液晶パネル249は、左導光板28の前面側、すなわち、使用者の頭部の側とは反対側に設けられる。液晶パネル249も、図2に示すように左導光板28と距離をおいて配置される。
また、液晶パネル229及び249を、右導光板26及び左導光板28に重ねて配置することも可能である。この場合、屈折率が右導光板26及び左導光板28の屈折率よりも低い材料を右導光板26及び左導光板28の全反射面に貼り合わせる必要がある。
右電子シェード227の液晶パネル229は、右導光板26の前面側、すなわち、使用者の頭部の側とは反対側に設けられる。液晶パネル229は、図2に示すように、右導光板26と距離をおいて配置される。これは、液晶パネル229を右導光板26に貼り合わせると、画像光Lの右導光板26での全反射を阻害する可能性があるからである。
左電子シェード247の液晶パネル249は、左導光板28の前面側、すなわち、使用者の頭部の側とは反対側に設けられる。液晶パネル249も、図2に示すように左導光板28と距離をおいて配置される。
また、液晶パネル229及び249を、右導光板26及び左導光板28に重ねて配置することも可能である。この場合、屈折率が右導光板26及び左導光板28の屈折率よりも低い材料を右導光板26及び左導光板28の全反射面に貼り合わせる必要がある。
液晶パネル229及び249は、複数の画素をマトリクス状に配置した透過型の液晶パネルである。液晶パネル229及び249は、TN(twisted nematic)液晶、ゲストホスト液晶、PDLC(Polymer Dispersed Liquid Crystal)等によって構成される。また、液晶パネル229及び249に代えて、エレクトロクロミック、ガスクロミックを設けてもよい。
液晶パネル229及び249は、供給電圧の増減により、外部から使用者の眼REに導かれる外光の透過率を画素単位で増減させる。本実施形態の右電子シェード227及び左電子シェード247は、供給電圧なしの状態では外光の透過率が100%となり、供給電圧が最大の状態では外光の透過率が0%(遮断)される。
液晶パネル229及び249は、供給電圧の増減により、外部から使用者の眼REに導かれる外光の透過率を画素単位で増減させる。本実施形態の右電子シェード227及び左電子シェード247は、供給電圧なしの状態では外光の透過率が100%となり、供給電圧が最大の状態では外光の透過率が0%(遮断)される。
図1に戻り、制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブル又は光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及び、マイク63を有するヘッドセット30が、コネクター46に接続される。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
制御装置10は、使用者により操作される被操作部として、操作ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。
操作ボタン11は、制御装置10が実行するオペレーティングシステム(以下、OSと略記する)143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
操作ボタン11は、制御装置10が実行するオペレーティングシステム(以下、OSと略記する)143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。トラックパッド14への接触(タッチ操作)は、例えば、操作面に沿って埋設されたタッチセンサー(図示略)により検出される。
図3は、画像表示部20を使用者の頭部側から見た要部斜視図である。すなわち、図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。なお、図3では接続ケーブル40の図示を省略する。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物を注視する場合、使用者から対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び下限の目安に相当する場合に、この対象物が画角に含まれるように設定されることが好ましい。
一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことがより好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角が使用者の両眼の視野角よりも広いことがより好ましい。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113及びGPS受信部115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113及びGPS受信部115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
操作部110は、操作ボタン11及びトラックパッド14を含む。トラックパッド14は、操作面(図示略)を備える。トラックパッド14は、操作面へのタッチ操作を検出して、検出したタッチ操作の操作面の操作位置を特定する。トラックパッド14は、特定したタッチ操作の操作位置を示す操作信号をメインプロセッサー140に出力する。
6軸センサー111は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS受信部115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。又は6軸センサー111、磁気センサー113及びGPS受信部115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS受信部115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。又は6軸センサー111、磁気センサー113及びGPS受信部115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
また、HMD100は、バイブレーター19を備える。バイブレーター19は、モーター(図示略)、偏心した回転子(図示略)等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して画像表示部20に接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20の内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及びEEPROM215(記憶部)が実装される。
インターフェイス211は、受信部213、EEPROM215、OLEDユニット221、カメラ61、照度センサー65、LEDインジケーター67、圧電センサー217、シェード駆動部228を、制御装置10に接続する。
インターフェイス211は、受信部213、EEPROM215、OLEDユニット221、カメラ61、照度センサー65、LEDインジケーター67、圧電センサー217、シェード駆動部228を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、又は撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
圧電センサー217は、例えば、右保持部21であって、画像表示部20が使用者の頭部に装着された状態のときに使用者の耳に当接する位置に設けられる。画像表示部20が使用者の頭部に装着され、圧電センサー217に使用者の耳が当接すると、圧電センサー217は、接触を検出したことを示す信号を制御装置10に出力する。
シェード駆動部228は、メインプロセッサー140に従って、右電子シェード227に供給される電圧を制御し、右電子シェード227の外光の透過率を画素単位で増減させる。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板230を有する。表示ユニット基板230には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板230には、6軸センサー235及び磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、圧電センサー239及びシェード駆動部248を、制御装置10に接続する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、圧電センサー239及びシェード駆動部248を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
磁気センサー237は、例えば、3軸の地磁気センサーである。
圧電センサー239は、例えば、左保持部23であって、画像表示部20が使用者の頭部に装着された状態のときに使用者の耳に当接する位置に設けられる。画像表示部20が使用者の頭部に装着され、圧電センサー239に使用者の耳が当接すると、圧電センサー239は、接触が検出されたことを示す信号を制御装置10に出力する。
シェード駆動部248は、メインプロセッサー140に従って、左電子シェード247に供給する電圧を制御し、左電子シェード247の外光の透過率を画素単位で増減させる。
インターフェイス211及び231は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及びバッテリー132の残容量の検出及びバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図5は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図5に示す記憶部122は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。
制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124及び辞書データ125を記憶する。
設定データ123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データ123には、後述する機能表示画像310として表示する機能の設定データや、機能表示画像310を表示させる指の設定データ等を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
設定データ123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データ123には、後述する機能表示画像310として表示する機能の設定データや、機能表示画像310を表示させる指の設定データ等を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
辞書データ125は、予め設定された手や指の形状や位置(以下、ハンドサインという)を特定するための情報を記憶する。辞書データ125には、ハンドサインを特定するための情報として、ハンドサインの各形状における指の位置や形等を示すデータが含まれる。
制御部150は、OS143、画像処理部145、表示制御部147、検出制御部149及び操作制御部151の機能を備える。検出制御部149は、本発明の「操作検出部」に相当し、操作制御部151は、本発明の「制御部」に相当する。
OS143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の制御部150の各部は、OS143上で実行されるアプリケーションプログラムの機能である。
OS143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の制御部150の各部は、OS143上で実行されるアプリケーションプログラムの機能である。
画像処理部145は、画像表示部20に表示させる画像又は映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号には、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等が含まれる。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
表示制御部147は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
検出制御部149は、カメラ61を制御して、カメラ61に撮像画像データを生成させる。生成された撮像画像データは、記憶部122に一旦記憶される。
検出制御部149は、記憶部122から撮像画像データを読み出し、読み出した撮像画像データに基づき指示体による操作を検出する。本実施形態は、使用者の手や指(以下、手及び指を総称して手指という)を指示体として検出する。検出制御部149が検出する操作には、撮像画像データに撮像された使用者の手指の形状や位置が含まれる。
検出制御部149は、記憶部122から撮像画像データを読み出し、読み出した撮像画像データに基づき指示体による操作を検出する。本実施形態は、使用者の手や指(以下、手及び指を総称して手指という)を指示体として検出する。検出制御部149が検出する操作には、撮像画像データに撮像された使用者の手指の形状や位置が含まれる。
検出制御部149は、撮像画像データから手指が撮像された領域(以下、撮像領域という)を検出する。例えば、検出制御部149は、例えば、肌色抽出処理により、撮像画像データから肌色の領域を抽出し、しきい値処理により、抽出した肌色の領域の画素値を予め設定されたしきい値と比較することで手指領域を検出する。また、検出制御部149は、エッジ検出処理により手指領域の輪郭を抽出し、抽出した輪郭の凹凸による特徴点を、辞書データ125として予め登録された各ハンドサインの特徴点と比較することで、手指の形状や位置、左手や右手の判定を行ってもよい。
検出制御部149は、検出した情報を検出情報として操作制御部151に出力する。検出情報には、手指領域の範囲(水平方向の範囲、垂直方向の範囲)を示す範囲情報や、各指の位置(例えば、指先の位置)を示す位置情報が含まれる。範囲情報や位置情報は、例えば、撮像画像データの左上を原点とし、水平方向をX軸方向、垂直方向をY軸方向とした座標系での座標を示す情報である。また、検出情報には、手指の形状を示す情報や、検出した手指領域が左手の手指であるのか、右手の手指であるのかを示す情報が含まれる。
また、検出制御部149は、撮像画像データから使用者の手指が撮像された画像が検出されなかった場合、手指が検出されなかったことを示す情報を検出情報として操作制御部151に出力する。
検出制御部149は、検出した情報を検出情報として操作制御部151に出力する。検出情報には、手指領域の範囲(水平方向の範囲、垂直方向の範囲)を示す範囲情報や、各指の位置(例えば、指先の位置)を示す位置情報が含まれる。範囲情報や位置情報は、例えば、撮像画像データの左上を原点とし、水平方向をX軸方向、垂直方向をY軸方向とした座標系での座標を示す情報である。また、検出情報には、手指の形状を示す情報や、検出した手指領域が左手の手指であるのか、右手の手指であるのかを示す情報が含まれる。
また、検出制御部149は、撮像画像データから使用者の手指が撮像された画像が検出されなかった場合、手指が検出されなかったことを示す情報を検出情報として操作制御部151に出力する。
操作制御部151には、検出制御部149から検出情報や、撮像画像データが入力される。
操作制御部151は、予め設定されたトリガーとなる操作が検出された場合に、表示領域DAに表示オブジェクトを表示させるか否かを判定する。操作制御部151は、表示オブジェクトを表示させる必要があると判定する場合に、表示領域DAに表示オブジェクトを表示させる。表示オブジェクトには、カメラ61により撮像された使用者の手指の画像や、操作制御部151が生成する手指領域の全部又は一部の輪郭を示す輪郭画像が含まれる。本実施形態の操作制御部151は、カメラ61の撮像画像データから切り出した手指領域の画像を表示オブジェクトとして表示する。表示領域DAは、画像表示部20が画像を表示可能な領域である。具体的には図3に示すハーフミラー261、281が配置された領域である。ハーフミラー261、281は、OLEDパネル223から射出された画像光Lを反射して、右眼RE、左眼LEに入射させる部材である。このため、ハーフミラー261、281が配置された領域が表示領域DAに対応する。
操作制御部151は、予め設定されたトリガーとなる操作が検出された場合に、表示領域DAに表示オブジェクトを表示させるか否かを判定する。操作制御部151は、表示オブジェクトを表示させる必要があると判定する場合に、表示領域DAに表示オブジェクトを表示させる。表示オブジェクトには、カメラ61により撮像された使用者の手指の画像や、操作制御部151が生成する手指領域の全部又は一部の輪郭を示す輪郭画像が含まれる。本実施形態の操作制御部151は、カメラ61の撮像画像データから切り出した手指領域の画像を表示オブジェクトとして表示する。表示領域DAは、画像表示部20が画像を表示可能な領域である。具体的には図3に示すハーフミラー261、281が配置された領域である。ハーフミラー261、281は、OLEDパネル223から射出された画像光Lを反射して、右眼RE、左眼LEに入射させる部材である。このため、ハーフミラー261、281が配置された領域が表示領域DAに対応する。
本実施形態は、トリガーとなる操作として、使用者が、一方の手の手のひらを使用者の顔の方向に広げる操作である場合について説明する。すなわち、操作制御部151は、カメラ61の撮像画像データから、使用者の手の画像であって、手のひらを開いた状態の画像が検出された場合に、トリガーとなる操作が検出されたと判定する。
手の甲ではなく、手のひらが撮像された場合をトリガーとして設定したのは、画像表示部20を装着した使用者が、手を使って作業を行うと、カメラ61に使用者の手の甲が撮像される可能性が高いためである。すなわち、使用者の意図に反して表示オブジェクトが表示されるのを防止するためである。
この他に、操作部110の操作ボタン11が押下された場合や、使用者が頭部を上下(うなずき)又は左右(首振り)に動かした場合を予め設定されたトリガーとして設定することもできる。以下では、カメラ61に撮像され、操作制御部151に予め設定されたトリガーとなる操作として認識された手を「第1の手」という。第1の手は、使用者の左手であってもよいし、右手であってもよい。第1の手は、本発明の「指示体」に相当する。
手の甲ではなく、手のひらが撮像された場合をトリガーとして設定したのは、画像表示部20を装着した使用者が、手を使って作業を行うと、カメラ61に使用者の手の甲が撮像される可能性が高いためである。すなわち、使用者の意図に反して表示オブジェクトが表示されるのを防止するためである。
この他に、操作部110の操作ボタン11が押下された場合や、使用者が頭部を上下(うなずき)又は左右(首振り)に動かした場合を予め設定されたトリガーとして設定することもできる。以下では、カメラ61に撮像され、操作制御部151に予め設定されたトリガーとなる操作として認識された手を「第1の手」という。第1の手は、使用者の左手であってもよいし、右手であってもよい。第1の手は、本発明の「指示体」に相当する。
操作制御部151は、トリガーとなる操作が検出されると、例えば、右電子シェード227及び左電子シェード247が駆動しているか否かを判定して、表示オブジェクトを表示させるか否かを判定する。右電子シェード227及び左電子シェード247が駆動状態にある場合、画像表示部20を透過する外界光の透過率が低く抑えられ、使用者の眼に届く外界光の割合が低下する。このため、画像表示部20を装着した使用者は、外界を視認し難くなる。また、右電子シェード227及び左電子シェード247が駆動状態にある場合、画像表示部20により動画像や静止画像(動画像や静止画像をまとめて表示画像という)が表示されている可能性が高い。画像表示部20において外界光の透過率を低く抑えることで、画像表示部20が表示する表示画像の画像光の視認性が高くなる。画像表示部20により表示画像が表示された状態の場合、外界の視認性が低く抑えられ、使用者は自身の手が見えない場合がある。このため、操作制御部151は、表示領域DAに表示オブジェクトを表示させて、表示オブジェクトに対する使用者の操作を検出する。
また、操作制御部151は、画像表示部20により表示される画像の輝度が、外界光の輝度よりも低い場合や、外界に存在する物体と、画像表示部20が表示する画像との色の類似度が高い場合に、表示オブジェクトを表示させてもよい。外界光の輝度は、カメラ61により検出することができる。また、HMD100に光センサーを別途設けてもよい。
また、操作制御部151は、画像表示部20により表示される画像の輝度が、外界光の輝度よりも低い場合や、外界に存在する物体と、画像表示部20が表示する画像との色の類似度が高い場合に、表示オブジェクトを表示させてもよい。外界光の輝度は、カメラ61により検出することができる。また、HMD100に光センサーを別途設けてもよい。
また、操作制御部151は、表示領域DAに表示オブジェクトを表示させるか否かの判定を、駆動状態にある右電子シェード227及び左電子シェード247の透過率に基づいて設定してもよい。
例えば、操作制御部151は、右電子シェード227及び左電子シェード247の透過率が予め設定された透過率以下の場合、外界光の透過率が低く抑えられ、使用者は外界を視認し難い状態であると判定する。この場合、操作制御部151は、表示領域DAに表示オブジェクトを表示させる。
例えば、操作制御部151は、右電子シェード227及び左電子シェード247の透過率が予め設定された透過率以下の場合、外界光の透過率が低く抑えられ、使用者は外界を視認し難い状態であると判定する。この場合、操作制御部151は、表示領域DAに表示オブジェクトを表示させる。
また、操作制御部151は、画像表示部20により表示画像を表示させている場合に、表示領域DAに表示オブジェクトを表示させると判定してもよい。上述のように、画像表示部20が表示画像を表示した状態では、外界の視認性が低下する。このため、操作制御部151は、表示領域に表示画像が表示されている場合に、表示領域DAに表示オブジェクトを表示させると判定する。
また、操作制御部151は、表示領域DAに表示画像を表示している場合に、表示領域DAにおける表示画像の位置やサイズに基づいて、表示オブジェクトを表示させるか否かを判定してもよい。例えば、表示領域DAの4隅のいずれかに、表示画像を小さく表示させた場合、表示画像が表示された状態でも使用者は外界を視認することが可能である。このため、操作制御部151は、表示領域DAに表示させた表示画像のサイズが、予め設定れたサイズよりも小さい場合や、表示画像の表示位置が表示領域DAの中央を含む予め設定された領域よりも外側である場合には、表示オブジェクトを表示させない。これとは逆に、表示画像のサイズが、予め設定れたサイズ以上である場合や、表示領域DAの中央を含む予め設定された領域内に表示画像を表示させる場合には、表示オブジェクトを表示させる。
操作制御部151は、表示オブジェクトを表示させると判定した場合、検出制御部149から入力される検出情報に基づき、撮像画像データから第1の手の手指領域の画像データを切り出す。操作制御部151は、切り出した手指領域の画像データを手指画像305として画像表示部20により表示させる。手指画像305は、本発明の「表示オブジェクト」に相当する。
また、操作制御部151は、検出制御部149から入力される検出情報に基づいて、手指領域の輪郭を示す輪郭画像を生成し、生成した輪郭画像を画像表示部20により表示させてもよい。この輪郭画像は、手指領域の全体の輪郭を示す画像であってもよいし、手指領域の一部(例えば、指分だけや、手のひらだけ)の輪郭を示す画像であってもよい。
また、操作制御部151は、検出制御部149から入力される検出情報に基づいて、手指領域の輪郭を示す輪郭画像を生成し、生成した輪郭画像を画像表示部20により表示させてもよい。この輪郭画像は、手指領域の全体の輪郭を示す画像であってもよいし、手指領域の一部(例えば、指分だけや、手のひらだけ)の輪郭を示す画像であってもよい。
また、操作制御部151が表示させる表示オブジェクトとしての手指画像305は、画像表示部20が表示画像(例えば、動画像や静止画像)を表示している場合には、この表示画像に重ならないように表示領域DAに表示させてもよい。また、画像表示部20が表示する表示画像に一部又は全部が重なるように手指画像305を表示させる場合、手指画像305の明るさを、表示画像よりも明るくしてもよいし、表示画像が動画像である場合には、動画像の再生を停止させてもよい。
また、操作制御部151が手指画像305や輪郭画像を表示させる表示領域DAの位置は、撮像画像データに撮像された使用者の手指の位置に対応する位置である。
操作制御部151が予め実行するキャリブレーションにより、表示領域DA上の座標と、カメラ61の撮像画像上の座標とは対応付けがされている。例えば、操作制御部151は、画像表示部20により予め設定されたマーカーを、表示領域DAの予め設定された位置に表示する。使用者は、画像表示部20により表示されるマーカーを認識し、表示されたマーカーの位置に手の指先を合わせ、操作部110の操作ボタン11等を押下する。制御部150は、操作ボタン11の押下操作を受け付けると、カメラ61に撮像を実行させ、カメラ61の撮像画像データを取得する。検出制御部149は、取得した撮像画像データから手指領域を検出して、撮像画像データ上の指先の位置を特定する。操作制御部151は、検出制御部149により特定された指先の位置に基づいて、マーカーを表示させた表示領域DA上の座標と、特定した指先の位置を示す撮像画像データ上の座標とを対応付ける。また、操作制御部151は、前述の処理を、マーカーを表示させる位置を変更しながら複数回行い、撮像画像データ上の座標を、表示領域DA上の座標に変換する変換パラメーターを生成する。
操作制御部151が予め実行するキャリブレーションにより、表示領域DA上の座標と、カメラ61の撮像画像上の座標とは対応付けがされている。例えば、操作制御部151は、画像表示部20により予め設定されたマーカーを、表示領域DAの予め設定された位置に表示する。使用者は、画像表示部20により表示されるマーカーを認識し、表示されたマーカーの位置に手の指先を合わせ、操作部110の操作ボタン11等を押下する。制御部150は、操作ボタン11の押下操作を受け付けると、カメラ61に撮像を実行させ、カメラ61の撮像画像データを取得する。検出制御部149は、取得した撮像画像データから手指領域を検出して、撮像画像データ上の指先の位置を特定する。操作制御部151は、検出制御部149により特定された指先の位置に基づいて、マーカーを表示させた表示領域DA上の座標と、特定した指先の位置を示す撮像画像データ上の座標とを対応付ける。また、操作制御部151は、前述の処理を、マーカーを表示させる位置を変更しながら複数回行い、撮像画像データ上の座標を、表示領域DA上の座標に変換する変換パラメーターを生成する。
図6〜図12は、表示領域DAに表示される画像を示す図である。
図6〜図12には、撮像画像データから切り出した手指画像305を表示領域DAに表示した状態を示す。また、表示領域DAには表示画像も表示されるが、表示画像の図示は省略する。
操作制御部151は、表示領域DAに第1の手の手指画像305を表示させると、この手指画像305の指等に対応させて機能表示画像310を表示させる。機能表示画像310は、機能を特定する情報が表示された画像である。また、機能とは、制御部150がアプリケーションプログラムを実行することで実現される機能である。アプリケーションプログラムが、例えば、表示画像の表示プログラムである場合、機能には、一時停止、停止、再生、巻き戻し、早送り等が含まれる。機能表示画像310は、本発明の「処理を特定する画像」に相当する。
図6〜図12には、撮像画像データから切り出した手指画像305を表示領域DAに表示した状態を示す。また、表示領域DAには表示画像も表示されるが、表示画像の図示は省略する。
操作制御部151は、表示領域DAに第1の手の手指画像305を表示させると、この手指画像305の指等に対応させて機能表示画像310を表示させる。機能表示画像310は、機能を特定する情報が表示された画像である。また、機能とは、制御部150がアプリケーションプログラムを実行することで実現される機能である。アプリケーションプログラムが、例えば、表示画像の表示プログラムである場合、機能には、一時停止、停止、再生、巻き戻し、早送り等が含まれる。機能表示画像310は、本発明の「処理を特定する画像」に相当する。
図6〜図8は、第1の手の画像に機能表示画像310を対応付けて表示させた状態を示す。
機能表示画像310に表示される機能を特定する情報は、例えば、機能の名称(機能名)を表示した画像であってもよいし、機能に対応付けられた番号やアルファベット等の識別情報であってもよい。機能を特定する情報として番号等の識別情報を使用する場合、機能と識別情報との対応関係を示す画像(以下、対応表示画像という)301を別途表示させるとよい。
例えば、図6には、左手画像の親指の指先(部位)に機能名として機能Aの画像を表示し、人指し指の指先(部位)に機能名として機能Bの画像を表示し、中指の指先(部位)に機能名として機能Cの画像を表示した状態を示す。また、左手の画像の薬指の指先(部位)に機能名として機能Dの画像を表示し、小指の指先(部位)に機能名して機能Eの画像を表示した状態を示す。また、図7には、左手の画像の各指(部位)に、機能表示画像310としての識別番号の画像を対応させて表示させた状態を示す。また、図8には、左手の画像の手のひらであって、各指の付け根部分(部位)に機能表示画像310としてのアルファベットの画像を対応付けて表示させた状態を示す。機能表示画像310の表示位置は、図6〜図8に示すものに限定されるものではなく、使用者の手又は手の画像の上であればよい。また、手又は手の画像から離れた位置であっても、手の部位に対応付けられていることが認識可能であればよい。
機能表示画像310に表示される機能を特定する情報は、例えば、機能の名称(機能名)を表示した画像であってもよいし、機能に対応付けられた番号やアルファベット等の識別情報であってもよい。機能を特定する情報として番号等の識別情報を使用する場合、機能と識別情報との対応関係を示す画像(以下、対応表示画像という)301を別途表示させるとよい。
例えば、図6には、左手画像の親指の指先(部位)に機能名として機能Aの画像を表示し、人指し指の指先(部位)に機能名として機能Bの画像を表示し、中指の指先(部位)に機能名として機能Cの画像を表示した状態を示す。また、左手の画像の薬指の指先(部位)に機能名として機能Dの画像を表示し、小指の指先(部位)に機能名して機能Eの画像を表示した状態を示す。また、図7には、左手の画像の各指(部位)に、機能表示画像310としての識別番号の画像を対応させて表示させた状態を示す。また、図8には、左手の画像の手のひらであって、各指の付け根部分(部位)に機能表示画像310としてのアルファベットの画像を対応付けて表示させた状態を示す。機能表示画像310の表示位置は、図6〜図8に示すものに限定されるものではなく、使用者の手又は手の画像の上であればよい。また、手又は手の画像から離れた位置であっても、手の部位に対応付けられていることが認識可能であればよい。
また、操作制御部151は、表示領域DAに表示オブジェクトを表示させない場合、検出制御部149から入力される検出情報に基づいて、第1の手の各指の指先に対応する位置に機能表示画像310を表示させる。
本実施形態では、第1の手の指先に機能表示画像310を表示させる場合について説明するが、機能表示画像310を表示させる位置は、第1の手の画像を表示させた場合と同様に、指上であってもよいし、手のひらの上であってもよい。
本実施形態では、第1の手の指先に機能表示画像310を表示させる場合について説明するが、機能表示画像310を表示させる位置は、第1の手の画像を表示させた場合と同様に、指上であってもよいし、手のひらの上であってもよい。
図9は、機能の選択方法を示す図である。
使用者は、図6〜図8に示すように第1の手の手のひらを使用者に向けた状態で、図9に示すように他方の手(以下、第2の手という)の指を機能表示画像310の上に重ねる操作(以下、選択操作という)を行う。第2の手は、本発明の「副指示体」に相当する。図9には、1〜5の5つの識別番号をそれぞれに表示させた5つの機能表示画像310を第1の手の画像の各指の指先に表示させた状態を示す。使用者は、選択したい機能に対応付けられた識別番号の機能表示画像310の上に、第2の手である右手の指を重ねて選択操作を行う。本実施形態では、第1の手が左手であり、第2の手が右手である場合について説明するが、右手を第1の手とし、左手を第2の手としてもよい。また、使用者と手との距離に基づいて第1の手及び第2の手を設定してもよい。例えば、使用者(すなわち、画像表示部20のカメラ61)からの距離が遠いほうの手を第1の手とし、使用者からの距離が近いほうの手を第2の手としてもよい。画像表示部20のカメラ61との距離は、撮像画像データに撮像された手の大きさに基づいて判定することができる。また、HMD100の画像表示部20に距離センサーを設けて、この距離センサーにより使用者の左手と右手との距離をそれぞれ求めてもよい。また、カメラ61をステレオカメラとし、カメラ61の撮像する2枚の撮像画像データを用いて三角測量の原理により各手までの距離を検出してもよい。
操作制御部151は、第1の手の場合と同様に、撮像画像データから第2の手の手指領域の画像データを切り出す。操作制御部151は、切り出した手指領域の画像データを手指画像306として画像表示部20により表示させる。
使用者は、図6〜図8に示すように第1の手の手のひらを使用者に向けた状態で、図9に示すように他方の手(以下、第2の手という)の指を機能表示画像310の上に重ねる操作(以下、選択操作という)を行う。第2の手は、本発明の「副指示体」に相当する。図9には、1〜5の5つの識別番号をそれぞれに表示させた5つの機能表示画像310を第1の手の画像の各指の指先に表示させた状態を示す。使用者は、選択したい機能に対応付けられた識別番号の機能表示画像310の上に、第2の手である右手の指を重ねて選択操作を行う。本実施形態では、第1の手が左手であり、第2の手が右手である場合について説明するが、右手を第1の手とし、左手を第2の手としてもよい。また、使用者と手との距離に基づいて第1の手及び第2の手を設定してもよい。例えば、使用者(すなわち、画像表示部20のカメラ61)からの距離が遠いほうの手を第1の手とし、使用者からの距離が近いほうの手を第2の手としてもよい。画像表示部20のカメラ61との距離は、撮像画像データに撮像された手の大きさに基づいて判定することができる。また、HMD100の画像表示部20に距離センサーを設けて、この距離センサーにより使用者の左手と右手との距離をそれぞれ求めてもよい。また、カメラ61をステレオカメラとし、カメラ61の撮像する2枚の撮像画像データを用いて三角測量の原理により各手までの距離を検出してもよい。
操作制御部151は、第1の手の場合と同様に、撮像画像データから第2の手の手指領域の画像データを切り出す。操作制御部151は、切り出した手指領域の画像データを手指画像306として画像表示部20により表示させる。
操作制御部151は、第1の手の手指画像305及び機能表示画像310が表示領域DAに表示されると、検出制御部149に、カメラ61による撮像を指示する。検出制御部149は、操作制御部151から指示が入力されると、カメラ61に撮像を実行させる。そして、検出制御部149は、撮像された撮像画像データから手指領域の範囲や、各指の位置、手指の形状、手指領域が左手であるのか右手であるのか等を検出し、検出した情報を検出情報として操作制御部151に出力する。
操作制御部151は、検出制御部149から入力される検出情報に基づいて、使用者により選択された機能表示画像310を判定する。トリガーとなる操作として認識された第1の手の位置は固定である。このため、検出制御部149が検出する第1の手の位置も変動が検出されないか又は所定範囲内の変動しか検出されない。操作制御部151は、撮像画像データに撮像された第2の手の指先の位置に対応する表示領域DAの位置に、機能表示画像310が表示されているか否かを判定する。操作制御部151は、第2の手の指先を検出した撮像画像データの位置に対応する表示領域DAの位置に機能表示画像310が表示されていない場合、機能表示画像310は選択されていないと判定する。また、操作制御部151は、第2の手の指先を検出した撮像画像データの位置に対応する表示領域DAの位置に機能表示画像310が表示されている場合、この位置に表示された機能表示画像310に対応する機能が選択されたと判定する。
操作制御部151は、検出制御部149から入力される検出情報に基づいて、使用者により選択された機能表示画像310を判定する。トリガーとなる操作として認識された第1の手の位置は固定である。このため、検出制御部149が検出する第1の手の位置も変動が検出されないか又は所定範囲内の変動しか検出されない。操作制御部151は、撮像画像データに撮像された第2の手の指先の位置に対応する表示領域DAの位置に、機能表示画像310が表示されているか否かを判定する。操作制御部151は、第2の手の指先を検出した撮像画像データの位置に対応する表示領域DAの位置に機能表示画像310が表示されていない場合、機能表示画像310は選択されていないと判定する。また、操作制御部151は、第2の手の指先を検出した撮像画像データの位置に対応する表示領域DAの位置に機能表示画像310が表示されている場合、この位置に表示された機能表示画像310に対応する機能が選択されたと判定する。
操作制御部151は、機能表示画像310が選択されると、選択された機能表示画像310を点滅させる。また、操作制御部151は、選択された機能表示画像310の表示色を、他の機能表示画像310の表示色とは別の色に変更したり、選択された機能表示画像310の明るさを他の機能表示画像310の明るさとは異なる明るさに変更したりしてもよい。機能表示画像310を点滅させたり、表示色を変更したり、画像の明るさを変更することで、選択されたと判定した機能表示画像310を使用者に通知することができる。
使用者は、第2の手により選択した機能の機能表示画像310が点滅していない場合、再度、第2の手の指を機能表示画像310上に重ねる選択操作を行う。また、使用者は、選択した機能の機能表示画像310が点滅している場合、選択操作を確定させるため、第1の手の形状を予め設定された形状に変化させる。
使用者は、選択操作を確定させるため、第1の手である左手の形状を予め設定された形状に変更する。例えば、トリガーとなる操作では、開いた状態で認識された手のひらを閉じた状態(すなわち、グー)としたり、人指し指と中指の2本の指を立てた状態(いわゆる、チョキ)にしたりする。この手の形状は、予め設定された形状であって、使用者が任意に変更することができる。図10には、予め設定された形状として、手を閉じた状態を示す。
操作制御部151は、検出制御部149に、カメラ61による撮像を指示して、検出制御部149から入力される検出情報に基づき、第1の手の形状が予め設定された形状に変化したか否かを判定する。検出制御部149又は操作制御部151は、記憶部122の辞書データ125を参照して、第1の手の形状が予め設定された形状に変化したか否かを判定する。操作制御部151は、第1の手の形状が予め設定された形状に変化したと判定した場合、選択操作が確定したと判定し、点滅させた機能表示画像310に対応付けられた機能の実行を表示制御部147又は画像処理部145に指示する。
操作制御部151は、動作モードとして、操作モードと設定モードとを備える。
操作モードは、第1の手又は第1の手の画像の指先に対応する機能表示画像310を表示させ、第2の手による選択操作により選択された機能表示画像310が示す機能を実行するモードである。設定モードは、第1の手又は第1の手の画像の指先に対応付ける機能表示画像310を変更するモードである。
操作モードは、第1の手又は第1の手の画像の指先に対応する機能表示画像310を表示させ、第2の手による選択操作により選択された機能表示画像310が示す機能を実行するモードである。設定モードは、第1の手又は第1の手の画像の指先に対応付ける機能表示画像310を変更するモードである。
図11及び図12は、設定モードについて説明するための図である。
操作制御部151は、予め設定された操作が入力されると、第1の手又は第1の手の画像の指先に、各指に設定された機能を示す機能表示画像310を表示させる。また、操作制御部151は、表示領域DAに、制御部150が実行可能な機能であって、第1の手の指に対応付けられていない機能の一覧を表示した画像(以下、一覧表示画像という)302も表示させる。図11は、表示領域DAを示す図であって、第1の手又は第1の手の画像の指先に、対応付けられた機能表示画像310が表示された状態を示す図である。また、図11に示す表示領域DAには、対応表示画像301及び一覧表示画像302が表示される。
操作制御部151は、予め設定された操作が入力されると、第1の手又は第1の手の画像の指先に、各指に設定された機能を示す機能表示画像310を表示させる。また、操作制御部151は、表示領域DAに、制御部150が実行可能な機能であって、第1の手の指に対応付けられていない機能の一覧を表示した画像(以下、一覧表示画像という)302も表示させる。図11は、表示領域DAを示す図であって、第1の手又は第1の手の画像の指先に、対応付けられた機能表示画像310が表示された状態を示す図である。また、図11に示す表示領域DAには、対応表示画像301及び一覧表示画像302が表示される。
使用者は、トラックパッド14を第2の手により操作して、選択したい機能名が表示された位置にポインター303を移動させる。使用者は、選択したい機能名が表示された位置にポインター303を移動させると、トラックパッド14の操作面を、ポインター303を移動させたときとは異なる押圧力で強く押す。これによりポインター303の位置に表示された機能名が選択される。図12には、機能Kが選択された状態を示す。
次に、使用者は、トラックパッド14上で第2の手の指を移動させ、ポインター303を、対応付ける機能を変更する機能表示画像310の表示位置まで移動させる。このとき、図12に示すように、ポインター303の移動に伴って選択された機能名の画像も移動する(ドラッグ操作)。
使用者は、機能名を示す画像を、機能を変更したい機能表示画像310の表示位置まで移動させると、トラックパッド14から第2の手の指を離しドロップ操作を行う。このドロップ操作により、使用者により選択された機能表示画像310に対応付けられた機能が、使用者に選択された機能名の画像に対応する機能に変更される。図12に示す例では、「5」の番号を表示した機能表示画像310に対応付けられた機能が、機能Eから機能Kに変更された様子を示す。
使用者は、機能名を示す画像を、機能を変更したい機能表示画像310の表示位置まで移動させると、トラックパッド14から第2の手の指を離しドロップ操作を行う。このドロップ操作により、使用者により選択された機能表示画像310に対応付けられた機能が、使用者に選択された機能名の画像に対応する機能に変更される。図12に示す例では、「5」の番号を表示した機能表示画像310に対応付けられた機能が、機能Eから機能Kに変更された様子を示す。
図13は、制御部150の動作を示すフローチャートである。
制御部150は、カメラ61に撮像を実行させ、カメラ61によって撮像された撮像画像データを記憶部122から読み出す。制御部150は、読み出した撮像画像データに第1の手の画像が撮像されているか否かを判定し、トリガーとなる操作が入力されたか否かを判定する(ステップS1)。ここで検出される第1の手の画像は、手のひらが撮像された画像であって、左手の画像であっても右手の画像であってもよい。
制御部150は、カメラ61に撮像を実行させ、カメラ61によって撮像された撮像画像データを記憶部122から読み出す。制御部150は、読み出した撮像画像データに第1の手の画像が撮像されているか否かを判定し、トリガーとなる操作が入力されたか否かを判定する(ステップS1)。ここで検出される第1の手の画像は、手のひらが撮像された画像であって、左手の画像であっても右手の画像であってもよい。
制御部150は、撮像画像データから第1の手の画像が検出されなかった場合(ステップS1/NO)、第1の手の画像が検出されるまで待機する。また、制御部150は、第1の手の画像が検出された場合(ステップS1/YES)、右電子シェード227及び左電子シェード247が駆動状態にあるか否かを判定する(ステップS2)。
制御部150は、右電子シェード227及び左電子シェード247が駆動状態にはないと判定した場合(ステップS2/NO)、撮像画像データに基づいて第1の手の各指の位置を特定する。そして、制御部150は、特定した第1の手の各指の指先に、各指に対応付けられた機能表示画像310を表示させる(ステップS4)。
また、制御部150は、右電子シェード227及び左電子シェード247が駆動状態にあると判定した場合(ステップS2/YES)、撮像画像データから第1の手の手指領域が撮像された画像である手指画像305を切り出す。制御部150は、切り出した手指画像305を表示オブジェクトとして表示領域DAに表示させる(ステップS3)。そして、制御部150は、手指画像305の各指の指先に、各指に対応付けられた機能表示画像310を表示させる(ステップS4)。
また、制御部150は、右電子シェード227及び左電子シェード247が駆動状態にあると判定した場合(ステップS2/YES)、撮像画像データから第1の手の手指領域が撮像された画像である手指画像305を切り出す。制御部150は、切り出した手指画像305を表示オブジェクトとして表示領域DAに表示させる(ステップS3)。そして、制御部150は、手指画像305の各指の指先に、各指に対応付けられた機能表示画像310を表示させる(ステップS4)。
次に、制御部150は、カメラ61に撮像を実行させ、カメラ61の撮像画像データに第2の手の画像が撮像されているか否かを判定する(ステップS5)。制御部150は、第2の手の画像が撮像されていないと判定する場合(ステップS5/NO)、機能表示画像310を表示領域DAに表示させてから予め設定された時間を経過したか否かを判定する(ステップS10)。制御部150は、予め設定された時間を経過していない場合(ステップS10/NO)、ステップS5の判定に戻り、撮像画像データに第2の手の画像が撮像されたか否かを判定する。
また、制御部150は、予め設定された時間を経過したと判定した場合(ステップS10/YES)、表示領域DAに表示させた機能表示画像310の表示を消去して(ステップS11)、ステップS1の判定に戻る。
また、制御部150は、予め設定された時間を経過したと判定した場合(ステップS10/YES)、表示領域DAに表示させた機能表示画像310の表示を消去して(ステップS11)、ステップS1の判定に戻る。
また、制御部150は、撮像画像データに第2の手の画像が撮像されている場合(ステップS5/YES)、撮像画像データに撮像された第2の手の指先に対応する表示領域DAの表示位置に表示した機能を判定する(ステップS6)。次に、制御部150は、カメラ61に撮像を実行させ、カメラ61の撮像画像データから、第1の手の画像であって、予め設定された形状の画像が検出されたか否かを判定する(ステップS7)。例えば、制御部150は、閉じられた状態の第1の手が撮像されたか否かを判定する。制御部150は、撮像画像データに、予め設定された形状の第1の手の画像が撮像されていないと判定した場合(ステップS7/NO)、予め設定された時間を経過したか否かを判定する(ステップS9)。制御部150は、予め設定された時間を経過していない場合(ステップS9/NO)、ステップS7の判定に戻り、予め設定された形状の画像が撮像されたか否かを判定する(ステップS7)。また、制御部150は、予め設定された時間が経過したと判定した場合(ステップS9/YES)、表示領域DAに表示させた機能表示画像310の表示を消去して、ステップS1の判定に戻る。
また、制御部150は、撮像画像データから、予め設定された形状の第1の手の画像が検出された場合(ステップS7/YES)、ステップS6で判定された機能表示画像310に対応付けられた機能が選択されたと判定する。制御部150は、この選択された機能を実行するように表示制御部147又は画像処理部145に通知する(ステップS8)。
図14は、機能変更操作の手順を示すフローチャートである。
まず、制御部150は、予め設定された操作を受け付けたか否かを判定する(ステップS21)。この操作は、操作部110の操作ボタン11に対する操作であってもよいし、使用者が頭部を上下(うなずき)又は左右(首振り)に動かす操作であってもよい。
制御部150は、予め設定された操作が受け付けていない場合(ステップS21/NO)、予め設定された操作を受け付けるまで待機する。また、制御部150は、予め設定された操作を受け付けた場合(ステップS21/YES)、右電子シェード227及び左電子シェード247が駆動状態にあるか否かを判定する(ステップS22)。
まず、制御部150は、予め設定された操作を受け付けたか否かを判定する(ステップS21)。この操作は、操作部110の操作ボタン11に対する操作であってもよいし、使用者が頭部を上下(うなずき)又は左右(首振り)に動かす操作であってもよい。
制御部150は、予め設定された操作が受け付けていない場合(ステップS21/NO)、予め設定された操作を受け付けるまで待機する。また、制御部150は、予め設定された操作を受け付けた場合(ステップS21/YES)、右電子シェード227及び左電子シェード247が駆動状態にあるか否かを判定する(ステップS22)。
制御部150は、右電子シェード227及び左電子シェード247が駆動状態にはない場合(ステップS22/NO)、撮像画像データに撮像された第1の手の各指の位置を特定する。そして、制御部150は、特定した第1の手の各指の指先に、各指に対応付けられた機能表示画像310を表示させ、また、実行可能な機能の一覧を表示した一覧表示画像を表示させる(ステップS24)。
また、制御部150は、右電子シェード227及び左電子シェード247が駆動状態にあると判定した場合(ステップS22/YES)、第1の手の手指領域の画像である手指画像305を撮像画像データから切り出す。制御部150は、切り出した手指画像305を表示オブジェクトとして表示領域DAに表示させる。また、制御部150は、手指画像305の各指の指先に、各指に対応付けられた機能表示画像310を表示させると共に、制御部150が実行可能な機能の一覧を表示した一覧表示画像302を表示させる(ステップS24)。
また、制御部150は、右電子シェード227及び左電子シェード247が駆動状態にあると判定した場合(ステップS22/YES)、第1の手の手指領域の画像である手指画像305を撮像画像データから切り出す。制御部150は、切り出した手指画像305を表示オブジェクトとして表示領域DAに表示させる。また、制御部150は、手指画像305の各指の指先に、各指に対応付けられた機能表示画像310を表示させると共に、制御部150が実行可能な機能の一覧を表示した一覧表示画像302を表示させる(ステップS24)。
次に、制御部150は、トラックパッド14に対するドラッグ操作が検出されたか否かを判定する(ステップS25)。ドラッグ操作が検出されない場合(ステップS25/NO)、制御部150は、ドラッグ操作が検出されるまで待機する。また、制御部150は、ドラッグ操作が検出された場合(ステップS25/YES)、このドラッグ操作により選択された機能名を示す画像の表示位置を、ドラッグ操作の操作位置に対応する位置に変更する(ステップS26)。
次に、制御部150は、ドロップ操作が検出されたか否かを判定する(ステップS27)。制御部150は、ドロップ操作を検出していない場合(ステップS27/NO)、ステップS26の処理に戻り、機能名を示す画像の表示位置を、ドラッグ操作の操作位置に対応する位置に変更する。
また、制御部150は、ドロップ操作を検出した場合(ステップS27/YES)、ドロップされた位置に表示された機能表示画像310に対応付けられた機能を判定する。そして、制御部150は、機能表示画像310に対応付けられた機能を、ドラッグ操作で選択された機能名の機能に変更する(ステップS28)。次に、制御部150は、終了操作として設定された操作を受け付けたか否かを判定する(ステップS29)。例えば、操作部110の操作ボタン11を押下する押下操作が終了操作として設定されている場合、制御部150は、この操作ボタン11の押下操作が検出されたか否かを判定する。制御部150は、操作ボタン11の押下操作が検出された場合(ステップS29/YES)、この処理フローを終了させる。また、制御部150は、操作ボタン11の押下操作が検出されなかった場合(ステップS29/NO)、ステップS25に戻り、ドラッグ操作の検出を再開する。
また、制御部150は、ドロップ操作を検出した場合(ステップS27/YES)、ドロップされた位置に表示された機能表示画像310に対応付けられた機能を判定する。そして、制御部150は、機能表示画像310に対応付けられた機能を、ドラッグ操作で選択された機能名の機能に変更する(ステップS28)。次に、制御部150は、終了操作として設定された操作を受け付けたか否かを判定する(ステップS29)。例えば、操作部110の操作ボタン11を押下する押下操作が終了操作として設定されている場合、制御部150は、この操作ボタン11の押下操作が検出されたか否かを判定する。制御部150は、操作ボタン11の押下操作が検出された場合(ステップS29/YES)、この処理フローを終了させる。また、制御部150は、操作ボタン11の押下操作が検出されなかった場合(ステップS29/NO)、ステップS25に戻り、ドラッグ操作の検出を再開する。
以上説明したように本実施形態は、画像表示部20と、カメラ61と、検出操作制御部151149と、選択操作制御部151151とを備える。画像表示部20は、使用者の頭部に装着され、使用者が外景を視認可能に画像を表示する。検出操作制御部151149は、カメラ61の撮像画像に基づき手による操作を検出する。選択操作制御部151151は、検出操作制御部151149が検出する操作に基づいて画像表示部20の画像を制御する。また、選択操作制御部151151は、カメラ61の撮像画像から手が検出された場合に、画像表示部20により、手の位置及び形状の少なくともいずれかを示す手の画像を表示させる。
従って、画像表示部20が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に手の位置又は形状を認識させることができる。
従って、画像表示部20が画像を表示している場合であっても、この画像の視認性を維持したまま、使用者に手の位置又は形状を認識させることができる。
また、画像表示部20は、使用者が視認する外景に重ねて画像を表示し、カメラ61は、使用者が視認する外景の少なくとも一部を含む範囲を撮像する。操作制御部151は、手の画像を、使用者が外景において手を視認する位置に対応する位置に表示させる。
従って、表示された手の画像により使用者に手の位置を認識させることができる。
従って、表示された手の画像により使用者に手の位置を認識させることができる。
また、本発明は、画像表示部20は、外光を透過可能に構成され、画像表示部20を透過する外光の透過率を調整する右電子シェード227及び左電子シェード247を備える。操作制御部151は、右電子シェード227及び左電子シェード247による外光の透過率に基づき、手の画像の表示と非表示とを切り替える。
従って、右電子シェード227及び左電子シェード247によって外光の透過率が低く抑えられ、外界の視認性が低下している場合には、手の画像を表示させることで、使用者に手の状態を認識させることができる。
従って、右電子シェード227及び左電子シェード247によって外光の透過率が低く抑えられ、外界の視認性が低下している場合には、手の画像を表示させることで、使用者に手の状態を認識させることができる。
また、操作制御部151は、画像表示部20が表示する画像のサイズに基づき、手の画像の表示と非表示とを切り替える。
従って、画像表示部20が表示する画像のサイズが大きく、外界の視認性が低下すると判定される場合に、手の画像を表示させることができる。
従って、画像表示部20が表示する画像のサイズが大きく、外界の視認性が低下すると判定される場合に、手の画像を表示させることができる。
また、検出制御部149は、カメラ61の撮像画像に基づき、左手と、右手とを組み合わせた操作を検出する。従って、左手と、右手とを組み合わせた操作により画像表示部20の画像を制御することができる。
また、操作制御部151は、手の部位、又は手の画像の部位に対応させて、操作制御部151が実行可能な処理を特定する機能表示画像310を表示させる。
操作制御部151は、検出制御部149により検出される第1の手(左手)又は第1の手(左手)の画像に対する第2の手(右手)手の指示位置に基づいて選択された部位を判定し、判定した部位に対応付けられた処理を実行する。
従って、第1の手又は第1の手の画像に対する第2の手の指示位置を変更することで、第1の手又は第1の手の画像の部位に対応付けられた機能表示画像310を選択することができる。また、HMD100に、選択した機能表示画像310に対応する処理を実行させることができる。
操作制御部151は、検出制御部149により検出される第1の手(左手)又は第1の手(左手)の画像に対する第2の手(右手)手の指示位置に基づいて選択された部位を判定し、判定した部位に対応付けられた処理を実行する。
従って、第1の手又は第1の手の画像に対する第2の手の指示位置を変更することで、第1の手又は第1の手の画像の部位に対応付けられた機能表示画像310を選択することができる。また、HMD100に、選択した機能表示画像310に対応する処理を実行させることができる。
また、操作制御部151は、手、若しくは手の画像に機能表示画像310を重畳して表示させる、又は手若しくは手の画像の周囲に機能表示画像310を表示させる。
従って、左手と右手を組み合わせた操作による機能表示画像310の選択を容易に行うことができる。
従って、左手と右手を組み合わせた操作による機能表示画像310の選択を容易に行うことができる。
また、手の画像は、カメラ61により撮像される使用者の手の画像、又は手の輪郭の一部又は全部を示す画像である。
従って、画像表示部20の表示する画像によって使用者の手が見えない場合であっても、使用者に手の画像又は手の輪郭を認識させ、使用者が手を使った操作を実行可能とすることができる。
従って、画像表示部20の表示する画像によって使用者の手が見えない場合であっても、使用者に手の画像又は手の輪郭を認識させ、使用者が手を使った操作を実行可能とすることができる。
また、本発明は、操作制御部151は、検出制御部149が検出する操作により選択された手又は手の画像の部位に対応する機能を実行する操作モードと、手又は手の画像の部位に対応させる機能を設定する設定モードとを切り替えて実行する。
従って、設定モードにより手又は手の画像の部位に対応させる機能を変更することができる。また、操作モードにより、手又は手の画像の部位に対応する処理をHMD100に実行させることができる。
従って、設定モードにより手又は手の画像の部位に対応させる機能を変更することができる。また、操作モードにより、手又は手の画像の部位に対応する処理をHMD100に実行させることができる。
上述した実施形態は、本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上述した実施形態は、指示体として使用者の手を使用する場合について説明したが、指示体は使用者の手に限定されるものではない。例えば、指示体として使用者の腕に装着された時計やバンド等を用いてもよい。
また、表示オブジェクトとして用いた第1の手の画像に変えて、事前に登録され、記憶部122に記憶された使用者の顔写真や全身写真を用いてもよい。
例えば、上述した実施形態は、指示体として使用者の手を使用する場合について説明したが、指示体は使用者の手に限定されるものではない。例えば、指示体として使用者の腕に装着された時計やバンド等を用いてもよい。
また、表示オブジェクトとして用いた第1の手の画像に変えて、事前に登録され、記憶部122に記憶された使用者の顔写真や全身写真を用いてもよい。
また、上述した実施形態は、カメラ61の撮像画像により使用者の手の位置や形状を判定した。この他の例として、使用者の手や腕に加速度センサーやジャイロセンサー等のセンサーを備えたウェアラブル端末を装着させ、このウェアラブル端末が検出する加速度や角速度をHMD100に送信させる。HMD100は、ウェアラブル端末から受信した加速度や角速度の情報に基づいて使用者の手の位置を検出し、表示オブジェクトの表示位置を変更してもよい。また、HMD100に搭載されたカメラ61の撮像画像と、ウェアラブル端末から受信した加速度や角速度の情報に基づいて使用者の手の位置を検出する構成であってもよい。
また、ひずみセンサー等のセンサーを搭載し、このセンサーを利用して手指の動きをモニタリングするグローブを用いて、使用者の手指の形状を認識する構成であってもよい。
また、ひずみセンサー等のセンサーを搭載し、このセンサーを利用して手指の動きをモニタリングするグローブを用いて、使用者の手指の形状を認識する構成であってもよい。
また、上述の実施形態では、使用者の両手を使用して機能を選択する場合について説明した。これ以外に、使用者の左手又は右手の一方の手だけを使用して、処理を実行可能に構成してもよい。例えば、手のひらの指の根元に、各指に対応して機能表示画像310を表示させる。使用者は、選択したい機能の機能表示画像310が対応付けられた指を折り曲げる等によって動かす。制御部150は、この指の動きをカメラ61の撮像画像データにより検出して、選択された指を判定する。そして、制御部150は、選択されたと判定した指の色を変更したり、表示位置を変更したりする。使用者は、HMD100が選択されたと判定された指が正しい場合に、開いた状態の手を閉じ(グーの形にする)動作を行って、選択操作を確定させる。
また、上述した実施形態では、表示オブジェクトとして、指示体の形状を示す手指画像305、306を表示させる場合について説明したが、ポインター等によって指示体の位置を表示させてもよい。例えば、カメラ61の撮像画像データから指示体が検出されると、撮像画像データ上の指示体の検出位置に対応する表示領域DAの位置に、ポインターを表示させる。また、撮像画像データ上の指示体の検出位置を示す画像を補助画像として表示させてもよい。
また、第1の手として設定した手と、第2の手として設定した手を途中で入れ替えることも可能である。
例えば、制御部150は、カメラ61の撮像画像データにより右手が左手よりもカメラ61に近い(左手が右手よりも離れている)と判定する場合に、左手を第1の手に設定し、右手を第2の手に設定する。制御部150は、第1の手として設定した左手の手指画像305の指に対応させて機能表示画像310を表示させる。
また、制御150は、カメラ61により順次撮像される撮像画像データにより、使用者の左手と右手のまた、画像表示部20は、一定間隔で判定する。制御150は、左手が右手よりもカメラ61に近い(右手が左手よりも離れている)と判定する場合に、第1の手と第2の手の設定を変更して、右手を第1の手に設定し、左手を第2の手に設定する。そして、制御部150は、左手の手指画像305の指に対応させて表示させていた機能表示画像310を、右手の手指画像305の指に対応させて機能表示画像310を表示させる。
例えば、制御部150は、カメラ61の撮像画像データにより右手が左手よりもカメラ61に近い(左手が右手よりも離れている)と判定する場合に、左手を第1の手に設定し、右手を第2の手に設定する。制御部150は、第1の手として設定した左手の手指画像305の指に対応させて機能表示画像310を表示させる。
また、制御150は、カメラ61により順次撮像される撮像画像データにより、使用者の左手と右手のまた、画像表示部20は、一定間隔で判定する。制御150は、左手が右手よりもカメラ61に近い(右手が左手よりも離れている)と判定する場合に、第1の手と第2の手の設定を変更して、右手を第1の手に設定し、左手を第2の手に設定する。そして、制御部150は、左手の手指画像305の指に対応させて表示させていた機能表示画像310を、右手の手指画像305の指に対応させて機能表示画像310を表示させる。
また、上述した実施形態では、使用者の左右の手を指示体及び副指示体として用いた場合について説明したが、指示体は、使用者の手に限らない。例えば、指示体として、先端が複数に分岐した棒状の物体を使用してもよい。この場合、指示体として使用する物体の形状や色を指示体の情報として記憶部122に登録しておくとよい。
また、手指画像305、306や機能表示画像310の色として、外界に存在する物体であって、手指画像305、306や機能表示画像310に重なる物体の色の補色を表示させてもよい。
例えば、制御部150は、表示領域DAに手指画像305、306や機能表示画像310を表示させる場合に、カメラ61の撮像画像データに基づき、手指画像305、306や機能表示画像310に重なる領域の色(複数色が含まれる場合には、最も面積が大きい色)を判定する。制御部150は、判定した色の補色に手指画像305、306や機能表示画像310を加工して、表示領域DAに表示させる。
例えば、制御部150は、表示領域DAに手指画像305、306や機能表示画像310を表示させる場合に、カメラ61の撮像画像データに基づき、手指画像305、306や機能表示画像310に重なる領域の色(複数色が含まれる場合には、最も面積が大きい色)を判定する。制御部150は、判定した色の補色に手指画像305、306や機能表示画像310を加工して、表示領域DAに表示させる。
また、制御部150は、表示領域DAに手指画像305、306や機能表示画像310を表示させる場合に、手指画像305、306や機能表示画像310にこれらの輪郭線を付与して表示させてもよい。例えば、手指画像305、306や機能表示画像310に付与する輪郭線の幅の設定として事前に2種類を用意する。制御部150は、右電子シェード227及び左電子シェード247の透過率を、予め設定されたしきい値よりも高い値に設定した場合には、幅の細い輪郭線を手指画像305、306や機能表示画像310に付与する。また、制御部150は、右電子シェード227及び左電子シェード247の透過率を、予め設定されたしきい値よりも低い場合には、幅の太い輪郭線を手指画像305、306や機能表示画像310に付与する。
また、表示オブジェクトとして表示する手指画像305、306の色や輪郭線の幅を、指示体である第1の手と、副指示体である第2の手とで変更してもよい。第1の手の手指画像305の輪郭線の幅は太く表示し、第2の手の手指画像306の輪郭線の幅は細く表示してもよい。
また、本実施形態は、右電子シェード227及び左電子シェード247として、供給電圧なしの状態では外光の透過率が100%となり、供給電圧が最大の状態では外光の透過率が0%(遮断)されるノーマリーブラックの液晶を用いる場合を説明した。電子シェード227及び左電子シェード247に用いる液晶として、供給電圧なしの状態では外光の透過率が0%となり、供給電圧が最大の状態では外光の透過率が100%となるノーマリーホワイトの液晶を用いてもよい。
また、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、本発明は、AR表示や、MR(Mixed Reality)表示、VR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。AR表示は、実空間に重ねて画像を表示する表示であり、撮像した実空間の画像と仮想画像とを組み合わせて表示する表示であり、VR表示は、仮想画像を表示する表示である。例えば、外部から入力される映像データ又はアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121又は制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
10…制御装置、12…LEDインジケーター、19…バイブレーター、20…画像表示部(表示部)、22…右表示ユニット、24…左表示ユニット、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…カメラ、63…マイク、65…照度センサー、100…HMD(頭部装着型表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、125…辞書データ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…OS、145…画像処理部、147…表示制御部、149…検出制御部(操作検出部)、150…制御部、151…選択制御部(制御部)、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、211…インターフェイス、213…受信部、215…EEPROM、、221…OLEDユニット、227…右電子シェード(透過率調整部)、228…シェード駆動部、229…液晶パネル、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、241…OLEDユニット、247…左電子シェード(透過率調整部)、248…シェード駆動部、249…液晶パネル、301…対応表示画像、302…一覧表示画像、303…ポインター、305、306…手指画像、310…機能表示画像。
Claims (11)
- 使用者の頭部に装着され、前記使用者が外景を視認可能に画像を表示する表示部と、
撮像部と、
前記撮像部の撮像画像に基づき指示体による操作を検出する操作検出部と、
前記操作検出部が検出する操作に基づいて前記表示部の画像を制御する制御部と、を備え、
前記制御部は、前記操作検出部によって前記撮像部の撮像画像から前記指示体が検出された場合に、前記表示部により、前記指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトを表示させる頭部装着型表示装置。 - 前記表示部は、前記使用者が視認する外景に重ねて前記画像を表示し、
前記撮像部は、前記使用者が視認する外景の少なくとも一部を含む範囲を撮像し、
前記制御部は、前記表示オブジェクトを、前記使用者が外景において前記指示体を視認する位置に対応する位置に表示させる請求項1記載の頭部装着型表示装置。 - 前記表示部は、外光を透過可能に構成され、
前記表示部を透過する外光の透過率を調整する透過率調整部を備え、
前記制御部は、前記透過率調整部による外光の透過率に基づき、前記表示オブジェクトの表示と非表示とを切り替える請求項1又は2記載の頭部装着型表示装置。 - 前記制御部は、前記表示部が表示する前記画像のサイズに基づき、前記表示オブジェクトの表示と非表示とを切り替える請求項1から3のいずれか1項に記載の頭部装着型表示装置。
- 前記操作検出部は、前記撮像部の撮像画像に基づき、前記指示体と、前記指示体とは異なる副指示体とを組み合わせた操作を検出する請求項1から4のいずれか1項に記載の頭部装着型表示装置。
- 前記制御部は、前記指示体の部位、又は前記指示体の形状を示す前記表示オブジェクトの部位に対応させて、前記制御部が実行可能な処理を特定する画像を表示させ、
前記操作検出部により検出される前記指示体又は前記表示オブジェクトに対する前記副指示体の指示位置に基づいて選択された部位を判定し、判定した前記部位に対応付けられた処理を実行する請求項5記載の頭部装着型表示装置。 - 前記制御部は、前記指示体、若しくは前記指示体の形状を示す前記表示オブジェクトに処理を特定する前記画像を重畳して表示させる、又は前記指示体若しくは前記表示オブジェクトの周囲に処理を特定する前記画像を表示させる請求項6記載の頭部装着型表示装置。
- 前記表示オブジェクトは、前記撮像部により撮像される前記使用者の手の画像、又は前記手の輪郭の一部又は全部を示す画像である請求項1から7のいずれか1項に記載の頭部装着型表示装置。
- 前記制御部は、前記操作検出部が検出する操作により選択された前記指示体又は前記表示オブジェクトの部位に対応付けられた処理を実行する操作モードと、前記指示体又は前記表示オブジェクトの部位に対応させる処理を設定する設定モードとを切り替えて実行する請求項6記載の頭部装着型表示装置。
- 使用者の頭部に装着され、前記使用者が外景を視認可能に画像を表示する表示部と、撮像部と、前記表示部に表示させる画像を制御する制御部と、を備える頭部装着型表示装置に搭載されるコンピューターに実行させるプログラムであって、
前記コンピューターに、
前記撮像部の撮像画像に基づき指示体を検出する手順と、
前記撮像画像から前記指示体が検出された場合に、前記表示部により、前記指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトを表示させる手順と、
を実行させるためのプログラム。 - 使用者の頭部に装着され、前記使用者が外景を視認可能に画像を表示する表示部と、撮像部と、前記表示部に表示させる画像を制御する制御部と、を備える頭部装着型表示装置の制御方法であって、
前記撮像部の撮像画像に基づき指示体を検出するステップと、
前記撮像画像から前記指示体が検出された場合に、前記表示部により、前記指示体の位置及び形状の少なくともいずれかを示す表示オブジェクトを表示させるステップと、
を有することを特徴とする頭部装着型表示装置の制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017035981A JP2018142168A (ja) | 2017-02-28 | 2017-02-28 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US15/899,395 US10948974B2 (en) | 2017-02-28 | 2018-02-20 | Head-mounted display device, program, and method for controlling head-mounted display device |
CN201810161151.3A CN108508603B (zh) | 2017-02-28 | 2018-02-27 | 头部佩戴型显示装置及其控制方法、以及记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017035981A JP2018142168A (ja) | 2017-02-28 | 2017-02-28 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018142168A true JP2018142168A (ja) | 2018-09-13 |
Family
ID=63246266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017035981A Pending JP2018142168A (ja) | 2017-02-28 | 2017-02-28 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10948974B2 (ja) |
JP (1) | JP2018142168A (ja) |
CN (1) | CN108508603B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112506335A (zh) * | 2019-09-16 | 2021-03-16 | Oppo广东移动通信有限公司 | 头戴式设备及其控制方法、装置、系统和存储介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190066385A1 (en) * | 2017-08-31 | 2019-02-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium |
US11596301B2 (en) * | 2017-09-29 | 2023-03-07 | Motognosis Ug | Device for the determination and analysis of the motor skill and the oculomotor skill of a person |
JP2020014057A (ja) * | 2018-07-13 | 2020-01-23 | オリンパス株式会社 | 頭部搭載型表示装置、検査支援表示システム、表示方法及び表示プログラム |
KR20190106851A (ko) * | 2019-08-27 | 2019-09-18 | 엘지전자 주식회사 | Xr 컨텐츠 제공 방법 및 xr 컨텐츠 제공 디바이스 |
JP2021057737A (ja) * | 2019-09-30 | 2021-04-08 | セイコーエプソン株式会社 | 表示システム、表示制御方法、および、プログラム |
CN111007942A (zh) * | 2019-12-25 | 2020-04-14 | 歌尔股份有限公司 | 一种可穿戴设备及其输入方法 |
JP2021105782A (ja) * | 2019-12-26 | 2021-07-26 | セイコーエプソン株式会社 | 表示システム、表示方法、及び、プログラム |
JP2021119431A (ja) * | 2020-01-30 | 2021-08-12 | セイコーエプソン株式会社 | 表示システム、コントローラー、表示システムの制御方法およびプログラム |
US11914789B2 (en) * | 2022-01-20 | 2024-02-27 | Htc Corporation | Method for inputting letters, host, and computer readable storage medium |
CN116309442B (zh) * | 2023-03-13 | 2023-10-24 | 北京百度网讯科技有限公司 | 挑拣信息的确定方法及目标对象的挑拣方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001312356A (ja) | 2000-04-28 | 2001-11-09 | Tomohiro Kuroda | 身体を利用する画像入力インタフェースを備えた一体型装着型計算機 |
JP2004157310A (ja) * | 2002-11-06 | 2004-06-03 | Seiko Epson Corp | 触覚出力装置 |
JP2006155244A (ja) | 2004-11-29 | 2006-06-15 | Olympus Corp | 情報表示装置 |
WO2011106797A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US8941559B2 (en) * | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
TWI454966B (zh) * | 2012-04-24 | 2014-10-01 | Wistron Corp | 手勢控制方法及手勢控制裝置 |
US10133342B2 (en) * | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
US9477315B2 (en) * | 2013-03-13 | 2016-10-25 | Honda Motor Co., Ltd. | Information query by pointing |
US9335547B2 (en) * | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
US10137361B2 (en) * | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
JP6206099B2 (ja) | 2013-11-05 | 2017-10-04 | セイコーエプソン株式会社 | 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置 |
US10013083B2 (en) * | 2014-04-28 | 2018-07-03 | Qualcomm Incorporated | Utilizing real world objects for user input |
US9766715B2 (en) * | 2014-05-01 | 2017-09-19 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
CN104217197B (zh) * | 2014-08-27 | 2018-04-13 | 华南理工大学 | 一种基于视觉手势的点读方法和装置 |
JP2016177658A (ja) | 2015-03-20 | 2016-10-06 | カシオ計算機株式会社 | 仮想入力装置、入力方法、およびプログラム |
-
2017
- 2017-02-28 JP JP2017035981A patent/JP2018142168A/ja active Pending
-
2018
- 2018-02-20 US US15/899,395 patent/US10948974B2/en active Active
- 2018-02-27 CN CN201810161151.3A patent/CN108508603B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112506335A (zh) * | 2019-09-16 | 2021-03-16 | Oppo广东移动通信有限公司 | 头戴式设备及其控制方法、装置、系统和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US10948974B2 (en) | 2021-03-16 |
CN108508603B (zh) | 2022-08-23 |
CN108508603A (zh) | 2018-09-07 |
US20180246563A1 (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108508603B (zh) | 头部佩戴型显示装置及其控制方法、以及记录介质 | |
US10643390B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
JP7087481B2 (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
US10474226B2 (en) | Head-mounted display device, computer program, and control method for head-mounted display device | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
JP2018101019A (ja) | 表示装置及び表示装置の制御方法 | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US10567730B2 (en) | Display device and control method therefor | |
US10296104B2 (en) | Display device, method of controlling display device, and program | |
JP2018124651A (ja) | 表示システム | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP6776578B2 (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2017116562A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
US10884498B2 (en) | Display device and method for controlling display device | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US20170285765A1 (en) | Input apparatus, input method, and computer program | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2019053644A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2017182460A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2017134630A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6790769B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2017182413A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |