JP2018124721A - 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 - Google Patents

頭部装着型表示装置、及び頭部装着型表示装置の制御方法 Download PDF

Info

Publication number
JP2018124721A
JP2018124721A JP2017015488A JP2017015488A JP2018124721A JP 2018124721 A JP2018124721 A JP 2018124721A JP 2017015488 A JP2017015488 A JP 2017015488A JP 2017015488 A JP2017015488 A JP 2017015488A JP 2018124721 A JP2018124721 A JP 2018124721A
Authority
JP
Japan
Prior art keywords
display
mode
control unit
unit
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017015488A
Other languages
English (en)
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017015488A priority Critical patent/JP2018124721A/ja
Priority to US15/875,654 priority patent/US10261327B2/en
Publication of JP2018124721A publication Critical patent/JP2018124721A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】頭部装着型表示装置において、操作面を用いた接触操作の操作性を向上させる。
【解決手段】操作部115により予め設定された態様の操作が検出された場合にシングルタッチモードとマルチタッチモードとを切り替える制御部150を備え、制御部150は、マルチタッチモードにおいて、操作面14aに対する操作に対応して疑似ポインター330を画像表示部20の表示領域VRの外部に対応する位置に移動させる場合に、疑似ポインター330の表示態様を変更する頭部装着型表示装置100。
【選択図】図5

Description

本発明は、頭部装着型表示装置、及び頭部装着型表示装置の制御方法に関する。
従来、操作面と、この操作面に対する接触操作の操作位置を検出する検出部とを備え、検出部の検出する操作位置に対応した処理を行う装置が知られている。この装置においては、より複雑な操作の入力が可能なことから、マルチタッチ操作の検出が可能になってきている。マルチタッチ操作とは、複数本の指を操作面に接触させながら行う操作である。
しかしながら、マルチタッチ操作は、複数本の指を操作面に接触させるため、操作面を手に持ちながら操作を行う場合、片手では操作を行うことができなかった。そこで、指1本の操作によりマルチタッチが可能な装置も提案されている(例えば、特許文献1参照)。
特許文献1の装置は、マルチタッチ用の入力データとして、ユーザーにより接触された位置と、この位置と対称となる位置を示す疑似位置の位置情報とを出力する。
特開2011−34451号公報
しかしながら、使用者の頭部に装着して使用される頭部装着型表示装置においては、操作面を、画像表示部を介した視野範囲に配置して使用しなければならず、操作面を用いた接触操作の操作性に問題があった。
本発明は、頭部装着型表示装置において、操作面を用いた接触操作の操作性を向上させることを目的とする。
上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型の表示部と、操作面と、操作を検出する検出部と、前記表示部に操作対象の第1オブジェクトを表示させ、前記操作面に対する操作に対応して前記第1オブジェクトの表示位置を変更するシングル操作モード、及び前記表示部に前記第1オブジェクトと第2オブジェクトとを表示させ、前記操作面に対する操作に対応して前記第1オブジェクト及び前記第2オブジェクトの表示位置を変更するマルチ操作モードを実行可能に構成され、前記検出部により予め設定された態様の操作が検出された場合に前記シングル操作モードと前記マルチ操作モードとを切り替える制御部と、を備え、前記制御部は、前記マルチ操作モードにおいて、前記操作面に対する操作に対応して前記第2オブジェクトを前記表示部の表示領域の外部に対応する位置に移動させる場合に、前記第2オブジェクトの表示態様を変更する。
本発明によれば、操作面に対する操作により、第1オブジェクトの表示位置を変更するシングル操作モードと、第1オブジェクト及び第2オブジェクトの操作位置を変更するマルチ操作モードとを切り替えて実行することができる。
また、第2オブジェクトが表示部の表示領域の外部に対応する位置に移動した場合に、第2オブジェクトの表示態様が変更されるので、第2オブジェクトの表示位置が表示領域から外れたことを使用者に認識させることができる。このため、使用者に、第1オブジェクト及び第2オブジェクトを操作可能な表示位置に戻させることができる。このため、頭部装着型表示装置において、操作面を用いた接触操作の操作性を向上させることができる。
また、本発明は、前記制御部は、前記マルチ操作モードにおいて、前記第1オブジェクト及び前記第2オブジェクトの表示位置を管理する座標管理領域を設定し、前記操作面に対する操作により、前記座標管理領域での前記第1オブジェクト及び前記第2オブジェクトの表示位置を示す座標を変更し、前記座標管理領域は、前記表示領域のサイズよりも大きいことを特徴する。
本発明によれば、第1オブジェクト及び第2オブジェクトの表示位置を座標管理領域での座標として管理することができる。また、座標管理領域のサイズが表示領域のサイズよりも大きいことで、第1オブジェクト又は第2オブジェクトが表示領域の外側に位置する場合であっても、このオブジェクトの座標を管理することができる。
また、本発明は、前記制御部は、操作モードを前記マルチ操作モードに切り替える場合に、前記操作面に対する操作の操作位置を示す補助画像を表示させる。
本発明によれば、操作モードがマルチ操作モードに切り替えられた場合に、操作面に対する操作の操作位置を示す補助画像が表示される。このため、使用者の頭部に装着される頭部装着型の表示部を有する頭部装着型表示装置において、操作面を用いた接触操作の操作性を向上させることができる。
また、本発明は、前記制御部は、前記操作面に対する操作の前記操作位置が、前記操作面の予め設定された領域にある場合に、前記補助画像を表示させる。
本発明によれば、操作面の予め設定された領域にある場合に補助画像を表示させることができる。このため、例えば、操作位置が操作面の端部である場合に補助画像を表示させることで、操作面から外れた操作が行われるのを防止することができる。
また、本発明は、前記検出部は、前記表示部の動きを検出し、前記制御部は、前記検出部により前記表示部の予め設定された動きが検出された場合に、予め設定された態様の操作が検出されたと判定し、操作モードを前記シングル操作モードから前記マルチ操作モードに切り替える。
本発明によれば、使用者が頭部を動かすことで、頭部に装着された表示部の動きが検出され、操作モードをシングル操作モードからマルチ操作モードに切り替えることができる。
また、本発明は、前記表示部を透過して視認される外景を含む範囲を撮像する撮像部を備え、前記制御部は、前記撮像部の撮像画像に前記操作面を備える操作部が撮像された場合に、予め設定された態様の操作が検出されたと判定し、操作モードを前記シングル操作モードから前記マルチ操作モードに切り替える。
本発明によれば、撮像部に操作部が撮像されるように操作部を動かすことで、操作モードをシングル操作モードからマルチ操作モードに切り替えることができる。
また、本発明は、前記操作面を備える操作部は、前記シフト操作モードと前記マルチ操作モードとを切り替えるボタンを備え、前記制御部は、前記ボタンの押下操作が検出された場合に、予め設定された態様の操作が検出されたと判定し、操作モードを前記シングル操作モードから前記マルチ操作モードに切り替える。
本発明によれば、ボタンの操作により操作モードをシングル操作モードからマルチ操作モードに切り替えることができる。
また、本発明は、前記制御部は、前記ボタンの押下操作の検出が継続している間、操作モードを前記マルチ操作モードとし、前記ボタンの押下操作が検出されなくなると、操作モードを前記シングル操作モードに切り替える。
本発明によれば、ボタンの押下操作を継続することで、操作モードをマルチ操作モードに変更し、ボタンの押下操作を解除することで、操作モードをシングル操作モードに変更することができる。
また、本発明は、前記制御部は、前記マルチ操作モードにおいて、予め設定された態様の操作に基づき設定される設定位置を挟んで前記第1オブジェクトと対向する表示位置に前記第2オブジェクトを表示する。
本発明によれば、設定位置を挟んで対向する位置に表示される第1オブジェクト及び第2オブジェクトを、操作面に対する操作により操作することができる。このため、第1オブジェクト及び第2オブジェクトの表示位置の変化を、回転や、拡大、縮小、平行移動等の操作に対応付けることで、操作面に対する操作によりこれらの操作を行うことができる。
また、本発明は、前記制御部は、前記マルチ操作モードにおいて、前記設定位置を対称の中心として、前記第1オブジェクトに対する点対称の位置に前記第2オブジェクトを表示する第1態様と、前記設定位置を対称軸として、前記第1オブジェクトに対する線対称の位置に前記第2オブジェクトを表示する第2態様とを切り替える。
本発明によれば点対称の位置、又は線対称の位置に表示された第1オブジェクト及び第2オブジェクトの表示位置を、操作面に対する操作により変更することができる。このため、第1オブジェクト及び第2オブジェクトの表示位置の変化を、回転や、拡大、縮小、平行移動等の操作に対応付けることで、操作面に対する操作によりこれらの操作を行うことができる。
また、本発明は、前記検出部は、前記操作面に対する接触操作が行われた場合の接触面積、又は前記操作面への押圧力を検出し、前記制御部は、前記検出部が検出する前記接触面積及び前記押圧力の少なくともいずれかに基づき、前記第1態様と前記第2態様とのいずれかを選択する。
本発明によれば、接触操作の接触面積又は押圧力を変更することで、第1態様と第2態様とを選択することができる。
また、本発明は、前記制御部は、前記マルチ操作モードにおいて、前記操作面に対する操作により前記第1オブジェクトの表示位置を変化させ、前記第1オブジェクトの表示位置の変化に対応して前記第2オブジェクトの表示位置を変化させる。
本発明によれば、第1オブジェクトの表示位置の変化に対応して第2オブジェクトの表示位置が変化する。このため、操作面に対する操作により第1オジェクトの表示位置を変更することで、第2オブジェクトの表示位置も変更することができる。
また、本発明は、前記制御部は、前記マルチ操作モードにおいて、前記操作面の連続する位置が1の指示体により指示された場合に、前記第1オブジェクト及び前記第2オブジェクトの表示位置を変更する。
本発明によれば、1の指示体の操作により第1オブジェクト及び第2オブジェクトの表示位置を変更することができる。
また、本発明は、前記制御部は、前記マルチ操作モードにおいて、前記第1オブジェクトと前記第2オブジェクトとの表示位置の変化に対応した処理を実行する。
本発明によれば、操作面に対する操作により、第1オブジェクトと第2オブジェクトとの表示位置の変化に対応した処理を実行することができる。
上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型の表示部と、操作面と、操作を検出する検出部とを備える頭部装着型表示装置の制御方法であって、前記表示部に操作対象の第1オブジェクトを表示させ、前記操作面に対する操作に対応して前記第1オブジェクトの表示位置を変更するシングル操作モード、及び前記表示部に前記第1オブジェクトと第2オブジェクトとを表示させ、前記操作面に対する操作に対応して前記第1オブジェクト及び前記第2オブジェクトの表示位置を変更するマルチ操作モードを有し、前記検出部により予め設定された態様の操作が検出された場合に前記シングル操作モードと前記マルチ操作モードとを切り替え、前記マルチ操作モードにおいて、前記操作面に対する操作に対応して前記第2オブジェクトを前記表示部の表示領域の外部に対応する位置に移動させる場合に、前記第2オブジェクトの表示を前記表示領域から消去する処理を実行する。
本発明によれば、操作面に対する操作により、第1オブジェクトの表示位置を変更するシングル操作モードと、第1オブジェクト及び第2オブジェクトの操作位置を変更するマルチ操作モードとを切り替えて実行することができる。
また、第2オブジェクトが表示部の表示領域の外部に対応する位置に移動した場合に、第2オブジェクトの表示が表示領域から消去されるので、第2オブジェクトの表示位置が表示領域から外れたことを使用者に認識させることができる。このため、使用者に、第1オブジェクト及び第2オブジェクトを操作可能な表示位置に戻させることができる。このため、頭部装着型表示装置において、操作面を用いた接触操作の操作性を向上させることができる。
HMDの外観図。 HMDの光学系の構成を示す要部平面図。 画像表示部の構成を示す斜視図。 HMDのブロック図。 制御装置の機能ブロック図。 座標管理領域を示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 トラックパッドの操作面と、画像表示部の表示領域とを示す図。 補助画像が表示された表示領域を示す図。 補助画像の他の表示例を示す図。 補助画像の他の表示例を示す図。 補助画像の他の表示例を示す図。 HMDの制御部の動作を示すフローチャート。 HMDの制御部の動作を示すフローチャート。 HMDの制御部の動作を示すフローチャート。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用したHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す外観図である。
HMD100は、使用者の頭部に装着され、使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10とを備える表示装置である。画像表示部20を頭部に装着した者を使用者という。画像表示部20は、本発明の「表示部」に相当する。
制御装置10は、図1に示すように平たい箱形のケース10A(筐体又は本体ともいえる)を備える。ケース10Aには、操作ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18の各部を備える。操作ボタン11、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18等を総称して操作子13(図4)という。また、LEDインジケーター12は、例えばHMD100の動作状態を示す副表示部として機能する。使用者は、操作子13を操作することにより、HMD100を操作できる。制御装置10は、HMD100のコントローラーとして機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と、右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示を実現する。右表示ユニット22は、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を実現する。左表示ユニット24は、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導く。右導光板26及び左導光板28に導かれた画像光は使用者の右眼と左眼に入射して、使用者に虚像を視認させる。これにより、画像表示部20は画像を表示する。
使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択又は調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、又は、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。
カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の構成及び配置は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像するように決められる。例えば、カメラ61は、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されるが、カメラ61を端部EL側に配置してもよく、また、右導光板26と左導光板28との連結部に配置してもよい。カメラ61は、本発明の「撮像部」に相当する。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲又は方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の方向及び広さは適宜設定可能である。本実施形態では、後述するように、カメラ61の画角が、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、カメラ61の画角は、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように設定される。
カメラ61は、制御部150(図5)が備える撮像制御部153の制御に従って撮像を実行する。カメラ61は、撮像画像データを、後述するインターフェイス211を介して制御部150に出力する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。右表示ユニット22は、使用者の右眼REに画像を視認させる構成として、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、左表示ユニット24は、使用者の左眼LEに画像を視認させる構成として、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図1に戻り、制御装置10及び画像表示部20は、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブル又は光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46及び制御装置10は、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及びマイク63を有するヘッドセット30が、コネクター46に接続される。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
次に、制御装置10の操作子13について説明する。
操作ボタン11は、制御装置10を操作するためのキーやスイッチを備え、これらのキーやスイッチは押圧操作により変位する。例えば、操作ボタン11は、制御装置10が実行するオペレーティングシステム(以下、OSと略記する)151(図5)等に関する操作を行うためのメニューキー、ホームキー、「戻る」キーを含む。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチである。
トラックパッド14は、操作面14a(図7〜14)を有し、操作面14aに対する操作を検出する。トラックパッド14の詳細については、図4を参照しながら説明する。トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの光はトラックパッド14を透過して、操作用のアイコン等を表示する。このアイコン等はソフトウェアボタンとして機能する。
図3は、画像表示部20の構成を示す斜視図であり、画像表示部20を使用者の頭部側から見た要部構成を示す。この図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物を注視する場合、使用者から対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び下限の目安に相当する場合に、この対象物が画角に含まれるように設定されることが好ましい。
一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことがより好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角が使用者の両眼の視野角よりも広いことがより好ましい。
カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー122が接続される。また、メインプロセッサー140には、LED表示部17や、バイブレーター19、入力操作取得部110を介して操作部115が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー123、磁気センサー124が接続される。また、メインプロセッサー140には、GPS受信部125、通信部126、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192及びFPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー122、不揮発性記憶部121、6軸センサー123、磁気センサー124、GPS受信部125、通信部126、メモリー122、不揮発性記憶部121、音声コーデック180等がさらに実装される。また、本実施形態は、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194及びインターフェイス196がコントローラー基板120に実装される。
メモリー122は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
操作部115は、操作子13を有する。操作部115は、本発明の「検出部」に相当する。操作子13には、上述した操作ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18の他にトリガーボタン135が含まれる。
トラックパッド14は、操作面14aを有し、操作面14aに対する接触操作を検出する。接触操作とは、使用者の手指の先端を操作面14aに接触させ、操作面14aとの接触状態を保ったまま操作面14a上を移動させ、操作面14aの連続する位置を指示する操作である。接触操作には、操作面14a上の所定の位置を選択する操作や、手指の先端を、操作面14a上を移動させて行う操作が含まれる。以下、操作面14aに接触させる使用者の手指を操作指という。操作面14aに対する接触操作は、タッチセンサー(図示略)により検出される。タッチセンサーの接触操作の検出方式は、静電式、感圧式、光学式等の種々の方法を採用することができる。トラックパッド14は、操作面14aに対する接触操作が検出されると、接触が検出された操作面14aの位置や、操作面14aに接触した操作指の圧力(以下、接触圧という)等を示す情報を入力操作取得部110に出力する。
また、本実施形態では、指示体として使用者の指を例に挙げて説明するが、指示体は使用者の指に限定されず、例えば、デジタイザーや、スタイラス等の指示体であってもよい。
また、操作子13には、トリガーボタン135が含まれる。
トリガーボタン135は、画像表示部20の表示領域VR(図7〜図14)に表示されるポインターの操作を切り替えるボタンである。トリガーボタン135が押下された場合、マルチタッチ操作によるポインターの操作を受け付け、トリガーボタン135が押下されていない場合には、シングルタッチ操作によるポインターの操作を受け付ける。ポインターは、操作対象のオブジェクトに相当する。
表示領域VRは、画像表示部20が画像等のオブジェクトを表示させる領域である。使用者は、画像表示部20により表示領域VRに表示されたオブジェクトを視認しながら、画像表示部20を透過して視認される外景を視認することができる。
また、シングルタッチ操作は、1本の操作指によりポインターを操作する操作モードである。マルチタッチ操作とは、複数本の操作指を用いてポインターを操作する操作モードであり、複数の操作指を、操作面14a上の異なる位置に時間的に重複して接触させることで行う操作である。マルチタッチ操作により、例えば、表示領域VRに表示された画像等のオブジェクトの拡大、縮小、回転等の複雑な操作を行うことができる。本実施形態は、1本の操作指による接触操作によりシングルタッチ操作及びマルチタッチ操作を実現できるようにした。この処理の詳細については後述する。
また、本実施形態は、トリガーボタン135の押下状態が継続している間だけ、マルチタッチ操作によるポインターの操作が可能となる。トリガーボタン135の押下が解除された場合、すなわち、ユーザーがトリガーボタン135から指を離した場合、ポインターの操作モードがマルチタッチ操作からシングルタッチ操作に変更される。
入力操作取得部110は、操作部115の操作子13が操作された場合に、操作を受けた操作子13の識別情報と、受け付けた操作内容とを示す情報を制御部150に出力する。例えば、使用者が操作面14a上を移動させて行う接触操作を行った場合、入力操作取得部110は、トラックパッド14から入力される情報に基づき、操作面14a上を移動した操作指の移動方向や移動距離を示す情報を、操作内容を示す情報として生成する。また、入力操作取得部110は、トラックパッド14から入力される情報に基づいて、操作面14aに接触する操作指の面積(以下、接触面積という)を示す情報を生成する。
入力操作取得部110は、接触を検出した操作面14a上の座標を示す情報や、操作指の移動方向や移動距離を示す情報、接触面積、接触圧を示す情報と、操作子13の識別情報とを操作情報として制御部150に出力する。
LED表示部17は、メインプロセッサー140の制御に従って、LEDインジケーター12の点灯、及び消灯を制御する。また、LED表示部17は、トラックパッド14の直下に配置されるLED(図示略)、及びこのLEDを点灯させる駆動回路を含む構成であってもよい。この場合、LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
バイブレーター19は、モーター、偏心した回転子(いずれも図示略)を備え、その他の必要な構成を備えてもよい。バイブレーター19は、メインプロセッサー140の制御に従って上記モーターを回転させることにより、振動を発生する。HMD100は、例えば、操作部115に対する操作を検出した場合、HMD100の電源がオン/オフされる場合、或いはその他の場合に、所定の振動パターンでバイブレーター19により振動を発生する。
6軸センサー123は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー123は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー124は、例えば、3軸の地磁気センサーである。
6軸センサー123及び磁気センサー124は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。また、6軸センサー123及び磁気センサー124は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
GPS受信部125は、図示しないGPSアンテナを備え、GPS衛星から送信されるGPS信号を受信する。GPS受信部125は、受信したGPS信号をメインプロセッサー140に出力する。また、GPS受信部125は、受信したGPS信号の信号強度を計測し、メインプロセッサー140に出力する。信号強度には、例えば、受信信号強度(RSSI:Received Signal Strength Indication)、電界強度、磁界強度、信号雑音比(SNR: Signal to Noise ratio)等の情報を用いることができる。
通信部126は、外部の機器との間で無線通信を実行する。通信部126は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、又はこれらが統合されたデバイスで構成される。通信部126は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。コネクター46はヘッドセット30に接続される。音声インターフェイス182が出力する音声信号は右イヤホン32、及び左イヤホン34に入力され、これにより右イヤホン32及び左イヤホン34が音声を出力する。また、ヘッドセット30が備えるマイク63は、音声を集音して、音声信号を音声インターフェイス182に出力する。マイク63から音声インターフェイス182に入力される音声信号は、外部コネクター184に入力される。
音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及びその逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備える。USBコネクター188は、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及びEEPROM215が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、又は撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図2)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235及び磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を制御装置10に接続する。6軸センサー235は、本発明の「検出部」に相当する。
6軸センサー235は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図2)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243又はOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、又はデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は、充電可能なバッテリー132、及びバッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、又は電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
図5は、制御装置10の制御系を構成する記憶部160、及び制御部150の機能ブロック図である。図5に示す記憶部160は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー122及び不揮発性記憶部121により構成される。
制御部150は、記憶部160が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部160は、制御部150が処理する各種のデータを記憶する。具体的には、記憶部160は、設定データ161、コンテンツデータ162、座標管理領域163を記憶する。
設定データ161は、HMD100の動作を設定する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ161に含めてもよい。
コンテンツデータ162は、制御部150の制御によって画像表示部20が表示する表示画像や映像を含むコンテンツのデータであり、画像データ又は映像データを含む。また、コンテンツデータ162は、音声データを含んでもよい。
また、コンテンツデータ162は、双方向型のコンテンツデータであってもよい。すなわち、画像表示部20によりコンテンツデータ162に含まれる画像データや映像データを表示し、表示した画像データや映像データに対する操作を操作部115で受け付け、受け付けた操作に対応した処理を制御部150で実行する。この場合、コンテンツデータ162は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を有していてもよい。
座標管理領域163は、ポインターの表示位置を記録するための領域であり、制御部150が記憶部160の記憶領域を使用して生成する。座標管理領域163の詳細については後述する。
制御部150は、OS151、画像処理部152、撮像制御部153、表示制御部154及び操作制御部155の機能を有する。
OS151の機能は、記憶部160が記憶する制御プログラムの機能であり、その他の各部は、OS151上で実行されるアプリケーションプログラムの機能である。
画像処理部152は、例えば、記憶部160からコンテンツデータ162を読み出し、読み出したコンテンツデータ162から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。画像処理部152は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。また、画像処理部152は、コンテンツデータ162に含まれる画像データに対して解像度変換、輝度、彩度の調整、2D/3D変換処理等の種々の画像処理を必要に応じて実行してもよい。
画像処理部152は、画像処理を施した画像データを、画像の表示単位である1フレームごとに記憶部160内のDRAMに展開する。画像データの1フレームが展開されるDRAMの領域を、以下ではフレーム領域という。画像処理部152は、フレーム領域から画像データを読み出し、読み出した画像データを表示画像データとして画像表示部20に出力する。
また、画像処理部152は、操作制御部155からポインターの表示位置を示す座標情報が入力される。この座標情報は、DRAMのフレーム領域の座標を示す。画像処理部152は、DRAMのフレーム領域にコンテンツデータ162から取り出した画像データが既に展開されている場合には、操作制御部155から入力された座標情報が示すフレーム領域の座標にポインターの画像を重畳させる。また、画像処理部152は、DRAMのフレーム領域に画像データが展開されていない場合には、操作制御部155から入力された座標情報が示すフレーム領域の座標にポインターの画像を展開する。その後、画像処理部152は、DRAMのフレーム領域からデータを読み出し、画像表示部20に送信する。
画像処理部152は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
撮像制御部153は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部160に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部153は撮像画像データをカメラ61から取得して、記憶部160に一時的に記憶する。
表示制御部154は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部154は、画像処理部152から入力される同期信号に基づき、OLED駆動回路225、245を制御し、がOLEDパネル223、243に画像を描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
操作制御部155は、入力操作取得部110から入力される操作情報に基づいてポインターの表示位置を決定し、決定した表示位置を画像処理部152に指示する。操作制御部155の前述の動作により、表示領域VRの決定した表示位置にポインターの画像が表示される。
本実施形態は、トラックパッド14によるポインターの操作モードとして、シングルタッチ操作とマルチタッチ操作との2つの操作モードを有する。このため、制御部150の動作モードにも、シングルタッチ操作を受け付け可能な状態のシングルタッチモードと、マルチタッチ操作を受け付け可能な状態のマルチタッチモードとの2つのモードを有する。シングルタッチモードは、本発明の「シングル操作モード」に対応し、マルチタッチモードは、本発明の「マルチ操作モード」に相当する。
制御部150は、動作モードがシングルタッチモードの場合、画像表示部20に1つのポインターを表示させる。このシングルタッチモードにおいて、表示されるポインターをシングル実ポインター310と表記する。また、制御部150は、動作モードがマルチタッチモードの場合、画像表示部20に複数のポインターを表示させる。本実施形態では、動作モードがマルチタッチモードの場合、3つのポインターを表示させる。これらのポインターを、マルチ実ポインター320、疑似ポインター330及び基点ポインター340と表記する。マルチ実ポインター320は、本発明の「第1オブジェクト」に相当し、疑似ポインター330は、本発明の「第2オブジェクト」に相当する。
画像表示部20により表示領域VRに表示されるマルチ実ポインター320の画像は、疑似ポインター330や基点ポインター340の画像よりも目立つ画像を使用する。例えば、マルチ実ポインター320の画像のサイズを疑似ポインター330や基点ポインター340の画像のサイズよりも大きくする。また、マルチ実ポインター320の画像として、疑似ポインター330や基点ポインター340の画像よりも明度や彩度が高い画像を使用してもよい。また、疑似ポインター330や基点ポインター340の画像の透過率を、マルチ実ポインター320の画像の透過率よりも高くし、マルチ実ポインター320の画像が疑似ポインター330や基点ポインター340の画像よりも見えやすくなるようにしてもよい。
また、疑似ポインター330の画像は、基点ポインター340の画像よりも目立つ画像を使用する。マルチ実ポインター320の場合と同様に、疑似ポインター330の画像のサイズを基点ポインター340の画像のサイズよりも大きくしたり、疑似ポインター330の画像の明度や彩度を、基点ポインター340の画像の明度や彩度よりも高くしたりする。また、基点ポインター340の画像の透過率を、疑似ポインター330の画像の透過率よりも高くし、疑似ポインター330の画像が基点ポインター340の画像よりも見えやすくないようにしてもよい。
シングル実ポインター310及びマルチ実ポインター320は、操作面14aに対する接触操作に応じて表示領域VRの表示位置を変更するポインターである。操作制御部155は、接触操作が検出されると、この接触操作の移動方向に対応する方向に、接触操作の移動距離に対応する距離だけ、シングル実ポインター310及び320の表示位置を移動させる。疑似ポインター330は、マルチ実ポインター320の表示位置の変化に対応して、表示位置を変化させるポインターであり、線対称の対称軸又は点対称の対称の中心に対して、マルチ実ポインター320の対称な位置に表示される。基点ポインター340は、線対称の対称軸上、又は点対称の対称の中心となる位置に表示されるポインターである。線対称の対称軸又は点対称の対称の中心は、本発明の「設定位置」に相当する。
マルチタッチモードは、点対称モードと線対称モードとの2つのモードを有する。マルチタッチモードにおいて、マルチ実ポインター320と疑似ポインター330とは、線対称の対称軸又は点対称の対称の中心を挟んで対向する位置に表示される。
操作制御部155は、動作モードが点対称モードの場合、基点ポインター340を点対称の対称の中心として、マルチ実ポインター320と点対称の位置に疑似ポインター330を表示させる。また、操作制御部155は、動作モードが線対称モードの場合、線対称の対称軸に対して、疑似ポインター330をマルチ実ポインター320の線対称の位置に表示させる。
操作制御部155は、動作モードがシングルタッチモードの場合、入力操作取得部110から入力される操作情報に基づき、シングル実ポインター310の表示位置を示す座標を算出する。操作制御部155は、算出した座標に対応する座標管理領域163の座標に、シングル実ポインター310の表示位置であることを示す情報を対応付けて記録する。以下、表示位置であることを示す情報が対応付けられた座標を、シングル実ポインター310の座標という。
座標管理領域163は、ポインターの表示位置を示す座標を記録するための領域であり、操作制御部155が記憶部160の記憶領域を使用して生成する。また、座標管理領域163の座標は、画像処理部152が画像データを展開するDRAMのフレーム領域の座標に対応付けられている。すなわち、画像処理部152は、操作制御部155からシングル実ポインター310の表示位置として座標管理領域163の座標が指示されると、この座標に対応付けられたDRAMのフレーム領域の座標にシングル実ポインター310の画像を展開する。これにより、操作制御部155により決定された表示領域VRの表示位置にシングル実ポインター310の画像が表示される。
入力操作取得部110から入力される操作情報には、操作指の操作面14a上での移動方向と、移動距離とを示す情報が含まれる。操作制御部155は、動作モードがシングルタッチモードの場合、座標管理領域163からシングル実ポインター310の座標を示す座標情報を取得する。そして、操作制御部155は、操作情報に含まれる移動方向に基づいて、取得した座標情報が示す座標に、操作情報に含まれる移動距離を加算又は減算して、操作情報に基づく移動後の座標を算出する。操作制御部155は、算出した座標管理領域163の座標に、シングル実ポインター310の表示位置であることを示す情報を対応付けて記憶させる。このとき、座標管理領域163の移動前の座標に対応付けたシングル実ポインター310の表示位置であることを示す情報は消去してもよい。
また、操作制御部155は、移動後の座標を示す座標情報を画像処理部152に出力する。画像処理部152は、操作制御部155から入力される座標情報が示す座標に対応するDRAMのフレーム領域の座標に、シングル実ポインター310の画像を展開する。画像処理部152は、シングル実ポインター310の画像が展開された画像データを表示画像データとして画像表示部20に出力する。これにより、画像表示部20の表示領域VRであって、トラックパッド14の操作に対応した位置にシングル実ポインター310の画像が表示される。
図6は、座標管理領域163を示す図である。
座標管理領域163には座標系が設定される。この座標系は、ポインター(シングル実ポインター310、マルチ実ポインター320、疑似ポインター330及び基点ポインター340)の表示位置を管理するための座標系である。本実施形態では、座標管理領域163に設定された座標系は、座標管理領域163の左上を原点とし、座標管理領域163の水平方向をX軸方向とし、座標管理領域163の垂直方向をY軸方向とする座標系である。
操作制御部155は、操作指が移動する移動前の位置を示す座標管理領域163の座標と、入力操作取得部110から入力される操作指の移動方向及び移動距離を示す情報に基づいて、操作指の移動後の位置、すなわち座標管理領域163の座標を決定する。すなわち、操作指の移動方向及び移動距離により座標管理領域163の座標が決定されるため、座標管理領域163のサイズは、トラックパッド14の操作面14aのサイズと同一のサイズである必要はなく、操作面14aのサイズよりも大きくてもよい。この場合、座標管理領域163に記録される座標は、相対座標を示す座標となる。また、座標管理領域163のサイズは、画像表示部20が画像を表示できる範囲である表示領域VRと同一のサイズであれば、座標管理領域163の座標を、そのまま表示領域VR上の座標としてポインターを表示させることができる。また、座標管理領域163のサイズと表示領域VRのサイズとが同一のサイズでない場合には、座標変換を行って、座標管理領域163の座標を表示領域VRの座標に変換してもよい。
また、座標管理領域163のサイズを、トラックパッド14の操作面14aのサイズと同一のサイズとし、操作制御部155は、操作面14a上の座標をそのまま座標管理領域163の座標として対応付けてもよい。この場合、座標管理領域163に記録される座標は、絶対座標を示す座標となる。
また、図6に示す座標管理領域163には、画像表示部20の表示領域VRを重ねて表示する。図6に示すように、座標管理領域163の大きさは、表示領域VR、すなわちDRAMのフレーム領域の大きさよりも大きいサイズに設定される。このため、操作制御部155は、表示領域VRの範囲外となる座標であっても、この座標を座標管理領域163に記録させることができる。
例えば、座標管理領域163のサイズを、トラックパッド14の操作面14aを縦に3つ、横に3つ並べた、操作面14aの9倍のサイズに設定することができる。座標管理領域163のサイズを、このようなサイズに設定することで、操作モードが点対称であってもマルチ実ポインター320、疑似ポインター330及び基点ポインター340の座標を座標管理領域163により管理することができる。例えば、操作面14aの対角線の一方の端部に基点ポインター340が位置し、対角線のもう一方の端部にマルチ実ポインター320が位置すると仮定する。点対称モードの場合の疑似ポインター330の位置は、基点ポインター340を点対称の中心として、マルチ実ポインター320の位置とは反対側の位置である。また、基点ポインター340と疑似ポインター330との距離は、マルチ実ポインター320と基点ポインター340との距離と同一の距離となる。座標管理領域163のサイズを、操作面14aのサイズの9倍のサイズとすることで、マルチ実ポインター320と基点ポインター340との距離が操作面14aの対角線の距離だけ離れても、疑似ポインター330の座標を座標管理領域163に記録することが可能となる。
図6には、座標管理領域163の座標に、マルチ実ポインター320、疑似ポインター330及び基点ポインター340を対応付けた状態を示す。図6には、マルチ実ポインター320及び基点ポインター340を表示領域VR内の座標に対応付け、疑似ポインター330を表領域VR外の座標に対応付けた場合を示す。疑似ポインター330は、マルチ実ポインター320の対称位置に表示する必要があるため、マルチ実ポインター320が表示領域VR内に位置していても、疑似ポインター330は表示領域VRの外側に位置する場合があるためである。
操作制御部155は、表示領域VRの外側に位置する座標に対応付けられたポインターが存在する場合、このポインターの画像の表示態様を変化させる。例えば、操作制御部155は、表示領域VRの外側の座標に疑似ポインター330が対応付けられた場合、疑似ポインター330の表示を表示領域VRから消去する。また、操作制御部155は、疑似ポインター330が消去されていることを示す画像を表示領域VRに表示させてもよい。
また、操作制御部155は、疑似ポインター330が表示領域VRの外側の座標に対応付けられても、疑似ポインター330の表示は消去せずに表示領域VRの端部に表示させてもよい。この場合、操作制御部155は、疑似ポインター330の座標が表示領域VRの座標に対応付けられるまで疑似ポインター330を一定の位置(例えば、表示領域VRの端部)に固定表示させ、疑似ポインター330を点灯又は点滅させてもよい。また、操作制御部155は、疑似ポインター330の位置を示す補助画像360(図18参照)を表示させてもよい。
操作制御部155は、トリガーボタン135が押下され、動作モードがマルチタッチモードに変更されると、マルチ実ポインター320、疑似ポインター330及び基点ポインター340の3つのポインターの表示位置を示す座標を座標管理領域163に記録する。
まず、操作制御部155は、トリガーボタン135が押下されると、このトリガーボタン135が押下されたときに、座標管理領域163に記録されたシングル実ポインター310の座標を、マルチ実ポインター320、疑似ポインター330及び基点ポインター340の座標に設定する。その後、操作制御部155は、トラックパッド14から入力される操作情報に基づいて、マルチ実ポインター320及び疑似ポインター330の座標を変更する。基点ポインター340の座標は、トリガーボタン135が押下されたときの座標のまま固定され、操作制御部155は基点ポインター340の座標の変更は行わない。
図7〜図14は、トラックパッド14の操作面14aと、画像表示部20の表示領域VRとを示す図である。まず、図7〜図10を参照して点対称モードの場合のマルチ実ポインター320及び疑似ポインター330の動きについて説明する。
図7は、制御部150の動作モードがシングルタッチモードである場合の表示領域VRの表示状態を示す。動作モードがシングルタッチモードである場合、表示領域VRには、シングル実ポインター310が表示される。シングル実ポインター310は、操作指の操作面14a上の動きに応じて表示領域VR上の表示位置が変更される。動作モードがシングルタッチモードの場合、表示領域VRには、シングル実ポインター310だけが表示され、マルチタッチモードで表示される疑似ポインター330や基点ポインター340は表示されない。
操作制御部155は、トリガーボタン135が押下され、ポインターの動作モードがシングルタッチモードからマルチタッチモードに変更されると、表示領域VRに、マルチ実ポインター320、疑似ポインター330及び基点ポインター340を表示させる。図8は、動作モードがマルチタッチモードに変更された直後の表示領域VRの表示状態を示す。マルチ実ポインター320、疑似ポインター330及び基点ポインター340は、シングルタッチモードの場合のシングル実ポインター310の表示位置に重ねて表示される。この状態から使用者が操作指を操作面14a上で動かすと、マルチ実ポインター320及び疑似ポインター330の表示位置が変更される。基点ポインター340は、トリガーボタン135が押下されたときのシングル実ポインター310の表示位置に固定され、この表示位置から動かない。
図9は、操作面14a上の位置Aから位置Bに操作指を移動させた場合を示す。
操作制御部155には、入力操作取得部110から操作情報が入力される。入力操作取得部110は、操作面14a上の位置A及び位置Bの座標に基づいて、操作指の移動方向を示す方向ベクトルと、位置Aから位置Bへの移動の移動距離とを算出し、算出したこれらの情報を含む操作情報を操作制御部155に出力する。
操作制御部155は、入力操作取得部110から操作情報が入力されると、マルチ実ポインター320及び疑似ポインター330の移動後の座標を算出する。まず、操作制御部155は、座標管理領域163からマルチ実ポインター320の座標を示す座標情報を取得する。次に、操作制御部155は、操作情報に含まれる移動方向に基づき、取得した座標情報が示す座標に、操作情報に含まれる移動距離を加算又は減算して、操作情報に基づく移動後の座標を算出する。操作制御部155は、算出した座標に対応する座標管理領域163の座標に、マルチ実ポインター320の表示位置であることを示す情報を対応付けて記録する。
図9には、操作指を操作面14a上の位置Aから位置Bに移動させた場合に、表示領域VRに表示されるマルチ実ポインター320の表示位置の変化を示す。図9に示すように、操作指を位置Aから左下の方向の位置Bに移動させると、マルチ実ポインター320の表示位置も操作指の動きに対応して左下の方向に移動する。
また、操作制御部155は、マルチ実ポインター320の座標を変更すると、疑似ポインター330の座標も変更する。操作制御部155は、基点ポインター340の座標を点対称の対称の中心として、疑似ポインター330の表示位置がマルチ実ポインター320に対して点対称の位置になるように、疑似ポインター330の座標を算出する。
操作制御部155は、まず、座標管理領域163から疑似ポインター330の座標を示す座標情報を取得する。操作制御部155は、取得した座標情報が示す疑似ポインター330の座標に、操作情報に含まれる移動距離を加算又は減算して、疑似ポインター330の座標を、操作情報に含まれる移動方向とは180度反対の方向に移動させる。操作制御部155は、算出した座標に対応する座標管理領域163の座標に、マルチ実ポインター320の表示位置であることを示す情報を対応付けて記録する。
また、操作制御部155は、移動後のマルチ実ポインター320の座標と、基点ポインター340の座標とに基づき、疑似ポインター330の座標を算出してもよい。すなわち、操作制御部155は、基点ポインター340の座標を点対称の対称の中心としてマルチ、実ポインター320の座標と点対称となる座標を算出し、この算出した座標を疑似ポインター330の座標として設定する。
図9に示すように、操作指を位置Aから左下方向の位置Bに移動させた場合、疑似ポインター330の表示位置は、操作指の移動方向とは180度反対の方向に移動する。
図10は、使用者の操作指が操作面14a上で円を描きながら上方向に移動した場合のマルチ実ポインター320及び疑似ポインター330の移動の軌跡を示す。
操作制御部155が上述したように入力操作取得部110から入力される操作情報に従ってマルチ実ポインター320及び疑似ポインター330の表示位置を示す座標を変更することで、操作面14a上での操作指の動きの軌跡に対応して、マルチ実ポインター320及び疑似ポインター330の表示位置が変更される。すなわち、シングル実ポインター310は、操作指の動きに対応して円を描きながら上方向に移動し、疑似ポインター330は、操作指の動きに対応して円を描きながら下方向に移動する。
図11〜図13は、トラックパッド14の操作面14aと、画像表示部20の表示領域VRとを示す図である。図11〜図13を参照して線対称モードの場合のマルチ実ポインター320及び疑似ポインター330の動きについて説明する。
トリガーボタン135が押下され、動作モードがマルチタッチモードに変更され、マルチ実ポインター320、疑似ポインター330及び基点ポインター340が、表示領域VRの同一の位置に重なった状態で表示されるまでの動作は、点対称モードの場合と同様である。
操作制御部155は、入力操作取得部110から操作情報が入力されると、まず、入力された操作情報に基づき、線対称の対称軸350を設定する方向を判定する。
操作制御部155は、操作情報に含まれる移動方向及び移動距離の情報に基づき、操作指のx方向の移動距離と、y方向の移動距離とを算出して、これらの移動距離を比較する。x方向は操作面14aの水平方向に対応し、y方向は操作面14aの垂直方向に対応する。操作制御部155は、x方向の移動距離がy方向の移動距離よりも大きい場合、座標管理領域163のX軸方向、すなわち表示領域VRのX軸方向に線対称の対称軸350を設定する。また、操作制御部155は、y方向の移動距離がx方向の移動距離よりも大きい場合、座標管理領域163のY軸方向、すなわち表示領域VRのY軸方向に線対称の対称軸350を設定する。
図11には、表示領域VRのX軸方向に平行な方向に線対称の対称軸350が設定された場合を示す。
操作制御部155は、x方向の移動距離がy方向の移動距離も大きい場合、線対称の対称軸350を、座標管理領域163のX軸方向に平行な方向に設定する。また、操作制御部155は、線対称の対称軸350を設定する座標管理領域163のY座標を、基点ポインター340のY座標に設定する。すなわち、操作制御部155は、基点ポインター340の表示位置を通過し、座標管理領域163のX軸方向に平行な方向に線対称の対称軸350を設定する。
図12及び図13は、線対称モードでのマルチ実ポインター320及び疑似ポインター330の動きを示す図である。
操作制御部155は、線対称の対称軸350を設定すると、入力操作取得部110から入力される操作情報に基づいて、マルチ実ポインター320の移動後の座標を算出する。マルチ実ポインター320の移動後の座標の算出方法は、シングルタッチモード及び点対称モードの場合と同一である。
また、操作制御部155は、疑似ポインター330の移動後の座標を算出する。操作制御部155は、線対称の対称軸350を基準として、移動後のマルチ実ポインター320の座標と線対称となる位置を、マルチ実ポインター320の座標として算出する。
例えば、図12に示すようにX軸に平行な方向に線対称の対称軸350を設定した場合、操作制御部155は、マルチ実ポインター320のY座標と、対称軸350とのY座標との差を求め、マルチ実ポインター320と対称軸350とのY軸方向での距離を算出する。操作制御部155は、マルチ実ポインター320と対称軸350とのY軸方向の距離を算出すると、対称軸350のY座標の値に、算出した距離の値を加算又は減算して、対称軸350に対してマルチ実ポインター320と線対称となる位置のY座標の値を算出する。操作制御部155は、疑似ポインター330のY座標の値として算出したY座標の値を設定し、疑似ポインター330のX座標の値として、マルチ実ポインター320のX座標の値を設定する。
線対称の対称軸350をY軸に平行な方向に設定した場合も同様な手順によって疑似ポインター330の座標が決定される。
図13は、操作指を対称軸350に平行な方向に移動させた場合のマルチ実ポインター320及び疑似ポインター330の動きを示す。
操作面14aの水平方向に平行な方向に操作指を移動させた場合、操作制御部155に入力される操作情報には、移動方向としてx方向を示す情報が入力され、移動距離としてx方向の移動距離を示す情報が入力される。この場合、操作制御部155は、操作情報に従って、マルチ実ポインター320及び疑似ポインター330の座標を、対称軸350に平行な方向の座標に移動させる。これにより、表示領域VRに表示されるマルチ実ポインター320及び疑似ポインター330は、表示領域VRのX軸方向に平行な方向に移動される。
図12及び図13には、表示領域VRに線対称の対称軸350を表示し、基点ポインター340は表示させない場合を示した。図14には、対称軸350の表示に代えて、基点ポインター340を表示させた場合を示す。図14には、線対称の対称軸上であって、マルチ実ポインター320と疑似ポインター330とのY軸方向の中点の位置に基点ポインター340を表示させた場合を示す。
また、点対称モードでは、基点ポインター340の表示位置を固定にしていたが、線対称モードの場合、マルチ実ポインター320及び疑似ポインター330の表示位置が移動すると、この移動に伴って基点ポインター340の表示位置も移動させてもよい。すなわち、マルチ実ポインター320と疑似ポインター330との中点に、常に基点ポインター340が位置するように基点ポインター340の表示位置を変更する。
また、疑似ポインター330を複数表示させてもよい。例えば、基点ポインター340の表示位置は、動作モードがシングルタッチモードからマルチタッチモードに変更されたときのシングル実ポインター310の表示位置から動かさない。そして、マルチ実ポインター320と疑似ポインター330との中点の位置であって、線対称の対称軸350上に第2の疑似ポインター(図示略)を表示させる。第2の疑似ポインターは、マルチ実ポインター320及び疑似ポインター330の表示位置が変更されると、この表示位置の変更に伴って表示位置が変更される。
また、操作制御部155は、トリガーボタン135の押下状態が継続している場合、操作指の操作面14aへの接触が検出されなくなっても、座標管理領域163に記録したポインターの座標を消去しない。すなわち、マルチ実ポインター320、疑似ポインター330及び基点ポインター340の座標はそのまま維持される。そして、操作制御部155は、操作面14aへの操作指の接触が再度検出され、入力操作取得部110から操作情報が入力されると、座標管理領域163に記録したポインターの座標を移動前の座標として、各ポインターの移動後の座標を算出する。
また、操作制御部155は、トリガーボタン135の押下状態が解除されると、座標管理領域163に記録したマルチ実ポインター320、疑似ポインター330及び基点ポインター340の座標を消去する。トリガーボタン135の押下状態が解除されたときに、操作面14aに操作指が接触している場合には、この操作面14aの接触位置に対応する表示領域VRの表示位置にシングルタッチモードのシングル実ポインター310を表示させる。また、トリガーボタン135の押下状態が解除されたときに、操作面14aに操作指が接触していない場合、トリガーボタン135の押下を解除した後に検出される操作面14aの接触位置に対応する表示領域VRの表示位置にシングル実ポインター310を表示させる。
また、操作制御部155は、動作モードがマルチタッチモードに変更されると、表示領域VRに補助画像360を表示させる。図15は、補助画像360が表示された表示領域VRを示す図である。
補助画像360は、操作指が接触する操作面14a上の位置を示す画像である。画像表示部20を頭部に装着し、画像表示部20により表示される画像が眼前に表示された状態では、トラックパッド14の操作面14aを認識できない又は認識が難しい場合がある。この場合、接触操作の操作指が操作面14aの外に外れてしまう場合がある。このため、操作制御部155は、動作モードがマルチタッチモードに変更されると、入力操作取得部110から入力される操作情報に基づき、操作指が接触する操作面14a上の位置を示す補助画像360を表示させる。補助画像360には、トラックパッド14の操作面14aを示す画像361と、操作指が接触する操作面14a上の位置を示すマーク362とが表示される。
入力操作取得部110から入力される操作情報には、操作指が接触した操作面14aの接触位置を示す座標情報が含まれる。操作制御部155は、入力された座標情報が示す座標を、補助画像360を展開するDRAMのフレーム領域内の座標であって、操作指が接触した操作面14aの接触位置に対応する座標に変換する。操作制御部155は、変換した座標を示す座標情報を画像処理部152に出力する。
画像処理部152は、補助画像360の展開予定のDRAMのフレーム領域に、補助画像360のデータを展開する。また、画像処理部152は、操作制御部155から入力された座標情報が示す座標に対応するフレーム領域の座標にマーク362の画像を展開する。画像処理部152は、DRAMのフレーム領域に展開された画像データを表示画像データとして画像表示部20に出力する。これにより、表示領域VRの予め設定された領域に補助画像360が表示される。また、操作指が接触した操作面14aの接触位置に対応する補助画像360の座標には、マーク362の画像が表示される。
図16は、補助画像360の他の表示例を示す図であり、表示領域VRの全体に補助画像360を表示させた場合を示す図である。
操作制御部155は、事前に、操作面14a上の座標を、表示領域VR上の座標、すなわちDRAMのフレーム領域上の座標に変換するパラメーターを生成する。操作制御部155は、操作面14aの4隅の座標を、DRAMのフレーム領域の4隅の座標に対応付け、操作面14aの4隅の座標を、フレーム領域の4隅の座標に変換する変換パラメーターを生成する。操作制御部155は、入力操作取得部110から操作情報が入力されると、生成した変換パラメーターを用いて、操作情報が示す操作面14aの接触位置を示す座標をDRAMのフレーム領域の座標に変換する。操作制御部155は、変換後の座標を画像処理部152に出力して、DRAMのフレーム領域の該当する座標にマーク362の画像を重畳させる。
図17は、補助画像360の他の表示例を示す図であり、表示領域VRに操作面14aと同一サイズの補助画像360を表示させた場合を示す図である。図17には、表示領域VRの中央に補助画像360を表示した場合を示すが、補助画像360は、表示領域VRの左端又は右端に表示してもよい。表示領域VRに操作面14aと同一サイズの補助画像360を表示させる場合、入力操作取得部110から入力される操作情報が示す操作面14a上の座標を、DRAMのフレーム領域の座標に変換する変換処理が簡易になる。
また、表示領域VRに補助画像360を表示させるタイミングは、シングルタッチモードからマルチタッチモードに変更されたタイミングであってもよい。また、操作指の操作面14a上の接触位置が、操作面14aの端部に近づいた場合に、補助画像360を表示させてもよい。操作制御部155は、操作指の接触位置と、操作面14aの端部との距離がしきい値として設定した距離以内になった場合に、補助画像360を表示させてもよい。
より詳細には、操作制御部155は、操作指の接触位置が操作面14aの角に近づくと、この角を構成する2辺と接触位置との距離を算出する。すなわち、操作制御部155は、接触位置の座標から角を構成する2辺に向けて垂線をそれぞれに下ろし、2辺と接触位置との距離を算出する。そして、操作制御部155は、算出した距離のうち、距離が短い方を選択し、選択した距離をしきい値と比較する。操作制御部155は、選択した距離がしきい値以下である場合に、補助画像360を表示させる。また、操作制御部155は、選択した距離がしきい値よりも大きい場合には、補助画像360は表示させない。角を構成する2辺のうちの距離が短い方の辺と、接触位置との距離をしきい値と比較し、距離がしきい値以下であった場合が、本発明の「操作面に対する操作位置が予め設定された領域にある場合」に相当する。
操作制御部155は、マルチ実ポインター320及び疑似ポインター330の表示位置を変更すると、変更されたマルチ実ポインター320及び疑似ポインター330の動きに基づいて、使用者により入力された操作を判定する。
例えば、操作制御部155は、動作モードとして点対称モードが選択された場合、入力された操作は回転操作であると判定する。操作制御部155は、変更前のマルチ実ポインター320及び疑似ポインター330の表示位置と、変更後のマルチ実ポインター320及び疑似ポインター330の表示位置とに基づき、回転操作の回転方向及び回転量を判定する。そして、操作制御部155は、表示領域VRに表示した画像等のオブジェクトを、検出した回転方向に、検出した回転量だけ回転させる。
また、操作制御部155は、動作モードとして線対称モードが選択され、マルチ実ポインター320及び疑似ポインター330を対称軸350から離れる方向に移動させる操作が検出された場合、この操作を拡大操作と判定する。操作制御部155は、拡大操作と判定した場合、移動前のマルチ実ポインター320と疑似ポインター330との距離と、移動後のマルチ実ポインター320と疑似ポインター330との距離とを算出し、算出した距離に基づいて画像等のオブジェクトを拡大させる。
また、操作制御部155は、マルチ実ポインター320及び疑似ポインター330を対称軸350に近づける方向に移動させる操作が検出された場合、この操作を縮小操作と判定する。操作制御部155は、縮小操作と判定した場合、移動前のマルチ実ポインター320と疑似ポインター330との距離と、移動後のマルチ実ポインター320と疑似ポインター330との距離との算出し、算出した距離に基づいて画像等のオブジェクトを縮小させる。
また、操作制御部155は、マルチ実ポインター320及び疑似ポインター330を対称軸350に平行に移動させる操作が検出された場合、この操作を平行移動と判定する。
操作制御部155は、平行移動と判定した場合、マルチ実ポインター320の対称軸350方向の移動距離に基づいて、画像等のオブジェクトを平行移動させる。
図18は、補助画像360の他の表示例を示す図である。図18に示す補助画像360は、疑似ポインター330の表示が表示領域VRから消去された場合、又は疑似ポインター330と表示領域VRの端部との距離が予め設定された距離よりも近くなった場合に表示される画像360である。
前述したように、操作制御部155は、表示領域VRの外部に位置する座標に対応付けられたポインターが存在する場合、このポインターの座標を画像処理部152には通知されず、このポインターの画像が表示領域VRから消去される。使用者は、ポインターが表示領域VRから消去された場合、消去されたポインターの位置を認識することができない。このため、操作制御部155は、図18に示す補助画像360を表示領域VRに表示させて、消去されたポインターの位置を補助画像360により示してもよい。図18に示す補助画像360には、表示領域VRを示す画像365と、図6に示す座標管理領域163を示す画像366とが表示される。また、図18に示す補助画像360には、マルチ実ポインター320を示す画像367と、疑似ポインターを示す画像368と、基点ポインター340を示す画像369とが表示される。疑似ポインターを示す画像368は、座標管理領域163を示す画像366上であって、表示領域VRを示す画像365の外側に表示される。
図19及び図20は、HMD100の制御部150の動作を示すフローチャートである。
まず、制御部150は、制御装置10のトリガーボタン135が押下されたか否かを判定する(ステップS1)。制御部150は、トリガーボタン135が押下されていない場合(ステップS1/NO)、制御部150の動作モードをシングルタッチモードとし(ステップS2)、操作面14aに対する接触操作の操作情報が入力操作取得部110から入力されたか否かを判定する(ステップS3)。制御部150は、操作情報が入力されなかった場合(ステップS3/NO)、HMD100の電源がオフされたか否かを判定する(ステップS5)。制御部150は、HMD100の電源がオフされた場合(ステップS5/YES)、RAM等の揮発性メモリーに記憶させたデータを記憶部160に記憶させ、シャットダウンを実行して処理を終了する。
また、制御部150は、HMD100の電源がオフされていないと判定する場合(ステップS5/NO)、ステップS1に戻りトリガーボタン135が押下されたか否かを判定する(ステップS1)。また、制御部150は、操作情報が入力された場合(ステップS3/YES)、シングル実ポインター310の表示位置を、入力された操作情報に従って移動させる(ステップS4)。制御部150は、シングル実ポインター310の表示位置を変更すると、ステップS1に戻り、トリガーボタン135が押下されたか否かを判定する(ステップS1)。
また、制御部150は、ステップS1においてトリガーボタン135が押下された場合(ステップS1/YES)、HMD100の動作モードをマルチタッチモードに設定する(ステップS6)。次に、制御部150は、入力操作取得部110から接触操作の操作情報が入力されたか否かを判定する(ステップS7)。制御部150は、操作情報が入力されていない場合(ステップS7/NO)、トリガーボタン135が押下された状態が継続しているか否かを判定する(ステップS8)。制御部150は、トリガーボタン135の押下状態が継続していないと判定した場合(ステップS8/NO)、ステップS2に移行して動作モードをシングルタッチモードに変更する(ステップS2)。
また、制御部150は、トリガーボタン135の押下状態が継続している場合(ステップS8/YES)、ステップS7に戻り入力操作取得部110から操作情報が入力されたか否かを判定する(ステップS7)。
また、制御部150は、入力操作取得部110から操作情報が入力された場合(ステップS7/YES)、操作情報が示す操作面14aの接触位置に対応する表示領域VRの位置にポインターを表示させる(ステップS9)。マルチタッチモードの場合、制御部150は、マルチ実ポインター320、疑似ポインター330及び基点ポインター340の3つのポインターを表示させる(ステップS9)。このとき、マルチ実ポインター320、疑似ポインター330及び基点ポインター340は、同一の位置に重なって表示される。
次に、制御部150は、補助画像360を表示領域VRに表示させる(ステップS10)。補助画像360には、操作情報が示す操作面14aの接触位置を示すマーク362の画像が表示される。次に、制御部150は、入力された操作情報から操作指の接触面積を示す情報を取得し、取得した情報が示す接触面積を予め設定されたしきい値と比較する。制御部150は、接触面積がしきい値以上である場合(ステップS11/YES)、動作モードを点対称モードに設定する(ステップS12)。そして、制御部150は、入力操作取得部110から次の操作情報が入力されたか否かを判定する(ステップS13)。制御部150は、次の操作情報が入力されない場合(ステップS13/NO)、トリガーボタン135の押下状態が継続しているか否かを判定する(ステップS14)。制御部150は、トリガーボタン135の押下状態が継続していない場合(ステップS14/NO)、ステップS2に移行して動作モードをシングルタッチモードに変更するステップS2)。また、制御部150は、トリガーボタン135の押下状態が継続している場合(ステップS14/YES)、ステップS13の判定に戻る。
また、制御部150は、操作情報が入力された場合(ステップS13/YES)、この操作情報に含まれる移動方向及び移動距離の情報に基づき、操作指の接触位置に変化があるか否かを判定する(ステップS15)。制御部150は、接触位置に変化がないと判定する場合(ステップS15/NO)、ステップS13に戻り、次の操作情報が入力操作取得部110から入力されたか否かを判定する(ステップS13)。また、制御部150は、接触位置に変化があったと判定する場合(ステップS15/YES)、マルチ実ポインター320及び疑似ポインター330の表示位置を変更する(ステップS16)。具体的には、制御部150は、操作情報に含まれる移動方向に対応する方向であって、操作情報に含まれる移動距離に対応する距離だけマルチ実ポインター320の表示位置を変更する。また、制御部150は、基点ポインター340の表示位置を点対称の中心として、マルチ実ポインター320に対して点対称な位置に疑似ポインター330を表示させる。
次に、制御部150は、変更されたマルチ実ポインター320及び疑似ポインター330の動きに基づいて、使用者により入力された操作を判定する。制御部150は、判定した操作に対応した処理を実行する(ステップS17)。
次に、制御部150は、トリガーボタン135が押下状態であるか否かを判定する(ステップS18)。制御部150は、トリガーボタン135が押下状態である場合(ステップS18/YES)、ステップS13に戻り、入力操作取得部110から操作情報が入力されたか否かを判定する(ステップS13)。また、制御部150は、トリガーボタン135の押下状態が解除された場合(ステップS18/NO)、ステップS2に戻り動作モードをシングルタッチモードに変更する。
また、制御部150は、ステップS11の判定において、接触面積がしきい値よりも小さいと判定すると(ステップS11/NO)、動作モードとして線対称モードを選択する(ステップS19)。そして、制御部150は、入力操作取得部110から次の操作情報が入力されたか否かを判定する(ステップS20)。制御部150は、次の操作情報が入力されない場合(ステップS20/NO)、トリガーボタン135の押下状態が継続しているか否かを判定する(ステップS21)。制御部150は、トリガーボタン135の押下状態が継続していない場合(ステップS21/NO)、ステップS2に移行して動作モードをシングルタッチモードに変更する(ステップS2)。また、制御部150は、トリガーボタン135の押下状態が継続している場合(ステップS21/YES)、ステップS20に戻り入力操作取得部110から次の操作情報が入力されたか否かを判定する(ステップS19)。
また、制御部150は、操作情報が入力された場合(ステップS20/YES)、入力された操作情報に基づき、操作指の接触位置に変化があるか否かを判定する(ステップS22)。制御部150は、接触位置に変化がないと判定する場合(ステップS22/NO)、ステップS20に戻り、次の操作情報が入力操作取得部110から入力されたか否かを判定する(ステップS20)。また、制御部150は、接触位置に変化があったと判定する場合(ステップS22/YES)、操作情報に含まれる移動方向及び移動距離の情報に基づいて、線対称の対称軸350を設定する方向を判定する(ステップS23)。制御部150は、接触操作の操作面14a上のx方向の移動距離がy方向の移動距離よりも大きい場合には、表示領域VRのX軸に平行な方向に線対称の対称軸350を設定する。また、制御部150は、接触操作の操作面14a上のy方向の移動距離がx方向の移動距離よりも大きい場合には、表示領域VRのY軸に平行な方向に線対称の対称軸350を設定する。
制御部150は、線対称の対称軸350を設定すると、入力された操作情報に含まれる移動方向及び移動距離の情報に基づいて、マルチ実ポインター320及び疑似ポインター330の表示位置を変更する(ステップS24)。具体的には、制御部150は、操作情報に含まれる移動方向に対応する方向であって、操作情報に含まれる移動距離に対応する距離だけマルチ実ポインター320の表示位置を移動させる。また、制御部150は、設定した線対称の対称軸350に対して、マルチ実ポインター320の線対称の位置に表示されるように疑似ポインター330の表示位置を変更する。
次に、制御部150は、変更されたマルチ実ポインター320及び疑似ポインター330の表示位置に基づいて、使用者により入力された操作を判定する。制御部150は、判定した操作に対応した処理を実行する(ステップS25)。
次に、制御部150は、トリガーボタン135が押下状態であるか否かを判定する(ステップS26)。制御部150は、トリガーボタン135が押下状態である場合(ステップS26/YES)、ステップS20に戻り、入力操作取得部110から操作情報が入力されたか否かを判定する(ステップS20)。また、制御部150は、トリガーボタン135の押下状態が解除された場合(ステップS26/NO)、ステップS2に戻り動作モードをシングルタッチモードに変更する。
図21は、HMD100の制御部150の第2の動作を示すフローチャートである。この動作モードでは、複数本の操作指によるマルチタッチ操作も可能な場合の処理フローである。
まず、制御部150は、トラックパッド14の操作面14aに接触する操作指の本数を検出する(ステップS31)。操作面14aに複数本の操作指を同時に接触させた場合、入力操作取得部110は、操作面14a上の複数の位置を示す座標情報を操作情報として制御部150に出力する。このため、制御部150は、入力操作取得部110から入力される操作情報に基づいて操作面14aに接触する操作指の本数を検出することができる。
次に制御部150は、検出した操作指の本数が0本である場合(ステップS32/YES)、表示領域VRに表示させたポインター(シングル実ポインター310、又はマルチ実ポインター320、疑似ポインター330及び基点ポインター340)を非表示にする(ステップS33)。また、制御部150は、検出した操作指の本数が0本ではなく(ステップS33/NO)、2本以上の操作指が検出された場合(ステップS34/YES)、検出した複数本の操作指によりマルチタッチ操作を行うマルチタッチモードに設定する(ステップS35)。そして、制御部150は、複数本の操作指によるマルチタッチ操作を実行するため、他の処理フローに移行する(ステップS36)。また、制御部150は、マルチタッチ操作のための処理と並行して、操作面14aに接する操作指の本数を検出する(ステップS31)。制御部150は、操作面14aに接する操作指の本数に変化があった場合には、図21に示すフローに戻り、検出した本数に対応した処理を実行する。
また、制御部150は、検出した操作指の本数が2本以上ではない場合(ステップS34/NO)、1本の操作指によりマルチタッチ操作を行うマルチタッチモードに移行するか否かを判定する(ステップS37)。制御部150は、トリガーボタン135が押下されたか否かを判定して、マルチタッチモードに移行するか否かを判定する。制御部150は、マルチタッチモードに移行しないと判定した場合(ステップS37/NO)、シングル実ポインター310を表示領域VRに表示させる(ステップS38)。また、制御部150は、マルチタッチモードに移行すると判定した場合(ステップS37/YES)、表示領域VRに補助画像360を表示させる(ステップS39)。
次に制御部150は、補助画像360を表示領域VRに表示させると、使用者により選択されたモードは点対称モードであるか否かを判定する(ステップS40)。制御部150は、入力操作取得部110から入力される操作情報に含まれる接触面積の情報を、予め設定されたしきい値と比較して、点対称モードが選択されたか否かを判定する。制御部150は、操作指の選択面積がしきい値よりも大きい場合、点対称モードが選択されたと判定する(ステップS40/YES)。この場合、制御部150は、シングル実ポインター310を表示領域VRに表示させると共に、疑似ポインター330と点対称に疑似ポインター330を表示させる(ステップS41)。そして、制御部150は、トリガーボタン135から指が離され(ステップS42)、トリガーボタン135の押下が解除されたか否かを判定してマルチタッチモードを解除するか否かを判定する。制御部150は、トリガーボタン135の押下が解除された場合(ステップS42/YES)、ステップS31の判定に戻る。また、制御部150は、トリガーボタン135の押下が解除されていない場合(ステップS42/NO)、操作情報に従ってマルチ実ポインター320の表示位置を変更し、さらに疑似ポインター330をマルチ実ポインター320の点対称の位置に表示させる(ステップS41)。
また、制御部150は、操作指の選択面積がしきい値以下の場合、線対称モードが選択されたと判定する(ステップS40/NO)。この場合、制御部150は、シングル実ポインター310を表示領域VRに表示させると共に、疑似ポインター330と線対称に疑似ポインター330を表示させる(ステップS43)。そして、制御部150は、トリガーボタン135から指が離され(ステップS44)、トリガーボタン135の押下が解除されたか否かを判定してマルチタッチモードを解除するか否かを判定する。制御部150は、トリガーボタン135の押下が解除された場合(ステップS44/YES)、ステップS31の判定に戻る。また、制御部150は、トリガーボタン135の押下が解除されていない場合(ステップS44/NO)、操作情報に従ってマルチ実ポインター320の表示位置を変更し、さらに疑似ポインター330をマルチ実ポインター320の線対称の位置に表示させる(ステップS43)。
以上説明したように本実施形態は、画像表示部20と、トラックパッド14の操作面14aと、操作を検出する操作部115とを備える。また、本実施形態は、シングルタッチモードとマルチタッチモードとを備える。シングルタッチモードでは、画像表示部20に操作対象のシングル実ポインター310を表示させ、操作面14aに対する操作に対応してシングル実ポインター310の表示位置を変更する。また、マルチタッチモードでは、画像表示部20にマルチ実ポインター320と疑似ポインター330とを表示させ、操作面14aに対する操作に対応してマルチ実ポインター320及び疑似ポインター330の表示位置を変更する。
制御部150は、操作部115により予め設定された態様の操作が検出された場合にシングルタッチモードとマルチタッチモードとを切り替える。また、制御部150は、マルチタッチモードにおいて、操作面14aに対する操作に対応して疑似ポインター330を画像表示部20の表示領域VRの外部に対応する位置に移動させる場合に、疑似ポインター330の表示態様を変更する。
従って、操作面14aに対する操作により、マルチ実ポインター320の表示位置を変更するシングルタッチモードと、マルチ実ポインター320及び疑似ポインター330の操作位置を変更するマルチタッチモードとを切り替えて実行することができる。
また、疑似ポインター330が画像表示部20の表示領域VRの外部に対応する位置に移動した場合に、疑似ポインター330の表示態様が変更される。このため、疑似ポインター330の表示位置が表示領域VRから外れたことを使用者に認識させることができる。従って、使用者に、マルチ実ポインター320及び疑似ポインター330を操作可能な表示位置に戻させることができる。
また、制御部150は、マルチタッチモードにおいて、マルチ実ポインター320及び疑似ポインター330の表示位置を管理する座標管理領域163を設定する。制御部150は、操作面14aに対する操作により、座標管理領域163でのマルチ実ポインター320及び疑似ポインター330の表示位置を示す座標を変更する。さらに、座標管理領域163は、表示領域VRのサイズよりも大きい。
従って、マルチ実ポインター320及び疑似ポインター330の表示位置を座標管理領域163での座標として管理することができる。また、座標管理領域163のサイズが表示領域VRのサイズよりも大きいことで、マルチ実ポインター320又は疑似ポインター330が表示領域VRの外側に位置する場合であっても、このオブジェクトの座標を管理することができる。
また、制御部150は、操作モードをマルチタッチモードに切り替える場合に、操作面14aに対する操作の操作位置を示す補助画像360を表示させる。
従って、操作モードがマルチタッチモードに切り替えられた場合に、操作面14aに対する操作の操作位置を示す補助画像360を表示させることができる。このため、使用者の頭部に装着される画像表示部20を有するHMD100において、操作面14aに対する操作の操作性を向上させることができる。
また、制御部150は、操作面14aに対する操作の操作位置が、操作面14aの予め設定された領域にある場合に、補助画像360を表示させる。
例えば、操作位置が操作面14aの端部である場合に補助画像360を表示させることで、操作面14aから外れた操作が行われるのを防止することができる。
また、6軸センサー235は、画像表示部20の動きを検出し、制御部150は、6軸センサー235により画像表示部20の予め設定された動きが検出された場合に、予め設定された態様の操作が検出されたと判定する。この場合、制御部150は、操作モードをシングルタッチモードからマルチタッチモードに切り替える。
従って、使用者が頭部を動かすことで、頭部に装着された画像表示部20の動きが検出され、操作モードをシングルタッチモードからマルチタッチモードに切り替えることができる。
また、HMD100は、画像表示部20を透過して視認される外景を含む範囲を撮像するカメラ61を備える。制御部150は、カメラ61の撮像画像に操作面14aを備える制御装置10が撮像された場合に、予め設定された態様の操作が検出されたと判定し、操作モードをシングルタッチモードからマルチタッチモードに切り替える。
従って、カメラ61に制御装置10が撮像されるように操作部を動かすことで、操作モードをシングルタッチモードからマルチタッチモードに切り替えることができる。
また、本発明は、操作面14aを備える操作部は、シフト操作モードとマルチタッチモードとを切り替えるボタンを備え、制御部150は、ボタンの押下操作が検出された場合に、予め設定された態様の操作が検出されたと判定し、操作モードをシングルタッチモードからマルチタッチモードに切り替える。
本発明によれば、ボタンの操作により操作モードをシングルタッチモードからマルチタッチモードに切り替えることができる。
また、制御部150は、トリガーボタン135の押下操作の検出が継続している間、操作モードをマルチタッチモードとし、ボタンの押下操作が検出されなくなると、操作モードをシングルタッチモードに切り替える。
従って、トリガーボタン135の押下操作を継続することで、操作モードをマルチタッチモードに変更し、ボタンの押下操作を解除することで、操作モードをシングルタッチモードに変更することができる。
また、制御部150は、マルチタッチモードにおいて、予め設定された態様の操作に基づき設定される設定位置を挟んでマルチ実ポインター320と対向する表示位置に疑似ポインター330を表示する。
従って、設定位置を挟んで対向する位置に表示されるマルチ実ポインター320及び疑似ポインター330を、操作面14aに対する操作により操作することができる。このため、マルチ実ポインター320及び疑似ポインター330の表示位置の変化を、回転や、拡大、縮小、平行移動等の操作に対応付けることで、操作面14aに対する操作によりこれらの操作を行うことができる。
また、制御部150は、マルチタッチモードにおいて、設定位置を対称の中心として、マルチ実ポインター320に対する点対称の位置に疑似ポインター330を表示する第1態様と、設定位置を対称軸として、マルチ実ポインター320に対する線対称の位置に疑似ポインター330を表示する第2態様とを切り替える。
従って、点対称の位置、又は線対称の位置に表示されたマルチ実ポインター320及び疑似ポインター330の表示位置を、操作面14aに対する操作により変更することができる。このため、マルチ実ポインター320及び疑似ポインター330の表示位置の変化を、回転や、拡大、縮小、平行移動等の操作に対応付けることで、操作面14aに対する操作によりこれらの操作を行うことができる。
また、トラックパッド14及び入力操作取得部110は、操作面14aに対する接触操作が行われた場合の接触面積、又は操作面14aへの押圧力を検出する。制御部150は、検出部が検出する接触面積及び押圧力の少なくともいずれかに基づき、第1態様と第2態様とのいずれかを選択する。従って、接触操作の接触面積又は押圧力を変更することで、第1態様と第2態様とを選択することができる。
また、制御部150は、マルチタッチモードにおいて、操作面14aに対する操作によりマルチ実ポインター320の表示位置を変化させ、マルチ実ポインター320の表示位置の変化に対応して疑似ポインター330の表示位置を変化させる。
従って、マルチ実ポインター320の表示位置の変化に対応して疑似ポインター330の表示位置が変化する。このため、操作面14aに対する操作により第1オジェクトの表示位置を変更することで、疑似ポインター330の表示位置も変更することができる。
また、制御部150は、マルチタッチモードにおいて、操作面14aの連続する位置が1の指示体により指示された場合に、マルチ実ポインター320及び疑似ポインター330の表示位置を変更する。
従って、1本の操作指の操作によりマルチ実ポインター320及び疑似ポインター330の表示位置を変更することができる。
また、制御部150は、マルチタッチモードにおいて、マルチ実ポインター320と疑似ポインター330との表示位置の変化に対応した処理を実行する。
従って、操作面14aに対する操作により、マルチ実ポインター320と疑似ポインター330との表示位置の変化に対応した処理を実行することができる。
上述した実施形態は、本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態では、操作面14aに接触する操作指の接触面積がしきい値以上である場合に点対称モードに設定し、接触面積がしきい値よりも小さい場合に線対称モードに設定した。これとは逆に、操作指の接触面積がしきい値以上である場合に線対称モードとに設定し、接触面積がしきい値よりも小さい場合に点対称モードに設定してもよい。
また、操作指による操作面14aの接触圧をしきい値と比較して、点対称モードと線対称モードとを切替えてもよい。例えば、接触圧がしきい値以上である場合、操作制御部155は動作モードとして点対称モードを選択し、接触圧がしきい値よりも小さい場合、操作制御部155は動作モードとして線対称モードを選択する。また、これとは逆に、操作制御部155は、接触圧がしきい値以上である場合に線対称モードを選択し、接触圧がしきい値よりも小さい場合に点対称モードを選択してもよい。
また、操作部115に操作子13として設けられた操作ボタン11や、上下キー15、切替スイッチ16等の操作により点対称モードと線対称モードとの切替えを行ってもよい。また、操作子13を長押しする、複数の操作子13を同時に操作する、等の操作により点対称モードと線対称モードとの切替えを行ってもよい。
また、上述した実施形態では、トリガーボタン135が押下されている間だけ、制御部150の動作モードをマルチタッチモードとしたが、マルチタッチモードとシングルタッチモードの切替えをトリガーボタン135が押下された回数により変更してもよい。例えば、トリガーボタン135が1回押下された場合、制御部150はシングルタッチモードを選択し、トリガーボタン135が2回連続して押下された場合、制御部150はマルチタッチモードを選択する。
また、操作制御部155は、6軸センサー123により検出される制御装置10の向きに基づいて、シングルタッチモードとマルチタッチモード、及び点対称モードと線対称モードとの切替えを実行してもよい。
例えば、操作制御部155は、制御装置10の向きが第1の向き(例えば、垂直)で、トリガーボタン135等の操作部115の操作を受け付けた場合に、シングルタッチモードとマルチタッチモードとの切替えを行う。また、操作制御部155は、制御装置10の向きが第2の向き(例えば、水平)で、トリガーボタン135等の操作部115の操作を受け付けた場合に、点対称モードと線対称モードとの切替えを行う。操作部115の操作は、画像表示部20に搭載された6軸センサー235により検出される頭部の動き(うなずきや首振り)であってもよい。
また、上述した実施形態では、トリガーボタン135の操作によりシングルタッチモードとマルチタッチモードとの動作モードの変更を行ったが、カメラ61の撮像画像により動作モードの変更を行ってもよい。例えば、カメラ61により制御装置10が撮像された場合に、操作制御部155は、動作モードをシングルタッチモードからマルチタッチモードに変更し、カメラ61により制御装置10が撮像されなくなると、操作制御部155は、動作モードをマルチタッチモードからシングルタッチモードに変更してもよい。
また、画像表示部20に搭載された6軸センサー235の検出値に基づいて、操作制御部155の動作モードを変更してもよい。例えば、操作制御部155は、6軸センサー235の検出値により使用者の頭部のうなずき(頭部の上下方向への動き)が検出された場合、操作制御部155は、動作モードをマルチタッチモードに変更し、首振り(頭部の左右方向への動き)が検出された場合、操作制御部155は、動作モードをシングルタッチモードに変更する。
また、カメラ61の撮像画像により制御装置10が撮像され、その後に、予め設定されたトリガーが検出された場合に、操作制御部155は、動作モードをシングルタッチモードからマルチタッチモードに変更してもよい。この予め設定されたトリガーは、トリガーボタン135の押下操作であってもよいし、操作部115の操作子13の操作であってもよい。また、予め設定されたトリガーは、6軸センサー235の検出値により検出される使用者の頭部のうなずきや首振り動作であってもよい。
また、図7〜図14には、マルチ実ポインター320、疑似ポインター330及び基点ポインター340を示す画像として円の画像を示したが、これらのポインターの画像は他の形状の画像であってもよい。例えば、マルチ実ポインター320及び疑似ポインター330が静止した状態では円の画像を表示し、接触操作により表示位置を変更する場合には、ポインターの移動方向を示す矢印の画像を表示させてもよい。
また、図7〜図14には、マルチ実ポインター320、疑似ポインター330及び基点ポインター340を示す画像として同一の形状の画像を示したが、これらのポインターを示す画像をそれぞれ異なる形状の画像としてもよい。
また、上述した実施形態は、1本の操作指による接触操作により、マルチ実ポインター320及び疑似ポインター330の表示位置を変更する場合について説明したが、操作指の本数は、1本に限定されるものではなく、2本以上であってもよい。例えば、人指し指と中指、又は人指し指と中指と薬指の3本の指を接触させて、1本の操作指として操作することも可能である。
また、HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータ162に基づく画像や音声を出力できる。
また、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部126が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。すなわち、制御装置10は、箱形のケース10Aを備える構成に限定されない。例えば、制御装置10に代えて、使用者の身体、着衣又は、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、上記の実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、画像表示部20に代えてヘッドアップディスプレイを用いることで、自動車や飛行機等の車両に搭載することも可能である。例えば、車両にヘッドアップディスプレイを搭載する場合、トラックパッド14の操作面14aに相当する操作面を車両のハンドル等に設ける。
また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121又は制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部126や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部115が使用者インターフェイス(UI)として形成されてもよい。
また、図18〜図20に示すフローチャートの処理単位は、HMD100の制御部150の処理を理解容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
10…制御装置、10A…ケース、11…操作ボタン、12…LEDインジケーター、13…操作子、14…トラックパッド、14a…操作面、15…上下キー、16…切替スイッチ、17…LED表示部、18…電源スイッチ、19…バイブレーター、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ(撮像部)、63…マイク、65…照度センサー、67…LEDインジケーター、100…頭部装着型表示装置、110…入力操作取得部、115…操作部(検出部)、120…コントローラー基板、121…不揮発性記憶部、122…メモリー、123…6軸センサー、124…磁気センサー、125…GPS受信部、126…通信部、130…電源部、132…バッテリー、134…電源制御回路、135…トリガーボタン(ボタン)、140…メインプロセッサー、150…制御部、151…OS、152…画像処理部、153…撮像制御部、155…操作制御部、160…記憶部、161…設定データ、162…コンテンツデータ、163…座標管理領域、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196、211、231…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、233…受信部、235…6軸センサー(検出部)、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261、281…ハーフミラー、310…シングル実ポインター、320…マルチ実ポインター(第1オブジェクト)、330…疑似ポインター(第2オブジェクト)、340…基点ポインター、340…疑似ポインター、350…対称軸、360…補助画像、362…マーク。

Claims (15)

  1. 使用者の頭部に装着される頭部装着型の表示部と、
    操作面と、
    操作を検出する検出部と、
    前記表示部に操作対象の第1オブジェクトを表示させ、前記操作面に対する操作に対応して前記第1オブジェクトの表示位置を変更するシングル操作モード、及び前記表示部に前記第1オブジェクトと第2オブジェクトとを表示させ、前記操作面に対する操作に対応して前記第1オブジェクト及び前記第2オブジェクトの表示位置を変更するマルチ操作モードを実行可能に構成され、前記検出部により予め設定された態様の操作が検出された場合に前記シングル操作モードと前記マルチ操作モードとを切り替える制御部と、を備え、
    前記制御部は、前記マルチ操作モードにおいて、前記操作面に対する操作に対応して前記第2オブジェクトを前記表示部の表示領域の外部に対応する位置に移動させる場合に、前記第2オブジェクトの表示態様を変更する頭部装着型表示装置。
  2. 前記制御部は、前記マルチ操作モードにおいて、前記第1オブジェクト及び前記第2オブジェクトの表示位置を管理する座標管理領域を設定し、前記操作面に対する操作により、前記座標管理領域での前記第1オブジェクト及び前記第2オブジェクトの表示位置を示す座標を変更し、
    前記座標管理領域は、前記表示領域のサイズよりも大きいことを特徴する請求項1記載の頭部装着型表示装置。
  3. 前記制御部は、操作モードを前記マルチ操作モードに切り替える場合に、前記操作面に対する操作の操作位置を示す補助画像を表示させる請求項1又は2に記載の頭部装着型表示装置。
  4. 前記制御部は、前記操作面に対する操作の前記操作位置が、前記操作面の予め設定された領域にある場合に、前記補助画像を表示させる請求項3記載の頭部装着型表示装置。
  5. 前記検出部は、前記表示部の動きを検出し、
    前記制御部は、前記検出部により前記表示部の予め設定された動きが検出された場合に、予め設定された態様の操作が検出されたと判定し、操作モードを前記シングル操作モードから前記マルチ操作モードに切り替える請求項1から4のいずれか1項に記載の頭部装着型表示装置。
  6. 前記表示部を透過して視認される外景を含む範囲を撮像する撮像部を備え、
    前記制御部は、前記撮像部の撮像画像に前記操作面を備える操作部が撮像された場合に、予め設定された態様の操作が検出されたと判定し、操作モードを前記シングル操作モードから前記マルチ操作モードに切り替える請求項1から4のいずれか1項に記載の頭部装着型表示装置。
  7. 前記操作面を備える操作部は、前記シフト操作モードと前記マルチ操作モードとを切り替えるボタンを備え、
    前記制御部は、前記ボタンの押下操作が検出された場合に、予め設定された態様の操作が検出されたと判定し、操作モードを前記シングル操作モードから前記マルチ操作モードに切り替える請求項1から4のいずれか1項に記載の頭部装着型表示装置。
  8. 前記制御部は、前記ボタンの押下操作の検出が継続している間、操作モードを前記マルチ操作モードとし、前記ボタンの押下操作が検出されなくなると、操作モードを前記シングル操作モードに切り替える請求項7記載の頭部装着型表示装置。
  9. 前記制御部は、前記マルチ操作モードにおいて、予め設定された態様の操作に基づき設定される設定位置を挟んで前記第1オブジェクトと対向する表示位置に前記第2オブジェクトを表示する請求項1から8のいずれか1項に記載の頭部装着型表示装置。
  10. 前記制御部は、前記マルチ操作モードにおいて、前記設定位置を対称の中心として、前記第1オブジェクトに対する点対称の位置に前記第2オブジェクトを表示する第1態様と、前記設定位置を対称軸として、前記第1オブジェクトに対する線対称の位置に前記第2オブジェクトを表示する第2態様とを切り替える請求項9記載の頭部装着型表示装置。
  11. 前記検出部は、前記操作面に対する接触操作が行われた場合の接触面積、又は前記操作面への押圧力を検出し、
    前記制御部は、前記検出部が検出する前記接触面積及び前記押圧力の少なくともいずれかに基づき、前記第1態様と前記第2態様とのいずれかを選択する請求項10記載の頭部装着型表示装置。
  12. 前記制御部は、前記マルチ操作モードにおいて、前記操作面に対する操作により前記第1オブジェクトの表示位置を変化させ、前記第1オブジェクトの表示位置の変化に対応して前記第2オブジェクトの表示位置を変化させる請求項1から11のいずれか1項に記載の頭部装着型表示装置。
  13. 前記制御部は、前記マルチ操作モードにおいて、前記操作面の連続する位置が1の指示体により指示された場合に、前記第1オブジェクト及び前記第2オブジェクトの表示位置を変更する請求項1から12のいずれか1項に記載の頭部装着型表示装置。
  14. 前記制御部は、前記マルチ操作モードにおいて、前記第1オブジェクトと前記第2オブジェクトとの表示位置の変化に対応した処理を実行する請求項1から13のいずれか1項に記載の頭部装着型表示装置。
  15. 使用者の頭部に装着される頭部装着型の表示部と、操作面と、操作を検出する検出部とを備える頭部装着型表示装置の制御方法であって、
    前記表示部に操作対象の第1オブジェクトを表示させ、前記操作面に対する操作に対応して前記第1オブジェクトの表示位置を変更するシングル操作モード、及び前記表示部に前記第1オブジェクトと第2オブジェクトとを表示させ、前記操作面に対する操作に対応して前記第1オブジェクト及び前記第2オブジェクトの表示位置を変更するマルチ操作モードを有し、前記検出部により予め設定された態様の操作が検出された場合に前記シングル操作モードと前記マルチ操作モードとを切り替え、
    前記マルチ操作モードにおいて、前記操作面に対する操作に対応して前記第2オブジェクトを前記表示部の表示領域の外部に対応する位置に移動させる場合に、前記第2オブジェクトの表示を前記表示領域から消去する処理を実行する頭部装着型表示装置の制御方法。
JP2017015488A 2017-01-31 2017-01-31 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 Pending JP2018124721A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017015488A JP2018124721A (ja) 2017-01-31 2017-01-31 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
US15/875,654 US10261327B2 (en) 2017-01-31 2018-01-19 Head mounted display and control method for head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017015488A JP2018124721A (ja) 2017-01-31 2017-01-31 頭部装着型表示装置、及び頭部装着型表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2018124721A true JP2018124721A (ja) 2018-08-09

Family

ID=62979822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017015488A Pending JP2018124721A (ja) 2017-01-31 2017-01-31 頭部装着型表示装置、及び頭部装着型表示装置の制御方法

Country Status (2)

Country Link
US (1) US10261327B2 (ja)
JP (1) JP2018124721A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828575B2 (ja) * 2017-04-26 2021-02-10 コニカミノルタ株式会社 医用画像表示装置及びプログラム
IL311011A (en) * 2017-05-30 2024-04-01 Magic Leap Inc Power supply assembly with fan assembly for an electronic device
EP3542252B1 (en) * 2017-08-10 2023-08-02 Google LLC Context-sensitive hand interaction
US10732826B2 (en) * 2017-11-22 2020-08-04 Microsoft Technology Licensing, Llc Dynamic device interaction adaptation based on user engagement
US10514545B2 (en) * 2017-12-08 2019-12-24 Facebook Technologies, Llc Selective tracking of a head-mounted display
JP2020071065A (ja) * 2018-10-29 2020-05-07 株式会社ミツトヨ 測定データ収集装置およびプログラム
US10895949B2 (en) * 2019-02-22 2021-01-19 Htc Corporation Head mounted display and display method for eye-tracking cursor
DE102019208235B4 (de) * 2019-06-05 2023-12-14 Volkswagen Aktiengesellschaft Verfahren zur Bedienung einer HMD-Anzeigeeinheit für ein Fahrzeug, HMD-Anzeigeeinheit, Multifunktionslenkrad sowie Fahrzeug zur Verwendung bei dem Verfahren
JP2024025272A (ja) 2022-08-12 2024-02-26 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5280965B2 (ja) 2009-08-04 2013-09-04 富士通コンポーネント株式会社 タッチパネル装置及び方法並びにプログラム及び記録媒体
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9513799B2 (en) * 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
KR20160125674A (ko) * 2015-04-22 2016-11-01 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20170126295A (ko) * 2016-05-09 2017-11-17 엘지전자 주식회사 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
US10140776B2 (en) * 2016-06-13 2018-11-27 Microsoft Technology Licensing, Llc Altering properties of rendered objects via control points

Also Published As

Publication number Publication date
US10261327B2 (en) 2019-04-16
US20180217379A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10261327B2 (en) Head mounted display and control method for head mounted display
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20170287222A1 (en) Head mounted display, method for controlling head mounted display, and computer program
US10948974B2 (en) Head-mounted display device, program, and method for controlling head-mounted display device
US20180259775A1 (en) Transmission-type display device, display control method, and computer program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018124651A (ja) 表示システム
JP2019082891A (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2018137505A (ja) 表示装置およびその制御方法
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP2014187574A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
US20180260068A1 (en) Input device, input control method, and computer program
JP6932917B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019053644A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017182413A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6459516B2 (ja) 表示システム、プログラム、サーバー装置、及び、表示装置の制御方法