JP6638392B2 - Display device, display system, display device control method, and program - Google Patents
Display device, display system, display device control method, and program Download PDFInfo
- Publication number
- JP6638392B2 JP6638392B2 JP2015256139A JP2015256139A JP6638392B2 JP 6638392 B2 JP6638392 B2 JP 6638392B2 JP 2015256139 A JP2015256139 A JP 2015256139A JP 2015256139 A JP2015256139 A JP 2015256139A JP 6638392 B2 JP6638392 B2 JP 6638392B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- image
- display unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、表示装置、表示システム、表示装置の制御方法、及び、プログラムに関する。 The present invention relates to a display device, a display system, a control method for a display device, and a program.
従来、頭部装着型の表示装置であるヘッドマウントディスプレイ(Head Mounted Display:HMD)が知られている(例えば、特許文献1参照)。特許文献1には、ユーザーの眼前に装着され、ユーザーを、現実世界からの干渉を受けることなく仮想世界の画像に没入させる。 2. Description of the Related Art Conventionally, a head mounted display (HMD), which is a head-mounted display device, is known (for example, see Patent Document 1). In Patent Literature 1, it is worn in front of a user and immerses the user in an image of a virtual world without receiving interference from the real world.
ところで、HMDの中には、現実世界の実空間を視認できる構成を有するものもある。この種のHMDの用途として、例えば、実空間の対象に対する作業を支援する目的で使用されるHMDは、テキストや画像を表示する用途がある。このような場合に、使用者がHMDを操作するために、コントローラーのスイッチを触る動作を行うことは、操作を行う手を空ける必要があり、面倒である。また、特許文献1に記載されたように使用者の眼前に配置されるタッチセンサーに触る動作も、操作を行う手を空ける必要があり、面倒である。さらに、特許文献1に記載されたタッチセンサーは眼前のスペースに配設されており、現実世界の実空間を視認できる構成のHMDに適用することはできない。
本発明は上記事情に鑑みてなされたものであり、頭部装着型の表示装置を装着する使用者が、容易に、表示装置に対する操作を行えるようにすることを目的とする。
By the way, some HMDs have a configuration in which a real space in the real world can be visually recognized. As an application of this type of HMD, for example, an HMD used to support work on an object in a real space has a use of displaying a text or an image. In such a case, it is troublesome for the user to perform an operation of touching a switch of the controller in order to operate the HMD, since it is necessary to open a hand for performing the operation. Also, the operation of touching the touch sensor disposed in front of the user as described in Patent Literature 1 is troublesome because it is necessary to open a hand for performing the operation. Further, the touch sensor described in Patent Literature 1 is disposed in a space in front of the eyes, and cannot be applied to an HMD having a configuration in which a real space in the real world can be visually recognized.
The present invention has been made in view of the above circumstances, and has as its object to enable a user wearing a head-mounted display device to easily operate the display device.
上記目的を達成するために、本発明の表示装置は、使用者の頭部に装着された状態で、前記使用者が実空間を視認可能に画像を表示する表示部と、前記表示部周辺への指示体の接近を検出する検出部と、前記検出部の検出結果に対応して、前記表示部の表示を伴う処理を実行する制御部と、を備え、前記検出部が検出する前記表示部周辺に対する2以上の操作に対応付けて前記制御部が実行する処理が設定され、前記制御部は、前記検出部によって前記表示部周辺に対する2以上の操作が検出された場合に、設定された処理を実行すること、を特徴とする。
本発明によれば、表示部に指示体を接近させることにより、表示部に接触することなく容易に表示装置を操作できる。例えば、作業中に操作を行う場合等の利便性の向上を図ることができる。また、表示部周辺に対する2以上の操作に対応付けられた処理を実行することにより、誤操作を防止できる。
In order to achieve the above object, a display device of the present invention, in a state of being mounted on a user's head, a display unit that displays an image so that the user can visually recognize the real space, and a display unit around the display unit A detection unit that detects the approach of the indicator of the above, and a control unit that executes a process involving display on the display unit in accordance with the detection result of the detection unit, and the display unit that the detection unit detects A process executed by the control unit in association with two or more operations on the periphery is set, and the control unit performs the set process when the detection unit detects two or more operations on the periphery of the display unit. Is performed.
ADVANTAGE OF THE INVENTION According to this invention, a display device can be operated easily without contacting a display part by making a pointer approach a display part. For example, it is possible to improve convenience when performing an operation during a work. Further, erroneous operations can be prevented by executing processing associated with two or more operations on the periphery of the display unit.
また、本発明は、上記表示装置において、前記表示部は、前記使用者の頭部に装着された状態で前記使用者の左眼側に位置する左眼用表示部、及び、右眼側に位置する右眼用表示部を備え、前記検出部が検出する前記左眼用表示部に対する操作と前記右眼用表示部に対する操作との組み合わせに対応付けて、前記制御部が実行する処理が設定されること、を特徴とする。
本発明によれば、より確実に誤操作を防止できる。
Further, according to the present invention, in the display device, the display unit is a left-eye display unit positioned on the left eye side of the user in a state where the display unit is mounted on the head of the user, and on the right eye side. The display unit for the right eye is located, and the processing executed by the control unit is set in association with a combination of an operation on the display unit for the left eye and an operation on the display unit for the right eye detected by the detection unit. Be performed.
According to the present invention, an erroneous operation can be more reliably prevented.
また、本発明は、上記表示装置において、前記検出部は、前記左眼用表示部に対し物体を接近させる操作と接触操作、及び、前記右眼用表示部に対し物体を接近させる操作と接触操作のそれぞれを検出すること、を特徴とする。
本発明によれば、表示装置を様々な態様で操作でき、誤操作を防止できる。
In addition, in the display device according to the present invention, the detection unit may perform an operation of bringing an object closer to the display unit for the left eye and a contact operation, and an operation of bringing the object closer to the display unit for the right eye. Detecting each of the operations.
According to the present invention, the display device can be operated in various modes, and erroneous operations can be prevented.
また、本発明は、上記表示装置において、前記制御部は、前記検出部により2つの位置における接近が検出された場合に、2つの位置に対する接近に対応する操作制御命令画像を表示させ、前記操作制御命令画像が表示された状態で、前記検出部により検出される前記指示体の所定方向の動きに、前記表示部が表示する前記操作制御命令画像の前記所定方向の動きを対応付けること、を特徴とする。
本発明によれば、2つの位置で指示体を接近させる操作に応じて、表示部に表示される操作制御命令画像を、指示体の動きに対応する方向に動かすことができる。これにより、位置指示や方向指示等の操作を、2つの指示体で容易に行うことができる。
Further, in the display device according to the present invention, in the display device, when the detection unit detects the approach at two positions, the control unit displays an operation control instruction image corresponding to the approach to the two positions, and In a state where the control instruction image is displayed, the movement of the indicator in the predetermined direction detected by the detection unit is associated with the movement of the operation control instruction image displayed by the display unit in the predetermined direction. And
According to the present invention, the operation control instruction image displayed on the display unit can be moved in a direction corresponding to the movement of the pointer in response to the operation of bringing the pointer closer to the two positions. Thus, operations such as a position instruction and a direction instruction can be easily performed with the two pointers.
また、本発明は、上記表示装置において、前記制御部は、前記検出部によって、前記右眼用表示部及び前記左眼用表示部の両方において、前記使用者の頭を基準として上下方向または左右方向に物体が移動する操作を検出した場合に、前記表示部の表示領域における上下方向または左右方向の位置入力を受け付けること、を特徴とする。
本発明によれば、表示部に接触することなく位置入力を行うことができる。
In addition, in the display device according to the present invention, the control unit may be configured such that the detection unit causes the right-eye display unit and the left-eye display unit to move vertically or horizontally with respect to the head of the user. When an operation of moving an object in a direction is detected, a position input in a vertical direction or a horizontal direction in a display area of the display unit is received.
According to the present invention, position input can be performed without touching the display unit.
上記表示装置において、前記検出部は、前記表示部の外表面への接触、及び、前記表示部の外側からの物体の接近を検出する構成であってもよい。
また、上記表示装置において、前記制御部は、前記検出部によって物体が回転する操作を検出した場合に、前記表示部の表示領域における表示を回転させる構成であってもよい。
また、上記表示装置において、前記制御部は、前記検出部によって2点に対する操作が検出され、検出された2点の操作位置間の距離が変化した場合に、当該距離の変化に対応して前記表示部の表示領域における表示を拡大または縮小させる構成であってもよい。
In the display device, the detection unit may be configured to detect contact with an outer surface of the display unit and approach of an object from outside the display unit.
In the display device, the control unit may be configured to rotate a display in a display area of the display unit when the detection unit detects an operation of rotating the object.
Further, in the display device, when an operation on two points is detected by the detection unit, and the distance between the detected two operation positions changes, the control unit responds to the change in the distance. The display in the display area of the display unit may be configured to be enlarged or reduced.
また、本発明は、上記表示装置において、撮像部を備え、前記制御部は、前記検出部によって前記表示部の表面に所定時間以上接触する操作、または前記表示部の所定以上の面積を物体により覆う操作を検出した場合に、前記撮像部による撮像を実行させること、を特徴とする。
本発明によれば、表示部に対する操作により、容易に撮像を実行させることができ、誤操作を防止できる。
In addition, the present invention provides the display device, further comprising an imaging unit, wherein the control unit performs an operation of contacting a surface of the display unit for a predetermined time or more by the detection unit, or an object having a predetermined area or more of the display unit. It is characterized in that, when a covering operation is detected, the imaging by the imaging unit is executed.
According to the present invention, imaging can be easily executed by operating the display unit, and erroneous operation can be prevented.
また、本発明は、上記表示装置において、操作を受け付ける操作部を備え、前記制御部は、前記操作部により受け付けられた操作に対応して処理を行う通常動作モードと、前記検出部の検出結果に対応して前記表示部の表示を伴う処理を実行する近接操作モードと、を切り替えて実行すること、を特徴とする。
本発明によれば、接近による操作を行う近接操作モードと通常動作モードとを切り替えることで誤操作を防止できる。
Further, the present invention provides the display device, further comprising: an operation unit that receives an operation, wherein the control unit performs a normal operation mode in which processing is performed in accordance with the operation received by the operation unit, and a detection result of the detection unit. And a switching between a proximity operation mode in which a process involving display on the display unit is executed in response to the above.
According to the present invention, an erroneous operation can be prevented by switching between a proximity operation mode in which an operation based on approach is performed and a normal operation mode.
また、本発明は、上記表示装置において、前記検出部は、前記表示部、或いは、前記表示部を構成する光学部品を保持する保持部への指示体の接近を検出すること、を特徴とする。
本発明によれば、表示部周辺への指示体の接近の接近をより確実に検出し、表示に反映させることができる。
Further, according to the present invention, in the display device described above, the detection unit detects an approach of a pointer to the display unit or a holding unit that holds an optical component included in the display unit. .
ADVANTAGE OF THE INVENTION According to this invention, approach of the approach of the indicator to the periphery of a display part can be detected more reliably, and can be reflected on a display.
また、本発明は、上記表示装置において、前記検出部は、前記表示部の周囲に配置された近接センサーを有し、前記近接センサーにより検出される前記指示体の動きに基づき前記表示と操作制御を対応させること、を特徴とする。
本発明によれば、表示部の周辺に配置される近接センサーによって、表示部の周辺に対する指示体の接近をより確実に検出し、表示に反映させることができる。
Further, according to the present invention, in the display device, the detection unit includes a proximity sensor arranged around the display unit, and the display and operation control are performed based on a movement of the indicator detected by the proximity sensor. Is made to correspond.
According to the present invention, the approach of the pointer to the periphery of the display unit can be more reliably detected and reflected on the display by the proximity sensor arranged around the display unit.
また、本発明は、上記表示装置において、前記制御部は、前記近接センサーにより前記表示部周辺への前記指示体の接近を検出した場合に、前記表示部によって操作制御命令画像を表示させ、前記操作部による操作と前記操作制御命令画像とを対応付けること、を特徴とする。
本発明によれば、表示部の周囲に配置される近接センサーによって検出される指示体の動きを利用して、例えばGUI(Graphical User Interface)として機能する操作制御命令画像を用いて操作を行うことが可能となり、操作性の向上を図ることができる。
The present invention also provides the display device, wherein the control unit displays an operation control command image on the display unit when the proximity sensor detects the approach of the indicator to the periphery of the display unit by the proximity sensor. The operation of the operation unit is associated with the operation control instruction image.
According to the present invention, an operation is performed using, for example, an operation control instruction image functioning as a GUI (Graphical User Interface) by using the movement of a pointer detected by a proximity sensor arranged around a display unit. And operability can be improved.
また、本発明は、上記表示装置において、前記表示部は、外光を透過させることにより前記実物体を視認可能に構成され、前記実物体と重ねて視認されるように画像を表示すること、を特徴とする。
本発明によれば、外光を透過して実物体を視認可能であって画像を視認させる表示部を装着した使用者には、実物体と画像とが重なって視認される。そして、この視認される画像に対し、表示部に指示体を接近させる操作を行うことができる。これにより、実物体に関連する表示を、表示部に指示体を接近させる簡単な操作によって、容易に制御できる。
In addition, the present invention is the display device, wherein the display unit is configured to be able to visually recognize the real object by transmitting external light, and displays an image so that the real object is visually recognized by being superimposed on the real object. It is characterized by.
ADVANTAGE OF THE INVENTION According to this invention, a real object and an image can be visually recognized overlapping with a user who is equipped with a display unit that allows a real object to be viewed through external light and allows the user to view an image. Then, an operation of bringing the indicator close to the display unit can be performed on the visually recognized image. Thus, the display related to the real object can be easily controlled by a simple operation of bringing the pointer close to the display unit.
また、上記目的を達成するために、本発明は、使用者の頭部に装着された状態で、前記使用者が実空間を視認可能に画像を表示する表示部と、操作を受け付ける操作部とを備える表示装置の制御方法であって、前記表示部周辺に対する2以上の操作に対応付けて実行する処理が設定され、前記表示部周辺への指示体の接近を検出し、前記表示部周辺に対する2以上の操作が検出された場合に、設定された処理を実行すること、を特徴とする。
本発明の制御方法を実行することにより、表示部に接触することなく容易に表示装置を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。また、表示部に対する2以上の操作に対応付けられた処理を実行することにより、誤操作を防止できる。
Further, in order to achieve the above object, the present invention, in a state of being mounted on the user's head, a display unit that displays an image so that the user can visually recognize the real space, and an operation unit that receives an operation A method of controlling a display device, comprising: setting a process to be executed in association with two or more operations on the periphery of the display unit, detecting approach of a pointer to the periphery of the display unit, When two or more operations are detected, the set processing is executed.
By executing the control method of the present invention, the display device can be easily operated without touching the display unit, and for example, the convenience can be improved when the operation is performed during work. Further, erroneous operation can be prevented by executing processing associated with two or more operations on the display unit.
また、上記目的を達成するために、本発明は、使用者の頭部に装着された状態で、前記使用者が実空間を視認可能に画像を表示する表示部と、操作を受け付ける操作部とを備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部周辺に対する2以上の操作に対応付けて実行する処理が設定された場合に、前記表示部周辺への指示体の接近を検出し、前記表示部周辺に対する2以上の操作が検出された場合に、設定された処理を実行するためのプログラムである。
本発明のプログラムをコンピューターが実行することにより、表示部に接触することなく容易に表示装置を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。また、表示部に対する2以上の操作に対応付けられた処理を実行することにより、誤操作を防止できる。
Further, in order to achieve the above object, the present invention, in a state of being mounted on the user's head, a display unit that displays an image so that the user can visually recognize the real space, and an operation unit that receives an operation A program that can be executed by a computer that controls a display device including: a process in which an indicator is approached to the periphery of the display unit when a process to be executed in association with two or more operations on the periphery of the display unit is set; Is a program for executing the set processing when two or more operations on the periphery of the display unit are detected.
When the computer executes the program of the present invention, the display device can be easily operated without touching the display portion, and for example, the convenience can be improved when the operation is performed during work. Further, erroneous operation can be prevented by executing processing associated with two or more operations on the display unit.
本発明に係るプログラムは、当該プログラムを前記コンピューターで読み取り可能に記録した記録媒体等の態様で構成することも可能である。記録媒体としては、フレキシブルディスクやHDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc、光磁気ディスク、不揮発性メモリーカード、画像表示装置の内部記憶装置(RAM(Random Access Memory)やROM(Read Only Memory)等の半導体メモリー)、および外部記憶装置(USB(Universal Serial Bus)メモリー等)等、前記コンピューターが読み取り可能な種々の媒体を利用できる。 The program according to the present invention can also be configured in the form of a recording medium or the like in which the program is recorded so as to be readable by the computer. Recording media include a flexible disk, a hard disk drive (HDD), a compact disk read only memory (CD-ROM), a digital versatile disk (DVD), a Blu-ray (registered trademark) disc, a magneto-optical disk, and a nonvolatile memory card. A computer-readable medium such as an internal storage device (semiconductor memory such as a random access memory (RAM) or a read only memory (ROM)) of an image display device and a universal serial bus (USB) memory. Various media are available.
[第1実施形態]
図1及び図2は、本発明を適用した実施形態に係るHMD100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる表示装置であり、眼鏡型の形状である。図1は正面側から見た斜視図であり、図2は裏面側から見た斜視図である。なお、図2においては説明の便宜のために右保持部31及び左保持部32の図示を省略する。
[First Embodiment]
FIG. 1 and FIG. 2 are explanatory diagrams showing an external configuration of an
The
HMD100の本体を構成するフレーム3は、使用者の顔の前に位置して画像を表示する右導光部26及び左導光部28を備え、右導光部26及び左導光部28を保持する眼鏡形状の枠を有する。また、フレーム3は、使用者の側頭部に接する右保持部31及び左保持部32を有する。HMD100は、全体として視力矯正用の眼鏡やサングラス等のフレームと同様の形状を有し、フレーム3は、例えば、眼鏡フレームと相似する形状とすることができる。
The
右保持部31及び左保持部32は、眼鏡のテンプル(つる)のようにして、使用者の頭部にフレーム3を保持する。フレーム3には、使用者がHMD100を装着する装着状態において使用者の右眼前に位置し、使用者の右眼に画像を視認させる右導光部26が取り付けられる。また、フレーム3には、HMD100の装着状態において使用者の左眼前に位置し、使用者の左眼に画像を視認させる左導光部28が取り付けられる。右導光部26及び左導光部28は、透光性を有する光学素子(光学部品)であり、眼鏡のレンズと同様に、フレーム3に形成されるリム3a、3bに嵌め込まれて保持される。
また、フレーム3の中央位置には、HMD100の装着状態においてフレーム3を使用者の鼻において指示する鼻当部37、38が設けられる。また、鼻当部37、38が設けられる中央位置は、使用者の眉間の前に位置し、この位置にはカメラ61が設けられる。
The
At the center position of the
フレーム3の左右両端部に位置するフレーム端部35、36は、後述する各種光学系を内蔵する。
カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光部26、左導光部28を通して視認する外界を含む。さらに、右導光部26及び左導光部28を通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140が備える撮像制御部161(図5)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
Frame ends 35 and 36 located at both left and right ends of the
The
The
右表示駆動部22、及び、左表示駆動部24は、画像光を形成する。右表示駆動部22が形成する画像光は右導光部26により使用者の右眼に導かれ、左表示駆動部24が形成する画像光は左導光部28により使用者の左眼に導かれる。例えば、図1には、右表示駆動部22がフレーム端部35に収められ、左表示駆動部24がフレーム端部36に収められる構成例を示す。
The right
図3は、HMD100の構成を示す要部断面図であり、右導光部26とその周囲を支持するフレーム3とを含む位置で、HMD100の縦断面を示す。
右導光部26は、周囲をリム3aに囲まれてフレーム3に指示される。リム3aは溝形状を有し、右導光部26はリム3aに嵌めこまれる。
FIG. 3 is a cross-sectional view of a main part showing a configuration of the
The right
図4は、HMD100の光学系の構成を示す要部平面図である。図4には説明のため使用者の左眼LE及び右眼REを図示する。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
FIG. 4 is a plan view of a main part showing the configuration of the optical system of the
The
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、及び、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
The right
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
The left
右表示駆動部22が発する画像光、及び、左表示駆動部24が発する画像光は、右導光部26及び左導光部28にそれぞれ入射する。
右導光部26及び左導光部28は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。
The image light emitted by the right
The right
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光部28に入射される。左導光部28は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光部28の内部において複数回の反射を経て左眼LE側に導かれる。左導光部28には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左導光部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection
The image light L reflected by the
右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光部26に入射される。右導光部26は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光部26の内部において複数回の反射を経て右眼RE側に導かれる。右導光部26には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右導光部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection
The image light L reflected by the
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、右導光部26を透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、左導光部28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光部26及び左導光部28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。
本実施形態において、右導光部26及び左導光部28は実像を結像させる構成ではなく、虚像を形成して、使用者に画像を視認させるものであるが、結果として使用者に画像を認識させる意味で、本実施形態では「画像を表示する」と表現する。言い換えれば、HMD100は、実像であるか虚像であるかを問わず画像を構成する画像光Lを使用者に向けて出射し、使用者に画像を認識させるものであればよい。
The image light L reflected by the
In the present embodiment, the right
なお、左投写光学系252と左導光部28とを総称して「左表示部」と呼び、右投写光学系251と右導光部26とを総称して「右表示部」と呼ぶこともできる。右表示部及び左表示部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
Note that the left projection
図2に示すように、右導光部26及び左導光部28は、使用者の右眼及び左眼のそれぞれに、矩形の画像を視認させる。右眼に対応する矩形の右表示部301は、ハーフミラー261Aにより形成される矩形の画像表示領域であり、右投写光学系251が形成する画像光である。左表示部302は、ハーフミラー262Aにより形成される矩形の画像表示領域であり、右投写光学系251が形成する画像光である。
As shown in FIG. 2, the right
このように、HMD100が画像を表示する間、使用者には、ハーフミラー261Aが右表示部301の内部に位置する四角形の領域として見え、ハーフミラー262Aが、左表示部302の内部に位置する略四角形の領域として見える。ハーフミラー261A、262Aの全体が、上述したように外光を透過するので、使用者には、右表示部301及び左表示部302の全体が、外景に重なって視認される。
As described above, while the
カメラ61は、図1に示したようにフレーム3の前面の中央位置に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。言い換えれば、カメラ61の撮像方向すなわち画角は、使用者の前方を向き、使用者が実空間(外景)を見る場合の視線方向を向く。カメラ61は、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。
The
以下の説明では、図1に示すように、フレーム3を基準とした方向をX、Y、Zの直交座標により説明する。X方向は、右導光部26及び左導光部28を含むフレーム3の前面に対し接近及び離隔する方向であり、右保持部31及び左保持部32の延長方向に相当する。X方向は、使用者の視界に対する奥行き方向とも言える。また、Y方向は、HMD100の高さ方向、より具体的には、フレーム3の高さ方向であり、HMD100の装着状態において使用者の視界の鉛直方向である。Z方向は、フレーム3の幅方向、より具体的には、右導光部26と左導光部28とが並ぶ方向に対応し、HMD100の装着状態において使用者の右眼と左眼とを結ぶ、略水平な線に沿う方向である。
In the following description, as shown in FIG. 1, a direction based on the
HMD100は、外部からの入力操作を検出する外部センサー400、及び、タッチパッド401、402を備える。
外部センサー400は、右センサー部410、及び、左センサー部420を含んで構成される。
タッチパッド401、402は、HMD100の装着状態においてHMD100の側方に面して配置される。より詳細には、タッチパッド401は、右保持部31においてフレーム3の外側の面に配置され、タッチパッド402は、左保持部32においてフレーム3の外側の面に配置される。タッチパッド401、402は、それぞれ、右保持部31と左保持部32の形状に合わせて、長手形状であってもよいし、矩形であってもよい。HMD100の装着状態で、使用者は、例えば右手でタッチパッド401を操作し、左手でタッチパッド402を操作できる。
タッチパッド401、402は、接触操作を検出して操作位置を特定する操作部(操作受付部)であり、例えば静電容量式あるいは感圧式のタッチパッドである。
The
The
The
The
フレーム3の前面側には、右センサー部410、及び、左センサー部420が配置される。
右センサー部410は、センサー411、412、413で構成される。センサー411、412、413は、右導光部26の周囲に配置される。詳細には、センサー411は右導光部26の上方に位置し、Z方向に延びるように配置され、横長の検出領域を有する。また、センサー412は右導光部26の側方に、Y方向に延びるように配置され、縦長の検出領域を有する。また、センサー413は、右導光部26の下方において、Z方向に延びるように配置され、横長の検出領域を有する。
右センサー部410の各センサーは、右導光部26を透過する外光OLを遮らないように、右導光部26に重ならないように配置されることが好ましい。なお、センサー411、412、413が外光OLを透過可能である場合、センサー411、412、413が右導光部26に重なってもよい。
A
The
Each sensor of the
左センサー部420は、センサー421、422、423で構成される。センサー421、422、423は、左導光部28の周囲に配置される。詳細には、センサー421は左導光部28の上方に位置し、Z方向に延びるように配置され、横長の検出領域を有する。また、センサー422は左導光部28の側方に、Y方向に延びるように配置され、縦長の検出領域を有する。また、センサー423は、左導光部28の下方において、Z方向に延びるように配置され、横長の検出領域を有する。左センサー部420を構成する各センサーは、左導光部28を透過する外光OLを遮らないように、左導光部28に重ならないように配置されることが好ましい。なお、センサー421、422、423が外光OLを透過可能である場合、センサー421、422、423が左導光部28に重なってもよい。
右センサー部410は、右導光部26の周辺に対応する検出部を構成し、左センサー部420は、左導光部28の周辺に対応する検出部を構成する。
The
The
センサー411、412、413、421、422、423は、物体の接近を検出する近接センサーであり、例えば静電容量式のセンサーで構成される。センサー411、412、413、421、422、423のそれぞれの検出範囲はHMD100の前方に広がる。つまり、右センサー部410及び左センサー部420は、HMD100の前方から接近する物体が、検出範囲の外側から検出範囲内に接近した場合に、この物体を検出する。ここで、右センサー部410及び左センサー部420が検出する実空間の物体を、操作体(指示体)とする。
The
近接センサーは、例えば、近接センサーに接触しない操作体であって、近接センサーから1cm以内に存在する操作体を検出できることが好ましい。近接センサーに接触する操作体を検出してもよい。また、HMD100を装着した状態における誤検知を防止または抑制できることが好ましく、例えば、HMD100の装着状態における誤検知抑制機能として、感度調整、感度のカスタマイズ等を実行できる構成としてもよい。また、HMD100の装着状態において右導光部26、左導光部28と使用者の顔との間における操作体の接近を検出しない、検出方向に指向性が設定された近接センサーを利用してもよい。
The proximity sensor is, for example, an operating body that does not contact the proximity sensor, and is preferably capable of detecting an operating body existing within 1 cm from the proximity sensor. An operating tool that contacts the proximity sensor may be detected. In addition, it is preferable that erroneous detection in a state where the
図3に示すように、右導光部26の上方に位置するセンサー411は、矢印A11で示すようにフレーム3の前方から接近する操作体を検出できる。また、矢印A13で示すようにフレーム3の後方から接近する操作体を検出可能な構成としてもよい。また、矢印A12で示すように上方から接近する操作体を検出できる。つまり、センサー411は、X方向、及びY方向に接近する物体(操作体)を検出可能である。センサー421も同様である。
また、右導光部26の下方に位置するセンサー413は、矢印A31で示すようにフレーム3の前方から接近する操作体を検出できる。また、矢印A33で示すようにフレーム3の後方から接近する操作体を検出可能な構成としてもよい。また、矢印A32で示すように下方から接近する操作体を検出できる。つまり、センサー413は、X方向、及びY方向に接近する物体を検出可能である。センサー423も同様である。
As shown in FIG. 3, the
The
また、センサー412、422は、X方向、及び、Z方向に接近する物体を検出可能である。また、センサー412、422のそれぞれは、センサー412、422の検出可能範囲において操作体がX方向あるいはY方向に移動した場合、この移動を検出する。
In addition, the
また、センサー411、421のそれぞれは、センサー411の検出可能範囲において操作体がX方向あるいはZ方向に移動した場合、この移動を検出する。また、センサー413、423のそれぞれは、センサー413、423の検出可能範囲において操作体がX方向あるいはZ方向に移動した場合、この移動を検出する。
Further, each of the
HMD100は、右センサー部410の各センサーの検出値、及び、左センサー部420の各センサーの検出値に基づき、物体の接近を検出可能である。また、各センサーの検出値を解析することにより、検出範囲内に位置する物体の移動を検出できる。
The
図5は、HMD100を構成する各部の機能ブロック図である。
HMD100は、大別して、処理部10及び画像表示部20を備える。
画像表示部20は、右表示駆動部22及び左表示駆動部24を含み、右導光部26及び左導光部28に対して画像光を供給する。画像表示部20は、フレーム3に配置される構成部を含み、具体的には、カメラ61、9軸センサー66、外部センサー400、タッチパッド401、402を含む。例えば、図1には、右表示駆動部22がフレーム端部35に収められ、左表示駆動部24がフレーム端部36に収められる構成例を示す。画像表示部20を構成する他の部位は、フレーム3のフレーム端部35、36、或いは、フレーム3の前面を含む部分に配置してもよい。
FIG. 5 is a functional block diagram of each unit constituting the
The
The
画像表示部20が備える右表示駆動部22、左表示駆動部24、カメラ61、9軸センサー66、外部センサー400、及びタッチパッド401、402の各部は、インターフェイス25に接続される。
The right
インターフェイス25は、処理部10が有する制御部140に接続される。制御部140は、後述するように、画像処理部160、撮像制御部161、入力検出部162、入力解析部163、処理実行部164、通信制御部170、及び表示制御部190として機能する。インターフェイス25は、制御部140の各部と、処理部10の各部とを相互に接続し、各種データ及び信号を送受信させる。
例えば、インターフェイス25は、表示制御部190が出力する制御信号を、右表示駆動部22及び左表示駆動部24に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、9軸センサー66、外部センサー400、及びタッチパッド401、402のそれぞれを、制御部140に接続する。
The
For example, the
The
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
右バックライト制御部201は、表示制御部190が送信する制御信号に従って、右バックライト221を駆動する。右LCD制御部211は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、右LCD241を駆動する。
The right
The right
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
The left
左バックライト制御部202は、表示制御部190が送信する制御信号に従って、左バックライト222を駆動する。左LCD制御部212は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The left
Note that the right
カメラ61は、撮像制御部161から入力される制御データに従って撮像を実行し、撮像画像データを、インターフェイス25を介して撮像制御部161に出力する。
The
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサー(慣性センサー)である。9軸センサー66は、複数のセンサーを統合したセンサーユニットであってもよい。9軸センサー66は、インターフェイス25を介して制御部140に接続され、制御部140の制御に従って、所定の周期(サンプリング周波数)で検出を実行し、検出値を制御部140に出力する。制御部140は、HMD100が使用者の頭部に装着された状態で、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。
The nine-
図5に示す外部センサー400は、右センサー部410及び左センサー部420を含み、右センサー部410と左センサー部420のそれぞれがインターフェイス25に接続されてもよい。例えば、右センサー部410のセンサー411、412、413がユニット化されてインターフェイス25に接続されてもよい。また、左センサー部420のセンサー421、422、423が、ユニット化されてインターフェイス25に接続されてもよい。或いは、センサー411、412、413、421、422、423のそれぞれが、インターフェイス25に接続されてもよい。
外部センサー400は、入力検出部162の制御に従って、所定の周期(サンプリング周波数)で検出を実行し、検出値を入力検出部162に出力する。
The
The
タッチパッド401、402は、それぞれ、インターフェイス25に接続される。タッチパッド401、402は、入力検出部162の制御に従って、所定の周期(サンプリング周波数)で検出を実行し、検出値を入力検出部162に出力する。
ここで、タッチパッド401、402が、検出値を解析する検出回路(図示略)を備え、この検出回路がインターフェイス25に接続される構成としてもよい。この場合、タッチパッド401、402は検出回路の制御により検出を実行し、検出回路は、タッチパッド401、402で接触操作を検出し、操作位置を特定し、操作位置を示すデータを入力検出部162に出力する。また、入力検出部162が、タッチパッド401、402から入力される検出値に基づき、接触操作を検出し、操作位置を特定してもよい。
The
Here, the
処理部10は、HMD100を制御する。処理部10は、使用者の操作を受け付ける操作部111を備える。操作部111は、例えば、HMD100の電源のオン/オフの指示を行う電源スイッチ(図示略)、及び、その他の各種スイッチを備える。
処理部10を構成する各部は、例えば、フレーム3のフレーム端部35、36に収容される。また、処理部10の全部または一部を、右保持部31や左保持部32に収容してもよいし、フレーム3とは別体として構成される筐体に納めてもよい。この場合、当該筐体とフレーム3の内部の画像表示部20とを、ケーブルで有線接続してもよいし、無線通信により接続してもよい。
The
The respective units constituting the
処理部10は、制御部140、入力情報取得部110、及び、記憶部120を有する。
入力情報取得部110は、操作部111に接続される。入力情報取得部110は、操作部111から入力される信号に基づき、使用者の操作を受け付ける。入力情報取得部110は、操作部111における操作内容を示すデータを制御部140に出力する。
The
The input
処理部10は、電源部113を備える。電源部113は、例えば一次電池、二次電池、或いはキャパシターを有し、処理部10及び画像表示部20の各部に電源部113から電源が供給される。電源部113からの電源供給状態は、電源スイッチ(図示略)の操作、及び、制御部140が実行するプログラムの実行状況に応じて、制御部140が制御する。
The
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、及び、これらのプログラムに係るデータを記憶する。また、記憶部120は、右表示駆動部22及び左表示駆動部24により表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部111の操作で入力された値であってもよいし、通信部117を介して外部の機器(図示略)または他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、入力解析データ122、及び、画像データ123を記憶する。
The
The
The
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、撮像制御部161、入力検出部162、入力解析部163、処理実行部164、通信制御部170、及び、表示制御部190として機能する。
The
撮像制御部161は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部120に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部161は撮像画像データをカメラ61から取得して、記憶部120に一時的に記憶する。
The
画像処理部160は、右表示駆動部22及び左表示駆動部24により表示させる画像データに基づいて、画像表示用の信号を生成し、右表示駆動部22及び左表示駆動部24に送信する。画像処理部160が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部160は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して送信する。
The
Further, the
表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
The
制御部140は、記憶部120が記憶するコンテンツのデータ(図示略)に基づく画像や、HMD100の設定を行うメニュー画面の画像等を表示する。記憶部120が記憶するコンテンツのデータは、テキストデータ、静止画像データ、動画像データ、及び音声データ等を含むことができる。また、制御部140は、カメラ61で撮像する撮像画像、または、撮像画像から生成する表示用の画像を、画像表示部20により表示してもよい。
The
制御部140は、外部センサー400、及び、タッチパッド401、402で検出する使用者の操作に従って、表示中の画像の表示態様を変化させる。
また、制御部140は、右導光部26及び左導光部28(図1)を透過する外光OLにより使用者が視認する実空間に重ねて、画像表示部20に画像を表示させてもよい。この場合、制御部140は、カメラ61の撮像画像に基づいて実空間の対象物(実物体)を検出し、検出した対象物を使用者が視認する位置を特定する。制御部140は、対象物を使用者が視認する位置に対応する右LCD241及び左LCD242上の表示位置を求め、この表示位置にテキストや画像を表示する。これにより、画像表示部20で表示するテキストや画像は、実空間の対象物に対応する位置に表示され、いわゆるAR(Augmented Reality:拡張現実)効果を奏する画像(以下、AR画像という)として機能する。
また、HMD100を、コンテンツの供給元となる種々の外部の機器(図示略)に接続してもよい。この場合、外部の機器を接続するインターフェイスは、通信部117を用いてもよいし、その他のインターフェイスを設けてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを備えてもよい。外部の機器としては、HMD100に画像を供給する画像供給装置が挙げられ、例えば、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等である。
The
In addition, the
Further, the
入力検出部162は、外部センサー400、及び、タッチパッド401、402を動作させて、検出値を取得する。入力検出部162は、図1に符号A1で示すように、タッチパッド401における面内すなわちX方向とY方向の操作位置を検出する。また、入力検出部162は、タッチパッド402における面内すなわちX方向とY方向の操作位置を検出する。また、入力検出部162は、センサー411、412、413、421、422、423のそれぞれの検出値を取得してもよいし、右センサー部410及び左センサー部420のそれぞれの検出値を一括して取得してもよい。
The
入力解析部163は、入力検出部162が取得する検出値を解析することにより、HMD100に対する操作を検出する。
具体的には、入力解析部163は、右センサー部410が備えるセンサー411、412、413の検出値に基づいて、外部センサー400の検出範囲内に位置する物体を検出する。また、入力解析部163は、左センサー部420のセンサー421、422、423の検出値に基づいて、HMD100の左眼側表示部に対する操作を検出する。これにより、入力解析部163は、使用者の手や使用者が使用する操作用具(例えば、手袋、指示棒、筆記具など)を含む操作体がフレーム3に接近し、或いは接触したことを検出し、これらの操作体による操作を検出する。
ここで、入力解析部163は、HMD100の右眼側表示部に対する操作と左眼側表示部に対する操作とを個別に検出してもよい。或いは、HMD100の右眼側表示部に対する操作の検出結果と、左眼側表示部に対する操作の検出結果とに基づき、HMD100全体に対する操作を検出してもよい。例えば、操作体をセンサー411とセンサー421との両方が検出した場合、入力解析部163は、一つの操作体による操作であることを特定可能な構成としてもよい。
The
Specifically, the
Here, the
また、入力解析部163は、外部センサー400の検出値を解析して、外部センサー400の検出範囲内に位置する物体の動きを検出してもよい。
入力解析部163は、外部センサー400の各センサーの検出値の変化を求めることにより、検出範囲内の物体の動きを、例えば仮想的に設定されるXYZ直交座標系を用いて検出してもよい。この場合、入力解析部163は、例えば、図1にX、Y、Zで示す方向における物体の動きを算出する。X方向、Y方向、及びZ方向は、図1を参照して説明した通りである。
入力解析部163は、外部センサー400の検出範囲内における物体の動きについて、X方向、Y方向、Z方向のそれぞれにおける移動速度及び/または移動量を算出し、算出した移動速度及び/または移動量を示すデータを生成する。ここで、入力解析部163は、各方向における移動が正方向か逆方向かを示すデータを生成してもよい。
In addition, the
The
The
入力解析部163は、タッチパッド401、402の検出結果に基づいて、タッチパッド401、402のそれぞれについて、操作の有無、操作位置、操作位置の移動の軌跡等を示すデータを生成する。また、入力解析部163は、タッチパッド401、402で検出した接触操作の位置の経時変化に基づき、タッチパッド401、402に複数回接触する操作を、一つの操作として検出してもよい。具体的には、使用者が操作体によりタッチパッド401を複数回叩く(タップ)操作を、一つの操作として検出してもよい。この場合、入力解析部163は、2回のタップ操作を、一つのダブルタップ操作として検出してもよいし、3回のタップ操作を一つのトリプルタップ操作として検出してもよい。タッチパッド402についても同様である。
The
また、入力解析部163は、タッチパッド401またはタッチパッド402に接触した操作体が、接触状態を保って移動した場合に、この移動の軌跡を求めてもよい。この場合、入力解析部163は、例えば、図1にX、Yで示す方向における物体の動きを算出する。入力解析部163は、タッチパッド401、402のそれぞれについて、操作位置および操作位置の軌跡を、X方向及びY方向の成分として表すデータを生成する。また、操作の軌跡については、X方向及びY方向の移動速度や移動量を含むデータを生成してもよく、X,Y各方向における移動が正方向か逆方向かを示すデータを生成してもよい。
In addition, when the operation tool that has touched the
入力解析部163は、外部センサー400、タッチパッド401、402の検出値を解析して操作を検出する処理で、記憶部120が記憶する入力解析データ122を読み出して使用する。入力解析データ122は、外部センサー400の検出値から物体の位置や動きを求めるためのデータである。具体的には、外部センサー400のセンサーの検出値、検出値の経時変化、各センサー411、412、413、421、422、423の検出値の組合せ等を、物体の位置や動きに対応付けるデータである。入力解析データ122は、例えば、演算式、パラメーター、複数のパラメーターを格納するデータベース、複数のパラメーターを含み検出値を他のデータに変換するLUT(LookUp Table)等のいずれかの形式とすることができる。また、入力解析データ122は、入力解析部163が検出値のデータを処理するプログラムとデータの組合せであってもよい。また、入力解析データ122は、センサー411、412、413、421、422、423のそれぞれについて個別に用意されたデータであってもよい。また、右センサー部410と左センサー部420のそれぞれについて個別に用意されたデータであってもよく、センサー411、412、413、421、422、423の検出値を統合的に処理する場合に用いるデータであってもよい。
また、入力解析データ122は、タッチパッド401、402の検出値から、接触操作の操作位置や操作位置の軌跡を求める処理に用いられるパラメーターを含んでもよい。
The
In addition, the
入力解析部163は、上述したように、外部センサー400或いはタッチパッド401、402に対する複数回の操作を、一つの操作または一連の操作として検出できる。このため、複数のタッチ操作で構成される一つの操作や、操作体を特定の態様で動かす操作を、検出できる。具体的には、タッチパッド401、402に対するダブルタップやトリプルタップの操作、操作体を動かすジェスチャー操作を、一つの操作として検出できる。このため、HMD100に対して多様な操作を行える。
As described above, the
処理実行部164は、入力解析部163が検出する操作に対応する処理を実行する。例えば、処理実行部164は、入力解析部163が検出する操作が行われた場合に、記憶部120が記憶する画像データ123に基づき、メニュー画像を表示する処理を実行する。ここで、画像データ123は、上述したコンテンツのデータの一つであり、メニュー画像のほか、制御部140の制御により表示される各種の画像の画像データを含んでもよい。
The
処理実行部164は、入力解析部163が生成するデータを取得して、外部センサー400、タッチパッド401、402による操作を特定する。このため、外部センサー400、及びタッチパッド401、402に対する複数回の操作で構成される複雑な操作に対応して、設定された処理を実行できる。
処理実行部164が実行する処理は、例えば、設定データ121により指定できる。この場合、設定データ121は、入力解析部163が検出する操作と、処理実行部164が実行する処理とを対応付けるデータを含む。
The
The processing executed by the
制御部140は、HMD100の動作モードとして、通常動作モードと、近接操作モードとを切り替えて実行する。通常動作モードは、HMD100が、タッチパッド401、402の操作に従って動作する動作モードである。この通常動作モードにおいて、制御部140は、外部センサー400に対する操作に応答した処理を実行しない。
The
通常動作モードにおいて、制御部140は、例えば、入力検出部162が外部センサー400による検出を行わせない。或いは、入力解析部163が、入力検出部162が取得する検出値を解析する処理を行わない。また、処理実行部164が、入力解析部163が解析した操作のうち外部センサー400に係る操作に対応する処理を実行しない。これらの動作状態のいずれを実行してもよいが、上記のように、入力検出部162が外部センサー400の検出を制限する場合、電力消費を抑制できるという利点がある。また、上記のように入力解析部163または処理実行部164の処理の実行を制限する場合には、通常動作モードから、次で述べる近接操作モードへの切り替えを速やかに実行できるという利点がある。
In the normal operation mode, for example, the
近接操作モードは、外部センサー400により操作を検出する動作モードである。すなわち、使用者が、外部センサー400に操作体を接近させて操作することが可能な動作モードである。
近接操作モードにおいては、右センサー部410及び左センサー部420の検出範囲に位置する物体を検出し、上述した入力検出部162及び入力解析部163の動作によって操作を検出する。
The proximity operation mode is an operation mode in which an operation is detected by the
In the proximity operation mode, an object located in the detection range of the
通常動作モードは、外部センサー400の操作に対応する処理を制限することで、誤操作あるいは意図しない操作による誤動作を防止するための動作モードである。例えば、使用者が意図しない物体の接近により制御部140が表示を変化させてしまうことを、防止できる。また、近接操作モードは、外部センサー400に物体を接近させる操作が可能であり、より容易に、HMD100に対する多彩な操作が可能となる。通常動作モードと近接操作モードとを切り替える動作についてはフローチャートを参照して後述する。
The normal operation mode is an operation mode for preventing a malfunction due to an erroneous operation or an unintended operation by restricting a process corresponding to the operation of the
外部センサー400が物体の接近を検出する検出範囲は任意であるが、例えば、HMD100の表示部の周辺への物体の接近を検出できる範囲であればよい。ここで、表示部は、画像表示部20が配置されるフレーム3の前面部、画像を表示する右導光部26及び左導光部28、または、右導光部26及び左導光部28を保持するフレーム3の前面部等を指す。外部センサー400は、図1及び図2に示すように、フレーム3の前面部(前部)に対する物体の接近および接触を検出可能な右センサー部410及び左センサー部420を備え、これらの各センサーによって近接操作モードで接近を検出できる。
The detection range in which the
近接操作モードでは、後述する入力検出部162の処理により、外部センサー400の各センサーの検出値に基づき、各センサーの検出範囲における物体の有無が検出される。また、入力検出部162は、検出範囲内における物体の接近及び離隔を検出してもよく、検出範囲への物体の侵入及び離脱を検出してもよい。
外部センサー400が物体の接近を検出する距離、すなわち検出範囲は、具体的には、センサー411、412、413及びセンサー421、422、423が、接触していない物体を検出する範囲であり、各センサーからの距離で表すことができる。この距離は固定的であってもよいし可変であってもよい。また、近接操作モードで接近を検出するセンサーにタッチパッド401、402を含んでもよい。
In the proximity operation mode, the presence or absence of an object in the detection range of each sensor is detected based on the detection value of each sensor of the
The distance at which the
例えば、外部センサー400の各センサーの検出範囲は、接触位置(例えば、センサーの表面あるいはフレーム3の表面)から1cm〜2cmとしてもよく、2cm〜5cm程度としてもよい。また、近接操作モードにおいて、入力検出部162の制御により、検出範囲を変更してもよい。検出範囲を変更する具体的な方法は、例えば、外部センサー400の各センサーが出力する検出値を解析する入力検出部162の処理を切り替える方法が挙げられる。また、外部センサー400の各センサーを駆動する回路の設定値、或いは、各センサーを駆動する電流、電圧、パルス周波数等の検出条件を切り替える方法を採用してもよい。
For example, the detection range of each sensor of the
制御部140には、GPS115、及び通信部117が接続される。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、処理部10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えてもよい。
The
The
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
The
また、HMD100は、音声を集音するマイク(図示略)を備えてもよい。また、音声を出力するヘッドホンやスピーカーを備えてもよい。この場合、制御部140は、マイクで集音される音声のデータを取得する機能、及び、音声データに基づき音声信号を出力する機能を備える。また、マイクは、例えば、集音した音声の音声信号を制御部140に出力する回路(図示略)に接続される。また、例えば、スピーカー或いはヘッドホンは、制御部140が出力する音声信号を増幅するアンプ(図示略)に接続され、増幅された音声信号に基づき音声を出力する。この場合、制御部140は、コンテンツのデータに含まれる音声データに基づく音声を、使用者に聴かせることができる。また、マイクにより集音した音声に基づき、例えば表示を変化させる等の処理を実行できる。これらの処理を行う処理部として、制御部140は、音声処理部を備えてもよい。
Further, the
図6はHMD100の動作を示すフローチャートである。
HMD100の電源がオンされた後、制御部140は、通常動作モードで動作を開始する(ステップS11)。
制御部140は、入力検出部162がタッチパッド401、402に対する操作を検出すると(ステップS12)、入力解析部163が操作を解析して操作状態を特定する(ステップS13)。ここで、処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当するか否かを判定する(ステップS14)。
動作モードの切り替えを指示する操作に該当しない場合(ステップS14;NO)、処理実行部164は、設定データ121を参照して、ステップS13で入力解析部163が特定した操作状態に対応する処理に関する設定を取得する(ステップS15)。処理実行部164は、設定された処理を実行し(ステップS16)、その後、制御部140は動作を終了するか否かを判定する(ステップS17)。例えば電源スイッチが操作された場合など動作を終了すると判定した場合(ステップS17;YES)、制御部140は本処理を終了する。また、動作を終了しない場合(ステップS17;NO)、ステップS12に戻る。
FIG. 6 is a flowchart showing the operation of the
After the power of the
When the
If the operation does not correspond to an operation for instructing switching of the operation mode (step S14; NO), the
処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当すると判定した場合(ステップS14;YES)、処理実行部164は、近接操作モードに移行する(ステップS18)。ステップS18では、処理実行部164が外部センサー400に対する操作に応じて処理を実行可能な状態に移行する。具体的には、入力検出部162の制御による外部センサー400の検出動作の開始、或いは、入力解析部163による解析の開始等が行われる。
When the
次いで、入力検出部162が外部センサー400またはタッチパッド401、402に対する操作を検出すると(ステップS19)、入力解析部163が操作を解析して操作状態を特定する(ステップS20)。ここで、処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当するか否かを判定する(ステップS21)。
動作モードの切り替えを指示する操作に該当しない場合(ステップS21;NO)、処理実行部164は、設定データ121を参照して、ステップS20で入力解析部163が特定した操作状態に対応する処理に関する設定を取得する(ステップS22)。処理実行部164は、設定された処理を実行し(ステップS23)、その後、制御部140は動作を終了するか否かを判定する(ステップS24)。動作を終了すると判定した場合(ステップS24;YES)、制御部140は本処理を終了する。また、動作を終了しない場合(ステップS24;NO)、ステップS19に戻る。
Next, when the
If the operation does not correspond to the operation for instructing the switching of the operation mode (step S21; NO), the
処理実行部164は、入力解析部163が特定した操作状態が、動作モードの切り替えを指示する操作に該当すると判定した場合(ステップS21;YES)、処理実行部164は、通常動作モードに移行し(ステップS25)、ステップS12に戻る。
When the
動作モードの切り替えを指示する操作は、例えば、タッチパッド401またはタッチパッド402に対するダブルタップ操作である。通常動作モードから近接操作モードへの切り替え、及び、近接操作モードから通常動作モードへの切り替えの両方で、動作モードの切り替えを指示する操作を共通する操作としてもよい。この場合、通常動作モード及び近接操作モードの両方で検出可能な操作とするため、当該操作はタッチパッド401、402に対する操作とすることが好ましい。
また、通常動作モードにおいては、外部センサー400の操作に対応する処理を行わないが、動作モードの切り替えを指示する外部センサー400の操作のみ検出し、動作モードの切り替えを行ってもよい。
The operation for instructing the switching of the operation mode is, for example, a double tap operation on the
In addition, in the normal operation mode, the process corresponding to the operation of the
ここで、外部センサー400の操作に対応して処理実行部164が表示態様を変化させる動作の具体例について説明する。
図7は、HMD100に対する操作の態様と表示の具体例を示す図である。図7(A)は操作の一例を示し、図7(B)は図7(A)の操作に対応する表示例を示す。また、図7(C)は操作の別の例を示し、図7(D)は図7(C)の操作に対応する表示例を示す。
Here, a specific example of the operation in which the
FIG. 7 is a diagram illustrating a manner of operation on the
図7(A)では、2つの操作体をHMD100の側方において近接させた状態を示し、より具体的には、2つの操作体RH、LHを左右に離隔させた状態で、HMD100に近接させた状態を示す。操作体RHは、例えば使用者の右手であり、操作体LHは使用者の左手である。操作体RH、LHは、HMD100の側方に限らず、右導光部26、左導光部28の前方であってもよい。図7(A)には、理解の便宜のため、HMD100を裏面側、すなわち装着状態における使用者の顔の側から見た図を示す。
図7(A)及び(B)に符号Dで示すように、外部センサー400の検出範囲Dは、右導光部26、左導光部28の前方および上下左右に拡がる空間に位置する。
FIG. 7A shows a state in which the two operating bodies are brought close to each other on the side of the
7A and 7B, the detection range D of the
図7(A)の操作は、操作体RH、LHを右導光部26、左導光部28のそれぞれに近接させて、上方向U、または下方向Dに動かす操作を示す。この場合、入力解析部163は、外部センサー400の右センサー部410により操作体RHを検出し、左センサー部420により操作体LHを検出する。処理実行部164は、右センサー部410と左センサー部420とがそれぞれ一つの物体を検出した場合に、設定された動作として、位置入力用のY方向ガイドGY(操作制御命令画像)を表示する。図7(B)には使用者の視野VRにおいて、表示領域VAにY方向ガイドGYが表示される。ここで、表示領域VAは右導光部26及び左導光部28が形成する虚像を使用者が視認する最大の範囲を示す。表示領域VAは、実際には、使用者の右眼が視認する虚像と左眼が視認する虚像とが、使用者の視機能により合成された領域であるが、ここでは使用者が視認する像を示す意味で一つの矩形として表現する。
The operation in FIG. 7A indicates an operation in which the operating tools RH and LH are moved closer to the right
Y方向ガイドGYは、縦方向すなわちY方向における位置を入力する操作を行うためのガイドであり、例えば表示領域VAに横方向に延びる直線である。
処理実行部164は、表示領域VAにY方向ガイドGYを表示させ、入力解析部163が操作体RH及び操作体LHの上方向Uへの移動を検出した場合、この上方向Uの移動に追従するように、Y方向ガイドGYを上方向Uに移動させる。また、入力解析部163が操作体RH及び操作体LHの下方向Dへの移動を検出した場合、この下方向Dの移動に追従するように、Y方向ガイドGYを下方向Dに移動させる。入力解析部163が検出する操作体RH、操作体LHの移動量と、Y方向ガイドGYの移動量との対応は、予め設定データ121に設定される。
The Y-direction guide GY is a guide for performing an operation of inputting a position in the vertical direction, that is, the Y direction, and is, for example, a straight line extending horizontally in the display area VA.
The
図7(A)、(B)に示すように、HMD100では、使用者が右手を右眼側に位置させ、左手を左眼側に位置させてフレーム3に近づけることにより、Y方向の位置入力を行える。Y方向ガイドGYを所望の位置に移動させた後、使用者が操作体RH、LHを所定の態様で動かすと、Y方向の位置が確定される。所定の態様とは、例えば、操作体RH、LHを所定時間静止させる、操作体RH、LHの両方を水平方向すなわちX方向(図7(C)の右方向Rまたは左方向L)に平行移動させる,等が挙げられる。また、操作体RH、LHを上方向Uまたは下方向Dに移動させる間、操作体RH、LHをフレーム3に接触させている場合、操作体RH、LHをフレーム3から離隔させることで、Y方向の位置を確定してもよい。
As shown in FIGS. 7A and 7B, in the
図7(C)の操作は、操作体RH、LHをフレーム3に近接させて、右方向R、または左方向Lに動かす操作を示す。この場合、入力解析部163は、外部センサー400の右センサー部410により操作体RHを検出し、左センサー部420により操作体LHを検出する。処理実行部164は、図7(A)に示す操作でY方向の位置が確定された後、右センサー部410と左センサー部420とがそれぞれ一つの物体を検出している場合に、設定された動作として、位置入力用のX方向ガイドGX(操作制御命令画像)を表示する。
図7(D)では使用者の視野VRにおいて、表示領域VAにX方向ガイドGXが表示される。X方向ガイドGXは、横方向すなわちX方向における位置を入力する操作を行うためのガイドであり、例えば表示領域VAに縦方向に延びる直線である。
処理実行部164は、表示領域VAにX方向ガイドGXを表示させ、入力解析部163が操作体RH及び操作体LHの右方向Rへの移動を検出した場合、この右方向Rの移動に追従するように、X方向ガイドGXを右方向Rに移動させる。また、入力解析部163が操作体RH及び操作体LHの左方向Lへの移動を検出した場合、この左方向Lの移動に追従するように、X方向ガイドGXを左方向Lに移動させる。入力解析部163が検出する操作体RH、操作体LHの移動量と、X方向ガイドGXの移動量との対応は、予め設定データ121に設定される。
The operation in FIG. 7C indicates an operation in which the operating tools RH and LH are moved close to the
In FIG. 7D, an X-direction guide GX is displayed in the display area VA in the user's visual field VR. The X-direction guide GX is a guide for performing an operation of inputting a position in the horizontal direction, that is, the X direction, and is, for example, a straight line that extends in the vertical direction in the display area VA.
The
図7(C)、(D)に示すように、HMD100では、使用者が右手を右眼側に位置させ、左手を左眼側に位置させてフレーム3に近づけることにより、X方向の位置入力を行える。X方向ガイドGXを所望の位置に移動させた後、使用者が操作体RH、LHを所定の態様で動かすと、X方向の位置が確定される。所定の態様とは、Y方向ガイドGYを用いる位置入力と同様、例えば、操作体RH、LHを所定時間静止させる、操作体RH、LHの両方を縦方向すなわちY方向(上方向Uまたは下方向D)に平行移動させる、等が挙げられる。また、操作体RH、LHを右方向Rまたは左方向Lに移動させる間、操作体RH、LHをフレーム3に接触させている場合、操作体RH、LHをフレーム3から離隔させることで、X方向の位置を確定してもよい。
As shown in FIGS. 7C and 7D, in the
図7(A)〜(D)に示す例は、使用者が、視野VRにおける位置を入力または指定する位置入力操作に使用できる。X方向ガイドGX及びY方向ガイドGYの位置により入力された位置は、例えば、入力解析部163が、視野VRにおける位置として検出する。この場合、入力解析部163は、検出した位置を、右LCD241及び左LCD242における表示位置の座標に変換する処理を行ってもよい。
また、Y方向ガイドGY及びX方向ガイドGXを表示させて位置入力を開始するトリガーを、2つの物体の接触を外部センサー400が検出することや、2つの物体の接触を検出した後でいずれか一方の物体の接触が解除されることとしてもよい。つまり、外部センサー400に操作体を接触させる操作と、外部センサー400の検出範囲において操作体を近接させる操作との組み合わせに対応して、処理実行部164が処理を実行してもよい。また、Y方向ガイドGY、X方向ガイドGXを表示する場合に、処理実行部164の制御により、操作方法を案内するテキストや画像を表示してもよい。
The examples shown in FIGS. 7A to 7D can be used for a position input operation in which the user inputs or specifies a position in the visual field VR. The position input based on the positions of the X-direction guide GX and the Y-direction guide GY is detected, for example, by the
In addition, a trigger for displaying the Y-direction guide GY and the X-direction guide GX and starting the position input may be a trigger that detects whether the
また、図7(A)〜(D)に示す操作を、片手で行うことが可能な構成としてもよい。例えば、入力解析部163が、外部センサー400の右センサー部410または左センサー部420のいずれか一方で、2つの位置における接近を検出した場合が挙げられる。この場合、設定された動作として、処理実行部164が、位置入力用のY方向ガイドGY(操作制御命令画像)を表示する。例えば、使用者の右手の人差し指と中指のそれぞれを、操作体として検出する場合に相当する。
Further, the operation shown in FIGS. 7A to 7D may be performed with one hand. For example, there is a case where the
処理実行部164は、図7(B)に示すように、Y方向ガイドGYが表示された状態で、2つの操作体(右手の人差し指と中指)を上下(図1のY方向)に動かす操作を検出し、この操作に対応して、Y方向ガイドGYを上下に移動させる。入力解析部163が検出する2つの操作体の移動量と、Y方向ガイドGYの移動量との対応は、予め設定データ121に設定される。そして、入力解析部163が、2つの操作体のいずれかがフレーム3から所定距離以上、離隔したことを検出した場合に、Y方向の位置を確定する。
As shown in FIG. 7B, the
さらに、入力解析部163が、外部センサー400の右センサー部410または左センサー部420のいずれか一方で、2つの位置における接近を検出した場合、処理実行部164は、位置入力用のX方向ガイドGX(操作制御命令画像)を表示する。例えば、使用者の右手の人差し指と中指のそれぞれを、操作体として検出する場合に相当する。
処理実行部164は、図7(D)に示すように、X方向ガイドGXが表示された状態で、2つの操作体(右手の人差し指と中指)を左右(図1のZ方向)に動かす操作を検出し、この操作に対応して、X方向ガイドGXを左右に移動させる。入力解析部163が検出する2つの操作体の移動量と、X方向ガイドGXの移動量との対応は、予め設定データ121に設定される。そして、入力解析部163が、2つの操作体のいずれかがフレーム3から所定距離以上、離隔したことを検出した場合に、X方向の位置を確定する。
また、この操作は、2つの操作体を図1のX方向に移動させた場合に、フレーム3を通してみる使用者の視界の奥行き方向における位置入力に適用してもよい。
Further, when the
The
This operation may be applied to position input in the depth direction of the user's field of view through the
図8は、HMD100に対する操作の態様と表示の具体例を示す図である。図8(A)は操作の一例を示し、図8(B)、(C)は図8(A)の操作に対応する表示例を示す。
FIG. 8 is a diagram showing a manner of operation on the
図8(A)では、2つの操作体をHMD100の前方において近接させた状態を示し、より具体的には、2つの操作体RH、LHを左右に離隔させた状態で、右導光部26、左導光部28の前面に近接させた状態を示す。図8(A)の例では、操作体RHはセンサー413に近接し、操作体LHはセンサー423に近接する。図8(A)には、理解の便宜のため、HMD100を表面側、すなわち装着状態における使用者の顔を外から見た図を示す。
図8(A)に符号Dで示すように、外部センサー400の検出範囲Dは、右導光部26、左導光部28の前方および上下左右に拡がる空間に位置する。
FIG. 8A shows a state in which the two operating bodies are brought close to each other in front of the
As indicated by reference numeral D in FIG. 8A, the detection range D of the
図8(A)の操作は、操作体RHをセンサー413に沿って移動させ、操作体LHをセンサー423に沿って移動させる操作を示す。この場合、入力解析部163は、右センサー部410のセンサー413により操作体RH及びその移動を検出し、左センサー部420のセンサー423により操作体LH及びその移動を検出する。
The operation of FIG. 8A indicates an operation of moving the operating tool RH along the
処理実行部164は、外部センサー400が備えるセンサー(本実施形態では6個)により、2つの物体を検出し、2つの物体が接近或いは離隔する操作を検出した場合に、設定された動作として、表示の拡大または縮小を行う。
図8(B)、(C)には使用者の視野VRにおいて、表示画像V1が表示される。処理実行部164は、入力解析部163が外部センサー400の操作として、2つの物体が離隔する操作を検出した場合に、表示中の画像を拡大する。例えば、処理実行部164は、図8(C)の表示状態から表示画像V1の表示倍率を変更し、図8(B)の表示状態に移行させる。また、処理実行部164は、入力解析部163が外部センサー400の操作として、2つの物体が接近隔する操作を検出した場合に、表示中の画像を縮小する。例えば、処理実行部164は、図8(B)の表示状態から表示画像V1の表示倍率を変更し、図8(C)の表示状態に移行させる。
The
8B and 8C, the display image V1 is displayed in the visual field VR of the user. The
外部センサー400において検出される2つの物体の距離の変化量と、表示画像V1の表示倍率または表示サイズの変化量との対応は、予め設定データ121に設定される。
The correspondence between the change amount of the distance between the two objects detected by the
図8(A)〜(C)に示すように、HMD100では、使用者が手をフレーム3に接近させて、少なくとも2つの物体として検出させ、この2つの物体を接近または離隔させる操作を行うことで、表示画像V1の表示サイズを変更できる。この操作は、物体を一つのセンサーが検出し続ける場合に限定されない。例えば、物体がセンサー411、412、413に跨がって検出されてもよく、この場合、入力解析部163は、隣接するセンサーで連続して物体を検出する検出値を解析して、一つの物体が異なるセンサーに跨がって移動した操作を検出できればよい。また、2つの物体を、右センサー部410と左センサー部420とがそれぞれ一つずつ検出することを条件にしてもよいし、物体を検出するセンサーについて条件を設けなくてもよい。例えば、入力解析部163が1つのセンサーにより2つの物体を検出可能な構成である場合、1つのセンサーが検出する2つの物体について接近、離隔を検出してもよい。従って、例えば、使用者の一方の手を用い、2本の指をフレーム3に近接させ、これら2本の指を接近または離隔させる操作によって表示領域VAの表示サイズを変更させてもよい。
As shown in FIGS. 8A to 8C, in the
また、図8(A)に示すように外部センサー400が2つの操作体を検出した場合、これら2つの操作体の回転操作に対応して、表示画像V1を回転させてもよい。この場合、入力解析部163は、2つの操作体の検出位置が相対的に移動し、一方の検出位置の動きが他方の検出位置の動きより大きい場合に、回転したと判定してもよい。表示画像V1を回転させる回転角度は、操作体の回転の度合いまたは回転スピードに従って決めてもよい。また、例えば、操作位置がほぼ移動せず、操作体が複数回回転した場合に、回転数により回転角度を決めても良い。
When the
そのほか、表示領域VAの表示画像V1に対する操作として、次の例が挙げられる。
1.拡大/縮小回転:外部センサー400に2点で接触または近接を検出させ、フレーム3に対し右回転させながらいずれか1点を右センサー部410のいずれかのセンサーに接触させる。ここで、さらに別の1点でいずれかのセンサーに接触または近接を検出させる。この操作に対応して、処理実行部164は、表示画像V1を拡大させながら回転させる。上記操作で左回転させることで表示画像V1を縮小しながら回転させる動作を行ってもよい。
2.拡大/縮小回転:外部センサー400に2点で接触または近接を検出させて表示画像V1を拡大/縮小させる場合に、視野VRの外側に他の操作体を位置させ、この操作体の回転の角度または速度に応じた回転量で表示画像V1を回転させる。
3.外部センサー400の検出範囲において、操作体を外部センサー400に接近させる操作に応じて、表示画像V1を拡大し、操作体Hを外部センサー400から離隔させる操作に応じて、表示画像V1を縮小してもよい。操作体を外部センサー400に接近または離隔させる操作を、他の操作体を外部センサー400のセンサーに接触させる操作と組み合わせてもよい。
In addition, the following example is given as an operation on the display image V1 in the display area VA.
1. Enlargement / reduction rotation: The
2. Enlargement / reduction rotation: When the
3. In the detection range of the
図9は、HMD100に対する操作の態様と表示の別の具体例を示す図である。図9(A)、(B)は仮想キーボードVKBを用いた入力操作の例を示す。
FIG. 9 is a diagram illustrating another specific example of an operation mode and display of the
図9(A)、(B)では、外部センサー400またはタッチパッド401、402の操作により、仮想キーボードVKBが呼び出された状態を示す。仮想キーボードVKBは、複数の入力キーを含むキーボード形状の画像であり、画像表示部20が表示領域VAに表示する。使用者が、仮想キーボードVKBが表示され視認可能な状態で、表示領域VAにおける位置入力操作を行うと、入力された位置にポインターVPが表示される。ここで、使用者により確定操作が行われると、ポインターVPに重なる位置のキーが選択され、文字が入力される。ポインターVPの位置を指定する操作は、例えば、図7(A)〜(C)を参照して説明した位置入力操作を採用できる。
FIGS. 9A and 9B show a state in which the virtual keyboard VKB is called by operating the
図9(B)には、仮想キーボードVKBとともにアプリケーション画面VAPを表示した例を示す。アプリケーション画面VAPは、制御部140が実行するアプリケーションプログラムにより、例えば文書編集を行う画面である。アプリケーション画面VAPはアプリケーションプログラムで使用者が実行する処理に対応する画面である。アプリケーションプログラムがGUIによる操作を可能とする場合、例えば、アイコン配置部IAに配置されたアイコンを選択する操作が行われる。
FIG. 9B shows an example in which the application screen VAP is displayed together with the virtual keyboard VKB. The application screen VAP is, for example, a screen for editing a document by an application program executed by the
図9(B)の例では、仮想キーボードVKBのキーを選択する操作、及び、アプリケーション画面VAPのアイコン配置部IAに配置されたアイコンを選択する操作が行われる。これらはいずれも位置入力操作を利用できる。また、仮想キーボードVKBを操作する第1状態と、アプリケーション画面VAPを操作する第2状態とを、外部センサー400を利用した操作により切り替えさせることができる。
例えば、使用者の手等の操作体により、右センサー部410または左センサー部420を覆う操作により、第1状態と第2状態とを切り替えてもよい。この場合、入力解析部163は、右センサー部410の各センサーがほぼ同時に物体を検出した検出値、又は、左センサー部420の各センサーがほぼ同時に物体を検出した検出値に基づき、右センサー部410又は左センサー部420を覆う操作を検出する。また、タッチパッド401、402に対するダブルタップの操作で第1状態と第2状態とを切り替えてもよい。
In the example of FIG. 9B, an operation of selecting a key of the virtual keyboard VKB and an operation of selecting an icon arranged in the icon arrangement unit IA of the application screen VAP are performed. All of these can use the position input operation. In addition, the first state of operating the virtual keyboard VKB and the second state of operating the application screen VAP can be switched by an operation using the
For example, the first state and the second state may be switched by an operation of covering the
図9(A)、(B)に示す例において、図8(A)〜(C)を参照して説明した操作により、処理実行部164は、仮想キーボードVKBの表示サイズを拡大、或いは縮小してもよい。また、仮想キーボードVKBを回転させる処理や、仮想キーボードVKBにおけるキー配列の変更、キーボードの種類(日本語キーボード、英語キーボード、テンキーなど)の変更等を行ってもよい。
また、図9(A)で仮想キーボードVKBを使用して文字入力が行われた後、入力された文字または文字列を、アプリケーションプログラムに転送して処理してもよい。転送するアプリケーションプログラムの選択や転送実行の指示をする操作として、外部センサー400に操作体を接近させる操作、外部センサー400の検出範囲内において操作体を所定の態様で動かす操作等が挙げられる。
また、仮想キーボードVKBの表示開始時、仮想キーボードVKBとアプリケーション画面VAPの表示時または切り替え時に、操作を案内する画像やテキストを、ポップアップ表示またはバルーン表示してもよい。
In the example shown in FIGS. 9A and 9B, the
In addition, after a character is input using the virtual keyboard VKB in FIG. 9A, the input character or character string may be transferred to an application program for processing. Examples of the operation of selecting an application program to be transferred and instructing execution of transfer include an operation of bringing the operating tool closer to the
Further, at the start of the display of the virtual keyboard VKB, at the time of displaying or switching between the virtual keyboard VKB and the application screen VAP, an image or text for guiding the operation may be displayed in a pop-up display or a balloon.
図10は、HMD100に対する操作の態様と表示の別の具体例を示す図であり、仮想リモートコントローラーVRCを用いた入力操作の例を示す。
FIG. 10 is a diagram illustrating another specific example of the operation mode and display on the
図10では、外部センサー400またはタッチパッド401、402の操作により、仮想リモートコントローラーVRCが呼び出された状態を示す。仮想リモートコントローラーVRCは、複数の入力キーを含み、家庭用電化製品やAV(Audio Visual)機器を操作するリモートコントローラーを模した画像である。仮想リモートコントローラーVRCは、実空間のリモートコントローラーと同様に複数の操作用スイッチが配置される。仮想リモートコントローラーVRCが表示された状態で、上記の位置入力操作により、仮想リモートコントローラーVRCの操作用スイッチを選択することができる。
FIG. 10 shows a state where the virtual remote controller VRC is called by operating the
また、上述した表示画像V1の拡大/縮小を指示する操作により、仮想リモートコントローラーVRCの表示サイズを拡大/縮小できる。また、上述した表示画像V1の回転を指示する操作により、仮想リモートコントローラーVRCの表示角度の変更すなわち回転を行える。 Further, the display size of the virtual remote controller VRC can be enlarged / reduced by the operation of instructing the enlargement / reduction of the display image V1 described above. In addition, the display angle of the virtual remote controller VRC can be changed, that is, rotated, by the operation of instructing the rotation of the display image V1 described above.
また、図10には方向指示ガイドVAGが表示される。方向指示ガイドVAGは、上下左右に対応する4つの方向指示の操作を行うための画像である。方向指示ガイドVAGに対する上記の位置入力操作により、上下左右のいずれかの方法を指示できる。 FIG. 10 shows a direction instruction guide VAG. The direction instruction guide VAG is an image for performing four direction instruction operations corresponding to up, down, left, and right. By the above-described position input operation on the direction instruction guide VAG, any one of up, down, left and right methods can be instructed.
図10の状態では、位置入力操作により指示される位置に、円形のポインターVPが表示され、仮想リモートコントローラーVRC、及び、方向指示ガイドVAGに対する位置入力操作をガイドする。 In the state of FIG. 10, a circular pointer VP is displayed at a position designated by the position input operation, and guides the position input operation with respect to the virtual remote controller VRC and the direction instruction guide VAG.
仮想リモートコントローラーVRC、及び、方向指示ガイドVAGは、上述した仮想キーボードVKBを表示させる操作と同様の操作により、或いは後述するメニュー操作により、表示を開始させることができる。
仮想リモートコントローラーVRCの操作用スイッチを位置入力操作によって選択すると、処理実行部164は、通信部117を制御して、仮想リモートコントローラーVRCが操作対象とする外部の機器に信号を送信する。操作対象の外部の機器は、例えば、上述したように家庭用電化製品やAV機器であるが、無線信号により制御または操作可能な装置であれば限定されない。また、通信部117は、処理実行部164の制御に従って、無線LAN、Bluetooth等の無線信号を送信してもよい。また、通信部117が、赤外線信号を送信するIR送信機(図示略)を備える場合、処理実行部164の制御により、通信部117が操作対象の機器に赤外線信号を送信してもよい。
The display of the virtual remote controller VRC and the direction instruction guide VAG can be started by an operation similar to the above-described operation of displaying the virtual keyboard VKB or by a menu operation described later.
When the operation switch of the virtual remote controller VRC is selected by a position input operation, the
また、HMD100においては、カメラ61により使用者の視線方向を撮像できる。この場合、カメラ61による撮像実行を、外部センサー400を用いた操作で指示できる。
具体的には、外部センサー400に操作体を所定時間以上接触させる操作、或いは、右センサー部410又は左センサー部420を覆う操作に応じて、処理実行部164は、カメラ61のフォーカス調整を指示する。入力解析部163は、外部センサー400が備える所定数以上のセンサーがほぼ同時に接触または近接を検出した場合に、右センサー部410または左センサー部420を覆う操作を検出すればよい。この操作の後で、同様の操作が行われた場合に、カメラ61のシャッター(撮影実行)を行ってもよい。また、表示画像V1を拡大、縮小する上記の操作により、カメラ61のズーム調整を行ってもよい。
In the
Specifically, in response to an operation of bringing the operating tool into contact with the
図11は、HMDに対する操作の態様と表示の具体例を示す図であり、特に、Z方向における操作を利用する例を示す。図11(A)は使用者の視野VRを示し、図11(B)は表示領域VAに表示される操作ガイド領域GAを特に示す。図11(A)の操作ガイド領域GAを含む画面は、操作用画面、及び、案内画面に相当し、操作ガイド領域GAは特に案内画面に対応する。 FIG. 11 is a diagram showing a mode of operation on the HMD and a specific example of display, and particularly shows an example in which an operation in the Z direction is used. FIG. 11A shows the visual field VR of the user, and FIG. 11B particularly shows the operation guide area GA displayed in the display area VA. The screen including the operation guide area GA in FIG. 11A corresponds to the operation screen and the guidance screen, and the operation guide area GA particularly corresponds to the guidance screen.
図11(A)の例では、視野VRに、操作をガイドする表示を行う操作ガイド領域GAが配置される。操作ガイド領域GAは、操作アイコンA1〜A4、メニューボタンB1、メニューリストB2、ガイド表示B3等を表示する領域である。これら操作アイコンA1〜A4、メニューボタンB1、メニューリストB2、ガイド表示B3等は、操作制御命令画像に対応する。また、操作ガイド領域GAは、それ自体を使用者が視認可能なように、色付きの領域、或いは枠線を有する領域として、表示領域VAに配置される。メニューリストB2はメニュー画面に相当する。 In the example of FIG. 11A, an operation guide area GA for performing a display for guiding the operation is arranged in the visual field VR. The operation guide area GA is an area for displaying operation icons A1 to A4, a menu button B1, a menu list B2, a guide display B3, and the like. The operation icons A1 to A4, the menu button B1, the menu list B2, the guide display B3, and the like correspond to an operation control instruction image. The operation guide area GA is arranged in the display area VA as a colored area or an area having a frame so that the user can visually recognize the operation guide area GA. The menu list B2 corresponds to a menu screen.
図11(B)に操作ガイド領域GAを示す。図11(B)に例示する操作ガイド領域GAは、上端部US、下端部GS、右端部RS、及び左端部LSの4つの辺を有する矩形である。また、上端部US、下端部GS、右端部RS、及び左端部LSは、それぞれ台形となっており、奥行き感のある画像を構成する。使用者には、視界(視野)の奥(前方)に向かって延びる矩形の枠のように見える。操作ガイド領域GAは、表示制御部190が右表示駆動部22と左表示駆動部24とによって視差を有する画像を表示することで、立体画像として表示してもよい。また、平面画像として、図11(B)に示すように上端部US、下端部GS、右端部RS、及び左端部LSを台形にして奥行き感を有する画像として表示してもよい。
FIG. 11B shows the operation guide area GA. The operation guide area GA illustrated in FIG. 11B is a rectangle having four sides of an upper end US, a lower end GS, a right end RS, and a left end LS. The upper end US, the lower end GS, the right end RS, and the left end LS are each trapezoidal, and form an image with a sense of depth. To the user, it looks like a rectangular frame extending toward the back (front) of the field of view (field of view). The operation guide area GA may be displayed as a stereoscopic image by the
操作ガイド領域GAにおいて、奥行き方向で移動するように見える向きを、図11(B)にZ方向として示す。また、操作ガイド領域GAにおいて横方向を、X方向とし、操作ガイド領域GAにおいて縦方向をY方向とする。 In the operation guide area GA, a direction that appears to move in the depth direction is shown as a Z direction in FIG. The horizontal direction in the operation guide area GA is defined as the X direction, and the vertical direction in the operation guide area GA is defined as the Y direction.
図11(A)に示すように、操作ガイド領域GAには、操作アイコンA1〜A4が表示される。操作アイコンA1〜A4は操作ガイド領域GAの四隅に配置され、外部センサー400の四隅に対する操作に対応する。
As shown in FIG. 11A, operation icons A1 to A4 are displayed in the operation guide area GA. The operation icons A1 to A4 are arranged at four corners of the operation guide area GA, and correspond to operations on the four corners of the
例えば、操作ガイド領域GAの右下隅に表示される操作アイコンA1、A2は、外部センサー400の検出範囲の右下隅に対応する。外部センサー400の検出範囲の右下隅に操作体を接触または近接する操作が、操作アイコンA1、A2を選択する操作として検出される。操作アイコンA1、A2は、その後の操作体の移動に伴って、X、Y、Z方向に移動する。使用者の片手の2本の指で操作アイコンA1、A2を操作する態様も可能である。
また、操作アイコンA3は外部センサー400の検出領域の左下隅に対応する。外部センサー400の検出範囲の左下隅に操作体を接触または近接する操作が、操作アイコンA3を選択する操作として検出される。操作アイコンA3は、その後の操作体の移動に伴って、X、Y、Z方向に移動する。
操作アイコンA4、A5は外部センサー400の検出領域の右上隅に対応する。外部センサー400の検出範囲の左右上隅に操作体を接触または近接する操作が、操作アイコンA4、A5を選択する操作として検出される。操作アイコンA4、A5は、その後の操作体の移動に伴って、X、Y、Z方向に移動する。使用者の片手の2本の指で操作アイコンA4、A5を操作する態様も可能である。
また、ガイド表示B3は、例えば確定指示を行うアイコンであり、外部センサー400の検出領域の左下隅に対応する。外部センサー400の検出範囲の左下隅に操作体を接触または近接する操作が、ガイド表示B3を選択する操作として検出される。
For example, the operation icons A1 and A2 displayed at the lower right corner of the operation guide area GA correspond to the lower right corner of the detection range of the
The operation icon A3 corresponds to the lower left corner of the detection area of the
The operation icons A4 and A5 correspond to the upper right corner of the detection area of the
Further, the guide display B3 is, for example, an icon for performing a determination instruction, and corresponds to the lower left corner of the detection area of the
メニューリストB2は、メニューボタンB1の操作により表示されるリストであり、設定項目等のリストである。メニューリストB2に表示される項目は上述した位置入力操作により指定できる。 The menu list B2 is a list displayed by operating the menu button B1, and is a list of setting items and the like. Items displayed in the menu list B2 can be designated by the above-described position input operation.
本実施形態では、外部センサー400が物体を検出する検出範囲は、図7(A)、(B)及び図8(A)に符号Dで示したように、右導光部26、左導光部28の前方及び周囲に拡がる空間である。表示領域VAに表示される操作ガイド領域GAは、検出範囲Dに対応する。従って、操作ガイド領域GAの右半分は、検出範囲Dの右半分に対応付けられ、操作ガイド領域GAの左半分は検出範囲Dの左半分に対応付けられる。検出範囲Dの右半分における物体の検出は、実際は右センサー部410のセンサー411、412、413により行われる。また、検出範囲Dの左半分における物体の検出は、左センサー部420のセンサー421、422、423により行われる。つまり、操作ガイド領域GAの右半分は右センサー部410の検出結果に対応付けられ、操作ガイド領域GAの左半分は左センサー部420に対応付けられる。
In the present embodiment, the detection range in which the
上述したように表示領域VAは右導光部26と左導光部28により使用者の両眼に視認させる画像を、使用者の視機能により合成して認識される。従って、右導光部26において、操作ガイド領域GAの左半分は、右導光部26が表示する画像の左半分に位置するが、左センサー部420に対応付けられる。同様に、左導光部28において、操作ガイド領域GAの右半分は左導光部28が表示する画像の右半分に位置するが、右センサー部410に対応付けられる。このように、操作ガイド領域GAは、使用者が意識する検出範囲Dに対応するように、外部センサー400の全体と位置関係が対応付けられている。従って、使用者はフレーム3の全体を、操作体を近接および接触させる範囲として意識し、操作ガイド領域GAに表示される操作アイコンA1〜A5、メニューボタンB1、ガイド表示B3等に対する直感的な操作が可能である。
As described above, the display area VA is recognized by synthesizing an image visually recognized by both eyes of the user by the right
また、図11(A)に示す表示中、HMD100は、通常動作モードを実行して、操作アイコンA1〜A5、メニューボタンB1、メニューリストB2、ガイド表示B3に対する操作を行うことができる。操作ガイド領域GAの表示中に、タッチパッド401、402の操作により、表示領域VAにおける位置指定操作を行い、操作アイコンA1〜A5、メニューボタンB1、メニューリストB2、ガイド表示B3を選択できる。この選択の操作の後に、タッチパッド401、402において、タップ操作や押圧操作を行うことで、選択を確定できる。
Also, during the display shown in FIG. 11A, the
上記実施形態において、近接操作モードにおける外部センサー400の検出範囲の大きさ、或いは広さを、処理実行部164が表示する画像すなわちユーザーインターフェイスの態様により切り替えてもよい。センサーの検出範囲の大きさは、例えば、接触、近接、中近接の3段階に切り替えてもよい。例えば、図7(B)、(D)の表示状態では検出範囲を中近接とし、図8(B)〜(C)に示す表示状態では検出範囲を接触とし、図9〜図11に示す表示状態では検出範囲を近接としてもよい。例えば、検出範囲が接触に設定された場合、入力検出部162は各センサーへの接触を検出し、近接に設定された場合は検出範囲をセンサー表面から2cm以内とし、中近接に設定された場合は検出範囲をセンサー表面から5cm以内としてもよい。また、近接および中近接に設定された状態で、センサー表面に接触する操作と、接触しない操作とを入力検出部162が区別する構成としてもよい。
In the above embodiment, the size or width of the detection range of the
以上説明したように、本発明を適用した第1実施形態に係るHMD100は、使用者の頭部に装着された状態で、使用者が実空間を視認可能に画像を表示する表示部としての右導光部26、左導光部287、或いは画像表示部20を備える。HMD100は、右導光部26、左導光部28周辺に対する操作体の接近を検出する外部センサー400を備える。制御部140は、外部センサー400が右導光部26、左導光部28周辺に対する2以上の操作を検出した場合に、2以上の操作に対応付けて設定された処理を実行する。
このHMD100の構成、及び、HMD100の制御方法によれば、使用者は、フレーム3に接触することなく容易にHMD100を操作でき、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。また、フレーム3に対する2以上の操作に、実行する処理が対応付けられるので、誤操作を防止できる。
As described above, the
According to the configuration of the
画像表示部20は、使用者の頭部に装着された状態で使用者の左眼側に位置する左眼用表示部としての左導光部28、及び、右眼側に位置する右眼用表示部としての右導光部26を備える。制御部140は、外部センサー400が検出する左導光部28に対する操作と右導光部26に対する操作との組み合わせに対応付けて、制御部140が実行する処理が設定される。これにより、HMD100の右側と左側のそれぞれに対する操作の組合せに応じた処理を実行するので、誤操作のおそれが小さいため、高度で複雑な処理を近接操作に割り当てることができる。これにより、より容易にHMD100を操作できる。
The
また、外部センサー400は、左導光部28に対する物体の接近と接触操作、及び、右導光部26に対する物体の接近と接触操作を検出するので、使用者は、HMD100を様々な態様で操作でき、誤操作を防止できる。
In addition, since the
制御部140は、図7(A)〜(D)に示したように、外部センサー400によって、右導光部26及び左導光部28の両方においてZ方向及びY方向に物体が移動する操作を検出した場合に、画像表示部20の表示領域における上下方向または左右方向の位置入力を受け付ける。これにより、物体を画像表示部20に接近させて移動させる操作によって位置入力を行うことができ、より容易にHMD100を操作できる。
As shown in FIGS. 7A to 7D, the
また、図7(A)〜(D)に示したように、制御部140の制御により右導光部26及び左導光部28により表示される画像の表示位置は、外部センサー400が検出する操作の操作位置と一致する位置でなくてもよい。図7(A)〜(D)の例では、操作体RH、LHが移動する方向に対応して、X方向ガイドGX、Y方向ガイドGYが移動する。この例で、ガイドの表示位置が操作体RH、LHを検出した検出位置と異なっていてもよい。言い換えれば、制御部140は、外部センサー400が検出する2以上の位置における操作に対応して、検出された操作位置とは異なる位置に対応する入力を受け付ける。
また、ガイドの表示位置を、検出位置に対応または一致する位置でなく、操作体RH、LHの検出時のガイドの位置、または、使用者が視認しやすい位置としてもよい。この場合、マウス等の相対位置を入力する入力デバイスのような操作性を実現できる。
7A to 7D, the
In addition, the display position of the guide may not be a position corresponding to or coincident with the detection position, but may be a position of the guide at the time of detecting the operating tools RH and LH, or a position that is easily visible to the user. In this case, operability such as an input device for inputting a relative position such as a mouse can be realized.
外部センサー400は、左導光部28(左眼用表示部)に対する物体の接近、及び、右導光部26(右眼用表示部)に対する物体の接近を検出するので、使用者はフレーム3に触れることなくHMD100を操作できる。
The
外部センサー400は、右導光部26、左導光部28の外表面への接触、及び、右導光部26、左導光部28の外側からの物体の接近を検出する構成であってもよい。
制御部140は、外部センサー400によって回転する操作を検出した場合に、画像表示部20の表示領域における表示を回転させる構成であってもよい。
制御部140は、外部センサー400によって2点に対する操作が検出され、検出された2点の操作位置間の距離が変化した場合に、当該距離の変化に対応して画像表示部20の表示領域における表示を拡大または縮小させる構成であってもよい。
The
The
When an operation on two points is detected by the
また、外部センサー400によって右導光部26、左導光部28の表面に所定時間以上接触する操作、または右導光部26、左導光部28の所定以上の面積を物体により覆う操作を検出した場合に、制御部140は、カメラ61による撮像を実行させる。これにより、フレーム3に対する操作により、容易に撮像を実行させることができ、誤操作を防止できる。
Further, an operation of contacting the surfaces of the right
外部センサー400は、表示部を構成する光学部品である右導光部26、左導光部28を保持する保持部への指示体の接近を検出する構成であってもよい。これにより、右導光部26及び左導光部28周辺に対する操作体の接近をより確実に検出し、表示に反映させることができる。
The
また、HMD100は、右導光部26、左導光部28周辺への操作体の接近を検出する外部センサー400と、操作を受け付けるタッチパッド401、402とを備える。制御部140は、タッチパッド401、402により受け付けられた操作に対応して処理を行う通常動作モードと、外部センサー400の検出結果に対応して画像表示部20の表示を伴う処理を実行する近接操作モードと、を切り替えて実行する。このため、例えば作業中に操作を行う場合等の利便性の向上を図ることができる。接近による操作を行う近接操作モードと通常動作モードとを切り替えることで誤操作を防止できる。
In addition, the
制御部140は、操作用のメニュー画面として、例えばメニューリストB2を含む画面を画像表示部20に表示させてもよい。この場合、制御部140は、通常動作モードではタッチパッド401、402により受け付ける操作を、メニューリストB2の選択または確定の操作として処理できる。制御部140は、近接操作モードでは外部センサー400が検出する物体の接近または離隔に対応して、メニューリストB2を含む操作ガイド領域GAにおける選択または確定の処理を行うことができる。これにより、メニュー画面を利用して、通常動作モード及び近接操作モードのいずれにおいても、簡単にHMD100を操作することが可能となる。
The
制御部140は、図11(A)に示したように、外部センサー400が検出する操作に係る情報を含む案内画面としての操作ガイド領域GAを右導光部26、左導光部28によって表示してもよい。この場合、操作ガイド領域GAの左半分に表示される情報は左眼用表示部の左側部分に対する操作に対応し、操作ガイド領域GAの右半分に表示される情報は右眼用表示部の右側部分に対する操作に対応付けられる。これにより、使用者の頭部に装着されるフレーム3の形状を利用して、使用者が案内画面を見ながら直感的に操作を行うことができる。
The
制御部140は、右導光部26、左導光部28によって使用者の右眼と左眼との両方に視認可能な態様で操作用画面を表示する。そして、制御部140は、図11(A)に示したように、左眼用表示部の左側部分に対する操作に対応して操作用画面の左半分の表示を変更する。右眼用表示部の右側部分に対する操作に対応して操作用画面の右半分の表示を変更する。これにより、使用者の頭部に装着される画像表示部20の形状を利用して、使用者の感覚に適する態様で表示を変更できる。
The
制御部140は、外部センサー400によって検出される使用者の頭を基準として上下方向すなわちY方向に物体が移動する動作、左右方向すなわちZ方向に物体が移動する操作に対応して表示を変更できる。制御部140は、外部センサー400が検出する、画像表示部20に対し物体が接近及び離隔する操作、すなわちX方向の操作に対応して、画像表示部20の表示を変更する。これにより、物体を画像表示部20に接近及び離隔させる操作と、上下や左右に移動させる操作とを検出するので、より容易に、HMD100に対する多彩な操作を行うことができる。
The
また、外部センサー400は、右導光部26及び左導光部28の周辺に配置された近接センサーであるセンサー411、412、413、421、422、423を有する。制御部140は、上記の近接センサーにより検出される操作体の動きに基づき表示と操作制御を対応させる。これにより、右導光部26及び左導光部28の周辺に配置される近接センサーによって、右導光部26及び左導光部28の周辺に対する操作体の接近をより確実に検出し、表示に反映させることができる。
Further, the
また、制御部140は、上記近接センサーにより右導光部26及び左導光部28の周辺への操作体の接近を検出した場合に、例えば図11(A)に示したように、右導光部26及び左導光部28によって操作制御命令画像を表示させる。制御部140は、タッチパッド401、402による操作と操作制御命令画像とを対応付けてもよい。この場合、右導光部26及び左導光部28の周辺に配置される近接センサーによって検出される操作体の動きを利用して、例えばGUIとして機能する操作制御命令画像を用いて操作を行うことが可能となり、操作性の向上を図ることができる。
Further, when the proximity sensor detects the approach of the operating tool to the vicinity of the right
また、制御部140は、近接センサーにより2つの位置に対する接近が検出された場合に、例えば図7に示す操作制御命令画像としてのY方向ガイドGY、X方向ガイドGXを表示させてもよい。すなわち、2本指など2つの操作体の操作を検出した場合に、これら2つの操作体に対応する操作制御命令画像としてY方向ガイドGYまたはX方向ガイドGXを表示する。そして、これら2つの位置に対応する操作制御命令画像が表示された状態で検出される操作体の所定方向の動きに、Y方向ガイドGYまたはX方向ガイドGXの所定方向の動きを対応付けてもよい。この場合、近接センサーに2つの位置で操作体を接近させる操作により、操作制御命令画像を操作体の動きに対応する方向に動かすことができる。また、この操作は、たとえば手や1本の指など、1つの操作体を接近させた場合とは異なる動作として、切り替えて実行できる。これにより、位置指示や方向指示等の操作を、2つの操作体で容易に行うことができる。
The
また、制御部140は、右導光部26及び左導光部28に対する近接センサーの配置状態を案内する表示を右導光部26及び左導光部28に表示させてもよい。例えば、右導光部26及び左導光部28のそれぞれの周辺に配置されるセンサー411、412、413、421、422、423の位置、数、検出範囲等を図で示す画像を、右導光部26及び左導光部28により表示してもよい。この場合、操作体を接近させる操作をより確実に行うことができる。
In addition, the
また、右導光部26及び左導光部28は、外光OLを透過させることにより実物体を視認可能に構成され、実物体と重ねて視認されるように画像を表示する。これにより、外光OLを透過して実物体を視認可能であって画像を視認させる右導光部26及び左導光部28を装着した使用者には、実物体と画像とが重なって視認される。そして、この視認される画像に対し、右導光部26及び左導光部28に操作体を接近させる操作を行うことができる。これにより、実物体に関連する表示を、右導光部26及び左導光部28に操作体を接近させる簡単な操作によって、容易に制御できる。
Further, the right
また、上記実施形態において、外部環境に合わせて、右導光部26及び左導光部28が表示する、Y方向ガイドGY、X方向ガイドGX等の操作制御命令画像の表示を変更してもよい。例えば、カメラ61によりHMD100周囲の明るさ(外光の輝度、照度)を検出して、検出した明るさに合わせて右導光部26、及び左導光部28の表示輝度や配色を自動調整してもよい。また、HMD100の消費電力を抑制する目的で、省エネモード等を実行し、操作制御命令画像を右導光部26または左導光部28のいずれか一方にのみ表示してもよい。この場合、入力解析部163は、右センサー部410または左センサー部420のうち、表示を行っている側でのみ操作体の接近を検出してもよい。また、AR画像を重ねるターゲットである実空間の対象物を特定するためのマーカーを利用し、このマーカーを近接センサーにより制御してもよい。或いは、使用者の視線を検出する視線センサーを備え、この視線センサーの検出結果と組み合わせて、対象物を特定しても良い。
In the above-described embodiment, the display of the operation control instruction images such as the Y-direction guide GY and the X-direction guide GX displayed by the right
また、処理部10が、フレーム3における外部センサー400の構成に適合するGUIを表示可能な構成としてもよく、このGUIをアプリケーションプログラムにより提供可能な構成であってもよい。この場合、カメラ61により、HMD100を装着した使用者の鏡像またはHMD100に対応するマーカーなどを撮像すると、この撮像画像データに基づき制御部140がHMD100の型番等を特定する。制御部140は、特定したHMD100の型番に適合するGUI(例えば、上述した操作制御命令画像)のデータを取得して、GUIを表示すればよい。この場合のGUIのデータや、HMD100の型番等を特定するためのデータは、HMD100が予め記憶部120に記憶してもよいし、通信部117等により外部の機器と通信して取得してもよい。
また、制御部140は、外部センサー400で検出した操作体の操作と操作制御命令画像とに対応する処理を実行してもよく、この場合、操作内容が判るGUIの表示等を行ってもよい。
Further, the
In addition, the
[第2実施形態]
図12は、本発明を適用した第2実施形態に係るHMD100Aの構成を示す外観図である。
図12に示すHMD100Aは、上記第1実施形態のHMD100において、使用者の眼に面する位置に視線センサー65を有する。視線センサー65は、使用者の右眼、及び、左眼のそれぞれに対応するように、右導光部26と左導光部28との中央位置に一対、設けられる。視線センサー65は、例えば、使用者の右眼と左眼とをそれぞれ撮像する一対のカメラで構成される。視線センサー65は、制御部140の制御に従って撮像を行い、制御部140が、撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、視線方向を特定する。
[Second embodiment]
FIG. 12 is an external view showing a configuration of an
The
これにより、例えば、通常動作モードの位置入力操作において、制御部140は、使用者の視線方向を特定し、視線方向の位置を、入力として検出してもよい。また、近接操作モードにおいて、制御部140は、視線センサー65の検出結果に基づき、確定操作を受け付けてもよい。例えば、外部センサー400が検出する物体の位置や動きにより、メニューリストB2のメニュー項目などが選択された場合に、視線センサー65が使用者の瞬きを検出し、この瞬きを、選択を確定する操作として検出してもよい。
その他の動作について、HMD100Aは、HMD100と同様に動作を実行できる。
Thereby, for example, in the position input operation in the normal operation mode, the
Regarding other operations, the
[第3実施形態]
図13は、本発明を適用した第3実施形態に係るHMD100Bの構成を示す外観図である。
図13に示すHMD100Bは、上記第1実施形態に係るHMD100において、タッチパッド401、402を持たない。HMD100Bは、カメラ61の下方に方向キー67、及び確定キー68を備える。
[Third embodiment]
FIG. 13 is an external view showing a configuration of an
The
HMD100Bにおいては、方向キー67の操作によって上下左右の4方向における方向指示を行うことができ、この方向指示を利用して位置入力を行える。方向キー67は、タッチパッド401、402と同様に、通常動作モードにおいて利用できる。
また、方向キー67の中央に位置する確定キー68は、押下操作によって確定を指示するキーとして機能する。
制御部140は、通常動作モードにおいて、方向キー67及び確定キー68の操作に従って、表示態様を変更する。
その他の動作について、HMD100Bは、HMD100と同様に動作を実行できる。
In the
The confirmation key 68 located at the center of the direction key 67 functions as a key for instructing confirmation by a pressing operation.
The
Regarding other operations, the
[第4実施形態]
図14は、本発明を適用した第4実施形態に係るHMD100Cの構成を示す外観図である。
図14に示すHMD100Cは、上記第1実施形態に係るHMD100が有するセンサー411、412、413、421、422、423に代えて、センサー451〜456、462〜466を備える。
[Fourth embodiment]
FIG. 14 is an external view showing a configuration of an
The
センサー451は、カメラ61の上方に位置し、フレーム3の上端面または前面の上部に配置される。センサー452、453、454、455、及び456は、右導光部26の周囲に配置される。また、センサー462、463、464、465、及び466は、左導光部28の周囲に配置される。
The
センサー451〜456、462〜466は、外部センサー400を構成するセンサーとして利用できる。センサー451〜456、462〜466のそれぞれは、センサー411〜413、421〜423と同様に、物体の接近および接触を検出可能であり、例えば静電容量式の近接センサーで構成できる。
The
センサー451〜456、462〜466は、それぞれ、右導光部26及び左導光部28を透過する外光OLを遮らないように配置されることが好ましい。また、センサー451〜456、462〜466の各センサーの間隔や配置は任意であり、各センサーの特性により適宜に設定可能であって、結果として第1実施形態と同様の検出範囲Dを実現できることが好ましい。
The
外部センサー400をセンサー451〜456、462〜466で構成した場合の検出範囲Dは、上述した第1実施形態で説明した例とほぼ同様とすることができる。また、HMD100Cの機能および動作については、HMD100と同様とすることができる。
The detection range D when the
このように、HMDにおける近接センサーの数および配置状態は任意であり、より多くのセンサーを用いてもよい。また、HMD100、100A、100B、100Cにおいて、物体の接近を検出するセンサーと、物体の接触を検出するセンサーとを、別のセンサーとして配置してもよい。
これらのいずれの場合も、センサーの検出値を入力解析部163が適宜に解析することにより、使用者が操作体を用いて行う操作を適切に検出できる。
As described above, the number and arrangement of the proximity sensors in the HMD are arbitrary, and more sensors may be used. In the
In any of these cases, the
[第5の実施形態]
図15は、本発明を適用した第5実施形態に係るHMD100Dの構成を示す外観図である。
HMD100Dは、使用者の頭部に装着された状態で使用者に虚像を視認させる表示装置の別の態様であり、眼鏡型の形状である。図15は正面側から見た斜視図である。
[Fifth Embodiment]
FIG. 15 is an external view showing a configuration of an
The
HMD100Dの本体を構成するフレーム300は、使用者の顔の前に位置する透過表示部337と、透過表示部337を側方から指示する右収容部335及び左収容部336と、使用者の側頭部に接する右保持部331及び左保持部332とを有する。
透過表示部337は全体として板状であり、透過表示部337の下端中央には、使用者の鼻に当接可能な凹部である鼻当部338が形成される。透過表示部337は、HMD100Dを使用者が装着する状態で、使用者の両眼の前に位置し、使用者の眼に画像を視認させる。
The
The
右収容部335は、透過表示部337の側端部に固定され、右保持部331を支持する。右収容部335の内側には、ケース333が取り付けられる。左収容部336は、透過表示部337の側端部に固定されて、左保持部332を支持する。左収容部336の内側には、ケース334が取り付けられる。本実施形態のHMD100Dが有するフレーム300は、右保持部331、右収容部335、透過表示部337、左収容部336、及び左保持部332が互いに固定される構造である。HMD100Dの構成について右及び左と呼ぶ方向は、HMD100Dを使用者が装着した状態で使用者の右及び左である。右眼側、及び、左眼側の呼称についても同様である。
The
右保持部331及び左保持部332は、眼鏡のテンプルのようにして、使用者の頭部にフレーム300を保持する。フレーム300は、使用者の眼前に位置して使用者に画像を視認させる右透過部301A、及び、左透過部302Aを有する。右透過部301Aは使用者の右眼の前に位置し、左透過部302Aは使用者の左眼の前に位置する。透過表示部337において鼻当部338が設けられる中央位置は、使用者の眉間の前に位置し、この位置にはカメラ61が設けられる。
右透過部301Aは、右表示部301に相当し、外光OLを透過して使用者の右眼に外景を視認させるとともに、画像光Lを使用者の右眼に導いて、画像を視認させる。左透過部302Aは、左表示部302に相当し、外光OLを透過して使用者の左眼に外景を視認させるとともに、画像光Lを使用者の左眼に導いて、画像を視認させる。
The
The
カメラ61、外部センサー400、及び、タッチパッド401、402の構成は、詳細な形状等を除き、上記第1実施形態と同様である。
The configurations of the
フレーム300は、フレーム3(図1)が備える画像表示部20と同様に、右表示駆動部22及び左表示駆動部24を含み、カメラ61、9軸センサー66、外部センサー400、タッチパッド401、402を含む画像表示部21を備える。
ケース333は、例えば、右表示駆動部22を収容し、ケース334は、例えば、左表示駆動部24を収容する。
また、画像表示部21を構成する他の部位は、フレーム300の右収容部335及び左収容部336等に配置してもよい。
また、フレーム300には、処理部10(図4)を構成する各部が配置される。
The
The
Further, other parts constituting the
In the
透過表示部337の前面側には、右センサー部410、及び、左センサー部420が配置される。右センサー部410を構成するセンサー411、412、413は、右透過部301Aの周囲に配置される。詳細には、センサー411は右透過部301Aの上方に配置され、センサー412は右透過部301Aよりも右保持部331側に配置され、センサー413は右透過部301Aの下方に配置される。
左センサー部420を構成するセンサー421は、左透過部302Aの上方に配置され、センサー422は左透過部302Aよりも左保持部332側に配置され、センサー423は左透過部302Aの下方に配置される。
On the front side of the
The
右センサー部410は、透過表示部337において使用者の右眼側に位置する部分に対応する検出部を構成し、左センサー部420は、透過表示部337において使用者の左眼側に位置する部分に対応する。
The
この構成では、右透過部301Aと左透過部302Aとを備え、外観上一体に構成された透過表示部337に、右センサー部410及び左センサー部420を構成する各センサーを配置する。この構成により、フレーム300の前方から操作体を接近させる操作等を効率よく検出できる。
In this configuration, each of the sensors constituting the
なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。 The present invention is not limited to the configuration of each of the above embodiments, but can be implemented in various modes without departing from the spirit of the invention.
上記各実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光部26及び左導光部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
In each of the above embodiments, the configuration in which the user perceives the outside scene through the display unit is not limited to the configuration in which the right
また、上記実施形態では、外部センサー400を構成する各近接センサーにより、操作体の接近を検出する構成を例示したが、本発明はこれに限定されない。例えば、フレーム3においてリム3a、3bなど内側から外側を撮像するカメラ(図示略)を設けて、このカメラの撮像画像に基づいて、操作体の接近を検出してもよい。
Further, in the above embodiment, the configuration in which the approach of the operating tool is detected by each of the proximity sensors included in the
また、例えば、フレーム3に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
Further, for example, instead of the
さらに、上記実施形態では、画像表示部20、21と処理部10とがフレーム3、300に収容された構成として説明したが、フレーム3、300から処理部10を分離し、接続ケーブルを介して接続された構成としてもよい。この場合、処理部10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、処理部10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、処理部10がフレーム3、300と分離して構成され、処理部10と画像表示部20、21との間で無線通信により各種信号を送受信する構成としてもよい。
Further, in the above-described embodiment, the configuration has been described in which the
また、例えば、画像表示部20、21において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid Crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
In addition, for example, as a configuration for generating image light in the
本発明でいう「表示部」は、画像光を出射する構成に相当し、HMD100〜100Dが画像光を出射することを「表示する」と説明した。例えば、上記実施形態では、左右の画像光生成部により画像光を生成し、右導光部26及び左導光部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示した。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであればよい。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
The “display unit” in the present invention corresponds to a configuration that emits image light, and it has been described that the
例えば、右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、フレーム3、300の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、フレーム3に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光部26及び左導光部28のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
For example, the image light generated by a mechanism built in one or both of the right
また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
Further, the scanning optical system is not limited to the configuration including the MEMS mirror. The mechanism for generating image light may be a laser light source that emits laser light. For example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eye, and scans the retina by irradiating the laser light to the user's eye to form an image on the retina. Alternatively, a configuration may be employed in which a user visually recognizes an image.
Further, a configuration may be employed in which the image light is guided to the user's eyes by using a diffraction grating instead of the virtual image forming surface that receives the scanned light. That is, the present invention is not limited to a device that guides image light inside the optical member, and may have only a function of guiding image light by refracting and / or reflecting it toward the user's eyes.
MEMS等を有する走査光学系を備えた構成では、フレーム3、300における走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。
また、上記各実施形態において、使用者の眼に画像を視認させる構成として、ホログラム素子を利用して眼に画像光を導く構成であってもよい。
In the configuration including the scanning optical system having the MEMS or the like, the position at which the user visually recognizes the image, that is, the display position of the image can be changed by changing the mounting angle of the scanning optical system in the
In each of the above embodiments, a configuration in which an image is visually recognized by a user's eye may be a configuration in which image light is guided to the eye using a hologram element.
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。 The optical system that guides the image light to the user's eyes may be configured to include an optical member that transmits external light that enters the apparatus from the outside and that the image light enters the user's eyes together with the image light. Also, an optical member that is located in front of the user's eyes and overlaps part or all of the user's field of view may be used.
また、上記各実施形態では使用者の眼前に位置する右導光部26及び左導光部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右導光部26及び左導光部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
In each of the above embodiments, the configuration in which the virtual images are formed by the half mirrors 261A and 262A on a part of the right
さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光部26、左導光部28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Further, the optical element of the present invention is not limited to the right
また、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または処理部10内の他の記憶装置(図示略)に記憶されてもよいし、外部の装置に記憶されたプログラムを、通信部117等を介して取得して実行する構成としてもよい。また、処理部10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。
In addition, at least a part of each functional block illustrated in FIG. 5 or the like may be realized by hardware, or may be configured to be realized by cooperation of hardware and software. The present invention is not limited to a configuration in which independent hardware resources are arranged. Further, the program executed by the
3、300…フレーム、10…処理部、20、21…画像表示部、26…右導光部(表示部、右眼用表示部)、28…左導光部(表示部、左眼用表示部)、61…カメラ、65…視線センサー、66…9軸センサー、67…方向キー、68…確定キー、100、100A、100B、100C、100D…HMD(表示装置)、120…記憶部、121…設定データ、122…入力解析データ、123…画像データ、140…制御部、160…画像処理部、161…撮像制御部、162…入力検出部、163…入力解析部、164…処理実行部、170…通信制御部、190…表示制御部、241…右LCD、242…左LCD、301…右表示部、302…左表示部、400…外部センサー(検出部)、401、402…タッチパッド(操作部)、410…右センサー部、411、412、413…センサー、420…左センサー部、421、422、423…センサー、451、452、453、454、455、456…センサー、462、463、464、465、466…センサー、B2…メニューリスト、D…検出範囲、GA…操作ガイド領域、GS…下端部、GX…X方向ガイド、GY…Y方向ガイド、V1…表示画像、VA…表示領域。 3, 300: frame, 10: processing unit, 20, 21: image display unit, 26: right light guide unit (display unit, display unit for right eye), 28: left light guide unit (display unit, display for left eye) ), 61 ... camera, 65 ... line-of-sight sensor, 66 ... 9-axis sensor, 67 ... direction key, 68 ... fix key, 100, 100A, 100B, 100C, 100D ... HMD (display device), 120 ... storage unit, 121 ... setting data, 122 ... input analysis data, 123 ... image data, 140 ... control unit, 160 ... image processing unit, 161 ... imaging control unit, 162 ... input detection unit, 163 ... input analysis unit, 164 ... processing execution unit, 170 communication control unit, 190 display control unit, 241 right LCD, 242 left LCD, 301 right display unit, 302 left display unit, 400 external sensor (detection unit), 401, 402 touch pad ( Operation ), 410: right sensor section, 411, 412, 413 ... sensor, 420: left sensor section, 421, 422, 423 ... sensor, 451, 452, 453, 454, 455, 456 ... sensor, 462, 463, 464 465, 466: sensor, B2: menu list, D: detection range, GA: operation guide area, GS: lower end, GX: X direction guide, GY: Y direction guide, V1: display image, VA: display area.
Claims (16)
前記表示部周辺への指示体の接近を検出する検出部と、
前記検出部の検出結果に対応して、前記表示部の表示を伴う処理を実行する制御部と、
を備え、
前記検出部が検出する前記表示部周辺に対する2以上の操作に対応付けて前記制御部が実行する処理が設定され、前記制御部は、前記検出部によって前記表示部周辺に対する2以上の操作が検出された場合に、設定された処理を実行し、
接触操作を受け付ける操作部を備え、
前記制御部は、前記操作部により受け付けられた接触操作に対応して処理を行う通常動作モードと、前記検出部の検出結果に対応して前記表示部の表示を伴う処理を実行する近接操作モードと、を切り替えて実行し、
前記通常動作モードにおいて、前記制御部は、前記検出部の検出結果に対応した処理を実行しないこと、
を特徴とする表示装置。 A display unit that displays an image so that the user can visually recognize the real space while being attached to the user's head,
A detection unit that detects the approach of the pointer to the periphery of the display unit,
A control unit that executes a process involving display on the display unit, in response to a detection result of the detection unit,
With
A process executed by the control unit is set in association with two or more operations on the periphery of the display unit detected by the detection unit, and the control unit detects two or more operations on the periphery of the display unit by the detection unit If it is, executes processing that is set,
An operation unit that accepts contact operations is provided,
The control unit includes a normal operation mode in which processing is performed in response to a contact operation received by the operation unit, and a proximity operation mode in which processing including display on the display unit is performed in response to a detection result of the detection unit. And switch to execute
In the normal operation mode, the control unit does not execute a process corresponding to the detection result of the detection unit,
A display device characterized by the above-mentioned.
前記検出部が検出する前記左眼用表示部に対する操作と前記右眼用表示部に対する操作との組み合わせに対応付けて、前記制御部が実行する処理が設定されること、
を特徴とする請求項1記載の表示装置。 The display unit includes a display unit for the left eye located on the left eye side of the user in a state where the display unit is mounted on the head of the user, and a display unit for the right eye located on the right eye side,
The processing executed by the control unit is set in association with a combination of an operation on the display unit for the left eye and an operation on the display unit for the right eye detected by the detection unit,
The display device according to claim 1, wherein:
を特徴とする請求項2記載の表示装置。 The detection unit detects the operation and the contact operation of approaching the object to the display unit for the left eye, and detects the operation and the contact operation of approaching the object to the display unit for the right eye,
The display device according to claim 2, wherein:
前記操作制御命令画像が表示された状態で、前記検出部により検出される前記指示体の所定方向の動きに、前記表示部が表示する前記操作制御命令画像の前記所定方向の動きを対応付けること、
を特徴とする請求項2記載の表示装置。 The control unit, when the detection unit detects the approach at two positions, displays an operation control instruction image corresponding to the approach to the two positions,
In a state where the operation control instruction image is displayed, associating the movement of the indicator in the predetermined direction detected by the detection unit with the movement of the operation control instruction image displayed by the display unit in the predetermined direction,
The display device according to claim 2, wherein:
を特徴とする請求項2から4のいずれかに記載の表示装置。 The control unit, when the detection unit detects, in both the right-eye display unit and the left-eye display unit, an operation in which an object moves vertically or horizontally with respect to the head of the user. Receiving a vertical or horizontal position input in a display area of the display unit;
The display device according to any one of claims 2 to 4, wherein:
を特徴とする請求項1から5のいずれかに記載の表示装置。 The detection unit is configured to detect contact with an outer surface of the display unit and approach of an object from outside the display unit,
The display device according to claim 1, wherein:
を特徴とする請求項1から6のいずれかに記載の表示装置。 The control unit, when detecting the operation of rotating the object by the detection unit, to rotate the display in the display area of the display unit,
The display device according to claim 1, wherein:
を特徴とする請求項1から7のいずれかに記載の表示装置。 The control unit, when an operation on two points is detected by the detection unit, and, when a distance between the detected operation positions of the two points changes, a display in a display area of the display unit corresponding to the change in the distance. Scaling up or down,
The display device according to claim 1, wherein:
前記制御部は、前記検出部によって前記表示部の表面に所定時間以上接触する操作、または前記表示部の所定以上の面積を物体により覆う操作を検出した場合に、前記撮像部による撮像を実行させること、
を特徴とする請求項1から8のいずれかに記載の表示装置。 Equipped with an imaging unit,
The control unit causes the imaging unit to execute imaging when the detection unit detects an operation of touching the surface of the display unit for a predetermined time or more or an operation of covering an area of the display unit with a predetermined area or more with an object. thing,
The display device according to any one of claims 1 to 8, wherein:
を特徴とする請求項1から9のいずれかに記載の表示装置。 The detection unit, the display unit, or to detect the approach of a pointer to a holding unit that holds an optical component constituting the display unit,
Display device according to claim 1, wherein 9 of the.
を特徴とする請求項1から9のいずれかに記載の表示装置。 The detection unit has a proximity sensor arranged around the display unit, and associates the display and operation control based on the movement of the indicator detected by the proximity sensor,
Display device according to claim 1, wherein 9 of the.
を特徴とする請求項11記載の表示装置。 The control unit, when the proximity sensor detects the approach of the indicator to the periphery of the display unit, causes the display unit to display an operation control instruction image, and performs a contact operation by the operation unit and the operation control instruction image. And
The display device according to claim 11, wherein:
を特徴とする請求項1から12のいずれかに記載の表示装置。 The display unit is visibly configure by Limi object that transmits external light, to display an image to be visually recognized to overlap with the real object,
Display device according to claim 1, wherein 12 of the.
を特徴とする請求項1から13のいずれかに記載の表示装置。 The display device according to claim 1, wherein:
前記検出部が検出する前記表示部周辺に対する2以上の操作に対応付けて実行する処理が設定され、
前記表示部周辺への指示体の接近を検出し、
前記検出部によって前記表示部周辺に対する2以上の操作が検出された場合に、設定された処理を実行し、
前記操作部により受け付けられた接触操作に対応して処理を行う通常動作モードと、前記検出部の検出結果に対応して前記表示部の表示を伴う処理を実行する近接操作モードと、を切り替えて実行し、
前記通常動作モードにおいて、前記検出部の検出結果に対応した処理を実行しないこと、
を特徴とする表示装置の制御方法。 A display unit that displays an image so that the user can visually recognize the real space while being mounted on the user's head, a detection unit that detects approach of a pointer around the display unit, and a contact operation. A control method of a display device comprising: an operation unit for receiving;
A process to be executed in association with two or more operations on the periphery of the display unit detected by the detection unit is set,
Detecting the approach of the pointer to the periphery of the display unit,
If two or more operations to the peripheral the display unit by the detection unit is detected, executes processing that is set,
Switching between a normal operation mode in which processing is performed in response to a contact operation received by the operation unit and a proximity operation mode in which processing accompanied by display on the display unit is performed in response to a detection result of the detection unit Run,
In the normal operation mode, do not execute a process corresponding to the detection result of the detection unit,
A method for controlling a display device, comprising:
前記検出部が検出する前記表示部周辺に対する2以上の操作に対応付けて実行する処理が設定された場合に、
前記表示部周辺への指示体の接近を検出し、
前記検出部によって前記表示部周辺に対する2以上の操作が検出された場合に、設定された処理を実行し、
前記操作部により受け付けられた接触操作に対応して処理を行う通常動作モードと、前記検出部の検出結果に対応して前記表示部の表示を伴う処理を実行する近接操作モードと、を切り替えて実行し、
前記通常動作モードにおいて、前記検出部の検出結果に対応した処理を実行しないためのプログラム。 A display unit that displays an image so that the user can visually recognize the real space while being mounted on the user's head, a detection unit that detects approach of a pointer around the display unit, and a contact operation. A computer-executable program that controls a display device including an operation unit that accepts,
When a process to be executed in association with two or more operations on the periphery of the display unit detected by the detection unit is set,
Detecting the approach of the pointer to the periphery of the display unit,
When two or more operations on the periphery of the display unit are detected by the detection unit, executes a set process ;
Switching between a normal operation mode in which processing is performed in response to a contact operation received by the operation unit and a proximity operation mode in which processing accompanied by display on the display unit is performed in response to a detection result of the detection unit Run,
In the normal operation mode, because the program does not execute the processing corresponding to the detection result of the detecting unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015256139A JP6638392B2 (en) | 2015-12-28 | 2015-12-28 | Display device, display system, display device control method, and program |
US15/372,079 US10133407B2 (en) | 2015-12-28 | 2016-12-07 | Display apparatus, display system, method for controlling display apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015256139A JP6638392B2 (en) | 2015-12-28 | 2015-12-28 | Display device, display system, display device control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017120488A JP2017120488A (en) | 2017-07-06 |
JP6638392B2 true JP6638392B2 (en) | 2020-01-29 |
Family
ID=59272091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015256139A Active JP6638392B2 (en) | 2015-12-28 | 2015-12-28 | Display device, display system, display device control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6638392B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121102A (en) * | 2017-12-28 | 2019-07-22 | トヨタ自動車株式会社 | On-vehicle equipment operation device |
JP6995650B2 (en) * | 2018-01-30 | 2022-01-14 | Dynabook株式会社 | Wearable devices and their operation methods |
KR101987050B1 (en) * | 2018-08-01 | 2019-06-10 | 양영용 | The vr drones realistic experience formation device |
JP7039672B1 (en) | 2020-10-29 | 2022-03-22 | ソフトバンク株式会社 | Controls, programs, and control methods |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5884502B2 (en) * | 2012-01-18 | 2016-03-15 | ソニー株式会社 | Head mounted display |
WO2013136696A1 (en) * | 2012-03-13 | 2013-09-19 | ソニー株式会社 | Head-mounted display |
US9016857B2 (en) * | 2012-12-06 | 2015-04-28 | Microsoft Technology Licensing, Llc | Multi-touch interactions on eyewear |
JP6251957B2 (en) * | 2013-01-23 | 2017-12-27 | セイコーエプソン株式会社 | Display device, head-mounted display device, and display device control method |
-
2015
- 2015-12-28 JP JP2015256139A patent/JP6638392B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017120488A (en) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
US11310483B2 (en) | Display apparatus and method for controlling display apparatus | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
EP4172726A1 (en) | Augmented reality experiences using speech and text captions | |
JP6123365B2 (en) | Image display system and head-mounted display device | |
US10261327B2 (en) | Head mounted display and control method for head mounted display | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
JP6638392B2 (en) | Display device, display system, display device control method, and program | |
JP2015115038A (en) | Information processor and control method of the same | |
JP2016208370A (en) | Head mounted display and control method for head mounted display | |
JP6303274B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6776578B2 (en) | Input device, input method, computer program | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
JP6740613B2 (en) | Display device, display device control method, and program | |
US20220113813A1 (en) | Glasses-Type Terminal | |
JP2018022426A (en) | Display device, head-mounted display device, and method for controlling display device | |
JP2018091882A (en) | Head-mounted display, program, and method for controlling head-mounted display | |
JP2018042004A (en) | Display device, head-mounted type display device, and method for controlling display device | |
US20240089362A1 (en) | Terminal Device | |
JP7031112B1 (en) | Glasses type terminal | |
US20240094819A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
JP2018092206A (en) | Head-mounted display, program, and method for controlling head-mounted display | |
US20240103678A1 (en) | Devices, methods, and graphical user interfaces for interacting with extended reality experiences | |
US11733789B1 (en) | Selectively activating a handheld device to control a user interface displayed by a wearable device | |
JP6669183B2 (en) | Head mounted display and control method of head mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6638392 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |