JP6427942B2 - Head-mounted display device, control system, and head-mounted display device control method - Google Patents

Head-mounted display device, control system, and head-mounted display device control method Download PDF

Info

Publication number
JP6427942B2
JP6427942B2 JP2014094613A JP2014094613A JP6427942B2 JP 6427942 B2 JP6427942 B2 JP 6427942B2 JP 2014094613 A JP2014094613 A JP 2014094613A JP 2014094613 A JP2014094613 A JP 2014094613A JP 6427942 B2 JP6427942 B2 JP 6427942B2
Authority
JP
Japan
Prior art keywords
unit
image
control
head
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014094613A
Other languages
Japanese (ja)
Other versions
JP2015213212A (en
Inventor
由貴 藤巻
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014094613A priority Critical patent/JP6427942B2/en
Priority to US14/682,409 priority patent/US9766715B2/en
Priority to CN201510180796.8A priority patent/CN105045375B/en
Publication of JP2015213212A publication Critical patent/JP2015213212A/en
Priority to US15/672,846 priority patent/US9965048B2/en
Application granted granted Critical
Publication of JP6427942B2 publication Critical patent/JP6427942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表わす画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。   A head-mounted display device (Head Mounted Display, HMD) that is a display device mounted on the head is known. The head-mounted display device, for example, generates image light representing an image using a liquid crystal display and a light source, and guides the generated image light to a user's eye using a projection optical system or a light guide plate This causes the user to visually recognize the virtual image. There are two types of head-mounted display devices: a transmission type in which the user can visually recognize the outside scene in addition to a virtual image, and a non-transmission type in which the user cannot visually recognize the outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.

特許文献1には、コントローラーから送信された制御コマンドを受信する被制御機器が受信した制御コマンドに関する表示制御データをコントローラーに送信することで、コントローラーと被制御機器との双方向のデータの送受信が行なわれる機器制御システムについて開示されている。特許文献2には、撮像した使用者の視野と同等以上の範囲に、所定のマークとしての使用者の指先が含まれている場合に、指先の座標値を出力することで、指先の位置に応じた制御処理を行なう入力画像処理方法について開示されている。特許文献3には、2眼カメラによって撮像された外景と撮像された使用者の手の位置および姿勢とに基づいて、被制御機器を操作する情報入力方法について開示されている。   In Patent Literature 1, bidirectional transmission / reception of data between the controller and the controlled device is performed by transmitting display control data related to the control command received by the controlled device that receives the control command transmitted from the controller to the controller. A device control system to be performed is disclosed. In Patent Document 2, when the user's fingertip as a predetermined mark is included in a range equal to or greater than the field of view of the user who has captured the image, the coordinate value of the fingertip is output to An input image processing method for performing a corresponding control process is disclosed. Patent Document 3 discloses an information input method for operating a controlled device based on an outside scene captured by a twin-lens camera and a captured user's hand position and orientation.

特開平5−268678号公報Japanese Patent Laid-Open No. 5-268678 特開2000−148381号公報JP 2000-148381 A 特開2013−205983号公報JP 2013-205983 A 特開2006−48628号公報JP 2006-48628 A 特開2005−69734号公報JP 2005-69734 A 特開2000−163196号公報JP 2000-163196 A

しかし、特許文献1に記載された技術では、複数の被制御機器が存在する場合に、使用者がいずれの被制御機器を制御するために、直感的な操作による制御を行なうことができず、使い勝手を向上させたいという課題があった。また、特許文献2に記載された技術では、使用者は、対象となる被制御機器を選択するまで指先の位置を固定し続ける必要があり、使用者の疲労を招くため、さらに使い勝手を向上させたいという課題があった。また、特許文献3では、手の位置と姿勢とに基づいて被制御機器が操作されるが、それ以外の情報も加味して被制御機器を操作することでより直感的に被制御機器を操作したいという課題があった。   However, in the technique described in Patent Document 1, when there are a plurality of controlled devices, the user cannot control any controlled device, and thus cannot perform control by an intuitive operation. There was a problem of improving usability. Moreover, in the technique described in Patent Document 2, the user needs to continue fixing the position of the fingertip until the target controlled device is selected, which causes fatigue of the user, further improving usability. There was a problem of wanting. Further, in Patent Document 3, the controlled device is operated based on the position and posture of the hand, but the controlled device is operated more intuitively by operating the controlled device in consideration of other information. There was a problem that I wanted to do.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像データに基づいて虚像を表示すると共に、外景を透過する画像表示部と;前記外景を撮像する撮像部と;撮像された前記外景の中から特定のオブジェクトと選択可能な対象物とを検出する検出部と;検出された前記対象物に対応付けられた前記虚像を、前記画像表示部を用いて表示し、検出された前記特定のオブジェクトの位置の変化と検出された前記対象物の位置との関係に基づいて前記対象物の制御を決定し、決定された前記対象物の制御を実行する制御部と、を備える。この形態の頭部装着型表示装置によれば、使用者は、操作する対象の対象物と検出された特定のオブジェクトの位置の変化に対応付けられた制御とを視線方向を変えないで同時に視認でき、対象物の制御を直感的に行なうことができ、使用者の利便性が向上する。 (1) According to one aspect of the present invention, a transmissive head-mounted display device is provided. The head-mounted display device displays a virtual image based on image data, and transmits an image of an outside scene; an imaging unit that images the outside scene; a specific object from the captured outside scene; A detection unit for detecting a selectable target; and displaying the virtual image associated with the detected target using the image display unit, and detecting a change in the position of the specific object detected. A control unit that determines control of the target based on the relationship with the detected position of the target and executes control of the determined target. According to the head-mounted display device of this aspect, the user can simultaneously view the target object to be operated and the control associated with the change in the position of the detected specific object without changing the line-of-sight direction. It is possible to control the object intuitively, and the convenience for the user is improved.

(2)上記形態の頭部装着型表示装置において、前記制御部は、検出された前記特定のオブジェクトと検出された前記対象物との組み合わせに予め対応付けられた前記虚像を、前記画像表示部を用いて表示してもよい。この形態の頭部装着型表示装置によれば、使用者は、対象物の制御を実行するために必要な特定のオブジェクトの位置の変化を視覚情報として認識でき、使用者にとっての頭部装着型表示装置の使い勝手が向上する。 (2) In the head-mounted display device according to the above aspect, the control unit displays the virtual image associated in advance with a combination of the detected specific object and the detected object. You may display using. According to the head-mounted display device of this form, the user can recognize the change in the position of a specific object necessary for executing the control of the target object as visual information. Usability of the display device is improved.

(3)上記形態の頭部装着型表示装置において、前記制御部は、検出された前記特定のオブジェクトと検出された前記対象物との組み合わせに予め対応付けられた前記虚像として、前記対象物の制御を実行するために必要な前記特定のオブジェクトの位置の変化を示す前記虚像を、前記画像表示部を用いて表示してもよい。この形態の頭部装着型表示装置によれば、使用者が自身の特定のオブジェクトの位置の変化に対応して次に実行される対象物の制御の内容を視覚情報として認識できるので、使用者にとっての使い勝手が向上する。 (3) In the head-mounted display device according to the above aspect, the control unit includes the object as the virtual image previously associated with a combination of the detected specific object and the detected object. The virtual image indicating a change in the position of the specific object necessary for executing the control may be displayed using the image display unit. According to the head-mounted display device of this aspect, the user can recognize the content of the control of the object to be executed next in response to the change in the position of the specific object of the user as visual information. Usability for the user is improved.

(4)上記形態の頭部装着型表示装置において、前記制御部は、検出された前記対象物に予め対応付けられた前記虚像として、実行する前記対象物の制御の内容を示す前記虚像を、前記画像表示部を用いて表示してもよい。この形態の頭部装着型表示装置によれば、使用者が特定のオブジェクトの位置の変化に対応して次に実行される対象物の制御の内容を視覚情報として認識できるので、使用者にとっての使い勝手が向上する。 (4) In the head-mounted display device according to the above aspect, the control unit displays, as the virtual image previously associated with the detected object, the virtual image indicating the control content of the object to be executed. You may display using the said image display part. According to the head-mounted display device of this form, the user can recognize the contents of the control of the object to be executed next in response to the change in the position of the specific object as visual information. Usability is improved.

(5)上記形態の頭部装着型表示装置において、前記制御部は、撮像された前記外景において、前記特定のオブジェクトの変化後の位置と前記対象物とが重なっている場合に、前記特定のオブジェクトの変化後の位置と重なっている前記対象物に予め対応付けられた前記対象物の制御を決定してもよい。この形態の頭部装着型表示装置によれば、特定のオブジェクトの位置の変化後に特定のオブジェクトが重なっている対象物に対応する対象物の制御が実行されるため、使用者は、意図した対象物の制御に対応する特定のオブジェクトの変化を行ないやすい。 (5) In the head-mounted display device according to the above aspect, the control unit includes the specific object when the position after the change of the specific object overlaps the target object in the captured outside scene. You may determine control of the said object previously matched with the said target object which overlaps with the position after the change of an object. According to the head-mounted display device of this aspect, since the control of the target object corresponding to the target object on which the specific object overlaps is executed after the position of the specific object is changed, the user can It is easy to change a specific object corresponding to the control of an object.

(6)上記形態の頭部装着型表示装置において、さらに;検出された前記対象物と前記画像表示部との距離を特定する距離特定部を備え;前記制御部は、検出されると共に特定された前記距離が閾値以下の前記対象物を、選択可能な前記対象物として設定してもよい。この形態の頭部装着型表示装置によれば、撮像された画像に複数の仮対象が検出された場合に、使用者から近いものを選択可能な対象物として設定するので、使用者に選択される可能性の高い対象物を使用者に視認させるため、使用者の利便性が向上する。 (6) The head-mounted display device according to the above aspect further includes: a distance specifying unit that specifies a distance between the detected object and the image display unit; and the control unit is detected and specified. Alternatively, the object whose distance is equal to or less than a threshold value may be set as the selectable object. According to the head-mounted display device of this aspect, when a plurality of temporary objects are detected in the captured image, an object close to the user is set as a selectable object, so that it is selected by the user. Therefore, the convenience of the user is improved because the user can visually recognize an object that is likely to be displayed.

(7)上記形態の頭部装着型表示装置において、さらに;外部の音声を取得する音声取得部を備え;前記制御部は、検出された前記特定のオブジェクトの位置の変化と取得された前記音声との組み合わせに基づいて前記対象物の制御を決定してもよい。この形態の頭部装着型表示装置によれば、特定のオブジェクトの位置の変化と音声との組み合わせによって対象物の制御が実行されるため、特定のオブジェクトの位置の変化のみによって実行される対象物の制御よりも、使用者は、より多くの対象物の制御を直感的に行なうことができる。 (7) The head-mounted display device according to the above aspect further includes: an audio acquisition unit that acquires external audio; and the control unit detects a change in the position of the specific object detected and the acquired audio The control of the object may be determined based on the combination. According to the head-mounted display device of this aspect, since the control of the target object is executed by the combination of the change in the position of the specific object and the sound, the target object that is executed only by the change in the position of the specific object The user can intuitively control more objects than the above control.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、撮像部と、検出部と、制御部と、の4つ要素の内の一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、撮像部を有していてもよく、有していなくてもよい。また、装置は、検出部を有していてもよく、有していなくてもよい。また、装置は、制御部を有していてもよく、有していなくてもよい。画像表示部は、例えば、画像データに基づいて虚像を表示すると共に、外景を透過してもよい。撮像部は、例えば、前記外景を撮像してもよい。検出部は、例えば、撮像された前記外景の中から特定のオブジェクトと選択可能な対象物とを検出してもよい。制御部は、例えば、検出された前記対象物に対応付けられた前記虚像を、前記画像表示部を用いて表示し、検出された前記特定のオブジェクトの位置の変化と検出された前記対象物の位置との関係に基づいて対象物の制御を決定し、決定された前記対象物の制御を実行してもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including some or all of the four elements of the image display unit, the imaging unit, the detection unit, and the control unit. That is, this apparatus may or may not have an image display unit. Further, the apparatus may or may not have an imaging unit. Moreover, the apparatus may or may not have the detection unit. The device may or may not have a control unit. For example, the image display unit may display a virtual image based on the image data and transmit the outside scene. The imaging unit may image the outside scene, for example. For example, the detection unit may detect a specific object and a selectable object from the captured outside scene. For example, the control unit displays the virtual image associated with the detected object using the image display unit, and detects the change in the position of the specific object detected. Control of the object may be determined based on the relationship with the position, and the control of the determined object may be executed. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, it is possible to solve at least one of various problems such as improvement and simplification of the operability of the device, integration of the device, and improvement of convenience of the user who uses the device. it can. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、制御システム、頭部装着型表示システム、表示装置、制御システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, a display device, a head-mounted display device, a control method for the display device, a control system, a head-mounted display system, a display device, a computer program for realizing the functions of the control system and the display device, and the computer program It can be realized in the form of a recorded recording medium, a data signal including the computer program and embodied in a carrier wave.

HMDの外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of HMD. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. 機器確認処理の流れを示す説明図である。It is explanatory drawing which shows the flow of an apparatus confirmation process. 操作対象が検出された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when an operation target is detected. 判断対象が検出された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when judgment object is detected. 確認済画像が表示された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when the confirmed image is displayed. 第2実施形態における制御システムの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of the control system in 2nd Embodiment. 制御処理の流れを示す説明図である。It is explanatory drawing which shows the flow of control processing. 操作対象が検出された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when an operation target is detected. ジェスチャー検出モードの場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes in gesture detection mode. 設定ジェスチャーに対応するジェスチャー検出モードの画像が表示された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes, when the image of the gesture detection mode corresponding to a setting gesture is displayed. 制御後画像が表示された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when the image after control is displayed. 画像のアイコンが選択された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when the icon of an image is selected. 変形例におけるHMDの外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of HMD in a modification.

次に、本発明の実施の形態を実施形態に基づいて以下の順序で説明する。
A.第1実施形態:
A−1.頭部装着型表示装置の構成:
A−2.機器確認処理:
B.第2実施形態:
C.変形例:
Next, embodiments of the present invention will be described in the following order based on the embodiments.
A. First embodiment:
A-1. Configuration of head mounted display device:
A-2. Device confirmation processing:
B. Second embodiment:
C. Variation:

A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」ともいう。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
A. First embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (HMD 100). The HMD 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The HMD 100 of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In this specification, a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience. Moreover, emitting image light generated based on image data is also referred to as “displaying an image”.

HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control unit 10 (controller 10) that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、赤外線LED64と、TOFセンサー63と、マイク69と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And an infrared LED 64, a TOF sensor 63, and a microphone 69. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。   The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22 and 24 to the eyes of the user. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。そのため、カメラ61は、使用者が画像表示部20を頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像画像を取得する。カメラ61は、単眼カメラであるが、ステレオカメラであってもよい。カメラ61は、請求項における撮像部に相当する。   The camera 61 is disposed at a position corresponding to the user's eyebrow when the user wears the image display unit 20. Therefore, the camera 61 captures an outside scene, which is an external scenery in the direction of the user's line of sight, in a state where the user wears the image display unit 20 on the head, and acquires a captured image. The camera 61 is a monocular camera, but may be a stereo camera. The camera 61 corresponds to an imaging unit in the claims.

赤外線LED64およびTOFセンサー63は、カメラ61と同様の位置である使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。赤外線LED64は、赤外線を発光する発光ダイオード(Light Emitting Diode ,LED)である。TOFセンサー63は、赤外線LED64が発光した赤外線が特定の対象に反射した反射光を検出する。   The infrared LED 64 and the TOF sensor 63 are arranged at positions corresponding to the eyebrows of the user when the user wears the image display unit 20 at the same position as the camera 61. The infrared LED 64 is a light emitting diode (LED) that emits infrared light. The TOF sensor 63 detects the reflected light that the infrared light emitted from the infrared LED 64 is reflected by a specific target.

マイク69は、外部の音声を取得する装置である。マイク69は、使用者が画像表示部20を装着した際の右表示駆動部22における使用者と対向する側の反対側(外側)に形成されている。   The microphone 69 is a device that acquires external sound. The microphone 69 is formed on the opposite side (outside) of the right display driving unit 22 when facing the user in the right display driving unit 22 when the user wears the image display unit 20.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control unit 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control unit 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control unit 10, the control unit 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LEDが用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control unit 10. The lighting unit 12 notifies the operation state of the HMD 100 according to the light emission state. The operation state of the HMD 100 includes, for example, power ON / OFF. For example, an LED is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.

図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、記憶部120と、電源130と、無線通信部132と、操作部135と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。   FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. As illustrated in FIG. 2, the control unit 10 includes a storage unit 120, a power supply 130, a wireless communication unit 132, an operation unit 135, a CPU 140, an interface 180, a transmission unit 51 (Tx51), and a transmission unit 52 ( Tx52). The operation unit 135 receives an operation by the user and includes an enter key 11, a display switch key 13, a track pad 14, a luminance switch key 15, a direction key 16, a menu key 17, and a power switch 18.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。また、詳細については後述するが、記憶部120は、カメラ61の撮像画像に含まれる場合に検出される操作対象の画像データと制御を行なう判断の基となる判断対象の画像データとを記憶している。また、記憶部120は、操作対象等が検出された場合に画像表示部20に表示させる表示画像についても記憶している。   The power supply 130 supplies power to each part of the HMD 100. As the power supply 130, for example, a secondary battery can be used. The storage unit 120 stores various computer programs. The storage unit 120 is configured by a ROM, a RAM, or the like. Although details will be described later, the storage unit 120 stores the image data of the operation target detected when included in the captured image of the camera 61 and the image data of the determination target that is the basis of the determination for performing the control. ing. The storage unit 120 also stores a display image to be displayed on the image display unit 20 when an operation target or the like is detected.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、画像判定部168、距離測定部166、画像設定部165、および、インターフェイス180として機能する。   The CPU 140 reads out and executes the computer program stored in the storage unit 120, thereby operating the operating system 150 (OS 150), the display control unit 190, the sound processing unit 170, the image processing unit 160, the image determination unit 168, and the distance measurement. Functions as a unit 166, an image setting unit 165, and an interface 180.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示しない)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示しない)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal as image data (RGB data) of the target image in the DRAM in the storage unit 120 for each frame. Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データ、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. . Note that the image data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。音声処理部170は、マイク69が取得した外部の音声に対して各種処理を行なう。詳細については後述するが、音声処理部170は、各種処理として、取得した外部の音声が記憶部120に記憶された機器確認処理を行なう判断の基となる判断音声であるか否かを判定する。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) connected to the connecting member 46 ( (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example. The sound processing unit 170 performs various processes on the external sound acquired by the microphone 69. As will be described in detail later, the sound processing unit 170 determines whether or not the acquired external sound is a determination sound that is a basis for determining to perform the device confirmation process stored in the storage unit 120 as various processes. .

画像判定部168は、パターンマッチングや統計的識別法によって、記憶部120に記憶された操作対象や判断対象の画像データと同じ画像が撮像画像に含まれているか否かを検出する。画像判定部168は、検出された判断対象の画像データと同じ画像である対象を、判断対象として検出する。なお、画像判定部168は、請求項における検出部に相当し、判断対象は、請求項における特定のオブジェクトに相当する。   The image determination unit 168 detects whether or not the captured image includes the same image as the operation target or the determination target image data stored in the storage unit 120 by pattern matching or statistical identification. The image determination unit 168 detects, as a determination target, a target that is the same image as the detected determination target image data. The image determination unit 168 corresponds to the detection unit in the claims, and the determination target corresponds to a specific object in the claims.

距離測定部166は、TOFセンサー63が検出した赤外線の反射光について、TOF(Time of Flight)方式を用いることで、赤外線が発光されてから特定の対象を反射してTOFセンサー63に受光までの時間を算出することで、画像表示部20と特定の対象までの距離を測定する距離画像センサーである。距離測定部166は、画像判定部168によって検出された操作対象の画像データと同じ画像を表す特定の対象と画像表示部20との距離が予め設定された所定の距離以下であるか否かを判定する。なお、距離測定部166、TOFセンサー63、および、赤外線LED64は、請求項における距離特定部に相当する。   The distance measuring unit 166 uses the TOF (Time of Flight) method for the reflected infrared light detected by the TOF sensor 63 to reflect a specific target after the infrared light is emitted until the TOF sensor 63 receives light. It is a distance image sensor that measures the distance between the image display unit 20 and a specific object by calculating time. The distance measuring unit 166 determines whether or not the distance between the specific target representing the same image as the operation target image data detected by the image determining unit 168 and the image display unit 20 is equal to or less than a predetermined distance. judge. The distance measuring unit 166, the TOF sensor 63, and the infrared LED 64 correspond to the distance specifying unit in the claims.

画像設定部165は、画像表示部20との距離が所定の距離以下であり、かつ、記憶部120に記憶された操作対象の画像データと同じ画像を表す特定の対象を、選択可能な操作対象として設定する。画像設定部165は、選択可能な操作対象を設定すると、記憶部120に記憶されている当該操作対象に対応付けられた画像を画像表示部20に表示させる。すなわち、画像判定部168によって、操作対象の画像データと同じ画像として検出されているが、画像表示部20との距離が所定の距離を超える特定の対象は、選択可能な操作対象としては設定されない。また、画像設定部165は、検出された判断対象に予め対応付けられた画像を画像表示部20に表示する。画像設定部165は、判断対象の位置の変化と操作対象の位置とに基づいて設定された制御指示を決定して実行する。なお、画像表示部20に表示される各種の画像についての詳細については、後述する。画像設定部165は、請求項における制御部に相当する。本実施形態における選択可能な操作対象は、請求項における選択可能な対象物に相当し、画像設定部165によって設定される制御指示は、請求項における対象物の制御に相当する。   The image setting unit 165 is an operation target that can select a specific target whose distance from the image display unit 20 is equal to or less than a predetermined distance and that represents the same image as the image data of the operation target stored in the storage unit 120. Set as. When the selectable operation target is set, the image setting unit 165 causes the image display unit 20 to display an image associated with the operation target stored in the storage unit 120. That is, the image determination unit 168 detects the same image as the operation target image data, but a specific target whose distance from the image display unit 20 exceeds a predetermined distance is not set as a selectable operation target. . The image setting unit 165 displays an image associated with the detected determination object in advance on the image display unit 20. The image setting unit 165 determines and executes a control instruction set based on the change in the position of the determination target and the position of the operation target. Details of various images displayed on the image display unit 20 will be described later. The image setting unit 165 corresponds to a control unit in claims. The selectable operation target in the present embodiment corresponds to the selectable target in the claims, and the control instruction set by the image setting unit 165 corresponds to the control of the target in the claims.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、TOFセンサー63と、赤外線LED64と、マイク69と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. A TOF sensor 63, an infrared LED 64, and a microphone 69.

右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL221) that function as a light source, and a right LCD that functions as a display element. A control unit 211, a right LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データと、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit 54 (Rx54), a left backlight control unit 202 (left BL control unit 202) and a left backlight 222 (left BL222) that function as a light source, and a left LCD that functions as a display element. A control unit 212 and a left LCD 242 and a left projection optical system 252 are included. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図3に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 3, the backlight system is adopted in the present embodiment, but the image light may be emitted using a front light system or a reflection system.

A−2.機器確認処理:
図4は、機器確認処理の流れを示す説明図である。機器確認処理では、制御部10が、選択可能な操作対象(例えば、制御機器のメーター)を設定した後に、判断対象(例えば、使用者の指)の所定の動き(以下、単に「ジェスチャー」とも呼ぶ)を検出すると、ジェスチャーに基づく制御指示である機器確認を実行する。
A-2. Device confirmation processing:
FIG. 4 is an explanatory diagram showing the flow of the device confirmation process. In the device confirmation process, after the control unit 10 sets a selectable operation target (for example, a meter of the control device), a predetermined movement (hereinafter simply referred to as “gesture”) of a determination target (for example, a user's finger) is set. Device), which is a control instruction based on a gesture, is executed.

初めに、カメラ61は、外景SCを撮像する(ステップS10)。なお、カメラ61は、連続的に外景SCを撮像している。言い換えれば、カメラ61は、動画として外景SCを撮像している。カメラ61は、撮像した撮像画像の画像データをCPU140の画像判定部168に送信する。次に、画像判定部168は、カメラ61によって撮像された撮像画像に対して、パターンマッチング等の画像認識処理を行なうことによって、撮像画像の中に記憶部120に記憶された操作対象の画像データと同じ画像が含まれているか否かを検出する(ステップS12)。撮像画像に操作対象と同じ画像データの画像が検出されなかった場合には(ステップS12:NO)、撮像画像に操作対象と同じ画像データの画像が検出されるまで、カメラ61によってステップS10の処理が繰り返される。ステップS12の処理において、撮像画像に操作対象と同じ画像データの画像が検出された場合には(ステップS12:YES)、CPU140の距離測定部166は、画像判定部168によって撮像画像に操作対象を表す画像の対象(以降、単に「仮対象」とも呼ぶ)が検出されると同時に、TOFセンサー63および赤外線LED64を用いたTOF方式によって、仮対象と画像表示部20との距離を測定する。距離測定部166は、画像判定部168によって検出された仮対象と画像表示部20との測定した距離が所定の距離以下であるか否かを判定する(ステップS14)。仮対象と画像表示部20との測定された距離が所定の距離を超えると判定された場合には(ステップS14:NO)、画像判定部168は、仮対象を選択可能な操作対象としては設定せずに、引き続き、カメラ61によってステップS10以降の処理が繰り返される。ステップS14の処理において、仮対象と画像表示部20との距離が所定の距離以下であると判定された場合には(ステップS14:YES)、画像設定部165は、画像判定部168によって検出された仮対象を選択可能な操作対象として設定し、操作対象に対応付けられた記憶部120に記憶された画像を画像表示部20に表示させる(ステップS16)。   First, the camera 61 images the outside scene SC (step S10). Note that the camera 61 continuously captures the outside scene SC. In other words, the camera 61 images the outside scene SC as a moving image. The camera 61 transmits image data of the captured image to the image determination unit 168 of the CPU 140. Next, the image determination unit 168 performs image recognition processing such as pattern matching on the captured image captured by the camera 61, thereby operating image data stored in the storage unit 120 in the captured image. It is detected whether or not the same image is included (step S12). When an image of the same image data as the operation target is not detected in the captured image (step S12: NO), the process of step S10 is performed by the camera 61 until an image of the same image data as the operation target is detected in the captured image. Is repeated. In the process of step S12, when an image having the same image data as the operation target is detected in the captured image (step S12: YES), the distance measuring unit 166 of the CPU 140 causes the image determination unit 168 to select the operation target in the captured image. At the same time as the target of the image to be represented (hereinafter also simply referred to as “temporary target”) is detected, the distance between the temporary target and the image display unit 20 is measured by the TOF method using the TOF sensor 63 and the infrared LED 64. The distance measuring unit 166 determines whether or not the measured distance between the temporary object detected by the image determining unit 168 and the image display unit 20 is equal to or less than a predetermined distance (step S14). When it is determined that the measured distance between the temporary target and the image display unit 20 exceeds the predetermined distance (step S14: NO), the image determination unit 168 sets the temporary target as an operation target that can be selected. Instead, the process after step S10 is repeated by the camera 61. When it is determined in step S14 that the distance between the temporary object and the image display unit 20 is equal to or less than the predetermined distance (step S14: YES), the image setting unit 165 is detected by the image determination unit 168. The temporary target is set as a selectable operation target, and the image stored in the storage unit 120 associated with the operation target is displayed on the image display unit 20 (step S16).

図5は、操作対象が設定された場合に使用者が視認する視野VRの一例を示す説明図である。図5に示すように、使用者は、設定された操作対象として、HMD100とは異なる装置である3台の制御機器MCを、透過された外景SCとして視認している。使用者に視認されている3台の内の中央の制御機器MCは、制御機器MCが制御している他の装置の電圧値を示すメーターMT1および温度を示すメーターMT2と、複数のボタンであるボタン群BTと、複数のランプを含むランプ群LMと、有している。ボタン群BTに含まれるそれぞれのボタンは、押下されることでオンとオフとを切り替えて他の装置を制御する。ランプ群LMのボタンのそれぞれは、ボタン群BTに含まれ、対応する上側に配置されたボタンがオンの時には点灯し、オフの時には消灯する。なお、メーターMT1およびメーターMT2は、請求項における選択可能な対象物に相当する。   FIG. 5 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when an operation target is set. As shown in FIG. 5, the user visually recognizes three control devices MC, which are devices different from the HMD 100, as the set operation targets as the transparent outside scene SC. The central control device MC of the three units visually recognized by the user includes a meter MT1 indicating the voltage value of another device controlled by the control device MC, a meter MT2 indicating the temperature, and a plurality of buttons. It has a button group BT and a lamp group LM including a plurality of lamps. Each button included in the button group BT is pressed to switch on and off to control other devices. Each button of the lamp group LM is included in the button group BT, and is turned on when the corresponding button arranged on the upper side is turned on, and is turned off when the button is turned off. The meter MT1 and the meter MT2 correspond to selectable objects in the claims.

本実施形態において、記憶部120がメーターMT1およびメーターMT2の画像データを記憶しているため、画像判定部168は、メーターMT1およびメーターMT2を操作対象として検出する。画像判定部168がメーターMT1やメーターMT2を操作対象として設定すると、メーターMT1とメーターMT2とのそれぞれに対応付けられ、記憶部120に記憶された画像として、画像設定部165は、メーターMT1とメーターMT2とのそれぞれの位置を示す画像IM1と画像IM2とを画像表示部20の画像表示最大領域PNに表示させる。なお、画像表示最大領域PNは、画像光生成部が画像を表示できる最大の領域を示し、使用者には視認されない。また、画像設定部165は、記憶部120に記憶され、設定された操作対象としてのメーターMT1とメーターMT2との少なくとも一方に対応付けられた画像として、「確認?」というテキスト画像TX1を画像表示最大領域PNに表示される。テキスト画像TX1は、メーターMT1またはメーターMT2が示す数値の確認行為を使用者に促す画像である。   In the present embodiment, since the storage unit 120 stores the image data of the meter MT1 and the meter MT2, the image determination unit 168 detects the meter MT1 and the meter MT2 as operation targets. When the image determination unit 168 sets the meter MT1 or the meter MT2 as an operation target, the image setting unit 165 associates the meter MT1 with the meter MT1 as an image associated with each of the meter MT1 and the meter MT2 and stored in the storage unit 120. An image IM1 and an image IM2 indicating the respective positions with respect to MT2 are displayed in the image display maximum area PN of the image display unit 20. The image display maximum area PN indicates the maximum area where the image light generation unit can display an image and is not visually recognized by the user. Further, the image setting unit 165 displays the text image TX1 of “confirmation?” As an image stored in the storage unit 120 and associated with at least one of the meter MT1 and the meter MT2 as the set operation target. It is displayed in the maximum area PN. The text image TX1 is an image that prompts the user to confirm the numerical value indicated by the meter MT1 or the meter MT2.

画像判定部168によって操作対象としてのメーターMT1等が設定されて、画像設定部165によってテキスト画像TX1等の画像が画像表示最大領域PNに表示されると(図4のステップS16)、画像判定部168は、ジェスチャーを判断するための記憶部120に記憶された判断対象の画像データと同じ画像が撮像画像に含まれているか否かを検出する(ステップS18)。撮像画像に判断対象の画像が検出されなかった場合には(ステップS18:NO)、画像判定部168は、判断対象の検出を待機する(ステップS18)。撮像画像に判断対象の画像が検出された場合には(ステップS18:YES)、CPU140の画像設定部165は、記憶部120に記憶され、テキスト画像TX1が促す確認行為をするために使用者が行なうべきジェスチャーを指示するためのジェスチャー指示画像を、画像表示最大領域PNに表示させる(ステップS20)。   When the image determination unit 168 sets the meter MT1 or the like as an operation target and the image setting unit 165 displays an image such as the text image TX1 in the maximum image display area PN (step S16 in FIG. 4), the image determination unit In 168, it is detected whether or not the same image as the determination target image data stored in the storage unit 120 for determining a gesture is included in the captured image (step S18). When the determination target image is not detected in the captured image (step S18: NO), the image determination unit 168 waits for detection of the determination target (step S18). When an image to be determined is detected in the captured image (step S18: YES), the image setting unit 165 of the CPU 140 is stored in the storage unit 120, and the user performs a confirmation action prompted by the text image TX1. A gesture instruction image for instructing a gesture to be performed is displayed in the image display maximum area PN (step S20).

図6は、判断対象が検出された場合に使用者が視認する視野VRの一例を示す説明図である。図6には、判断対象としての検出された使用者の右手HD1の人差し指FF1が立てられた状態が示されている。図6に示すように、画像設定部165は、判断対象である右手HD1が検出された場合に、記憶部120に記憶されたメーターMT1およびメーターMT2の数値が定められた閾値未満であることを確認するために実行すべきジェスチャーを示すジェスチャー指示画像を画像表示最大領域PNに表示させる。なお、右手HD1の人差し指FF1は、請求項における特定のオブジェクトに相当する。ジェスチャー指示画像は、請求項における特定のオブジェクトの位置の変化を示す虚像に相当する。   FIG. 6 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when a determination target is detected. FIG. 6 shows a state in which the index finger FF1 of the detected user's right hand HD1 as the determination target is raised. As shown in FIG. 6, the image setting unit 165 determines that the numerical values of the meter MT1 and the meter MT2 stored in the storage unit 120 are less than a predetermined threshold when the right hand HD1 that is a determination target is detected. A gesture instruction image indicating a gesture to be executed for confirmation is displayed in the maximum image display area PN. The index finger FF1 of the right hand HD1 corresponds to a specific object in the claims. The gesture instruction image corresponds to a virtual image indicating a change in the position of a specific object in the claims.

ジェスチャー指示画像は、右手HD1の人差し指FF1の先端からメーターMT1へと放物線の矢印画像CS1と、使用者が発生すべき判断音声である「ヨシ!」を示すテキスト画像TX2と、で構成される。本実施形態では、画像設定部165は、撮像画像において人差し指FF1がメーターMT1に重なる位置に移動した後に、マイク69および音声処理部170によって「ヨシ!」の判断音声が検出されると、確認行為の制御指示を実行する。なお、記憶部120に記憶された機器確認処理では、メーターMT1とメーターMT2との両方が検出された場合には、メーターMT1の機器確認を先に優先するように設定されている。使用者は、テキスト画像TX1,TX2および矢印画像CS1と重複する外景SCを透過して視認できる。確認行為の制御指示は、請求項における決定された対象物の制御に相当する。   The gesture instruction image includes a parabolic arrow image CS1 from the tip of the index finger FF1 of the right hand HD1 to the meter MT1, and a text image TX2 indicating “Yoshi!” Which is a judgment sound to be generated by the user. In the present embodiment, the image setting unit 165 confirms the confirmation action when the microphone 69 and the sound processing unit 170 detect the determination sound “Yoshi!” After the index finger FF1 moves to the position where the meter MT1 overlaps the captured image. The control instruction is executed. Note that, in the device confirmation process stored in the storage unit 120, when both the meter MT1 and the meter MT2 are detected, the device confirmation of the meter MT1 is set first. The user can see through the outside scene SC overlapping the text images TX1, TX2 and the arrow image CS1. The confirmation action control instruction corresponds to the control of the object determined in the claims.

画像設定部165によって、ジェスチャー指示画像が画像表示最大領域PNに表示されると(図4のステップS20)、画像判定部168は、矢印画像CS1に沿った人差し指FF1のジェスチャーの検出を待機する(ステップS22)。画像判定部168は、カメラ61によって連続的に撮像される撮像画像の各フレームにおける人差し指FF1の画像に対して、パターンマッチング等の画像認識処理を行なうことによって、人差し指FF1のジェスチャーを検出する。矢印画像CS1に沿った人差し指FF1のジェスチャーが検出されない場合には(ステップS22:NO)、画像判定部168は、引き続き、矢印画像CS1に沿った人差し指FF1のジェスチャーの検出を待機する(ステップS22)。矢印画像CS1に沿った人差し指FF1のジェスチャーが検出された場合には(ステップS22:YES)、画像設定部165は、ジェスチャー後の人差し指FF1の位置が撮像画像においてメーターMT1に重なっている状態で、音声処理部170がマイク69を介してテキスト画像TX2に示す判断音声の「ヨシ!」の検出を待機する(ステップS24)。判断音声が検出されない、または、人差し指FF1の位置がメーターMT1と重なっていない場合には(ステップS24:NO)、画像設定部165は、引き続き、撮像画像において人差し指FF1の位置とメーターMT1とが重なっている状態での判断音声の検出を待機する(ステップS24)。撮像画像において、人差し指FF1の位置とメーターMT1とが重なっている状態で、判断音声の「ヨシ!」が検出された場合には(ステップS24:YES)、画像設定部165は、確認行為をするためのジェスチャーが行なわれたと判定し、確認行為が済んだ後に表示する確認済画像を画像表示最大領域PNに表示させ(ステップS26)、機器確認処理を終了する。   When the image setting unit 165 displays the gesture instruction image in the maximum image display area PN (step S20 in FIG. 4), the image determination unit 168 waits for detection of the gesture of the index finger FF1 along the arrow image CS1 ( Step S22). The image determination unit 168 detects the gesture of the index finger FF1 by performing image recognition processing such as pattern matching on the image of the index finger FF1 in each frame of the captured images continuously captured by the camera 61. When the gesture of the index finger FF1 along the arrow image CS1 is not detected (step S22: NO), the image determination unit 168 continues to wait for detection of the gesture of the index finger FF1 along the arrow image CS1 (step S22). . When the gesture of the index finger FF1 along the arrow image CS1 is detected (step S22: YES), the image setting unit 165 is in a state where the position of the index finger FF1 after the gesture overlaps the meter MT1 in the captured image. The voice processing unit 170 waits for the detection of the determination voice “Yoshi!” Shown in the text image TX2 via the microphone 69 (step S24). When the determination sound is not detected or the position of the index finger FF1 does not overlap the meter MT1 (step S24: NO), the image setting unit 165 continues to overlap the position of the index finger FF1 and the meter MT1 in the captured image. It waits for detection of the judgment voice in the state where it is present (step S24). In the captured image, when the position of the index finger FF1 and the meter MT1 overlap with each other and the determination sound “Yoshi!” Is detected (step S24: YES), the image setting unit 165 performs a confirmation act. It is determined that a gesture has been performed, and a confirmed image to be displayed after the confirmation action is completed is displayed in the image display maximum area PN (step S26), and the device confirmation process is terminated.

図7は、確認済画像が表示された場合に使用者が視認する視野VRの一例を示す説明図である。図7には、使用者による確認行為が検出されて確認済画像としての「MT1確認OK!」のテキスト画像TX3が表示されたときに使用者に視認される視野VRが示されている。撮像画像において、人差し指FF1の位置とメーターMT1とが重なっている場合に、画像設定部165は、メーターMT1の位置を示す画像IM1に加えて、メーターMT1の数値が確認済みであることを示すために、メーターMT1を囲っている実線の円の画像IM3を画像表示最大領域PNに表示させる。使用者は、画像表示最大領域PNに表示されたテキスト画像TX3および画像IM3を視認することで、ジェスチャーが正常に処理されて、機器確認の制御指示が実行されたことを確認できる。   FIG. 7 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when a confirmed image is displayed. FIG. 7 shows a visual field VR visually recognized by the user when a confirmation action by the user is detected and a text image TX3 of “MT1 confirmation OK!” As a confirmed image is displayed. In the captured image, when the position of the index finger FF1 and the meter MT1 overlap, the image setting unit 165 indicates that the numerical value of the meter MT1 has been confirmed in addition to the image IM1 indicating the position of the meter MT1. In addition, a solid circle image IM3 surrounding the meter MT1 is displayed in the image display maximum region PN. By visually recognizing the text image TX3 and the image IM3 displayed in the image display maximum area PN, the user can confirm that the gesture has been processed normally and the control instruction for device confirmation has been executed.

以上説明したように、本実施形態におけるHMD100では、画像判定部168が撮像画像の中に含まれる操作対象と判断対象とを検出し、画像設定部165は、検出された操作対象に対応付けられた画像IM1,IM2およびテキスト画像TX1を画像表示最大領域PNに表示させ、検出された判断対象のジェスチャーに対応する機器確認の制御指示を決定して実行する。そのため、本実施形態のHMD100では、使用者は、操作する対象の操作対象と自身が行なうジェスチャーに対応付けられた制御とを視線方向を変えないで同時に視認でき、操作対象の制御を直感的に行なうことができ、使用者の利便性が向上する。   As described above, in the HMD 100 according to the present embodiment, the image determination unit 168 detects the operation target and the determination target included in the captured image, and the image setting unit 165 is associated with the detected operation target. The images IM1 and IM2 and the text image TX1 are displayed in the maximum image display area PN, and a device confirmation control instruction corresponding to the detected gesture to be determined is determined and executed. Therefore, in the HMD 100 of this embodiment, the user can visually recognize the operation target to be operated and the control associated with the gesture performed by the user at the same time without changing the line-of-sight direction, and intuitively control the operation target. This can be performed and the convenience for the user is improved.

また、本実施形態におけるHMD100では、画像設定部165は、判断対象としての右手HD1が検出されると、メーターMT1およびメーターMT2と右手HD1の人差し指FF1との組み合わせに対応付けられた画像として、人差し指FF1の変化を示した矢印画像CS1を画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者は、制御指示を実行するために必要なジェスチャーを視覚情報として認識でき、使用者にとってのHMD100の使い勝手が向上する。   Further, in the HMD 100 according to the present embodiment, when the right hand HD1 as a determination target is detected, the image setting unit 165 displays an index finger as an image associated with the combination of the meter MT1 and the meter MT2 and the index finger FF1 of the right hand HD1. An arrow image CS1 showing the change of FF1 is displayed in the image display maximum area PN. Therefore, in the HMD 100 of the present embodiment, the user can recognize gestures necessary for executing the control instruction as visual information, and the usability of the HMD 100 for the user is improved.

また、本実施形態におけるHMD100では、画像設定部165は、判断対象である人差し指FF1の位置と操作対象であるメーターMT1とが重なっている状態で、音声処理部170によって判断音声が検出された場合に、確認済画像であるテキスト画像TX3を画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、ジェスチャーが行われた後に判断対象が重なっている操作対象に対応する制御指示が実行されるため、使用者は、意図した制御指示に対応するジェスチャーを行ないやすい。また、ジェスチャーと音声との組み合わせによって制御指示が実行されるため、ジェスチャーのみによって実行される制御指示よりも、使用者は、より多くの制御指示を直感的に行なうことができる。   Further, in the HMD 100 according to the present embodiment, the image setting unit 165 detects the determination sound by the sound processing unit 170 in a state where the position of the index finger FF1 that is the determination target overlaps the meter MT1 that is the operation target. Then, the text image TX3 that is the confirmed image is displayed in the image display maximum area PN. Therefore, in the HMD 100 of the present embodiment, the control instruction corresponding to the operation target with which the determination target overlaps is executed after the gesture is performed, and thus the user can easily perform the gesture corresponding to the intended control instruction. Further, since the control instruction is executed by a combination of the gesture and the voice, the user can intuitively give more control instructions than the control instruction executed only by the gesture.

また、本実施形態におけるHMD100では、距離測定部166によって測定された画像表示部20と仮対象との距離が所定の距離以下である場合に、画像設定部165は、検出された仮対象を選択可能な操作対象として設定する。そのため、本実施形態のHMD100では、撮像画像に複数の仮対象が検出された場合に、使用者から近いものを選択可能な操作対象として設定するので、使用者に選択される可能性の高いものを使用者に視認させるため、使用者の利便性が向上する。   In the HMD 100 according to the present embodiment, when the distance between the image display unit 20 measured by the distance measurement unit 166 and the temporary object is equal to or less than a predetermined distance, the image setting unit 165 selects the detected temporary object. Set as possible operation target. Therefore, in the HMD 100 of the present embodiment, when a plurality of temporary objects are detected in the captured image, an object close to the user is set as an operation object that can be selected, so that the user is highly likely to be selected. The user's convenience is improved.

B.第2実施形態:
第2実施形態では、第1実施形態と異なり、HMD100aと制御装置300とを備える制御システム500において、HMD100aと制御装置300との間で制御指示の信号の送受信が行なわれる。これにより、制御装置300からの操作対象を特定する情報をHMD100aが受信した後に、HMD100aで入力された制御指示に基づいて制御装置300の制御が行なわれる。
B. Second embodiment:
In the second embodiment, unlike the first embodiment, in a control system 500 including the HMD 100a and the control device 300, a control instruction signal is transmitted and received between the HMD 100a and the control device 300. Thereby, after the HMD 100a receives information specifying the operation target from the control device 300, the control device 300 is controlled based on the control instruction input by the HMD 100a.

図8は、第2実施形態における制御システム500の構成を機能的に示すブロック図である。制御システム500は、HMD100aと制御装置300とを備えている。なお、図8では、HMD100aと制御装置300とをそれぞれ1つずつしか図示していないが、制御システム500は、複数のHMD100aや制御装置300を備えていてもよいし、HMD100aや制御装置300とは異なる機器(例えば、サーバー)を介して情報の送受信が行なわれてもよい。第2実施形態におけるHMD100aは、第1実施形態のHMD100の構成に加えて、制御部10に無線通信部132を備えている。図8では、HMD100aが第1実施形態(図2)のHMD100と比較して、無線通信部132以外の構成が同じであるため、HMD100aの構成については、一部の図示を省略している。   FIG. 8 is a block diagram functionally showing the configuration of the control system 500 in the second embodiment. The control system 500 includes an HMD 100a and a control device 300. In FIG. 8, only one HMD 100a and one control device 300 are shown, but the control system 500 may include a plurality of HMDs 100a and control devices 300, or the HMD 100a and the control device 300. Information may be transmitted and received via different devices (for example, servers). The HMD 100 a according to the second embodiment includes a wireless communication unit 132 in the control unit 10 in addition to the configuration of the HMD 100 according to the first embodiment. In FIG. 8, since the HMD 100a has the same configuration other than the wireless communication unit 132 as compared with the HMD 100 of the first embodiment (FIG. 2), a part of the configuration of the HMD 100a is omitted.

HMD100aの無線通信部132は、無線LANやブルートゥース(登録商標)といった所定の無線通信方式に則って他の機器との間で無線通信を行なう。無線通信部132は、使用者のジェスチャーによって決定された制御指示の情報を制御装置300へと送信する。また、無線通信部132は、操作対象、判断対象、判断音声、および、ジェスチャー等を特定する情報を制御装置300から受信する。なお、第2実施形態における無線通信部132は、請求項における第2の通信部に相当する。   The wireless communication unit 132 of the HMD 100a performs wireless communication with other devices in accordance with a predetermined wireless communication method such as a wireless LAN or Bluetooth (registered trademark). The wireless communication unit 132 transmits the control instruction information determined by the user's gesture to the control device 300. In addition, the wireless communication unit 132 receives information specifying the operation target, the determination target, the determination sound, and the gesture from the control device 300. The wireless communication unit 132 in the second embodiment corresponds to the second communication unit in the claims.

制御装置300は、無線通信部330と、記憶部320と、CPU310と、を備えている。無線通信部330は、無線LANやブルートゥースといった所定の無線通信方式に則って、HMD100との間で無線通信を行なう。なお、第2実施形態における無線通信部330は、請求項における第1の通信部に相当する。記憶部320は、例えば、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部320は、制御装置300を制御するための制御指示に対応付けられた制御内容を記憶している。また、記憶部320は、カメラ61の撮像画像に含まれる場合に検出される操作対象の画像データと制御を行なう判断の基となる判断対象の画像データとを記憶している。なお、第2実施形態における記憶部320は、請求項における対象物特定部に相当する。   The control device 300 includes a wireless communication unit 330, a storage unit 320, and a CPU 310. The wireless communication unit 330 performs wireless communication with the HMD 100 in accordance with a predetermined wireless communication method such as a wireless LAN or Bluetooth. The wireless communication unit 330 in the second embodiment corresponds to the first communication unit in the claims. The storage unit 320 is configured by, for example, a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 320 stores control content associated with a control instruction for controlling the control device 300. In addition, the storage unit 320 stores operation target image data detected when included in the captured image of the camera 61 and determination target image data that is a basis for determination for control. In addition, the memory | storage part 320 in 2nd Embodiment is corresponded to the target object specific part in a claim.

CPU310は、記憶部320に格納されたコンピュータープログラムを読み出して実行することにより、情報処理部312、制御処理部314、として機能する。情報処理部312は、無線通信部330を介して、HMD100の無線通信部132との間で送受信される制御指示や操作対象を特定する情報を処理する。制御処理部314は、情報処理部312によって処理された制御指示の情報に基づいて、当該制御指示に対応して制御装置300を制御する。なお、第2実施形態における制御装置300は、請求項における制御実行部に相当する。   The CPU 310 functions as the information processing unit 312 and the control processing unit 314 by reading out and executing the computer program stored in the storage unit 320. The information processing unit 312 processes information specifying a control instruction and an operation target transmitted / received to / from the wireless communication unit 132 of the HMD 100 via the wireless communication unit 330. Based on the control instruction information processed by the information processing unit 312, the control processing unit 314 controls the control device 300 in response to the control instruction. In addition, the control apparatus 300 in 2nd Embodiment is corresponded to the control execution part in a claim.

図9は、制御処理の流れを示す説明図である。制御処理におけるステップS30からステップS36までの処理は、第1実施形態の機器確認処理(図4)における画像表示部20と操作対象との距離を特定する処理を除いたステップS10からステップS18までの処理が同じである。そのため、第2実施形態では、制御処理のステップS30からステップS36までの処理については、簡単に説明する。   FIG. 9 is an explanatory diagram showing the flow of control processing. The processing from step S30 to step S36 in the control processing is from step S10 to step S18 excluding the processing for specifying the distance between the image display unit 20 and the operation target in the device confirmation processing (FIG. 4) of the first embodiment. The process is the same. Therefore, in 2nd Embodiment, the process from step S30 of a control process to step S36 is demonstrated easily.

制御処理では、カメラ61によって外景SCが撮像され(ステップS30)、撮像画像に操作対象が検出されると(ステップS32:YES)、画像設定部165は、操作対象に対応付けられた画像を画像表示最大領域PNに表示させる。   In the control process, when the outside scene SC is imaged by the camera 61 (step S30) and an operation target is detected in the captured image (step S32: YES), the image setting unit 165 displays an image associated with the operation target as an image. Display in the maximum display area PN.

図10は、操作対象が検出された場合に使用者が視認する視野VRの一例を示す説明図である。図10には、リビングにいる使用者が視認する外景SCと画像表示最大領域PNに表示された画像IM4および画像IM5とが示されている。図10に示すように、使用者は、画像判定部168によって設定された操作対象であるテレビのリモコンRC1および部屋の照明のスイッチであるスイッチSWと、記憶部320に記憶され、リモコンRC1に対応付けられた画像IM4およびスイッチSWに対応付けられた画像IM5と、を視認している。なお、リモコンRC1およびスイッチSWは、請求項における対象物に相当する。   FIG. 10 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when an operation target is detected. FIG. 10 shows the outside scene SC visually recognized by the user in the living room and the images IM4 and IM5 displayed in the maximum image display area PN. As shown in FIG. 10, the user stores the television remote controller RC1 that is the operation target set by the image determination unit 168 and the switch SW that is a room illumination switch, and is stored in the storage unit 320 and corresponds to the remote control RC1. The attached image IM4 and the image IM5 associated with the switch SW are visually recognized. The remote controller RC1 and the switch SW correspond to objects in the claims.

画像IM4およびIM5が表示された状態で(図9のステップS34)、画像判定部168によって判断対象が検出されると(ステップS36:YES)、画像設定部165は、使用者のジェスチャーを検出できる状態を示すジェスチャー検出モードの画像を画像表示最大領域PNに表示させる(ステップS38)。   When the image determination unit 168 detects a determination target (step S36: YES) with the images IM4 and IM5 displayed (step S34 in FIG. 9), the image setting unit 165 can detect the user's gesture. An image in the gesture detection mode indicating the state is displayed in the image display maximum area PN (step S38).

図11は、ジェスチャー検出モードの場合に使用者が視認する視野VRの一例を示す説明図である。図11に示すように、画像判定部168によって判断対象としての右手HD1が検出され、画像設定部165によって、リモコンRC1に対応付けられた画像IM6が表示され、スイッチSWに対応付けられた矢印画像CS2と画像IM7とが表示される。画像IM6は、右手HD1の人差し指FF1の位置が重なると制御する内容を示す複数のアイコンを含む画像である。例えば、表示されたアイコンの内の「ON/OFF」のアイコンが指FF1の位置の変化によって選択されると、制御処理部314は、テレビTV1の電源のオンとオフとを切り替える制御を実行する。また、図11に示す矢印画像CS2は、スイッチSWを選択する制御を実行するために使用者が行なうべきジェスチャーを示す画像である。画像IM7は、矢印画像CS2に沿った人差し指FF1のジェスチャーが行なわれると、実行される制御内容を示す画像である。すなわち、画像IM7は、使用者の人差し指FF1が矢印画像CS2に沿ってスイッチSWを囲むように動くと、スイッチSWが選択されることを示している。   FIG. 11 is an explanatory diagram illustrating an example of the visual field VR visually recognized by the user in the gesture detection mode. As shown in FIG. 11, the image determination unit 168 detects the right hand HD1 as a determination target, the image setting unit 165 displays the image IM6 associated with the remote controller RC1, and the arrow image associated with the switch SW. CS2 and image IM7 are displayed. The image IM6 is an image including a plurality of icons indicating the contents to be controlled when the position of the index finger FF1 of the right hand HD1 overlaps. For example, when an “ON / OFF” icon among the displayed icons is selected by a change in the position of the finger FF1, the control processing unit 314 performs control to switch on / off the power of the television TV1. . Further, an arrow image CS2 shown in FIG. 11 is an image showing a gesture to be performed by the user in order to execute control for selecting the switch SW. The image IM7 is an image showing the content of control executed when the gesture of the index finger FF1 along the arrow image CS2 is performed. That is, the image IM7 indicates that the switch SW is selected when the user's index finger FF1 moves so as to surround the switch SW along the arrow image CS2.

画像設定部165によってジェスチャー検出モードの画像が画像表示最大領域PNに表示されると(図9のステップS38)、画像判定部168は、リモコンRC1またはスイッチSWを制御を実行するための右手HD1のジェスチャーの検出を待機する(ステップS40)。右手HD1のジェスチャーが検出されなかった場合には(ステップS40:NO)、画像判定部168は、引き続き、右手HD1のジェスチャーの検出を待機する(ステップS40)。右手HD1のジェスチャーが検出された場合には(ステップS40:YES)、画像設定部165は、検出されたジェスチャーである検出ジェスチャーに対応する制御を実行する(ステップS42)。画像設定部165は、検出ジェスチャーに対応して実行された制御の次に設定されている別の制御を実行するために対応するジェスチャーである設定ジェスチャーがあるか否かを判定する(ステップS44)。設定ジェスチャーがあると判定された場合には(ステップS44:YES)、画像設定部165は、設定ジェスチャーに対応したジェスチャー検出モードの画像を画像表示最大領域PNに表示させる(ステップS38)。   When the image in the gesture detection mode is displayed in the image display maximum area PN by the image setting unit 165 (step S38 in FIG. 9), the image determination unit 168 controls the remote controller RC1 or the right hand HD1 for controlling the switch SW. Waiting for gesture detection (step S40). When the gesture of the right hand HD1 is not detected (step S40: NO), the image determination unit 168 continues to wait for the detection of the gesture of the right hand HD1 (step S40). When the gesture of the right hand HD1 is detected (step S40: YES), the image setting unit 165 executes control corresponding to the detected gesture that is the detected gesture (step S42). The image setting unit 165 determines whether or not there is a setting gesture that is a corresponding gesture for executing another control that is set next to the control that is executed corresponding to the detected gesture (step S44). . When it is determined that there is a setting gesture (step S44: YES), the image setting unit 165 displays an image in the gesture detection mode corresponding to the setting gesture in the image display maximum area PN (step S38).

図12は、設定ジェスチャーに対応するジェスチャー検出モードの画像が表示された場合に使用者が視認する視野VRの一例を示す説明図である。図12には、検出ジェスチャーとして矢印画像CS2(図11)に沿った人差し指FF1の動きが検出された後の設定ジェスチャーに対応したジェスチャー指示画像である画像IM8が示されている。画像IM8は、人差し指FF1が上方向に動かされた場合にはスイッチSWをオンにし、人差し指FF1が下方向に動かされた場合にはスイッチSWをオフにする制御を示す画像である。   FIG. 12 is an explanatory diagram illustrating an example of the visual field VR visually recognized by the user when an image in the gesture detection mode corresponding to the setting gesture is displayed. FIG. 12 shows an image IM8 that is a gesture instruction image corresponding to the set gesture after the movement of the index finger FF1 along the arrow image CS2 (FIG. 11) is detected as a detected gesture. The image IM8 is an image showing control for turning on the switch SW when the index finger FF1 is moved upward, and turning off the switch SW when the index finger FF1 is moved downward.

画像設定部165によってジェスチャー検出モードの画像が画像表示最大領域PNに表示され(図9のステップS38)、スイッチSWをオンまたはオフにするジェスチャーが検出されると(ステップS40:YES)、画像設定部165は、検出ジェスチャーに対応する制御を実行する(ステップS42)。実行された制御の次に実行される制御に対応する設定ジェスチャーがある場合には(ステップS44:YES)、ステップS38以降の処理が行なわれる。ステップS44の処理において、実行された制御の次に実行される制御に対応する設定ジェスチャーがない場合には(ステップS44:NO)、画像設定部165は、検出ジェスチャーに対応する制御が実行されたことを示す制御後画像を画像表示最大領域PNに表示させる(ステップS46)。   When the image setting unit 165 displays an image in the gesture detection mode in the maximum image display area PN (step S38 in FIG. 9) and a gesture for turning on or off the switch SW is detected (step S40: YES), the image setting is performed. The unit 165 executes control corresponding to the detected gesture (step S42). When there is a setting gesture corresponding to the control executed next to the executed control (step S44: YES), the processing after step S38 is performed. In the process of step S44, when there is no setting gesture corresponding to the control executed next to the executed control (step S44: NO), the image setting unit 165 has executed the control corresponding to the detected gesture. A post-control image indicating this is displayed in the maximum image display area PN (step S46).

図13は、制御後画像が表示された場合に使用者が視認する視野VRの一例を示す説明図である。図13には、検出ジェスチャーとしてのスイッチSWをオフに設定ジェスチャーが検出された後に、制御後画像であるテキスト画像TX4が表示された状態が示されている。図13に示すように、制御処理部314によってスイッチSWがオフに設定されると、その旨を使用者に伝えるための「オフにしました」のテキスト画像TX4が画像設定部165によって画像表示最大領域PNに表示される。   FIG. 13 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when a post-control image is displayed. FIG. 13 shows a state in which a text image TX4, which is a post-control image, is displayed after a switch gesture as a detection gesture is turned off and a gesture is detected. As shown in FIG. 13, when the switch SW is turned off by the control processing unit 314, the text image TX4 of “turned off” is transmitted by the image setting unit 165 to notify the user to that effect. It is displayed in the area PN.

制御後画像のテキスト画像TX4が画像表示最大領域PNに表示されると(図9のステップS46)、画像設定部165は、所定の時間、テキスト画像TX4を画像表示最大領域PNに表示する。テキスト画像TX4が画像表示最大領域PNに表示されている間に、操作部135は、撮像画像において検出された操作対象等を用いた制御処理を終了する所定の操作の検出を待機する(ステップS48)。テキスト画像TX4が画像表示最大領域PNに表示されている間に、操作部135が制御処理を終了する所定の操作を検出しなかった場合には(ステップS48:NO)、画像設定部165がテキスト画像TX4を非表示にした後、ステップS32以降の処理が行なわれる。ステップS48の処理において、操作部135が制御処理を終了する所定の操作を検出した場合には(ステップS48:YES)、制御部10は、制御処理を終了する。なお、第2実施形態では、操作部135が所定の操作を検出することで、制御処理の途中であっても、制御部10は、制御処理を終了できる。   When the text image TX4 of the post-control image is displayed in the image display maximum area PN (step S46 in FIG. 9), the image setting unit 165 displays the text image TX4 in the image display maximum area PN for a predetermined time. While the text image TX4 is displayed in the image display maximum area PN, the operation unit 135 waits for detection of a predetermined operation for ending the control process using the operation target detected in the captured image (step S48). ). When the operation unit 135 does not detect a predetermined operation for ending the control process while the text image TX4 is displayed in the image display maximum area PN (step S48: NO), the image setting unit 165 displays the text. After hiding the image TX4, the processing after step S32 is performed. In the process of step S48, when the operation unit 135 detects a predetermined operation for ending the control process (step S48: YES), the control unit 10 ends the control process. In the second embodiment, the control unit 10 can end the control process even when the control process is in progress by the operation unit 135 detecting a predetermined operation.

以上説明したように、第2実施形態におけるHMD100aでは、図12に示すように、画像設定部165は、右手HD1の人差し指FF1が上下方向に沿って動いた方向に対応して実行されるスイッチSWのオンとオフとの制御を示す画像IM8を画像表示最大領域PNに表示させる。そのため、第2実施形態のHMD100aでは、使用者が自身のジェスチャーに対応して次に実行される制御の内容を視覚情報として認識できるので、使用者にとっての使い勝手が向上する。   As described above, in the HMD 100a according to the second embodiment, as illustrated in FIG. 12, the image setting unit 165 performs the switch SW that is executed in accordance with the direction in which the index finger FF1 of the right hand HD1 moves along the vertical direction. The image IM8 indicating the control of turning on and off is displayed in the image display maximum area PN. Therefore, in the HMD 100a of the second embodiment, the user can recognize the content of the control that is executed next in response to his / her gesture as visual information, which improves usability for the user.

C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C. Variation:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

C1.変形例1:
上記実施形態では、画像設定部165は、設定された操作対象および検出された判断対象に対応する画像やジェスチャー指示画像を画像表示最大領域PNに表示したが、必ずしもこれらの画像を表示しなくてもよい。例えば、画像設定部165は、設定された操作対象に対応する画像を表示し、判断対象に対応する画像やジェスチャー指示画像を表示せずに、検出されたジェスチャーに対応する制御を実行してもよい。
C1. Modification 1:
In the above-described embodiment, the image setting unit 165 displays the image corresponding to the set operation target and the detected determination target and the gesture instruction image in the maximum image display area PN, but does not necessarily display these images. Also good. For example, the image setting unit 165 displays an image corresponding to the set operation target, and executes control corresponding to the detected gesture without displaying the image corresponding to the determination target or the gesture instruction image. Good.

上記実施形態では、距離測定部166は、赤外線LED64とTOFセンサー63とによって、画像表示部20と仮対象との距離を測定したが、必ずしも当該距離を測定する必要もなく、また、他の方法によって距離を測定してもよい。例えば、画像設定部165は、画像表示部20と操作対象との距離に関係なく、画像判定部168によって検出された仮対象の全てを選択可能な操作対象として設定してもよい。また、距離測定部166は、ステレオカメラによって撮像された操作対象の画像を比較することで、画像表示部20と操作対象との距離を測定してもよい。   In the above embodiment, the distance measuring unit 166 measures the distance between the image display unit 20 and the temporary object using the infrared LED 64 and the TOF sensor 63, but it is not always necessary to measure the distance, and other methods are also available. The distance may be measured by For example, the image setting unit 165 may set all of the temporary targets detected by the image determination unit 168 as selectable operation targets regardless of the distance between the image display unit 20 and the operation target. The distance measuring unit 166 may measure the distance between the image display unit 20 and the operation target by comparing the images of the operation target captured by the stereo camera.

上記実施形態では、画像判定部168は、判断対象として右手HD1の人差し指FF1を検出したが、検出する判断対象については、種々変形可能である。例えば、判断対象は、制御部10であってもよいし、ボールペンや制御部10のトラックパッド14を操作するためのタッチペンであってもよい。また、判断対象は、人差し指FF1の延長線上を指示するための棒状の器具であってもよいし、レーザーポインターにおける特定の光の形状であってもよいし、発光部を有する特定の形状の器具(例えば、懐中電灯)などであってもよい。発光状態のペンライトが判断対象として検出され、発光状態ではないペンライトが判断対象として検出されないように、発光の有無によって判断対象の検出の有無が判定されてもよい。発光の有無によって判断対象として検出されるか否かが決定される場合、判断対象としてより精度の高い検出が行なわれる。判断対象は、操作部135が操作されることにより、使用者に任意に設定されてもよい。   In the above embodiment, the image determination unit 168 detects the index finger FF1 of the right hand HD1 as a determination target. However, the determination target to be detected can be variously modified. For example, the determination target may be the control unit 10 or a ballpoint pen or a touch pen for operating the track pad 14 of the control unit 10. Further, the determination target may be a rod-shaped instrument for instructing on the extension line of the index finger FF1, a specific light shape in the laser pointer, or a specific-shaped instrument having a light emitting unit. (For example, a flashlight). The presence / absence of detection of the determination target may be determined based on the presence / absence of light emission so that the penlight in the light emitting state is detected as the determination target and the penlight not in the light emission state is not detected as the determination target. When it is determined whether or not to be detected as a determination target depending on the presence or absence of light emission, more accurate detection is performed as the determination target. The determination target may be arbitrarily set by the user by operating the operation unit 135.

上記第1実施形態では、画像設定部165は、ジェスチャーとジェスチャー後に検出された判断音声との組み合わせによってメーターMT1の確認行為を判定したが、必ずしも判断音声が検出される必要はなく、ジェスチャーのみによってメーターMT1の確認行為を判定してもよい。また、画像設定部165は、ジェスチャー後の判断音声を検出することで、メーターMT1の確認行為を判定したが、判断音声を検出するタイミングはジェスチャー後に限られず、ジェスチャー前であってもよいし、ジェスチャーを検出している間に検出される判断音声によって確認行為を判定してもよい。   In the first embodiment, the image setting unit 165 determines the confirmation action of the meter MT1 by a combination of the gesture and the determination sound detected after the gesture. However, the determination sound is not necessarily detected, and only the gesture is detected. The confirmation action of the meter MT1 may be determined. In addition, the image setting unit 165 determines the confirmation action of the meter MT1 by detecting the determination sound after the gesture, but the timing for detecting the determination sound is not limited to after the gesture, and may be before the gesture. The confirmation action may be determined by a determination sound detected while detecting the gesture.

C2.変形例2:
上記第2実施形態では、スイッチSWがオフにされる制御について説明したが、この変形例では、リモコンRC1に対応する画像IM6に表示されたアイコンが選択された場合の制御について説明する。図14は、画像IM6のアイコンが選択された場合に使用者が視認する視野VRの一例を示す説明図である。図14に示すように、右手HD1の人差し指FF1の位置は、画像IM6の「ON/OFF」のアイコンに重なっている。この場合に、制御処理部314は、テレビTV1の電源のオンとオフとを切り替える。図14に示す例では、人差し指FF1の位置がアイコンに重なる前には、テレビTV1の電源がオフであったため、制御処理部314は、撮像画像において、人差し指FF1の位置が「ON/OFF」のアイコンに重なると、テレビTV1の電源をオンにする。このように、この変形例では、使用者が行なうべきジェスチャー画像は表示されないが、画像IM6が表示された後に人差し指FF1の位置が変化することで、画像設定部165は、テレビTV1を操作する制御信号を制御装置300に送信している。
C2. Modification 2:
In the second embodiment, the control for turning off the switch SW has been described. In this modification, the control when the icon displayed on the image IM6 corresponding to the remote controller RC1 is selected will be described. FIG. 14 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when the icon of the image IM6 is selected. As shown in FIG. 14, the position of the index finger FF1 of the right hand HD1 overlaps the “ON / OFF” icon of the image IM6. In this case, the control processing unit 314 switches the power of the TV TV 1 on and off. In the example illustrated in FIG. 14, the power of the TV TV 1 was turned off before the position of the index finger FF1 overlapped with the icon. When it overlaps with the icon, the TV TV 1 is turned on. As described above, in this modified example, the gesture image to be performed by the user is not displayed, but the image setting unit 165 performs control for operating the television TV 1 by changing the position of the index finger FF1 after the image IM6 is displayed. A signal is transmitted to the control device 300.

上記実施形態では、画像判定部168がカメラ61によって撮像された撮像画像の中に操作対象や判断対象の画像が含まれているか否かを検出したが、操作対象や判断対象を検出する方法としては、種々変形可能である。例えば、赤外線センサーや超音波センサーが操作対象や判断対象を検出してもよい。また、レーダー波を検出するレーダー探知機が操作対象や判断対象を検出してもよい。   In the above embodiment, the image determination unit 168 detects whether or not the captured image captured by the camera 61 includes an image of the operation target or the determination target. However, as a method of detecting the operation target or the determination target, Can be variously modified. For example, an infrared sensor or an ultrasonic sensor may detect an operation target or a determination target. Further, a radar detector that detects a radar wave may detect an operation target or a determination target.

C3.変形例3:
上記実施形態では、制御部10に操作部135が形成されたが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、操作部の動きを検出する10軸センサーを操作部135に形成して、検出した動きに基づいて各種操作が行なわれることで、使用者は、感覚的にHMD100の操作ができる。
C3. Modification 3:
In the above embodiment, the operation unit 135 is formed in the control unit 10, but the mode of the operation unit 135 can be variously modified. For example, a mode in which a user interface that is the operation unit 135 is provided separately from the control unit 10 may be used. In this case, the operation unit 135 is separate from the control unit 10 in which the power supply 130 and the like are formed. Therefore, the operation unit 135 can be reduced in size and user operability is improved. In addition, a 10-axis sensor that detects the movement of the operation unit is formed in the operation unit 135, and various operations are performed based on the detected movement, so that the user can operate the HMD 100 sensuously.

例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。レーザー網膜投影型の場合、画像表示最大領域PNは、使用者の眼に認識される画像領域として定義できる。   For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. In the case of the laser retina projection type, the image display maximum area PN can be defined as an image area recognized by the user's eyes.

また、例えば、HMD100は、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、HMD100は、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。   Further, for example, the HMD 100 may be a head mounted display in which the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit does not completely cover the user's eyes. The HMD 100 may be a so-called monocular type head mounted display.

図15は、変形例におけるHMD100の外観構成を示す説明図である。図15(A)の例の場合、図1に示したHMD100との違いは、画像表示部20bが、右光学像表示部26に代えて右光学像表示部26bを備える点と、左光学像表示部28に代えて左光学像表示部28bを備える点である。右光学像表示部26bは、上記実施形態の光学部材よりも小さく形成され、HMD100bの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28bは、上記実施形態の光学部材よりも小さく形成され、HMD100bの装着時における使用者の左眼の斜め上に配置されている。図15(B)の例の場合、図1に示したHMD100との違いは、画像表示部20cが、右光学像表示部26に代えて右光学像表示部26cを備える点と、左光学像表示部28に代えて左光学像表示部28cを備える点である。右光学像表示部26cは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28cは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMD100として実現できる。   FIG. 15 is an explanatory diagram showing an external configuration of the HMD 100 in a modified example. In the example of FIG. 15A, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20b includes a right optical image display unit 26b instead of the right optical image display unit 26, and the left optical image. Instead of the display unit 28, a left optical image display unit 28b is provided. The right optical image display unit 26b is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the right eye of the user when the HMD 100b is worn. Similarly, the left optical image display unit 28b is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the left eye of the user when the HMD 100b is worn. In the example of FIG. 15B, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20c includes a right optical image display unit 26c instead of the right optical image display unit 26, and the left optical image. Instead of the display unit 28, a left optical image display unit 28c is provided. The right optical image display unit 26c is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28c is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can be realized as an HMD 100 in an uncovered mode.

また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   The earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.

上記実施形態におけるHMD100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16やトラックパッド14の一方を省略したり、方向キー16やトラックパッド14に加えてまたは方向キー16やトラックパッド14に代えて操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。   The configuration of the HMD 100 in the above embodiment is merely an example and can be variously modified. For example, one of the direction key 16 and the track pad 14 provided in the control unit 10 may be omitted, in addition to the direction key 16 and the track pad 14, or in place of the direction key 16 and the track pad 14, etc. An operation interface may be provided. Moreover, the control part 10 is a structure which can connect input devices, such as a keyboard and a mouse | mouth, and is good also as what receives an input from a keyboard or a mouse | mouth.

また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部が採用されてもよい。また、イヤホン32,34は適宜省略可能である。   In addition, instead of the image display unit 20 worn like glasses, an image display unit of another method such as an image display unit worn like a hat may be employed as the image display unit. The earphones 32 and 34 can be omitted as appropriate.

また、上記実施形態において、HMD100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。   In the above-described embodiment, the HMD 100 may guide the image light representing the same image to the left and right eyes of the user to make the user visually recognize the two-dimensional image, or may display different images on the left and right eyes of the user. The image light to be represented may be guided to make the user visually recognize the three-dimensional image.

また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。   In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, in the above-described embodiment, the image processing unit 160 and the sound processing unit 170 are realized by the CPU 140 reading and executing a computer program, but these functional units may be realized by a hardware circuit. Good.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.

また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   Moreover, in the said embodiment, as shown in FIG. 1 and FIG. 2, the control part 10 and the image display part 20 are formed as a separate structure, However, about the structure of the control part 10 and the image display part 20, about. However, the present invention is not limited to this, and various modifications are possible. For example, all of the components formed in the control unit 10 may be formed inside the image display unit 20 or a part thereof may be formed. In addition, the power source 130 in the above embodiment may be formed independently and replaceable, or the configuration formed in the control unit 10 may be overlapped and formed in the image display unit 20. For example, the CPU 140 shown in FIG. 2 may be formed in both the control unit 10 and the image display unit 20, or a function performed by the CPU 140 formed in the control unit 10 and the CPU formed in the image display unit 20. May be configured separately.

また、制御部10と画像表示部20とが一体化して、使用者の衣服に取り付けられるウェアラブルコンピューターの態様であってもよい。   Moreover, the aspect of the wearable computer with which the control part 10 and the image display part 20 are integrated and attached to a user's clothes may be sufficient.

本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…カメラ(撮像部)
63…TOFセンサー
64…赤外線LED
69…マイク(音声取得部)
100…HMD(頭部装着型表示装置)
120…記憶部
130…電源
132…無線通信部(第2の通信部)
135…操作部
140…CPU
150…OS
160…画像処理部
165…画像設定部(制御部)
166…距離測定部(距離特定部)
168…画像判定部(検出部)
170…音声処理部(制御部)
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
300…制御装置(制御実行部)
310…CPU
312…情報処理部
314…制御処理部
320…記憶部(対象物特定部)
330…無線通信部(第1の通信部)
340…被制御部
500…制御システム
OA…外部機器
MC…制御機器
SC…外景
RE…右眼
LE…左眼
EL…端部
IL…照明光
PL…画像光
LM…ランプ群
PN…画像表示最大領域
AP…先端部
ER…端部
VR…視野
BT…ボタン群
SW…スイッチ(対象物)
RC1…リモコン(対象物)
HD1…右手
FF1…人差し指(特定のオブジェクト)
IM1,IM2,IM3,IM4,IM5,IM6,IM7,IM8…画像
CS1,CS2…矢印画像
MT1,MT2…メーター(対象物)
TV1…テレビ
TX1,TX2,TX3,TX4…テキスト画像
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switching key 14 ... Trackpad 15 ... Luminance switching key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive unit 23 ... Left holding unit 24 ... Left display drive unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left code 46 ... Connecting member 48 ... Body code 51,52 ... Transmitting part 53,54 ... Receiving part 61 ... Camera (imaging part)
63 ... TOF sensor 64 ... Infrared LED
69 ... Microphone (voice acquisition unit)
100 ... HMD (head-mounted display device)
120: Storage unit 130 ... Power source 132 ... Wireless communication unit (second communication unit)
135: Operation unit 140 ... CPU
150 ... OS
160: Image processing unit 165: Image setting unit (control unit)
166 ... Distance measuring unit (distance specifying unit)
168 ... Image determination unit (detection unit)
170 ... voice processing unit (control unit)
180 ... interface 190 ... display control unit 201 ... right backlight control unit 202 ... left backlight control unit 211 ... right LCD control unit 212 ... left LCD control unit 221 ... right backlight 222 ... left backlight 241 ... right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate 300 ... Control device (control execution unit)
310 ... CPU
312 ... Information processing unit 314 ... Control processing unit 320 ... Storage unit (object specifying unit)
330 ... wireless communication unit (first communication unit)
340 ... Controlled part 500 ... Control system OA ... External device MC ... Control device SC ... Outside view RE ... Right eye LE ... Left eye EL ... End IL ... Illumination light PL ... Image light LM ... Lamp group PN ... Maximum image display area AP ... tip portion ER ... end portion VR ... field of view BT ... button group SW ... switch (object)
RC1 ... Remote control (object)
HD1 ... right hand FF1 ... index finger (specific object)
IM1, IM2, IM3, IM4, IM5, IM6, IM7, IM8 ... image CS1, CS2 ... arrow image MT1, MT2 ... meter (object)
TV1 ... TV TX1, TX2, TX3, TX4 ... Text image

Claims (8)

透過型の頭部装着型表示装置であって、
画像データに基づいた表示を行なうと共に、外景を透過する画像表示部と、
前記外景を撮像する撮像部と、
撮像された前記外景の中から特定のオブジェクトと選択可能な対象物とを共に検出する検出部と、
検出された前記特定のオブジェクトと検出された前記対象物との組み合わせに予め対応付けられた虚像を、前記画像表示部を用いて、前記対象物の位置に合わせて表示し、検出された前記特定のオブジェクトの位置の変化と検出された前記対象物の位置との関係に基づいて前記対象物の制御を決定し、決定された前記対象物の制御を実行する制御部と、
を備える、頭部装着型表示装置。
A transmissive head-mounted display device,
An image display unit that performs display based on image data and transmits an outside scene;
An imaging unit for imaging the outside scene;
A detection unit for detecting both a specific object and a selectable object from the captured outside scene;
The virtual image previously associated with the combination of the detected specific object and the detected object is displayed in accordance with the position of the object using the image display unit, and the detected specific A control unit that determines control of the target based on a relationship between a change in the position of the object and the detected position of the target, and executes control of the determined target;
A head-mounted display device comprising:
請求項1に記載の頭部装着型表示装置であって、
前記制御部は、検出された前記特定のオブジェクトと検出された前記対象物との組み合わせに予め対応付けられた前記虚像として、前記対象物の制御を実行するために必要な前記特定のオブジェクトの位置の変化を示す前記虚像を、前記画像表示部を用いて表示する、頭部装着型表示装置。
The head-mounted display device according to claim 1 ,
The control unit, as the virtual image previously associated with the combination of the detected specific object and the detected target object, the position of the specific object necessary for executing the control of the target object A head-mounted display device that displays the virtual image showing a change in the image using the image display unit.
請求項1または請求項2に記載の頭部装着型表示装置であって、
前記制御部は、検出された前記対象物に予め対応付けられた虚像として、実行する前記対象物の制御の内容を示す前記虚像を、前記画像表示部を用いて表示する、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2 ,
The control unit, as associated in advance with the imaginary image of the detected object, the virtual image showing the contents of control of the object to be executed is displayed using the image display unit, the head-mounted Display device.
請求項1から請求項3までのいずれか一項に記載の頭部装着型表示装置であって、
前記制御部は、撮像された前記外景において、前記特定のオブジェクトの変化後の位置と前記対象物とが重なっている場合に、前記特定のオブジェクトの変化後の位置と重なっている前記対象物に予め対応付けられた前記対象物の制御を決定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3 ,
When the position after the change of the specific object overlaps the target object in the imaged outside scene, the control unit applies the target object that overlaps the position after the change of the specific object. A head-mounted display device that determines control of the object associated in advance.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
検出された前記対象物と前記画像表示部との距離を特定する距離特定部を備え、
前記制御部は、検出されると共に特定された前記距離が閾値以下の前記対象物を、選択可能な前記対象物として設定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4 , further comprising:
A distance specifying unit for specifying a distance between the detected object and the image display unit;
The control unit is a head-mounted display device that sets, as the selectable target object, the target object whose detected distance is equal to or less than a threshold value.
請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
外部の音声を取得する音声取得部を備え、
前記制御部は、検出された前記特定のオブジェクトの位置の変化と取得された前記音声との組み合わせに基づいて前記対象物の制御を決定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 5 , further comprising:
It has an audio acquisition unit that acquires external audio,
The head-mounted display device, wherein the control unit determines control of the object based on a combination of a detected change in position of the specific object and the acquired sound.
請求項1から請求項6までのいずれか一項に記載の頭部装着型表示装置を含む制御システムであって、
前記対象物を特定する対象物特定部と、
特定された前記対象物の情報を送信する第1の通信部と、
制御実行部と、を備え、
前記頭部装着型表示装置は、
送信された前記対象物の情報を受信し、決定された前記対象物の制御の情報を送信する第2の通信部を備え、
前記第1の通信部は、送信された前記対象物の制御の情報を受信し、
前記制御実行部は、前記第1の通信部によって受信された前記対象物の制御に基づく制御を実行する、制御システム。
A control system including the head-mounted display device according to any one of claims 1 to 6 ,
An object specifying unit for specifying the object;
A first communication unit for transmitting information on the identified object;
A control execution unit,
The head-mounted display device is
A second communication unit that receives the transmitted information of the object and transmits the determined control information of the object;
The first communication unit receives the transmitted control information of the object,
The control execution unit executes control based on control of the object received by the first communication unit.
画像データに基づいた表示を行なうと共に外景を透過する画像表示部と、前記外景を撮像する撮像部と、を備える、透過型の頭部装着型表示装置の制御方法であって、
撮像された前記外景の中から特定のオブジェクトと選択可能な対象物とを共に検出する工程と、
検出された前記特定のオブジェクトと検出された前記対象物との組み合わせに予め対応付けられた虚像を、前記画像表示部を用いて、前記対象物の位置に合わせて表示し、検出された前記特定のオブジェクトの位置の変化と検出された前記対象物の位置との関係に基づいて前記対象物の制御を決定し、決定された前記対象物の制御を実行する工程と、を備える、制御方法。
A control method for a transmissive head-mounted display device, comprising: an image display unit that performs display based on image data and transmits an outside scene; and an imaging unit that images the outside scene.
Detecting both a specific object and a selectable object from the imaged outside scene;
The virtual image previously associated with the combination of the detected specific object and the detected object is displayed in accordance with the position of the object using the image display unit, and the detected specific And determining the control of the target based on the relationship between the change in the position of the object and the detected position of the target, and executing the control of the determined target.
JP2014094613A 2014-05-01 2014-05-01 Head-mounted display device, control system, and head-mounted display device control method Active JP6427942B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014094613A JP6427942B2 (en) 2014-05-01 2014-05-01 Head-mounted display device, control system, and head-mounted display device control method
US14/682,409 US9766715B2 (en) 2014-05-01 2015-04-09 Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
CN201510180796.8A CN105045375B (en) 2014-05-01 2015-04-16 Head-mounted display device, control method therefor, control system, and computer program
US15/672,846 US9965048B2 (en) 2014-05-01 2017-08-09 Head-mount type display device, control system, method of controlling head-mount type display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014094613A JP6427942B2 (en) 2014-05-01 2014-05-01 Head-mounted display device, control system, and head-mounted display device control method

Publications (2)

Publication Number Publication Date
JP2015213212A JP2015213212A (en) 2015-11-26
JP6427942B2 true JP6427942B2 (en) 2018-11-28

Family

ID=54697270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014094613A Active JP6427942B2 (en) 2014-05-01 2014-05-01 Head-mounted display device, control system, and head-mounted display device control method

Country Status (1)

Country Link
JP (1) JP6427942B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6563802B2 (en) * 2015-12-18 2019-08-21 ミラマサービスインク Head mounted display for transportation inspection and head mounted display program for transportation inspection
KR102053334B1 (en) 2015-12-24 2019-12-06 주식회사 소니 인터랙티브 엔터테인먼트 Frequency band determination device, head mounted display, frequency band determination method, and program
JP2017134630A (en) * 2016-01-28 2017-08-03 セイコーエプソン株式会社 Display device, control method of display device, and program
JP6789377B2 (en) * 2017-03-27 2020-11-25 サン電子株式会社 Image display system
JP6601480B2 (en) * 2017-12-05 2019-11-06 日本電気株式会社 Information processing system, information processing apparatus, control method, and program
JP7061883B2 (en) 2018-01-22 2022-05-02 マクセル株式会社 Image display device and image display method
WO2021084882A1 (en) * 2019-10-28 2021-05-06 ソニー株式会社 Information processing device, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146803A (en) * 2004-11-24 2006-06-08 Olympus Corp Operation device, and remote operation system
JP5743416B2 (en) * 2010-03-29 2015-07-01 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2012173772A (en) * 2011-02-17 2012-09-10 Panasonic Corp User interaction apparatus, user interaction method, user interaction program and integrated circuit
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
JP6256339B2 (en) * 2012-09-21 2018-01-10 ソニー株式会社 Control device and storage medium

Also Published As

Publication number Publication date
JP2015213212A (en) 2015-11-26

Similar Documents

Publication Publication Date Title
US9965048B2 (en) Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
JP6500477B2 (en) Head-mounted display device, control system, control method of head-mounted display device, and computer program
JP6427942B2 (en) Head-mounted display device, control system, and head-mounted display device control method
US9921646B2 (en) Head-mounted display device and method of controlling head-mounted display device
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6237000B2 (en) Head-mounted display device
JP5970872B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6066037B2 (en) Head-mounted display device
JP6217244B2 (en) Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
US9465452B2 (en) Information processing apparatus and control method of information processing apparatus
US20150168729A1 (en) Head mounted display device
JP6318596B2 (en) Information processing apparatus and information processing apparatus control method
JP6488786B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP6600945B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2015115848A (en) Head-mounted type display device and method for controlling head-mounted type display device
JP2016082466A (en) Head-mounted display device, method for controlling head-mounted display device, and computer program
JP5990958B2 (en) Head-mounted display device
JP2016024208A (en) Display device, method for controlling display device, and program
JP6268778B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6337534B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6669183B2 (en) Head mounted display and control method of head mounted display
JP2016212769A (en) Display device, control method for the same and program
JP2017191424A (en) Head-mounted type display device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R150 Certificate of patent or registration of utility model

Ref document number: 6427942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150