JP2014142751A - Display device, head-mounted type display device, and method for controlling display device - Google Patents

Display device, head-mounted type display device, and method for controlling display device Download PDF

Info

Publication number
JP2014142751A
JP2014142751A JP2013010015A JP2013010015A JP2014142751A JP 2014142751 A JP2014142751 A JP 2014142751A JP 2013010015 A JP2013010015 A JP 2013010015A JP 2013010015 A JP2013010015 A JP 2013010015A JP 2014142751 A JP2014142751 A JP 2014142751A
Authority
JP
Japan
Prior art keywords
display device
boundary
user
image
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013010015A
Other languages
Japanese (ja)
Other versions
JP6251957B2 (en
Inventor
Masahide Takano
正秀 高野
Shinichi Kobayashi
伸一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013010015A priority Critical patent/JP6251957B2/en
Publication of JP2014142751A publication Critical patent/JP2014142751A/en
Application granted granted Critical
Publication of JP6251957B2 publication Critical patent/JP6251957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted type display device which is capable of providing a user interface capable of executing various kinds of processing with a simple and intuitive operation.SOLUTION: A display device comprises: an indicator detection part detecting a plurality of indicators operated by a user; a pointer display part detecting each indicator by the indicator detection part and displaying a pointer P operated in conjunction with each of the indicators in a virtual image display area 25; and an instruction execution part 55 executing a predetermined instruction corresponding to the movement of a plurality of pointers P, when the plurality of pointers are moved to the vicinity of a boundary 27 between the virtual image display area 25 and an outside view recognition area 26 being an area except the virtual image display area 25, according to the operation of each indicator.

Description

本発明は、使用者が操作する指示体により操作可能な表示装置、頭部装着型表示装置および表示装置の制御方法に関するものである。   The present invention relates to a display device that can be operated by an indicator operated by a user, a head-mounted display device, and a display device control method.

従来、頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display:HMD))の操作手段として、人間の手指の所定の動作を検出し、その動作に対応する処理を行うものが知られている。例えば、特許文献1では、使用者の手指に装着したLED(発光体)をビデオカメラで撮像することにより手指の動きに対応する入力操作を判別し、その判別した入力操作に基づいて所定の処理を実行することが開示されている。   2. Description of the Related Art Conventionally, as a means for operating a head-mounted display device (Head Mounted Display (HMD)), which is a display device mounted on the head, a predetermined motion of a human finger is detected and the motion is handled. What performs processing is known. For example, in Patent Document 1, an input operation corresponding to the movement of a finger is determined by imaging an LED (light emitting body) mounted on the user's finger with a video camera, and a predetermined process is performed based on the determined input operation. Is disclosed.

特開2000−29619号公報JP 2000-29619 A

しかしながら、上述の従来技術の場合、使用者の手指の複雑な動きをビデオカメラで認識する必要があるため制御が複雑になる。また、その複雑な仕組みに反して制御の種類が限られていたり、誤認識しやすいという問題がある。さらに、使用者は、手指の動きがどんな処理を行うための動きなのかを覚えておき、確実にその動きを行わなければならず、必ずしも使い勝手が良いものではないという問題がある。   However, in the case of the above-described prior art, control is complicated because it is necessary to recognize a complicated movement of the user's finger with a video camera. In addition, there is a problem that the types of control are limited or misrecognized easily despite the complicated mechanism. Furthermore, there is a problem that the user has to remember what kind of processing the movement of the finger is to perform, and surely perform the movement, which is not always convenient.

本発明は、上記の問題に鑑み、簡単、且つ直感的な操作で各種処理が実行可能なユーザーインターフェースを提供することが可能な表示装置、頭部装着型表示装置および表示装置の制御方法を提供することを目的とする。   In view of the above-described problems, the present invention provides a display device, a head-mounted display device, and a display device control method capable of providing a user interface capable of executing various processes with simple and intuitive operations. The purpose is to do.

本発明の表示装置は、使用者が操作する複数の指示体を検出する指示体検出部と、指示体検出部により各指示体を検出して、各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、各指示体の操作に伴って、複数のポインターが、所定の表示領域と、所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする。   The display device of the present invention includes a pointer detection unit that detects a plurality of pointers operated by a user, and a pointer that operates in conjunction with each of the pointers by detecting each pointer with the pointer detection unit. In the vicinity of the boundary between the predetermined display area and the display peripheral area that is an area other than the predetermined display area in accordance with the operation of each indicator. And an instruction execution unit that executes a predetermined instruction in accordance with the movement of a plurality of pointers.

本発明の頭部装着型表示装置は、画像を虚像として使用者に視認させる透過型の頭部装着型表示装置であって、使用者が操作する複数の指示体を検出する指示体検出部と、指示体検出部により各指示体を検出して、各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、各指示体の操作に伴って、複数のポインターが、所定の表示領域と、所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする。   A head-mounted display device of the present invention is a transmissive head-mounted display device that allows a user to visually recognize an image as a virtual image, and includes an indicator detection unit that detects a plurality of indicators operated by the user, A pointer display unit that detects each indicator by the indicator detection unit and displays a pointer that operates in association with each indicator in a predetermined display area; An instruction execution unit that executes a predetermined instruction according to the movement of a plurality of pointers when the pointer moves to the vicinity of a boundary between the predetermined display area and a display peripheral area that is an area other than the predetermined display area; It is provided with.

本発明の表示装置の制御方法は、表示装置が、使用者が操作する複数の指示体を検出するステップと、各指示体を検出して、各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するステップと、各指示体の操作に伴って、複数のポインターが、所定の表示領域と、所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、複数のポインターの動きに応じた所定の命令を実行するステップと、を実行することを特徴とする。   According to the display device control method of the present invention, the display device detects a plurality of indicators operated by the user, detects each indicator, and sets a pointer that operates in conjunction with each indicator. In accordance with the step of displaying in the predetermined display area and the operation of each indicator, the plurality of pointers moved to the vicinity of the boundary between the predetermined display area and the display peripheral area other than the predetermined display area A step of executing a predetermined command in accordance with movement of a plurality of pointers.

これらの構成によれば、使用者が複数のポインターを表示領域の境界近傍に移動するように(境界近傍に位置するように)各指示体を操作するだけで、境界近傍に予め割り当てられた所定の命令(処理)を実行できる。すなわち、使用者は煩雑な操作をすることなく、簡単(単純)、且つ直感的な操作で所定の命令を実行できるため、使い勝手が良い。また、簡単な操作で行えるため(煩雑な操作を必要としないため)、誤認識が少なく、安定して動作するユーザーインターフェースを提供できる。   According to these configurations, the user operates each indicator so as to move a plurality of pointers to the vicinity of the boundary of the display area (so as to be positioned in the vicinity of the boundary). Can be executed. That is, since the user can execute a predetermined command by a simple (simple) and intuitive operation without performing a complicated operation, it is easy to use. Further, since it can be performed with a simple operation (no complicated operation is required), it is possible to provide a user interface that operates stably and has few misrecognitions.

本発明の表示装置において、命令実行部は、複数のポインターの境界の近傍への移動順序に応じて、異なる命令を実行することが好ましい。   In the display device of the present invention, it is preferable that the instruction execution unit executes different instructions in accordance with the movement order to the vicinity of the boundaries of the plurality of pointers.

この構成によれば、複数のポインター(指示体)を境界の近傍へ移動させる際のポインターの移動順序に応じて様々な命令を割り当てることができるため、使用者の様々なニーズに対応可能なユーザーインターフェースを提供することができる。   According to this configuration, since various instructions can be assigned according to the movement order of the pointers when moving a plurality of pointers (indicators) to the vicinity of the boundary, the user can respond to various needs of users. An interface can be provided.

本発明の表示装置において、命令実行部は、複数のポインターのうちの、少なくとも1のポインターが境界の近傍に移動した場合、表示領域の内縁に沿って枠画像を表示することが好ましい。   In the display device of the present invention, it is preferable that the instruction execution unit displays a frame image along the inner edge of the display area when at least one of the plurality of pointers moves near the boundary.

この構成によれば、ポインターが境界の近傍に移動した場合に、表示領域の内縁に沿って枠(枠画像)を表示することで、使用者に対して何らかの状態変更があったこと(例えば、所定の命令を受け付けるモード(命令受付モード)に遷移したこと)を認識させることができる。   According to this configuration, when the pointer moves to the vicinity of the boundary, a state (frame image) is displayed along the inner edge of the display area, so that there is some state change for the user (for example, A mode in which a predetermined command is received (command reception mode) can be recognized.

本発明の表示装置において、命令実行部は、指示体検出部により、複数の指示体が所定の表示領域から境界を越えて表示周辺領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することが好ましい。   In the display device of the present invention, when the instruction execution unit detects that the plurality of indicators have been operated in a direction to move from the predetermined display region to the display peripheral region across the boundary by the indicator detection unit, It is preferable to execute these instructions.

本発明の表示装置において、命令実行部は、指示体検出部により、複数の指示体が表示周辺領域から境界を越えて所定の表示領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することが好ましい。   In the display device of the present invention, when the instruction execution unit detects that the plurality of indicators are operated in a direction of moving from the display peripheral region to the predetermined display region across the boundary by the indicator detection unit, It is preferable to execute these instructions.

これらの構成によれば、複数の指示体が所定の表示領域から表示周辺領域に向かって移動する操作が行われた場合、あるいは表示周辺領域から所定の表示領域に向かって移動する操作が行われた場合に、所定の命令を実行する。すなわち、複数の指示体が境界を越えて移動する操作が行われた場合に所定の命令を実行する。これにより、拡張性の高い(自由度の高い)ユーザーインターフェースを提供することができる。   According to these configurations, when an operation of moving a plurality of indicators from a predetermined display area toward the display peripheral area is performed, or an operation of moving from the display peripheral area toward the predetermined display area is performed. A predetermined command is executed. That is, a predetermined command is executed when an operation in which a plurality of indicators move beyond the boundary is performed. Thereby, it is possible to provide a user interface with high expandability (high flexibility).

本発明の表示装置において、命令実行部は、指示体検出部により、複数のポインターが境界に沿って移動する複数の指示体の操作を検出した場合、所定の命令を実行することが好ましい。   In the display device of the present invention, it is preferable that the command execution unit executes a predetermined command when the pointer detection unit detects operations of the plurality of pointers in which the plurality of pointers move along the boundary.

本発明の表示装置において、命令実行部は、複数のポインターが境界に沿って移動する際の複数のポインターの移動方向に応じて、異なる命令を実行することが好ましい。   In the display device of the present invention, it is preferable that the instruction execution unit executes different instructions according to the moving directions of the plurality of pointers when the plurality of pointers move along the boundary.

これらの構成によれば、複数のポインター(指示体)が境界に沿って移動する操作が行われた場合に、所定の命令を実行する。また、複数のポインターが境界に沿って移動する方向に応じて、異なる命令を実行することにより、拡張性の高い(自由度の高い)ユーザーインターフェースを提供することができる。   According to these configurations, a predetermined command is executed when an operation of moving a plurality of pointers (indicators) along the boundary is performed. Further, by executing different commands according to the direction in which the plurality of pointers move along the boundary, it is possible to provide a highly expandable (highly flexible) user interface.

本発明の表示装置において、命令実行部は、複数のポインターが境界の近傍にある状態で、複数の指示体のうち少なくとも1の指示体が回転動作された場合、所定の表示領域に表示された画像を指示体の回転方向に回転させることが好ましい。   In the display device of the present invention, the instruction execution unit is displayed in a predetermined display area when at least one of the plurality of pointers is rotated while the plurality of pointers are in the vicinity of the boundary. It is preferable to rotate the image in the direction of rotation of the indicator.

この構成によれば、指示体を回転させることで、表示されている画像を回転することができる。例えば、複数の指示体全てを同一方向に回転させても良いし、あるいは、複数の指示体のうち、1の指示体を他の指示体を支点として回転させても良い。   According to this configuration, the displayed image can be rotated by rotating the indicator. For example, all of the plurality of indicators may be rotated in the same direction, or one of the plurality of indicators may be rotated with another indicator as a fulcrum.

本発明の表示装置において、命令実行部は、境界の近傍における各指示体の動作に応じて、所定の命令を実行することが好ましい。   In the display device of the present invention, it is preferable that the instruction execution unit executes a predetermined instruction according to the operation of each indicator in the vicinity of the boundary.

この構成によれば、境界の近傍での複数の指示体の動作内容(操作内容)に応じて所定の命令を実行することができる。指示体の動作としては、例えば、境界の近傍で2つの指示体(2つのポインター)が近づく動作や、2つの指示体が表示領域の奥行方向(使用者の視界方向)に移動する動作(スイッチを押すような動作)や、2つの指示体が表示領域の奥行方向に移動した状態を維持する動作(スイッチを押した状態を維持するような動作)等が考えられる。   According to this configuration, it is possible to execute a predetermined command according to the operation content (operation content) of a plurality of indicators near the boundary. As an operation of the indicator, for example, an operation in which two indicators (two pointers) approach in the vicinity of the boundary, or an operation in which the two indicators move in the depth direction of the display area (the user's visual field direction) (switch And the operation of maintaining the state in which the two indicators have moved in the depth direction of the display area (the operation of maintaining the state where the switch is pressed), and the like.

本発明の表示装置において、命令実行部は、指示体検出部により、複数の指示体が表示周辺領域から境界を跨いで所定の表示領域に表示されたアイコンを挟む動作を検出した場合、アイコンに割り当てられた所定の命令を実行することが好ましい。   In the display device of the present invention, when the instruction execution unit detects an operation in which a plurality of indicators sandwich an icon displayed in a predetermined display region across the boundary from the display peripheral region by the indicator detection unit, Preferably, the assigned predetermined instruction is executed.

この構成によれば、複数の指示体によりアイコンを掴むような操作をした場合にアイコンに割り当てられた命令(例えば、アプリケーションの実行等)を実行することができ、直感的、且つ操作性の良いユーザーインターフェースを提供できる。   According to this configuration, it is possible to execute an instruction (for example, execution of an application) assigned to an icon when an operation of grasping the icon with a plurality of indicators is performed, and it is intuitive and has good operability. Can provide a user interface.

本発明の表示装置において、命令実行部は、表示されているコンテンツに応じた所定の命令を実行することが好ましい。   In the display device of the present invention, it is preferable that the command execution unit executes a predetermined command corresponding to the displayed content.

この構成によれば、表示するコンテンツ毎に、当該コンテンツに適した命令を実行することができる。なお、コンテンツとは、画像(静止画像、動画像)や音声等からなる情報内容や、アプリケーション等を意味する。   According to this configuration, for each content to be displayed, a command suitable for the content can be executed. Note that the content means information content including an image (still image, moving image), sound, or the like, an application, or the like.

上記に記載の表示装置であって、表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、指示体検出部は、使用者が、透過型の表示装置の使用者側の反対側である表示装置の外側前方で操作する複数の指示体を検出することを特徴とする。   The display device described above, wherein the display device is a transmissive display device that allows a user to visually recognize an image as a virtual image, and the indicator detection unit is configured so that the user can use the transmissive display device on the user side. A plurality of indicators operated on the outer front side of the display device on the opposite side of the display device are detected.

この構成によれば、透過型の表示装置において、使用者から見て表示装置を越えて外側(前方)で操作される指示体を検出することができる。   According to this configuration, in the transmissive display device, it is possible to detect the indicator operated outside (front) beyond the display device as viewed from the user.

上記に記載の表示装置であって、表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、透過型の表示装置の画像表示部は、表示対象となる画像データを用いて画像を表す画像光を生成して射出させる画像光生成部と、射出された画像光を前記使用者の眼に導く光学部材と、を含み、外景の光を光学部材を透過して画像光と共に使用者の眼に入射させることを特徴とする。   In the display device described above, the display device is a transmissive display device that allows a user to visually recognize an image as a virtual image, and the image display unit of the transmissive display device uses image data to be displayed. An image light generation unit that generates and emits image light that represents the image, and an optical member that guides the emitted image light to the user's eyes, and transmits the light of the outside scene through the optical member to generate the image light. And entering the user's eyes.

この構成によれば、使用者が虚像と外景とを同時に視認可能な透過型の表示装置にも適用することができる。   According to this configuration, the present invention can also be applied to a transmissive display device in which a user can view a virtual image and an outside scene at the same time.

本発明の頭部装着型表示装置において、指示体検出部は、頭部装着型表示装置を装着した状態における使用者の前方を撮像することで、複数の指示体を検出することが好ましい。   In the head-mounted display device of the present invention, it is preferable that the indicator detection unit detects a plurality of indicators by imaging the front of the user with the head-mounted display device mounted.

この構成によれば、頭部装着型表示装置を装着した状態における使用者の前方の撮像結果に基づいて、使用者が操作する指示体を検出する。言い換えれば、使用者が頭部装着型表示装置を装着し、眼の前(装置の前)で操作する指示体を撮像して検出できる。   According to this configuration, the indicator operated by the user is detected based on the imaging result in front of the user when the head-mounted display device is mounted. In other words, the user can wear the head-mounted display device and image and detect the indicator operated in front of the eyes (in front of the device).

第1実施形態に係る頭部装着型表示装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus which concerns on 1st Embodiment. 使用者が視認可能な虚像および外景の一例について説明する図である。It is a figure explaining an example of a virtual image and an outside scene which a user can recognize visually. 第1実施形態に係る頭部装着型表示装置の機能構成について説明するブロック図である。It is a block diagram explaining the functional structure of the head mounted display apparatus which concerns on 1st Embodiment. メニュー画面を表示する操作手順について説明する図である。It is a figure explaining the operation procedure which displays a menu screen. メニュー項目を実行する操作手順について説明する図である。It is a figure explaining the operation procedure which performs a menu item. メニュー項目を実行する操作手順について説明する図である。It is a figure explaining the operation procedure which performs a menu item. 他のメニュー画面を表示する処理手順について説明する図である。It is a figure explaining the process sequence which displays another menu screen. コピー処理を実行する操作手順について説明する図である。It is a figure explaining the operation procedure which performs a copy process. 拡大処理を実行する操作手順について説明する図である。It is a figure explaining the operation procedure which performs an expansion process. 縮小処理を実行する操作手順について説明する図である。It is a figure explaining the operation procedure which performs a reduction process. 拡大処理を実行する他の操作手順について説明する図である。It is a figure explaining the other operation procedure which performs an expansion process. 縮小処理を実行する他の操作手順について説明する図である。It is a figure explaining the other operation procedure which performs a reduction process. 回転処理を実行する操作手順について説明する図である。It is a figure explaining the operation procedure which performs a rotation process. 手のひらを使って拡大処理を実行する操作手順を説明する図である。It is a figure explaining the operation procedure which performs an enlargement process using the palm. 第2実施形態に係る頭部装着型表示装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus which concerns on 2nd Embodiment. 第2実施形態に係る頭部装着型表示装置の機能構成について説明するブロック図である。It is a block diagram explaining the functional structure of the head mounted display apparatus which concerns on 2nd Embodiment.

[第1実施形態]
以下、添付の図面を参照し、本発明の一実施形態に係る表示装置、頭部装着型表示装置および表示装置の制御方法について説明する。図1は、本発明の一実施形態における表示装置としての頭部装着型表示装置HMの外観構成を示す説明図である。頭部装着型表示装置HMは、使用者が頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display:HMD)とも呼ばれる。本実施形態の頭部装着型表示装置HMは、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置HM(透過型頭部装着型表示装置、シースルータイプ・ヘッドマウントディスプレイ)であり、眼鏡形状を有している。
[First Embodiment]
Hereinafter, a display device, a head-mounted display device, and a display device control method according to an embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device HM as a display device according to an embodiment of the present invention. The head-mounted display device HM is a display device that a user wears on the head, and is also referred to as a head mounted display (HMD). The head-mounted display device HM of this embodiment is an optically transmissive head-mounted display device HM (a transmissive head-mounted display device, a see-through type) that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. -A head-mounted display) having a spectacle shape.

頭部装着型表示装置HMは、右保持部11と、右表示駆動部12と、左保持部13と、左表示駆動部14と、右光学像表示部15と、左光学像表示部16と、センサー17とを有している。   The head-mounted display device HM includes a right holding unit 11, a right display driving unit 12, a left holding unit 13, a left display driving unit 14, a right optical image display unit 15, and a left optical image display unit 16. , Sensor 17.

右光学像表示部15および左光学像表示部16は、頭部装着型表示装置HMの装着時における使用者の右および左の眼前に対応する位置に配置されている。右光学像表示部15の一端と、左光学像表示部16の一端は、それぞれ、頭部装着型表示装置HMの装着時における使用者の眉間に対応する位置で接続されている。右光学像表示部15の他端である端部ERからは、右保持部11が延伸している。同様に、左光学像表示部16の他端である端部ELからは、左保持部13が延伸している。   The right optical image display unit 15 and the left optical image display unit 16 are disposed at positions corresponding to the right and left eyes of the user when the head-mounted display device HM is mounted. One end of the right optical image display unit 15 and one end of the left optical image display unit 16 are connected at positions corresponding to the user's eyebrows when the head-mounted display device HM is mounted. The right holding unit 11 extends from the end ER that is the other end of the right optical image display unit 15. Similarly, the left holding unit 13 extends from the end EL which is the other end of the left optical image display unit 16.

右保持部11は、右光学像表示部15の端部ERから頭部装着型表示装置HMの装着時における使用者の側頭部に対応する位置にかけて、右光学像表示部15とほぼ直角を成すように延伸して設けられた部材である。同様に、左保持部13は、左光学像表示部16の端部ELから頭部装着型表示装置HMの装着時における使用者の側頭部に対応する位置にかけて、左光学像表示部16とほぼ直角を成すように延伸して設けられた部材である。右保持部11と、左保持部13は、眼鏡のテンプル(つる)のようにして、使用者の頭部に頭部装着型表示装置HMを保持する。   The right holding unit 11 is substantially perpendicular to the right optical image display unit 15 from the end ER of the right optical image display unit 15 to a position corresponding to the user's temporal region when the head-mounted display device HM is mounted. It is a member provided by stretching so as to be formed. Similarly, the left holding unit 13 is connected to the left optical image display unit 16 from the end EL of the left optical image display unit 16 to a position corresponding to the user's temporal region when the head-mounted display device HM is worn. It is a member provided by extending so as to form a substantially right angle. The right holding unit 11 and the left holding unit 13 hold the head-mounted display device HM on the user's head like a temple of glasses.

右表示駆動部12は、右保持部11の内側、換言すれば、頭部装着型表示装置HMの装着時における使用者の頭部に対向する側であって、右光学像表示部15の端部ER側に配置されている。また、左表示駆動部14は、左保持部13の内側であって、左光学像表示部16の端部EL側に配置されている。   The right display drive unit 12 is located inside the right holding unit 11, in other words, on the side facing the user's head when the head-mounted display device HM is worn, and the end of the right optical image display unit 15. It is arranged on the part ER side. The left display driving unit 14 is disposed inside the left holding unit 13 and on the end EL side of the left optical image display unit 16.

センサー17は、頭部装着型表示装置HMの装着時における使用者の眉間に対応する位置に配置されている撮像装置である。センサー17は、頭部装着型表示装置HMを装着した状態における使用者の視界方向(使用者の前方)の外景を撮像し、使用者が操作する複数の指示体(本実施形態では2つの指示体とする)を含んだ画像を取得し、取得した画像の画像信号を出力する。すなわち、頭部装着型表示装置HMにおける使用者側とは反対側(頭部装着型表示装置HMの外側前方)で操作される指示体を撮像する。本実施例のセンサー17による撮像範囲は、頭部装着型表示装置HMを装着したときの使用者の視界21(図2参照)よりも広い範囲となっている。   The sensor 17 is an imaging device arranged at a position corresponding to the user's eyebrow when the head-mounted display device HM is worn. The sensor 17 images an outside scene in the user's viewing direction (in front of the user) in a state where the head-mounted display device HM is worn, and a plurality of indicators (two instructions in the present embodiment) operated by the user. The image including the body is acquired, and an image signal of the acquired image is output. That is, the indicator operated on the side opposite to the user side in the head-mounted display device HM (outside front of the head-mounted display device HM) is imaged. The imaging range by the sensor 17 of this embodiment is wider than the user's field of view 21 (see FIG. 2) when the head-mounted display device HM is worn.

なお、指示体としては、例えば、使用者の指先や手、使用者が装着する指輪型入力装置、使用者が持つペンのペン先、リモコンの発光体等を用いることができる。指示体として使用者の指先やペン先等を用いる場合は、例えば、指先やペン先等を特徴点(特定点)として認識し、位置を検出すればよい。また、指示体として使用者の手を用いる場合は、手のひらの曲線を特徴点として認識し、位置を検出すれば良い。また、指輪型入力装置を用いる場合、例えば、指輪型入力装置に赤外線発光体(LED等)を取り付け、その赤外線光により位置を検出しても良いし、あるいは、指輪型入力装置を装着している使用者の指先を特徴点として認識し、位置を検出しても良い。さらには、使用者によって仮想的に保持されている任意の物を指示体とすることも可能である。「仮想的に保持する任意の物」とは、例えば、使用者の手の形がペンを握る形になった場合、その手に沿うように仮想的に想定されるペン等を意味する。このような場合であっても、上記と同様に、仮想的に保持されている物の任意の場所(例えば、仮想的に想定されるペンのペン先)を指示体として認識し、ペン先の軌跡等を特徴点として認識し、位置を検出することができる。   As the indicator, for example, a user's fingertip or hand, a ring-type input device worn by the user, a pen tip of the user, a light emitter of a remote controller, or the like can be used. When the user's fingertip or pen tip is used as the indicator, for example, the finger tip or pen tip may be recognized as a feature point (specific point) and the position may be detected. When the user's hand is used as the indicator, the palm curve may be recognized as a feature point and the position may be detected. When a ring type input device is used, for example, an infrared light emitter (LED or the like) may be attached to the ring type input device, and the position may be detected by the infrared light, or the ring type input device is attached. The user's fingertip may be recognized as a feature point to detect the position. Furthermore, an arbitrary object virtually held by the user can be used as the indicator. “Anything that is virtually held” means, for example, a pen that is virtually assumed to follow the hand of the user when the shape of the user's hand becomes a shape of holding a pen. Even in such a case, similarly to the above, an arbitrary place of a virtually held object (for example, a virtually assumed pen nib) is recognized as an indicator, and the pen tip The locus or the like can be recognized as a feature point, and the position can be detected.

また、本実施例では、1つのセンサー17を例示しているが、複数のセンサー17が備えられていても良い。また、本実施例では、センサー17として撮像装置(撮像センサー)を例示しているが、これに限るものではなく、指示体を検出できるものであればその種類(検出方法)は問わない。例えば、センサー17として、レーザーセンサー、超音波センサー等を用いることも可能であり、複数種類の検出方法を組み合わせてもよい。   In this embodiment, one sensor 17 is illustrated, but a plurality of sensors 17 may be provided. In the present embodiment, an imaging device (imaging sensor) is illustrated as the sensor 17, but the present invention is not limited to this, and the type (detection method) is not limited as long as the indicator can be detected. For example, a laser sensor, an ultrasonic sensor, or the like can be used as the sensor 17, and a plurality of types of detection methods may be combined.

頭部装着型表示装置HMは、さらに、右耳用の右イヤホン18および左耳用の左イヤホン19を有している。右イヤホン18および左イヤホン19は、使用者が頭部装着型表示装置HMを装着した際に、それぞれ右および左の耳に装着される。   The head-mounted display device HM further includes a right earphone 18 for the right ear and a left earphone 19 for the left ear. The right earphone 18 and the left earphone 19 are respectively attached to the right and left ears when the user wears the head-mounted display device HM.

次に、図2を参照して、頭部装着型表示装置HMを装着した使用者が視認可能な虚像および外景の一例について説明する。図2に示すように、頭部装着型表示装置HMを装着した使用者の視界21には、頭部装着型表示装置HMが生成する虚像22が表示される。また、使用者の視界21の内、虚像22が表示される領域以外の領域には、使用者は右光学像表示部15および左光学像表示部16を透過して、外景23を見ることができる(以下、虚像22が表示される領域を「虚像表示領域25」と称し、これ以外の領域を「外景視認領域26」と称す)。また、本実施例の頭部装着型表示装置HMでは、使用者の視界21の内の虚像22が表示される領域(虚像表示領域25)についても、虚像22の背後に外景23が透けて見えるようになっている。なお、詳細は後述するが、虚像表示領域25と外景視認領域26との境界27(虚像表示領域25の縁部)の近傍には、所定の処理を実行するための各種命令が割り当てられており、使用者による2つの指示体の操作により実行することができる。   Next, an example of a virtual image and an outside scene that can be visually recognized by the user wearing the head-mounted display device HM will be described with reference to FIG. As shown in FIG. 2, a virtual image 22 generated by the head-mounted display device HM is displayed in the field of view 21 of the user wearing the head-mounted display device HM. Further, the user can see the outside scene 23 through the right optical image display unit 15 and the left optical image display unit 16 in a region other than the region where the virtual image 22 is displayed in the user's field of view 21. (Hereinafter, an area where the virtual image 22 is displayed is referred to as a “virtual image display area 25”, and an area other than this is referred to as an “outside view visually recognizing area 26”). Further, in the head-mounted display device HM of the present embodiment, the outside scene 23 can be seen through the virtual image 22 in the area (virtual image display area 25) in which the virtual image 22 is displayed in the user's field of view 21. It is like that. Although details will be described later, various commands for executing predetermined processing are allocated in the vicinity of the boundary 27 (the edge of the virtual image display area 25) between the virtual image display area 25 and the outside scene visual recognition area 26. It can be executed by operating the two indicators by the user.

次に、図3を参照して、頭部装着型表示装置HMの機能構成について説明する。図3に示すように、頭部装着型表示装置HMは、使用者に虚像を視認させる画像表示部40と、センサー17と、右イヤホン18と、左イヤホン19と、電源部71と、インターフェース72と、これら各部を制御する制御部30とを有している。   Next, the functional configuration of the head-mounted display device HM will be described with reference to FIG. As shown in FIG. 3, the head-mounted display device HM includes an image display unit 40 that allows a user to visually recognize a virtual image, a sensor 17, a right earphone 18, a left earphone 19, a power supply unit 71, and an interface 72. And a control unit 30 that controls these units.

電源部71は、頭部装着型表示装置HMの各部に電力を供給する。インターフェース72は、画像(静止画像、動画像)や音声等のコンテンツの供給元となる種々の外部機器OAを接続するためのものである。外部機器OAとしては、例えば、パーソナルコンピュータ(PC)や携帯端末(携帯電話やスマートフォン等)、ゲーム端末等がある。インターフェース72としては、例えばUSBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース、無線LANインターフェース等を採用することができる。   The power supply unit 71 supplies power to each unit of the head-mounted display device HM. The interface 72 is for connecting various external devices OA that are sources of contents such as images (still images, moving images) and audio. Examples of the external device OA include a personal computer (PC), a mobile terminal (such as a mobile phone and a smartphone), and a game terminal. As the interface 72, for example, a USB interface, a micro USB interface, a memory card interface, a wireless LAN interface, or the like can be employed.

制御部30は、CPU(Central Processing Unit)50と、記憶部60とを有している。記憶部60は、ROM(Read Only Memory)やRAM(Random Access Memory)等により構成されており、種々のコンピュータープログラムが格納されている。CPU50は、記憶部60からコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)51や、画像処理部52、表示制御部53、画像解析部54、命令実行部55、音声処理部56として機能する。   The control unit 30 includes a CPU (Central Processing Unit) 50 and a storage unit 60. The storage unit 60 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and stores various computer programs. The CPU 50 reads out and executes a computer program from the storage unit 60, thereby operating as an operating system (OS) 51, an image processing unit 52, a display control unit 53, an image analysis unit 54, a command execution unit 55, and a voice processing unit 56. Function.

画像処理部52は、インターフェース72を介して入力されたコンテンツ等に基づいて画像表示部40に供給するための信号を生成し、画像表示部40へ送信する。画像表示部40に供給するための信号は、アナログ形式とデジタル形式の場合で異なる。   The image processing unit 52 generates a signal to be supplied to the image display unit 40 based on content input through the interface 72 and transmits the signal to the image display unit 40. The signal supplied to the image display unit 40 differs between the analog format and the digital format.

例えば、アナログ形式の場合、画像処理部52はクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部52は、コンテンツに含まれる画像信号(例えば、1秒あたり30枚のフレーム画像から構成されるアナログ信号)を取得し、取得した画像信号から垂直同期信号VSyncと、水平同期信号HSync等の同期信号を分離する。そして、画像処理部52は、分離した垂直同期信号VSyncや水平同期信号HSync等に応じて図示しないPLL回路等を利用してクロック信号PCLKを生成する。また、画像処理部52は、同期信号が分離されたアナログ画像信号を、図示しないA/D変換回路等を用いてデジタル画像信号に変換して画像データDataを生成する。   For example, in the case of an analog format, the image processing unit 52 generates and transmits a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data. Specifically, the image processing unit 52 acquires an image signal (for example, an analog signal composed of 30 frame images per second) included in the content, and from the acquired image signal, a vertical synchronization signal VSync, A synchronization signal such as the horizontal synchronization signal HSync is separated. Then, the image processing unit 52 generates a clock signal PCLK using a PLL circuit (not shown) or the like according to the separated vertical synchronization signal VSync, horizontal synchronization signal HSync, and the like. Further, the image processing unit 52 converts the analog image signal from which the synchronization signal has been separated into a digital image signal using an A / D conversion circuit (not shown) or the like to generate image data Data.

一方、デジタル形式の場合、画像処理部52は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがデジタル形式の場合、クロック信号PCLKが画像信号に同期して出力される。このため、垂直同期信号VSyncおよび水平同期信号HSyncおよびアナログ画像信号のA/D変換が不要となる。   On the other hand, in the case of the digital format, the image processing unit 52 generates and transmits the clock signal PCLK and the image data Data. Specifically, when the content is in a digital format, the clock signal PCLK is output in synchronization with the image signal. For this reason, A / D conversion of the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the analog image signal becomes unnecessary.

なお、画像処理部52は、必要に応じて画像データDataに対して、解像度変換処理や、輝度・彩度の調整といった色調補正処理や、キーストン補正処理等の画像処理を実行しても良い。   Note that the image processing unit 52 may execute image processing such as resolution conversion processing, color tone correction processing such as luminance / saturation adjustment, and keystone correction processing on the image data Data as necessary.

表示制御部53は、右表示駆動部12および左表示駆動部14を制御する制御信号を生成し、画像表示部40に送信することにより、画像表示部40における画像表示状態を制御する。具体的には、表示制御部53は、制御信号により、右LCD制御部83による右LCD84の駆動のON/OFFや、右バックライト制御部81による右バックライト82の駆動ON/OFF、左LCD制御部93による左LCD94の駆動ON/OFFや、左バックライト制御部91による左バックライト92の駆動のON/OFF等を個別に制御することにより、右表示駆動部12および左表示駆動部14のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部53は、右表示駆動部12および左表示駆動部14の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。   The display control unit 53 controls the image display state in the image display unit 40 by generating control signals for controlling the right display drive unit 12 and the left display drive unit 14 and transmitting them to the image display unit 40. Specifically, the display control unit 53 uses the control signal to turn on / off the drive of the right LCD 84 by the right LCD control unit 83, drive the ON / OFF of the right backlight 82 by the right backlight control unit 81, and the left LCD. The right display drive unit 12 and the left display drive unit 14 are individually controlled by controlling ON / OFF of the left LCD 94 by the control unit 93 and ON / OFF of the left backlight 92 by the left backlight control unit 91, respectively. The generation and emission of image light by each of the above are controlled. For example, the display control unit 53 causes both the right display driving unit 12 and the left display driving unit 14 to generate image light, generates only one image light, or does not both generate image light.

画像解析部54は、センサー17によって撮像された画像の画像信号を取得し、取得した画像信号の解析を行う。画像解析部54は、画像解析により2つの指示体を検出し、各々の位置情報を出力する。画像処理部52や表示制御部53は、出力された指示体の位置情報に基づき、画像表示部40に各指示体に対応するポインターP(図4(a)参照)を表示させる。なお、請求項における指示体検出部は、センサー17および画像解析部54を主要な構成要素とする。また、請求項におけるポインター表示部は、画像処理部52および表示制御部53を主要な構成要素とする。   The image analysis unit 54 acquires an image signal of an image captured by the sensor 17 and analyzes the acquired image signal. The image analysis unit 54 detects two indicators by image analysis and outputs position information of each indicator. The image processing unit 52 and the display control unit 53 cause the image display unit 40 to display a pointer P (see FIG. 4A) corresponding to each indicator based on the output positional information of the indicator. In addition, the indicator detection part in a claim has the sensor 17 and the image analysis part 54 as main components. Further, the pointer display unit in the claims has the image processing unit 52 and the display control unit 53 as main components.

命令実行部55は、2つの指示体の操作に伴う各ポインターPの移動位置や移動方向に応じて各種命令を実行する。具体的には、2つのポインターPが虚像表示領域25と外景視認領域26との境界27の近傍(いずれも図2参照)に移動した場合や、2つの指示体が虚像表示領域25から境界27を越えて外景視認領域26へ移動する方向に操作された場合、2つの指示体が外景視認領域26から境界27を超えて虚像表示領域25へ移動する操作が行われた場合、2つのポインターPが境界27に沿って移動された場合、2つの指示体(2つのポインターP)により虚像表示領域25に表示されたアイコンを挟むような操作(アイコンを掴むような操作)が行われた場合、あるいは虚像表示領域25における境界近傍で指示体が操作された場合等に、予め割り当てられた各種命令(処理)を実行する(詳細は後述する)。すなわち、本実施例では、請求項における「所定の表示領域」は虚像表示領域25に相当し、「表示周辺領域」は外景視認領域26に相当する。また、虚像表示領域25と外景視認領域26との境界27とは、ポインターPを表示することが可能な(ポインターPを移動することが可能な)限界を示すものである。   The command execution unit 55 executes various commands according to the movement position and movement direction of each pointer P accompanying the operation of the two indicators. Specifically, when the two pointers P are moved to the vicinity of the boundary 27 between the virtual image display area 25 and the outside scene visual recognition area 26 (both refer to FIG. 2), or the two pointers move from the virtual image display area 25 to the boundary 27. When the two pointers are operated to move from the outside scene viewing area 26 to the virtual image display area 25 beyond the boundary 27, the two pointers P are operated. Is moved along the boundary 27, when an operation to sandwich an icon displayed in the virtual image display area 25 by two indicators (two pointers P) (operation to grab the icon) is performed, Alternatively, when a pointer is operated near the boundary in the virtual image display area 25, various commands (processing) assigned in advance are executed (details will be described later). That is, in the present embodiment, “predetermined display area” in the claims corresponds to the virtual image display area 25, and “display peripheral area” corresponds to the outside scene visual recognition area 26. Further, the boundary 27 between the virtual image display area 25 and the outside scene visually recognizing area 26 indicates a limit at which the pointer P can be displayed (the pointer P can be moved).

音声処理部56は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン18および左イヤホン19に送信する。   The audio processing unit 56 acquires an audio signal included in the content, amplifies the acquired audio signal, and transmits the amplified audio signal to the right earphone 18 and the left earphone 19.

画像表示部40は、右表示駆動部12と、左表示駆動部14と、右光学像表示部15としての右導光板86と、左光学像表示部16としての左導光板96と、を有している。なお、以下の説明では、右光学像表示部15および右導光板86と、左光学像表示部16および左導光板96と、を総称して「光学部材」とも呼ぶ。   The image display unit 40 includes a right display drive unit 12, a left display drive unit 14, a right light guide plate 86 as the right optical image display unit 15, and a left light guide plate 96 as the left optical image display unit 16. doing. In the following description, the right optical image display unit 15 and the right light guide plate 86, and the left optical image display unit 16 and the left light guide plate 96 are also collectively referred to as “optical members”.

右表示駆動部12、光源として機能する右バックライト(BL)制御部81および右バックライト(BL)82と、表示素子として機能する右LCD制御部83および右LCD84と、右投写光学系85を含んでいる。なお、以下の説明では、右バックライト制御部81、右バックライト82、右LCD制御部83および右LCD84を総称して「画像光生成部」とも呼ぶ。   A right display drive unit 12, a right backlight (BL) control unit 81 and a right backlight (BL) 82 functioning as a light source, a right LCD control unit 83 and a right LCD 84 functioning as display elements, and a right projection optical system 85 Contains. In the following description, the right backlight control unit 81, the right backlight 82, the right LCD control unit 83, and the right LCD 84 are also collectively referred to as “image light generation unit”.

右バックライト制御部81は、入力された制御信号に基づいて、右バックライト82を駆動制御する。右バックライト82は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部83は、入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右目用の画像データDataとに基づいて、右LCD84を駆動制御する。右LCD84は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The right backlight control unit 81 drives and controls the right backlight 82 based on the input control signal. The right backlight 82 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 83 drives and controls the right LCD 84 based on the input clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data for the right eye. The right LCD 84 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系85は、右LCD84から射出された画像光を投写するものであり、例えば、コリメートレンズを用いて構成される。右光学像表示部15としての右導光板86は、光透過性の樹脂素材等によって形成され、右投写光学系85から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼に導く。なお、右投写光学系85と右導光板86とを総称して「導光部」とも呼ぶ。導光部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方法を用いることができ、例えば、回折格子(一例としてホログラム素子)を用いても良いし、半透過反射膜を用いても良い。   The right projection optical system 85 projects image light emitted from the right LCD 84, and is configured using, for example, a collimator lens. The right light guide plate 86 as the right optical image display unit 15 is formed of a light-transmitting resin material or the like, and reflects the image light output from the right projection optical system 85 along a predetermined optical path while being reflected by the user. Lead to the right eye. The right projection optical system 85 and the right light guide plate 86 are collectively referred to as “light guide unit”. The light guide unit can use any method as long as it forms a virtual image in front of the user's eyes using image light. For example, a diffraction grating (hologram element as an example) may be used, or transflective reflection may be used. A film may be used.

左表示駆動部14は、右表示駆動部12と同様に、左バックライト(BL)制御部91と、左バックライト(BL)92と、左LCD制御部93と、左LCD94と、左投写光学系95とを含んでいる(上記の右表示駆動部12と同様に、左バックライト制御部91、左バックライト92、左LCD制御部93および左LCD94を総称して「画像光生成部」とも呼ぶ)。左表示駆動部14に含まれる各要素の構成や機能は、右表示駆動部12に含まれる各要素と同様であるため、ここでは説明を省略する。また、左光学像表示部16としての左導光板96は、光透過性の樹脂素材等によって形成され、左投写光学系95から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼に導く。   As with the right display drive unit 12, the left display drive unit 14 includes a left backlight (BL) control unit 91, a left backlight (BL) 92, a left LCD control unit 93, a left LCD 94, and left projection optics. (Like the right display drive unit 12, the left backlight control unit 91, the left backlight 92, the left LCD control unit 93, and the left LCD 94 are collectively referred to as an “image light generation unit”. Call). Since the configuration and function of each element included in the left display driving unit 14 are the same as those included in the right display driving unit 12, the description thereof is omitted here. The left light guide plate 96 as the left optical image display unit 16 is formed of a light transmissive resin material or the like, and is used while reflecting the image light output from the left projection optical system 95 along a predetermined optical path. To the left eye.

このようにして、頭部装着型表示装置HMの使用者の両眼に導かれた画像光が網膜に結像することにより、使用者は、例えば図2に示すように虚像表示領域25内に虚像22を視認する。   In this way, the image light guided to both eyes of the user of the head-mounted display device HM forms an image on the retina, so that the user can enter the virtual image display area 25 as shown in FIG. The virtual image 22 is visually recognized.

次に、図4ないし図14を参照して、使用者による2つの指示体の操作に伴って、頭部装着型表示装置HMにより虚像表示領域25に表示されるポインターPの動作により各種命令を実行する手順の一例について説明する。なお、以下の説明では、使用者の2本の指(例えば、両手の人差し指(指先)や、片手の親指と人差し指(指先)等)を指示体として検出する場合について説明する。   Next, referring to FIGS. 4 to 14, various commands are issued by the operation of the pointer P displayed on the virtual image display area 25 by the head-mounted display device HM in accordance with the operation of the two indicators by the user. An example of the procedure to be executed will be described. In the following description, a case will be described in which two fingers of a user (for example, the index fingers (fingertips of both hands) or the thumb and index finger (fingertips) of one hand) are detected as indicators.

図4ないし図6は、使用者の2本の指の操作(2つのポインターの動作)によるメニュー画面の表示処理およびメニュー項目の実行手順(メニュー画面の表示およびメニュー項目を実行するためのユーザーインターフェース)の一例について説明する図である。   FIGS. 4 to 6 show menu screen display processing and menu item execution procedures (menu screen display and user interface for executing menu items) by the user's operation of two fingers (operation of two pointers). Is a diagram for explaining an example.

図4(a)に示すように、使用者の右手人差し指および左手人差し指(2つの指示体)が虚像表示領域25内で検出されると(正確には、2本の指が、虚像表示領域25と重複するセンサー17の撮像領域内で検出されると)、頭部装着型表示装置HMは、2本の指の検出位置に基づいて虚像表示領域25に円形のポインターP(ポインターP1およびP2)を表示する。また、頭部装着型表示装置HMは、虚像表示領域25と外景視認領域26との境界27の近傍に割り当てられた命令を実行可能にするためのモード(以下、「入力スタンバイモード」と称す)に遷移する処理を実行する。   As shown in FIG. 4A, when the user's right hand index finger and left hand index finger (two indicators) are detected in the virtual image display area 25 (more precisely, two fingers are displayed in the virtual image display area 25). The head-mounted display device HM detects a circular pointer P (pointers P1 and P2) in the virtual image display area 25 based on the detection position of the two fingers. Is displayed. Further, the head-mounted display device HM can execute a command assigned in the vicinity of the boundary 27 between the virtual image display area 25 and the outside scene visual recognition area 26 (hereinafter referred to as “input standby mode”). Execute the process to transit to.

なお、虚像表示領域25外で指示体(使用者の指)を検出した場合は、頭部装着型表示装置HMは、例えば、指示体の検出方向を示す矢印形状のポインターを表示したり、あるいはポインターを点線表示する等して、使用者に対して指示体が虚像表示領域25の外にある旨を報知する。また、この場合、頭部装着型表示装置HMは、「入力スタンバイモード」には遷移しない。   When the indicator (user's finger) is detected outside the virtual image display area 25, the head-mounted display device HM displays, for example, an arrow-shaped pointer indicating the detection direction of the indicator, or The user is notified that the indicator is outside the virtual image display area 25 by, for example, displaying a pointer with a dotted line. In this case, the head-mounted display device HM does not transition to the “input standby mode”.

次に、図4(b)に示すように、入力スタンバイモードの状態で、右手人差し指の操作によりポインターP1が境界27の近傍(図4(b)では、一例として、虚像表示領域25の右側の境界27aの近傍とする)に移動すると、頭部装着型表示装置HMは、境界27の近傍(虚像表示領域25と外景視認領域26との境界27における、虚像表示領域25の内側の近傍)に割り当てられた命令を受け付けるモード(以下、「命令受付モード」と称す)へ遷移する処理を実行し(命令受付モードへの遷移命令を実行し)、ポインターP1の形状を半円状に変形して表示する。またこれと共に、境界27に沿って(境界27の虚像表示領域25の内側)に沿って)枠101(枠画像,図中の網掛け部分)を表示する。ポインターP1の形状の変形および枠101を表示することで、使用者は命令受付モードになったことを認識することができる。なお、半円状のポインターP1は、虚像表示領域25の境界27の近傍から離れた位置に移動されると(虚像表示領域25の中央に向かって移動されると)、その形状は元の円形に戻る。   Next, as shown in FIG. 4B, in the state of the input standby mode, the pointer P1 is located near the boundary 27 by the operation of the right index finger (in FIG. 4B, as an example, the right side of the virtual image display area 25 The head-mounted display device HM moves to the vicinity of the boundary 27 (near the inside of the virtual image display area 25 at the boundary 27 between the virtual image display area 25 and the outside scene visual recognition area 26). Execute processing to transition to a mode that accepts the assigned command (hereinafter referred to as “command acceptance mode”) (execute a transition command to the command acceptance mode), and change the shape of the pointer P1 into a semicircle indicate. At the same time, a frame 101 (a frame image, a shaded portion in the drawing) is displayed along the boundary 27 (along the virtual image display area 25 of the boundary 27). By displaying the deformation of the shape of the pointer P1 and the frame 101, the user can recognize that the command acceptance mode has been entered. When the semicircular pointer P1 is moved to a position away from the vicinity of the boundary 27 of the virtual image display area 25 (when moved toward the center of the virtual image display area 25), the shape thereof is the original circular shape. Return to.

次に、命令受付モードの状態で、左手人差し指の操作によりポインターP2が境界27の近傍(図4(b)では、一例として、虚像表示領域25の下側の境界27dの近傍とする)に移動すると、頭部装着型表示装置HMは、境界27dの近傍に割り当てられたメニュー画面を表示するための命令(以下、「メニュー画面表示命令」と称す)を実行し、図4(c)に示すような、虚像表示領域25に種々のアイコンIC(メニュー項目)から成るメニュー画面D01を表示する。なお、このメニュー画面表示命令は、ポインターP1およびP2の両方(2つの指示体)が境界27の近傍に位置する場合に実行される。   Next, in the instruction acceptance mode, the pointer P2 moves to the vicinity of the boundary 27 (in FIG. 4B, as an example, the vicinity of the lower boundary 27d of the virtual image display area 25) by operating the left index finger. Then, the head-mounted display device HM executes a command for displaying a menu screen assigned in the vicinity of the boundary 27d (hereinafter referred to as “menu screen display command”), and is shown in FIG. A menu screen D01 composed of various icons IC (menu items) is displayed in the virtual image display area 25. This menu screen display command is executed when both the pointers P1 and P2 (two indicators) are located in the vicinity of the boundary 27.

使用者は、表示されたメニュー画面D01上の各種アイコンICをタッチすることで、アイコンICに割り当てられた機能を実行する。また、アイコンICにタッチするのみならず、アイコンICを掴むような操作(挟むような動作)を行った場合もアイコンICに割り当てられた機能を実行することができる。   The user touches various icon ICs on the displayed menu screen D01 to execute a function assigned to the icon IC. In addition to touching the icon IC, a function assigned to the icon IC can also be executed when an operation for gripping the icon IC (an operation for pinching) is performed.

例えば、図5に示すように、虚像表示領域25の右下隅のアイコンICを、使用者が外景視認領域26側から境界27aおよび境界27dを跨ぐように親指と人差し指を動かして掴むような操作を行った場合(ポインターP1およびP2でアイコンICを掴むような操作を行った場合)、アイコンICに割り当てられた命令(ここでは、ソフトウェアキーボードKBの起動命令)を実行することができる(以下、このような操作を「フィンガーチップアクション」と称す)。すなわち、虚像表示領域25の右下隅にはフィンガーチップアクションを実行するための命令が割り当てられている。なお、図5では、虚像表示領域25の右下隅にあるアイコンICに対してフィンガーチップアクションを実行したが、同様の操作で(2本の指(指示体)の動きで)左下隅のアイコンICに対してもフィンガーチップアクションを実行することが可能である。また、虚像表示領域25の右上隅(あるいは左上隅)にあるアイコンICに対してフィンガーチップアクションを行う場合は、図6に示すように2本の指(指示体)を動かすことで実行することができる。   For example, as shown in FIG. 5, an operation is performed in which the user grasps the icon IC in the lower right corner of the virtual image display area 25 by moving the thumb and forefinger so as to straddle the boundary 27 a and the boundary 27 d from the outside scene viewing area 26 side. If performed (when performing an operation such as holding the icon IC with the pointers P1 and P2), an instruction assigned to the icon IC (here, an activation instruction for the software keyboard KB) can be executed (hereinafter referred to as this Such an operation is called “fingertip action”). That is, a command for executing the fingertip action is assigned to the lower right corner of the virtual image display area 25. In FIG. 5, the fingertip action is performed on the icon IC in the lower right corner of the virtual image display area 25, but the icon IC in the lower left corner is operated by the same operation (with the movement of two fingers (indicator)). It is possible to execute a fingertip action on the screen. Further, when performing a fingertip action on the icon IC in the upper right corner (or upper left corner) of the virtual image display area 25, it is executed by moving two fingers (indicators) as shown in FIG. Can do.

なお、図4(c)のメニュー画面D01におけるアイコンICの配置はあくまでも一例であり、これに限るものではない。すなわち、図4(c)では、アイコンICを虚像表示領域25の左端側および角部に配置したメニュー画面D01を例示しているが、例えば、アイコンICを虚像表示領域25の右端側に配置したメニュー画面を表示しても良いし、あるいは、アイコンICを左右両端に配置したメニュー画面を表示しても良い。すなわち、できるだけ視界をさえぎらないように、アイコンICを虚像表示領域25の内側の周辺部(縁部)に配置するようにすれば良い。または、アイコンICを虚像表示領域25の中心付近(中央付近)に配置したメニュー画面を表示しても良い。また、ポインターPの境界27の近傍への移動順により、表示するメニュー画面の内容やアイコンICの配置を変えるようにしても良い。   Note that the arrangement of the icon ICs on the menu screen D01 in FIG. 4C is merely an example, and the present invention is not limited to this. 4C illustrates the menu screen D01 in which the icon IC is arranged on the left end side and the corner of the virtual image display area 25. For example, the icon IC is arranged on the right end side of the virtual image display area 25. A menu screen may be displayed, or a menu screen in which icon ICs are arranged at both left and right ends may be displayed. In other words, the icon IC may be arranged on the inner peripheral portion (edge) of the virtual image display area 25 so as not to obstruct the field of view as much as possible. Alternatively, a menu screen in which the icon IC is arranged near the center (near the center) of the virtual image display area 25 may be displayed. Further, the content of the menu screen to be displayed and the arrangement of the icon ICs may be changed according to the movement order of the pointer P to the vicinity of the boundary 27.

また、図4(c)では、アイコンICから成るメニュー画面D01のみを表示しているが、例えば、メニュー画面D01の背後に、他の虚像(例えば、画像や映像等のコンテンツ)が表示されていても良い(他の虚像に重畳するようにメニュー画面D01を表示しても良い)。   In FIG. 4C, only the menu screen D01 including the icon IC is displayed. For example, other virtual images (for example, contents such as images and videos) are displayed behind the menu screen D01. (The menu screen D01 may be displayed so as to be superimposed on another virtual image).

また、上述では、ポインターP(ポインターP1)が虚像表示領域25の右側の境界27aの近傍に移動することで「命令受付モード」に遷移する処理を実行しているが、あくまでも一例であり、これに限るものではない。例えば、ポインターPが左側の境界27bの近傍や、上側の境界27cの近傍や、下側の境界27dの近傍に移動した場合にも「命令受付モード」に遷移する処理を実行することが可能である。また、命令受付モードに遷移する際、どちらのポインターPが境界27の近傍に移動したのかにより、枠101の太さや色、境界27の近傍へ移動後のポインターPの形状や大きさ等を変えるようにしても良い。   In the above description, the process of transitioning to the “command acceptance mode” is performed by moving the pointer P (pointer P1) to the vicinity of the right boundary 27a of the virtual image display area 25. However, this is merely an example. It is not limited to. For example, when the pointer P moves to the vicinity of the left boundary 27b, the vicinity of the upper boundary 27c, or the vicinity of the lower boundary 27d, it is possible to execute the process of transitioning to the “command acceptance mode”. is there. Further, when changing to the command acceptance mode, the thickness and color of the frame 101, the shape and size of the pointer P after moving to the vicinity of the boundary 27, and the like are changed depending on which pointer P has moved to the vicinity of the boundary 27. You may do it.

また、上述では、虚像表示領域25の下側の境界27dの近傍に「メニュー画面表示命令」が割り当てられているものとしているが、あくまでも一例であり、例えば、右側の境界27aの近傍、左側の境界27bの近傍、上側の境界27cの近傍等に命令を割り当てることも可能である(すなわち、境界27の近傍であれば、命令を割り当てる位置は問わない)。なお、境界27の近傍に命令が割り当てられていない場合は、ポインターPの形状を禁止マークで表示することで、その旨を使用者に報知するようにしても良い。   In the above description, it is assumed that the “menu screen display command” is assigned to the vicinity of the lower boundary 27d of the virtual image display area 25. However, this is merely an example, for example, the vicinity of the right boundary 27a, It is also possible to assign an instruction to the vicinity of the boundary 27b, the vicinity of the upper boundary 27c, or the like (that is, the position to which the instruction is allocated is not limited as long as it is in the vicinity of the boundary 27). If no instruction is assigned in the vicinity of the boundary 27, the shape of the pointer P may be displayed as a prohibition mark to notify the user of that fact.

また、図中では、便宜上、枠101を網掛けで表現しているが、実際には、使用者が識別可能な色(例えば、白色や灰色や赤色等)で枠101を表示すれば良い。また、枠101を、実線ではなく点線で表示するようにしても良いし、枠線なしでも良い。また、「命令受付モード」に遷移した場合や命令受付モード中に境界27の近傍にポインターPが移動した場合に、円状のポインターP1を半円状に変形表示しているが、これに限るものではない。例えば、ポインターPのサイズを大きくしても良いし、2重丸形状のポインター等を表示しても良い。これらは、以下の説明においても同様である。   In the figure, for convenience, the frame 101 is shaded, but actually, the frame 101 may be displayed in a color that can be identified by the user (for example, white, gray, red, etc.). Further, the frame 101 may be displayed as a dotted line instead of a solid line, or may be without a frame line. In addition, the circular pointer P1 is displayed in a semicircular shape when the pointer P is moved to the vicinity of the boundary 27 during the transition to the “command reception mode” or during the command reception mode, but this is not limited thereto. It is not a thing. For example, the size of the pointer P may be increased, or a double circular pointer or the like may be displayed. The same applies to the following description.

次に、図7および図8を参照して、使用者の2本の指の操作(2つのポインターの動作)によるメニュー画面の表示処理およびメニュー項目の実行の他の形態について説明する。なお、命令受付モードに遷移するまでの手順は上述と同様であるため説明を省略する。以下の説明においても同様である。   Next, with reference to FIG. 7 and FIG. 8, other forms of menu screen display processing and menu item execution by a user's operation of two fingers (operation of two pointers) will be described. Note that the procedure up to the transition to the command reception mode is the same as described above, and thus the description thereof is omitted. The same applies to the following description.

図7(a)に示すように、命令受付モードに遷移した状態で、左手人差し指の操作によりポインターP2が境界27dの近傍に移動すると、頭部装着型表示装置HMは、境界27dの近傍に割り当てられた命令を実行し、図7(b)に示すように、ポインターP2の形状を半円状に変形して表示すると共に、境界27に沿って(枠101の虚像表示領域25側に沿って)、帯状の操作領域102を表示する。この操作領域102の領域内には、その位置に応じて各種命令が割り当てられている。   As shown in FIG. 7A, when the pointer P2 is moved to the vicinity of the boundary 27d by the operation of the left index finger in the state of transition to the command reception mode, the head-mounted display device HM is assigned to the vicinity of the boundary 27d. As shown in FIG. 7B, the shape of the pointer P2 is transformed into a semicircular shape and displayed along the boundary 27 (along the virtual image display area 25 side of the frame 101). ), A band-like operation area 102 is displayed. Various commands are assigned to the operation area 102 in accordance with the position.

次に、図7(c)に示すように、操作領域102を表示した状態で、例えば、左手の親指と人差し指の操作により、操作領域102の右上隅にポインターP1およびP2を移動させ、2本の指を近づける操作(ポインターP1とポインターP2を近づける操作)をすることで、メニュー画面D02が表示される。すなわち、操作領域102内の右上隅には、2つのポインターPを近づけることで実行される命令(メニュー画面表示命令)が割り当てられている。   Next, as shown in FIG. 7C, with the operation area 102 displayed, the pointers P1 and P2 are moved to the upper right corner of the operation area 102 by, for example, the operation of the thumb and index finger of the left hand. The menu screen D02 is displayed by performing the operation of bringing the finger close (the operation of bringing the pointer P1 and the pointer P2 close). That is, a command (menu screen display command) executed by bringing the two pointers P close to each other is assigned to the upper right corner in the operation area 102.

このメニュー画面D02では、メニュー項目として、「コピー(Copy)」、「切り取り(Cut)」、「貼り付け(Paste)」、「ホーム(Home)」、「戻る(Back)」等のアイコンICが表示される。「コピー(Copy)」、「切り取り(Cut)」、「貼り付け(Paste)」アイコンは、画像等のコピー、切り取り、貼り付けを行うためのものである。「ホーム(Home)」アイコンは、虚像表示領域25の表示画像を標準のホームアプリケーション画像(不図示)に切り替えるものである。また、「戻る(Back)」アイコンは、一つ前の操作に戻るためのものである。なお、表示されるメニュー項目(アイコンIC)、およびその表示位置は一例であり、これに限るものではない。   In this menu screen D02, icon ICs such as “Copy”, “Cut”, “Paste”, “Home”, “Back”, etc. are displayed as menu items. Is displayed. “Copy”, “Cut”, and “Paste” icons are for copying, cutting, and pasting images and the like. The “Home” icon switches the display image in the virtual image display area 25 to a standard home application image (not shown). The “Back” icon is used to return to the previous operation. The displayed menu item (icon IC) and its display position are merely examples, and the present invention is not limited to this.

使用者は、表示されたメニュー画面D02のアイコンICをタッチすることで、アイコンICに割り当てられた機能を実行する。ここでは、具体例として、画像のコピーを実行する場合の手順を説明する。まず、図8(a)に示すように、使用者はコピーしたい画像G1を虚像表示領域25内に表示させた後、右手人差し指(ポインターP1)により「コピー(Copy)」選択してコピー機能を有効にする。そして、左手人差し指(ポインターP2)でコピー元となる画像G1を指定する。次に、使用者は、図8(b)に示すように、左手人差し指(ポインターP2)でコピー先となる位置を指定し、右手人差し指(ポインターP1)で「貼り付け(Paste)」を選択して貼り付け機能を有効にする。これにより、図8(c)に示すように、コピー元として指定した画像G1が、コピー先として指定された位置にコピーされる。なお、上述では、両手を使ってコピー操作を行っているが、片手(例えば、右手人差し指等)のみで同様の操作をすることも可能である。   The user performs a function assigned to the icon IC by touching the icon IC on the displayed menu screen D02. Here, as a specific example, a procedure for executing image copying will be described. First, as shown in FIG. 8 (a), the user displays the image G1 to be copied in the virtual image display area 25, and then selects "Copy" with the right index finger (pointer P1) to execute the copy function. To enable. Then, the image G1 as the copy source is designated with the left index finger (pointer P2). Next, as shown in FIG. 8B, the user designates the position to be the copy destination with the left index finger (pointer P2), and selects “Paste” with the right index finger (pointer P1). To enable the paste function. As a result, as shown in FIG. 8C, the image G1 designated as the copy source is copied to the position designated as the copy destination. In the above description, the copy operation is performed using both hands. However, the same operation can be performed using only one hand (for example, the right index finger).

なお、上述では、操作領域102の右上隅にメニュー画面表示命令を割り当てた例を示したが、これ以外にも操作領域102の所定位置に様々な命令を割り当てることも可能である。例えば、操作領域102の左上隅にマウスと同様のクリック機能やドラッグ機能を割り当てることも可能である。この場合、操作領域102の左上隅に2本の指(2つの指示体)を移動させた後、両指を虚像表示領域25の奥行方向(使用者の視界方向)に向かって移動させることで(スイッチを押すような動作をすることで)クリック機能を実現し、両指を虚像表示領域25の奥行方向に移動した状態を維持することで(スイッチを押した状態を維持するような動作をすることで)ドラッグ機能を実現することができる。   In the above description, an example in which a menu screen display command is assigned to the upper right corner of the operation area 102 has been described. However, various instructions can be assigned to predetermined positions in the operation area 102. For example, a click function and a drag function similar to those of a mouse can be assigned to the upper left corner of the operation area 102. In this case, by moving two fingers (two indicators) to the upper left corner of the operation area 102, both fingers are moved in the depth direction of the virtual image display area 25 (the user's view direction). A click function is realized (by pressing the switch), and both fingers are moved in the depth direction of the virtual image display area 25 (the switch is pressed). By doing so, the drag function can be realized.

次に、図9ないし図12を参照して、画像の拡大縮小処理(拡大縮小命令)を実行する場合の手順(拡大縮小処理を実行するためのユーザーインターフェース)の一例について説明する。   Next, an example of a procedure (user interface for executing the enlargement / reduction process) in the case of executing the image enlargement / reduction process (enlargement / reduction instruction) will be described with reference to FIGS.

図9(a)に示すように、命令受付モードに遷移した状態で、使用者により画像G2において拡大対象となる範囲111が指定された後、右手人差し指を虚像表示領域25から境界27aを越えて外景視認領域26に斜め右上方向(矢印Aの方向)に、左手人差し指を虚像表示領域25から境界27dを越えて外景視認領域26に斜め左下方向(矢印Bの方向)に移動する操作が行われた場合(言い換えれば、ポインターP1が境界27aに対して斜め右上方向に、ポインターP2が境界27dに対して斜め左下方向に、虚像表示領域25から境界27aおよび27dを越えて外景視認領域26に移動するように操作された場合)、頭部装着型表示装置HMは、図9(b)に示すように、指定された範囲111の画像を所定の倍率で拡大する拡大処理(拡大命令)を実行し、その実行結果である拡大画像112を表示する。   As shown in FIG. 9 (a), after the user has designated the range 111 to be enlarged in the image G2 in the state of transition to the command acceptance mode, the right index finger is moved from the virtual image display area 25 to the boundary 27a. An operation of moving the left index finger from the virtual image display area 25 across the boundary 27d to the outer scene visual recognition area 26 diagonally to the lower left (arrow B direction) is performed obliquely in the upper right direction (in the direction of arrow A). In other words (in other words, the pointer P1 moves diagonally to the upper right with respect to the boundary 27a, and the pointer P2 moves diagonally to the lower left with respect to the boundary 27d, and moves from the virtual image display area 25 to the outside scene viewing area 26 across the boundaries 27a and 27d. The head-mounted display device HM enlarges the image in the designated range 111 at a predetermined magnification, as shown in FIG. 9B. It performs much processing (enlargement instruction), and displays the enlarged image 112 which is the execution result.

この時、頭部装着型表示装置HMは、ポインターP1およびP2の形状を拡大処理が行われたことを示す図形に変更すると共に、虚像表示領域25の所定の位置に拡大処理が行われたことを示すプラス記号113を表示する。また、使用者が拡大操作を繰り返すことにより、拡大処理の限界に到達した場合は(これ以上拡大できない状態になった場合は)、頭部装着型表示装置HMはポインターを禁止マークの形状に変更して表示する。   At this time, the head-mounted display device HM changes the shape of the pointers P1 and P2 to a graphic indicating that the enlargement process has been performed, and the enlargement process has been performed at a predetermined position in the virtual image display area 25. A plus sign 113 is displayed. Further, when the user reaches the limit of the enlargement process by repeating the enlargement operation (when the enlargement cannot be performed any more), the head-mounted display device HM changes the pointer to the shape of the prohibition mark. And display.

なお、図9(c)に示すように、右手人差し指を境界27aに沿って上方向(矢印Cの方向)に、左手人差し指を境界27dに沿って左方向(矢印Dの方向)に移動する操作が行われた場合も(言い換えれば、ポインターP1が境界27aに沿って上方向に、ポインターP2が境界27dに沿って左方向に移動するように操作された場合も)、上述と同様に拡大処理(拡大命令)を実行することが可能である。   As shown in FIG. 9 (c), the right index finger is moved upward (in the direction of arrow C) along the boundary 27a, and the left hand index finger is moved in the left direction (in the direction of arrow D) along the boundary 27d. (In other words, when the pointer P1 is operated to move upward along the boundary 27a and the pointer P2 is moved leftward along the boundary 27d), the enlargement process is performed as described above. (Enlargement instruction) can be executed.

一方、図10(a)に示すように、命令受付モードに遷移した状態で、使用者により画像G1において縮小対象となる範囲111が指定された後、右手人差し指を外景視認領域26から境界27aを越えて虚像表示領域25に斜め左下方向(矢印Eの方向)に、左手人差し指を外景視認領域26から境界27dを越えて虚像表示領域25に斜め右上方向(矢印Fの方向)に移動する操作が行われた場合(言い換えれば、ポインターP1およびポインターP2が境界27側から虚像表示領域25の内側に移動するように操作された場合)、頭部装着型表示装置HMは、図10(b)に示すように、指定された範囲111の画像を所定の倍率で縮小する縮小処理(縮小命令)を実行し、その実行結果である縮小画像114を表示する。   On the other hand, as shown in FIG. 10 (a), after the user has designated the range 111 to be reduced in the image G1 in the state of transition to the command acceptance mode, the right index finger is moved from the outside view viewing area 26 to the boundary 27a. The operation of moving the left index finger to the virtual image display area 25 diagonally in the lower left direction (direction of arrow E) and moving the left index finger from the outside scene viewing area 26 to the virtual image display area 25 diagonally in the upper right direction (direction of arrow F). When performed (in other words, when the pointer P1 and the pointer P2 are operated so as to move from the boundary 27 side to the inside of the virtual image display area 25), the head-mounted display device HM is shown in FIG. As shown, a reduction process (reduction command) for reducing an image in a designated range 111 at a predetermined magnification is executed, and a reduced image 114 as a result of the execution is displayed.

この時、頭部装着型表示装置HMは、ポインターP1およびP2の形状を縮小処理が行われたことを示す図形に変更すると共に、虚像表示領域25の所定の位置に、縮小処理を示すマイナス記号115を表示する。また、使用者が縮小操作を繰り返すことにより、縮小処理の限界に到達した場合は(これ以上縮小できない状態になった場合は)、頭部装着型表示装置HMは、ポインターを禁止マークの形状に変更して表示する。   At this time, the head-mounted display device HM changes the shape of the pointers P1 and P2 to a graphic indicating that the reduction process has been performed, and a minus sign indicating the reduction process at a predetermined position in the virtual image display area 25. 115 is displayed. In addition, when the user reaches the limit of the reduction process by repeating the reduction operation (when the user cannot reduce any more), the head-mounted display device HM changes the pointer to the shape of the prohibition mark. Change and display.

なお、図10(c)に示すように、右手人差し指を境界27aに沿って下方向(矢印Gの方向)に、左手人差し指を境界27dに沿って右方向(矢印Hの方向)に移動する操作が行われた場合も(言い換えれば、ポインターP1が境界27aに沿って下方向に、ポインターP2が境界27dに沿って右方向に移動するように操作された場合も)、上述と同様に縮小処理(縮小命令)を実行することが可能である。   As shown in FIG. 10C, the right index finger is moved downward (in the direction of arrow G) along the boundary 27a, and the left hand index finger is moved in the right direction (in the direction of arrow H) along the boundary 27d. (In other words, when the pointer P1 is operated to move downward along the boundary 27a and the pointer P2 is moved right along the boundary 27d), the reduction processing is performed in the same manner as described above. (Reduction instruction) can be executed.

なお、上述では、使用者が指定した範囲111に対して拡大処理や縮小処理を実行しているが、例えば、範囲を指定せずに画像G2全体を拡大または縮小することも可能である。また、上述では、使用者に拡大処理や縮小処理を行ったことを報知するために、ポインターP1およびP2の形状を、実行した処理内容に応じた形状に変更して表示しているが、あくまでも一例である。ポインターP1およびP2を上記とは異なる形状(図形)に変更しても良い。また、ポインターP1およびP2のいずれか一方のみを形状変更しても良い。あるいは、両ポインターPの形状を変更しなくても良い。   In the above description, the enlargement process and the reduction process are performed on the range 111 designated by the user. However, for example, the entire image G2 can be enlarged or reduced without specifying the range. In the above description, in order to notify the user that the enlargement process or the reduction process has been performed, the shape of the pointers P1 and P2 is changed to a shape corresponding to the content of the executed process. It is an example. The pointers P1 and P2 may be changed to shapes (graphics) different from the above. Further, the shape of only one of the pointers P1 and P2 may be changed. Alternatively, the shape of both pointers P need not be changed.

また、上述では、画像G2の拡大処理や縮小処理は、1回の操作で所定の倍率ずつ拡大または縮小するようにしているが、これに限るものではなく、例えば、2本の指を移動させる方向(境界27に対する角度)や移動させる距離、移動させる速さ、移動させるタイミング等に応じて拡大率や縮小率を可変するようにしても良い。   In the above description, the enlargement process or the reduction process of the image G2 is performed by enlarging or reducing the image by a predetermined magnification by one operation. However, the present invention is not limited to this. For example, two fingers are moved. The enlargement ratio and the reduction ratio may be varied according to the direction (angle with respect to the boundary 27), the distance to be moved, the speed to be moved, the timing to be moved, and the like.

また、上述では、使用者に拡大処理や縮小処理を行ったことを報知するために、拡大処理を示すプラス記号113および縮小処理を示すマイナス記号115を表示しているが、これに限るものではない。例えば、拡大処理や縮小処理が認識できるようなインジケーター等を表示するようにしても良い。すなわち、使用者に処理内容を認識させることが可能であれば、その形状や手段は問わない。これらは、以下の説明においても同様である。   In the above description, in order to notify the user that the enlargement process or the reduction process has been performed, the plus sign 113 indicating the enlargement process and the minus sign 115 indicating the reduction process are displayed. However, the present invention is not limited to this. Absent. For example, an indicator that can recognize the enlargement process or the reduction process may be displayed. That is, as long as it is possible for the user to recognize the processing contents, the shape and means are not limited. The same applies to the following description.

また、上述では画像G2の拡大縮小について説明したが、例えば、ワードプロセッサ等を用いてテキスト入力を行う場合に、上記と同様の操作で、テキスト入力画面を拡大したり、あるいは縮小したりすることも可能である。   In the above description, the enlargement / reduction of the image G2 has been described. For example, when text input is performed using a word processor or the like, the text input screen may be enlarged or reduced by the same operation as described above. Is possible.

また、上述では、両手を使用して拡大処理や縮小処理を実行する手順について説明したが、片手(例えば、右手の親指と人差し指)で拡大処理や縮小処理を行うことも可能である。例えば、図11に示すように、片手で拡大処理を行う場合は、虚像表示領域25内で右手の親指と人差し指を近づけた状態から(ポインターP1とポインターP2を近づけた状態から)、親指と人差し指を境界27dおよび境界27aに向かって矢印Iおよび矢印Jの方向に広げる操作が行われた場合に拡大処理を実行することができる。   In the above description, the procedure for executing the enlargement process and the reduction process using both hands has been described. However, the enlargement process and the reduction process can be performed with one hand (for example, the thumb and index finger of the right hand). For example, as shown in FIG. 11, when the enlargement process is performed with one hand, the thumb and forefinger from the state in which the thumb and forefinger of the right hand are brought close to each other in the virtual image display area 25 (from the state in which the pointer P1 and the pointer P2 are brought closer). Can be performed when an operation is performed to expand the boundary in the directions of the arrow I and the arrow J toward the boundary 27d and the boundary 27a.

一方、片手で縮小処理を行う場合は、図12に示すように、親指と人差し指を外景視認領域26から境界27dおよび境界27aを跨いで虚像表示領域25側に矢印Kおよび矢印Lの方向に動かす操作(言い換えれば、境界27aと境界27dで形成される角部分を外景視認領域26側から掴む(挟む)ような操作)が行われた場合に縮小処理を実行することができる。   On the other hand, when the reduction process is performed with one hand, as shown in FIG. 12, the thumb and the index finger are moved from the outside scene viewing area 26 to the virtual image display area 25 in the directions of the arrows K and L across the boundaries 27d and 27a. The reduction process can be executed when an operation (in other words, an operation of grasping (squeezing) the corner portion formed by the boundary 27a and the boundary 27d from the outside scene visual recognition area 26 side) is performed.

なお、上述では、拡大処理および縮小処理を、2つの指示体(2つのポインターP1、P2)を境界27aおよび境界27dを跨ぐように(あるいは沿って移動するように)操作することで実行しているが、あくまでも一例であり、これに限るものではない。他の境界27(例えば、境界27bと境界27c等)に対して同様の操作を行った場合でも拡大処理および縮小処理を実行できる。   In the above description, the enlargement process and the reduction process are performed by operating the two indicators (two pointers P1 and P2) so as to straddle the boundary 27a and the boundary 27d (or move along the boundary 27d). However, this is only an example, and the present invention is not limited to this. Even when the same operation is performed on other boundaries 27 (for example, the boundaries 27b and 27c), the enlargement process and the reduction process can be performed.

次に、図13を参照して、画像の回転処理(回転命令)を実行する場合の手順(回転処理を実行するためのユーザーインターフェース)の一例について説明する。   Next, with reference to FIG. 13, an example of a procedure (user interface for executing rotation processing) when executing image rotation processing (rotation command) will be described.

図13(a)に示すように、虚像表示領域25に画像G3を表示し、命令受付モードに遷移した状態で、右手の親指と人差し指を境界27bおよび境界27cを跨ぐように反時計回りに回転する操作が行われた場合(言い換えれば、右手全体を回転させて、ポインターP1およびポインターP2を反時計周りに回転させるような操作が行われた場合)、頭部装着型表示装置HMは、図13(b)に示すように、表示されている画像G3を反時計周りに90度回転する処理(回転命令)を実行する。この時、頭部装着型表示装置HMは、ポインターP1およびP2の形状を回転処理が行われたことを示す矢印形状の図形(回転方向を示す矢印形状の図形)に変更して表示する。   As shown in FIG. 13A, the image G3 is displayed in the virtual image display area 25, and the right thumb and index finger are rotated counterclockwise so as to straddle the boundary 27b and the boundary 27c in the state of transition to the command reception mode. When the operation is performed (in other words, when the entire right hand is rotated and the pointer P1 and the pointer P2 are rotated counterclockwise), the head-mounted display device HM As shown in FIG. 13B, a process (rotation command) for rotating the displayed image G3 by 90 degrees counterclockwise is executed. At this time, the head-mounted display device HM changes the shape of the pointers P1 and P2 to an arrow-shaped graphic (an arrow-shaped graphic indicating the rotation direction) indicating that the rotation processing has been performed, and displays it.

なお、図13(c)に示すように、右手の親指を支点とし(固定し)、人差し指のみを反時計回りに回転させる操作が行われた場合も(言い換えれば、ポインターP2のみを反時計周りに回転させるような操作が行われた場合も)、上述と同様に回転処理(回転命令)を実行することが可能である。また、上述では、画像G3を反時計回りに回転する手順を説明したが、指示体(親指や人差し指)を時計回りに回転操作することで、画像G3を時計回りに90度回転させることができる。また、両手(例えば、両手の人差し指)を使って、同様の回転操作を行うことも可能である。   In addition, as shown in FIG. 13C, there is a case where an operation is performed in which only the index finger is rotated counterclockwise with the thumb of the right hand as a fulcrum (in other words, only the pointer P2 is rotated counterclockwise). The rotation processing (rotation command) can be executed in the same manner as described above. In the above description, the procedure for rotating the image G3 counterclockwise has been described. However, the image G3 can be rotated 90 degrees clockwise by rotating the indicator (thumb or index finger) clockwise. . It is also possible to perform the same rotation operation using both hands (for example, the index fingers of both hands).

また、上述では、1回の回転操作で画像G3を時計周りに90度回転するものとしているが、あくまでも一例であり、回転角度は任意である。例えば、1回の回転操作で45度ずつ回転させるようにしても良い。また、回転角度を、指の回転度合や回転スピード等に基づいて決めても良い。あるいは、同じ位置での指の回転回数に基づいて回転角度を決めても良い。   In the above description, the image G3 is rotated 90 degrees clockwise by one rotation operation. However, this is only an example, and the rotation angle is arbitrary. For example, you may make it rotate 45 degree | times by one rotation operation. Further, the rotation angle may be determined based on the degree of rotation of the finger, the rotation speed, or the like. Alternatively, the rotation angle may be determined based on the number of finger rotations at the same position.

また、上述では、使用者に回転処理を行ったことを報知するために、ポインターP1およびP2の形状を、回転方向を示す矢印形状の図形に変更して表示しているが、あくまでも一例である。ポインターP1およびP2を上記とは異なる形状(図形)に変更しても良い。また、ポインターP1およびP2のいずれか一方のみを形状変更しても良い。あるいは、両ポインターPの形状を変更しなくても良い。   In the above description, in order to notify the user that the rotation process has been performed, the shape of the pointers P1 and P2 is changed to an arrow-shaped graphic indicating the rotation direction, but this is merely an example. . The pointers P1 and P2 may be changed to shapes (graphics) different from the above. Further, the shape of only one of the pointers P1 and P2 may be changed. Alternatively, the shape of both pointers P need not be changed.

また、上述では、回転処理を、2つの指示体(2つのポインターP1、P2)を境界27bおよび境界27cの近傍で回転操作することで実行しているが、あくまでも一例であり、これに限るものではない。他の境界27(例えば、境界27aと境界27d等)に対して同様の操作を行った場合でも回転処理を実行できる。   In the above description, the rotation process is executed by rotating the two indicators (two pointers P1 and P2) in the vicinity of the boundary 27b and the boundary 27c. is not. Even when the same operation is performed on the other boundary 27 (for example, the boundary 27a and the boundary 27d), the rotation process can be executed.

以上説明したように、第1実施形態によれば、使用者が2つのポインターPを虚像表示領域25の境界27の近傍に移動するように(境界27の近傍に位置するように)各指示体を操作するだけで、境界27の近傍に予め割り当てられた所定の命令(処理)を実行できる。すなわち、使用者は煩雑な操作をすることなく、簡単(単純)、且つ直感的な操作で所定の命令を実行できるため、使い勝手が良い。また、簡単な操作で行えるため(煩雑な操作を必要としないため)、誤認識が少なく、安定して動作するユーザーインターフェースを提供できる。   As described above, according to the first embodiment, each indicator is moved so that the user moves the two pointers P in the vicinity of the boundary 27 of the virtual image display region 25 (so as to be positioned in the vicinity of the boundary 27). A predetermined command (processing) preliminarily assigned in the vicinity of the boundary 27 can be executed simply by operating. That is, since the user can execute a predetermined command by a simple (simple) and intuitive operation without performing a complicated operation, it is easy to use. Further, since it can be performed with a simple operation (no complicated operation is required), it is possible to provide a user interface that operates stably and has few misrecognitions.

なお、本実施例で述べた各種命令を実行するための指示体の操作方法(各種命令を実行するためのポインターPの動き)は一例であり、これに限るものではない。   Note that the operation method of the indicator for executing the various commands described in this embodiment (the movement of the pointer P for executing the various commands) is an example, and is not limited thereto.

また、本実施例における各種命令の割り当て位置は一例であり、これに限るものではない。例えば、2つの指示体が虚像表示領域25から左右の境界27b、27a(または上下の境界27c、27d)を越えて外景視認領域26に移動するように操作された場合に拡大処理をし、外景視認領域26から左右の境界27b、27a(または上下の境界27c、27d)を越えて虚像表示領域25に移動するように操作された場合に縮小処理を実行するよう命令を割り当てても良い。   Moreover, the allocation positions of various instructions in this embodiment are merely examples, and the present invention is not limited to this. For example, when two indicators are operated to move from the virtual image display area 25 to the outside scene visual recognition area 26 beyond the left and right boundaries 27b and 27a (or the upper and lower boundaries 27c and 27d), the enlargement process is performed. An instruction may be assigned to execute the reduction process when the viewing area 26 is operated to move to the virtual image display area 25 beyond the left and right boundaries 27b and 27a (or the upper and lower boundaries 27c and 27d).

また、本実施例で説明した拡大縮小処理や回転処理等を行うための命令を組み合わせて割り当てることで、例えば、拡大処理と回転処理とを連続的に実行することも可能である。   Further, for example, the enlargement process and the rotation process can be continuously executed by combining and assigning instructions for performing the enlargement / reduction process and the rotation process described in the present embodiment.

また、本実施例で説明した命令以外の命令を割り当てることも可能である。例えば、虚像表示領域25に映画を表示している場合には、上述の拡大縮小処理の操作と同様の操作をすることで音量を調節するような命令を割り当てる等、コンテンツに応じた命令を割り当てることが可能である。つまり、コンテンツに応じて、各境界27の近傍に異なる命令を割り当ても良い。   It is also possible to assign instructions other than the instructions described in this embodiment. For example, when a movie is displayed in the virtual image display area 25, a command corresponding to the content is assigned, such as a command for adjusting the volume by performing the same operation as the above-described enlargement / reduction processing. It is possible. In other words, different commands may be assigned to the vicinity of each boundary 27 according to the content.

また、本実施例では、2つの指示体として2本の指(指先)を例示しているが、両手の手のひら(手のひらの曲線)を指示体として検出しても良い。例えば、両手の手のひらを使って画像の拡大処理を行う場合、図14に示すように、両手の手のひらを指示体として検出してポインターP1およびP2を表示し、両手の手のひら(ポインターP1およびP2)を虚像表示領域25から外景視認領域26に向かう方向に(矢印Mおよび矢印Nの方向に)広げる動作をし、境界27aおよび境界27bの近傍に移動させることで画像G4を拡大することができる。すなわち、画像G4を中心に、両手を外側に広げる動作をすることで拡大処理を行うことができる。なお、縮小処理の場合は、拡大処理と反対の操作、すなわち、外景視認領域26側から虚像表示領域25に向かう方向に(虚像表示領域25内の画像G4に向かって)両手の手のひらを近づける動作をすることで実行することができる。   In the present embodiment, two fingers (fingertips) are illustrated as two indicators, but the palms of both hands (the palm curve) may be detected as the indicators. For example, when image enlargement processing is performed using the palms of both hands, as shown in FIG. 14, the palms of both hands are detected as indicators and pointers P1 and P2 are displayed, and the palms of both hands (pointers P1 and P2). Is expanded in the direction from the virtual image display area 25 to the outside scene visually recognizing area 26 (in the directions of arrows M and N) and moved to the vicinity of the boundary 27a and the boundary 27b, so that the image G4 can be enlarged. That is, the enlargement process can be performed by performing an operation of spreading both hands outward with the image G4 as the center. In the case of the reduction process, an operation opposite to the enlargement process, that is, an operation of bringing the palms of both hands closer to the virtual image display area 25 from the outside scene visual recognition area 26 side (toward the image G4 in the virtual image display area 25). Can be executed.

また、本実施例では、2つの指示体を用いて各種処理を実行しているが、これに限るものではなく、3つ以上の指示体を用いる場合にも適用可能である。   In the present embodiment, various processes are executed using two indicators, but the present invention is not limited to this, and the present invention can be applied to the case where three or more indicators are used.

また、本実施例では、虚像表示領域25の大きさが、外景視認領域26の大きさよりも小さい場合を例示しているが、これに限るものではない。虚像表示領域25と外景視認領域26の大きさが同じである場合(言い換えれば、虚像表示領域25が視界21と同等の大きさの場合)、あるいは虚像表示領域25が外景視認領域26よりも大きい場合(言い換えれば、虚像表示領域25が視界21よりも大きい場合)においても、本発明は適用可能である。後者の場合、請求項における「所定の表示領域」は外景視認領域26の縁部(視界21の縁部)となり、「表示周辺領域」は外景視認領域26の外側の領域、すなわち視界21の外側の領域となる。   In the present embodiment, the case where the size of the virtual image display area 25 is smaller than the size of the outside scene visual recognition area 26 is illustrated, but the present invention is not limited to this. When the virtual image display area 25 and the outside scene visual recognition area 26 have the same size (in other words, when the virtual image display area 25 has the same size as the visual field 21), or the virtual image display area 25 is larger than the external scene visual recognition area 26 The present invention can also be applied to cases (in other words, the virtual image display area 25 is larger than the field of view 21). In the latter case, the “predetermined display area” in the claims is the edge of the outside scene visual recognition area 26 (the edge of the visual field 21), and the “display peripheral area” is an area outside the external scene visual recognition area 26, that is, outside the visual field 21. It becomes the area of.

[第2実施形態]
次に、図15および図16を参照し、本発明の第2実施形態について説明する。上記の第1実施形態では、使用者に虚像を視認させる画像表示部40や画像表示部40を制御する制御部30等を1つの筐体内(装置内)に実装して頭部装着型表示装置HMを実現しているが、本実施形態では、これらを別々の装置として実現して接続することで頭部装着型表示装置HMを構成する。以下、第1実施形態と異なる点を説明する。なお、本実施形態において、第1実施形態と同様の構成部分については同様の符号を付し、詳細な説明を省略する。また、第1実施形態と同様の構成部分について適用される変形例は、本実施形態についても同様に適用される。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. 15 and 16. In the first embodiment, the image display unit 40 that allows the user to visually recognize a virtual image, the control unit 30 that controls the image display unit 40, and the like are mounted in one housing (inside the device), and the head-mounted display device. In this embodiment, the head-mounted display device HM is configured by realizing and connecting these as separate devices. Hereinafter, differences from the first embodiment will be described. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Moreover, the modification applied about the component similar to 1st Embodiment is applied similarly about this embodiment.

図15は、第2実施形態に係る頭部装着型表示装置HMの外観構成を示す説明図である。頭部装着型表示装置HMは、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示装置300と、画像表示装置300を制御するコントローラー200(制御装置)と、を備えている。請求項における表示装置は、コントローラー200および画像表示装置300を主要な構成要素とする。   FIG. 15 is an explanatory diagram showing an external configuration of a head-mounted display device HM according to the second embodiment. The head-mounted display device HM includes an image display device 300 that allows the user to visually recognize a virtual image while being mounted on the user's head, and a controller 200 (control device) that controls the image display device 300. ing. The display device in the claims has the controller 200 and the image display device 300 as main components.

画像表示装置300は、右保持部11、右表示駆動部12、左保持部13、左表示駆動部14、右光学像表示部15、左光学像表示部16、およびセンサー17に加え、画像表示装置300をコントローラー200に接続するための接続部310を有している。   The image display device 300 displays an image in addition to the right holding unit 11, the right display driving unit 12, the left holding unit 13, the left display driving unit 14, the right optical image display unit 15, the left optical image display unit 16, and the sensor 17. A connection part 310 for connecting the apparatus 300 to the controller 200 is provided.

接続部310は、コントローラー200に接続される本体コード311と、本体コード311が2本に分岐した右コード312と、左コード313と、分岐点に設けられた連結部材314と、を含んでいる。右コード312は、右保持部11の延伸方向の先端部APから右保持部11の筐体内に挿入され、右表示駆動部12に接続されている。同様に、左コード313は、左保持部13の延伸方向の先端部APから左保持部13の筐体内に挿入され、左表示駆動部14に接続されている。   The connection unit 310 includes a main body cord 311 connected to the controller 200, a right cord 312 in which the main body cord 311 branches in two, a left cord 313, and a connecting member 314 provided at a branch point. . The right cord 312 is inserted into the casing of the right holding unit 11 from the distal end AP in the extending direction of the right holding unit 11 and is connected to the right display driving unit 12. Similarly, the left cord 313 is inserted into the housing of the left holding unit 13 from the distal end AP in the extending direction of the left holding unit 13 and is connected to the left display driving unit 14.

画像表示装置300とコントローラー200とは、接続部310を介して各種信号の伝送を行う。本体コード311における連結部材314とは反対側の端部と、コントローラー200とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード311のコネクターとコントローラー200のコネクターとの嵌合/嵌合解除により、コントローラー200と画像表示装置300とが接続されたり切り離されたりする。本体コード311と、右コード312と、左コード313には、例えば、金属ケーブルや、光ファイバーを採用することができる。   The image display device 300 and the controller 200 transmit various signals via the connection unit 310. Each end of the main body cord 311 opposite to the connecting member 314 and the controller 200 are each provided with a connector (not shown) that fits with each other. The connector of the main body cord 311 and the connector of the controller 200 are connected to each other. The controller 200 and the image display apparatus 300 are connected to or disconnected from each other by the fitting / releasing of. For the main body cord 311, the right cord 312, and the left cord 313, for example, a metal cable or an optical fiber can be used.

コントローラー200は、画像表示装置300と接続部310を介して接続し、画像表示装置300による画像表示を制御する装置である。コントローラー200は、点灯部201と、タッチパッド202と、操作キー群203と、電源スイッチ204とを有している。   The controller 200 is an apparatus that is connected to the image display apparatus 300 via the connection unit 310 and controls image display by the image display apparatus 300. The controller 200 includes a lighting unit 201, a touch pad 202, an operation key group 203, and a power switch 204.

点灯部201は、頭部装着型表示装置HMの動作状態を、その発光状態によって通知する。頭部装着型表示装置HMの動作状態とは、例えば、電源のON/OFF状態等である。点灯部201としては、例えば、LED(Light Emitting Diode)を用いることができる。   The lighting unit 201 notifies the operation state of the head-mounted display device HM according to the light emission state. The operating state of the head-mounted display device HM is, for example, an ON / OFF state of a power source. For example, an LED (Light Emitting Diode) can be used as the lighting unit 201.

タッチパッド202は、操作面上で使用者の指の操作を検出して、検出内容に応じた信号を出力する。例えば、使用者によるポインティング(位置指定)操作や、クリック操作、ドラッグ操作、フリック操作等を受け付けることができる。   The touch pad 202 detects a user's finger operation on the operation surface and outputs a signal corresponding to the detected content. For example, a pointing (position designation) operation, a click operation, a drag operation, a flick operation, and the like by the user can be accepted.

本実施例のタッチパッド202は、第1実施形態の指示体としても機能する。すなわち、2本の指でタッチパッド202の操作することにより各指に対応した2つのポインターを虚像表示領域25に表示し、操作面上での操作に基づき2つのポインターを移動させることにより、上述したメニュー画面の表示や、画像等の拡大縮小処理、回転処理等の各種命令を実行することができる。   The touch pad 202 of this example also functions as an indicator of the first embodiment. That is, by operating the touch pad 202 with two fingers, two pointers corresponding to each finger are displayed in the virtual image display area 25, and by moving the two pointers based on the operation on the operation surface, Various commands such as display of the menu screen, enlargement / reduction processing of images, etc., rotation processing, etc. can be executed.

操作キー群203は、方向キー、決定キー、バックキー等の各種操作キーを備える。各操作キーは、使用者に押下されることにより、押下された操作キーに予め対応づけられた処理を示す信号を出力する。電源スイッチ204は、スイッチのスライド操作を検出することで、頭部装着型表示装置HMの電源ON/OFFを切り替える。   The operation key group 203 includes various operation keys such as a direction key, a determination key, and a back key. Each operation key, when pressed by the user, outputs a signal indicating a process associated with the pressed operation key in advance. The power switch 204 switches the power ON / OFF of the head-mounted display device HM by detecting a slide operation of the switch.

図16は、第2実施形態に係る頭部装着型表示装置HMの構成を機能的に示すブロック図である。図16に示すように、コントローラー200は、制御部30、電源部71およびインターフェース72に加え、操作部211を有している。操作部211は、タッチパッド202、操作キー群203(方向キー、決定キー、バックキー)や電源スイッチ204である。   FIG. 16 is a block diagram functionally showing the configuration of the head-mounted display device HM according to the second embodiment. As illustrated in FIG. 16, the controller 200 includes an operation unit 211 in addition to the control unit 30, the power supply unit 71, and the interface 72. The operation unit 211 includes a touch pad 202, operation key group 203 (direction key, determination key, back key) and power switch 204.

また、制御部30のCPU50は、記憶部60からコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)51や、画像処理部52、表示制御部53、画像解析部54、命令実行部55および音声処理部56に加え、操作制御部212としても機能する。   In addition, the CPU 50 of the control unit 30 reads out and executes a computer program from the storage unit 60 to thereby execute an operating system (OS) 51, an image processing unit 52, a display control unit 53, an image analysis unit 54, and an instruction execution unit 55. In addition to the voice processing unit 56, it also functions as the operation control unit 212.

操作制御部212は、操作部211における使用者の操作に応じて操作部211から出力される信号を受信し、画像処理部52や表示制御部53等に信号に応じた動作を行わせる。例えば、操作部211から使用者がタッチパッド202に触れたこと示す信号を受信し(検出し)、画像処理部52や表示制御部53等にポインターPの表示等を行わせる。すなわち、本実施例の操作制御部212は、請求項における指示体検出部に相当する。   The operation control unit 212 receives a signal output from the operation unit 211 in response to a user operation on the operation unit 211, and causes the image processing unit 52, the display control unit 53, and the like to perform an operation according to the signal. For example, a signal indicating that the user has touched the touch pad 202 is received (detected) from the operation unit 211, and the pointer P is displayed on the image processing unit 52, the display control unit 53, or the like. That is, the operation control unit 212 of the present embodiment corresponds to a pointer detection unit in the claims.

画像表示装置300は、右表示駆動部12、左表示駆動部14、右光学像表示部15としての右導光板86、および左光学像表示部16としての左導光板96から成る画像表示部40と、センサー17と、右イヤホン18と、左イヤホン19と、を有している。これら各部の構成は第1実施形態と同様であるため、説明を省略する。   The image display device 300 includes the right display driving unit 12, the left display driving unit 14, the right light guide plate 86 as the right optical image display unit 15, and the left light guide plate 96 as the left optical image display unit 16. And a sensor 17, a right earphone 18, and a left earphone 19. Since the configuration of each part is the same as that of the first embodiment, the description thereof is omitted.

このように、頭部装着型表示装置HMを、使用者に虚像を視認させる画像表示装置300と、画像表示装置300を制御するコントローラー200とにより構成する場合においても、本発明は適用可能である。   Thus, the present invention can also be applied to the case where the head-mounted display device HM includes the image display device 300 that allows the user to visually recognize a virtual image and the controller 200 that controls the image display device 300. .

なお、本実施例では、コントローラー200と画像表示装置300とが接続部310により有線接続される構成を例示しているが、コントローラー200と画像表示装置300とが無線LANや赤外線通信、Bluetooth(登録商標)等により接続する構成としても良い。   In this embodiment, the controller 200 and the image display device 300 are illustrated as being connected by wire through the connection unit 310. However, the controller 200 and the image display device 300 may be connected to each other via a wireless LAN, infrared communication, or Bluetooth (registration). (Trademark) or the like.

また、タッチパッド202の操作面の外周(周辺)に、外景視認領域26に対応する操作領域(以下、「周辺操作領域」と称す)を設けても良い。これにより、例えば、タッチパッド202の操作面から周辺操作領域に指を移動(フリック)させることで、虚像表示領域25から境界27を超えて外景視認領域26にポインターPを移動させるような操作が可能となり、周辺操作領域から操作面に指を移動させることで、外景視認領域26から境界27を超えて虚像表示領域25にポインターPを移動させるような操作が可能となる。すなわち、操作面と周辺操作領域の境目を境界27とみなすことができるため、タッチパッド202を使用する場合においても直感的な操作が可能となる。   Further, an operation area (hereinafter referred to as “peripheral operation area”) corresponding to the outside scene visual recognition area 26 may be provided on the outer periphery (periphery) of the operation surface of the touch pad 202. As a result, for example, by moving (flicking) a finger from the operation surface of the touch pad 202 to the peripheral operation area, an operation of moving the pointer P from the virtual image display area 25 to the outside scene visual recognition area 26 across the boundary 27 is performed. Thus, by moving a finger from the peripheral operation area to the operation surface, an operation of moving the pointer P from the outside scene viewing area 26 to the virtual image display area 25 beyond the boundary 27 is possible. In other words, since the boundary between the operation surface and the peripheral operation area can be regarded as the boundary 27, an intuitive operation is possible even when the touch pad 202 is used.

また、本実施例のコントローラー200の機能をパーソナルコンピュータ(PC)、携帯情報端末(PAD、携帯電話、時計型携帯端末)等により実現しても良い。   Further, the function of the controller 200 of the present embodiment may be realized by a personal computer (PC), a personal digital assistant (PAD, mobile phone, watch-type mobile terminal) or the like.

また、上記実施例(第1実施形態および第2実施形態)では、表示装置として両眼タイプの頭部装着型表示装置HM(光学透過型頭部装着型表示装置)を例示しているが、本発明は、例えばビデオ透過型や非透過型、単眼タイプ等の他の形式の頭部装着型表示装置にも適用可能である。また、上記実施例では、眼の前方を覆う眼鏡タイプの頭部装着型表示装置HMを例示しているが、これに限るものではなく、眼の前方を完全に覆わないタイプ(眼の前方の一部を覆うタイプ)の頭部装着型表示装置にも適用可能である。さらに、本発明は、頭部装着型表示装置に限らず、ヘッドアップディスプレイや、パーソナルコンピュータ、プロジェクター、テレビ、携帯情報端末といった他の情報処理装置にも適用可能である。   In the above-described examples (first embodiment and second embodiment), the binocular head-mounted display device HM (optical transmission type head-mounted display device) is exemplified as the display device. The present invention is also applicable to other types of head mounted display devices such as a video transmission type, a non-transmission type, and a monocular type. In the above embodiment, the eyeglass-type head-mounted display device HM that covers the front of the eye is illustrated, but the present invention is not limited to this, and the type that does not completely cover the front of the eye (the front of the eye). The present invention can also be applied to a head-mounted display device of a type that partially covers). Furthermore, the present invention is not limited to a head-mounted display device, and can be applied to other information processing devices such as a head-up display, a personal computer, a projector, a television, and a portable information terminal.

また、上記実施例では、画像光生成部は、バックライト制御部(右バックライト制御部81および左バックライト制御部91)と、バックライト(右バックライト82および左バックライト92)と、LCD制御部(右LCD制御部83および左LCD制御部93)と、LCD(右LCD84および左LCD94)とを用いて構成されるものとしたが、この様態はあくまでも一例である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えても良い。   In the above embodiment, the image light generation unit includes a backlight control unit (right backlight control unit 81 and left backlight control unit 91), a backlight (right backlight 82 and left backlight 92), an LCD Although the control unit (the right LCD control unit 83 and the left LCD control unit 93) and the LCD (the right LCD 84 and the left LCD 94) are configured, this mode is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units.

例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス,Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon,LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。レーザー網膜投影型の場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。すなわち、この画像領域は、本実施形態における虚像表示領域25に相当する。また、頭部装着型表示装置の光学系は、外光を光学部材を透過させて画像光と共に使用者の眼に入射させるもので有り使用者の眼の一部を覆うものであっても良く、光学部材はレーザー等の走査方式の画像光であっても良く、光学部材は画像光を部材内部を導光させる物に限らず、使用者の眼の方向に屈折または反射させる機能のみを有しても良い。   For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device. In the case of the laser retinal projection type, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes. That is, this image area corresponds to the virtual image display area 25 in the present embodiment. Further, the optical system of the head-mounted display device may be configured to allow external light to pass through the optical member and enter the user's eyes together with the image light, and may cover a part of the user's eyes. The optical member may be scanning type image light such as a laser, and the optical member is not limited to an object that guides the image light inside the member, but only has a function of refracting or reflecting the image light in the direction of the user's eyes. You may do it.

また、本実施例では、光学系として画像光生成部で射出された画像光を投写する投写光学系(右投写光学系85および左投写光学系95)を適用しているが、この様態はあくまでも一例である。例えば、光学系としてMEMSミラーで構成された走査光学系を採用し、走査光学系に信号光を射出する信号光変調部(信号光形成部)を備える構成としても良い。この場合、信号光変調部で形成し射出された信号光をスキャン部である走査光学系(MEMSミラー)に入射する。走査光学系は信号光を走査光としてハーフミラー層を有する導光体に向けて射出し、ハーフミラー層の面上において走査光が走査されることにより、画像光による虚像が形成され、この虚像を使用者が眼で捉えることで画像を認識することができる。この場合、使用者の眼が画像を認識する領域が、本実施形態における虚像表示領域25に相当する。すなわち、走査光学系を用いた場合においても、上述の方法によりポインター等の画像を使用者に認識させ、当該ポインターの移動により虚像表示領域25の境界27の近傍に割り当てられた命令の実行を制御することができる。   In this embodiment, the projection optical system (the right projection optical system 85 and the left projection optical system 95) that projects the image light emitted from the image light generation unit is applied as the optical system. It is an example. For example, a scanning optical system composed of a MEMS mirror may be employed as the optical system, and a signal light modulation unit (signal light forming unit) that emits signal light to the scanning optical system may be provided. In this case, the signal light formed and emitted by the signal light modulation unit is incident on a scanning optical system (MEMS mirror) that is a scanning unit. The scanning optical system emits signal light as scanning light toward a light guide having a half mirror layer, and the scanning light is scanned on the surface of the half mirror layer to form a virtual image by image light. The user can recognize the image by grasping with the eyes. In this case, the area where the user's eyes recognize the image corresponds to the virtual image display area 25 in the present embodiment. That is, even when the scanning optical system is used, the user recognizes an image such as a pointer by the above-described method, and the execution of the command assigned near the boundary 27 of the virtual image display area 25 is controlled by the movement of the pointer. can do.

また、上記の実施形態に示した頭部装着型表示装置HMの各機能(各処理)をプログラムとして提供することが可能である。また、そのプログラムを各種記録媒体(CD−ROM、フラッシュメモリ等)に格納して提供することも可能である。すなわち、コンピューターを、頭部装着型表示装置HMの各構成要素として機能させるためのプログラム、およびそれを記録した記録媒体も、本発明の権利範囲に含まれるものである。   Moreover, it is possible to provide each function (each process) of the head-mounted display device HM shown in the above embodiment as a program. Further, the program can be provided by being stored in various recording media (CD-ROM, flash memory, etc.). That is, a program for causing a computer to function as each component of the head-mounted display device HM and a recording medium on which the program is recorded are also included in the scope of the right of the present invention.

また、上述した実施例によらず、頭部装着型表示装置HMの装置構成や処理工程等について、本発明の要旨を逸脱しない範囲で、適宜変更も可能である。   Further, regardless of the above-described embodiments, the device configuration and processing steps of the head-mounted display device HM can be appropriately changed without departing from the gist of the present invention.

15…右光学像表示部 16…左光学像表示部 17…センサー 25…虚像表示領域 26…外景視認領域 27、27a〜27d…境界 30…制御部 40…画像表示部 52…画像処理部 53…表示制御部 54…画像解析部 55…命令実行部 81…右バックライト制御部 82…右バックライト 83…右LCD制御部 84…右LCD 86…右導光板 91…左バックライト制御部 92…左バックライト 93…左LCD制御部 94…左LCD 96…左導光板 200…コントローラー 300…画像表示装置 P、P1、P2…ポインター IC…アイコン HM…頭部装着型表示装置   DESCRIPTION OF SYMBOLS 15 ... Right optical image display part 16 ... Left optical image display part 17 ... Sensor 25 ... Virtual image display area 26 ... Outside view visual recognition area 27, 27a-27d ... Boundary 30 ... Control part 40 ... Image display part 52 ... Image processing part 53 ... Display control unit 54 ... Image analysis unit 55 ... Command execution unit 81 ... Right backlight control unit 82 ... Right backlight 83 ... Right LCD control unit 84 ... Right LCD 86 ... Right light guide plate 91 ... Left backlight control unit 92 ... Left Backlight 93 ... Left LCD controller 94 ... Left LCD 96 ... Left light guide plate 200 ... Controller 300 ... Image display device P, P1, P2 ... Pointer IC ... Icon HM ... Head-mounted display device

Claims (16)

使用者が操作する複数の指示体を検出する指示体検出部と、
前記指示体検出部により前記各指示体を検出して、前記各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、
前記各指示体の操作に伴って、複数の前記ポインターが、前記所定の表示領域と、前記所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、前記複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする表示装置。
An indicator detection unit for detecting a plurality of indicators operated by the user;
A pointer display unit that detects each indicator by the indicator detection unit and displays a pointer that operates in conjunction with each of the indicators in a predetermined display area;
When the plurality of pointers move to the vicinity of the boundary between the predetermined display area and a display peripheral area other than the predetermined display area in accordance with the operation of each indicator, the plurality of pointers An instruction execution unit that executes a predetermined instruction according to the movement of the display device.
前記命令実行部は、
前記複数のポインターの前記境界の近傍への移動順序に応じて、異なる命令を実行することを特徴とする請求項1に記載の表示装置。
The instruction execution unit is
The display device according to claim 1, wherein different instructions are executed according to a movement order of the plurality of pointers to the vicinity of the boundary.
前記命令実行部は、
前記複数のポインターのうちの、少なくとも1のポインターが前記境界の近傍に移動した場合、前記表示領域の内縁に沿って枠画像を表示することを特徴とする請求項1または2に記載の表示装置。
The instruction execution unit is
3. The display device according to claim 1, wherein a frame image is displayed along an inner edge of the display area when at least one of the plurality of pointers moves in the vicinity of the boundary. .
前記命令実行部は、
前記指示体検出部により、前記複数の指示体が前記所定の表示領域から前記境界を越えて前記表示周辺領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することを特徴とする請求項1ないし3のいずれか1項に記載の表示装置。
The instruction execution unit is
When the indicator detection unit detects that the plurality of indicators are operated in a direction to move from the predetermined display area to the display peripheral area beyond the boundary, a predetermined instruction is executed. The display device according to claim 1, wherein the display device is a display device.
前記命令実行部は、
前記指示体検出部により、前記複数の指示体が前記表示周辺領域から前記境界を越えて前記所定の表示領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することを特徴とする請求項1ないし4のいずれか1項に記載の表示装置。
The instruction execution unit is
When the indicator detection unit detects that the plurality of indicators are operated from the display peripheral area to the predetermined display area across the boundary, a predetermined command is executed. The display device according to claim 1, wherein the display device is characterized.
前記命令実行部は、
前記指示体検出部により、前記複数のポインターが前記境界に沿って移動する前記複数の指示体の操作を検出した場合、所定の命令を実行することを特徴とする請求項1ないし5のいずれか1項に記載の表示装置。
The instruction execution unit is
The predetermined instruction is executed when the pointer detection unit detects an operation of the plurality of pointers in which the plurality of pointers move along the boundary. Item 1. A display device according to item 1.
前記命令実行部は、
前記複数のポインターが前記境界に沿って移動する際の前記複数のポインターの移動方向に応じて、異なる命令を実行することを特徴とする請求項6に記載の表示装置。
The instruction execution unit is
The display device according to claim 6, wherein different instructions are executed according to a moving direction of the plurality of pointers when the plurality of pointers move along the boundary.
前記命令実行部は、
前記複数のポインターが前記境界の近傍にある状態で、前記複数の指示体のうち少なくとも1の指示体が回転動作された場合、前記所定の表示領域に表示された画像を前記指示体の回転方向に回転させることを特徴とする請求項1ないし7のいずれか1項に記載の表示装置。
The instruction execution unit is
When at least one indicator among the plurality of indicators is rotated in a state where the plurality of pointers are in the vicinity of the boundary, an image displayed in the predetermined display area is displayed in a rotation direction of the indicator. The display device according to claim 1, wherein the display device is rotated.
前記命令実行部は、
前記境界の近傍における前記各指示体の動作に応じて、所定の命令を実行することを特徴とする請求項1ないし8のいずれか1項に記載の表示装置。
The instruction execution unit is
The display device according to claim 1, wherein a predetermined command is executed in accordance with an operation of each indicator in the vicinity of the boundary.
前記命令実行部は、
前記指示体検出部により、前記複数の指示体が前記表示周辺領域から前記境界を跨いで前記所定の表示領域に表示されたアイコンを挟む動作を検出した場合、前記アイコンに割り当てられた所定の命令を実行することを特徴とする請求項1ないし9のいずれか1項に記載の表示装置。
The instruction execution unit is
When the indicator detection unit detects an operation in which the plurality of indicators sandwich the icon displayed in the predetermined display area across the boundary from the display peripheral area, a predetermined command assigned to the icon The display device according to claim 1, wherein the display device is executed.
前記命令実行部は、
表示されているコンテンツに応じた所定の命令を実行することを特徴とする請求項1ないし10のいずれか1項に記載の表示装置。
The instruction execution unit is
The display device according to any one of claims 1 to 10, wherein a predetermined command corresponding to the displayed content is executed.
請求項1ないし11のいずれか1項に記載の表示装置であって、
前記表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、
前記指示体検出部は、
使用者が、前記透過型の表示装置の使用者側の反対側である前記表示装置の外側前方で操作する前記複数の指示体を検出することを特徴とする表示装置。
The display device according to any one of claims 1 to 11,
The display device is a transmissive display device that allows a user to visually recognize an image as a virtual image,
The indicator detection unit includes:
A display device, wherein a user detects the plurality of indicators that are operated in front of the outside of the display device that is opposite to a user side of the transmissive display device.
請求項1ないし11のいずれか1項に記載の表示装置であって、
前記表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、
前記透過型の表示装置の画像表示部は、
表示対象となる画像データを用いて画像を表す画像光を生成して射出させる画像光生成部と、
射出された前記画像光を前記使用者の眼に導く光学部材と、を含み、
外景の光を前記光学部材を透過して前記画像光と共に前記使用者の眼に入射させることを特徴とする表示装置。
The display device according to any one of claims 1 to 11,
The display device is a transmissive display device that allows a user to visually recognize an image as a virtual image,
The image display unit of the transmissive display device includes:
An image light generation unit that generates and emits image light representing an image using image data to be displayed; and
An optical member for guiding the emitted image light to the eyes of the user,
A display device characterized in that light of an outside scene passes through the optical member and enters the user's eyes together with the image light.
画像を虚像として使用者に視認させる透過型の頭部装着型表示装置であって、
使用者が操作する複数の指示体を検出する指示体検出部と、
前記指示体検出部により前記各指示体を検出して、前記各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、
前記各指示体の操作に伴って、複数の前記ポインターが、前記所定の表示領域と、前記所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、前記複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする頭部装着型表示装置。
A transmissive head-mounted display device that allows a user to visually recognize an image as a virtual image,
An indicator detection unit for detecting a plurality of indicators operated by the user;
A pointer display unit that detects each indicator by the indicator detection unit and displays a pointer that operates in conjunction with each of the indicators in a predetermined display area;
When the plurality of pointers move to the vicinity of the boundary between the predetermined display area and a display peripheral area other than the predetermined display area in accordance with the operation of each indicator, the plurality of pointers And a command execution unit that executes a predetermined command according to the movement of the head.
前記指示体検出部は、
前記頭部装着型表示装置を装着した状態における前記使用者の前方を撮像することで、前記複数の指示体を検出することを特徴とする請求項14に記載の頭部装着型表示装置。
The indicator detection unit includes:
The head-mounted display device according to claim 14, wherein the plurality of indicators are detected by imaging the front of the user in a state where the head-mounted display device is mounted.
表示装置が、
使用者が操作する複数の指示体を検出するステップと、
前記各指示体を検出して、前記各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するステップと、
前記各指示体の操作に伴って、複数の前記ポインターが、前記所定の表示領域と、前記所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、前記複数のポインターの動きに応じた所定の命令を実行するステップと、を実行することを特徴とする表示装置の制御方法。
Display device
Detecting a plurality of indicators operated by the user;
Detecting each indicator and displaying a pointer that operates in conjunction with each of the indicators in a predetermined display area;
When the plurality of pointers move to the vicinity of the boundary between the predetermined display area and a display peripheral area other than the predetermined display area in accordance with the operation of each indicator, the plurality of pointers And a step of executing a predetermined command in accordance with the movement of the display device.
JP2013010015A 2013-01-23 2013-01-23 Display device, head-mounted display device, and display device control method Active JP6251957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013010015A JP6251957B2 (en) 2013-01-23 2013-01-23 Display device, head-mounted display device, and display device control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013010015A JP6251957B2 (en) 2013-01-23 2013-01-23 Display device, head-mounted display device, and display device control method

Publications (2)

Publication Number Publication Date
JP2014142751A true JP2014142751A (en) 2014-08-07
JP6251957B2 JP6251957B2 (en) 2017-12-27

Family

ID=51423989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013010015A Active JP6251957B2 (en) 2013-01-23 2013-01-23 Display device, head-mounted display device, and display device control method

Country Status (1)

Country Link
JP (1) JP6251957B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160066451A (en) * 2014-12-02 2016-06-10 경북대학교 산학협력단 Head mounted display device and control method thereof
JP2017091433A (en) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP2017120488A (en) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 Display device, display system, control method of display device, and program
JP2017120302A (en) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 Display device, display system, control method of display device, and program
WO2019059044A1 (en) * 2017-09-20 2019-03-28 日本電気株式会社 Information processing device, control method, and program
JP6499384B2 (en) * 2016-08-24 2019-04-10 ナーブ株式会社 Image display apparatus, image display method, and image display program
CN109690455A (en) * 2017-06-29 2019-04-26 苹果公司 Finger-worn type device with sensor and haptics member
WO2019097843A1 (en) * 2017-11-16 2019-05-23 株式会社デンソー Virtual image display system, virtual image display device, operation input device, method for displaying virtual image, program, and recording medium
US10795438B2 (en) 2018-04-05 2020-10-06 Apple Inc. Electronic finger devices with charging and storage systems
US10845894B2 (en) 2018-11-29 2020-11-24 Apple Inc. Computer systems with finger devices for sampling object attributes
JP2020198108A (en) * 2017-04-28 2020-12-10 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method of information processing device, and program
US11042233B2 (en) 2018-05-09 2021-06-22 Apple Inc. Finger-mounted device with fabric
US11287886B1 (en) 2020-09-15 2022-03-29 Apple Inc. Systems for calibrating finger devices
US11709554B1 (en) 2020-09-14 2023-07-25 Apple Inc. Finger devices with adjustable housing structures
US11755107B1 (en) 2019-09-23 2023-09-12 Apple Inc. Finger devices with proximity sensors
US11762429B1 (en) 2017-09-14 2023-09-19 Apple Inc. Hinged wearable electronic devices

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2005321870A (en) * 2004-05-06 2005-11-17 Alpine Electronics Inc Operation input device and operation input method
JP2008017501A (en) * 2007-07-27 2008-01-24 Fujifilm Corp Electronic camera
WO2009072504A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Control device, input device, control system, control method, and hand-held device
JP2009251154A (en) * 2008-04-03 2009-10-29 Konica Minolta Holdings Inc Head mounted type video display
JP2010086367A (en) * 2008-10-01 2010-04-15 Sony Corp Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
JP2010096864A (en) * 2008-10-14 2010-04-30 Canon Inc Aberration correction method, image processing apparatus and image processing system
JP2011054165A (en) * 2009-09-02 2011-03-17 Pixart Imaging Inc Gesture recognition method for interactive system, and the interactive system
WO2011055451A1 (en) * 2009-11-06 2011-05-12 パイオニア株式会社 Information processing device, method therefor, and display device
JP2012118796A (en) * 2010-12-01 2012-06-21 Sony Corp Information processing apparatus, information processing method and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2005321870A (en) * 2004-05-06 2005-11-17 Alpine Electronics Inc Operation input device and operation input method
JP2008017501A (en) * 2007-07-27 2008-01-24 Fujifilm Corp Electronic camera
WO2009072504A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Control device, input device, control system, control method, and hand-held device
JP2009251154A (en) * 2008-04-03 2009-10-29 Konica Minolta Holdings Inc Head mounted type video display
JP2010086367A (en) * 2008-10-01 2010-04-15 Sony Corp Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
JP2010096864A (en) * 2008-10-14 2010-04-30 Canon Inc Aberration correction method, image processing apparatus and image processing system
JP2011054165A (en) * 2009-09-02 2011-03-17 Pixart Imaging Inc Gesture recognition method for interactive system, and the interactive system
WO2011055451A1 (en) * 2009-11-06 2011-05-12 パイオニア株式会社 Information processing device, method therefor, and display device
JP2012118796A (en) * 2010-12-01 2012-06-21 Sony Corp Information processing apparatus, information processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
木村勝敏 他: ""ジェスチャを用いたユーザインタフェースの構築"", 情報処理学会第68回全国大会講演論文集(4), JPN6016038556, 7 March 2006 (2006-03-07), pages 4 - 91, ISSN: 0003667676 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160066451A (en) * 2014-12-02 2016-06-10 경북대학교 산학협력단 Head mounted display device and control method thereof
KR101651535B1 (en) 2014-12-02 2016-09-05 경북대학교 산학협력단 Head mounted display device and control method thereof
JP2017091433A (en) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP2017120488A (en) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 Display device, display system, control method of display device, and program
JP2017120302A (en) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 Display device, display system, control method of display device, and program
JP6499384B2 (en) * 2016-08-24 2019-04-10 ナーブ株式会社 Image display apparatus, image display method, and image display program
JPWO2018038136A1 (en) * 2016-08-24 2019-06-24 ナーブ株式会社 IMAGE DISPLAY DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
US11896893B2 (en) 2017-04-28 2024-02-13 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
JP2022028692A (en) * 2017-04-28 2022-02-16 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method of information processing device, and program
US11260287B2 (en) 2017-04-28 2022-03-01 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11617942B2 (en) 2017-04-28 2023-04-04 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11077360B2 (en) 2017-04-28 2021-08-03 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
JP2020198108A (en) * 2017-04-28 2020-12-10 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method of information processing device, and program
JP7086940B2 (en) 2017-06-29 2022-06-20 アップル インコーポレイテッド Finger-worn device with sensor and tactile sensation
US10838499B2 (en) 2017-06-29 2020-11-17 Apple Inc. Finger-mounted device with sensors and haptics
US11416076B2 (en) 2017-06-29 2022-08-16 Apple Inc. Finger-mounted device with sensors and haptics
US11914780B2 (en) 2017-06-29 2024-02-27 Apple Inc. Finger-mounted device with sensors and haptics
JP2019526864A (en) * 2017-06-29 2019-09-19 アップル インコーポレイテッドApple Inc. This application relates to U.S. Patent Application No. 16 / 015,043 filed June 21, 2018, and U.S. Provisional Patent Application No. 62/526, filed June 29, 2017. No. 792 is claimed and is incorporated herein by reference in its entirety.
CN109690455B (en) * 2017-06-29 2022-03-11 苹果公司 Finger-worn device with sensor and haptic
CN109690455A (en) * 2017-06-29 2019-04-26 苹果公司 Finger-worn type device with sensor and haptics member
US11762429B1 (en) 2017-09-14 2023-09-19 Apple Inc. Hinged wearable electronic devices
JPWO2019059044A1 (en) * 2017-09-20 2020-10-15 日本電気株式会社 Information processing equipment, control methods, and programs
JP7020490B2 (en) 2017-09-20 2022-02-16 日本電気株式会社 Information processing equipment, control methods, and programs
US11199946B2 (en) 2017-09-20 2021-12-14 Nec Corporation Information processing apparatus, control method, and program
WO2019059044A1 (en) * 2017-09-20 2019-03-28 日本電気株式会社 Information processing device, control method, and program
WO2019097843A1 (en) * 2017-11-16 2019-05-23 株式会社デンソー Virtual image display system, virtual image display device, operation input device, method for displaying virtual image, program, and recording medium
US11720174B2 (en) 2018-04-05 2023-08-08 Apple Inc. Electronic finger devices with charging and storage systems
US10795438B2 (en) 2018-04-05 2020-10-06 Apple Inc. Electronic finger devices with charging and storage systems
US11042233B2 (en) 2018-05-09 2021-06-22 Apple Inc. Finger-mounted device with fabric
US10845894B2 (en) 2018-11-29 2020-11-24 Apple Inc. Computer systems with finger devices for sampling object attributes
US11755107B1 (en) 2019-09-23 2023-09-12 Apple Inc. Finger devices with proximity sensors
US11709554B1 (en) 2020-09-14 2023-07-25 Apple Inc. Finger devices with adjustable housing structures
US11714495B2 (en) 2020-09-14 2023-08-01 Apple Inc. Finger devices with adjustable housing structures
US11287886B1 (en) 2020-09-15 2022-03-29 Apple Inc. Systems for calibrating finger devices

Also Published As

Publication number Publication date
JP6251957B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
JP6251957B2 (en) Display device, head-mounted display device, and display device control method
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
JP6036217B2 (en) Display device, head-mounted display device, and display device control method
JP6206099B2 (en) Image display system, method for controlling image display system, and head-mounted display device
CN106168848B (en) Display device and control method of display device
JP5900393B2 (en) Information processing apparatus, operation control method, and program
JP6264871B2 (en) Information processing apparatus and information processing apparatus control method
JP6149403B2 (en) Display device and control method of display device
WO2013088725A1 (en) Head-mounted display and information display apparatus
US20120218303A1 (en) Information processing apparatus, control method of information processing apparatus, and transmission head-mount type display device
US20130027572A1 (en) Head-Mounted Display That Displays A Visual Representation Of Physical Interaction With An Input Interface Located Outside Of The Field Of View
JP5927867B2 (en) Display system and operation input method
US20160216792A1 (en) Head mounted display, and control method and control program for head mounted display
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2017182228A (en) Input device, input method, and computer program
JP6638392B2 (en) Display device, display system, display device control method, and program
JP2014154074A (en) Input device, head-mounted type display device, and method for controlling input device
JP6740613B2 (en) Display device, display device control method, and program
JP6432583B2 (en) Display device, head-mounted display device, and display device control method
JP2017157120A (en) Display device, and control method for the same
US20240104873A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240103704A1 (en) Methods for interacting with user interfaces based on attention
US20240094819A1 (en) Devices, methods, and user interfaces for gesture-based interactions
JP2016212769A (en) Display device, control method for the same and program
JP2015165437A (en) Transmission type head-mounted display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171113

R150 Certificate of patent or registration of utility model

Ref document number: 6251957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150