JP2014142751A - Display device, head-mounted type display device, and method for controlling display device - Google Patents
Display device, head-mounted type display device, and method for controlling display device Download PDFInfo
- Publication number
- JP2014142751A JP2014142751A JP2013010015A JP2013010015A JP2014142751A JP 2014142751 A JP2014142751 A JP 2014142751A JP 2013010015 A JP2013010015 A JP 2013010015A JP 2013010015 A JP2013010015 A JP 2013010015A JP 2014142751 A JP2014142751 A JP 2014142751A
- Authority
- JP
- Japan
- Prior art keywords
- display device
- boundary
- user
- image
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、使用者が操作する指示体により操作可能な表示装置、頭部装着型表示装置および表示装置の制御方法に関するものである。 The present invention relates to a display device that can be operated by an indicator operated by a user, a head-mounted display device, and a display device control method.
従来、頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display:HMD))の操作手段として、人間の手指の所定の動作を検出し、その動作に対応する処理を行うものが知られている。例えば、特許文献1では、使用者の手指に装着したLED(発光体)をビデオカメラで撮像することにより手指の動きに対応する入力操作を判別し、その判別した入力操作に基づいて所定の処理を実行することが開示されている。
2. Description of the Related Art Conventionally, as a means for operating a head-mounted display device (Head Mounted Display (HMD)), which is a display device mounted on the head, a predetermined motion of a human finger is detected and the motion is handled. What performs processing is known. For example, in
しかしながら、上述の従来技術の場合、使用者の手指の複雑な動きをビデオカメラで認識する必要があるため制御が複雑になる。また、その複雑な仕組みに反して制御の種類が限られていたり、誤認識しやすいという問題がある。さらに、使用者は、手指の動きがどんな処理を行うための動きなのかを覚えておき、確実にその動きを行わなければならず、必ずしも使い勝手が良いものではないという問題がある。 However, in the case of the above-described prior art, control is complicated because it is necessary to recognize a complicated movement of the user's finger with a video camera. In addition, there is a problem that the types of control are limited or misrecognized easily despite the complicated mechanism. Furthermore, there is a problem that the user has to remember what kind of processing the movement of the finger is to perform, and surely perform the movement, which is not always convenient.
本発明は、上記の問題に鑑み、簡単、且つ直感的な操作で各種処理が実行可能なユーザーインターフェースを提供することが可能な表示装置、頭部装着型表示装置および表示装置の制御方法を提供することを目的とする。 In view of the above-described problems, the present invention provides a display device, a head-mounted display device, and a display device control method capable of providing a user interface capable of executing various processes with simple and intuitive operations. The purpose is to do.
本発明の表示装置は、使用者が操作する複数の指示体を検出する指示体検出部と、指示体検出部により各指示体を検出して、各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、各指示体の操作に伴って、複数のポインターが、所定の表示領域と、所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする。 The display device of the present invention includes a pointer detection unit that detects a plurality of pointers operated by a user, and a pointer that operates in conjunction with each of the pointers by detecting each pointer with the pointer detection unit. In the vicinity of the boundary between the predetermined display area and the display peripheral area that is an area other than the predetermined display area in accordance with the operation of each indicator. And an instruction execution unit that executes a predetermined instruction in accordance with the movement of a plurality of pointers.
本発明の頭部装着型表示装置は、画像を虚像として使用者に視認させる透過型の頭部装着型表示装置であって、使用者が操作する複数の指示体を検出する指示体検出部と、指示体検出部により各指示体を検出して、各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、各指示体の操作に伴って、複数のポインターが、所定の表示領域と、所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする。 A head-mounted display device of the present invention is a transmissive head-mounted display device that allows a user to visually recognize an image as a virtual image, and includes an indicator detection unit that detects a plurality of indicators operated by the user, A pointer display unit that detects each indicator by the indicator detection unit and displays a pointer that operates in association with each indicator in a predetermined display area; An instruction execution unit that executes a predetermined instruction according to the movement of a plurality of pointers when the pointer moves to the vicinity of a boundary between the predetermined display area and a display peripheral area that is an area other than the predetermined display area; It is provided with.
本発明の表示装置の制御方法は、表示装置が、使用者が操作する複数の指示体を検出するステップと、各指示体を検出して、各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するステップと、各指示体の操作に伴って、複数のポインターが、所定の表示領域と、所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、複数のポインターの動きに応じた所定の命令を実行するステップと、を実行することを特徴とする。 According to the display device control method of the present invention, the display device detects a plurality of indicators operated by the user, detects each indicator, and sets a pointer that operates in conjunction with each indicator. In accordance with the step of displaying in the predetermined display area and the operation of each indicator, the plurality of pointers moved to the vicinity of the boundary between the predetermined display area and the display peripheral area other than the predetermined display area A step of executing a predetermined command in accordance with movement of a plurality of pointers.
これらの構成によれば、使用者が複数のポインターを表示領域の境界近傍に移動するように(境界近傍に位置するように)各指示体を操作するだけで、境界近傍に予め割り当てられた所定の命令(処理)を実行できる。すなわち、使用者は煩雑な操作をすることなく、簡単(単純)、且つ直感的な操作で所定の命令を実行できるため、使い勝手が良い。また、簡単な操作で行えるため(煩雑な操作を必要としないため)、誤認識が少なく、安定して動作するユーザーインターフェースを提供できる。 According to these configurations, the user operates each indicator so as to move a plurality of pointers to the vicinity of the boundary of the display area (so as to be positioned in the vicinity of the boundary). Can be executed. That is, since the user can execute a predetermined command by a simple (simple) and intuitive operation without performing a complicated operation, it is easy to use. Further, since it can be performed with a simple operation (no complicated operation is required), it is possible to provide a user interface that operates stably and has few misrecognitions.
本発明の表示装置において、命令実行部は、複数のポインターの境界の近傍への移動順序に応じて、異なる命令を実行することが好ましい。 In the display device of the present invention, it is preferable that the instruction execution unit executes different instructions in accordance with the movement order to the vicinity of the boundaries of the plurality of pointers.
この構成によれば、複数のポインター(指示体)を境界の近傍へ移動させる際のポインターの移動順序に応じて様々な命令を割り当てることができるため、使用者の様々なニーズに対応可能なユーザーインターフェースを提供することができる。 According to this configuration, since various instructions can be assigned according to the movement order of the pointers when moving a plurality of pointers (indicators) to the vicinity of the boundary, the user can respond to various needs of users. An interface can be provided.
本発明の表示装置において、命令実行部は、複数のポインターのうちの、少なくとも1のポインターが境界の近傍に移動した場合、表示領域の内縁に沿って枠画像を表示することが好ましい。 In the display device of the present invention, it is preferable that the instruction execution unit displays a frame image along the inner edge of the display area when at least one of the plurality of pointers moves near the boundary.
この構成によれば、ポインターが境界の近傍に移動した場合に、表示領域の内縁に沿って枠(枠画像)を表示することで、使用者に対して何らかの状態変更があったこと(例えば、所定の命令を受け付けるモード(命令受付モード)に遷移したこと)を認識させることができる。 According to this configuration, when the pointer moves to the vicinity of the boundary, a state (frame image) is displayed along the inner edge of the display area, so that there is some state change for the user (for example, A mode in which a predetermined command is received (command reception mode) can be recognized.
本発明の表示装置において、命令実行部は、指示体検出部により、複数の指示体が所定の表示領域から境界を越えて表示周辺領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することが好ましい。 In the display device of the present invention, when the instruction execution unit detects that the plurality of indicators have been operated in a direction to move from the predetermined display region to the display peripheral region across the boundary by the indicator detection unit, It is preferable to execute these instructions.
本発明の表示装置において、命令実行部は、指示体検出部により、複数の指示体が表示周辺領域から境界を越えて所定の表示領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することが好ましい。 In the display device of the present invention, when the instruction execution unit detects that the plurality of indicators are operated in a direction of moving from the display peripheral region to the predetermined display region across the boundary by the indicator detection unit, It is preferable to execute these instructions.
これらの構成によれば、複数の指示体が所定の表示領域から表示周辺領域に向かって移動する操作が行われた場合、あるいは表示周辺領域から所定の表示領域に向かって移動する操作が行われた場合に、所定の命令を実行する。すなわち、複数の指示体が境界を越えて移動する操作が行われた場合に所定の命令を実行する。これにより、拡張性の高い(自由度の高い)ユーザーインターフェースを提供することができる。 According to these configurations, when an operation of moving a plurality of indicators from a predetermined display area toward the display peripheral area is performed, or an operation of moving from the display peripheral area toward the predetermined display area is performed. A predetermined command is executed. That is, a predetermined command is executed when an operation in which a plurality of indicators move beyond the boundary is performed. Thereby, it is possible to provide a user interface with high expandability (high flexibility).
本発明の表示装置において、命令実行部は、指示体検出部により、複数のポインターが境界に沿って移動する複数の指示体の操作を検出した場合、所定の命令を実行することが好ましい。 In the display device of the present invention, it is preferable that the command execution unit executes a predetermined command when the pointer detection unit detects operations of the plurality of pointers in which the plurality of pointers move along the boundary.
本発明の表示装置において、命令実行部は、複数のポインターが境界に沿って移動する際の複数のポインターの移動方向に応じて、異なる命令を実行することが好ましい。 In the display device of the present invention, it is preferable that the instruction execution unit executes different instructions according to the moving directions of the plurality of pointers when the plurality of pointers move along the boundary.
これらの構成によれば、複数のポインター(指示体)が境界に沿って移動する操作が行われた場合に、所定の命令を実行する。また、複数のポインターが境界に沿って移動する方向に応じて、異なる命令を実行することにより、拡張性の高い(自由度の高い)ユーザーインターフェースを提供することができる。 According to these configurations, a predetermined command is executed when an operation of moving a plurality of pointers (indicators) along the boundary is performed. Further, by executing different commands according to the direction in which the plurality of pointers move along the boundary, it is possible to provide a highly expandable (highly flexible) user interface.
本発明の表示装置において、命令実行部は、複数のポインターが境界の近傍にある状態で、複数の指示体のうち少なくとも1の指示体が回転動作された場合、所定の表示領域に表示された画像を指示体の回転方向に回転させることが好ましい。 In the display device of the present invention, the instruction execution unit is displayed in a predetermined display area when at least one of the plurality of pointers is rotated while the plurality of pointers are in the vicinity of the boundary. It is preferable to rotate the image in the direction of rotation of the indicator.
この構成によれば、指示体を回転させることで、表示されている画像を回転することができる。例えば、複数の指示体全てを同一方向に回転させても良いし、あるいは、複数の指示体のうち、1の指示体を他の指示体を支点として回転させても良い。 According to this configuration, the displayed image can be rotated by rotating the indicator. For example, all of the plurality of indicators may be rotated in the same direction, or one of the plurality of indicators may be rotated with another indicator as a fulcrum.
本発明の表示装置において、命令実行部は、境界の近傍における各指示体の動作に応じて、所定の命令を実行することが好ましい。 In the display device of the present invention, it is preferable that the instruction execution unit executes a predetermined instruction according to the operation of each indicator in the vicinity of the boundary.
この構成によれば、境界の近傍での複数の指示体の動作内容(操作内容)に応じて所定の命令を実行することができる。指示体の動作としては、例えば、境界の近傍で2つの指示体(2つのポインター)が近づく動作や、2つの指示体が表示領域の奥行方向(使用者の視界方向)に移動する動作(スイッチを押すような動作)や、2つの指示体が表示領域の奥行方向に移動した状態を維持する動作(スイッチを押した状態を維持するような動作)等が考えられる。 According to this configuration, it is possible to execute a predetermined command according to the operation content (operation content) of a plurality of indicators near the boundary. As an operation of the indicator, for example, an operation in which two indicators (two pointers) approach in the vicinity of the boundary, or an operation in which the two indicators move in the depth direction of the display area (the user's visual field direction) (switch And the operation of maintaining the state in which the two indicators have moved in the depth direction of the display area (the operation of maintaining the state where the switch is pressed), and the like.
本発明の表示装置において、命令実行部は、指示体検出部により、複数の指示体が表示周辺領域から境界を跨いで所定の表示領域に表示されたアイコンを挟む動作を検出した場合、アイコンに割り当てられた所定の命令を実行することが好ましい。 In the display device of the present invention, when the instruction execution unit detects an operation in which a plurality of indicators sandwich an icon displayed in a predetermined display region across the boundary from the display peripheral region by the indicator detection unit, Preferably, the assigned predetermined instruction is executed.
この構成によれば、複数の指示体によりアイコンを掴むような操作をした場合にアイコンに割り当てられた命令(例えば、アプリケーションの実行等)を実行することができ、直感的、且つ操作性の良いユーザーインターフェースを提供できる。 According to this configuration, it is possible to execute an instruction (for example, execution of an application) assigned to an icon when an operation of grasping the icon with a plurality of indicators is performed, and it is intuitive and has good operability. Can provide a user interface.
本発明の表示装置において、命令実行部は、表示されているコンテンツに応じた所定の命令を実行することが好ましい。 In the display device of the present invention, it is preferable that the command execution unit executes a predetermined command corresponding to the displayed content.
この構成によれば、表示するコンテンツ毎に、当該コンテンツに適した命令を実行することができる。なお、コンテンツとは、画像(静止画像、動画像)や音声等からなる情報内容や、アプリケーション等を意味する。 According to this configuration, for each content to be displayed, a command suitable for the content can be executed. Note that the content means information content including an image (still image, moving image), sound, or the like, an application, or the like.
上記に記載の表示装置であって、表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、指示体検出部は、使用者が、透過型の表示装置の使用者側の反対側である表示装置の外側前方で操作する複数の指示体を検出することを特徴とする。 The display device described above, wherein the display device is a transmissive display device that allows a user to visually recognize an image as a virtual image, and the indicator detection unit is configured so that the user can use the transmissive display device on the user side. A plurality of indicators operated on the outer front side of the display device on the opposite side of the display device are detected.
この構成によれば、透過型の表示装置において、使用者から見て表示装置を越えて外側(前方)で操作される指示体を検出することができる。 According to this configuration, in the transmissive display device, it is possible to detect the indicator operated outside (front) beyond the display device as viewed from the user.
上記に記載の表示装置であって、表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、透過型の表示装置の画像表示部は、表示対象となる画像データを用いて画像を表す画像光を生成して射出させる画像光生成部と、射出された画像光を前記使用者の眼に導く光学部材と、を含み、外景の光を光学部材を透過して画像光と共に使用者の眼に入射させることを特徴とする。 In the display device described above, the display device is a transmissive display device that allows a user to visually recognize an image as a virtual image, and the image display unit of the transmissive display device uses image data to be displayed. An image light generation unit that generates and emits image light that represents the image, and an optical member that guides the emitted image light to the user's eyes, and transmits the light of the outside scene through the optical member to generate the image light. And entering the user's eyes.
この構成によれば、使用者が虚像と外景とを同時に視認可能な透過型の表示装置にも適用することができる。 According to this configuration, the present invention can also be applied to a transmissive display device in which a user can view a virtual image and an outside scene at the same time.
本発明の頭部装着型表示装置において、指示体検出部は、頭部装着型表示装置を装着した状態における使用者の前方を撮像することで、複数の指示体を検出することが好ましい。 In the head-mounted display device of the present invention, it is preferable that the indicator detection unit detects a plurality of indicators by imaging the front of the user with the head-mounted display device mounted.
この構成によれば、頭部装着型表示装置を装着した状態における使用者の前方の撮像結果に基づいて、使用者が操作する指示体を検出する。言い換えれば、使用者が頭部装着型表示装置を装着し、眼の前(装置の前)で操作する指示体を撮像して検出できる。 According to this configuration, the indicator operated by the user is detected based on the imaging result in front of the user when the head-mounted display device is mounted. In other words, the user can wear the head-mounted display device and image and detect the indicator operated in front of the eyes (in front of the device).
[第1実施形態]
以下、添付の図面を参照し、本発明の一実施形態に係る表示装置、頭部装着型表示装置および表示装置の制御方法について説明する。図1は、本発明の一実施形態における表示装置としての頭部装着型表示装置HMの外観構成を示す説明図である。頭部装着型表示装置HMは、使用者が頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display:HMD)とも呼ばれる。本実施形態の頭部装着型表示装置HMは、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置HM(透過型頭部装着型表示装置、シースルータイプ・ヘッドマウントディスプレイ)であり、眼鏡形状を有している。
[First Embodiment]
Hereinafter, a display device, a head-mounted display device, and a display device control method according to an embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device HM as a display device according to an embodiment of the present invention. The head-mounted display device HM is a display device that a user wears on the head, and is also referred to as a head mounted display (HMD). The head-mounted display device HM of this embodiment is an optically transmissive head-mounted display device HM (a transmissive head-mounted display device, a see-through type) that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. -A head-mounted display) having a spectacle shape.
頭部装着型表示装置HMは、右保持部11と、右表示駆動部12と、左保持部13と、左表示駆動部14と、右光学像表示部15と、左光学像表示部16と、センサー17とを有している。
The head-mounted display device HM includes a
右光学像表示部15および左光学像表示部16は、頭部装着型表示装置HMの装着時における使用者の右および左の眼前に対応する位置に配置されている。右光学像表示部15の一端と、左光学像表示部16の一端は、それぞれ、頭部装着型表示装置HMの装着時における使用者の眉間に対応する位置で接続されている。右光学像表示部15の他端である端部ERからは、右保持部11が延伸している。同様に、左光学像表示部16の他端である端部ELからは、左保持部13が延伸している。
The right optical
右保持部11は、右光学像表示部15の端部ERから頭部装着型表示装置HMの装着時における使用者の側頭部に対応する位置にかけて、右光学像表示部15とほぼ直角を成すように延伸して設けられた部材である。同様に、左保持部13は、左光学像表示部16の端部ELから頭部装着型表示装置HMの装着時における使用者の側頭部に対応する位置にかけて、左光学像表示部16とほぼ直角を成すように延伸して設けられた部材である。右保持部11と、左保持部13は、眼鏡のテンプル(つる)のようにして、使用者の頭部に頭部装着型表示装置HMを保持する。
The
右表示駆動部12は、右保持部11の内側、換言すれば、頭部装着型表示装置HMの装着時における使用者の頭部に対向する側であって、右光学像表示部15の端部ER側に配置されている。また、左表示駆動部14は、左保持部13の内側であって、左光学像表示部16の端部EL側に配置されている。
The right
センサー17は、頭部装着型表示装置HMの装着時における使用者の眉間に対応する位置に配置されている撮像装置である。センサー17は、頭部装着型表示装置HMを装着した状態における使用者の視界方向(使用者の前方)の外景を撮像し、使用者が操作する複数の指示体(本実施形態では2つの指示体とする)を含んだ画像を取得し、取得した画像の画像信号を出力する。すなわち、頭部装着型表示装置HMにおける使用者側とは反対側(頭部装着型表示装置HMの外側前方)で操作される指示体を撮像する。本実施例のセンサー17による撮像範囲は、頭部装着型表示装置HMを装着したときの使用者の視界21(図2参照)よりも広い範囲となっている。
The
なお、指示体としては、例えば、使用者の指先や手、使用者が装着する指輪型入力装置、使用者が持つペンのペン先、リモコンの発光体等を用いることができる。指示体として使用者の指先やペン先等を用いる場合は、例えば、指先やペン先等を特徴点(特定点)として認識し、位置を検出すればよい。また、指示体として使用者の手を用いる場合は、手のひらの曲線を特徴点として認識し、位置を検出すれば良い。また、指輪型入力装置を用いる場合、例えば、指輪型入力装置に赤外線発光体(LED等)を取り付け、その赤外線光により位置を検出しても良いし、あるいは、指輪型入力装置を装着している使用者の指先を特徴点として認識し、位置を検出しても良い。さらには、使用者によって仮想的に保持されている任意の物を指示体とすることも可能である。「仮想的に保持する任意の物」とは、例えば、使用者の手の形がペンを握る形になった場合、その手に沿うように仮想的に想定されるペン等を意味する。このような場合であっても、上記と同様に、仮想的に保持されている物の任意の場所(例えば、仮想的に想定されるペンのペン先)を指示体として認識し、ペン先の軌跡等を特徴点として認識し、位置を検出することができる。 As the indicator, for example, a user's fingertip or hand, a ring-type input device worn by the user, a pen tip of the user, a light emitter of a remote controller, or the like can be used. When the user's fingertip or pen tip is used as the indicator, for example, the finger tip or pen tip may be recognized as a feature point (specific point) and the position may be detected. When the user's hand is used as the indicator, the palm curve may be recognized as a feature point and the position may be detected. When a ring type input device is used, for example, an infrared light emitter (LED or the like) may be attached to the ring type input device, and the position may be detected by the infrared light, or the ring type input device is attached. The user's fingertip may be recognized as a feature point to detect the position. Furthermore, an arbitrary object virtually held by the user can be used as the indicator. “Anything that is virtually held” means, for example, a pen that is virtually assumed to follow the hand of the user when the shape of the user's hand becomes a shape of holding a pen. Even in such a case, similarly to the above, an arbitrary place of a virtually held object (for example, a virtually assumed pen nib) is recognized as an indicator, and the pen tip The locus or the like can be recognized as a feature point, and the position can be detected.
また、本実施例では、1つのセンサー17を例示しているが、複数のセンサー17が備えられていても良い。また、本実施例では、センサー17として撮像装置(撮像センサー)を例示しているが、これに限るものではなく、指示体を検出できるものであればその種類(検出方法)は問わない。例えば、センサー17として、レーザーセンサー、超音波センサー等を用いることも可能であり、複数種類の検出方法を組み合わせてもよい。
In this embodiment, one
頭部装着型表示装置HMは、さらに、右耳用の右イヤホン18および左耳用の左イヤホン19を有している。右イヤホン18および左イヤホン19は、使用者が頭部装着型表示装置HMを装着した際に、それぞれ右および左の耳に装着される。
The head-mounted display device HM further includes a
次に、図2を参照して、頭部装着型表示装置HMを装着した使用者が視認可能な虚像および外景の一例について説明する。図2に示すように、頭部装着型表示装置HMを装着した使用者の視界21には、頭部装着型表示装置HMが生成する虚像22が表示される。また、使用者の視界21の内、虚像22が表示される領域以外の領域には、使用者は右光学像表示部15および左光学像表示部16を透過して、外景23を見ることができる(以下、虚像22が表示される領域を「虚像表示領域25」と称し、これ以外の領域を「外景視認領域26」と称す)。また、本実施例の頭部装着型表示装置HMでは、使用者の視界21の内の虚像22が表示される領域(虚像表示領域25)についても、虚像22の背後に外景23が透けて見えるようになっている。なお、詳細は後述するが、虚像表示領域25と外景視認領域26との境界27(虚像表示領域25の縁部)の近傍には、所定の処理を実行するための各種命令が割り当てられており、使用者による2つの指示体の操作により実行することができる。
Next, an example of a virtual image and an outside scene that can be visually recognized by the user wearing the head-mounted display device HM will be described with reference to FIG. As shown in FIG. 2, a
次に、図3を参照して、頭部装着型表示装置HMの機能構成について説明する。図3に示すように、頭部装着型表示装置HMは、使用者に虚像を視認させる画像表示部40と、センサー17と、右イヤホン18と、左イヤホン19と、電源部71と、インターフェース72と、これら各部を制御する制御部30とを有している。
Next, the functional configuration of the head-mounted display device HM will be described with reference to FIG. As shown in FIG. 3, the head-mounted display device HM includes an
電源部71は、頭部装着型表示装置HMの各部に電力を供給する。インターフェース72は、画像(静止画像、動画像)や音声等のコンテンツの供給元となる種々の外部機器OAを接続するためのものである。外部機器OAとしては、例えば、パーソナルコンピュータ(PC)や携帯端末(携帯電話やスマートフォン等)、ゲーム端末等がある。インターフェース72としては、例えばUSBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース、無線LANインターフェース等を採用することができる。
The
制御部30は、CPU(Central Processing Unit)50と、記憶部60とを有している。記憶部60は、ROM(Read Only Memory)やRAM(Random Access Memory)等により構成されており、種々のコンピュータープログラムが格納されている。CPU50は、記憶部60からコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)51や、画像処理部52、表示制御部53、画像解析部54、命令実行部55、音声処理部56として機能する。
The
画像処理部52は、インターフェース72を介して入力されたコンテンツ等に基づいて画像表示部40に供給するための信号を生成し、画像表示部40へ送信する。画像表示部40に供給するための信号は、アナログ形式とデジタル形式の場合で異なる。
The
例えば、アナログ形式の場合、画像処理部52はクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部52は、コンテンツに含まれる画像信号(例えば、1秒あたり30枚のフレーム画像から構成されるアナログ信号)を取得し、取得した画像信号から垂直同期信号VSyncと、水平同期信号HSync等の同期信号を分離する。そして、画像処理部52は、分離した垂直同期信号VSyncや水平同期信号HSync等に応じて図示しないPLL回路等を利用してクロック信号PCLKを生成する。また、画像処理部52は、同期信号が分離されたアナログ画像信号を、図示しないA/D変換回路等を用いてデジタル画像信号に変換して画像データDataを生成する。
For example, in the case of an analog format, the
一方、デジタル形式の場合、画像処理部52は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがデジタル形式の場合、クロック信号PCLKが画像信号に同期して出力される。このため、垂直同期信号VSyncおよび水平同期信号HSyncおよびアナログ画像信号のA/D変換が不要となる。
On the other hand, in the case of the digital format, the
なお、画像処理部52は、必要に応じて画像データDataに対して、解像度変換処理や、輝度・彩度の調整といった色調補正処理や、キーストン補正処理等の画像処理を実行しても良い。
Note that the
表示制御部53は、右表示駆動部12および左表示駆動部14を制御する制御信号を生成し、画像表示部40に送信することにより、画像表示部40における画像表示状態を制御する。具体的には、表示制御部53は、制御信号により、右LCD制御部83による右LCD84の駆動のON/OFFや、右バックライト制御部81による右バックライト82の駆動ON/OFF、左LCD制御部93による左LCD94の駆動ON/OFFや、左バックライト制御部91による左バックライト92の駆動のON/OFF等を個別に制御することにより、右表示駆動部12および左表示駆動部14のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部53は、右表示駆動部12および左表示駆動部14の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。
The
画像解析部54は、センサー17によって撮像された画像の画像信号を取得し、取得した画像信号の解析を行う。画像解析部54は、画像解析により2つの指示体を検出し、各々の位置情報を出力する。画像処理部52や表示制御部53は、出力された指示体の位置情報に基づき、画像表示部40に各指示体に対応するポインターP(図4(a)参照)を表示させる。なお、請求項における指示体検出部は、センサー17および画像解析部54を主要な構成要素とする。また、請求項におけるポインター表示部は、画像処理部52および表示制御部53を主要な構成要素とする。
The
命令実行部55は、2つの指示体の操作に伴う各ポインターPの移動位置や移動方向に応じて各種命令を実行する。具体的には、2つのポインターPが虚像表示領域25と外景視認領域26との境界27の近傍(いずれも図2参照)に移動した場合や、2つの指示体が虚像表示領域25から境界27を越えて外景視認領域26へ移動する方向に操作された場合、2つの指示体が外景視認領域26から境界27を超えて虚像表示領域25へ移動する操作が行われた場合、2つのポインターPが境界27に沿って移動された場合、2つの指示体(2つのポインターP)により虚像表示領域25に表示されたアイコンを挟むような操作(アイコンを掴むような操作)が行われた場合、あるいは虚像表示領域25における境界近傍で指示体が操作された場合等に、予め割り当てられた各種命令(処理)を実行する(詳細は後述する)。すなわち、本実施例では、請求項における「所定の表示領域」は虚像表示領域25に相当し、「表示周辺領域」は外景視認領域26に相当する。また、虚像表示領域25と外景視認領域26との境界27とは、ポインターPを表示することが可能な(ポインターPを移動することが可能な)限界を示すものである。
The
音声処理部56は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン18および左イヤホン19に送信する。
The
画像表示部40は、右表示駆動部12と、左表示駆動部14と、右光学像表示部15としての右導光板86と、左光学像表示部16としての左導光板96と、を有している。なお、以下の説明では、右光学像表示部15および右導光板86と、左光学像表示部16および左導光板96と、を総称して「光学部材」とも呼ぶ。
The
右表示駆動部12、光源として機能する右バックライト(BL)制御部81および右バックライト(BL)82と、表示素子として機能する右LCD制御部83および右LCD84と、右投写光学系85を含んでいる。なお、以下の説明では、右バックライト制御部81、右バックライト82、右LCD制御部83および右LCD84を総称して「画像光生成部」とも呼ぶ。
A right
右バックライト制御部81は、入力された制御信号に基づいて、右バックライト82を駆動制御する。右バックライト82は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部83は、入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右目用の画像データDataとに基づいて、右LCD84を駆動制御する。右LCD84は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
The right
右投写光学系85は、右LCD84から射出された画像光を投写するものであり、例えば、コリメートレンズを用いて構成される。右光学像表示部15としての右導光板86は、光透過性の樹脂素材等によって形成され、右投写光学系85から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼に導く。なお、右投写光学系85と右導光板86とを総称して「導光部」とも呼ぶ。導光部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方法を用いることができ、例えば、回折格子(一例としてホログラム素子)を用いても良いし、半透過反射膜を用いても良い。
The right projection optical system 85 projects image light emitted from the
左表示駆動部14は、右表示駆動部12と同様に、左バックライト(BL)制御部91と、左バックライト(BL)92と、左LCD制御部93と、左LCD94と、左投写光学系95とを含んでいる(上記の右表示駆動部12と同様に、左バックライト制御部91、左バックライト92、左LCD制御部93および左LCD94を総称して「画像光生成部」とも呼ぶ)。左表示駆動部14に含まれる各要素の構成や機能は、右表示駆動部12に含まれる各要素と同様であるため、ここでは説明を省略する。また、左光学像表示部16としての左導光板96は、光透過性の樹脂素材等によって形成され、左投写光学系95から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼に導く。
As with the right
このようにして、頭部装着型表示装置HMの使用者の両眼に導かれた画像光が網膜に結像することにより、使用者は、例えば図2に示すように虚像表示領域25内に虚像22を視認する。
In this way, the image light guided to both eyes of the user of the head-mounted display device HM forms an image on the retina, so that the user can enter the virtual
次に、図4ないし図14を参照して、使用者による2つの指示体の操作に伴って、頭部装着型表示装置HMにより虚像表示領域25に表示されるポインターPの動作により各種命令を実行する手順の一例について説明する。なお、以下の説明では、使用者の2本の指(例えば、両手の人差し指(指先)や、片手の親指と人差し指(指先)等)を指示体として検出する場合について説明する。
Next, referring to FIGS. 4 to 14, various commands are issued by the operation of the pointer P displayed on the virtual
図4ないし図6は、使用者の2本の指の操作(2つのポインターの動作)によるメニュー画面の表示処理およびメニュー項目の実行手順(メニュー画面の表示およびメニュー項目を実行するためのユーザーインターフェース)の一例について説明する図である。 FIGS. 4 to 6 show menu screen display processing and menu item execution procedures (menu screen display and user interface for executing menu items) by the user's operation of two fingers (operation of two pointers). Is a diagram for explaining an example.
図4(a)に示すように、使用者の右手人差し指および左手人差し指(2つの指示体)が虚像表示領域25内で検出されると(正確には、2本の指が、虚像表示領域25と重複するセンサー17の撮像領域内で検出されると)、頭部装着型表示装置HMは、2本の指の検出位置に基づいて虚像表示領域25に円形のポインターP(ポインターP1およびP2)を表示する。また、頭部装着型表示装置HMは、虚像表示領域25と外景視認領域26との境界27の近傍に割り当てられた命令を実行可能にするためのモード(以下、「入力スタンバイモード」と称す)に遷移する処理を実行する。
As shown in FIG. 4A, when the user's right hand index finger and left hand index finger (two indicators) are detected in the virtual image display area 25 (more precisely, two fingers are displayed in the virtual image display area 25). The head-mounted display device HM detects a circular pointer P (pointers P1 and P2) in the virtual
なお、虚像表示領域25外で指示体(使用者の指)を検出した場合は、頭部装着型表示装置HMは、例えば、指示体の検出方向を示す矢印形状のポインターを表示したり、あるいはポインターを点線表示する等して、使用者に対して指示体が虚像表示領域25の外にある旨を報知する。また、この場合、頭部装着型表示装置HMは、「入力スタンバイモード」には遷移しない。
When the indicator (user's finger) is detected outside the virtual
次に、図4(b)に示すように、入力スタンバイモードの状態で、右手人差し指の操作によりポインターP1が境界27の近傍(図4(b)では、一例として、虚像表示領域25の右側の境界27aの近傍とする)に移動すると、頭部装着型表示装置HMは、境界27の近傍(虚像表示領域25と外景視認領域26との境界27における、虚像表示領域25の内側の近傍)に割り当てられた命令を受け付けるモード(以下、「命令受付モード」と称す)へ遷移する処理を実行し(命令受付モードへの遷移命令を実行し)、ポインターP1の形状を半円状に変形して表示する。またこれと共に、境界27に沿って(境界27の虚像表示領域25の内側)に沿って)枠101(枠画像,図中の網掛け部分)を表示する。ポインターP1の形状の変形および枠101を表示することで、使用者は命令受付モードになったことを認識することができる。なお、半円状のポインターP1は、虚像表示領域25の境界27の近傍から離れた位置に移動されると(虚像表示領域25の中央に向かって移動されると)、その形状は元の円形に戻る。
Next, as shown in FIG. 4B, in the state of the input standby mode, the pointer P1 is located near the
次に、命令受付モードの状態で、左手人差し指の操作によりポインターP2が境界27の近傍(図4(b)では、一例として、虚像表示領域25の下側の境界27dの近傍とする)に移動すると、頭部装着型表示装置HMは、境界27dの近傍に割り当てられたメニュー画面を表示するための命令(以下、「メニュー画面表示命令」と称す)を実行し、図4(c)に示すような、虚像表示領域25に種々のアイコンIC(メニュー項目)から成るメニュー画面D01を表示する。なお、このメニュー画面表示命令は、ポインターP1およびP2の両方(2つの指示体)が境界27の近傍に位置する場合に実行される。
Next, in the instruction acceptance mode, the pointer P2 moves to the vicinity of the boundary 27 (in FIG. 4B, as an example, the vicinity of the
使用者は、表示されたメニュー画面D01上の各種アイコンICをタッチすることで、アイコンICに割り当てられた機能を実行する。また、アイコンICにタッチするのみならず、アイコンICを掴むような操作(挟むような動作)を行った場合もアイコンICに割り当てられた機能を実行することができる。 The user touches various icon ICs on the displayed menu screen D01 to execute a function assigned to the icon IC. In addition to touching the icon IC, a function assigned to the icon IC can also be executed when an operation for gripping the icon IC (an operation for pinching) is performed.
例えば、図5に示すように、虚像表示領域25の右下隅のアイコンICを、使用者が外景視認領域26側から境界27aおよび境界27dを跨ぐように親指と人差し指を動かして掴むような操作を行った場合(ポインターP1およびP2でアイコンICを掴むような操作を行った場合)、アイコンICに割り当てられた命令(ここでは、ソフトウェアキーボードKBの起動命令)を実行することができる(以下、このような操作を「フィンガーチップアクション」と称す)。すなわち、虚像表示領域25の右下隅にはフィンガーチップアクションを実行するための命令が割り当てられている。なお、図5では、虚像表示領域25の右下隅にあるアイコンICに対してフィンガーチップアクションを実行したが、同様の操作で(2本の指(指示体)の動きで)左下隅のアイコンICに対してもフィンガーチップアクションを実行することが可能である。また、虚像表示領域25の右上隅(あるいは左上隅)にあるアイコンICに対してフィンガーチップアクションを行う場合は、図6に示すように2本の指(指示体)を動かすことで実行することができる。
For example, as shown in FIG. 5, an operation is performed in which the user grasps the icon IC in the lower right corner of the virtual
なお、図4(c)のメニュー画面D01におけるアイコンICの配置はあくまでも一例であり、これに限るものではない。すなわち、図4(c)では、アイコンICを虚像表示領域25の左端側および角部に配置したメニュー画面D01を例示しているが、例えば、アイコンICを虚像表示領域25の右端側に配置したメニュー画面を表示しても良いし、あるいは、アイコンICを左右両端に配置したメニュー画面を表示しても良い。すなわち、できるだけ視界をさえぎらないように、アイコンICを虚像表示領域25の内側の周辺部(縁部)に配置するようにすれば良い。または、アイコンICを虚像表示領域25の中心付近(中央付近)に配置したメニュー画面を表示しても良い。また、ポインターPの境界27の近傍への移動順により、表示するメニュー画面の内容やアイコンICの配置を変えるようにしても良い。
Note that the arrangement of the icon ICs on the menu screen D01 in FIG. 4C is merely an example, and the present invention is not limited to this. 4C illustrates the menu screen D01 in which the icon IC is arranged on the left end side and the corner of the virtual
また、図4(c)では、アイコンICから成るメニュー画面D01のみを表示しているが、例えば、メニュー画面D01の背後に、他の虚像(例えば、画像や映像等のコンテンツ)が表示されていても良い(他の虚像に重畳するようにメニュー画面D01を表示しても良い)。 In FIG. 4C, only the menu screen D01 including the icon IC is displayed. For example, other virtual images (for example, contents such as images and videos) are displayed behind the menu screen D01. (The menu screen D01 may be displayed so as to be superimposed on another virtual image).
また、上述では、ポインターP(ポインターP1)が虚像表示領域25の右側の境界27aの近傍に移動することで「命令受付モード」に遷移する処理を実行しているが、あくまでも一例であり、これに限るものではない。例えば、ポインターPが左側の境界27bの近傍や、上側の境界27cの近傍や、下側の境界27dの近傍に移動した場合にも「命令受付モード」に遷移する処理を実行することが可能である。また、命令受付モードに遷移する際、どちらのポインターPが境界27の近傍に移動したのかにより、枠101の太さや色、境界27の近傍へ移動後のポインターPの形状や大きさ等を変えるようにしても良い。
In the above description, the process of transitioning to the “command acceptance mode” is performed by moving the pointer P (pointer P1) to the vicinity of the
また、上述では、虚像表示領域25の下側の境界27dの近傍に「メニュー画面表示命令」が割り当てられているものとしているが、あくまでも一例であり、例えば、右側の境界27aの近傍、左側の境界27bの近傍、上側の境界27cの近傍等に命令を割り当てることも可能である(すなわち、境界27の近傍であれば、命令を割り当てる位置は問わない)。なお、境界27の近傍に命令が割り当てられていない場合は、ポインターPの形状を禁止マークで表示することで、その旨を使用者に報知するようにしても良い。
In the above description, it is assumed that the “menu screen display command” is assigned to the vicinity of the
また、図中では、便宜上、枠101を網掛けで表現しているが、実際には、使用者が識別可能な色(例えば、白色や灰色や赤色等)で枠101を表示すれば良い。また、枠101を、実線ではなく点線で表示するようにしても良いし、枠線なしでも良い。また、「命令受付モード」に遷移した場合や命令受付モード中に境界27の近傍にポインターPが移動した場合に、円状のポインターP1を半円状に変形表示しているが、これに限るものではない。例えば、ポインターPのサイズを大きくしても良いし、2重丸形状のポインター等を表示しても良い。これらは、以下の説明においても同様である。
In the figure, for convenience, the
次に、図7および図8を参照して、使用者の2本の指の操作(2つのポインターの動作)によるメニュー画面の表示処理およびメニュー項目の実行の他の形態について説明する。なお、命令受付モードに遷移するまでの手順は上述と同様であるため説明を省略する。以下の説明においても同様である。 Next, with reference to FIG. 7 and FIG. 8, other forms of menu screen display processing and menu item execution by a user's operation of two fingers (operation of two pointers) will be described. Note that the procedure up to the transition to the command reception mode is the same as described above, and thus the description thereof is omitted. The same applies to the following description.
図7(a)に示すように、命令受付モードに遷移した状態で、左手人差し指の操作によりポインターP2が境界27dの近傍に移動すると、頭部装着型表示装置HMは、境界27dの近傍に割り当てられた命令を実行し、図7(b)に示すように、ポインターP2の形状を半円状に変形して表示すると共に、境界27に沿って(枠101の虚像表示領域25側に沿って)、帯状の操作領域102を表示する。この操作領域102の領域内には、その位置に応じて各種命令が割り当てられている。
As shown in FIG. 7A, when the pointer P2 is moved to the vicinity of the
次に、図7(c)に示すように、操作領域102を表示した状態で、例えば、左手の親指と人差し指の操作により、操作領域102の右上隅にポインターP1およびP2を移動させ、2本の指を近づける操作(ポインターP1とポインターP2を近づける操作)をすることで、メニュー画面D02が表示される。すなわち、操作領域102内の右上隅には、2つのポインターPを近づけることで実行される命令(メニュー画面表示命令)が割り当てられている。
Next, as shown in FIG. 7C, with the
このメニュー画面D02では、メニュー項目として、「コピー(Copy)」、「切り取り(Cut)」、「貼り付け(Paste)」、「ホーム(Home)」、「戻る(Back)」等のアイコンICが表示される。「コピー(Copy)」、「切り取り(Cut)」、「貼り付け(Paste)」アイコンは、画像等のコピー、切り取り、貼り付けを行うためのものである。「ホーム(Home)」アイコンは、虚像表示領域25の表示画像を標準のホームアプリケーション画像(不図示)に切り替えるものである。また、「戻る(Back)」アイコンは、一つ前の操作に戻るためのものである。なお、表示されるメニュー項目(アイコンIC)、およびその表示位置は一例であり、これに限るものではない。
In this menu screen D02, icon ICs such as “Copy”, “Cut”, “Paste”, “Home”, “Back”, etc. are displayed as menu items. Is displayed. “Copy”, “Cut”, and “Paste” icons are for copying, cutting, and pasting images and the like. The “Home” icon switches the display image in the virtual
使用者は、表示されたメニュー画面D02のアイコンICをタッチすることで、アイコンICに割り当てられた機能を実行する。ここでは、具体例として、画像のコピーを実行する場合の手順を説明する。まず、図8(a)に示すように、使用者はコピーしたい画像G1を虚像表示領域25内に表示させた後、右手人差し指(ポインターP1)により「コピー(Copy)」選択してコピー機能を有効にする。そして、左手人差し指(ポインターP2)でコピー元となる画像G1を指定する。次に、使用者は、図8(b)に示すように、左手人差し指(ポインターP2)でコピー先となる位置を指定し、右手人差し指(ポインターP1)で「貼り付け(Paste)」を選択して貼り付け機能を有効にする。これにより、図8(c)に示すように、コピー元として指定した画像G1が、コピー先として指定された位置にコピーされる。なお、上述では、両手を使ってコピー操作を行っているが、片手(例えば、右手人差し指等)のみで同様の操作をすることも可能である。
The user performs a function assigned to the icon IC by touching the icon IC on the displayed menu screen D02. Here, as a specific example, a procedure for executing image copying will be described. First, as shown in FIG. 8 (a), the user displays the image G1 to be copied in the virtual
なお、上述では、操作領域102の右上隅にメニュー画面表示命令を割り当てた例を示したが、これ以外にも操作領域102の所定位置に様々な命令を割り当てることも可能である。例えば、操作領域102の左上隅にマウスと同様のクリック機能やドラッグ機能を割り当てることも可能である。この場合、操作領域102の左上隅に2本の指(2つの指示体)を移動させた後、両指を虚像表示領域25の奥行方向(使用者の視界方向)に向かって移動させることで(スイッチを押すような動作をすることで)クリック機能を実現し、両指を虚像表示領域25の奥行方向に移動した状態を維持することで(スイッチを押した状態を維持するような動作をすることで)ドラッグ機能を実現することができる。
In the above description, an example in which a menu screen display command is assigned to the upper right corner of the
次に、図9ないし図12を参照して、画像の拡大縮小処理(拡大縮小命令)を実行する場合の手順(拡大縮小処理を実行するためのユーザーインターフェース)の一例について説明する。 Next, an example of a procedure (user interface for executing the enlargement / reduction process) in the case of executing the image enlargement / reduction process (enlargement / reduction instruction) will be described with reference to FIGS.
図9(a)に示すように、命令受付モードに遷移した状態で、使用者により画像G2において拡大対象となる範囲111が指定された後、右手人差し指を虚像表示領域25から境界27aを越えて外景視認領域26に斜め右上方向(矢印Aの方向)に、左手人差し指を虚像表示領域25から境界27dを越えて外景視認領域26に斜め左下方向(矢印Bの方向)に移動する操作が行われた場合(言い換えれば、ポインターP1が境界27aに対して斜め右上方向に、ポインターP2が境界27dに対して斜め左下方向に、虚像表示領域25から境界27aおよび27dを越えて外景視認領域26に移動するように操作された場合)、頭部装着型表示装置HMは、図9(b)に示すように、指定された範囲111の画像を所定の倍率で拡大する拡大処理(拡大命令)を実行し、その実行結果である拡大画像112を表示する。
As shown in FIG. 9 (a), after the user has designated the
この時、頭部装着型表示装置HMは、ポインターP1およびP2の形状を拡大処理が行われたことを示す図形に変更すると共に、虚像表示領域25の所定の位置に拡大処理が行われたことを示すプラス記号113を表示する。また、使用者が拡大操作を繰り返すことにより、拡大処理の限界に到達した場合は(これ以上拡大できない状態になった場合は)、頭部装着型表示装置HMはポインターを禁止マークの形状に変更して表示する。
At this time, the head-mounted display device HM changes the shape of the pointers P1 and P2 to a graphic indicating that the enlargement process has been performed, and the enlargement process has been performed at a predetermined position in the virtual
なお、図9(c)に示すように、右手人差し指を境界27aに沿って上方向(矢印Cの方向)に、左手人差し指を境界27dに沿って左方向(矢印Dの方向)に移動する操作が行われた場合も(言い換えれば、ポインターP1が境界27aに沿って上方向に、ポインターP2が境界27dに沿って左方向に移動するように操作された場合も)、上述と同様に拡大処理(拡大命令)を実行することが可能である。
As shown in FIG. 9 (c), the right index finger is moved upward (in the direction of arrow C) along the
一方、図10(a)に示すように、命令受付モードに遷移した状態で、使用者により画像G1において縮小対象となる範囲111が指定された後、右手人差し指を外景視認領域26から境界27aを越えて虚像表示領域25に斜め左下方向(矢印Eの方向)に、左手人差し指を外景視認領域26から境界27dを越えて虚像表示領域25に斜め右上方向(矢印Fの方向)に移動する操作が行われた場合(言い換えれば、ポインターP1およびポインターP2が境界27側から虚像表示領域25の内側に移動するように操作された場合)、頭部装着型表示装置HMは、図10(b)に示すように、指定された範囲111の画像を所定の倍率で縮小する縮小処理(縮小命令)を実行し、その実行結果である縮小画像114を表示する。
On the other hand, as shown in FIG. 10 (a), after the user has designated the
この時、頭部装着型表示装置HMは、ポインターP1およびP2の形状を縮小処理が行われたことを示す図形に変更すると共に、虚像表示領域25の所定の位置に、縮小処理を示すマイナス記号115を表示する。また、使用者が縮小操作を繰り返すことにより、縮小処理の限界に到達した場合は(これ以上縮小できない状態になった場合は)、頭部装着型表示装置HMは、ポインターを禁止マークの形状に変更して表示する。
At this time, the head-mounted display device HM changes the shape of the pointers P1 and P2 to a graphic indicating that the reduction process has been performed, and a minus sign indicating the reduction process at a predetermined position in the virtual
なお、図10(c)に示すように、右手人差し指を境界27aに沿って下方向(矢印Gの方向)に、左手人差し指を境界27dに沿って右方向(矢印Hの方向)に移動する操作が行われた場合も(言い換えれば、ポインターP1が境界27aに沿って下方向に、ポインターP2が境界27dに沿って右方向に移動するように操作された場合も)、上述と同様に縮小処理(縮小命令)を実行することが可能である。
As shown in FIG. 10C, the right index finger is moved downward (in the direction of arrow G) along the
なお、上述では、使用者が指定した範囲111に対して拡大処理や縮小処理を実行しているが、例えば、範囲を指定せずに画像G2全体を拡大または縮小することも可能である。また、上述では、使用者に拡大処理や縮小処理を行ったことを報知するために、ポインターP1およびP2の形状を、実行した処理内容に応じた形状に変更して表示しているが、あくまでも一例である。ポインターP1およびP2を上記とは異なる形状(図形)に変更しても良い。また、ポインターP1およびP2のいずれか一方のみを形状変更しても良い。あるいは、両ポインターPの形状を変更しなくても良い。
In the above description, the enlargement process and the reduction process are performed on the
また、上述では、画像G2の拡大処理や縮小処理は、1回の操作で所定の倍率ずつ拡大または縮小するようにしているが、これに限るものではなく、例えば、2本の指を移動させる方向(境界27に対する角度)や移動させる距離、移動させる速さ、移動させるタイミング等に応じて拡大率や縮小率を可変するようにしても良い。 In the above description, the enlargement process or the reduction process of the image G2 is performed by enlarging or reducing the image by a predetermined magnification by one operation. However, the present invention is not limited to this. For example, two fingers are moved. The enlargement ratio and the reduction ratio may be varied according to the direction (angle with respect to the boundary 27), the distance to be moved, the speed to be moved, the timing to be moved, and the like.
また、上述では、使用者に拡大処理や縮小処理を行ったことを報知するために、拡大処理を示すプラス記号113および縮小処理を示すマイナス記号115を表示しているが、これに限るものではない。例えば、拡大処理や縮小処理が認識できるようなインジケーター等を表示するようにしても良い。すなわち、使用者に処理内容を認識させることが可能であれば、その形状や手段は問わない。これらは、以下の説明においても同様である。
In the above description, in order to notify the user that the enlargement process or the reduction process has been performed, the
また、上述では画像G2の拡大縮小について説明したが、例えば、ワードプロセッサ等を用いてテキスト入力を行う場合に、上記と同様の操作で、テキスト入力画面を拡大したり、あるいは縮小したりすることも可能である。 In the above description, the enlargement / reduction of the image G2 has been described. For example, when text input is performed using a word processor or the like, the text input screen may be enlarged or reduced by the same operation as described above. Is possible.
また、上述では、両手を使用して拡大処理や縮小処理を実行する手順について説明したが、片手(例えば、右手の親指と人差し指)で拡大処理や縮小処理を行うことも可能である。例えば、図11に示すように、片手で拡大処理を行う場合は、虚像表示領域25内で右手の親指と人差し指を近づけた状態から(ポインターP1とポインターP2を近づけた状態から)、親指と人差し指を境界27dおよび境界27aに向かって矢印Iおよび矢印Jの方向に広げる操作が行われた場合に拡大処理を実行することができる。
In the above description, the procedure for executing the enlargement process and the reduction process using both hands has been described. However, the enlargement process and the reduction process can be performed with one hand (for example, the thumb and index finger of the right hand). For example, as shown in FIG. 11, when the enlargement process is performed with one hand, the thumb and forefinger from the state in which the thumb and forefinger of the right hand are brought close to each other in the virtual image display area 25 (from the state in which the pointer P1 and the pointer P2 are brought closer). Can be performed when an operation is performed to expand the boundary in the directions of the arrow I and the arrow J toward the
一方、片手で縮小処理を行う場合は、図12に示すように、親指と人差し指を外景視認領域26から境界27dおよび境界27aを跨いで虚像表示領域25側に矢印Kおよび矢印Lの方向に動かす操作(言い換えれば、境界27aと境界27dで形成される角部分を外景視認領域26側から掴む(挟む)ような操作)が行われた場合に縮小処理を実行することができる。
On the other hand, when the reduction process is performed with one hand, as shown in FIG. 12, the thumb and the index finger are moved from the outside
なお、上述では、拡大処理および縮小処理を、2つの指示体(2つのポインターP1、P2)を境界27aおよび境界27dを跨ぐように(あるいは沿って移動するように)操作することで実行しているが、あくまでも一例であり、これに限るものではない。他の境界27(例えば、境界27bと境界27c等)に対して同様の操作を行った場合でも拡大処理および縮小処理を実行できる。
In the above description, the enlargement process and the reduction process are performed by operating the two indicators (two pointers P1 and P2) so as to straddle the
次に、図13を参照して、画像の回転処理(回転命令)を実行する場合の手順(回転処理を実行するためのユーザーインターフェース)の一例について説明する。 Next, with reference to FIG. 13, an example of a procedure (user interface for executing rotation processing) when executing image rotation processing (rotation command) will be described.
図13(a)に示すように、虚像表示領域25に画像G3を表示し、命令受付モードに遷移した状態で、右手の親指と人差し指を境界27bおよび境界27cを跨ぐように反時計回りに回転する操作が行われた場合(言い換えれば、右手全体を回転させて、ポインターP1およびポインターP2を反時計周りに回転させるような操作が行われた場合)、頭部装着型表示装置HMは、図13(b)に示すように、表示されている画像G3を反時計周りに90度回転する処理(回転命令)を実行する。この時、頭部装着型表示装置HMは、ポインターP1およびP2の形状を回転処理が行われたことを示す矢印形状の図形(回転方向を示す矢印形状の図形)に変更して表示する。
As shown in FIG. 13A, the image G3 is displayed in the virtual
なお、図13(c)に示すように、右手の親指を支点とし(固定し)、人差し指のみを反時計回りに回転させる操作が行われた場合も(言い換えれば、ポインターP2のみを反時計周りに回転させるような操作が行われた場合も)、上述と同様に回転処理(回転命令)を実行することが可能である。また、上述では、画像G3を反時計回りに回転する手順を説明したが、指示体(親指や人差し指)を時計回りに回転操作することで、画像G3を時計回りに90度回転させることができる。また、両手(例えば、両手の人差し指)を使って、同様の回転操作を行うことも可能である。 In addition, as shown in FIG. 13C, there is a case where an operation is performed in which only the index finger is rotated counterclockwise with the thumb of the right hand as a fulcrum (in other words, only the pointer P2 is rotated counterclockwise). The rotation processing (rotation command) can be executed in the same manner as described above. In the above description, the procedure for rotating the image G3 counterclockwise has been described. However, the image G3 can be rotated 90 degrees clockwise by rotating the indicator (thumb or index finger) clockwise. . It is also possible to perform the same rotation operation using both hands (for example, the index fingers of both hands).
また、上述では、1回の回転操作で画像G3を時計周りに90度回転するものとしているが、あくまでも一例であり、回転角度は任意である。例えば、1回の回転操作で45度ずつ回転させるようにしても良い。また、回転角度を、指の回転度合や回転スピード等に基づいて決めても良い。あるいは、同じ位置での指の回転回数に基づいて回転角度を決めても良い。 In the above description, the image G3 is rotated 90 degrees clockwise by one rotation operation. However, this is only an example, and the rotation angle is arbitrary. For example, you may make it rotate 45 degree | times by one rotation operation. Further, the rotation angle may be determined based on the degree of rotation of the finger, the rotation speed, or the like. Alternatively, the rotation angle may be determined based on the number of finger rotations at the same position.
また、上述では、使用者に回転処理を行ったことを報知するために、ポインターP1およびP2の形状を、回転方向を示す矢印形状の図形に変更して表示しているが、あくまでも一例である。ポインターP1およびP2を上記とは異なる形状(図形)に変更しても良い。また、ポインターP1およびP2のいずれか一方のみを形状変更しても良い。あるいは、両ポインターPの形状を変更しなくても良い。 In the above description, in order to notify the user that the rotation process has been performed, the shape of the pointers P1 and P2 is changed to an arrow-shaped graphic indicating the rotation direction, but this is merely an example. . The pointers P1 and P2 may be changed to shapes (graphics) different from the above. Further, the shape of only one of the pointers P1 and P2 may be changed. Alternatively, the shape of both pointers P need not be changed.
また、上述では、回転処理を、2つの指示体(2つのポインターP1、P2)を境界27bおよび境界27cの近傍で回転操作することで実行しているが、あくまでも一例であり、これに限るものではない。他の境界27(例えば、境界27aと境界27d等)に対して同様の操作を行った場合でも回転処理を実行できる。
In the above description, the rotation process is executed by rotating the two indicators (two pointers P1 and P2) in the vicinity of the
以上説明したように、第1実施形態によれば、使用者が2つのポインターPを虚像表示領域25の境界27の近傍に移動するように(境界27の近傍に位置するように)各指示体を操作するだけで、境界27の近傍に予め割り当てられた所定の命令(処理)を実行できる。すなわち、使用者は煩雑な操作をすることなく、簡単(単純)、且つ直感的な操作で所定の命令を実行できるため、使い勝手が良い。また、簡単な操作で行えるため(煩雑な操作を必要としないため)、誤認識が少なく、安定して動作するユーザーインターフェースを提供できる。
As described above, according to the first embodiment, each indicator is moved so that the user moves the two pointers P in the vicinity of the
なお、本実施例で述べた各種命令を実行するための指示体の操作方法(各種命令を実行するためのポインターPの動き)は一例であり、これに限るものではない。 Note that the operation method of the indicator for executing the various commands described in this embodiment (the movement of the pointer P for executing the various commands) is an example, and is not limited thereto.
また、本実施例における各種命令の割り当て位置は一例であり、これに限るものではない。例えば、2つの指示体が虚像表示領域25から左右の境界27b、27a(または上下の境界27c、27d)を越えて外景視認領域26に移動するように操作された場合に拡大処理をし、外景視認領域26から左右の境界27b、27a(または上下の境界27c、27d)を越えて虚像表示領域25に移動するように操作された場合に縮小処理を実行するよう命令を割り当てても良い。
Moreover, the allocation positions of various instructions in this embodiment are merely examples, and the present invention is not limited to this. For example, when two indicators are operated to move from the virtual
また、本実施例で説明した拡大縮小処理や回転処理等を行うための命令を組み合わせて割り当てることで、例えば、拡大処理と回転処理とを連続的に実行することも可能である。 Further, for example, the enlargement process and the rotation process can be continuously executed by combining and assigning instructions for performing the enlargement / reduction process and the rotation process described in the present embodiment.
また、本実施例で説明した命令以外の命令を割り当てることも可能である。例えば、虚像表示領域25に映画を表示している場合には、上述の拡大縮小処理の操作と同様の操作をすることで音量を調節するような命令を割り当てる等、コンテンツに応じた命令を割り当てることが可能である。つまり、コンテンツに応じて、各境界27の近傍に異なる命令を割り当ても良い。
It is also possible to assign instructions other than the instructions described in this embodiment. For example, when a movie is displayed in the virtual
また、本実施例では、2つの指示体として2本の指(指先)を例示しているが、両手の手のひら(手のひらの曲線)を指示体として検出しても良い。例えば、両手の手のひらを使って画像の拡大処理を行う場合、図14に示すように、両手の手のひらを指示体として検出してポインターP1およびP2を表示し、両手の手のひら(ポインターP1およびP2)を虚像表示領域25から外景視認領域26に向かう方向に(矢印Mおよび矢印Nの方向に)広げる動作をし、境界27aおよび境界27bの近傍に移動させることで画像G4を拡大することができる。すなわち、画像G4を中心に、両手を外側に広げる動作をすることで拡大処理を行うことができる。なお、縮小処理の場合は、拡大処理と反対の操作、すなわち、外景視認領域26側から虚像表示領域25に向かう方向に(虚像表示領域25内の画像G4に向かって)両手の手のひらを近づける動作をすることで実行することができる。
In the present embodiment, two fingers (fingertips) are illustrated as two indicators, but the palms of both hands (the palm curve) may be detected as the indicators. For example, when image enlargement processing is performed using the palms of both hands, as shown in FIG. 14, the palms of both hands are detected as indicators and pointers P1 and P2 are displayed, and the palms of both hands (pointers P1 and P2). Is expanded in the direction from the virtual
また、本実施例では、2つの指示体を用いて各種処理を実行しているが、これに限るものではなく、3つ以上の指示体を用いる場合にも適用可能である。 In the present embodiment, various processes are executed using two indicators, but the present invention is not limited to this, and the present invention can be applied to the case where three or more indicators are used.
また、本実施例では、虚像表示領域25の大きさが、外景視認領域26の大きさよりも小さい場合を例示しているが、これに限るものではない。虚像表示領域25と外景視認領域26の大きさが同じである場合(言い換えれば、虚像表示領域25が視界21と同等の大きさの場合)、あるいは虚像表示領域25が外景視認領域26よりも大きい場合(言い換えれば、虚像表示領域25が視界21よりも大きい場合)においても、本発明は適用可能である。後者の場合、請求項における「所定の表示領域」は外景視認領域26の縁部(視界21の縁部)となり、「表示周辺領域」は外景視認領域26の外側の領域、すなわち視界21の外側の領域となる。
In the present embodiment, the case where the size of the virtual
[第2実施形態]
次に、図15および図16を参照し、本発明の第2実施形態について説明する。上記の第1実施形態では、使用者に虚像を視認させる画像表示部40や画像表示部40を制御する制御部30等を1つの筐体内(装置内)に実装して頭部装着型表示装置HMを実現しているが、本実施形態では、これらを別々の装置として実現して接続することで頭部装着型表示装置HMを構成する。以下、第1実施形態と異なる点を説明する。なお、本実施形態において、第1実施形態と同様の構成部分については同様の符号を付し、詳細な説明を省略する。また、第1実施形態と同様の構成部分について適用される変形例は、本実施形態についても同様に適用される。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. 15 and 16. In the first embodiment, the
図15は、第2実施形態に係る頭部装着型表示装置HMの外観構成を示す説明図である。頭部装着型表示装置HMは、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示装置300と、画像表示装置300を制御するコントローラー200(制御装置)と、を備えている。請求項における表示装置は、コントローラー200および画像表示装置300を主要な構成要素とする。
FIG. 15 is an explanatory diagram showing an external configuration of a head-mounted display device HM according to the second embodiment. The head-mounted display device HM includes an
画像表示装置300は、右保持部11、右表示駆動部12、左保持部13、左表示駆動部14、右光学像表示部15、左光学像表示部16、およびセンサー17に加え、画像表示装置300をコントローラー200に接続するための接続部310を有している。
The
接続部310は、コントローラー200に接続される本体コード311と、本体コード311が2本に分岐した右コード312と、左コード313と、分岐点に設けられた連結部材314と、を含んでいる。右コード312は、右保持部11の延伸方向の先端部APから右保持部11の筐体内に挿入され、右表示駆動部12に接続されている。同様に、左コード313は、左保持部13の延伸方向の先端部APから左保持部13の筐体内に挿入され、左表示駆動部14に接続されている。
The
画像表示装置300とコントローラー200とは、接続部310を介して各種信号の伝送を行う。本体コード311における連結部材314とは反対側の端部と、コントローラー200とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード311のコネクターとコントローラー200のコネクターとの嵌合/嵌合解除により、コントローラー200と画像表示装置300とが接続されたり切り離されたりする。本体コード311と、右コード312と、左コード313には、例えば、金属ケーブルや、光ファイバーを採用することができる。
The
コントローラー200は、画像表示装置300と接続部310を介して接続し、画像表示装置300による画像表示を制御する装置である。コントローラー200は、点灯部201と、タッチパッド202と、操作キー群203と、電源スイッチ204とを有している。
The
点灯部201は、頭部装着型表示装置HMの動作状態を、その発光状態によって通知する。頭部装着型表示装置HMの動作状態とは、例えば、電源のON/OFF状態等である。点灯部201としては、例えば、LED(Light Emitting Diode)を用いることができる。
The
タッチパッド202は、操作面上で使用者の指の操作を検出して、検出内容に応じた信号を出力する。例えば、使用者によるポインティング(位置指定)操作や、クリック操作、ドラッグ操作、フリック操作等を受け付けることができる。
The
本実施例のタッチパッド202は、第1実施形態の指示体としても機能する。すなわち、2本の指でタッチパッド202の操作することにより各指に対応した2つのポインターを虚像表示領域25に表示し、操作面上での操作に基づき2つのポインターを移動させることにより、上述したメニュー画面の表示や、画像等の拡大縮小処理、回転処理等の各種命令を実行することができる。
The
操作キー群203は、方向キー、決定キー、バックキー等の各種操作キーを備える。各操作キーは、使用者に押下されることにより、押下された操作キーに予め対応づけられた処理を示す信号を出力する。電源スイッチ204は、スイッチのスライド操作を検出することで、頭部装着型表示装置HMの電源ON/OFFを切り替える。
The operation
図16は、第2実施形態に係る頭部装着型表示装置HMの構成を機能的に示すブロック図である。図16に示すように、コントローラー200は、制御部30、電源部71およびインターフェース72に加え、操作部211を有している。操作部211は、タッチパッド202、操作キー群203(方向キー、決定キー、バックキー)や電源スイッチ204である。
FIG. 16 is a block diagram functionally showing the configuration of the head-mounted display device HM according to the second embodiment. As illustrated in FIG. 16, the
また、制御部30のCPU50は、記憶部60からコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)51や、画像処理部52、表示制御部53、画像解析部54、命令実行部55および音声処理部56に加え、操作制御部212としても機能する。
In addition, the
操作制御部212は、操作部211における使用者の操作に応じて操作部211から出力される信号を受信し、画像処理部52や表示制御部53等に信号に応じた動作を行わせる。例えば、操作部211から使用者がタッチパッド202に触れたこと示す信号を受信し(検出し)、画像処理部52や表示制御部53等にポインターPの表示等を行わせる。すなわち、本実施例の操作制御部212は、請求項における指示体検出部に相当する。
The
画像表示装置300は、右表示駆動部12、左表示駆動部14、右光学像表示部15としての右導光板86、および左光学像表示部16としての左導光板96から成る画像表示部40と、センサー17と、右イヤホン18と、左イヤホン19と、を有している。これら各部の構成は第1実施形態と同様であるため、説明を省略する。
The
このように、頭部装着型表示装置HMを、使用者に虚像を視認させる画像表示装置300と、画像表示装置300を制御するコントローラー200とにより構成する場合においても、本発明は適用可能である。
Thus, the present invention can also be applied to the case where the head-mounted display device HM includes the
なお、本実施例では、コントローラー200と画像表示装置300とが接続部310により有線接続される構成を例示しているが、コントローラー200と画像表示装置300とが無線LANや赤外線通信、Bluetooth(登録商標)等により接続する構成としても良い。
In this embodiment, the
また、タッチパッド202の操作面の外周(周辺)に、外景視認領域26に対応する操作領域(以下、「周辺操作領域」と称す)を設けても良い。これにより、例えば、タッチパッド202の操作面から周辺操作領域に指を移動(フリック)させることで、虚像表示領域25から境界27を超えて外景視認領域26にポインターPを移動させるような操作が可能となり、周辺操作領域から操作面に指を移動させることで、外景視認領域26から境界27を超えて虚像表示領域25にポインターPを移動させるような操作が可能となる。すなわち、操作面と周辺操作領域の境目を境界27とみなすことができるため、タッチパッド202を使用する場合においても直感的な操作が可能となる。
Further, an operation area (hereinafter referred to as “peripheral operation area”) corresponding to the outside scene
また、本実施例のコントローラー200の機能をパーソナルコンピュータ(PC)、携帯情報端末(PAD、携帯電話、時計型携帯端末)等により実現しても良い。
Further, the function of the
また、上記実施例(第1実施形態および第2実施形態)では、表示装置として両眼タイプの頭部装着型表示装置HM(光学透過型頭部装着型表示装置)を例示しているが、本発明は、例えばビデオ透過型や非透過型、単眼タイプ等の他の形式の頭部装着型表示装置にも適用可能である。また、上記実施例では、眼の前方を覆う眼鏡タイプの頭部装着型表示装置HMを例示しているが、これに限るものではなく、眼の前方を完全に覆わないタイプ(眼の前方の一部を覆うタイプ)の頭部装着型表示装置にも適用可能である。さらに、本発明は、頭部装着型表示装置に限らず、ヘッドアップディスプレイや、パーソナルコンピュータ、プロジェクター、テレビ、携帯情報端末といった他の情報処理装置にも適用可能である。 In the above-described examples (first embodiment and second embodiment), the binocular head-mounted display device HM (optical transmission type head-mounted display device) is exemplified as the display device. The present invention is also applicable to other types of head mounted display devices such as a video transmission type, a non-transmission type, and a monocular type. In the above embodiment, the eyeglass-type head-mounted display device HM that covers the front of the eye is illustrated, but the present invention is not limited to this, and the type that does not completely cover the front of the eye (the front of the eye). The present invention can also be applied to a head-mounted display device of a type that partially covers). Furthermore, the present invention is not limited to a head-mounted display device, and can be applied to other information processing devices such as a head-up display, a personal computer, a projector, a television, and a portable information terminal.
また、上記実施例では、画像光生成部は、バックライト制御部(右バックライト制御部81および左バックライト制御部91)と、バックライト(右バックライト82および左バックライト92)と、LCD制御部(右LCD制御部83および左LCD制御部93)と、LCD(右LCD84および左LCD94)とを用いて構成されるものとしたが、この様態はあくまでも一例である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えても良い。
In the above embodiment, the image light generation unit includes a backlight control unit (right
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス,Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon,LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。レーザー網膜投影型の場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。すなわち、この画像領域は、本実施形態における虚像表示領域25に相当する。また、頭部装着型表示装置の光学系は、外光を光学部材を透過させて画像光と共に使用者の眼に入射させるもので有り使用者の眼の一部を覆うものであっても良く、光学部材はレーザー等の走査方式の画像光であっても良く、光学部材は画像光を部材内部を導光させる物に限らず、使用者の眼の方向に屈折または反射させる機能のみを有しても良い。
For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device. In the case of the laser retinal projection type, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes. That is, this image area corresponds to the virtual
また、本実施例では、光学系として画像光生成部で射出された画像光を投写する投写光学系(右投写光学系85および左投写光学系95)を適用しているが、この様態はあくまでも一例である。例えば、光学系としてMEMSミラーで構成された走査光学系を採用し、走査光学系に信号光を射出する信号光変調部(信号光形成部)を備える構成としても良い。この場合、信号光変調部で形成し射出された信号光をスキャン部である走査光学系(MEMSミラー)に入射する。走査光学系は信号光を走査光としてハーフミラー層を有する導光体に向けて射出し、ハーフミラー層の面上において走査光が走査されることにより、画像光による虚像が形成され、この虚像を使用者が眼で捉えることで画像を認識することができる。この場合、使用者の眼が画像を認識する領域が、本実施形態における虚像表示領域25に相当する。すなわち、走査光学系を用いた場合においても、上述の方法によりポインター等の画像を使用者に認識させ、当該ポインターの移動により虚像表示領域25の境界27の近傍に割り当てられた命令の実行を制御することができる。
In this embodiment, the projection optical system (the right projection optical system 85 and the left projection optical system 95) that projects the image light emitted from the image light generation unit is applied as the optical system. It is an example. For example, a scanning optical system composed of a MEMS mirror may be employed as the optical system, and a signal light modulation unit (signal light forming unit) that emits signal light to the scanning optical system may be provided. In this case, the signal light formed and emitted by the signal light modulation unit is incident on a scanning optical system (MEMS mirror) that is a scanning unit. The scanning optical system emits signal light as scanning light toward a light guide having a half mirror layer, and the scanning light is scanned on the surface of the half mirror layer to form a virtual image by image light. The user can recognize the image by grasping with the eyes. In this case, the area where the user's eyes recognize the image corresponds to the virtual
また、上記の実施形態に示した頭部装着型表示装置HMの各機能(各処理)をプログラムとして提供することが可能である。また、そのプログラムを各種記録媒体(CD−ROM、フラッシュメモリ等)に格納して提供することも可能である。すなわち、コンピューターを、頭部装着型表示装置HMの各構成要素として機能させるためのプログラム、およびそれを記録した記録媒体も、本発明の権利範囲に含まれるものである。 Moreover, it is possible to provide each function (each process) of the head-mounted display device HM shown in the above embodiment as a program. Further, the program can be provided by being stored in various recording media (CD-ROM, flash memory, etc.). That is, a program for causing a computer to function as each component of the head-mounted display device HM and a recording medium on which the program is recorded are also included in the scope of the right of the present invention.
また、上述した実施例によらず、頭部装着型表示装置HMの装置構成や処理工程等について、本発明の要旨を逸脱しない範囲で、適宜変更も可能である。 Further, regardless of the above-described embodiments, the device configuration and processing steps of the head-mounted display device HM can be appropriately changed without departing from the gist of the present invention.
15…右光学像表示部 16…左光学像表示部 17…センサー 25…虚像表示領域 26…外景視認領域 27、27a〜27d…境界 30…制御部 40…画像表示部 52…画像処理部 53…表示制御部 54…画像解析部 55…命令実行部 81…右バックライト制御部 82…右バックライト 83…右LCD制御部 84…右LCD 86…右導光板 91…左バックライト制御部 92…左バックライト 93…左LCD制御部 94…左LCD 96…左導光板 200…コントローラー 300…画像表示装置 P、P1、P2…ポインター IC…アイコン HM…頭部装着型表示装置
DESCRIPTION OF
Claims (16)
前記指示体検出部により前記各指示体を検出して、前記各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、
前記各指示体の操作に伴って、複数の前記ポインターが、前記所定の表示領域と、前記所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、前記複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする表示装置。 An indicator detection unit for detecting a plurality of indicators operated by the user;
A pointer display unit that detects each indicator by the indicator detection unit and displays a pointer that operates in conjunction with each of the indicators in a predetermined display area;
When the plurality of pointers move to the vicinity of the boundary between the predetermined display area and a display peripheral area other than the predetermined display area in accordance with the operation of each indicator, the plurality of pointers An instruction execution unit that executes a predetermined instruction according to the movement of the display device.
前記複数のポインターの前記境界の近傍への移動順序に応じて、異なる命令を実行することを特徴とする請求項1に記載の表示装置。 The instruction execution unit is
The display device according to claim 1, wherein different instructions are executed according to a movement order of the plurality of pointers to the vicinity of the boundary.
前記複数のポインターのうちの、少なくとも1のポインターが前記境界の近傍に移動した場合、前記表示領域の内縁に沿って枠画像を表示することを特徴とする請求項1または2に記載の表示装置。 The instruction execution unit is
3. The display device according to claim 1, wherein a frame image is displayed along an inner edge of the display area when at least one of the plurality of pointers moves in the vicinity of the boundary. .
前記指示体検出部により、前記複数の指示体が前記所定の表示領域から前記境界を越えて前記表示周辺領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することを特徴とする請求項1ないし3のいずれか1項に記載の表示装置。 The instruction execution unit is
When the indicator detection unit detects that the plurality of indicators are operated in a direction to move from the predetermined display area to the display peripheral area beyond the boundary, a predetermined instruction is executed. The display device according to claim 1, wherein the display device is a display device.
前記指示体検出部により、前記複数の指示体が前記表示周辺領域から前記境界を越えて前記所定の表示領域へ移動する方向に操作されたことを検出した場合、所定の命令を実行することを特徴とする請求項1ないし4のいずれか1項に記載の表示装置。 The instruction execution unit is
When the indicator detection unit detects that the plurality of indicators are operated from the display peripheral area to the predetermined display area across the boundary, a predetermined command is executed. The display device according to claim 1, wherein the display device is characterized.
前記指示体検出部により、前記複数のポインターが前記境界に沿って移動する前記複数の指示体の操作を検出した場合、所定の命令を実行することを特徴とする請求項1ないし5のいずれか1項に記載の表示装置。 The instruction execution unit is
The predetermined instruction is executed when the pointer detection unit detects an operation of the plurality of pointers in which the plurality of pointers move along the boundary. Item 1. A display device according to item 1.
前記複数のポインターが前記境界に沿って移動する際の前記複数のポインターの移動方向に応じて、異なる命令を実行することを特徴とする請求項6に記載の表示装置。 The instruction execution unit is
The display device according to claim 6, wherein different instructions are executed according to a moving direction of the plurality of pointers when the plurality of pointers move along the boundary.
前記複数のポインターが前記境界の近傍にある状態で、前記複数の指示体のうち少なくとも1の指示体が回転動作された場合、前記所定の表示領域に表示された画像を前記指示体の回転方向に回転させることを特徴とする請求項1ないし7のいずれか1項に記載の表示装置。 The instruction execution unit is
When at least one indicator among the plurality of indicators is rotated in a state where the plurality of pointers are in the vicinity of the boundary, an image displayed in the predetermined display area is displayed in a rotation direction of the indicator. The display device according to claim 1, wherein the display device is rotated.
前記境界の近傍における前記各指示体の動作に応じて、所定の命令を実行することを特徴とする請求項1ないし8のいずれか1項に記載の表示装置。 The instruction execution unit is
The display device according to claim 1, wherein a predetermined command is executed in accordance with an operation of each indicator in the vicinity of the boundary.
前記指示体検出部により、前記複数の指示体が前記表示周辺領域から前記境界を跨いで前記所定の表示領域に表示されたアイコンを挟む動作を検出した場合、前記アイコンに割り当てられた所定の命令を実行することを特徴とする請求項1ないし9のいずれか1項に記載の表示装置。 The instruction execution unit is
When the indicator detection unit detects an operation in which the plurality of indicators sandwich the icon displayed in the predetermined display area across the boundary from the display peripheral area, a predetermined command assigned to the icon The display device according to claim 1, wherein the display device is executed.
表示されているコンテンツに応じた所定の命令を実行することを特徴とする請求項1ないし10のいずれか1項に記載の表示装置。 The instruction execution unit is
The display device according to any one of claims 1 to 10, wherein a predetermined command corresponding to the displayed content is executed.
前記表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、
前記指示体検出部は、
使用者が、前記透過型の表示装置の使用者側の反対側である前記表示装置の外側前方で操作する前記複数の指示体を検出することを特徴とする表示装置。 The display device according to any one of claims 1 to 11,
The display device is a transmissive display device that allows a user to visually recognize an image as a virtual image,
The indicator detection unit includes:
A display device, wherein a user detects the plurality of indicators that are operated in front of the outside of the display device that is opposite to a user side of the transmissive display device.
前記表示装置は、使用者に画像を虚像として視認させる透過型の表示装置であり、
前記透過型の表示装置の画像表示部は、
表示対象となる画像データを用いて画像を表す画像光を生成して射出させる画像光生成部と、
射出された前記画像光を前記使用者の眼に導く光学部材と、を含み、
外景の光を前記光学部材を透過して前記画像光と共に前記使用者の眼に入射させることを特徴とする表示装置。 The display device according to any one of claims 1 to 11,
The display device is a transmissive display device that allows a user to visually recognize an image as a virtual image,
The image display unit of the transmissive display device includes:
An image light generation unit that generates and emits image light representing an image using image data to be displayed; and
An optical member for guiding the emitted image light to the eyes of the user,
A display device characterized in that light of an outside scene passes through the optical member and enters the user's eyes together with the image light.
使用者が操作する複数の指示体を検出する指示体検出部と、
前記指示体検出部により前記各指示体を検出して、前記各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するポインター表示部と、
前記各指示体の操作に伴って、複数の前記ポインターが、前記所定の表示領域と、前記所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、前記複数のポインターの動きに応じた所定の命令を実行する命令実行部と、を備えたことを特徴とする頭部装着型表示装置。 A transmissive head-mounted display device that allows a user to visually recognize an image as a virtual image,
An indicator detection unit for detecting a plurality of indicators operated by the user;
A pointer display unit that detects each indicator by the indicator detection unit and displays a pointer that operates in conjunction with each of the indicators in a predetermined display area;
When the plurality of pointers move to the vicinity of the boundary between the predetermined display area and a display peripheral area other than the predetermined display area in accordance with the operation of each indicator, the plurality of pointers And a command execution unit that executes a predetermined command according to the movement of the head.
前記頭部装着型表示装置を装着した状態における前記使用者の前方を撮像することで、前記複数の指示体を検出することを特徴とする請求項14に記載の頭部装着型表示装置。 The indicator detection unit includes:
The head-mounted display device according to claim 14, wherein the plurality of indicators are detected by imaging the front of the user in a state where the head-mounted display device is mounted.
使用者が操作する複数の指示体を検出するステップと、
前記各指示体を検出して、前記各指示体のそれぞれと連動して動作するポインターを所定の表示領域に表示するステップと、
前記各指示体の操作に伴って、複数の前記ポインターが、前記所定の表示領域と、前記所定の表示領域以外の領域である表示周辺領域との境界の近傍に移動した場合、前記複数のポインターの動きに応じた所定の命令を実行するステップと、を実行することを特徴とする表示装置の制御方法。 Display device
Detecting a plurality of indicators operated by the user;
Detecting each indicator and displaying a pointer that operates in conjunction with each of the indicators in a predetermined display area;
When the plurality of pointers move to the vicinity of the boundary between the predetermined display area and a display peripheral area other than the predetermined display area in accordance with the operation of each indicator, the plurality of pointers And a step of executing a predetermined command in accordance with the movement of the display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013010015A JP6251957B2 (en) | 2013-01-23 | 2013-01-23 | Display device, head-mounted display device, and display device control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013010015A JP6251957B2 (en) | 2013-01-23 | 2013-01-23 | Display device, head-mounted display device, and display device control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014142751A true JP2014142751A (en) | 2014-08-07 |
JP6251957B2 JP6251957B2 (en) | 2017-12-27 |
Family
ID=51423989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013010015A Active JP6251957B2 (en) | 2013-01-23 | 2013-01-23 | Display device, head-mounted display device, and display device control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6251957B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160066451A (en) * | 2014-12-02 | 2016-06-10 | 경북대학교 산학협력단 | Head mounted display device and control method thereof |
JP2017091433A (en) * | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | Head-mounted type display device, method of controlling head-mounted type display device, and computer program |
JP2017120488A (en) * | 2015-12-28 | 2017-07-06 | セイコーエプソン株式会社 | Display device, display system, control method of display device, and program |
JP2017120302A (en) * | 2015-12-28 | 2017-07-06 | セイコーエプソン株式会社 | Display device, display system, control method of display device, and program |
WO2019059044A1 (en) * | 2017-09-20 | 2019-03-28 | 日本電気株式会社 | Information processing device, control method, and program |
JP6499384B2 (en) * | 2016-08-24 | 2019-04-10 | ナーブ株式会社 | Image display apparatus, image display method, and image display program |
CN109690455A (en) * | 2017-06-29 | 2019-04-26 | 苹果公司 | Finger-worn type device with sensor and haptics member |
WO2019097843A1 (en) * | 2017-11-16 | 2019-05-23 | 株式会社デンソー | Virtual image display system, virtual image display device, operation input device, method for displaying virtual image, program, and recording medium |
US10795438B2 (en) | 2018-04-05 | 2020-10-06 | Apple Inc. | Electronic finger devices with charging and storage systems |
US10845894B2 (en) | 2018-11-29 | 2020-11-24 | Apple Inc. | Computer systems with finger devices for sampling object attributes |
JP2020198108A (en) * | 2017-04-28 | 2020-12-10 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, control method of information processing device, and program |
US11042233B2 (en) | 2018-05-09 | 2021-06-22 | Apple Inc. | Finger-mounted device with fabric |
US11287886B1 (en) | 2020-09-15 | 2022-03-29 | Apple Inc. | Systems for calibrating finger devices |
US11709554B1 (en) | 2020-09-14 | 2023-07-25 | Apple Inc. | Finger devices with adjustable housing structures |
US11755107B1 (en) | 2019-09-23 | 2023-09-12 | Apple Inc. | Finger devices with proximity sensors |
US11762429B1 (en) | 2017-09-14 | 2023-09-19 | Apple Inc. | Hinged wearable electronic devices |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001356875A (en) * | 2000-06-13 | 2001-12-26 | Toshiba Corp | Pointer display system |
JP2005321870A (en) * | 2004-05-06 | 2005-11-17 | Alpine Electronics Inc | Operation input device and operation input method |
JP2008017501A (en) * | 2007-07-27 | 2008-01-24 | Fujifilm Corp | Electronic camera |
WO2009072504A1 (en) * | 2007-12-07 | 2009-06-11 | Sony Corporation | Control device, input device, control system, control method, and hand-held device |
JP2009251154A (en) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | Head mounted type video display |
JP2010086367A (en) * | 2008-10-01 | 2010-04-15 | Sony Corp | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
JP2010096864A (en) * | 2008-10-14 | 2010-04-30 | Canon Inc | Aberration correction method, image processing apparatus and image processing system |
JP2011054165A (en) * | 2009-09-02 | 2011-03-17 | Pixart Imaging Inc | Gesture recognition method for interactive system, and the interactive system |
WO2011055451A1 (en) * | 2009-11-06 | 2011-05-12 | パイオニア株式会社 | Information processing device, method therefor, and display device |
JP2012118796A (en) * | 2010-12-01 | 2012-06-21 | Sony Corp | Information processing apparatus, information processing method and program |
-
2013
- 2013-01-23 JP JP2013010015A patent/JP6251957B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001356875A (en) * | 2000-06-13 | 2001-12-26 | Toshiba Corp | Pointer display system |
JP2005321870A (en) * | 2004-05-06 | 2005-11-17 | Alpine Electronics Inc | Operation input device and operation input method |
JP2008017501A (en) * | 2007-07-27 | 2008-01-24 | Fujifilm Corp | Electronic camera |
WO2009072504A1 (en) * | 2007-12-07 | 2009-06-11 | Sony Corporation | Control device, input device, control system, control method, and hand-held device |
JP2009251154A (en) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | Head mounted type video display |
JP2010086367A (en) * | 2008-10-01 | 2010-04-15 | Sony Corp | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
JP2010096864A (en) * | 2008-10-14 | 2010-04-30 | Canon Inc | Aberration correction method, image processing apparatus and image processing system |
JP2011054165A (en) * | 2009-09-02 | 2011-03-17 | Pixart Imaging Inc | Gesture recognition method for interactive system, and the interactive system |
WO2011055451A1 (en) * | 2009-11-06 | 2011-05-12 | パイオニア株式会社 | Information processing device, method therefor, and display device |
JP2012118796A (en) * | 2010-12-01 | 2012-06-21 | Sony Corp | Information processing apparatus, information processing method and program |
Non-Patent Citations (1)
Title |
---|
木村勝敏 他: ""ジェスチャを用いたユーザインタフェースの構築"", 情報処理学会第68回全国大会講演論文集(4), JPN6016038556, 7 March 2006 (2006-03-07), pages 4 - 91, ISSN: 0003667676 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160066451A (en) * | 2014-12-02 | 2016-06-10 | 경북대학교 산학협력단 | Head mounted display device and control method thereof |
KR101651535B1 (en) | 2014-12-02 | 2016-09-05 | 경북대학교 산학협력단 | Head mounted display device and control method thereof |
JP2017091433A (en) * | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | Head-mounted type display device, method of controlling head-mounted type display device, and computer program |
JP2017120488A (en) * | 2015-12-28 | 2017-07-06 | セイコーエプソン株式会社 | Display device, display system, control method of display device, and program |
JP2017120302A (en) * | 2015-12-28 | 2017-07-06 | セイコーエプソン株式会社 | Display device, display system, control method of display device, and program |
JP6499384B2 (en) * | 2016-08-24 | 2019-04-10 | ナーブ株式会社 | Image display apparatus, image display method, and image display program |
JPWO2018038136A1 (en) * | 2016-08-24 | 2019-06-24 | ナーブ株式会社 | IMAGE DISPLAY DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM |
US11896893B2 (en) | 2017-04-28 | 2024-02-13 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
JP2022028692A (en) * | 2017-04-28 | 2022-02-16 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, control method of information processing device, and program |
US11260287B2 (en) | 2017-04-28 | 2022-03-01 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
US11617942B2 (en) | 2017-04-28 | 2023-04-04 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
US11077360B2 (en) | 2017-04-28 | 2021-08-03 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
JP2020198108A (en) * | 2017-04-28 | 2020-12-10 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, control method of information processing device, and program |
JP7086940B2 (en) | 2017-06-29 | 2022-06-20 | アップル インコーポレイテッド | Finger-worn device with sensor and tactile sensation |
US10838499B2 (en) | 2017-06-29 | 2020-11-17 | Apple Inc. | Finger-mounted device with sensors and haptics |
US11416076B2 (en) | 2017-06-29 | 2022-08-16 | Apple Inc. | Finger-mounted device with sensors and haptics |
US11914780B2 (en) | 2017-06-29 | 2024-02-27 | Apple Inc. | Finger-mounted device with sensors and haptics |
JP2019526864A (en) * | 2017-06-29 | 2019-09-19 | アップル インコーポレイテッドApple Inc. | This application relates to U.S. Patent Application No. 16 / 015,043 filed June 21, 2018, and U.S. Provisional Patent Application No. 62/526, filed June 29, 2017. No. 792 is claimed and is incorporated herein by reference in its entirety. |
CN109690455B (en) * | 2017-06-29 | 2022-03-11 | 苹果公司 | Finger-worn device with sensor and haptic |
CN109690455A (en) * | 2017-06-29 | 2019-04-26 | 苹果公司 | Finger-worn type device with sensor and haptics member |
US11762429B1 (en) | 2017-09-14 | 2023-09-19 | Apple Inc. | Hinged wearable electronic devices |
JPWO2019059044A1 (en) * | 2017-09-20 | 2020-10-15 | 日本電気株式会社 | Information processing equipment, control methods, and programs |
JP7020490B2 (en) | 2017-09-20 | 2022-02-16 | 日本電気株式会社 | Information processing equipment, control methods, and programs |
US11199946B2 (en) | 2017-09-20 | 2021-12-14 | Nec Corporation | Information processing apparatus, control method, and program |
WO2019059044A1 (en) * | 2017-09-20 | 2019-03-28 | 日本電気株式会社 | Information processing device, control method, and program |
WO2019097843A1 (en) * | 2017-11-16 | 2019-05-23 | 株式会社デンソー | Virtual image display system, virtual image display device, operation input device, method for displaying virtual image, program, and recording medium |
US11720174B2 (en) | 2018-04-05 | 2023-08-08 | Apple Inc. | Electronic finger devices with charging and storage systems |
US10795438B2 (en) | 2018-04-05 | 2020-10-06 | Apple Inc. | Electronic finger devices with charging and storage systems |
US11042233B2 (en) | 2018-05-09 | 2021-06-22 | Apple Inc. | Finger-mounted device with fabric |
US10845894B2 (en) | 2018-11-29 | 2020-11-24 | Apple Inc. | Computer systems with finger devices for sampling object attributes |
US11755107B1 (en) | 2019-09-23 | 2023-09-12 | Apple Inc. | Finger devices with proximity sensors |
US11709554B1 (en) | 2020-09-14 | 2023-07-25 | Apple Inc. | Finger devices with adjustable housing structures |
US11714495B2 (en) | 2020-09-14 | 2023-08-01 | Apple Inc. | Finger devices with adjustable housing structures |
US11287886B1 (en) | 2020-09-15 | 2022-03-29 | Apple Inc. | Systems for calibrating finger devices |
Also Published As
Publication number | Publication date |
---|---|
JP6251957B2 (en) | 2017-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6251957B2 (en) | Display device, head-mounted display device, and display device control method | |
US10133407B2 (en) | Display apparatus, display system, method for controlling display apparatus, and program | |
JP6036217B2 (en) | Display device, head-mounted display device, and display device control method | |
JP6206099B2 (en) | Image display system, method for controlling image display system, and head-mounted display device | |
CN106168848B (en) | Display device and control method of display device | |
JP5900393B2 (en) | Information processing apparatus, operation control method, and program | |
JP6264871B2 (en) | Information processing apparatus and information processing apparatus control method | |
JP6149403B2 (en) | Display device and control method of display device | |
WO2013088725A1 (en) | Head-mounted display and information display apparatus | |
US20120218303A1 (en) | Information processing apparatus, control method of information processing apparatus, and transmission head-mount type display device | |
US20130027572A1 (en) | Head-Mounted Display That Displays A Visual Representation Of Physical Interaction With An Input Interface Located Outside Of The Field Of View | |
JP5927867B2 (en) | Display system and operation input method | |
US20160216792A1 (en) | Head mounted display, and control method and control program for head mounted display | |
JP6303274B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP2017182228A (en) | Input device, input method, and computer program | |
JP6638392B2 (en) | Display device, display system, display device control method, and program | |
JP2014154074A (en) | Input device, head-mounted type display device, and method for controlling input device | |
JP6740613B2 (en) | Display device, display device control method, and program | |
JP6432583B2 (en) | Display device, head-mounted display device, and display device control method | |
JP2017157120A (en) | Display device, and control method for the same | |
US20240104873A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments | |
US20240103704A1 (en) | Methods for interacting with user interfaces based on attention | |
US20240094819A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
JP2016212769A (en) | Display device, control method for the same and program | |
JP2015165437A (en) | Transmission type head-mounted display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6251957 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |