JP2016130985A - Head-mounted type display device, method of controlling head-mounted type display device, and computer program - Google Patents

Head-mounted type display device, method of controlling head-mounted type display device, and computer program Download PDF

Info

Publication number
JP2016130985A
JP2016130985A JP2015005450A JP2015005450A JP2016130985A JP 2016130985 A JP2016130985 A JP 2016130985A JP 2015005450 A JP2015005450 A JP 2015005450A JP 2015005450 A JP2015005450 A JP 2015005450A JP 2016130985 A JP2016130985 A JP 2016130985A
Authority
JP
Japan
Prior art keywords
guidance
user
head
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015005450A
Other languages
Japanese (ja)
Other versions
JP6492673B2 (en
Inventor
薫 千代
Kaoru Sendai
薫 千代
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015005450A priority Critical patent/JP6492673B2/en
Priority to US14/982,441 priority patent/US10303435B2/en
Publication of JP2016130985A publication Critical patent/JP2016130985A/en
Application granted granted Critical
Publication of JP6492673B2 publication Critical patent/JP6492673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted type display device that can attract attention of a user to a real object existing in the real world, while ensuring visibility in the real world.SOLUTION: A head-mounted type display device allowing a user to visually recognize a virtual image comprises: an image display part that causes the user to visually recognize the virtual image; an image acquisition part that acquires an outer scenery image in the direction of visual field of the user wearing the head-mounted type display device; and a guide part that performs guide by sound about an object of attention that is at least one real object existing in the real world and included in the acquired outer scenery image, the real object attracting attention of the user.SELECTED DRAWING: Figure 4

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

利用者の頭部に装着されて使用され、利用者の視野領域に虚像を形成する頭部装着型表示装置が知られている。この頭部装着型表示装置は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)とも呼ばれる。近年、このようなHMDにおいて、現実世界に実在する実オブジェクトに対して利用者の注目を促すために、拡張現実感(AR、Augmented Reality)の技術が利用されている。   2. Description of the Related Art A head-mounted display device that is used by being mounted on a user's head and that forms a virtual image in the user's visual field region is known. This head-mounted display device is also called a head mounted display (HMD). In recent years, in such an HMD, an augmented reality (AR) technology has been used in order to attract the user's attention to a real object that exists in the real world.

HMDにおいてARを実現するために、HMDは、例えばカメラで外景を撮像し、撮像により得られた画像を画像認識し、仮想オブジェクトを生成または取得する。HMDを装着した状態において利用者の視界が遮断されない透過型のHMDでは、仮想オブジェクトを含む虚像のみを利用者に視認させる。利用者は、現実世界の実オブジェクトと、虚像によって表されている仮想オブジェクトと、の両方を見ることで、ARを体感することができる。特許文献1には、HMDにおいて、現実世界に実在する実オブジェクトである作業対象物の位置と、利用者の現在の位置とに応じて、利用者が次に移動すべき方位を表す矢印の画像を表示させる技術が記載されている。   In order to implement AR in the HMD, the HMD captures an outside scene with, for example, a camera, recognizes an image obtained by the imaging, and generates or acquires a virtual object. In a transmissive HMD in which the user's field of vision is not blocked when the HMD is worn, the user is allowed to visually recognize only a virtual image including a virtual object. The user can experience AR by looking at both real objects in the real world and virtual objects represented by virtual images. Patent Document 1 discloses an image of an arrow that represents a direction in which a user should move next in accordance with the position of a work target that is a real object that exists in the real world and the current position of the user in the HMD. A technique for displaying is described.

特開2014−71756号公報JP 2014-71756 A 特開2002−159019号公報JP 2002-159019 A

HMDの虚像は、利用者の視野領域に形成される。このため、特許文献1に記載された技術では、虚像(画像)として表示される情報の量が増えれば増えるほど、利用者の視野を狭める、換言すれば、現実世界の視認性が低下するという課題があった。このように、現実世界に実在する実オブジェクトに対して利用者の注目を促すためにARを利用する技術には、現実世界の視認性の確保という改善の余地があった。特許文献2に記載された技術では、現実世界に実在する実オブジェクトに対して利用者の注目を促すことについては、何ら考慮されていない。   A virtual image of the HMD is formed in the visual field region of the user. For this reason, in the technique described in Patent Document 1, the larger the amount of information displayed as a virtual image (image), the narrower the user's field of view, in other words, the real world visibility decreases. There was a problem. As described above, there is room for improvement in ensuring the visibility of the real world in the technology using AR in order to attract the user's attention to a real object that exists in the real world. In the technique described in Patent Document 2, no consideration is given to prompting the user to pay attention to a real object that exists in the real world.

このため、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置が望まれていた。   For this reason, a head-mounted display device capable of prompting a user's attention to a real object that exists in the real world while ensuring visibility in the real world has been desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、利用者が虚像を視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記利用者に前記虚像を視認させる画像表示部と;前記頭部装着型表示装置を装着した状態における前記利用者の視界方向の外景画像を取得する画像取得部と;現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う案内部と、を備える。
この形態の頭部装着型表示装置によれば、案内部は、現実世界に実在すると共に、取得された外景画像に含まれる少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行うことができる。音を用いた案内は、利用者の視野領域に形成される虚像を用いた案内と比較して、利用者の視野を狭める虞、換言すれば、現実世界の視認性が低下する虞を低くすることができる。この結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置を提供することができる。
(1) According to one aspect of the present invention, a head-mounted display device in which a user can visually recognize a virtual image is provided. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and an image acquisition unit that acquires an outside scene image in the user's visual field direction when the head-mounted display device is mounted. Guidance that uses sound to guide a target object that is real in the real world and that is at least one real object included in the acquired outside scene image, and that is a real object that prompts the user to pay attention A section.
According to the head-mounted display device of this aspect, the guide unit is an actual object that exists in the real world and is at least one real object included in the acquired outside scene image, and that prompts the user to pay attention. Guidance for the object of interest, which is an object, can be performed by sound. Compared with guidance using a virtual image formed in the user's visual field area, the guidance using sound reduces the risk of narrowing the user's visual field, in other words, lowering the visibility of the real world. be able to. As a result, it is possible to provide a head-mounted display device that can prompt the user to pay attention to a real object that actually exists in the real world while ensuring visibility in the real world.

(2)上記形態の頭部装着型表示装置では、さらに;前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え;前記案内部は;前記注目オブジェクトが、検出された前記視線の方向にないと推定される場合は、前記音により前記案内を行い;前記注目オブジェクトが、検出された前記視線の方向にある推定される場合は、前記音に加えてさらに、前記注目オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させることで、前記案内を行ってもよい。
この形態の頭部装着型表示装置によれば、案内部は、注目オブジェクトが利用者の視線の方向にないと推定される場合は、音により案内を行う。このため、案内部は、視線の方向にない注目オブジェクトに対する案内のために、利用者の視野領域に虚像が形成されることを抑制することができ、現実世界の視認性を確保することができる。一方、案内部は、注目オブジェクトが利用者の視線の方向にあると推定される場合は、音に加えてさらに、注目オブジェクトに付加的に表示するための仮想オブジェクトを含んだ虚像を形成させることで案内を行う。このため、案内部は、視線の方向にある注目オブジェクトに対する案内を、音と、虚像と、の両方の手段を用いて手厚く行うことができる。すなわち、利用者は、自身の視線の方向にある注目オブジェクトについては、視覚と聴覚とを介した案内を享受することができる。これらの結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置において、さらに、利用者の利便性を向上させることができる。
(2) The head-mounted display device according to the above aspect further includes: a line-of-sight detection unit that detects a direction of the user's line of sight when the head-mounted display device is mounted; If it is estimated that the object of interest is not in the detected direction of the line of sight, the guidance is performed by the sound; if the object of interest is estimated to be in the direction of the detected line of sight, the sound In addition, the guidance may be performed by causing the image display unit to form the virtual image including a virtual object to be additionally displayed on the object of interest.
According to the head-mounted display device of this aspect, the guidance unit performs guidance using sound when it is estimated that the object of interest is not in the direction of the user's line of sight. For this reason, the guide unit can suppress the formation of a virtual image in the visual field region of the user for guiding an object of interest that is not in the direction of the line of sight, and can ensure visibility in the real world. . On the other hand, when it is estimated that the target object is in the direction of the user's line of sight, the guide unit forms a virtual image including a virtual object for additionally displaying the target object in addition to the sound. I will guide you. For this reason, the guide unit can perform guidance for the object of interest in the direction of the line of sight using both sound and virtual images. That is, the user can enjoy guidance through visual and auditory senses for the object of interest in the direction of his / her line of sight. As a result, in the head-mounted display device that can attract the user's attention to the real object that exists in the real world while ensuring the visibility in the real world, the convenience of the user is further improved. Can be improved.

(3)上記形態の頭部装着型表示装置において;前記案内は;前記注目オブジェクトに対する前記利用者の注意喚起のための案内と;前記注目オブジェクトに関する情報の案内と;前記注目オブジェクトの位置に関する案内と;予め用意された手順情報に基づく、前記注目オブジェクトに対する前記利用者の作業内容の案内と;のうちの少なくともいずれか1つを含んでもよい。
この形態の頭部装着型表示装置によれば、案内部による案内を、種々の態様で実現することができる。例えば、注目オブジェクトに対する利用者の注意喚起のための案内を行う場合、案内部は、利用者に対する危険回避のための案内を行うことができる。注目オブジェクトに関する情報の案内を行う場合、案内部は、利用者に対する情報提供のための案内を行うことができる。注目オブジェクトの位置に関する案内を行う場合、案内部は、利用者に対する動作補助のための案内を行うことができる。注目オブジェクトに対する利用者の作業内容の案内を行う場合、案内部は、利用者に対する作業支援のための案内を行うことができる。
(3) In the head-mounted display device of the above aspect; the guidance; guidance for alerting the user to the attention object; guidance of information regarding the attention object; guidance regarding the position of the attention object And at least one of: guidance of the user's work contents for the object of interest based on procedure information prepared in advance.
According to the head-mounted display device of this form, guidance by the guide unit can be realized in various modes. For example, when performing guidance for alerting the user to the attention object, the guidance unit can perform guidance for avoiding danger to the user. When guiding information related to the object of interest, the guiding unit can perform guidance for providing information to the user. When performing guidance regarding the position of the object of interest, the guidance unit can provide guidance for assisting the operation of the user. When guiding the user's work content for the object of interest, the guide unit can provide guidance for work support to the user.

(4)上記形態の頭部装着型表示装置において;前記画像取得部は、前記外景画像を繰り返し取得し;前記案内部は、さらに;取得された複数の前記外景画像をそれぞれ画像認識し;前記複数の外景画像に含まれる実オブジェクトであって、経時的な変化が大きい実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部は、繰り返し取得された複数の外景画像において、経時的な変化が大きい実オブジェクトを注目オブジェクトとするため、例えば、移動量が大きい、移動速度が速い、等の実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、危険回避のための案内に適している。
(4) In the head-mounted display device according to the above aspect; the image acquisition unit repeatedly acquires the outside scene image; the guide unit further recognizes each of the acquired plurality of outside scene images; A real object included in a plurality of outside scene images and having a large change with time may be used as the object of interest.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image. In addition, since the guidance unit sets a real object having a large change over time in a plurality of repeatedly acquired outside scene images as a target object, for example, a real object having a large movement amount or a high movement speed is selected as the target object. It can be. The attention object identified in this way is particularly suitable for guidance for avoiding danger.

(5)上記形態の頭部装着型表示装置において;前記案内部は、さらに;取得された前記外景画像を画像認識し;前記外景画像に含まれる実オブジェクトであって、所定の特徴を有する実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部は、外景画像において、所定の特徴を有する実オブジェクトを注目オブジェクトとするため、例えば、「所定の特徴」を予め用意しておくことによって、様々な実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
(5) In the head-mounted display device according to the above aspect; the guide unit further recognizes the acquired outside scene image; an actual object included in the outside scene image and has a predetermined feature An object may be the attention object.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image. In addition, in order to make a real object having a predetermined characteristic an attention object in an outside scene image, for example, by preparing a “predetermined characteristic” in advance, various kinds of real objects are set as attention objects. Can do. The target object identified in this way is suitable for all types of guidance such as danger avoidance, information provision, motion assistance, and work support.

(6)上記形態の頭部装着型表示装置では、さらに;前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え;前記画像取得部は、前記外景画像を繰り返し取得し;前記視線検出部は、前記視線の方向を繰り返し検出し;前記案内部は、さらに;取得された複数の前記外景画像と、複数回にわたり検出された前記視線の方向と、を照合し;前記複数の外景画像に含まれる実オブジェクトであって、前記視線の先にある割合が多いと推定される実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像と、検出された視線の方向と、から自動的に注目オブジェクトを特定することができる。また、案内部は、繰り返し取得された複数の外景画像と視線の方向とにおいて、視線の先にある割合が多いと推定される実オブジェクトを注目オブジェクトとするため、例えば、利用者がよく見る実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、情報提供、動作補助、作業支援といったタイプの案内に適している。
(6) The head-mounted display device according to the above aspect further includes: a line-of-sight detection unit that detects a direction of the user's line of sight when the head-mounted display device is mounted; The outside scene image is repeatedly acquired; the line-of-sight detection unit repeatedly detects the direction of the line of sight; the guide unit is further: a plurality of the acquired outside scene images and the direction of the line of sight detected multiple times And a real object that is included in the plurality of outside scene images and that is estimated to have a large proportion at the end of the line of sight may be used as the attention object.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image and the detected direction of the line of sight. In addition, since the guide unit uses a real object that is estimated to have a large proportion of the point of the line of sight in a plurality of repeatedly acquired outside scene images and the direction of the line of sight as an attention object, for example, An object can be a target object. The object of interest identified in this way is particularly suitable for types of guidance such as information provision, movement assistance, and work assistance.

(7)上記形態の頭部装着型表示装置では、さらに;前記利用者からの操作入力を取得する入力情報取得部を備え;前記案内部は、さらに;取得された前記外景画像と、取得された前記操作入力と、を照合し;前記外景画像に含まれる実オブジェクトであって、前記利用者により指定された実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像と、取得された操作入力と、から自動的に注目オブジェクトを特定することができる。また、案内部は、利用者により指定された実オブジェクトを注目オブジェクトとするため、利用者による意図を反映して注目オブジェクトを特定することができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
(7) The head-mounted display device of the above aspect further includes: an input information acquisition unit that acquires an operation input from the user; and the guide unit is further acquired with the acquired outside scene image. The operation input may be collated; a real object included in the outside scene image and designated by the user may be the attention object.
According to this form of the head-mounted display device, the guide unit can automatically identify the object of interest from the acquired outside scene image and the acquired operation input. In addition, since the guidance unit uses the real object specified by the user as the target object, the target object can be specified reflecting the intention of the user. The target object identified in this way is suitable for all types of guidance such as danger avoidance, information provision, motion assistance, and work support.

(8)上記形態の頭部装着型表示装置において;前記画像取得部は、前記外景画像を繰り返し取得し;前記案内部は;取得された複数の前記外景画像内における前記注目オブジェクトの経時的な変化に伴って、前記案内を繰り返し行ってもよい。
この形態の頭部装着型表示装置によれば、案内部は、繰り返し取得された複数の外景画像における注目オブジェクトの経時的な変化に伴って、案内を繰り返し行う。この結果、案内部は、注目オブジェクトの最新の状態に対応した案内を随時行うことができる、換言すれば、案内部は、注目オブジェクトを追跡しつつ案内を行うことができる。
(8) In the head mounted display device according to the above aspect; the image acquisition unit repeatedly acquires the outside scene image; the guide unit; the time-lapse of the object of interest in the plurality of acquired outside scene images The guidance may be repeatedly performed according to the change.
According to this form of the head-mounted display device, the guidance unit repeatedly performs guidance according to the temporal change of the object of interest in the plurality of repeatedly acquired outside scene images. As a result, the guide unit can perform guidance corresponding to the latest state of the target object at any time. In other words, the guide unit can perform guidance while tracking the target object.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve part or all of the above-described problems or to achieve part or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、画像取得部と、案内部と、の3つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、この装置は、画像取得部を有していてもよく、有していなくてもよい。また、この装置は、案内部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。例えば、本発明の一形態としての装置は、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことを課題としている。しかし、この装置には、他にも、装置の小型化、利便性の向上、装置製造の際の低コスト化、省資源化、製造の容易化、等が望まれている。   For example, one embodiment of the present invention can be realized as an apparatus including some or all of the three elements of the image display unit, the image acquisition unit, and the guide unit. That is, this apparatus may or may not have an image display unit. In addition, this apparatus may or may not have an image acquisition unit. Moreover, this apparatus may have a guide part and does not need to have it. Such a device can be realized, for example, as a head-mounted display device, but can also be realized as a device other than the head-mounted display device. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device. For example, an apparatus according to an embodiment of the present invention has an object of urging a user to pay attention to a real object that exists in the real world while ensuring visibility in the real world. However, there are other demands for this device such as downsizing of the device, improvement in convenience, cost reduction during device manufacture, resource saving, and ease of manufacture.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置を含むシステム、これらの方法、装置、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを配布するためのサーバー装置、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a head-mounted display device control method, a system including a head-mounted display device, and these methods The present invention can be realized in the form of an apparatus, a computer program for realizing the functions of the system, a server apparatus for distributing the computer program, a storage medium storing the computer program, and the like.

本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus in one Embodiment of this invention. HMD100の構成を機能的に示すブロック図である。2 is a block diagram functionally showing the configuration of the HMD 100. FIG. 利用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user. 案内処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a guidance process. 案内用情報122の一例を示す図である。It is a figure which shows an example of the information 122 for guidance. 案内処理の第1の具体例について説明する図である。It is a figure explaining the 1st specific example of a guidance process. 案内処理の第1の具体例について説明する図である。It is a figure explaining the 1st specific example of a guidance process. 案内処理の第1の具体例について説明する図である。It is a figure explaining the 1st specific example of a guidance process. 案内処理の第2の具体例について説明する図である。It is a figure explaining the 2nd specific example of guidance processing. 案内処理の第2の具体例について説明する図である。It is a figure explaining the 2nd specific example of guidance processing. 案内処理の第2の具体例について説明する図である。It is a figure explaining the 2nd specific example of guidance processing. 変形例におけるHMDの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of HMD in a modification.

A.実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。本実施形態の頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、利用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイである。
A. Embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted display device 100 of the present embodiment is a display device that is mounted on the head, and is also called a head mounted display (HMD). The HMD 100 is an optically transmissive head mounted display that allows a user to visually recognize a virtual image and at the same time also visually recognize an outside scene.

本実施形態のHMD100は、後述の案内処理を行うことで、注目オブジェクトに対する案内を「音声のみ」または「音声と拡張現実感(AR、Augmented Reality)処理との組み合わせ」により実施する。具体的には、HMD100は、利用者の視線の方向を検出し、注目オブジェクトが視線の方向にないと推定される場合は、音声のみによる案内を行い、注目オブジェクトが視線の方向にあると推定される場合は音声と拡張現実感処理との組み合わせによる案内を行う。案内処理の詳細は後述する。なお、本実施形態において、「音声」は「音」として機能する。   The HMD 100 according to the present embodiment performs guidance for an object of interest by “voice only” or “a combination of voice and augmented reality (AR) processing” by performing a guidance process described later. Specifically, the HMD 100 detects the direction of the user's line of sight, and when it is estimated that the object of interest is not in the direction of the line of sight, the HMD 100 performs guidance only by voice and estimates that the object of attention is in the direction of the line of sight. If so, guidance is provided by a combination of voice and augmented reality processing. Details of the guidance process will be described later. In this embodiment, “voice” functions as “sound”.

「注目オブジェクト」とは、現実世界に実在するオブジェクトである実オブジェクトの中から特定された少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトを意味する。実オブジェクトとは、任意の人、任意の動植物、任意の物(人工物、自然物等を含む)等を意味する。実オブジェクトは、利用者が関心を寄せている(例えば視線を向けている)オブジェクトである「実関心オブジェクト」と、利用者の関心外の(例えば視界に入っているものの視線を向けていない)オブジェクトである「実背景オブジェクト」との両方を含みうる。すなわち、案内処理は、実関心オブジェクトと、実背景オブジェクトと、の両方を含む実オブジェクトの全体が処理対象となり得る。注目オブジェクトの特定方法は後述する。   The “attention object” means at least one real object identified from real objects that are objects that exist in the real world, and means a real object that prompts the user to pay attention. The real object means an arbitrary person, an arbitrary animal or plant, an arbitrary object (including an artificial object, a natural object, or the like). A real object is an “real object of interest” that is an object that the user is interested in (for example, the line of sight), and is outside the user's interest (for example, the line of sight that is in the field of view). It can include both “real background objects” that are objects. That is, in the guidance process, the entire real object including both the real interest object and the real background object can be processed. A method for specifying the object of interest will be described later.

「拡張現実感処理」とは、実オブジェクトに対して、HMD100により情報を付加する処理である。拡張現実感処理において、実オブジェクトに対して付加的に表示される情報を「仮想オブジェクト」と呼ぶ。「付加的」とは、以下の全てを含む意味である。実オブジェクトと、実オブジェクトに付加的に表示される仮想オブジェクトとは、関連があってもよいし、なくてもよい。
・仮想オブジェクトを用いて実オブジェクトに情報を付加すること。
・仮想オブジェクトを用いて実オブジェクトを強調すること。
・実オブジェクトが持つ情報(色、形等)を、仮想オブジェクトを用いて削除および減衰させること。
・上述した、付加、強調、削除、減衰の任意の2つ以上の組み合わせ。
“Augmented reality processing” is processing for adding information to a real object by the HMD 100. In the augmented reality processing, information displayed in addition to the real object is referred to as a “virtual object”. “Additional” means to include all of the following. The real object and the virtual object additionally displayed on the real object may or may not be related.
Add information to real objects using virtual objects.
Emphasize real objects using virtual objects.
-Delete and attenuate information (color, shape, etc.) held by a real object using a virtual object.
Any combination of two or more of addition, emphasis, deletion, and attenuation described above.

HMD100は、利用者の頭部に装着された状態において利用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。なお、以降の説明において、HMD100によって利用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、HMD100が画像データーに基づいて生成された画像光を射出することを「画像を表示する」ともいう。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control unit (controller) 10 that controls the image display unit 20. In the following description, a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience. In addition, the HMD 100 emitting the image light generated based on the image data is also referred to as “displaying an image”.

A−1−1.画像表示部の構成:
図2は、HMD100の構成を機能的に示すブロック図である。画像表示部20は、利用者の頭部に装着される装着体であり、本実施形態では眼鏡形状である(図1)。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、視線検出部62と、マイク63と、9軸センサー66と、を備えている。以降、利用者が画像表示部20を装着した状態における、画像表示部20の各部の位置関係と機能について説明する。
A-1-1. Configuration of image display:
FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment (FIG. 1). The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And a line-of-sight detection unit 62, a microphone 63, and a nine-axis sensor 66. Hereinafter, the positional relationship and function of each unit of the image display unit 20 in a state where the user wears the image display unit 20 will be described.

図1に示すように、右光学像表示部26および左光学像表示部28は、利用者の右の眼前と、左の眼前とにそれぞれ位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、利用者の眉間に対応する位置で接続されている。図2に示すように、右光学像表示部26は、右導光板261と、調光板(図示省略)と、を備えている。右導光板261は、光透過性の樹脂材料等によって形成され、右表示駆動部22から出力された画像光を、所定の光路に沿って反射させつつ利用者の右眼REに導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(利用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261を保護し、損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、利用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。調光板は省略可能である。   As shown in FIG. 1, the right optical image display unit 26 and the left optical image display unit 28 are disposed so as to be positioned in front of the user's right eye and in front of the left eye, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected at a position corresponding to the eyebrow of the user. As shown in FIG. 2, the right optical image display unit 26 includes a right light guide plate 261 and a light control plate (not shown). The right light guide plate 261 is formed of a light transmissive resin material or the like, and guides the image light output from the right display driving unit 22 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plate 261 and suppresses damage, dirt adhesion, and the like. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the external light quantity entering the user's eyes and adjust the ease of visual recognition of the virtual image. The dimming plate can be omitted.

左光学像表示部28は、左導光板262と、調光板(図示省略)とを備えている。これらの詳細は、右光学像表示部26と同様である。右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。光学像表示部は、画像光を用いて利用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いて実現されてもよいし、半透過反射膜を用いて実現されてもよい。   The left optical image display unit 28 includes a left light guide plate 262 and a light control plate (not shown). These details are the same as those of the right optical image display unit 26. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”. The optical image display unit can use any method as long as it forms a virtual image in front of the user's eyes using image light. For example, the optical image display unit may be realized by using a diffraction grating, or a transflective film may be used. It may be realized using.

図1に示すように、右保持部21は、右光学像表示部26の他端ERから利用者の側頭部に対応する位置にかけて延伸して設けられている。左保持部23は、左光学像表示部28の他端ELから利用者の側頭部に対応する位置にかけて、延伸して設けられている。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、利用者の頭部に画像表示部20を保持する。右保持部21および左保持部23を総称して単に「保持部」とも呼ぶ。   As shown in FIG. 1, the right holding unit 21 extends from the other end ER of the right optical image display unit 26 to a position corresponding to the user's temporal region. The left holding unit 23 is provided to extend from the other end EL of the left optical image display unit 28 to a position corresponding to the user's temporal region. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses. The right holding unit 21 and the left holding unit 23 are collectively referred to simply as a “holding unit”.

図1に示すように、右表示駆動部22は、右保持部21の内側(利用者の頭部に対向する側)に配置されている。左表示駆動部24は、左保持部23の内側に配置されている。図2に示すように、右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD(液晶ディスプレイ、Liquid Crystal Display)制御部211および右LCD241と、右投写光学系251とを備えている。右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   As shown in FIG. 1, the right display driving unit 22 is disposed inside the right holding unit 21 (the side facing the user's head). The left display driving unit 24 is disposed inside the left holding unit 23. As shown in FIG. 2, the right display driving unit 22 functions as a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, and a display element. A right LCD (Liquid Crystal Display) control unit 211, a right LCD 241, and a right projection optical system 251 are provided. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて右バックライト221を駆動する。右バックライト221は、例えばLED(Light Emitting Diode)やエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用の画像データーDataとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED (Light Emitting Diode) or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data for the right eye input via the reception unit 53. . The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right projection optical system 251 is a collimating lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state.

左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを備えている。これらの詳細は、右表示駆動部22と同様である。右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼ぶ。   The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are provided. These details are the same as those of the right display drive unit 22. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”.

図1に示すように、カメラ61は、利用者の左右の目尻の上方に対応する位置にそれぞれ配置されているステレオカメラである。左右のカメラ61は、画像表示部20の表側方向、換言すれば、HMD100を装着した状態における利用者の視界方向の外景(外部の景色)をそれぞれ撮像し、左右に対応した2枚の外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61はステレオカメラであるが、単眼カメラとしてもよい。カメラ61は「画像取得部」として機能する。   As shown in FIG. 1, the camera 61 is a stereo camera disposed at a position corresponding to the upper left and right corners of the user. The left and right cameras 61 each capture an outside scene (external scenery) in the front side direction of the image display unit 20, in other words, the user's viewing direction when the HMD 100 is worn, and two outside scene images corresponding to the left and right sides. To get. The camera 61 is a so-called visible light camera, and the outside scene image acquired by the camera 61 is an image representing the shape of the object from the visible light emitted from the object. The camera 61 in the present embodiment is a stereo camera, but may be a monocular camera. The camera 61 functions as an “image acquisition unit”.

図1に示すように、視線検出部62は、利用者の左右の目尻の下方に対応する位置にそれぞれ配置されている。左右の視線検出部62は、図示しない赤外線発光部と赤外線受光部とをそれぞれ備える。右側の視線検出部62は、赤外線発光部から射出されて、利用者の右眼に当たり反射した赤外線を受光する。制御部10のCPU140は、右側の視線検出部62が受光した赤外線の強さに基づいて、利用者の右眼の視線の動きを取得する。同様に、左側の視線検出部62は、赤外線発光部から射出されて、利用者の左眼に当たり反射した赤外線を受光する。CPU140は、左側の視線検出部62が受光した赤外線の強さに基づいて、利用者の左眼の視線を検出する。赤外線の反射率は、赤外線が虹彩(黒目)に当たった場合と、赤外線がまぶたに当たった場合と、赤外線が白目に当たった場合と、でそれぞれ異なる。このため、CPU140は、視線検出部62が受光した赤外線の強さによって、利用者の視線の動きを取得することができる。この場合、視線検出部62とCPU140とは、利用者の視線の方向を検出する「視線検出部」として機能する。本実施形態における視線検出部62は左右それぞれに設けられるとしたが、左右いずれか一方でもよい。   As shown in FIG. 1, the line-of-sight detection unit 62 is disposed at a position corresponding to the lower part of the left and right corners of the user. The left and right line-of-sight detection units 62 each include an infrared light emitting unit and an infrared light receiving unit (not shown). The right gaze detection unit 62 receives the infrared light emitted from the infrared light emitting unit and reflected by the right eye of the user. The CPU 140 of the control unit 10 acquires the movement of the line of sight of the user's right eye based on the intensity of infrared light received by the right line of sight detection unit 62. Similarly, the left line-of-sight detection unit 62 receives the infrared light emitted from the infrared light emitting unit and reflected by the left eye of the user. The CPU 140 detects the line of sight of the user's left eye based on the intensity of infrared light received by the left line-of-sight detection unit 62. The reflectance of infrared rays is different depending on whether the infrared ray hits the iris (black eye), the infrared ray hits the eyelid, or the infrared ray hits the white eye. Therefore, the CPU 140 can acquire the movement of the user's line of sight based on the intensity of infrared rays received by the line-of-sight detection unit 62. In this case, the line-of-sight detection unit 62 and the CPU 140 function as a “line-of-sight detection unit” that detects the direction of the user's line of sight. In the present embodiment, the line-of-sight detection unit 62 is provided on each of the left and right sides, but may be either the left or right side.

図1に示すように、マイク63は、利用者の鼻の上方に対応する位置に配置されているマイクである。マイク62は、外部の音声を取得する。「音声」とは、人の声のみでなく、機械音等を含む広義の音を意味する。   As shown in FIG. 1, the microphone 63 is a microphone disposed at a position corresponding to the upper side of the user's nose. The microphone 62 acquires external sound. “Voice” means not only a human voice but also a broad sense of sound including mechanical sounds.

図1に示すように、9軸センサー66は、利用者の右側のこめかみに対応する位置に配置されている。9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が利用者の頭部に装着されているときには、ヘッドマウントディスプレイ100の利用者の頭部の動きを検出する動き検出部として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。   As shown in FIG. 1, the 9-axis sensor 66 is disposed at a position corresponding to the temple on the right side of the user. The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of detecting the movement of the user's head on the head mounted display 100. Functions as a detection unit. Here, the movement of the head includes changes in the speed, acceleration, angular velocity, direction, and direction of the head.

図1に示すように、画像表示部20は、画像表示部20と制御部10とを接続するための接続部40を備えている。接続部40は、制御部10に接続される本体コード48と、本体コード48が分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。接続部40の各コードには、例えば、金属ケーブルや光ファイバーを採用することができる。   As shown in FIG. 1, the image display unit 20 includes a connection unit 40 for connecting the image display unit 20 and the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 branched from the main body cord 48, and a connecting member 46 provided at the branch point. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. For example, a metal cable or an optical fiber can be employed for each cord of the connection unit 40.

A−1−2.制御部の構成:
制御部10はHMD100を制御するための装置である。図1に示すように、制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を備えている。決定キー11は、押下操作を検出して、制御部10において操作された内容を決定するための信号を出力する。点灯部12は、例えばLEDによって実現され、HMD100の動作状態(例えば電源のON/OFF等)を発光状態によって通知する。表示切替キー13は、押下操作を検出して、例えばコンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。
A-1-2. Configuration of control unit:
The control unit 10 is a device for controlling the HMD 100. As shown in FIG. 1, the control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power source. And a switch 18. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated in the control unit 10. The lighting unit 12 is realized by, for example, an LED, and notifies the operation state of the HMD 100 (for example, ON / OFF of the power source) by the light emission state. The display switching key 13 detects a pressing operation, and outputs a signal for switching the display mode of the content moving image between 3D and 2D, for example.

トラックパッド14は、トラックパッド14の操作面上における利用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々の方式を採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。   The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various methods such as an electrostatic method, a pressure detection method, and an optical method can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.

図2に示すように、制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   2, the control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and a transmission unit (Tx ) 51 and 52, and the respective parts are connected to each other by a bus (not shown).

入力情報取得部110は、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、および、電源スイッチ18に対する操作入力に応じた信号を取得する。入力情報取得部110は、上記以外の種々の方法を用いた操作入力を取得することができる。例えば、カメラ61を用いて利用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、利用者の指先や、利用者の手に付けられた指輪や、利用者の手にする医療器具等を動き検出のための目印にすることができる。例えば、視線検出部62によって検出された利用者の視線や、目の動きに対応付けられたコマンドによる操作入力を取得してもよい。このコマンドは利用者によって追加可能に設定されていてもよい。例えば、マイク63によって取得された音声を音声認識することによる操作入力を取得してもよい。例えば、図示しないフットスイッチ(利用者の足により操作するスイッチ)による操作入力を取得してもよい。これらの方法による操作入力を取得可能とすれば、利用者が手を離すことが困難である作業においても、入力情報取得部110は、利用者からの操作入力を取得することができる。   The input information acquisition unit 110 acquires signals corresponding to operation inputs to the enter key 11, the display switching key 13, the track pad 14, the luminance switching key 15, the direction key 16, the menu key 17, and the power switch 18. The input information acquisition unit 110 can acquire operation inputs using various methods other than those described above. For example, the user's gesture may be detected using the camera 61, and an operation input by a command associated with the gesture may be acquired. When detecting a gesture, a user's fingertip, a ring attached to the user's hand, a medical instrument held by the user's hand, or the like can be used as a mark for motion detection. For example, an operation input by a command associated with the user's line of sight detected by the line-of-sight detection unit 62 or the movement of the eyes may be acquired. This command may be set to be addable by the user. For example, an operation input by recognizing voice acquired by the microphone 63 may be acquired. For example, an operation input by a foot switch (not shown) (a switch operated by a user's foot) may be acquired. If the operation input by these methods can be acquired, the input information acquisition unit 110 can acquire the operation input from the user even in the work where it is difficult for the user to release his / her hand.

記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部120には、案内用情報122と、案内モード124と、が記憶されている。案内用情報122は、案内処理において用いられる情報である。詳細は後述する。   The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 120 stores various computer programs including an operating system (OS). The storage unit 120 stores guidance information 122 and a guidance mode 124. The guidance information 122 is information used in the guidance process. Details will be described later.

案内モード124は、案内処理における案内の方法を指定するための情報である。案内処理における案内の方法には「追尾ありモード」と、「追尾なしモード」とがある。追尾なしモードでは、案内部144は、注目オブジェクトに対する案内を1度だけ実施する。追尾ありモードでは、案内部144は、注目オブジェクトの経時的な変化に伴って、注目オブジェクトに対する案内を繰り返し実施する。案内モード124には、追尾なしモード、追尾ありモードのいずれか一方を表す情報が記憶されている。利用者は、案内モード124の内容を、入力情報取得部110による操作入力によって変更することができる。   The guidance mode 124 is information for designating a guidance method in guidance processing. Guidance methods in the guidance process include a “with tracking mode” and a “without tracking mode”. In the no-tracking mode, the guide unit 144 performs guidance for the object of interest only once. In the tracking mode, the guide unit 144 repeatedly performs guidance on the target object as the target object changes with time. In the guidance mode 124, information representing either one of the no tracking mode or the tracking mode is stored. The user can change the content of the guidance mode 124 by an operation input by the input information acquisition unit 110.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、所定の無線通信規格に則って、外部装置との間で無線通信を行う。所定の無線通信規格とは、例えば、赤外線、Bluetooth(登録商標)に例示される近距離無線通信、IEEE802.11に例示される無線LAN等である。GPSモジュール134は、GPS衛星からの信号を受信することにより、HMD100の利用者の現在位置を検出し、利用者の現在位置情報を表す現在位置情報を生成する。現在位置情報は、例えば緯度経度を表す座標によって実現することができる。   The power supply 130 supplies power to each part of the HMD 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 performs wireless communication with an external device in accordance with a predetermined wireless communication standard. The predetermined wireless communication standard is, for example, infrared, short-range wireless communication exemplified by Bluetooth (registered trademark), wireless LAN exemplified by IEEE 802.11, or the like. The GPS module 134 detects the current position of the user of the HMD 100 by receiving a signal from a GPS satellite, and generates current position information representing the current position information of the user. The current position information can be realized by coordinates representing latitude and longitude, for example.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、拡張現実感処理部142、案内部144、オペレーティングシステム(OS)150、画像処理部160、音声処理部170、表示制御部190として機能する。   The CPU 140 reads out and executes a computer program stored in the storage unit 120, thereby executing an augmented reality processing unit 142, a guide unit 144, an operating system (OS) 150, an image processing unit 160, an audio processing unit 170, and a display. It functions as the control unit 190.

拡張現実感処理部142は、案内処理において「音声と拡張現実感処理との組み合わせ」による案内を行う場合に、拡張現実感処理を実行する。拡張現実感処理において拡張現実感処理部142は、注目オブジェクト(実オブジェクト)に対して、仮想オブジェクトを付加して表示させる。詳細は後述する。案内部144は、案内処理を実行することで、注目オブジェクトに対する案内を「音声のみ」または「音声と拡張現実感処理との組み合わせ」により実施する。詳細は後述する。   The augmented reality processing unit 142 executes augmented reality processing when performing guidance by “a combination of voice and augmented reality processing” in the guidance processing. In the augmented reality processing, the augmented reality processing unit 142 adds a virtual object to the object of interest (real object) and displays it. Details will be described later. The guide unit 144 executes guidance processing to implement guidance for the object of interest by “voice only” or “combination of voice and augmented reality processing”. Details will be described later.

画像処理部160は、画像表示のための信号処理を行う。具体的には、画像処理部160は、インターフェイス180や無線通信部132を介してコンテンツ(映像)が入力されている場合、コンテンツに基づく画像データーDataを生成する。画像処理部160は、HMD100の他の機能部から画像データーを受信した場合、受信したデーターを画像データーDataとする。画像処理部160は、画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。画像処理部160は、上述の画像データーDataと、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、を、送信部51、52を介して、画像表示部20へ送信する。送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。   The image processing unit 160 performs signal processing for image display. Specifically, when content (video) is input via the interface 180 or the wireless communication unit 132, the image processing unit 160 generates image data Data based on the content. When the image processing unit 160 receives image data from another functional unit of the HMD 100, the image processing unit 160 sets the received data as image data Data. The image processing unit 160 may execute image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data. The image processing unit 160 transmits the image data Data, the clock signal PCLK, the vertical synchronization signal VSync, and the horizontal synchronization signal HSync to the image display unit 20 via the transmission units 51 and 52. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、左右のLCD制御部211、212による左右のLCD241、242の駆動ON/OFFや、左右のバックライト制御部201、202による左右のバックライト221、222の駆動ON/OFFを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、これらの制御信号を、送信部51、52を介して画像表示部20へ送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 turns on and off the left and right LCDs 241 and 242 by the left and right LCD control units 211 and 212 and the left and right backlights by the left and right backlight control units 201 and 202 according to the control signal. The generation and emission of image light by the right display drive unit 22 and the left display drive unit 24 are controlled by individually controlling the driving ON / OFF of the 221 and 222, respectively. The display control unit 190 transmits these control signals to the image display unit 20 via the transmission units 51 and 52.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32の図示しないスピーカーと、左イヤホン34の図示しないスピーカーとに対して供給する。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and supplies the acquired audio signal to a speaker (not shown) of the right earphone 32 and a speaker (not shown) of the left earphone 34.

インターフェイス180は、所定の有線通信規格に則って、外部装置OAとの間で通信を行う。所定の有線通信規格としては、例えば、MicroUSB(Universal Serial Bus)、USB、HDMI(High Definition Multimedia Interface、HDMIは登録商標)、DVI(Digital Visual Interface)、VGA(Video Graphics Array)、コンポジット、RS−232C(Recommended Standard 232)、IEEE802.3に例示される有線LAN等である。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等を利用することができる。   The interface 180 communicates with the external device OA in accordance with a predetermined wired communication standard. The predetermined wired communication standards include, for example, MicroUSB (Universal Serial Bus), USB, HDMI (High Definition Multimedia Interface, HDMI is a registered trademark), DVI (Digital Visual Interface), VGA (Video Graphics Array), Composite, RS- The wired LAN is exemplified by 232C (Recommended Standard 232) and IEEE802.3. As the external device OA, for example, a personal computer PC, a mobile phone terminal, a game terminal, or the like can be used.

図3は、利用者に視認される虚像の一例を示す説明図である。図3(A)は、拡張現実感処理を実行していない場合の利用者の視野VRを例示している。上述のようにして、HMD100の利用者の両眼に導かれた画像光が利用者の網膜に結像することにより、利用者は虚像VIを視認する。図3(A)の例では、虚像VIは、HMD100のOS150の待ち受け画面である。利用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のHMD100の利用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後に外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。   FIG. 3 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user. FIG. 3A illustrates the user's visual field VR when the augmented reality processing is not executed. As described above, the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the virtual image VI. In the example of FIG. 3A, the virtual image VI is a standby screen of the OS 150 of the HMD 100. The user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28. As described above, the user of the HMD 100 of the present embodiment can see the virtual image VI and the outside scene SC behind the virtual image VI for the portion of the visual field VR where the virtual image VI is displayed. In addition, the portion of the visual field VR where the virtual image VI is not displayed can be seen through the optical scene display portion and directly through the outside scene SC.

図3(B)は、拡張現実感処理を実行している場合の利用者の視野VRを例示している。拡張現実感処理を実行することによって、利用者は、仮想オブジェクトVOを含んだ虚像VIを視認する。仮想オブジェクトVOは、外景SCの山の麓に重畳するように配置されたリンゴの画像である。このように、利用者は、虚像VIに含まれる仮想オブジェクトVOと、虚像VIの背後に透過して見える外景SC内の実オブジェクトと、の両方を見ることで、拡張現実感を体感することができる。   FIG. 3B illustrates the visual field VR of the user when the augmented reality process is executed. By executing the augmented reality process, the user visually recognizes the virtual image VI including the virtual object VO. The virtual object VO is an image of an apple arranged so as to be superimposed on the foot of the mountain of the outside scene SC. In this way, the user can experience augmented reality by seeing both the virtual object VO included in the virtual image VI and the real object in the outside scene SC that can be seen behind the virtual image VI. it can.

A−2.案内処理:
図4は、案内処理の手順を示すフローチャートである。案内処理は、注目オブジェクトに対する案内を「音声のみ」または「音声と拡張現実感処理との組み合わせ」により実施する処理である。案内処理の開始トリガーは任意に定めることができる。例えば、HMD100の電源ONを開始トリガーとしてもよく、HMD100のOS150や特定のアプリケーションからの処理開始要求を開始トリガーとしてもよい。
A-2. Guidance process:
FIG. 4 is a flowchart showing the procedure of the guidance process. The guidance process is a process for performing guidance for the object of interest by “voice only” or “a combination of voice and augmented reality processing”. The start trigger of the guidance process can be arbitrarily determined. For example, a power ON of the HMD 100 may be used as a start trigger, and a process start request from the OS 150 of the HMD 100 or a specific application may be used as a start trigger.

ステップS102において案内部144は、カメラ61に外景画像を取得させる。   In step S102, the guide unit 144 causes the camera 61 to acquire an outside scene image.

ステップS104において案内部144は、ステップS102で取得された外景画像に含まれる実オブジェクトの中から、少なくとも1つの実オブジェクトを、利用者に対して注目を促すべき注目オブジェクトとして特定する。具体的には、案内部144は、次に示すa1〜a4のいずれかの方法を用いて、注目オブジェクトを特定する。方法a1〜a4は、単独で用いてもよく、組み合わせて用いてもよい。   In step S104, the guide unit 144 identifies at least one real object from among the real objects included in the outside scene image acquired in step S102, as a target object that should attract attention from the user. Specifically, the guide unit 144 specifies the object of attention using any one of the following methods a1 to a4. Methods a1 to a4 may be used alone or in combination.

(a1)実オブジェクトの経時的な変化を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、予め記憶部120等に記憶されている様々なオブジェクト(例えば、グラス、ボトル、人体、車、木等)のモデルと、パターンマッチングや統計的識別法による比較を行うことで、外景画像に含まれる全ての実オブジェクトを認識する(手順a11)。手順a11では、全ての実オブジェクトを認識することに代えて、主要な実オブジェクトのみを認識してもよい。手順a11では、外景画像を複数の領域に分けて画像認識してもよい。複数の領域とは、例えば、外景画像を水平方向および鉛直方向にそれぞれ2等分した4つの領域であってもよいし、外景画像を水平方向および鉛直方向にそれぞれ3等分した9つの領域であってもよい。
・案内部144は、外景画像の取得(ステップS102)と、取得された最新の外景画像に対する実オブジェクトの認識(手順a11)と、を複数回繰り返す(手順a12)。
・案内部144は、手順a12の結果から、繰り返し取得された複数の外景画像において、経時的な変化が大きい実オブジェクトを、注目オブジェクトとして特定する(手順a13)。経時的な変化が大きいとは、経時的な移動量が大きい場合と、経時的な移動速度が速い場合と、の両方を含む。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。
(A1) A method of using the change over time of a real object:
The guide unit 144 recognizes the outside scene image acquired in step S102, and models various objects (for example, glasses, bottles, human bodies, cars, trees, etc.) stored in the storage unit 120 or the like in advance. Then, all real objects included in the outside scene image are recognized by performing comparison by pattern matching or statistical identification method (procedure a11). In step a11, instead of recognizing all real objects, only main real objects may be recognized. In step a11, the outside scene image may be divided into a plurality of areas for image recognition. The plurality of areas may be, for example, four areas obtained by dividing the outside scene image into two equal parts in the horizontal direction and the vertical direction, or nine areas obtained by dividing the outside scene image into three parts in the horizontal direction and the vertical direction, respectively. There may be.
The guiding unit 144 repeats the acquisition of the outside scene image (step S102) and the recognition of the real object with respect to the acquired latest outside scene image (procedure a11) a plurality of times (procedure a12).
From the result of step a12, the guide unit 144 identifies a real object having a large change over time in a plurality of repeatedly acquired outside scene images as a target object (step a13). The large change over time includes both a case where the amount of movement over time is large and a case where the movement speed over time is high. The number of objects of interest specified here may be one or more.

方法a1によれば、案内部144は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部144は、繰り返し取得された複数の外景画像において、経時的な変化が大きい実オブジェクトを注目オブジェクトとするため、例えば、移動量が大きい、移動速度が速い、等の実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、危険回避のための案内に適している。   According to the method a1, the guide unit 144 can automatically identify the object of interest from the acquired outside scene image. In addition, in the plurality of repeatedly acquired outside scene images, the guide unit 144 sets a real object having a large change over time as a target object. For example, the guide unit 144 pays attention to a real object having a large movement amount or a high movement speed. It can be an object. The attention object identified in this way is particularly suitable for guidance for avoiding danger.

(a2)実オブジェクトの特徴を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、予め記憶部120等に記憶されている特徴(例えば、色の特徴、形の特徴、大きさの特徴等。この特徴は「所定の特徴」として機能する。)と、パターンマッチングや統計的識別法による比較を行う(手順a21)。
・案内部144は、外景画像において、手順a21の比較の結果が一致した実オブジェクトを、注目オブジェクトとして特定する(手順a22)。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。
(A2) Method of using features of real object:
The guide unit 144 recognizes the outside scene image acquired in step S102, and features (for example, color features, shape features, size features, etc.) stored in the storage unit 120 or the like in advance. Functions as a “predetermined feature”) and performs comparison by pattern matching or statistical identification (step a21).
The guide unit 144 identifies a real object that matches the comparison result of the procedure a21 in the outside scene image as a target object (procedure a22). The number of objects of interest specified here may be one or more.

方法a2によれば、案内部144は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部144は、外景画像において、所定の特徴を有する実オブジェクトを注目オブジェクトとするため、例えば、上述のように「所定の特徴」を予め用意しておくことによって、様々な実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。   According to the method a2, the guide unit 144 can automatically identify the object of interest from the acquired outside scene image. In addition, since the guide unit 144 uses a real object having a predetermined feature in the outside scene image as a target object, for example, by preparing the “predetermined feature” in advance as described above, various real objects can be displayed. It can be an object of interest. The target object identified in this way is suitable for all types of guidance such as danger avoidance, information provision, motion assistance, and work support.

(a3)利用者の視線を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、外景画像に含まれる全て(または主要な)実オブジェクトを認識する(手順a31)。詳細は手順a11と同様である。
・案内部144は、視線検出部62に利用者の視線の方向を検出させる。案内部144は、手順a31で認識された実オブジェクトと、検出された視線の方向と、を照合し、視線の方向の先にあると推定される実オブジェクトを抽出する(手順a32)。
・案内部144は、外景画像の取得(ステップS102)と、取得された最新の外景画像に対する実オブジェクトの認識(手順a31)と、視線の方向の先にあると推定される実オブジェクトの抽出(手順a32)と、を複数回繰り返す(手順a33)。
・案内部144は、手順a33の結果から、繰り返し取得された複数の外景画像と視線の方向とにおいて、視線の方向の先にある割合が多いと推定される実オブジェクトを、注目オブジェクトとして特定する(手順a34)。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。
(A3) Method of using the user's line of sight:
The guide unit 144 recognizes the outside scene image acquired in step S102 and recognizes all (or main) real objects included in the outside scene image (procedure a31). Details are the same as in step a11.
The guide unit 144 causes the line-of-sight detection unit 62 to detect the direction of the user's line of sight. The guide unit 144 collates the real object recognized in the procedure a31 with the detected gaze direction, and extracts a real object estimated to be ahead of the gaze direction (procedure a32).
The guide unit 144 acquires an outside scene image (step S102), recognizes a real object with respect to the latest acquired outside scene image (procedure a31), and extracts a real object estimated to be ahead of the direction of the line of sight ( Procedure a32) is repeated a plurality of times (procedure a33).
The guide unit 144 identifies, as a target object, a real object that is estimated to have a higher proportion of the direction of the line of sight in the plurality of repeatedly acquired outside scene images and the direction of the line of sight from the result of the procedure a33. (Procedure a34). The number of objects of interest specified here may be one or more.

方法a3によれば、案内部144は、取得された外景画像と、検出された視線の方向と、から自動的に注目オブジェクトを特定することができる。また、案内部144は、繰り返し取得された複数の外景画像と視線の方向とにおいて、視線の先にある割合が多いと推定される実オブジェクトを注目オブジェクトとするため、例えば、利用者がよく見る実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、情報提供、動作補助、作業支援といったタイプの案内に適している。   According to the method a3, the guide unit 144 can automatically identify the object of interest from the acquired outside scene image and the detected line-of-sight direction. In addition, the guide unit 144 uses a real object that is estimated to have a large proportion of the point of view in the plurality of repeatedly acquired outside scene images and the direction of the line of sight as an attention object. A real object can be a target object. The object of interest identified in this way is particularly suitable for types of guidance such as information provision, movement assistance, and work assistance.

(a4)利用者の指定を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、外景画像に含まれる全て(または主要な)実オブジェクトを認識する(手順a41)。詳細は手順a11と同様である。
・案内部144は、入力情報取得部110により取得された利用者からの操作入力を取得する。案内部144は、手順a41で認識された実オブジェクトと、取得された操作入力と、を照合し、利用者により指定された実オブジェクトを、注目オブジェクトとして特定する(手順a42)。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。上述の通り、入力情報取得部110を介した利用者からの操作入力は、例えば、ジェスチャーを用いた入力であってもよく、目の動きを用いた入力であってもよく、音声を用いた入力であってもよく、フットスイッチを用いた入力であってもよい。
(A4) Method of using user designation:
The guide unit 144 recognizes the outside scene image acquired in step S102 and recognizes all (or main) real objects included in the outside scene image (procedure a41). Details are the same as in step a11.
The guide unit 144 acquires an operation input from the user acquired by the input information acquisition unit 110. The guiding unit 144 collates the real object recognized in the procedure a41 with the acquired operation input, and specifies the real object designated by the user as the attention object (procedure a42). The number of objects of interest specified here may be one or more. As described above, the operation input from the user via the input information acquisition unit 110 may be, for example, an input using a gesture, an input using a movement of eyes, or a voice. The input may be an input using a foot switch.

方法a4によれば、案内部144は、取得された外景画像と、取得された操作入力と、から自動的に注目オブジェクトを特定することができる。また、案内部144は、利用者により指定された実オブジェクトを注目オブジェクトとするため、利用者による意図を反映して注目オブジェクトを特定することができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。   According to the method a4, the guide unit 144 can automatically identify the object of interest from the acquired outside scene image and the acquired operation input. In addition, since the guide unit 144 uses the real object specified by the user as the attention object, the guidance object 144 can identify the attention object reflecting the intention of the user. The target object identified in this way is suitable for all types of guidance such as danger avoidance, information provision, motion assistance, and work support.

図4のステップS106において案内部144は、ステップS104で特定された注目オブジェクトに対して、利用者に案内すべき内容(以降「案内内容」とも呼ぶ。)を取得する。具体的には、案内部144は、注目オブジェクトの名称、特徴、モデル等を用いて案内用情報122を検索することで、案内内容を取得する。   In step S106 in FIG. 4, the guide unit 144 acquires content to be guided to the user (hereinafter also referred to as “guidance content”) for the object of interest specified in step S104. Specifically, the guidance unit 144 acquires the guidance content by searching the guidance information 122 using the name, feature, model, and the like of the object of interest.

図5は、案内用情報122の一例を示す図である。案内用情報122は、オブジェクト1と、オブジェクト2と、案内内容と、を含んでいる。   FIG. 5 is a diagram illustrating an example of the guidance information 122. The guidance information 122 includes object 1, object 2, and guidance content.

「オブジェクト1」および「オブジェクト2」には、注目オブジェクトの名称、特徴、モデル等を用いた照合のための情報が記憶されている。図5の例では、オブジェクト1およびオブジェクト2には、注目オブジェクトの名称が記憶されている。このため、図5に例示した案内用情報122を用いる場合、案内処理のステップS106(図4)では、注目オブジェクトの名称を用いた検索が実施される。案内処理のステップS106において注目オブジェクトの特徴を用いた検索が実施される場合、オブジェクト1およびオブジェクト2には、注目オブジェクトの特徴を表す情報が記憶される。案内処理のステップS106において注目オブジェクトのモデルを用いた検索が実施される場合、オブジェクト1およびオブジェクト2には、注目オブジェクトのモデルを表す情報が記憶される。   In “Object 1” and “Object 2”, information for collation using the name, feature, model, etc. of the object of interest is stored. In the example of FIG. 5, the names of the objects of interest are stored in the objects 1 and 2. Therefore, when the guidance information 122 illustrated in FIG. 5 is used, a search using the name of the object of interest is performed in step S106 (FIG. 4) of the guidance process. When a search using the feature of the target object is performed in step S106 of the guidance process, information representing the feature of the target object is stored in object 1 and object 2. When a search using the model of the object of interest is performed in step S106 of the guidance process, the object 1 and the object 2 store information representing the model of the object of attention.

「案内内容」には、利用者に案内すべき内容を表す情報が記憶されている。図5の例では、案内内容には、利用者に案内すべき内容を表す文字列が1つまたは2つ記憶されている。図5において、文字列の末尾に「(*)」表記がないものは、追尾なしモードでの案内と、追尾ありモードでの案内と、の両方で使用される案内情報を表す。文字列の末尾に「(*)」表記があるものは、追尾ありモードでの案内にのみ使用される案内情報を表す。案内内容は、例示したように文字列で記憶されていてもよく、図形や画像により記憶されていてもよく、案内部144において実行されるプログラムデーターにより記憶されていてもよい。   In “Guidance contents”, information representing contents to be guided to the user is stored. In the example of FIG. 5, the guidance content stores one or two character strings representing the content to be guided to the user. In FIG. 5, a character string without “(*)” notation at the end of the character string represents guidance information used in both the guidance in the mode without tracking and the guidance in the mode with tracking. What has the notation “(*)” at the end of the character string represents guidance information used only for guidance in the tracking mode. The guidance content may be stored as a character string as illustrated, may be stored as a graphic or an image, or may be stored as program data executed in the guide unit 144.

「案内内容」には、次に示すb1〜b4の情報を含み得る。
(b1)注目オブジェクトに対する利用者の注意喚起のための案内:情報b1によれば、案内部144は、利用者に対する危険回避のための案内を実施できる。
(b2)注目オブジェクトに関する情報の案内:情報b2によれば、案内部144は、利用者に対する情報提供のための案内を実施できる。
(b3)注目オブジェクトの位置に関する案内:情報b3によれば、案内部144は、利用者に対する動作補助のための案内を実施できる。
(b4)注目オブジェクトに対する利用者の作業内容の案内:情報b4によれば、案内部144は、利用者に対する作業支援のための案内を実施できる。
The “guidance content” may include the following information b1 to b4.
(B1) Guidance for alerting the user to the object of interest: According to the information b1, the guidance unit 144 can implement guidance for avoiding danger to the user.
(B2) Information guidance on the object of interest: According to the information b2, the guidance unit 144 can carry out guidance for providing information to the user.
(B3) Guidance on the position of the object of interest: According to the information b3, the guiding unit 144 can perform guidance for assisting the operation of the user.
(B4) User's work content guidance for the object of interest: According to the information b4, the guide unit 144 can implement guidance for work support for the user.

具体的には、図5のエントリーE1の例では、オブジェクト1が「ボトル」であり、オブジェクト2が「グラス」である場合に、追尾なしモードと追尾ありモードの両方において「ボトルの口をグラスの中央に案内(情報b3に相当)」することと、追尾ありモードにおいて「グラス内の液体の量を案内(情報b2に相当)」することが記憶されている。また、エントリーE5の例では、オブジェクト1が「車」である場合に、追尾なしモードと追尾ありモードの両方において「車に対する注意喚起の案内(情報b1に相当)」をすることと、追尾ありモードにおいて「車との距離を案内(情報b2に相当)」することが記憶されている。このように、オブジェクト2にはデーターが格納されていなくてもよい。   Specifically, in the example of the entry E1 in FIG. 5, when the object 1 is “bottle” and the object 2 is “glass”, the “bottle mouth glass” is set in both the non-tracking mode and the tracking mode. “Guide to the center of the screen (corresponding to information b3)” and “Guiding the amount of liquid in the glass (corresponding to information b2)” in the tracking mode. Further, in the example of entry E5, when the object 1 is “car”, “notice guidance to the car (corresponding to information b1)” in both the non-tracking mode and the tracking mode and tracking In the mode, “Guide distance with car (corresponding to information b2)” is stored. Thus, the object 2 may not store data.

図4のステップS108において案内部144は、視線検出部62に利用者の視線の方向を検出させる。   In step S108 in FIG. 4, the guide unit 144 causes the line-of-sight detection unit 62 to detect the direction of the user's line of sight.

ステップS110において案内部144は、ステップS104で特定された注目オブジェクトの外景画像内における位置と、検出された視線の方向と、を照合し、注目オブジェクトが視線の方向にあるか否かを推定する。   In step S110, the guide unit 144 collates the position of the target object specified in step S104 in the outside scene image with the detected line-of-sight direction, and estimates whether the target object is in the line-of-sight direction. .

注目オブジェクトが視線の方向にないと推定した場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容に基づく案内を、音声のみによって実施する。具体的には、案内部144は、案内のための音声データーを生成または取得し、音声処理部170へ送信する。音声処理部170は、受信した音声データーに基づく音声を、右イヤホン32内のスピーカーと左イヤホン34内のスピーカーとから出力させる。   When it is estimated that the object of interest is not in the line of sight (step S110: no line of sight), in step S112, the guide unit 144 performs guidance based on the guidance content acquired in step S106 only by voice. Specifically, the guidance unit 144 generates or acquires voice data for guidance, and transmits the voice data to the voice processing unit 170. The sound processing unit 170 outputs sound based on the received sound data from the speaker in the right earphone 32 and the speaker in the left earphone 34.

注目オブジェクトが視線の方向にあると推定した場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。音声による案内の具体的な方法は、ステップS112と同様である。拡張現実感処理による案内の具体的な方法は、次の手順c1〜c5に示す通りである。   When it is estimated that the object of interest is in the direction of the line of sight (step S110: in the direction of the line of sight), in step S114, the guide unit 144 performs guidance based on the guidance content acquired in step S106 with voice and augmented reality processing. It carries out by the combination. A specific method of voice guidance is the same as in step S112. A specific method of guidance by augmented reality processing is as shown in the following procedures c1 to c5.

(c1)案内部144は、ステップS104で特定された注目オブジェクトを特定するための情報(注目オブジェクトの名称、特徴、モデル等)と、ステップS106で取得された案内内容と、を拡張現実感処理部142へ送信する。 (C1) The guide unit 144 performs augmented reality processing on information (name, feature, model, etc. of the target object) for specifying the target object specified in step S104 and the guide content acquired in step S106. To the unit 142.

(c2)拡張現実感処理部142は、カメラ61に外景画像を取得させる。拡張現実感処理部142は、手順c1で取得した注目オブジェクトを特定するための情報を用いて、取得された外景画像内における注目オブジェクトの位置を取得する。「位置」とは、利用者からの距離、および、利用者の視界内における水平方向および鉛直方向の位置を含む。この際、拡張現実感処理部142は、ステレオカメラであるカメラ61によって取得された2枚以上の外景画像を用いて、注目オブジェクトの位置を算出してもよい。また、拡張現実感処理部142は、カメラ61により取得された1枚以上の外景画像と、図示しない各種のセンサー(例えば、深度センサー、測距センサー等)とを併用して、注目オブジェクトの位置を算出してもよい。 (C2) The augmented reality processing unit 142 causes the camera 61 to acquire an outside scene image. The augmented reality processing unit 142 acquires the position of the target object in the acquired outside scene image using the information for specifying the target object acquired in step c1. The “position” includes the distance from the user and the horizontal and vertical positions in the user's field of view. At this time, the augmented reality processing unit 142 may calculate the position of the object of interest using two or more outside scene images acquired by the camera 61 that is a stereo camera. In addition, the augmented reality processing unit 142 uses one or more outside scene images acquired by the camera 61 and various sensors (not shown) (for example, a depth sensor, a distance measuring sensor, etc.) in combination to determine the position of the target object. May be calculated.

(c3)拡張現実感処理部142は、手順c1で取得した案内内容のうち、末尾に「(*)」表記がないものの内容に応じて、注目オブジェクトに付加的に表示するための仮想オブジェクトを表す画像、文字、図形記号等を取得または生成する。仮想オブジェクトを表す画像、文字、図形記号等の一例は、例えば、矢印、線、スケール、目盛り、ポインター、ショートカット、メニュー、ラジオボタン、選択ボタン、ソフトキーボード等である。拡張現実感処理部142は、記憶部120に予め記憶された仮想オブジェクトを取得してもよいし、HMD100にネットワーク接続されている他の装置に予め記憶された仮想オブジェクトを取得してもよい。 (C3) The augmented reality processing unit 142 displays a virtual object to be additionally displayed on the object of interest according to the content of the guidance content acquired in step c1 that does not have “(*)” at the end. Get or generate images, characters, graphic symbols, etc. to represent. Examples of images, characters, graphic symbols and the like representing virtual objects are, for example, arrows, lines, scales, scales, pointers, shortcuts, menus, radio buttons, selection buttons, soft keyboards, and the like. The augmented reality processing unit 142 may acquire a virtual object stored in advance in the storage unit 120 or may acquire a virtual object stored in advance in another device connected to the HMD 100 via a network.

(c4)拡張現実感処理部142は、手順c2で取得した注目オブジェクトの位置に合わせて、手順c3で取得または生成した仮想オブジェクトを配置し、他の部分に黒色を配置した付加画像データーを生成する。位置合わせの際、拡張現実感処理部142は、注目オブジェクトの特徴部(エッジ等)を利用してもよいし、注目オブジェクトに付されたマーカー等の目印を利用してもよい。位置合わせの際、拡張現実感処理部142は、予め記憶部120に記憶されている注目オブジェクトのモデル(または画像)を用いた画像認識を利用してもよい。位置合わせの際、拡張現実感処理部142は、利用者による指示に基づいてもよい。また、拡張現実感処理部142は、仮想オブジェクトを配置する際に、仮想オブジェクトに対して拡大、縮小、回転、色変換等の画像処理を施してもよい。 (C4) The augmented reality processing unit 142 arranges the virtual object acquired or generated in step c3 in accordance with the position of the target object acquired in step c2, and generates additional image data in which black is arranged in other portions. To do. At the time of alignment, the augmented reality processing unit 142 may use a characteristic part (such as an edge) of the target object, or may use a marker such as a marker attached to the target object. At the time of alignment, the augmented reality processing unit 142 may use image recognition using a model (or image) of the target object stored in the storage unit 120 in advance. At the time of alignment, the augmented reality processing unit 142 may be based on an instruction from the user. The augmented reality processing unit 142 may perform image processing such as enlargement, reduction, rotation, and color conversion on the virtual object when arranging the virtual object.

(c5)拡張現実感処理部142は、生成した付加画像データーに基づく画像を、画像処理部160へ送信し、画像表示部20の光学像表示部26、28に表示させる。 (C5) The augmented reality processing unit 142 transmits an image based on the generated additional image data to the image processing unit 160 and causes the optical image display units 26 and 28 of the image display unit 20 to display the images.

図4のステップS112またはステップS114が終了した後、案内部144は、案内モード124に記憶されている内容を取得する。案内モード124の内容が「追尾なしモード」である場合、案内部144は、案内処理を終了させる。案内モード124の内容が「追尾ありモード」である場合、案内部144は、任意の所定時間待機した後、ステップS102の処理と、ステップS108〜S114の処理と、を繰り返す。2回目以降のステップS108〜S114の処理において、案内部144は、1回目のステップS104で特定された注目オブジェクトと、1回目のステップS106で取得された案内内容のうち、末尾に「(*)」表記があるものの内容と、を利用する。すなわち、2回目以降、ステップS104と、ステップS106とは実行されない。   After step S112 or step S114 in FIG. 4 is completed, the guide unit 144 acquires the content stored in the guide mode 124. When the content of the guidance mode 124 is “no tracking mode”, the guidance unit 144 ends the guidance process. When the content of the guidance mode 124 is “tracking mode”, the guide unit 144 waits for an arbitrary predetermined time, and then repeats the process of step S102 and the processes of steps S108 to S114. In the second and subsequent steps S108 to S114, the guide unit 144 includes “(*) at the end of the attention object identified in the first step S104 and the guidance content acquired in the first step S106. ”And the content of what has the notation. That is, step S104 and step S106 are not executed after the second time.

A−3.案内処理の具体例:
A−3−1.第1の具体例:
図6〜8は、案内処理の第1の具体例について説明する図である。第1の具体例では、利用者がボトルからグラスに対して液体を注ごうとしている場面での案内処理について説明する。第1の具体例は、動作補助および情報提供の一例である。案内処理(図4)のステップS102において案内部144は、外景画像を取得する。図6は、ステップS102において取得された外景画像の一例である。外景画像IM1には、実オブジェクトであるOB11〜OB13が含まれている。
A-3. Specific examples of guidance processing:
A-3-1. First specific example:
6-8 is a figure explaining the 1st specific example of a guidance process. In the first specific example, a description will be given of guidance processing in a scene where a user is pouring liquid from a bottle to a glass. The first specific example is an example of operation assistance and information provision. In step S102 of the guidance process (FIG. 4), the guidance unit 144 acquires an outside scene image. FIG. 6 is an example of an outside scene image acquired in step S102. The outside scene image IM1 includes OB11 to OB13 which are real objects.

案内処理のステップS104において案内部144は、実オブジェクトOB11〜OB13から、上述した方法a1〜a4のいずれかを用いて、注目オブジェクトを特定する。例えば、グラスOB12と、ボトルOB11とが、注目オブジェクトとして特定されたとする。案内処理のステップS106において案内部144は、グラスOB12とボトルOB11とを用いて、案内用情報122を検索し、エントリーE1の案内内容「ボトルの口をグラスの中央に案内」と「グラス内の液体の量を案内(*)」とを取得する。   In step S104 of the guidance process, the guidance unit 144 identifies an object of interest from any of the real objects OB11 to OB13 using any of the methods a1 to a4 described above. For example, it is assumed that the glass OB12 and the bottle OB11 are specified as the target object. In step S106 of the guidance process, the guidance unit 144 searches the guidance information 122 using the glass OB12 and the bottle OB11, and the guidance contents “entry the bottle mouth to the center of the glass” and “ “Guid the amount of liquid (*)”.

案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。グラスOB12とボトルOB11との両方が視線の方向にない場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容「ボトルの口をグラスの中央に案内」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「ボトルの口を左に移動させてください」という案内音声SO11(図7)のみが再生され、仮想オブジェクトVO11を含む虚像VIは表示されない。   In step S108 of the guidance process, the guidance unit 144 detects the direction of the user's line of sight. When both the glass OB12 and the bottle OB11 are not in the line of sight (step S110: no line of sight), in step S112, the guidance unit 144 obtains the guidance content “bottle mouth in the middle of the glass in step S106. Guidance based on “Guidance on” is performed only by voice. As a result, only the guidance voice SO11 (FIG. 7) “Please move the bottle mouth to the left” is reproduced from the speakers in the left and right earphones 32, 34, and the virtual image VI including the virtual object VO11 is not displayed.

グラスOB12とボトルOB11との少なくともいずれか一方が視線の方向にある場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容「ボトルの口をグラスの中央に案内」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図7に示すように、左右イヤホン32、34内のスピーカーからは「ボトルの口を左に移動させてください」という案内音声SO11が再生されると共に、グラスOB12の中心線を表した仮想オブジェクトVO11を含む虚像VIが表示される。   When at least one of the glass OB12 and the bottle OB11 is in the direction of the line of sight (step S110: in the direction of the line of sight), the guide unit 144 in step S114 displays the guidance content “bottle mouth” acquired in step S106. Guidance based on “Guided in the center of the glass” is implemented by a combination of voice and augmented reality processing. As a result, as shown in FIG. 7, the guidance sound SO11 “Please move the bottle mouth to the left” is reproduced from the speakers in the left and right earphones 32 and 34, and the center line of the glass OB12 is represented. A virtual image VI including the virtual object VO11 is displayed.

案内モード124に記憶されている内容が「追尾なしモード」である場合、案内部144は、以上により処理を終了させる。案内モード124に記憶されている内容が「追尾ありモード」である場合、案内部144は、所定時間待機する。2回目の案内処理のステップS102において案内部144は、外景画像を取得する。   When the content stored in the guidance mode 124 is the “no tracking mode”, the guidance unit 144 ends the process as described above. When the content stored in the guidance mode 124 is the “tracking mode”, the guidance unit 144 waits for a predetermined time. In step S102 of the second guidance process, the guidance unit 144 acquires an outside scene image.

2回目の案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。グラスOB12とボトルOB11との両方が視線の方向にない場合(ステップS110:視線の方向になし)、2回目のステップS112において案内部144は、ステップS106で取得された案内内容「グラス内の液体の量を案内(*)」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「もうすぐ満水です」という案内音声SO12(図8)のみが再生され、仮想オブジェクトVO12を含む虚像VIは形成されない。   In step S108 of the second guidance process, the guidance unit 144 detects the direction of the user's line of sight. When both the glass OB12 and the bottle OB11 are not in the line of sight (step S110: no line of sight), the guide 144 in the second step S112 displays the guidance content “liquid in the glass” acquired in step S106. Guidance based on “Guidance of amount (*)” is performed only by voice. As a result, only the guidance voice SO12 (FIG. 8) “It will be full soon” is reproduced from the speakers in the left and right earphones 32, 34, and the virtual image VI including the virtual object VO12 is not formed.

グラスOB12とボトルOB11との少なくともいずれか一方が視線の方向にある場合(ステップS110:視線の方向にあり)、2回目のステップS114において案内部144は、ステップS106で取得された案内内容「グラス内の液体の量を案内(*)」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図8に示すように、左右イヤホン32、34内のスピーカーからは「もうすぐ満水です」という案内音声SO12が再生されると共に、グラスOB12の中心線を表した仮想オブジェクトVO11と、現在の液体量を矢印で示した仮想オブジェクトVO12と、を含む虚像VIが表示される。   When at least one of the glass OB12 and the bottle OB11 is in the direction of the line of sight (step S110: in the direction of the line of sight), in the second step S114, the guide unit 144 displays the guidance content “glass” acquired in step S106. Guidance based on the guidance of the amount of liquid in (*) "is performed by a combination of voice and augmented reality processing. As a result, as shown in FIG. 8, the guidance voice SO12 “It is almost full” is reproduced from the speakers in the left and right earphones 32 and 34, and the virtual object VO11 representing the center line of the glass OB12 and the current A virtual image VI including a virtual object VO12 in which the amount of liquid is indicated by an arrow is displayed.

A−3−2.第2の具体例:
図9〜11は、案内処理の第2の具体例について説明する図である。第2の具体例では、利用者が車を運転している場面での案内処理について説明する。第2の具体例は、危険回避および情報提供の一例である。案内処理(図4)のステップS102において案内部144は、外景画像を取得する。図9は、ステップS102において取得された外景画像の一例である。外景画像IM2には、実オブジェクトであるOB21〜OB26が含まれている。
A-3-2. Second specific example:
FIGS. 9-11 is a figure explaining the 2nd specific example of a guidance process. In the second specific example, guidance processing in a scene where the user is driving a car will be described. The second specific example is an example of danger avoidance and information provision. In step S102 of the guidance process (FIG. 4), the guidance unit 144 acquires an outside scene image. FIG. 9 is an example of an outside scene image acquired in step S102. The outside scene image IM2 includes OB21 to OB26 that are real objects.

案内処理のステップS104において案内部144は、実オブジェクトOB21〜OB26から、上述した方法a1〜a4のいずれかを用いて、注目オブジェクトを特定する。例えば、看板OB21と、車OB23とが、注目オブジェクトとして特定されたとする。案内処理のステップS106において案内部144は、看板OB21と車OB23とを用いて、案内用情報122を検索し、エントリーE8の案内内容「看板に対する注意喚起の案内」および「看板の内容を案内」と、エントリーE5の案内内容「車に対する注意喚起の案内」および「車との距離を案内(*)」と、を取得する。   In step S104 of the guidance process, the guidance unit 144 specifies the object of interest from any of the real objects OB21 to OB26 using any of the methods a1 to a4 described above. For example, it is assumed that the signboard OB21 and the car OB23 are specified as the attention object. In step S106 of the guidance process, the guidance unit 144 searches the guidance information 122 using the signboard OB21 and the car OB23, and guides the entry contents “Estimation guidance for the signboard” and “Guide the contents of the signboard”. Then, the guidance contents of entry E5 “Guidance for alerting the car” and “Guide distance to car (*)” are acquired.

案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。看板OB21が視線の方向にない場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容「看板に対する注意喚起の案内」および「看板の内容を案内」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「追突に注意してください」という案内音声SO21(図10)のみが再生され、仮想オブジェクトVO21を含む虚像VIは表示されない。車OB23が視線の方向にない場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容「車に対する注意喚起の案内」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「前方の車に注意してください」という案内音声SO22(図10)のみが再生され、仮想オブジェクトVO22を含む虚像VIは表示されない。   In step S108 of the guidance process, the guidance unit 144 detects the direction of the user's line of sight. When the signboard OB21 is not in the direction of the line of sight (step S110: no line of sight), in step S112, the guide unit 144 obtains the guidance contents “guidance for calling attention to the signboard” and “the contents of the signboard” acquired in step S106. Guidance based on “guidance” is performed only by voice. As a result, only the guidance voice SO21 (FIG. 10) “Please pay attention to the rear-end collision” is reproduced from the speakers in the left and right earphones 32 and 34, and the virtual image VI including the virtual object VO21 is not displayed. When the vehicle OB23 is not in the line of sight (step S110: no line of sight), in step S112, the guide unit 144 provides voice guidance for guidance based on the guidance content “guidance for alerting the vehicle” acquired in step S106. Implemented only by. As a result, only the guidance voice SO22 (FIG. 10) “Please pay attention to the car ahead” is reproduced from the speakers in the left and right earphones 32, 34, and the virtual image VI including the virtual object VO22 is not displayed.

看板OB21が視線の方向にある場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容「看板に対する注意喚起の案内」および「看板の内容を案内」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図10に示すように、左右イヤホン32、34内のスピーカーからは「追突に注意してください」という案内音声SO21が再生されると共に、看板OB21を強調するための仮想オブジェクトVO21を含む虚像VIが表示される。車OB23が視線の方向にある場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容「車に対する注意喚起の案内」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図10に示すように、左右イヤホン32、34内のスピーカーからは「前方の車に注意してください」という案内音声SO22が再生されると共に、車OB23を強調するための仮想オブジェクトVO22を含む虚像VIが表示される。   When the signboard OB21 is in the direction of the line of sight (step S110: in the direction of the line of sight), in step S114, the guide unit 144 obtains the guidance contents “guidance for alerting the signboard” and “the contents of the signboard” acquired in step S106. Guidance based on “guidance” is performed by a combination of voice and augmented reality processing. As a result, as shown in FIG. 10, the guidance sound SO21 “Please pay attention to the rear-end collision” is reproduced from the speakers in the left and right earphones 32 and 34, and the virtual object VO21 for emphasizing the signboard OB21 is included. A virtual image VI is displayed. When the vehicle OB23 is in the direction of the line of sight (step S110: in the direction of the line of sight), in step S114, the guide unit 144 provides guidance based on the guidance content “guidance for alerting the vehicle” acquired in step S106. And a combination of augmented reality processing. As a result, as shown in FIG. 10, the guidance sound SO22 “Please pay attention to the car ahead” is reproduced from the speakers in the left and right earphones 32, 34, and the virtual object VO22 for emphasizing the car OB23. A virtual image VI including is displayed.

案内モード124に記憶されている内容が「追尾なしモード」である場合、案内部144は、以上により処理を終了させる。案内モード124に記憶されている内容が「追尾ありモード」である場合、案内部144は、所定時間待機する。2回目の案内処理のステップS102において案内部144は、外景画像を取得する。取得された外景画像には看板OBが含まれていないため、案内部144は、2回目の処理において、注目オブジェクトから看板OB21を除外する。   When the content stored in the guidance mode 124 is the “no tracking mode”, the guidance unit 144 ends the process as described above. When the content stored in the guidance mode 124 is the “tracking mode”, the guidance unit 144 waits for a predetermined time. In step S102 of the second guidance process, the guidance unit 144 acquires an outside scene image. Since the acquired outside scene image does not include the signboard OB, the guide unit 144 excludes the signboard OB21 from the object of interest in the second process.

2回目の案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。車OB23が視線の方向にない場合(ステップS110:視線の方向になし)、2回目のステップS112において案内部144は、ステップS106で取得された案内内容「車との距離を案内(*)」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「5m前方車両が近接しています」という案内音声SO23(図10)のみが再生され、仮想オブジェクトVO21を含む虚像VIは表示されない。   In step S108 of the second guidance process, the guidance unit 144 detects the direction of the user's line of sight. When the vehicle OB23 is not in the line of sight (step S110: no line of sight), in the second step S112, the guidance unit 144 obtains the guidance content “Guide distance from car (*)” acquired in step S106. Guidance based on is performed only by voice. As a result, only the guidance voice SO23 (FIG. 10) “5 m ahead vehicle is approaching” is reproduced from the speakers in the left and right earphones 32, 34, and the virtual image VI including the virtual object VO21 is not displayed.

車OB23が視線の方向にある場合(ステップS110:視線の方向にあり)、2回目のステップS114において案内部144は、ステップS106で取得された案内内容「車との距離を案内(*)」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図10に示すように、左右イヤホン32、34内のスピーカーからは「5m前方車両が近接しています」という案内音声SO23が再生されると共に、車OB23を強調するための仮想オブジェクトVO22と、利用者と車OB23との間の距離を示した仮想オブジェクトVO23と、を含む虚像VIが表示される。   When the vehicle OB23 is in the direction of the line of sight (step S110: in the direction of the line of sight), in the second step S114, the guide unit 144 obtains the guidance content “Guide distance from the car (*)” acquired in step S106. Based on the combination of voice and augmented reality processing. As a result, as shown in FIG. 10, the guidance sound SO23 “5 m ahead vehicle is approaching” is reproduced from the speakers in the left and right earphones 32 and 34, and the virtual object VO22 for emphasizing the car OB23. And a virtual image VI including the virtual object VO23 indicating the distance between the user and the car OB23.

以上のように、上記実施形態の案内処理によれば、案内部144は、現実世界に実在すると共に、ステップS102により取得された外景画像に含まれる少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、少なくとも音声SO11〜SO23により実施することができる(ステップS112、S114)。音声SO11〜SO23を用いた案内は、利用者の視野領域に形成される虚像VIを用いた案内と比較して、利用者の視野を狭める虞、換言すれば、現実世界の視認性が低下する虞を低くすることができる。この結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置(HMD100)を提供することができる。   As described above, according to the guidance process of the above embodiment, the guide unit 144 is at least one real object that exists in the real world and is included in the outside scene image acquired in step S102. On the other hand, guidance for the attention object, which is a real object that prompts attention, can be implemented by at least the voices SO11 to SO23 (steps S112 and S114). Compared with guidance using the virtual image VI formed in the user's visual field area, guidance using the voices SO11 to SO23 may reduce the visual field of the user, in other words, visibility in the real world is reduced. The fear can be reduced. As a result, it is possible to provide a head-mounted display device (HMD 100) that can prompt the user's attention to a real object that exists in the real world while ensuring visibility in the real world.

さらに、上記実施形態の案内処理によれば、案内部144は、注目オブジェクトが利用者の視線の方向にないと推定される場合(ステップS110:視線の方向になし)は、音声SO11〜SO23のみにより案内を実施する(ステップS112)。このため、案内部144は、視線の方向にない注目オブジェクトに対する案内のために、利用者の視野領域に虚像VIが形成されることを抑制することができ、現実世界の視認性を確保することができる。一方、案内部144は、注目オブジェクトが利用者の視線の方向にあると推定される場合(ステップS110:視線の方向にあり)は、音声SO11〜SO23に加えてさらに、注目オブジェクトに付加的に表示するための仮想オブジェクトVO11〜VO23を含んだ虚像VIを形成させることで案内を実施する(ステップS114)。このため、案内部144は、視線の方向にある注目オブジェクトに対する案内を、音声SO11〜SO23と、虚像VIと、の両方の手段を用いて手厚く行うことができる。すなわち、利用者は、自身の視線の方向にある注目オブジェクトについては、視覚と聴覚とを介した案内を享受することができる。これらの結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置(HMD100)において、さらに、利用者の利便性を向上させることができる。   Furthermore, according to the guidance processing of the above embodiment, when it is estimated that the object of interest is not in the direction of the user's line of sight (step S110: none in the direction of the line of sight), only the voices SO11 to SO23. The guidance is implemented by (Step S112). For this reason, the guide unit 144 can suppress the formation of the virtual image VI in the user's visual field region for guiding an object of interest that is not in the direction of the line of sight, and ensure visibility in the real world. Can do. On the other hand, when it is estimated that the target object is in the direction of the user's line of sight (step S110: in the direction of the line of sight), the guide unit 144 further adds to the target object in addition to the voices SO11 to SO23. Guidance is implemented by forming a virtual image VI including the virtual objects VO11 to VO23 to be displayed (step S114). For this reason, the guide part 144 can perform guidance with respect to the object of interest in the direction of the line of sight using both the sound SO11 to SO23 and the virtual image VI. That is, the user can enjoy guidance through visual and auditory senses for the object of interest in the direction of his / her line of sight. As a result, in the head-mounted display device (HMD100) capable of prompting the user's attention to a real object that exists in the real world while ensuring visibility in the real world, the user can further Convenience can be improved.

さらに、上記実施形態の案内処理によれば、案内モード124が「追尾ありモード」である場合、案内部144は、ステップS102において繰り返し取得された複数の外景画像における注目オブジェクトの経時的な変化に伴って、ステップS112またはステップS114の案内を繰り返し実施する。この結果、案内部144は、注目オブジェクトの最新の状態に対応した案内を随時行うことができる、換言すれば、案内部144は、注目オブジェクトを追跡しつつ案内を行うことができる。   Furthermore, according to the guidance process of the above embodiment, when the guidance mode 124 is the “tracking mode”, the guidance unit 144 changes the temporal change of the object of interest in the plurality of outside scene images repeatedly acquired in step S102. Accordingly, the guidance in step S112 or step S114 is repeatedly performed. As a result, the guide unit 144 can perform guidance corresponding to the latest state of the target object at any time. In other words, the guide unit 144 can perform guidance while tracking the target object.

B.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
B. Variations:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における制御部と画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。
(i)制御部にCPUやメモリー等の処理機能を搭載し、画像表示部には表示機能のみを搭載する態様
(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様
(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)
(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様
(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。
The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted.
(I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. Aspect to be mounted (iii) A mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer)
(Iv) A mode in which a smartphone or a portable game machine is used instead of the control unit. (V) The control unit and the image display unit are connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth. The aspect which abolished the connection part (code). In this case, power supply to the control unit or the image display unit may be performed wirelessly.

例えば、上記実施形態で例示した制御部の構成は任意に変更することができる。具体的には、例えば、制御部の送信部(Tx)および画像表示部の受信部(Rx)は、いずれも、双方向通信が可能な機能を備えており送受信部として機能してもよい。例えば、制御部が備えるとした操作用インターフェイス(各種キーやトラックパッド等)の一部を省略してもよい。例えば、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。例えば、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。例えば、制御部が備えるとした各処理部(例えば画像処理部、表示制御部、拡張現実感処理部等)は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。例えば、制御部には、電源として二次電池が搭載されることとしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, the configuration of the control unit exemplified in the above embodiment can be arbitrarily changed. Specifically, for example, both the transmission unit (Tx) of the control unit and the reception unit (Rx) of the image display unit have a function capable of bidirectional communication, and may function as a transmission / reception unit. For example, a part of an operation interface (such as various keys and a track pad) provided in the control unit may be omitted. For example, the control unit may be provided with another operation interface such as an operation stick. For example, the control unit may be configured such that a device such as a keyboard or a mouse can be connected, and an input may be received from the keyboard or the mouse. For example, each processing unit (for example, an image processing unit, a display control unit, an augmented reality processing unit, or the like) included in the control unit is an ASIC (Application Specific Integrated Circuit) designed to realize the function. (Integrated circuit). For example, the control unit is mounted with a secondary battery as a power source, but the power source is not limited to a secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

例えば、上記実施形態で例示した画像表示部の構成は任意に変更することができる。具体的には、例えば、画像表示部の画像光生成部は、上述した構成部(バックライト、バックライト制御部、LCD、LCD制御部)と共に、または、上述した構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備えていてもよい。例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を備えていてもよい。例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。例えば、イヤホンに代えて、または、イヤホンと共に、骨伝導スピーカーを備えていてもよい。骨伝導スピーカーを利用した音の再生によれば、雑音の多い環境(例えば工場内)においても、利用者にはっきりと音を伝えることができる。   For example, the configuration of the image display unit exemplified in the above embodiment can be arbitrarily changed. Specifically, for example, the image light generation unit of the image display unit may be combined with the above-described configuration unit (backlight, backlight control unit, LCD, LCD control unit) or in place of the above-described configuration unit. You may provide the structure part for implement | achieving a system. For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. For example, the image generation unit may include a digital micromirror device or the like instead of the LCD. For example, the present invention can be applied to a laser retinal projection type head-mounted display device. For example, a bone conduction speaker may be provided instead of the earphone or together with the earphone. According to sound reproduction using a bone conduction speaker, sound can be clearly transmitted to the user even in a noisy environment (for example, in a factory).

図12は、変形例におけるHMDの外観の構成を示す説明図である。図10(A)の画像表示部20xは、右光学像表示部26xおよび左光学像表示部28xを備えている。これらは上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の左右の眼の斜め上にそれぞれ配置されている。図10(B)の画像表示部20yは、右光学像表示部26yおよび左光学像表示部28yを備えている。これらは上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の左右の眼の斜め下にそれぞれ配置されている。このように、光学像表示部は利用者の眼の近傍に配置されていれば足りる。光学像表示部を形成する光学部材の大きさは任意であり、光学像表示部が利用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が利用者の眼を完全に覆わない態様でもよい。   FIG. 12 is an explanatory diagram showing an external configuration of the HMD in the modification. The image display unit 20x in FIG. 10A includes a right optical image display unit 26x and a left optical image display unit 28x. These are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the left and right eyes of the user when the HMD is mounted. The image display unit 20y of FIG. 10B includes a right optical image display unit 26y and a left optical image display unit 28y. These are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the left and right eyes of the user when the HMD is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is arbitrary, and the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit completely covers the user's eyes. There may be no aspect.

例えば、HMDは、両眼タイプの透過型HMDであるものとしたが、単眼タイプのHMDとしてもよい。例えば、利用者がHMDを装着した状態において外景の透過が遮断される非透過型HMDとして構成してもよいし、非透過型HMDにカメラを搭載したビデオシースルーとして構成してもよい。例えば、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。例えば、眼鏡のように装着する画像表示部に代えて、通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)を採用してもよい。この場合も、制御部と画像表示部との間の接続は、有線、無線どちらでもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することができる。例えば、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部や、ヘルメット等の身体防護具に内蔵された画像表示部といった、他の態様の画像表示部を採用してもよい。例えば、自動車や飛行機等の車両、またはその他の交通手段に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。   For example, the HMD is a binocular transmissive HMD, but may be a monocular HMD. For example, it may be configured as a non-transparent HMD that blocks the transmission of outside scenes when the user wears the HMD, or may be configured as a video see-through in which a camera is mounted on the non-transparent HMD. For example, the earphone may be an ear-hook type or a headband type, or may be omitted. For example, instead of the image display unit worn like glasses, a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc.) may be employed. Also in this case, the connection between the control unit and the image display unit may be either wired or wireless. In this way, the control unit can be used as a remote controller for a normal flat display device. For example, instead of an image display unit worn like glasses, an image display unit of another aspect such as an image display unit worn like a hat or an image display unit built in a body protective device such as a helmet is used. It may be adopted. For example, you may comprise as a head-up display (HUD, Head-Up Display) mounted in vehicles, such as a motor vehicle and an airplane, or another transportation means.

・変形例2:
上記実施形態では、案内処理の一例を示した。しかし、上記実施形態において示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。実行されるステップの順序を変更してもよい。
Modification 2
In the above embodiment, an example of the guidance process has been described. However, the processing procedure shown in the above embodiment is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. The order of the steps performed may be changed.

例えば、案内部は、視線方向の検出(ステップS108)を省略してもよい。この場合、案内部は、利用者の視線の方向にかかわらず、注目オブジェクトに対する案内を音声のみで実施すればよい(ステップS112)。   For example, the guide unit may omit the detection of the line-of-sight direction (step S108). In this case, the guidance unit may perform guidance for the object of interest only by voice regardless of the direction of the user's line of sight (step S112).

例えば、案内部は、案内内容の取得(ステップS106)に代えて、または、案内内容の取得と共に、DSSS(Driving Safety Support Systems)により提供される情報を取得して、ステップS112またはステップS114による案内を実施してもよい。また、案内部は、DSSS以外の他の「車両・歩行者等の支援システム」により提供される情報を取得して、ステップS112またはステップS114による案内を実施してもよい。   For example, the guidance unit obtains information provided by DSSS (Driving Safety Support Systems) instead of obtaining the guidance content (step S106) or together with obtaining the guidance content, and performs guidance in step S112 or step S114. May be implemented. In addition, the guide unit may acquire information provided by “support system for vehicles, pedestrians, etc.” other than DSSS, and may perform the guidance in step S112 or step S114.

例えば、案内部は、案内処理(ステップS112、S114)において、追尾ありモードの案内と、追尾なしモードの案内と、のうちのどちらか一方のみを実施してもよい。この場合、記憶部の案内モードは省略してよい。また、例えば、案内部は、原則として追尾なしモードの案内を実施することとし、所定の条件を満たした場合に限って追尾ありモードの案内を実施してもよい。所定の条件とは、例えば、注目オブジェクトの経時的な変化が所定量以上か否か(詳細な判定方法は上述した方法a1と同様)、注目オブジェクトの特徴が所定の特徴と一致するか否か(詳細な判定方法は上述した方法a2と同様)、注目オブジェクトに利用者の視線が向いたか否か(詳細な判定方法は上述した方法a3と同様)、注目オブジェクトに利用者の指定があったか否か(詳細な判定方法は上述した方法a4と同様)を採用することができる。   For example, the guidance unit may perform only one of guidance in the tracking mode and guidance in the non-tracking mode in the guidance processing (steps S112 and S114). In this case, the guidance mode of the storage unit may be omitted. In addition, for example, the guide unit may perform guidance in the mode without tracking in principle, and may perform guidance in the mode with tracking only when a predetermined condition is satisfied. The predetermined condition is, for example, whether or not the change of the object of interest with time is greater than or equal to a predetermined amount (the detailed determination method is the same as the method a1 described above), and whether or not the feature of the object of interest matches the predetermined feature. (The detailed determination method is the same as the method a2 described above), whether the user's line of sight is directed to the object of interest (the detailed determination method is the same as the method a3 described above), and whether the user is specified for the object of interest. (The detailed determination method is the same as the method a4 described above).

例えば、案内部は、案内処理(ステップS112、S114)において、所定の数以上の案内音声を用いた案内を実施する場合に、案内音声の内容を短縮化してもよい。具体的には、図10の例において案内部は、「追突に注意してください」との案内音声を「追突注意」のように短縮化してもよく、「前方の車に注意してください」との案内音声を「前方注意」のように短縮化してもよい。所定の数は、2以上でもよいし、3以上でもよいし、利用者が設定可能であってもよい。このようにすれば、複数の案内音声を用いた案内に要する時間を短縮することができる。   For example, the guidance unit may shorten the content of the guidance voice when performing guidance using a predetermined number or more of guidance voices in the guidance processing (steps S112 and S114). Specifically, in the example of FIG. 10, the guidance unit may shorten the guidance voice “Please pay attention to the rear-end collision” like “Warning rear-end collision”. The guidance voice may be shortened as “forward attention”. The predetermined number may be two or more, may be three or more, and may be settable by the user. In this way, the time required for guidance using a plurality of guidance voices can be shortened.

例えば、案内部は、案内処理(ステップS112、S114)において、複数の案内音声を用いた案内を実施する場合に、案内音声に対応する注目オブジェクトの重要度に応じて、案内を実施する順序を決定してもよい。注目オブジェクトの重要度の決定に際しては、上述した方法a1〜a4を利用し、例えば、方法a4により特定された注目オブジェクトは優先順位が1番、方法a1により特定された注目オブジェクトは優先順位が2番、等とすることができる。また、注目オブジェクトの特定方法と優先順位との対応関係を、利用者が変更可能であってもよい。このようにすれば、優先順位の高い注目オブジェクトについての案内音声を先ず案内することができるため、利便性を向上させることができる。   For example, when performing guidance using a plurality of guidance voices in the guidance processing (steps S112 and S114), the guidance unit changes the order in which guidance is performed according to the importance of the object of interest corresponding to the guidance voice. You may decide. In determining the importance of the attention object, the above-described methods a1 to a4 are used. For example, the attention object identified by the method a4 has the highest priority, and the attention object identified by the method a1 has the priority 2. Number, etc. Also, the user may be able to change the correspondence between the method of identifying the object of interest and the priority order. In this way, it is possible to first guide the guidance voice for the attention object with a high priority, so that convenience can be improved.

例えば、案内部は、案内処理(ステップS112、S114)において、注目オブジェクトと利用者との位置関係に応じて、右イヤホン内のスピーカーと、左イヤホン内のスピーカーと、のうちのいずれか一方から案内音声を出力させてもよい。具体的には、例えば、案内部は、注目オブジェクトが利用者の右側に位置する場合には、右イヤホン内のスピーカーから案内音声を出力させ、注目オブジェクトが利用者の左側に位置する場合には、左イヤホン内のスピーカーから案内音声を出力させてもよい。また、例えば、頭部装着型表示装置に広い周波数応答特性と指向性を持ったスピーカーを備える場合には、Dolby(登録商標)等の音声処理システムを利用することができる。この場合、案内部は、注目オブジェクトが存在する位置から案内音声が再生されるような音声データーを生成し、音声処理システムへ供給し、出力させることができる。このようにすれば、案内音声を聞いた利用者は、自身と注目オブジェクトとの位置関係を直観的に知ることができる。   For example, in the guidance process (steps S112 and S114), the guidance unit determines whether the speaker in the right earphone or the speaker in the left earphone is in accordance with the positional relationship between the object of interest and the user. A guidance voice may be output. Specifically, for example, when the attention object is located on the right side of the user, the guidance unit outputs guidance voice from the speaker in the right earphone, and when the attention object is located on the left side of the user. The guidance voice may be output from a speaker in the left earphone. For example, when the head-mounted display device includes a speaker having a wide frequency response characteristic and directivity, an audio processing system such as Dolby (registered trademark) can be used. In this case, the guidance unit can generate voice data that reproduces the guidance voice from the position where the target object exists, and can supply the voice data to the voice processing system for output. In this way, the user who has heard the guidance voice can intuitively know the positional relationship between the object and the object of interest.

例えば、案内部は、案内処理(ステップS112、S114)において、案内音声に代えて、ブザー等の警告音、アラーム等の注意喚起音、メロディー等を再生してもよい。   For example, in the guidance process (steps S112 and S114), the guidance unit may reproduce a warning sound such as a buzzer, a warning sound such as an alarm, a melody, or the like instead of the guidance voice.

例えば、案内部は、案内処理(ステップS112、S114)において、音(音波)に代えて、または、音と共に、振動によって注目オブジェクトに対する案内を行ってもよい。この場合、例えば、頭部装着型表示装置に振動モーター等を内蔵した振動部を備える構成とし、案内部は、案内音声の再生に代えて、または音声の再生と共に、振動モーターの駆動を行えばよい。この場合も、案内部は、注目オブジェクトと利用者との位置関係に応じて、例えば右保持部に内蔵されている振動モーターと、左保持部に内蔵されている振動モーターと、のうちのいずれか一方を駆動させてもよい。   For example, in the guidance process (steps S112 and S114), the guidance unit may perform guidance for the object of interest by vibration instead of sound (sound wave) or together with sound. In this case, for example, the head-mounted display device includes a vibration unit with a built-in vibration motor or the like, and the guide unit can drive the vibration motor instead of reproducing the guidance voice or together with the reproduction of the voice. Good. In this case as well, the guide unit may select one of, for example, a vibration motor built in the right holding unit and a vibration motor built in the left holding unit, depending on the positional relationship between the object of interest and the user. Either of them may be driven.

例えば、案内部は、案内処理(ステップS114)において表示させる仮想オブジェクトに視差を付してもよい。   For example, the guidance unit may add parallax to the virtual object displayed in the guidance process (step S114).

例えば、上述した案内処理と共に、次のような案内処理を実施してもよい。頭部装着型表示装置は、利用者と注目オブジェクトとの間の距離を取得する距離取得部を備える構成とする。案内部は、利用者と注目オブジェクトとの間の距離が所定の距離(例えば20m)以内となった場合に、案内音声を再生させる。案内音声は、警告音や注意喚起音やメロディーであってもよい。案内部は、所定の距離を、利用者の移動速度に応じて変化(例えば、時速50km以上の場合は20m等)させてもよい。なお、距離取得部は、例えば、図2に示したステレオカメラを利用したステレオカメラ方式で距離を取得してもよいし、単眼カメラと単眼カメラの移動距離を利用した単眼カメラ方式で距離を取得してもよい。距離取得部は、赤外線(または超音波)受発光部を利用したパターン照射方式で距離を取得してもよいし、赤外線(または超音波)受発光部を利用したToF(Time of Flight)方式で距離を取得してもよい。   For example, the following guidance processing may be performed together with the guidance processing described above. The head-mounted display device includes a distance acquisition unit that acquires a distance between the user and the object of interest. The guidance unit reproduces the guidance voice when the distance between the user and the object of interest is within a predetermined distance (for example, 20 m). The guidance voice may be a warning sound, a warning sound, or a melody. The guide unit may change the predetermined distance according to the moving speed of the user (for example, 20 m when the speed is 50 km / h or more). The distance acquisition unit may acquire the distance by a stereo camera method using the stereo camera shown in FIG. 2, for example, or acquire the distance by a monocular camera method using the movement distance between the monocular camera and the monocular camera. May be. The distance acquisition unit may acquire the distance by a pattern irradiation method using an infrared (or ultrasonic) light receiving / emitting unit, or by a ToF (Time of Flight) method using an infrared (or ultrasonic) light receiving / emitting unit. The distance may be acquired.

例えば、上述した案内処理の前処理として、または、案内処理のステップS114の前処理として、次のような調整処理を実施してもよい。頭部装着型表示装置は、IMU(Inertial Measurement Unit、慣性計測装置)を備える構成とする。CPUは、IMUを用いて、利用者の視界方向の領域(例えばカメラの撮像領域)と、画像表示部における虚像の表示領域と、の対応付けを行う。このようにすれば、拡張現実感処理部は、案内処理のステップS114において表示する仮想オブジェクトと、実オブジェクト(注目オブジェクト)と、の位置合わせの精度を向上させることができる。また、利用者の頭部の細かなぶれに起因する仮想オブジェクトの表示のぶれを抑制できる。また、拡張現実感処理において不要画像のマスク処理を実施する場合、マスク処理の速度を向上させることができる。   For example, the following adjustment process may be performed as a pre-process of the above-described guidance process or as a pre-process of step S114 of the guidance process. The head-mounted display device includes an IMU (Inertial Measurement Unit). Using the IMU, the CPU associates an area in the user's visual field direction (for example, an imaging area of a camera) with a virtual image display area in the image display unit. In this way, the augmented reality processing unit can improve the accuracy of alignment between the virtual object displayed in step S114 of the guidance process and the real object (target object). In addition, it is possible to suppress the display blur of the virtual object due to the fine shake of the user's head. Also, when performing mask processing of unnecessary images in augmented reality processing, the speed of mask processing can be improved.

例えば、複数の頭部装着型表示装置の利用者が存在する環境下において、案内処理では、各利用者の相対位置関係を利用して処理を実施してもよい。具体的には、例えば、注目オブジェクトの特定(ステップS104)において、HMD100xの案内部は、HMD100xの利用者と所定の相対位置関係を有する他のHMD100y、100z等の利用者を、注目オブジェクトとしてもよい。例えば、案内(ステップS112、S114)において、HMD100xの案内部は、HMD100xの利用者と他のHMD100y、100z等の利用者との相対位置関係に応じて、右イヤホン内のスピーカーと、左イヤホン内のスピーカーと、のうちのいずれか一方から案内音声を出力させてもよく、仮想オブジェクトを表示させる位置を調整してもよい。このようにすれば、複数の頭部装着型表示装置の利用者が存在する環境下(例えば、工場内、学校内等)において、各利用者の相対位置関係に基づく案内を実現することができる。   For example, in an environment where there are a plurality of head-mounted display device users, the guidance process may be performed using the relative positional relationship of each user. Specifically, for example, in specifying the object of interest (step S104), the guide unit of the HMD 100x also uses other HMDs 100y, 100z, etc., having a predetermined relative positional relationship with the user of the HMD 100x, as the object of attention. Good. For example, in the guidance (steps S112 and S114), the guidance unit of the HMD 100x is connected to the speaker in the right earphone and the left earphone in accordance with the relative positional relationship between the user of the HMD 100x and other users of the HMDs 100y and 100z. The guidance voice may be output from any one of the speakers, and the position where the virtual object is displayed may be adjusted. In this way, guidance based on the relative positional relationship of each user can be realized in an environment where there are users of a plurality of head-mounted display devices (for example, in factories, schools, etc.). .

・変形例3:
上記実施形態では、案内用情報の一例を示した。しかし、上記実施形態において示した案内用情報の構成および内容はあくまで一例であり、種々の変形が可能である。例えば、一部の構成を省略してもよいし、更なる他の構成を追加してもよい。案内用情報に格納されているデーターを変更してもよい。
・ Modification 3:
In the above embodiment, an example of guidance information has been shown. However, the configuration and content of the guidance information shown in the above embodiment is merely an example, and various modifications can be made. For example, a part of the configuration may be omitted or another configuration may be added. The data stored in the guide information may be changed.

例えば、注目オブジェクトの名称等を用いた照合のための情報である「オブジェクト」欄は、1つであってもよいし、3つ以上であってもよい。   For example, there may be one “object” field, which is information for collation using the name of the object of interest, or may be three or more.

例えば、案内内容に代えて、または、案内内容と共に、手順情報が記憶されていてもよい。「手順情報」とは、HMDの利用者に対して、一連の動作手順を教示するために用いられる情報である。動作手順には、種々のカテゴリーの動作の手順が広く含まれる。例えば、料理や裁縫における製作者の動作の手順、工場作業における作業員の動作の手順、テニス等のスポーツにおける競技者の動作の手順等が含まれる。また、動作手順には、思考プロセスのような思考の手順、学習プロセスにおける思考の手順といった、利用者の体の動きを伴わない思考動作の手順をも含む。これらの動作の手順は、連続的であってもよいし、一定間隔をおいて不連続的であってもよい。   For example, procedure information may be stored instead of or together with the guidance content. “Procedure information” is information used to teach a series of operation procedures to an HMD user. The operation procedures widely include various categories of operation procedures. For example, the procedure of the producer's operation in cooking and sewing, the procedure of the worker's operation in factory work, the procedure of the athlete's operation in sports such as tennis are included. Further, the operation procedure includes a procedure of thinking operation that does not involve the movement of the user's body, such as a procedure of thinking such as a thought process and a procedure of thinking in the learning process. The procedure of these operations may be continuous or discontinuous at regular intervals.

・変形例4:
上記実施形態では、案内処理の具体例を示した。しかし、上記実施形態において示した具体例はあくまで一例であり、種々の変形が可能である。例えば、例示した音声による案内の態様や、拡張現実感処理における仮想オブジェクトの態様は、任意に変更することができる。
-Modification 4:
In the above embodiment, a specific example of the guidance process has been shown. However, the specific examples shown in the above embodiment are merely examples, and various modifications are possible. For example, the voice guidance mode exemplified and the virtual object mode in augmented reality processing can be arbitrarily changed.

例えば、第1、2の具体例では、実オブジェクトは1つの「もの」単位であるとして説明した。しかし、案内部は、1つの「もの」の中に複数の実オブジェクトが存在するとして案内処理を実施してもよい。具体的には、「車」という1つのものの中に、ボディー、バンパー、タイヤ、テールランプといった、複数の実オブジェクトが存在するとして案内処理を実施してもよい。   For example, in the first and second specific examples, the real object is described as one “thing” unit. However, the guide unit may perform the guide process on the assumption that there are a plurality of real objects in one “thing”. Specifically, the guidance process may be performed on the assumption that there are a plurality of real objects such as a body, a bumper, a tire, and a tail lamp in one “car”.

例えば、第1の具体例において、案内部は、グラスの近傍に、利用者に対して液体量を案内するための目盛りを表す仮想オブジェクトを表示させてもよい。同様に、案内部は、グラスの任意の地点に、液体の注入を停止すべき位置を案内するための目印を表す仮想オブジェクトを表示させてもよい。同様に、案内部は、グラスの近傍(好ましくは下部)に、利用者に対して重量を案内するためのスケールを表示させてもよい。案内部は、画像認識により推定された液体量等に応じてスケールの値を変化させてもよい。   For example, in the first specific example, the guide unit may display a virtual object representing a scale for guiding the liquid amount to the user in the vicinity of the glass. Similarly, the guiding unit may display a virtual object representing a mark for guiding a position where the liquid injection should be stopped at an arbitrary point on the glass. Similarly, the guide unit may display a scale for guiding weight to the user in the vicinity (preferably the lower part) of the glass. The guide unit may change the value of the scale according to the liquid amount estimated by the image recognition.

例えば、第2の具体例において、案内部は、前方の車との距離に応じて、当該車を強調するための仮想オブジェクトの態様を変化させてもよい。具体的には、案内部は、前方の車との距離が近ければ近いほど仮想オブジェクトを目立ちやすく(大きく、濃く)することができる。   For example, in the second specific example, the guide unit may change the aspect of the virtual object for emphasizing the car according to the distance from the car ahead. Specifically, the guide unit can make the virtual object more conspicuous (larger and darker) as the distance from the vehicle ahead is shorter.

・変形例5:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
Modification 5:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
53…受信部
61…カメラ
62…視線検出部
63…マイク
66…9軸センサー
100…ヘッドマウントディスプレイ(頭部装着型表示装置)
110…入力情報取得部
120…記憶部
122…案内用情報
124…案内モード
130…電源
132…無線通信部
134…GPSモジュール
140…CPU
142…拡張現実感処理部
144…案内部
150…OS
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
OA…外部装置
PC…パーソナルコンピューター
VI…虚像
SC…外景
VR…視野
RE…右眼
LE…左眼
IM1、IM2…外景画像
OB11〜OB26…実オブジェクト
VO11〜VO23…仮想オブジェクト
SO11〜SO23…音声
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switching key 14 ... Trackpad 15 ... Luminance switching key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive unit 23 ... Left holding unit 24 ... Left display drive unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left code 46 ... Connecting member 48 ... Body code 51 ... Transmitting unit 53 ... Receiving unit 61 ... Camera 62 ... Gaze detection unit 63 ... Mic 66 ... 9-axis sensor 100 ... Head mounted display (head-mounted display device)
DESCRIPTION OF SYMBOLS 110 ... Input information acquisition part 120 ... Memory | storage part 122 ... Information for guidance 124 ... Guidance mode 130 ... Power supply 132 ... Wireless communication part 134 ... GPS module 140 ... CPU
142 ... Augmented reality processing unit 144 ... Guide unit 150 ... OS
DESCRIPTION OF SYMBOLS 160 ... Image processing part 170 ... Audio | voice processing part 180 ... Interface 190 ... Display control part 201 ... Right backlight control part 202 ... Left backlight control part 211 ... Right LCD control part 212 ... Left LCD control part 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate VSync ... Vertical synchronization signal HSync ... Horizontal synchronization signal Data ... Image data OA ... External device PC ... Personal computer VI ... Virtual image SC ... Outside view VR ... Visual field RE ... Right eye LE ... Left eye IM1, IM2 ... Outside scene image OB11-OB26 ... Real object VO11-VO23 ... Virtual object SO11-SO23 ... Audio

Claims (10)

利用者が虚像を視認可能な頭部装着型表示装置であって、
前記利用者に前記虚像を視認させる画像表示部と、
前記頭部装着型表示装置を装着した状態における前記利用者の視界方向の外景画像を取得する画像取得部と、
現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う案内部と、
を備える、頭部装着型表示装置。
A head-mounted display device that allows a user to visually recognize a virtual image,
An image display unit for allowing the user to visually recognize the virtual image;
An image acquisition unit for acquiring an outside scene image in the visual field direction of the user in a state in which the head-mounted display device is mounted;
A guidance unit that uses sound to guide a target object that is present in the real world and that is at least one real object included in the acquired outside scene image and is a real object that prompts the user to pay attention; ,
A head-mounted display device comprising:
請求項1に記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え、
前記案内部は、
前記注目オブジェクトが、検出された前記視線の方向にないと推定される場合は、前記音により前記案内を行い、
前記注目オブジェクトが、検出された前記視線の方向にある推定される場合は、前記音に加えてさらに、前記注目オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させることで、前記案内を行う、頭部装着型表示装置。
The head-mounted display device according to claim 1, further comprising:
A line-of-sight detection unit that detects the direction of the line of sight of the user in a state in which the head-mounted display device is mounted;
The guide part is
When it is estimated that the object of interest is not in the direction of the detected line of sight, the guidance is performed with the sound,
When the object of interest is estimated to be in the direction of the detected line of sight, in addition to the sound, the image display unit further includes the virtual image including a virtual object for additionally displaying the object of interest. A head-mounted display device that performs the guidance by forming the head-mounted display device.
請求項1または請求項2に記載の頭部装着型表示装置であって、
前記案内は、
前記注目オブジェクトに対する前記利用者の注意喚起のための案内と、
前記注目オブジェクトに関する情報の案内と、
前記注目オブジェクトの位置に関する案内と、
予め用意された手順情報に基づく、前記注目オブジェクトに対する前記利用者の作業内容の案内と、
のうちの少なくともいずれか1つを含む、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2,
The guidance is
Guidance for alerting the user to the object of interest;
Information guidance on the object of interest;
Guidance on the position of the object of interest;
Based on procedure information prepared in advance, guidance of the user's work content for the object of interest;
A head-mounted display device including at least one of the above.
請求項1から請求項3のいずれか一項に記載の頭部装着型表示装置であって、
前記画像取得部は、前記外景画像を繰り返し取得し、
前記案内部は、さらに、
取得された複数の前記外景画像をそれぞれ画像認識し、
前記複数の外景画像に含まれる実オブジェクトであって、経時的な変化が大きい実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3,
The image acquisition unit repeatedly acquires the outside scene image,
The guide unit further includes:
Recognizing each of the plurality of acquired outside scene images,
A head-mounted display device that uses a real object that is included in the plurality of outside scene images and has a large change over time as the object of interest.
請求項1から請求項3のいずれか一項に記載の頭部装着型表示装置であって、
前記案内部は、さらに、
取得された前記外景画像を画像認識し、
前記外景画像に含まれる実オブジェクトであって、所定の特徴を有する実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3,
The guide unit further includes:
Image recognition of the acquired outside scene image,
A head-mounted display device that uses a real object included in the outside scene image and having a predetermined characteristic as the attention object.
請求項1から請求項3のいずれか一項に記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え、
前記画像取得部は、前記外景画像を繰り返し取得し、
前記視線検出部は、前記視線の方向を繰り返し検出し、
前記案内部は、さらに、
取得された複数の前記外景画像と、複数回にわたり検出された前記視線の方向と、を照合し、
前記複数の外景画像に含まれる実オブジェクトであって、前記視線の先にある割合が多いと推定される実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3, further comprising:
A line-of-sight detection unit that detects the direction of the line of sight of the user in a state in which the head-mounted display device is mounted;
The image acquisition unit repeatedly acquires the outside scene image,
The line-of-sight detection unit repeatedly detects the direction of the line of sight,
The guide unit further includes:
The plurality of acquired outside scene images and the direction of the line of sight detected multiple times are collated,
A head-mounted display device in which a real object that is included in the plurality of outside scene images and is estimated to have a high proportion of the line of sight is the attention object.
請求項1から請求項3のいずれか一項に記載の頭部装着型表示装置であって、さらに、
前記利用者からの操作入力を取得する入力情報取得部を備え、
前記案内部は、さらに、
取得された前記外景画像と、取得された前記操作入力と、を照合し、
前記外景画像に含まれる実オブジェクトであって、前記利用者により指定された実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3, further comprising:
An input information acquisition unit for acquiring an operation input from the user;
The guide unit further includes:
The acquired outside scene image is collated with the acquired operation input,
A head-mounted display device in which a real object included in the outside scene image and designated by the user is the attention object.
請求項1から請求項7のいずれか一項に記載の頭部装着型表示装置であって、
前記画像取得部は、前記外景画像を繰り返し取得し、
前記案内部は、
取得された複数の前記外景画像内における前記注目オブジェクトの経時的な変化に伴って、前記案内を繰り返し行う、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 7,
The image acquisition unit repeatedly acquires the outside scene image,
The guide part is
A head-mounted display device that repeatedly performs the guidance according to a change with time of the object of interest in the plurality of acquired outside scene images.
頭部装着型表示装置を制御する方法であって、
(a)前記頭部装着型表示装置を装着した状態における利用者の視界方向の外景画像を取得する工程と、
(b)現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う工程と、
を備える、方法。
A method for controlling a head-mounted display device,
(A) acquiring an outside scene image in the user's field of view in a state where the head-mounted display device is mounted;
(B) Guidance is given by sound to at least one real object that exists in the real world and is an actual object that is included in the acquired outside scene image and that prompts the user to pay attention. Process,
A method comprising:
コンピュータープログラムであって、
前記頭部装着型表示装置を装着した状態における利用者の視界方向の外景画像を取得する機能と、
現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う機能と、
をコンピューターに実現させるための、コンピュータープログラム。
A computer program,
A function of acquiring an outside scene image in a user's field of view in a state in which the head-mounted display device is mounted;
A function for performing sound guidance on an object of interest that is an actual object that exists in the real world and that is at least one real object included in the acquired outside scene image and that attracts attention to the user;
A computer program that enables a computer to realize
JP2015005450A 2015-01-15 2015-01-15 Head-mounted display device, method for controlling head-mounted display device, computer program Active JP6492673B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015005450A JP6492673B2 (en) 2015-01-15 2015-01-15 Head-mounted display device, method for controlling head-mounted display device, computer program
US14/982,441 US10303435B2 (en) 2015-01-15 2015-12-29 Head-mounted display device, method of controlling head-mounted display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015005450A JP6492673B2 (en) 2015-01-15 2015-01-15 Head-mounted display device, method for controlling head-mounted display device, computer program

Publications (2)

Publication Number Publication Date
JP2016130985A true JP2016130985A (en) 2016-07-21
JP6492673B2 JP6492673B2 (en) 2019-04-03

Family

ID=56415587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005450A Active JP6492673B2 (en) 2015-01-15 2015-01-15 Head-mounted display device, method for controlling head-mounted display device, computer program

Country Status (1)

Country Link
JP (1) JP6492673B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091433A (en) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP2018106696A (en) * 2016-12-23 2018-07-05 雨暹 李 Virtual information construction method of mobile object, virtual information retrieval method of mobile object and application system
JP2019109850A (en) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 Transmissive display device, display control method, and computer program
JP2020524354A (en) * 2017-06-20 2020-08-13 フォトニカ,インコーポレイテッド Augmented reality wearable visualization
JP2022033135A (en) * 2016-10-07 2022-02-28 ソニーグループ株式会社 Server, client terminal, control method and program
US20220139542A1 (en) * 2020-10-30 2022-05-05 5th Social Media Technology Inc. Wearable devices utilizing bone conduction mechanisms
WO2022193931A1 (en) * 2021-03-16 2022-09-22 海信视像科技股份有限公司 Virtual reality device and media resource playback method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020089544A1 (en) * 2000-08-22 2002-07-11 Dirk Jahn System and method for combined use of different display/appliance types with system-controlled, context-dependent information display
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2013162285A (en) * 2012-02-03 2013-08-19 Sony Corp Information processing device, information processing method, and program
JP2014146871A (en) * 2013-01-28 2014-08-14 Olympus Corp Wearable display device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020089544A1 (en) * 2000-08-22 2002-07-11 Dirk Jahn System and method for combined use of different display/appliance types with system-controlled, context-dependent information display
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2013162285A (en) * 2012-02-03 2013-08-19 Sony Corp Information processing device, information processing method, and program
JP2014146871A (en) * 2013-01-28 2014-08-14 Olympus Corp Wearable display device and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091433A (en) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP2022033135A (en) * 2016-10-07 2022-02-28 ソニーグループ株式会社 Server, client terminal, control method and program
US11825012B2 (en) 2016-10-07 2023-11-21 Sony Group Corporation Server, client terminal, control method, and storage medium
JP2018106696A (en) * 2016-12-23 2018-07-05 雨暹 李 Virtual information construction method of mobile object, virtual information retrieval method of mobile object and application system
US10264207B2 (en) 2016-12-23 2019-04-16 Yu-Hsien Li Method and system for creating virtual message onto a moving object and searching the same
JP2020524354A (en) * 2017-06-20 2020-08-13 フォトニカ,インコーポレイテッド Augmented reality wearable visualization
JP7226828B2 (en) 2017-06-20 2023-02-21 フォトニカ,インコーポレイテッド Augmented Reality Wearable Visualization
JP2019109850A (en) * 2017-12-20 2019-07-04 セイコーエプソン株式会社 Transmissive display device, display control method, and computer program
JP7003633B2 (en) 2017-12-20 2022-01-20 セイコーエプソン株式会社 Transparent display device, display control method, and computer program
US20220139542A1 (en) * 2020-10-30 2022-05-05 5th Social Media Technology Inc. Wearable devices utilizing bone conduction mechanisms
WO2022193931A1 (en) * 2021-03-16 2022-09-22 海信视像科技股份有限公司 Virtual reality device and media resource playback method

Also Published As

Publication number Publication date
JP6492673B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US10303435B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
US9898868B2 (en) Display device, method of controlling the same, and program
US10140768B2 (en) Head mounted display, method of controlling head mounted display, and computer program
US10627620B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
JP6237000B2 (en) Head-mounted display device
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6217244B2 (en) Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
JP6476643B2 (en) Head-mounted display device, information system, head-mounted display device control method, and computer program
WO2016063504A1 (en) Head-mounted type display device and method for controlling same, and computer program
JP2017091433A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
US10073262B2 (en) Information distribution system, head mounted display, method for controlling head mounted display, and computer program
US20160070101A1 (en) Head mounted display device, control method for head mounted display device, information system, and computer program
US10198367B2 (en) Information processing device and method for controlling input/output devices via designated functions
JP6488629B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016033611A (en) Information provision system, display device, and method of controlling display device
JP6711379B2 (en) Head-mounted display, computer program
JP2016091348A (en) Head-mounted display device and control method for the same as well as computer program
JP6582403B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6451222B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6828235B2 (en) Head-mounted display device, how to share the display of the head-mounted display device, computer program
JP6394108B2 (en) Head-mounted display device, control method therefor, and computer program
JP2016142966A (en) Head-mounted display device, information processing device, image display device, image display system, method of sharing displayed images of head-mounted display device, and computer program
JP6394174B2 (en) Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150