JP2016081339A - Head mounted display device, method for controlling the same and computer program - Google Patents

Head mounted display device, method for controlling the same and computer program Download PDF

Info

Publication number
JP2016081339A
JP2016081339A JP2014212728A JP2014212728A JP2016081339A JP 2016081339 A JP2016081339 A JP 2016081339A JP 2014212728 A JP2014212728 A JP 2014212728A JP 2014212728 A JP2014212728 A JP 2014212728A JP 2016081339 A JP2016081339 A JP 2016081339A
Authority
JP
Japan
Prior art keywords
augmented reality
display
user
processing unit
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014212728A
Other languages
Japanese (ja)
Other versions
JP6421543B2 (en
Inventor
辰典 ▲高▼橋
辰典 ▲高▼橋
Tatsunori Takahashi
薫 山口
Kaoru Yamaguchi
薫 山口
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014212728A priority Critical patent/JP6421543B2/en
Priority to US14/870,659 priority patent/US10140768B2/en
Publication of JP2016081339A publication Critical patent/JP2016081339A/en
Application granted granted Critical
Publication of JP6421543B2 publication Critical patent/JP6421543B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head mounted display device where display of a virtual object hardly poses an impediment when a real object is visually identified.SOLUTION: A head mounted display device allowing a user to visually identify a virtual image and an outside scene comprises: an image display section causing the user to visually identify the virtual image; and an augmented reality processing section causing the image display section to form the virtual image including a virtual object for additively displaying the virtual object to a real object actually existing in an actual world. The augmented reality processing section causes the virtual image being the virtual object related to the real object applied with at least attention action and including the virtual object in a first display mode to be formed in accordance with continuity of the attention action with respect to the real object for predetermined reference time.SELECTED DRAWING: Figure 4

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

現実世界に実在するオブジェクトである実オブジェクトに対して、コンピューターを用いて情報を付加提示する拡張現実感(AR、Augmented Reality)と呼ばれる技術が知られている。拡張現実感において、実オブジェクトに付加的に表示される情報を「仮想オブジェクト」とも呼ぶ。拡張現実感は、例えば、ヘッドマウントディスプレイ(以降、「HMD」または「頭部装着型表示装置」とも呼ぶ。)に搭載される。   A technique called augmented reality (AR) is known in which information is additionally presented using a computer to a real object that is an object that exists in the real world. In augmented reality, information additionally displayed on a real object is also called a “virtual object”. Augmented reality is mounted on, for example, a head-mounted display (hereinafter also referred to as “HMD” or “head-mounted display device”).

HMDは、カメラで外景を撮像し、撮像により得られた画像を画像認識し、仮想オブジェクトを生成または取得する。HMDを装着した状態において利用者の視界が遮断される非透過型のHMDでは、撮影された画像と仮想オブジェクトとを重畳させて利用者に視認させる。HMDを装着した状態において利用者の視界が遮断されない透過型のHMDでは、仮想オブジェクトのみを利用者に視認させる。透過型のHMDを装着した利用者は、現実世界の実オブジェクトと仮想オブジェクトとの両方を見ることで、拡張現実感を体感することができる。特許文献1には、透過型のHMDにおいて拡張現実感を実現するための技術が記載されている。   The HMD captures an outside scene with a camera, recognizes an image obtained by the imaging, and generates or acquires a virtual object. In a non-transparent HMD in which the user's field of view is blocked when the HMD is worn, the captured image and the virtual object are superimposed and made visible to the user. In a transmissive HMD in which the user's view is not blocked when the HMD is worn, only the virtual object is visually recognized by the user. A user wearing a transparent HMD can experience augmented reality by looking at both real and virtual objects in the real world. Patent Document 1 describes a technique for realizing augmented reality in a transmissive HMD.

特開2010−67083号公報JP 2010-67083 A 特開2005−38008号公報JP 2005-38008 A

上述した仮想オブジェクトは、実オブジェクトに重畳されるように配置、または、実オブジェクトの近傍に配置されることが多い。このため、非透過型/透過型のHMDにおける仮想オブジェクトの表示は、利用者が実オブジェクトを視認する際の妨げとなる場合があるという課題があった。特許文献1、2に記載された技術では、このような課題については何ら考慮されていない。また、仮想オブジェクトを表示することが必要ないと思われる場合にも、仮想オブジェクトが表示されてしまい、利用者が実オブジェクトを視認する際の妨げとなり、利用者が煩わしさを感じる場合があるという課題もあった。   In many cases, the virtual object described above is arranged so as to be superimposed on the real object or in the vicinity of the real object. For this reason, there has been a problem that display of a virtual object in a non-transparent / transparent HMD may hinder a user from visually recognizing a real object. The techniques described in Patent Documents 1 and 2 do not consider such problems at all. In addition, even if it is not necessary to display the virtual object, the virtual object is displayed, which may hinder the user from visually recognizing the real object, and the user may feel annoyed. There were also challenges.

このため、仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりづらい頭部装着型表示装置が望まれていた。   For this reason, a head-mounted display device has been desired in which the display of the virtual object does not easily hinder the visual recognition of the real object.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、利用者が虚像を視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記利用者に前記虚像を視認させる画像表示部と;現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、を備え;前記拡張現実感処理部は;第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させた後;所定の維持時間の経過後に、第2の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させ、前記実オブジェクトに対する前記第2の表示態様での前記仮想オブジェクトの視認性阻害度は、前記実オブジェクトに対する前記第1の表示態様での前記仮想オブジェクトの視認性阻害度よりも低い。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、第1の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させた後、維持時間の経過後に、第1の表示態様よりも視認性阻害度が低い第2の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させる。このようにして、維持時間の経過後に自動的に、表示される虚像に占める仮想オブジェクトの視認性阻害度が下がるため、利用者は、現実世界に実在する実オブジェクトを視認しやすくなる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置を提供することができる。
(1) According to one aspect of the present invention, a head-mounted display device in which a user can visually recognize a virtual image is provided. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and the image display unit that includes the virtual object that is additionally displayed on a real object that exists in the real world. An augmented reality processing unit to be formed; the augmented reality processing unit; after forming the virtual image including the virtual object in the first display mode; after elapse of a predetermined maintenance time, The virtual image including the virtual object in the second display mode is formed, and the visibility inhibition degree of the virtual object in the second display mode with respect to the real object is the first display for the real object. It is lower than the visibility inhibition degree of the virtual object in the aspect.
According to the head-mounted display device of this aspect, the augmented reality processing unit forms the virtual image including the virtual object in the first display mode on the image display unit, and then after the maintenance time has elapsed, A virtual image including a virtual object in the second display mode having a lower visibility hindrance than the first display mode is formed on the image display unit. In this way, the visibility hindrance of the virtual object occupying the displayed virtual image is automatically reduced after the maintenance time has elapsed, so that the user can easily view the real object that exists in the real world. As a result, it is possible to provide a head-mounted display device in which the display of the virtual object does not easily hinder the visual recognition of the real object or its background.

(2)上記形態の頭部装着型表示装置において;前記維持時間は、可変長であってもよい。
この形態の頭部装着型表示装置によれば、視認性阻害度が高い第1の表示態様から、視認性阻害度が低い第2の表示態様へと表示態様を遷移させるための維持時間を、例えば種々の条件に応じて変更することができる。
(2) In the head-mounted display device of the above aspect; the maintenance time may be a variable length.
According to the head-mounted display device of this aspect, the maintenance time for transitioning the display mode from the first display mode having a high degree of visibility inhibition to the second display mode having a low degree of visibility inhibition is obtained. For example, it can be changed according to various conditions.

(3)上記形態の頭部装着型表示装置では、さらに;前記拡張現実感処理部において過去に使用された前記維持時間を取得する維持時間取得部を備え;前記拡張現実感処理部は;取得された過去の前記維持時間の統計値を求め;求めた統計値に基づいて、現在の処理で使用する前記維持時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、拡張現実感処理部における過去の処理で使用された維持時間(視認性阻害度を自動的に下げるまでの時間)の統計値、すなわち、過去の処理で使用された維持時間の傾向に基づいて、自動的に、現在の処理で使用する維持時間を変更することができる。
(3) The head-mounted display device of the above aspect further includes: a maintenance time acquisition unit that acquires the maintenance time used in the past in the augmented reality processing unit; A statistical value of the past maintenance time is obtained; the maintenance time used in the current process may be changed based on the obtained statistical value.
According to the head-mounted display device of this aspect, the augmented reality processing unit is configured to maintain the maintenance time used for the past processing in the augmented reality processing unit (the time until the visibility impediment is automatically lowered). The maintenance time used in the current process can be automatically changed based on the statistical value, that is, the tendency of the maintenance time used in the past process.

(4)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記第1の表示態様での前記仮想オブジェクトの情報量を求め;求めた情報量に基づいて、現在の処理で使用する前記維持時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、視認性阻害度が高い第1の表示態様での仮想オブジェクトの情報量に基づいて、現在の処理で使用する維持時間(視認性阻害度を自動的に下げるまでの時間)を変更することができる。このようにすれば、拡張現実感処理部は、例えば、第1の表示態様での仮想オブジェクトの情報量が多い場合、換言すれば、利用者が仮想オブジェクトの内容の確認に多くの時間を要すると推定される場合の維持時間を、情報量が少ない場合の維持時間よりも長くすることもできるため、利用者の利便性を向上させることができる。
(4) In the head-mounted display device according to the above aspect; the augmented reality processing unit; obtains an information amount of the virtual object in the first display mode; based on the obtained information amount, a current process The maintenance time used in the above may be changed.
According to the head-mounted display device of this aspect, the augmented reality processing unit uses the maintenance time used in the current processing based on the information amount of the virtual object in the first display mode with a high degree of visibility inhibition. (Time until the visibility impediment degree is automatically lowered) can be changed. In this way, the augmented reality processing unit, for example, when the information amount of the virtual object in the first display mode is large, in other words, the user needs a lot of time to confirm the contents of the virtual object. Then, since the maintenance time when estimated is longer than the maintenance time when the amount of information is small, the convenience for the user can be improved.

(5)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記情報量の求め方を、前記第1の表示態様での前記仮想オブジェクトの種類に応じて変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、第1の表示態様での仮想オブジェクトの種類に適した方法で仮想オブジェクトの情報量を求めることができるため、より正確に仮想オブジェクトの情報量を把握することができる。
(5) In the head-mounted display device according to the above aspect; the augmented reality processing unit; even if the method for obtaining the information amount is changed according to the type of the virtual object in the first display mode Good.
According to the head-mounted display device of this aspect, the augmented reality processing unit can obtain the information amount of the virtual object by a method suitable for the type of the virtual object in the first display mode. It is possible to grasp the information amount of the virtual object.

(6)上記形態の頭部装着型表示装置では、さらに;前記維持時間についての前記利用者の設定を取得する維持時間取得部を備え;前記拡張現実感処理部は;取得された前記利用者の設定に基づいて、現在の処理で使用する前記維持時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、利用者の好みに応じて、現在の処理で使用する維持時間(視認性阻害度を自動的に下げるまでの時間)を変更することができる。
(6) The head-mounted display device according to the above aspect further includes: a maintenance time acquisition unit that acquires the user's setting for the maintenance time; the augmented reality processing unit; the acquired user Based on the setting, the maintenance time used in the current process may be changed.
According to the head-mounted display device of this aspect, the augmented reality processing unit uses the maintenance time used for the current processing according to the user's preference (the time until the visibility hindrance is automatically lowered). Can be changed.

(7)上記形態の頭部装着型表示装置では、さらに;前記拡張現実感処理部において過去に使用された前記維持時間と、その際の前記第1の表示態様での前記仮想オブジェクトの情報量と、その際の前記利用者を識別するための識別情報と、を対応付けた維持時間情報を取得する維持時間取得部を備え;前記拡張現実感処理部は;取得された前記維持時間情報と、前記第1の表示態様での前記仮想オブジェクトの情報量とに基づいて、現在の処理で使用する前記維持時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、維持時間情報を用いて、利用者が単位時間あたりに認識することのできる情報量を求めることができる。このため、拡張現実感処理部は、例えば、求めた情報量(利用者が単位時間あたりに認識することのできる情報量)と、第1の表示態様での仮想オブジェクトの情報量と、に基づいて、現在の処理で使用する維持時間(視認性阻害度を自動的に下げるまでの時間)を変更することができる。このようにすれば、拡張現実感処理部は、例えば、利用者が単位時間あたりに認識することのできる情報量が少ない場合、換言すれば、利用者が仮想オブジェクトの内容の確認に多くの時間を要すると推定される場合の維持時間を、情報量が多い場合の維持時間よりも長くすることができる。この結果、拡張現実感処理部は、利用者の個人差に応じて維持時間を変更することができるため、利用者の利便性を向上させることができる。
(7) In the head-mounted display device of the above aspect, further: the maintenance time used in the past in the augmented reality processing unit, and the information amount of the virtual object in the first display mode at that time A maintenance time acquisition unit that acquires maintenance time information in association with identification information for identifying the user at that time; and the augmented reality processing unit; The maintenance time used in the current process may be changed based on the information amount of the virtual object in the first display mode.
According to this form of the head-mounted display device, the augmented reality processing unit can determine the amount of information that the user can recognize per unit time using the maintenance time information. Therefore, the augmented reality processing unit is based on, for example, the obtained information amount (information amount that the user can recognize per unit time) and the information amount of the virtual object in the first display mode. Thus, it is possible to change the maintenance time used in the current process (the time until the visibility hindrance is automatically lowered). In this way, the augmented reality processing unit, for example, when the amount of information that the user can recognize per unit time is small, in other words, the user spends a lot of time checking the contents of the virtual object. Can be made longer than the maintenance time when the amount of information is large. As a result, since the augmented reality processing unit can change the maintenance time according to individual differences among users, it is possible to improve user convenience.

(8)上記形態の頭部装着型表示装置において;前記第2の表示態様での前記仮想オブジェクトは、前記第1の表示態様での前記仮想オブジェクトの内容を示唆する文字と、図形と、絵柄と、記号と、または、これらの組み合わせと、のうちの少なくともいずれかを含んでもよい。
この形態の頭部装着型表示装置によれば、視認性阻害度が低い第2の表示態様の仮想オブジェクトを用いて、第1の表示態様での仮想オブジェクトの内容を示唆することができる。
(8) In the head-mounted display device of the above aspect; the virtual object in the second display mode is a character, a figure, and a pattern suggesting the contents of the virtual object in the first display mode And / or a symbol or a combination thereof.
According to the head-mounted display device of this form, the contents of the virtual object in the first display mode can be suggested using the virtual object in the second display mode with a low degree of visibility inhibition.

(9)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記維持時間の経過の待機中において、前記利用者からの第1の要求を取得した場合に、前記第1の表示態様から前記第2の表示態様への遷移を中止してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、利用者からの第1の要求に応じて、第1の表示態様から第2の表示態様への遷移を中止することができるため、利用者の利便性を向上させることができる。
(9) In the head-mounted display device according to the above aspect; the augmented reality processing unit is configured to receive the first request from the user while waiting for the maintenance time to elapse. The transition from the display mode to the second display mode may be stopped.
According to the head-mounted display device of this form, the augmented reality processing unit stops the transition from the first display mode to the second display mode in response to the first request from the user. Therefore, convenience for the user can be improved.

(10)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記維持時間の経過の待機中において、前記利用者からの第2の要求を取得した場合に、前記維持時間の経過前であっても、前記第1の表示態様から前記第2の表示態様へ遷移させてもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、利用者からの第2の要求に応じて、維持時間の経過前であっても、第1の表示態様から第2の表示態様へ強制的に遷移させることができるため、利用者の利便性を向上させることができる。
(10) In the head-mounted display device according to the above aspect; the augmented reality processing unit; the standby time when the second request from the user is acquired while waiting for the maintenance time to elapse. Even before elapse of time, the transition from the first display mode to the second display mode may be performed.
According to the head-mounted display device of this form, the augmented reality processing unit can change the second display from the first display mode to the second display even if the maintenance time has not elapsed in response to the second request from the user. Since the display mode can be forcibly shifted to the display mode, the convenience for the user can be improved.

(11)上記形態の頭部装着型表示装置において;前記利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによってなされる要求を、前記第1の要求または前記第2の要求として取得する要求取得部を備えてもよい。
この形態の頭部装着型表示装置によれば、利用者は、手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによって、第1の要求または第2の要求を行うことができる。
(11) In the head-mounted display device of the above aspect; a request made by at least one of the user's hand, foot, voice, head, or a combination thereof, You may provide the request | requirement acquisition part acquired as a said 1st request | requirement or a said 2nd request | requirement.
According to the head-mounted display device of this aspect, the user can make the first request or the request by at least one of the hand, the foot, the voice, the head, or a combination thereof. A second request can be made.

(12)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は、前記第1の表示態様から前記第2の表示態様への遷移を段階的に変化させてもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、第1の表示態様から第2の表示態様への遷移を段階的に変化させるため、表示態様の変化に伴って利用者に与える違和感を低減させることができる。
(12) In the head-mounted display device of the above aspect; the augmented reality processing unit may change the transition from the first display mode to the second display mode in a stepwise manner.
According to the head-mounted display device of this aspect, the augmented reality processing unit is used in accordance with the change of the display mode in order to change the transition from the first display mode to the second display mode in a stepwise manner. Discomfort given to the person can be reduced.

(13)本発明の一形態によれば、利用者が虚像と外景とを視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記利用者に前記虚像を視認させる画像表示部と;現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、を備え;前記拡張現実感処理部は;前記実オブジェクトに対する所定の基準時間に亘る注目動作の継続に応じて;少なくとも前記注目動作のなされた前記実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、所定の基準時間に亘る注目動作の継続に応じて、少なくとも注目動作のなされた実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させる。このようにして、拡張現実感処理部は、注目動作の継続という利用者の意図によって仮想オブジェクトを表示させるため、利用者は、注目動作を継続して行わない限り、現実世界に実在する実オブジェクトを視認しやすい状態を維持することができる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置を提供することができる。
(13) According to an aspect of the present invention, a head-mounted display device that allows a user to visually recognize a virtual image and an outside scene is provided. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and the image display unit that includes the virtual object that is additionally displayed on a real object that exists in the real world. An augmented reality processing unit formed on the real object; the augmented reality processing unit; according to continuation of the attention motion over a predetermined reference time for the real object; at least the real object on which the attention motion has been performed An associated virtual object, wherein the virtual image including the virtual object in the first display mode is formed.
According to the head-mounted display device of this aspect, the augmented reality processing unit is a virtual object related to at least a real object that has been subjected to the attention motion according to the continuation of the attention motion over a predetermined reference time. Then, a virtual image including the virtual object in the first display mode is formed on the image display unit. In this way, the augmented reality processing unit displays the virtual object according to the user's intention to continue the attention motion, so that the user does not perform the attention motion continuously until the real object in the real world exists. It is possible to maintain a state where it is easy to visually recognize. As a result, it is possible to provide a head-mounted display device in which the display of the virtual object does not easily hinder the visual recognition of the real object or its background.

(14)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は、さらに;前記第1の表示態様での前記仮想オブジェクトを含んだ前記虚像の形成に先立って第2の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させた場合においては;前記第2の表示態様での前記仮想オブジェクトと前記実オブジェクトとのうちのいずれかに対する、前記基準時間に亘る前記注目動作の継続に応じて;少なくとも前記注目動作のなされた前記仮想オブジェクトまたは前記実オブジェクトに関連する仮想オブジェクトであって、前記第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させてもよい。前記実オブジェクトに対する前記第2の表示態様での前記仮想オブジェクトの視認性阻害度は、前記実オブジェクトに対する前記第1の表示態様での前記仮想オブジェクトの視認性阻害度よりも低くてもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、第2の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させた後においては、実オブジェクトに加えて、第2の表示態様での仮想オブジェクトに対する所定の基準時間に亘る注目動作の継続に応じて、第2の表示態様よりも視認性阻害度が高い第1の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させることができる。また、注目動作の継続という利用者の意図によって、第2の表示状態から第1の表示状態へと仮想オブジェクトの表示状態が遷移し、視認性阻害度が高くなるため、利用者は、注目動作を継続して行わない限り、現実世界に実在する実オブジェクトを視認しやすい状態を維持することができる。換言すれば、利用者は、自分の意図で仮想オブジェクトの視認性阻害度を制御することができる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置を提供することができる。
(14) In the head-mounted display device according to the above aspect; the augmented reality processing unit further includes: a second display mode prior to the formation of the virtual image including the virtual object in the first display mode. In the case where the virtual image including the virtual object is formed, the attention movement over the reference time with respect to either the virtual object or the real object in the second display mode Depending on the continuation; at least the virtual object on which the attention movement is performed or a virtual object related to the real object, the virtual image including the virtual object in the first display mode may be formed . The visibility inhibition degree of the virtual object in the second display mode with respect to the real object may be lower than the visibility inhibition degree of the virtual object in the first display mode with respect to the real object.
According to the head-mounted display device of this aspect, the augmented reality processing unit adds to the real object after the virtual image including the virtual object in the second display mode is formed on the image display unit. The virtual object in the first display mode having a higher degree of visibility inhibition than the second display mode is included in accordance with the continuation of the attention movement over the predetermined reference time for the virtual object in the second display mode. A virtual image can be formed on the image display unit. In addition, since the display state of the virtual object transitions from the second display state to the first display state due to the user's intention to continue the attention operation, and the visibility inhibition degree increases, the user can Unless it is continuously performed, it is possible to maintain a state in which a real object existing in the real world is easily visible. In other words, the user can control the visibility obstruction degree of the virtual object with his / her intention. As a result, it is possible to provide a head-mounted display device in which the display of the virtual object does not easily hinder the visual recognition of the real object or its background.

(15)上記形態の頭部装着型表示装置では、さらに;前記注目動作としての前記利用者の視線の動きを取得する視線取得部を備えてもよい。
この形態の頭部装着型表示装置によれば、利用者は、手や足を動かさずに視線の動きを用いて注目動作を行うことが可能となる。このため、利用者が手を離すことが困難である作業中等の場面においても、利用者は、簡単に注目動作を行うことができる。
(15) The head-mounted display device according to the above aspect may further include: a line-of-sight acquisition unit that acquires a movement of the line of sight of the user as the attention movement.
According to this form of the head-mounted display device, the user can perform the attention action using the movement of the line of sight without moving the hand or foot. For this reason, the user can easily perform the attention operation even in a scene such as during work where it is difficult for the user to release his / her hand.

(16)上記形態の頭部装着型表示装置では、さらに;前記注目動作としての前記利用者の手の動きを取得する動き取得部を備えてもよい。
この形態の頭部装着型表示装置によれば、利用者は、普段の動作において慣れた手の動きを用いて、簡単に注目動作を行うことが可能となる。
(16) The head-mounted display device of the above aspect may further include a movement acquisition unit that acquires movement of the user's hand as the attention movement.
According to this form of the head-mounted display device, the user can easily perform the attention operation using the hand movement familiar to the normal operation.

(17)上記形態の頭部装着型表示装置において;前記基準時間は、可変長であってもよい。
この形態の頭部装着型表示装置によれば、第1の表示態様へと表示態様を遷移させるための基準時間を、例えば種々の条件に応じて変更することができる。
(17) In the head-mounted display device of the above aspect; the reference time may be a variable length.
According to this form of the head-mounted display device, the reference time for changing the display mode to the first display mode can be changed according to various conditions, for example.

(18)上記形態の頭部装着型表示装置では、さらに;前記拡張現実感処理部において過去に使用された前記基準時間を取得する基準時間取得部を備え;前記拡張現実感処理部は;取得された過去の前記基準時間の統計値を求め;求めた統計値に基づいて、現在の処理で使用する前記基準時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、拡張現実感処理部における過去の処理で使用された基準時間の統計値、すなわち、過去の処理で使用された基準時間の傾向に基づいて、自動的に、現在の処理で使用する基準時間を変更することができる。
(18) The head-mounted display device according to the above aspect further includes: a reference time acquisition unit that acquires the reference time used in the past in the augmented reality processing unit; the augmented reality processing unit; A past statistical value of the reference time is obtained; based on the obtained statistical value, the reference time used in the current process may be changed.
According to this form of the head-mounted display device, the augmented reality processing unit includes the statistical value of the reference time used in the past processing in the augmented reality processing unit, that is, the reference time used in the past processing. The reference time used in the current process can be automatically changed based on the tendency.

(19)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記第1の表示態様での前記仮想オブジェクトの情報量を求め;求めた情報量に基づいて、現在の処理で使用する前記基準時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、視認性阻害度が高い第1の表示態様での仮想オブジェクトの情報量に基づいて、現在の処理で使用する基準時間を変更することができる。このようにすれば、拡張現実感処理部は、例えば、第1の表示態様での仮想オブジェクトの情報量が多い場合、換言すれば、第1の表示態様への遷移に伴う仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりやすい場合の基準時間を、情報量が少ない場合の基準時間よりも長くすることもできるため、利用者の利便性を向上させることができる。
(19) In the head-mounted display device according to the above aspect; the augmented reality processing unit; obtains an information amount of the virtual object in the first display mode; based on the obtained information amount, a current process The reference time used in step 1 may be changed.
According to the head-mounted display device of this aspect, the augmented reality processing unit uses the reference time used in the current processing based on the information amount of the virtual object in the first display mode having a high degree of visibility inhibition. Can be changed. In this way, the augmented reality processing unit, for example, when the information amount of the virtual object in the first display mode is large, in other words, displays the virtual object accompanying the transition to the first display mode. Since the reference time when it is likely to be an obstacle when visually recognizing the real object can be made longer than the reference time when the amount of information is small, the convenience for the user can be improved.

(20)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記情報量の求め方を、前記第1の表示態様での前記仮想オブジェクトの種類に応じて変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、第1の表示態様での仮想オブジェクトの種類に適した方法で仮想オブジェクトの情報量を求めることができるため、より正確に仮想オブジェクトの情報量を把握することができる。
(20) In the head-mounted display device according to the above aspect; the augmented reality processing unit may change the method for obtaining the information amount according to the type of the virtual object in the first display mode. Good.
According to the head-mounted display device of this aspect, the augmented reality processing unit can obtain the information amount of the virtual object by a method suitable for the type of the virtual object in the first display mode. It is possible to grasp the information amount of the virtual object.

(21)上記形態の頭部装着型表示装置において;前記基準時間についての前記利用者の設定を取得する基準時間取得部を備え;前記拡張現実感処理部は;取得された前記利用者の設定に基づいて、現在の処理で使用する前記基準時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、利用者の好みに応じて、現在の処理で使用する基準時間を変更することができる。
(21) In the head-mounted display device according to the above aspect; comprising a reference time acquisition unit that acquires the user's setting for the reference time; the augmented reality processing unit; Based on the above, the reference time used in the current process may be changed.
According to this form of the head-mounted display device, the augmented reality processing unit can change the reference time used in the current processing according to the user's preference.

(22)上記形態の頭部装着型表示装置では、さらに;前記拡張現実感処理部において過去に使用された前記基準時間と、その際の前記第1の表示態様での前記仮想オブジェクトの情報量と、その際の前記利用者を識別するための識別情報と、を対応付けた基準時間情報を取得する基準時間取得部を備え;前記拡張現実感処理部は;取得された前記基準時間情報と、前記第1の表示態様での前記仮想オブジェクトの情報量とに基づいて、現在の処理で使用する前記基準時間を変更してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、基準時間情報を用いて、利用者が単位時間当たりに注目することのできる情報量を求めることができる。このため、拡張現実感処理部は、例えば、求めた情報量(利用者が単位時間当たりに注目することのできる情報量)と、第1の表示態様での仮想オブジェクトの情報量と、に基づいて、現在の処理で使用する基準時間を変更することができる。このようにすれば、拡張現実感処理部は、例えば、利用者が単位時間あたりに注目することのできる情報量が少ない場合、換言すれば、第1の表示態様への遷移に伴う仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりやすい場合の基準時間を、情報量が多い場合の基準時間よりも長くすることができる。この結果、拡張現実感処理部は、利用者の個人差に応じて基準時間を変更することができるため、利用者の利便性を向上させることができる。
(22) In the head-mounted display device according to the above aspect, further: the reference time used in the past in the augmented reality processing unit, and the information amount of the virtual object in the first display mode at that time And a reference time acquisition unit that acquires reference time information that associates identification information for identifying the user at that time; and the augmented reality processing unit; The reference time used in the current process may be changed based on the information amount of the virtual object in the first display mode.
According to the head-mounted display device of this aspect, the augmented reality processing unit can obtain the amount of information that the user can focus on per unit time using the reference time information. For this reason, the augmented reality processing unit is based on, for example, the obtained information amount (information amount that the user can pay attention to per unit time) and the information amount of the virtual object in the first display mode. Thus, the reference time used in the current process can be changed. In this way, the augmented reality processing unit, for example, when the amount of information that the user can focus on per unit time is small, in other words, the virtual object associated with the transition to the first display mode. The reference time when the display is likely to hinder the visual recognition of the real object can be set longer than the reference time when the amount of information is large. As a result, since the augmented reality processing unit can change the reference time according to individual differences among users, it is possible to improve user convenience.

(23)上記形態の頭部装着型表示装置において;前記第2の表示態様での前記仮想オブジェクトは、前記第1の表示態様での前記仮想オブジェクトの内容を示唆する文字と、図形と、絵柄と、記号と、または、これらの組み合わせと、のうちの少なくともいずれかを含んでもよい。
この形態の頭部装着型表示装置によれば、視認性阻害度が低い第2の表示態様の仮想オブジェクトを用いて、第1の表示態様での仮想オブジェクトの内容を示唆することができる。
(23) In the head-mounted display device of the above aspect; the virtual object in the second display mode is a character, a figure, and a picture suggesting the content of the virtual object in the first display mode And / or a symbol or a combination thereof.
According to the head-mounted display device of this form, the contents of the virtual object in the first display mode can be suggested using the virtual object in the second display mode with a low degree of visibility inhibition.

(24)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記基準時間の経過の待機中において前記利用者からの第1の要求を取得した場合に、前記第1の表示態様への遷移を中止してもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、利用者からの第1の要求に応じて、第1の表示態様への遷移を中止することができるため、利用者の利便性を向上させることができる。
(24) In the head-mounted display device according to the aspect described above; the augmented reality processing unit; when the first request from the user is acquired while waiting for the elapse of the reference time, Transition to the display mode may be stopped.
According to the head-mounted display device of this aspect, the augmented reality processing unit can cancel the transition to the first display mode in response to the first request from the user. Convenience can be improved.

(25)上記形態の頭部装着型表示装置において;前記拡張現実感処理部は;前記基準時間の経過の待機中において、前記利用者からの第2の要求を取得した場合に、前記基準時間の経過前であっても、前記第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させてもよい。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、利用者からの第2の要求に応じて、基準時間の経過前であっても、第1の表示態様での仮想オブジェクトを表示させることができるため、利用者の利便性を向上させることができる。
(25) In the head mounted display device according to the above aspect; the augmented reality processing unit; the standby time when the second request from the user is acquired while waiting for the passage of the reference time; The virtual image including the virtual object in the first display mode may be formed even before the time elapses.
According to the head-mounted display device of this form, the augmented reality processing unit is configured to execute the virtual display in the first display mode even before the reference time elapses in response to the second request from the user. Since the object can be displayed, the convenience for the user can be improved.

(26)上記形態の頭部装着型表示装置において;前記利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによってなされる要求を、前記第1の要求または前記第2の要求として取得する要求取得部を備えてもよい。
この形態の頭部装着型表示装置によれば、利用者は、手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによって、第1の要求または第2の要求を行うことができる。
(26) In the head-mounted display device of the above form; a request made by at least one of the user's hand, foot, voice, head, or a combination thereof, You may provide the request | requirement acquisition part acquired as a said 1st request | requirement or a said 2nd request | requirement.
According to the head-mounted display device of this aspect, the user can make the first request or the request by at least one of the hand, the foot, the voice, the head, or a combination thereof. A second request can be made.

(27)本発明の一形態によれば、利用者が虚像を視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記利用者に前記虚像を視認させる画像表示部と;現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、を備え;前記拡張現実感処理部は;所定の基準時間以内に前記利用者による所定の動作が開始されていない場合には、少なくとも前記実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、所定の基準時間以内に利用者による所定の動作が開始されていない場合に、第1の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させる。換言すれば、拡張現実感処理部は、基準時間以内に利用者による所定の動作が開始されている場合は、第1の表示態様での仮想オブジェクトを表示させない。このため、例えば、利用者が所定の動作(例えば何らかの作業)をしている場合に、第1の表示態様での仮想オブジェクトが表示されて、使用者の眼前を遮るという可能性を低減することができる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置を提供することができる。
(27) According to one aspect of the present invention, a head-mounted display device that allows a user to visually recognize a virtual image is provided. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and the image display unit that includes the virtual object that is additionally displayed on a real object that exists in the real world. An augmented reality processing unit to be formed; and wherein the augmented reality processing unit is associated with at least the real object when a predetermined action by the user is not started within a predetermined reference time It is a virtual object, and the virtual image including the virtual object in the first display mode is formed.
According to the head-mounted display device of this aspect, the augmented reality processing unit displays the virtual object in the first display mode when the predetermined operation by the user is not started within the predetermined reference time. The included virtual image is formed on the image display unit. In other words, the augmented reality processing unit does not display the virtual object in the first display mode when the predetermined operation by the user is started within the reference time. Therefore, for example, when the user is performing a predetermined action (for example, some work), the possibility that the virtual object in the first display mode is displayed and blocks the user's eyes is reduced. Can do. As a result, it is possible to provide a head-mounted display device in which the display of the virtual object does not easily hinder the visual recognition of the real object or its background.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、拡張現実感処理部と、の2つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、この装置は、拡張現実感処理部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。例えば、本発明の一形態としての装置は、仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりづらいことを課題としている。しかし、この装置には、他にも、装置の小型化、利便性の向上、装置製造の際の低コスト化、省資源化、製造の容易化、等が望まれている。   For example, one embodiment of the present invention can be realized as an apparatus including some or all of the two elements of the image display unit and the augmented reality processing unit. That is, this apparatus may or may not have an image display unit. Moreover, this apparatus may or may not have an augmented reality processing unit. Such a device can be realized, for example, as a head-mounted display device, but can also be realized as a device other than the head-mounted display device. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device. For example, an apparatus according to an embodiment of the present invention has a problem that display of a virtual object does not easily interfere with viewing a real object. However, there are other demands for this device such as downsizing of the device, improvement in convenience, cost reduction during device manufacture, resource saving, and ease of manufacture.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置および頭部装着型表示装置の制御方法、頭部装着型表示装置を含むシステム、これらの方法、装置、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a method for controlling the head-mounted display device, a system including the head-mounted display device, and these methods The present invention can be realized in the form of a computer program for realizing the functions of the apparatus and system, a storage medium storing the computer program, and the like.

本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus in one Embodiment of this invention. 頭部装着型表示装置の構成を機能的に示すブロック図である。It is a block diagram functionally showing the configuration of the head-mounted display device. 利用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user. 拡張現実感処理の状態遷移図である。It is a state transition diagram of augmented reality processing. 通常表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a normal display process. 利用者に視認される通常表示用画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image for normal display visually recognized by the user. 簡易表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a simple display process. 非表示の一例を示す説明図である。It is explanatory drawing which shows an example of non-display. 端部アイコン表示の一例を示す説明図である。It is explanatory drawing which shows an example of an edge part icon display. 近傍アイコン表示の一例を示す説明図である。It is explanatory drawing which shows an example of a neighborhood icon display. 強調表示の一例を示す説明図である。It is explanatory drawing which shows an example of a highlight display. 遷移条件1の成立の監視の手順を示すフローチャートである。It is a flowchart which shows the procedure of monitoring establishment of transition condition 1. FIG. 遷移条件2の成立の監視の手順を示すフローチャートである。It is a flowchart which shows the procedure of monitoring establishment of transition condition 2. FIG. 変形例における頭部装着型表示装置の外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of the head mounted display apparatus in a modification.

A.実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。本実施形態の頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、利用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイである。
A. Embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted display device 100 of the present embodiment is a display device that is mounted on the head, and is also called a head mounted display (HMD). The HMD 100 is an optically transmissive head mounted display that allows a user to visually recognize a virtual image and at the same time also visually recognize an outside scene.

本実施形態のHMD100は、現実世界に実在するオブジェクトである「実オブジェクト」に対して、HMD100のCPUを用いて情報を付加する拡張現実感(AR、Augmented Reality)処理を行うことができる。ここで、オブジェクトとは、任意の人、任意の動植物、任意の物(人工物、自然物等を含む)等を意味する。また、拡張現実感処理において、実オブジェクトに対して、付加的に表示される情報を「仮想オブジェクト」と呼ぶ。本実施形態のHMD100は、拡張現実感処理において付加提示する仮想オブジェクトの表示態様を「第1の表示態様」と、「第2の表示態様」と、の間で切り替えることで、仮想オブジェクトの表示が実オブジェクトを視認する際の妨げとなりづらい拡張現実感処理を実現することができる。ここで、第1の表示態様での仮想オブジェクトは、第2の表示態様での仮想オブジェクトに対して、視認性阻害度が高い。換言すれば、第2の表示態様での仮想オブジェクトは、第1の表示態様での仮想オブジェクトに対して、視認性阻害度が低い。   The HMD 100 of the present embodiment can perform augmented reality (AR) processing that adds information to a “real object” that is an object that exists in the real world using the CPU of the HMD 100. Here, the object means an arbitrary person, an arbitrary animal or plant, an arbitrary object (including an artificial object, a natural object, or the like). In augmented reality processing, information displayed in addition to a real object is referred to as a “virtual object”. The HMD 100 according to the present embodiment switches the display mode of the virtual object to be additionally presented in the augmented reality processing between the “first display mode” and the “second display mode”, thereby displaying the virtual object. It is possible to realize augmented reality processing that is difficult to obstruct when a real object is viewed. Here, the virtual object in the first display mode has a higher visibility inhibition degree than the virtual object in the second display mode. In other words, the virtual object in the second display mode has a lower visibility impediment than the virtual object in the first display mode.

視認性阻害度とは、利用者が、仮想オブジェクトを含んだ虚像を介して現実世界を視認する際の「利用者の視認性を妨げる程度」を意味する。視認性阻害度は、換言すれば、視認性抑制度と表現することもできる。   The visibility hindrance means “the degree of hindering the visibility of the user” when the user visually recognizes the real world through a virtual image including a virtual object. In other words, the visibility inhibition degree can also be expressed as a visibility suppression degree.

本実施形態において、第1の表示態様の仮想オブジェクトと、第2の表示態様の仮想オブジェクトとは、以下に列挙するいずれかの態様をとることにより、その視認性阻害度を向上/低下させることができる。
(A)仮想オブジェクトが虚像に占める面積を大きく/小さくする。ここで、「仮想オブジェクトが虚像に占める面積」とは、虚像が利用者の眼前に現れ得る範囲に対して、仮想オブジェクトが占める面積を意味する。この場合、第2の表示態様での仮想オブジェクトは、虚像に占める面積が「0」のものも含む。
(B)仮想オブジェクトのうち、少なくとも一部の透過率を下げる/上げる。この場合、第2の表示態様での仮想オブジェクトは、第1の表示態様での仮想オブジェクトの全体の透過率が上げられている態様や、第1の表示態様での仮想オブジェクトの影だけが表示されている(影以外の部分の透過率を上げる)態様や、第1の表示態様での仮想オブジェクトの輪郭だけが表示されている(輪郭以外の部分の透過率を上げる)態様を含む。
(C)仮想オブジェクトを含む虚像を両眼表示/片眼表示する。ここで、両眼表示とは、左右の画像光生成部から画像光を利用者の両眼に向けて射出することを意味し、片眼表示とは、右または左の画像光生成部から画像光を利用者の片目に向けて射出することを意味する。
In the present embodiment, the virtual object of the first display mode and the virtual object of the second display mode improve / decrease the visibility inhibition degree by taking any of the modes listed below. Can do.
(A) Increase / decrease the area occupied by the virtual object in the virtual image. Here, the “area occupied by the virtual object in the virtual image” means an area occupied by the virtual object with respect to a range in which the virtual image can appear in front of the user. In this case, the virtual object in the second display mode includes a virtual object whose area occupied by the virtual image is “0”.
(B) Decrease / increase the transmittance of at least a part of the virtual object. In this case, the virtual object in the second display mode displays only the mode in which the overall transparency of the virtual object in the first display mode is increased or the shadow of the virtual object in the first display mode. And a mode in which only the contour of the virtual object in the first display mode is displayed (in which the transmittance of the portion other than the contour is increased).
(C) Binocular display / single-eye display of a virtual image including a virtual object. Here, the binocular display means that image light is emitted from the left and right image light generation units toward both eyes of the user, and the one-eye display is an image from the right or left image light generation unit. It means emitting light toward one eye of the user.

以降の例では、第1の表示態様の仮想オブジェクトと、第2の表示態様の仮想オブジェクトと、の視認性阻害度を向上/低下させるための方法として、態様Aを採用した場合を例示して説明する。なお、拡張現実感処理の詳細や、各表示態様の詳細については後述する。   In the following examples, the case where the aspect A is adopted as a method for improving / decreasing the visibility impediment between the virtual object of the first display aspect and the virtual object of the second display aspect will be exemplified. explain. Details of the augmented reality processing and details of each display mode will be described later.

HMD100は、利用者の頭部に装着された状態において利用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。なお、以降の説明において、HMD100によって利用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、HMD100が画像データーに基づいて生成された画像光を射出することを「画像を表示する」ともいう。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control unit (controller) 10 that controls the image display unit 20. In the following description, a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience. In addition, the HMD 100 emitting the image light generated based on the image data is also referred to as “displaying an image”.

A−1−1.画像表示部の構成:
図2は、HMD100の構成を機能的に示すブロック図である。画像表示部20は、利用者の頭部に装着される装着体であり、本実施形態では眼鏡形状である(図1)。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、視線検出部62と、9軸センサー66と、を備えている。以降、利用者が画像表示部20を装着した状態における、画像表示部20の各部の位置関係と機能について説明する。
A-1-1. Configuration of image display:
FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment (FIG. 1). The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And a line-of-sight detection unit 62 and a nine-axis sensor 66. Hereinafter, the positional relationship and function of each unit of the image display unit 20 in a state where the user wears the image display unit 20 will be described.

図1に示すように、右光学像表示部26および左光学像表示部28は、利用者の右の眼前と、左の眼前とにそれぞれ位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、利用者の眉間に対応する位置で接続されている。図2に示すように、右光学像表示部26は、右導光板261と調光板(図示省略)とを備えている。右導光板261は、光透過性の樹脂材料等によって形成され、右表示駆動部22から出力された画像光を、所定の光路に沿って反射させつつ利用者の右眼REに導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(利用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261を保護し、導光板261の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、利用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   As shown in FIG. 1, the right optical image display unit 26 and the left optical image display unit 28 are disposed so as to be positioned in front of the user's right eye and in front of the left eye, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected at a position corresponding to the eyebrow of the user. As shown in FIG. 2, the right optical image display unit 26 includes a right light guide plate 261 and a light control plate (not shown). The right light guide plate 261 is formed of a light transmissive resin material or the like, and guides the image light output from the right display driving unit 22 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plate 261 and suppresses damage to the light guide plate 261 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the external light quantity entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

左光学像表示部28は、左導光板262と調光板(図示省略)とを備えている。これらの詳細は、右光学像表示部26と同様である。なお、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。光学像表示部は、画像光を用いて利用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いて実現されても良いし、半透過反射膜を用いて実現されても良い。   The left optical image display unit 28 includes a left light guide plate 262 and a light control plate (not shown). These details are the same as those of the right optical image display unit 26. Note that the right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”. The optical image display unit can use any method as long as it forms a virtual image in front of the user's eyes using image light. For example, the optical image display unit may be realized using a diffraction grating, or a transflective film may be used. It may be realized by using.

図1に示すように、右保持部21は、右光学像表示部26の他端ERから利用者の側頭部に対応する位置にかけて延伸して設けられている。左保持部23は、左光学像表示部28の他端ELから利用者の側頭部に対応する位置にかけて、延伸して設けられている。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、利用者の頭部に画像表示部20を保持する。なお、右保持部21および左保持部23を総称して単に「保持部」とも呼ぶ。   As shown in FIG. 1, the right holding unit 21 extends from the other end ER of the right optical image display unit 26 to a position corresponding to the user's temporal region. The left holding unit 23 is provided to extend from the other end EL of the left optical image display unit 28 to a position corresponding to the user's temporal region. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses. The right holding unit 21 and the left holding unit 23 are also collectively referred to simply as “holding unit”.

図1に示すように、右表示駆動部22は、右保持部21の内側(利用者の頭部に対向する側)に配置されている。左表示駆動部24は、左保持部23の内側に配置されている。図2に示すように、右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD(液晶ディスプレイ、Liquid Crystal Display)制御部211および右LCD241と、右投写光学系251とを備えている。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて右バックライト221を駆動する。右バックライト221は、例えばLED(Light Emitting Diode)やエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズである。   As shown in FIG. 1, the right display driving unit 22 is disposed inside the right holding unit 21 (the side facing the user's head). The left display driving unit 24 is disposed inside the left holding unit 23. As shown in FIG. 2, the right display driving unit 22 functions as a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, and a display element. A right LCD (Liquid Crystal Display) control unit 211, a right LCD 241, and a right projection optical system 251 are provided. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”. The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED (Light Emitting Diode) or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right projection optical system 251 is a collimating lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state.

左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを備えている。これらの詳細は、右表示駆動部22と同様である。なお、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼ぶ。   The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are provided. These details are the same as those of the right display drive unit 22. Note that the right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as a “display drive unit”.

図1に示すように、カメラ61は、利用者の左右の目尻の上方に対応する位置にそれぞれ配置されているステレオカメラである。左右のカメラ61は、画像表示部20の表側方向、換言すれば、HMD100を装着した状態における利用者の視界方向の外景(外部の景色)をそれぞれ撮像し、左右に対応した2枚の外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。カメラ61によって得られる2枚の外景画像を画像認識することで、制御部10のCPU140は、利用者の手の動きを検出し、取得することができる。画像認識の精度を向上させるために、CPU140は、利用者の指先や、利用者の手に付けられた指輪や、利用者が手に持っている特定の道具等を、検出のための目印にすることができる。この場合、カメラ61とCPU140とは、利用者の手の動きを取得する「動き取得部」として機能する。なお、本実施形態におけるカメラ61はステレオカメラであるが、単眼カメラとしてもよい。   As shown in FIG. 1, the camera 61 is a stereo camera disposed at a position corresponding to the upper left and right corners of the user. The left and right cameras 61 each capture an outside scene (external scenery) in the front side direction of the image display unit 20, in other words, the user's viewing direction when the HMD 100 is worn, and two outside scene images corresponding to the left and right sides. To get. The camera 61 is a so-called visible light camera, and the outside scene image acquired by the camera 61 is an image representing the shape of the object from the visible light emitted from the object. By recognizing the two outside scene images obtained by the camera 61, the CPU 140 of the control unit 10 can detect and acquire the movement of the user's hand. In order to improve the accuracy of image recognition, the CPU 140 uses a fingertip of the user, a ring attached to the user's hand, a specific tool held by the user as a mark for detection, and the like. can do. In this case, the camera 61 and the CPU 140 function as a “movement acquisition unit” that acquires the movement of the user's hand. In addition, although the camera 61 in this embodiment is a stereo camera, it is good also as a monocular camera.

図1に示すように、視線検出部62は、利用者の左右の目尻の下方に対応する位置にそれぞれ配置されている。左右の視線検出部62は、図示しない赤外線発光部と赤外線受光部とをそれぞれ備える。右側の視線検出部62は、赤外線発光部から射出されて、利用者の右眼に当たり反射した赤外線を受光する。制御部10のCPU140は、右側の視線検出部62が受光した赤外線の強さに基づいて、利用者の右眼の視線の動きを取得する。同様に、左側の視線検出部62は、赤外線発光部から射出されて、利用者の左眼に当たり反射した赤外線を受光する。CPU140は、左側の視線検出部62が受光した赤外線の強さに基づいて、利用者の左眼の視線を検出する。赤外線の反射率は、赤外線が虹彩(黒目)に当たった場合と、赤外線がまぶたに当たった場合と、赤外線が白目に当たった場合と、でそれぞれ異なる。具体的には、赤外線の反射率は、赤外線が虹彩に当たった場合が最も低く、次いで、まぶた、白目の順に高くなる。このため、CPU140は、視線検出部62が受光した赤外線の強さによって、利用者の視線の動きを取得することができる。この場合、視線検出部62とCPU140とは、利用者の視線の動きを取得する「視線取得部」として機能する。なお、本実施形態における視線検出部62は左右それぞれに設けられるとしたが、左右いずれか一方でもよい。   As shown in FIG. 1, the line-of-sight detection unit 62 is disposed at a position corresponding to the lower part of the left and right corners of the user. The left and right line-of-sight detection units 62 each include an infrared light emitting unit and an infrared light receiving unit (not shown). The right gaze detection unit 62 receives the infrared light emitted from the infrared light emitting unit and reflected by the right eye of the user. The CPU 140 of the control unit 10 acquires the movement of the line of sight of the user's right eye based on the intensity of infrared light received by the right line of sight detection unit 62. Similarly, the left line-of-sight detection unit 62 receives the infrared light emitted from the infrared light emitting unit and reflected by the left eye of the user. The CPU 140 detects the line of sight of the user's left eye based on the intensity of infrared light received by the left line-of-sight detection unit 62. The reflectance of infrared rays is different depending on whether the infrared ray hits the iris (black eye), the infrared ray hits the eyelid, or the infrared ray hits the white eye. Specifically, the reflectance of infrared rays is lowest when the infrared rays hit the iris, and then increases in the order of eyelids and white eyes. Therefore, the CPU 140 can acquire the movement of the user's line of sight based on the intensity of infrared rays received by the line-of-sight detection unit 62. In this case, the line-of-sight detection unit 62 and the CPU 140 function as a “line-of-sight acquisition unit” that acquires the movement of the user's line of sight. Although the line-of-sight detection unit 62 in the present embodiment is provided on each of the left and right sides, it may be on either the left or right side.

図1に示すように、9軸センサー66は、利用者の右側のこめかみに対応する位置に配置されている。9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が頭部に装着されているときには、利用者の頭部の動きを検出し、取得することができる。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。   As shown in FIG. 1, the 9-axis sensor 66 is disposed at a position corresponding to the temple on the right side of the user. The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the head, the movement of the user's head can be detected and acquired. Here, the movement of the head includes changes in the speed, acceleration, angular velocity, direction, and direction of the head.

図1に示すように、画像表示部20は、画像表示部20と制御部10とを接続するための接続部40を備えている。接続部40は、制御部10に接続される本体コード48と、本体コード48が分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右表示駆動部22に接続され、左コード44は、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。本体コード48における連結部材46とは反対側の端部には、コネクター(図示省略)が設けられている。このコネクターは、制御部10に設けられたコネクター(図示省略)との嵌合/嵌合解除により、制御部10と画像表示部20との接続/接続解除を実現する。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   As shown in FIG. 1, the image display unit 20 includes a connection unit 40 for connecting the image display unit 20 and the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 branched from the main body cord 48, and a connecting member 46 provided at the branch point. The right cord 42 is connected to the right display driving unit 22, and the left cord 44 is connected to the left display driving unit 24. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A connector (not shown) is provided at the end of the main body cord 48 opposite to the connecting member 46. This connector realizes connection / disconnection between the control unit 10 and the image display unit 20 by fitting / releasing with a connector (not shown) provided in the control unit 10. The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

A−1−2.制御部の構成:
制御部10はHMD100を制御するための装置である。図1に示すように、制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を備えている。決定キー11は、押下操作を検出して、制御部10において操作された内容を決定するための信号を出力する。点灯部12は、例えばLEDによって実現され、HMD100の動作状態(例えば電源のON/OFF等)を発光状態によって通知する。表示切替キー13は、押下操作を検出して、例えばコンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上における利用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々の方式を採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
A-1-2. Configuration of control unit:
The control unit 10 is a device for controlling the HMD 100. As shown in FIG. 1, the control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power source. And a switch 18. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated in the control unit 10. The lighting unit 12 is realized by, for example, an LED, and notifies the operation state of the HMD 100 (for example, ON / OFF of the power source) by the light emission state. The display switching key 13 detects a pressing operation, and outputs a signal for switching the display mode of the content moving image between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various methods such as an electrostatic method, a pressure detection method, and an optical method can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.

図2に示すように、制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   2, the control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and a transmission unit (Tx ) 51 and 52, and the respective parts are connected to each other by a bus (not shown).

入力情報取得部110は、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、および、電源スイッチ18に対する操作入力に応じた信号を取得する。入力情報取得部110は、上記以外の種々の方法を用いた操作入力を取得することができる。例えば、フットスイッチ(利用者の足により操作するスイッチ)による操作入力を取得してもよい。フットスイッチによる操作入力を取得可能とすれば、利用者が手を離すことが困難である作業においても、入力情報取得部110は、利用者からの操作入力を取得することができる。   The input information acquisition unit 110 acquires signals corresponding to operation inputs to the enter key 11, the display switching key 13, the track pad 14, the luminance switching key 15, the direction key 16, the menu key 17, and the power switch 18. The input information acquisition unit 110 can acquire operation inputs using various methods other than those described above. For example, an operation input using a foot switch (a switch operated by a user's foot) may be acquired. If it is possible to acquire an operation input using a foot switch, the input information acquisition unit 110 can acquire an operation input from the user even in a task in which it is difficult for the user to release his / her hand.

記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部120には、表示状態121と、過去維持時間122と、維持時間設定123と、過去基準時間124と、基準時間設定125と、簡易表示態様126と、が予め記憶されている。   The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 120 stores various computer programs including an operating system (OS). The storage unit 120 stores in advance a display state 121, a past maintenance time 122, a maintenance time setting 123, a past reference time 124, a reference time setting 125, and a simple display mode 126.

表示状態121には、現在の拡張現実感処理における仮想オブジェクトの表示態様が、第1の表示態様であるか、第2の表示態様であるか、を表すための情報が格納される。表示状態121には、例えば、フラグを用いて表示態様の種別が格納されてもよいし、数字や文字列を用いて表示態様の種別が格納されてもよい。   The display state 121 stores information for indicating whether the display mode of the virtual object in the current augmented reality process is the first display mode or the second display mode. In the display state 121, for example, the type of display mode may be stored using a flag, or the type of display mode may be stored using a number or a character string.

過去維持時間122には、過去の拡張現実感処理において使用された維持時間の履歴が格納される。ここで「維持時間」とは、拡張現実感処理において、仮想オブジェクトの表示態様を、第1の表示態様から第2の表示態様へと遷移させるまでの時間を意味する。過去維持時間122には、過去の拡張現実感処理において使用された維持時間と、その際の第1の表示状態での仮想オブジェクトの情報量と、その際の利用者の識別子と、を対応付けて格納することができる。   The past maintenance time 122 stores a history of maintenance times used in past augmented reality processing. Here, the “maintenance time” means the time until the display mode of the virtual object is changed from the first display mode to the second display mode in the augmented reality processing. The past maintenance time 122 is associated with the maintenance time used in the past augmented reality processing, the information amount of the virtual object in the first display state at that time, and the user identifier at that time Can be stored.

維持時間設定123には、利用者が設定した維持時間が格納される。維持時間設定123の内容は、HMD100の製造時において、何らかの初期値が記憶されてもよい。維持時間設定123の内容は、利用者によって適宜変更可能であってもよい。   The maintenance time setting 123 stores the maintenance time set by the user. As the content of the maintenance time setting 123, some initial value may be stored when the HMD 100 is manufactured. The contents of the maintenance time setting 123 may be appropriately changed by the user.

過去基準時間124には、過去の拡張現実感処理において使用された基準時間の履歴が格納される。ここで、「基準時間」とは、拡張現実感処理において、仮想オブジェクトの表示態様を、第2の表示態様から第1の表示態様へと遷移させるまでの時間を意味する。過去基準時間124には、過去の拡張現実感処理において使用された基準時間と、その際の第1の表示状態での仮想オブジェクトの情報量と、その際の利用者の識別子と、を対応付けて格納することができる。   The past reference time 124 stores a history of reference times used in past augmented reality processing. Here, the “reference time” means a time until the display mode of the virtual object is changed from the second display mode to the first display mode in the augmented reality process. The past reference time 124 is associated with the reference time used in the past augmented reality processing, the information amount of the virtual object in the first display state at that time, and the identifier of the user at that time Can be stored.

基準時間設定125には、利用者が設定した基準時間が格納される。基準時間設定125の内容は、HMD100の製造時において、何らかの初期値が記憶されてもよい。基準時間設定125の内容は、利用者によって適宜変更可能であってもよい。   The reference time setting 125 stores a reference time set by the user. As the content of the reference time setting 125, some initial value may be stored when the HMD 100 is manufactured. The contents of the reference time setting 125 may be appropriately changed by the user.

簡易表示態様126には、仮想オブジェクトの第2の表示態様において採用される、具体的な表示態様を表すための情報が格納される。本実施形態では、第2の表示態様において採用される具体的な表示態様としては、(態様1)端部アイコン表示と、(態様2)近傍アイコン表示と、(態様3)強調表示と、(態様4)非表示と、がある。各態様の詳細な説明は後述する。簡易表示態様126には、上述した態様1〜4のうちの、いずれかを表す情報が格納される。簡易表示態様126には、例えば、フラグを用いて具体的な表示態様が格納されてもよいし、数字や文字列を用いて具体的な表示態様が格納されてもよい。   The simple display mode 126 stores information for representing a specific display mode that is employed in the second display mode of the virtual object. In the present embodiment, as specific display modes employed in the second display mode, (Mode 1) end icon display, (Mode 2) neighborhood icon display, (Mode 3) highlight display, Aspect 4) There is non-display. Detailed description of each aspect will be described later. In the simple display mode 126, information representing any one of the above-described modes 1 to 4 is stored. In the simple display mode 126, for example, a specific display mode may be stored using a flag, or a specific display mode may be stored using a number or a character string.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。   The power supply 130 supplies power to each part of the HMD 100. As the power supply 130, for example, a secondary battery can be used.

無線通信部132は、所定の無線通信規格に則って、外部装置との間で無線通信を行う。所定の無線通信規格とは、例えば、赤外線、Bluetooth(登録商標)に例示される近距離無線通信、IEEE802.11に例示される無線LAN等である。   The wireless communication unit 132 performs wireless communication with an external device in accordance with a predetermined wireless communication standard. The predetermined wireless communication standard is, for example, infrared, short-range wireless communication exemplified by Bluetooth (registered trademark), wireless LAN exemplified by IEEE 802.11, or the like.

GPSモジュール134は、GPS衛星からの信号を受信することにより、HMD100の利用者の現在位置を検出し、利用者の現在位置情報を表す現在位置情報を生成する。現在位置情報は、例えば緯度経度を表す座標によって実現することができる。   The GPS module 134 detects the current position of the user of the HMD 100 by receiving a signal from a GPS satellite, and generates current position information representing the current position information of the user. The current position information can be realized by coordinates representing latitude and longitude, for example.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、拡張現実感処理部142、OS150、画像処理部160、音声処理部170、表示制御部190として機能する。   The CPU 140 functions as the augmented reality processing unit 142, the OS 150, the image processing unit 160, the sound processing unit 170, and the display control unit 190 by reading out and executing the computer program stored in the storage unit 120.

拡張現実感処理部142は、拡張現実感処理を実行する。拡張現実感処理部142は、さらに、通常表示処理部144と、簡易表示処理部146と、を含んでいる。通常表示処理部144は、後述する通常表示処理を実行することで、第1の表示態様での仮想オブジェクトを含む虚像を画像表示部20に形成させる。簡易表示処理部146は、後述する簡易表示処理を実行することで、第2の表示態様での仮想オブジェクトを含む虚像を画像表示部20に形成させる。拡張現実感処理部142は、後述する遷移条件に基づいて、通常表示処理部144による通常表示処理と、簡易表示処理部146による簡易表示処理と、を切り替えて実行させる。すなわち、本実施形態において、通常表示処理と簡易表示処理とは、拡張現実感処理のサブルーチンとして実行される。   The augmented reality processing unit 142 executes augmented reality processing. The augmented reality processing unit 142 further includes a normal display processing unit 144 and a simple display processing unit 146. The normal display processing unit 144 causes the image display unit 20 to form a virtual image including the virtual object in the first display mode by executing a normal display process described later. The simple display processing unit 146 causes the image display unit 20 to form a virtual image including a virtual object in the second display mode by executing a simple display process described later. The augmented reality processing unit 142 switches between normal display processing by the normal display processing unit 144 and simple display processing by the simple display processing unit 146 based on transition conditions described later. That is, in the present embodiment, the normal display process and the simple display process are executed as a subroutine of the augmented reality process.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。例えば、コンテンツがディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成する。なお、ディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とは不要である。画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介して、画像表示部20へ送信する。送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. For example, when the content is in a digital format, the image processing unit 160 generates a clock signal PCLK and image data Data. In the case of the digital format, since the clock signal PCLK is output in synchronization with the image signal, generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and A / D conversion of the analog image signal are unnecessary. The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 to the image via the transmission units 51 and 52. Transmit to the display unit 20. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”. Note that the image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、左右のLCD制御部211、212による左右のLCD241、242の駆動ON/OFFや、左右のバックライト制御部201、202による左右のバックライト221、222の駆動ON/OFFを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、これらの制御信号を、送信部51、52を介して画像表示部20へ送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 turns on and off the left and right LCDs 241 and 242 by the left and right LCD control units 211 and 212 and the left and right backlights by the left and right backlight control units 201 and 202 according to the control signal. The generation and emission of image light by the right display drive unit 22 and the left display drive unit 24 are controlled by individually controlling the driving ON / OFF of the 221 and 222, respectively. The display control unit 190 transmits these control signals to the image display unit 20 via the transmission units 51 and 52.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32の図示しないスピーカーと、左イヤホン34の図示しないスピーカーとに対して供給する。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and supplies the acquired audio signal to a speaker (not shown) of the right earphone 32 and a speaker (not shown) of the left earphone 34.

インターフェイス180は、所定の有線通信規格に則って、外部装置OAとの間で通信を行う。所定の有線通信規格としては、例えば、MicroUSB(Universal Serial Bus)、USB、HDMI(High Definition Multimedia Interface、HDMIは登録商標)、DVI(Digital Visual Interface)、VGA(Video Graphics Array)、コンポジット、RS−232C(Recommended Standard 232)、IEEE802.3に例示される有線LAN等である。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等を利用することができる。   The interface 180 communicates with the external device OA in accordance with a predetermined wired communication standard. The predetermined wired communication standards include, for example, MicroUSB (Universal Serial Bus), USB, HDMI (High Definition Multimedia Interface, HDMI is a registered trademark), DVI (Digital Visual Interface), VGA (Video Graphics Array), Composite, RS- The wired LAN is exemplified by 232C (Recommended Standard 232) and IEEE802.3. As the external device OA, for example, a personal computer PC, a mobile phone terminal, a game terminal, or the like can be used.

図3は、利用者に視認される虚像の一例を示す説明図である。図3(A)は、拡張現実感処理を実行していない場合の利用者の視野VRを例示している。上述のようにして、HMD100の利用者の両眼に導かれた画像光が利用者の網膜に結像することにより、利用者は虚像VIを視認する。図3(A)の例では、虚像VIは、HMD100のOS150の待ち受け画面である。利用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のHMD100の利用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後に外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。   FIG. 3 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user. FIG. 3A illustrates the user's visual field VR when the augmented reality processing is not executed. As described above, the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the virtual image VI. In the example of FIG. 3A, the virtual image VI is a standby screen of the OS 150 of the HMD 100. The user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28. As described above, the user of the HMD 100 of the present embodiment can see the virtual image VI and the outside scene SC behind the virtual image VI for the portion of the visual field VR where the virtual image VI is displayed. In addition, the portion of the visual field VR where the virtual image VI is not displayed can be seen through the optical scene display portion and directly through the outside scene SC.

図3(B)は、拡張現実感処理を実行している場合の利用者の視野VRを例示している。後述の拡張現実感処理を実行することによって、利用者は、仮想オブジェクトVO1〜VO3を含んだ虚像VIを視認する。仮想オブジェクトVO1は、外景SC内の現実世界の山(実オブジェクト)の近傍に表示された吹き出し形状の情報である。仮想オブジェクトVO2,VO3は、外景SC内の現実世界の木(実オブジェクト)に重畳するように表示されたノート形状の情報である。このように、利用者は、虚像VIに含まれる仮想オブジェクトVO1〜VO3と、虚像VIの背後に透過して見える外景SC内の実オブジェクトと、の両方を見ることで、拡張現実感を体感することができる。   FIG. 3B illustrates the visual field VR of the user when the augmented reality process is executed. By executing the augmented reality processing described later, the user visually recognizes the virtual image VI including the virtual objects VO1 to VO3. The virtual object VO1 is balloon shape information displayed in the vicinity of a real world mountain (real object) in the outside scene SC. The virtual objects VO2 and VO3 are notebook-shaped information displayed so as to be superimposed on the real world tree (real object) in the outside scene SC. In this way, the user can experience augmented reality by viewing both the virtual objects VO1 to VO3 included in the virtual image VI and the real object in the outside scene SC that can be seen behind the virtual image VI. be able to.

A−2.拡張現実感処理:
拡張現実感処理は、現実世界に実在する実オブジェクトに対して、情報(仮想オブジェクト)を付加提示するための処理である。拡張現実感処理は、拡張現実感処理部142がOS150や他のアプリケーションから拡張現実感処理の開始指示を受信したことや、拡張現実感処理部142がHMD100の電源がONされた旨を受信したことに伴って開始される。
A-2. Augmented reality processing:
The augmented reality processing is processing for additionally presenting information (virtual object) to a real object that actually exists in the real world. In augmented reality processing, the augmented reality processing unit 142 has received an instruction to start augmented reality processing from the OS 150 or another application, or the augmented reality processing unit 142 has received information that the power of the HMD 100 has been turned on. It starts with it.

A−2−1.拡張現実感処理の状態遷移:
図4は、拡張現実感処理の状態遷移図である。本実施形態の拡張現実感処理は、通常表示状態ST1と、簡易表示状態ST2と、をとることができる。通常表示状態ST1では、拡張現実感処理部142は、通常表示処理部144に通常表示処理を実行させる。この結果、画像表示部20には、第1の表示態様での仮想オブジェクトを含む虚像が形成される。一方、簡易表示状態ST2では、拡張現実感処理部142は、簡易表示処理部146に簡易表示処理を実行させる。この結果、画像表示部20には、第2の表示態様での仮想オブジェクトを含む虚像が形成される。
A-2-1. State transition of augmented reality processing:
FIG. 4 is a state transition diagram of the augmented reality process. The augmented reality processing of the present embodiment can take a normal display state ST1 and a simple display state ST2. In the normal display state ST1, the augmented reality processing unit 142 causes the normal display processing unit 144 to perform normal display processing. As a result, a virtual image including the virtual object in the first display mode is formed on the image display unit 20. On the other hand, in the simple display state ST2, the augmented reality processing unit 142 causes the simple display processing unit 146 to execute the simple display process. As a result, a virtual image including the virtual object in the second display mode is formed on the image display unit 20.

拡張現実感処理が開始された後、拡張現実感処理部142は、遷移条件1の成立を監視する。遷移条件1は、拡張現実感処理の状態を、開始後の状態から、通常表示状態ST1へと遷移させるための条件であり、換言すれば、第1の表示状態での仮想オブジェクトを表示させるための条件である。拡張現実感処理部142は、複数の条件を遷移条件1として利用することができるため、遷移条件1の詳細については後述する。   After the augmented reality processing is started, the augmented reality processing unit 142 monitors whether the transition condition 1 is satisfied. The transition condition 1 is a condition for transitioning the state of the augmented reality processing from the state after the start to the normal display state ST1, in other words, for displaying the virtual object in the first display state. Is the condition. Since the augmented reality processing unit 142 can use a plurality of conditions as the transition condition 1, details of the transition condition 1 will be described later.

通常表示状態ST1において、拡張現実感処理部142は、遷移条件2の成立と、無効化アクションと、を監視する。遷移条件2は、拡張現実感処理の状態を、通常表示状態ST1から簡易表示状態ST2へと遷移させるための条件であり、換言すれば、第2の表示状態での仮想オブジェクトを表示させるための条件である。拡張現実感処理部142は、複数の条件を遷移条件2として利用することができるため、遷移条件2の詳細については後述する。   In the normal display state ST1, the augmented reality processing unit 142 monitors the establishment of the transition condition 2 and the invalidation action. Transition condition 2 is a condition for transitioning the state of augmented reality processing from the normal display state ST1 to the simple display state ST2, in other words, for displaying the virtual object in the second display state. It is a condition. Since the augmented reality processing unit 142 can use a plurality of conditions as the transition condition 2, details of the transition condition 2 will be described later.

無効化アクションは、拡張現実感処理の状態遷移を取り消すために、利用者によって行われる所定の動作である。本実施形態では、無効化アクションとして「手を振る動作」を採用する。拡張現実感処理部142は、動き検出部(カメラ61およびCPU140の拡張現実感処理部142)によって取得された利用者の手の動きが、予め記憶されている手を振る動作のパターンに一致するか否かを判定する。一致する場合、拡張現実感処理部142は無効化アクションが行われたと判定し、一致しない場合、拡張現実感処理部142は無効化アクションが行われていないと判定する。この場合、拡張現実感処理部142は「要求取得部」として機能し、無効化アクションは「第1の要求」として機能する。   The invalidation action is a predetermined operation performed by the user in order to cancel the state transition of the augmented reality process. In the present embodiment, a “waving hand” is adopted as the invalidation action. In the augmented reality processing unit 142, the movement of the user's hand acquired by the motion detection unit (the camera 61 and the augmented reality processing unit 142 of the CPU 140) matches a pre-stored movement pattern of the hand. It is determined whether or not. If they match, the augmented reality processing unit 142 determines that the invalidation action has been performed, and if they do not match, the augmented reality processing unit 142 determines that the invalidation action has not been performed. In this case, the augmented reality processing unit 142 functions as a “request acquisition unit”, and the invalidation action functions as a “first request”.

なお、無効化アクションとしては、利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによってなされる他の動作を採用してもよい。例えば、無効化アクションとしては、手を所定の形とする動作、制御部10に対するキャンセル入力動作、図示しないマイクを介した音声によるキャンセル入力動作等を採用してもよい。   Note that as the invalidation action, another operation performed by at least one of the user's hand, foot, voice, head, or a combination thereof may be employed. For example, as the invalidation action, an operation of making the hand a predetermined shape, a cancel input operation to the control unit 10, a cancel input operation by voice through a microphone (not shown), or the like may be employed.

通常表示状態ST1において、遷移条件2が成立し、かつ、無効化アクションを検出していない場合、拡張現実感処理部142は、拡張現実感処理の状態を、通常表示状態ST1から簡易表示状態ST2へと遷移させる。一方、通常表示状態ST1において、遷移条件2が成立し、かつ、無効化アクションを検出した場合、拡張現実感処理部142は、拡張現実感処理の状態を通常表示状態ST1のままとする。   In the normal display state ST1, when the transition condition 2 is satisfied and the invalidation action is not detected, the augmented reality processing unit 142 changes the state of the augmented reality processing from the normal display state ST1 to the simplified display state ST2. Transition to. On the other hand, when the transition condition 2 is satisfied and the invalidation action is detected in the normal display state ST1, the augmented reality processing unit 142 keeps the state of the augmented reality processing in the normal display state ST1.

このようにすれば、拡張現実感処理部142は、利用者からの第1の要求(無効化アクション)に応じて、第1の表示態様から第2の表示態様への遷移、換言すれば、通常表示状態ST1から簡易表示状態ST2への遷移を中止することができるため、利用者の利便性を向上させることができる。さらに、要求取得部として機能する拡張現実感処理部142は、利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによる利用者からの要求を、第1の要求として取得することができる。   In this way, the augmented reality processing unit 142 transitions from the first display mode to the second display mode in response to the first request (invalidation action) from the user, in other words, Since the transition from the normal display state ST1 to the simple display state ST2 can be stopped, the convenience for the user can be improved. Furthermore, the augmented reality processing unit 142 functioning as a request acquisition unit receives a user's hand, foot, voice, head, or a combination thereof from the user. The request can be obtained as a first request.

簡易表示状態ST2において、拡張現実感処理部142は、遷移条件3の成立と、無効化アクションと、を監視する。遷移条件3は、拡張現実感処理の状態を、簡易表示状態ST2から通常表示状態ST1へと遷移させるための条件であり、換言すれば、第1の表示状態での仮想オブジェクトを表示させるための条件である。拡張現実感処理部142は、複数の条件を遷移条件3として利用することができるため、遷移条件3の詳細については後述する。また、無効化アクションについては、通常表示状態ST1における無効化アクションと同じである。   In the simple display state ST2, the augmented reality processing unit 142 monitors the establishment of the transition condition 3 and the invalidation action. Transition condition 3 is a condition for transitioning the state of augmented reality processing from the simple display state ST2 to the normal display state ST1, in other words, for displaying the virtual object in the first display state. It is a condition. Since the augmented reality processing unit 142 can use a plurality of conditions as the transition condition 3, details of the transition condition 3 will be described later. Further, the invalidation action is the same as the invalidation action in the normal display state ST1.

簡易表示状態ST2において、遷移条件3が成立し、かつ、無効化アクションを検出していない場合、拡張現実感処理部142は、拡張現実感処理の状態を、簡易表示状態ST2から通常表示状態ST1へと遷移させる。一方、簡易表示状態ST2において、遷移条件3が成立し、かつ、無効化アクションを検出した場合、拡張現実感処理部142は、拡張現実感処理の状態を簡易表示状態ST2のままとする。   When the transition condition 3 is satisfied in the simple display state ST2 and no invalidation action is detected, the augmented reality processing unit 142 changes the state of the augmented reality processing from the simple display state ST2 to the normal display state ST1. Transition to. On the other hand, when the transition condition 3 is satisfied and the invalidation action is detected in the simple display state ST2, the augmented reality processing unit 142 keeps the state of the augmented reality processing in the simplified display state ST2.

このようにすれば、拡張現実感処理部142は、利用者からの要求(無効化アクション)に応じて、第2の表示態様から第1の表示態様への遷移、換言すれば、簡易表示状態ST2から通常表示状態ST1への遷移を中止することができるため、利用者の利便性を向上させることができる。さらに、要求取得部として機能する拡張現実感処理部142は、利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによる利用者からの要求を取得し、拡張現実感処理部142における第2の表示態様から第1の表示態様への遷移を中止させることができる。   In this way, the augmented reality processing unit 142 makes a transition from the second display mode to the first display mode, in other words, the simple display state, in response to a request (invalidation action) from the user. Since the transition from ST2 to the normal display state ST1 can be stopped, the convenience for the user can be improved. Furthermore, the augmented reality processing unit 142 functioning as a request acquisition unit receives a user's hand, foot, voice, head, or a combination thereof from the user. The request can be acquired, and the transition from the second display mode to the first display mode in the augmented reality processing unit 142 can be stopped.

A−2−2.通常表示処理:
図5は、通常表示処理の手順を示すフローチャートである。通常表示処理は、第1の表示態様での仮想オブジェクトを表す虚像を画像表示部20に形成させるための処理である。通常表示処理は、通常表示状態ST1(図4)において、拡張現実感処理部142からの指示に基づいて開始され、通常表示処理部144によって実行される。
A-2-2. Normal display processing:
FIG. 5 is a flowchart showing a procedure of normal display processing. The normal display process is a process for causing the image display unit 20 to form a virtual image representing a virtual object in the first display mode. The normal display process is started based on an instruction from the augmented reality processing unit 142 in the normal display state ST1 (FIG. 4), and is executed by the normal display processing unit 144.

ステップS100において通常表示処理部144は、処理内で使用する変数iに「0」をセットする。ステップS102において通常表示処理部144は、カメラ61に外景画像を取得させる。   In step S100, the normal display processing unit 144 sets “0” to a variable i used in the processing. In step S102, the normal display processing unit 144 causes the camera 61 to acquire an outside scene image.

ステップS104において通常表示処理部144は、取得した外景画像から、対象オブジェクトの特徴を抽出する。ここで、「対象オブジェクト」とは、外景画像に含まれている複数の実オブジェクトのうち、遷移条件1または遷移条件3の成立時において「利用者の視界内に入った実オブジェクト」または「注目動作の対象となった実オブジェクト」を意味する。「注目動作」とは、利用者が、特定の1点を注目する動作を意味する。注目動作は、視線取得部(図2)によって取得される利用者の視線や、動き取得部(図2)によって取得される利用者の手の動きを利用して特定することができる。注目動作の取得方法については後述する。   In step S104, the normal display processing unit 144 extracts the characteristics of the target object from the acquired outside scene image. Here, the “target object” is “a real object that has entered the user's field of view” or “attention” when the transition condition 1 or the transition condition 3 is satisfied among a plurality of real objects included in the outside scene image. It means a real object that is the target of the action. The “attention operation” means an operation in which the user pays attention to a specific point. The attention movement can be specified by using the user's line of sight acquired by the line-of-sight acquisition unit (FIG. 2) or the movement of the user's hand acquired by the movement acquisition unit (FIG. 2). A method for acquiring the attention motion will be described later.

具体的には、ステップS104において通常表示処理部144は、以下に例示するa1、a2のような画像認識の方法を用いて、取得した外景画像に含まれる対象オブジェクトの特徴を抽出する。なお、方法a1と方法a2とは、組み合わせてもよい。
(a1)対象オブジェクトのエッジ(特徴部)を検出する。
(a2)対象オブジェクトに予め付されたマーカー(特徴部)を検出する。なお、オブジェクトに付すマーカーは種々の種類のマーカーを使用可能であり、例えば、テープ、シール、マジック、レーザーマーカー、マジックテープ(登録商標)等を使用することができる。また、オブジェクトに付すマーカーの数は任意である。
Specifically, in step S104, the normal display processing unit 144 extracts the characteristics of the target object included in the acquired outside scene image using an image recognition method such as a1 and a2 illustrated below. Note that method a1 and method a2 may be combined.
(A1) The edge (characteristic part) of the target object is detected.
(A2) A marker (feature part) attached in advance to the target object is detected. Note that various types of markers can be used as the marker attached to the object, and for example, a tape, a seal, a magic, a laser marker, a magic tape (registered trademark), or the like can be used. The number of markers attached to the object is arbitrary.

ステップS106において拡張現実感処理部142は、HMD100の利用者の視野内における対象オブジェクトの位置と、HMD100と対象オブジェクトの間の距離と、を取得する。具体的には、拡張現実感処理部142は、ステップS104で抽出した特徴部の位置を、視野内における対象オブジェクトの位置とする。また、拡張現実感処理部142は、ステップS104で抽出した特徴から、対象オブジェクトが何であるか、および、対象オブジェクトが外景画像全体に占める大きさを特定する。拡張現実感処理部142は、特定した物体および大きさから、対象オブジェクトがHMD100からどの程度離れた位置に存在するか(両者間の距離)を推定する。なお、HMD100が深度センサーや、測距センサーを備える場合、ステップS106において拡張現実感処理部142は、これらセンサーの測定値を用いて、HMD100と対象オブジェクトとの間の距離を取得してもよい。そうすれば、拡張現実感処理部142は、より正確な距離を取得することができる。   In step S106, the augmented reality processing unit 142 acquires the position of the target object in the field of view of the user of the HMD 100 and the distance between the HMD 100 and the target object. Specifically, the augmented reality processing unit 142 sets the position of the feature extracted in step S104 as the position of the target object in the field of view. Further, the augmented reality processing unit 142 identifies what the target object is and the size of the target object in the entire outside scene image from the features extracted in step S104. The augmented reality processing unit 142 estimates how far the target object is from the HMD 100 (the distance between the two) based on the identified object and size. When the HMD 100 includes a depth sensor or a distance measurement sensor, the augmented reality processing unit 142 may acquire the distance between the HMD 100 and the target object using the measurement values of these sensors in step S106. . Then, the augmented reality processing unit 142 can acquire a more accurate distance.

ステップS108において拡張現実感処理部142は、対象オブジェクトに対応する1つまたは複数の仮想オブジェクトを取得する。拡張現実感処理部142は、仮想オブジェクトを、HMD100内の図示しないデータベースから取得してもよく、HMD100にネットワークを介して接続されている他の装置(サーバー等)内の図示しないデータベースから取得してもよい。   In step S108, the augmented reality processing unit 142 acquires one or more virtual objects corresponding to the target object. The augmented reality processing unit 142 may acquire a virtual object from a database (not shown) in the HMD 100 or may acquire a virtual object from a database (not shown) in another device (such as a server) connected to the HMD 100 via a network. May be.

ステップS110において拡張現実感処理部142は、対象オブジェクトの位置および距離に合わせて仮想オブジェクトを配置して、通常表示用画像を生成する。具体的には、拡張現実感処理部142は、ステップS108で取得した仮想オブジェクト(文字や画像)を、ステップS106で取得した対象オブジェクトの距離に合わせた大きさに加工し、ステップS106で取得した対象オブジェクトの位置に合わせた位置に配置する。また、拡張現実感処理部142は、通常表示用画像のうち、仮想オブジェクトが配置されていない領域については、画像が表示された際における外景SCの視認性を向上させるために、黒色のデーターを配置する。   In step S110, the augmented reality processing unit 142 arranges virtual objects according to the position and distance of the target object, and generates a normal display image. Specifically, the augmented reality processing unit 142 processes the virtual object (character or image) acquired in step S108 into a size that matches the distance of the target object acquired in step S106, and acquired in step S106. Place it at a position that matches the position of the target object. In addition, the augmented reality processing unit 142 adds black data to an area in which the virtual object is not arranged in the normal display image in order to improve the visibility of the outside scene SC when the image is displayed. Deploy.

図6は、利用者に視認される通常表示用画像の一例を示す説明図である。図5のステップS112において拡張現実感処理部142は、通常表示用画像を表示させる。具体的には、拡張現実感処理部142は、ステップS110で生成した通常表示用画像を画像処理部160へ送信する。画像を受信した画像処理部160は、図2で説明した表示処理を実行する。この結果、図6に示すように、利用者は、視野VRにおいて、仮想オブジェクトVO1〜VO3が含まれた通常表示用画像NIを表す虚像VIを視認することができる。また、利用者は、虚像VIの背後の外景SCにおいて、仮想オブジェクトVO1〜VO3が装飾する対象オブジェクト(実オブジェクト)を視認することができる。   FIG. 6 is an explanatory diagram illustrating an example of a normal display image visually recognized by the user. In step S112 of FIG. 5, the augmented reality processing unit 142 displays a normal display image. Specifically, the augmented reality processing unit 142 transmits the normal display image generated in step S110 to the image processing unit 160. The image processing unit 160 that has received the image executes the display process described with reference to FIG. As a result, as shown in FIG. 6, the user can visually recognize the virtual image VI representing the normal display image NI including the virtual objects VO1 to VO3 in the visual field VR. Further, the user can visually recognize the target object (real object) decorated by the virtual objects VO1 to VO3 in the outside scene SC behind the virtual image VI.

図6の例では、対象オブジェクトは、作業現場に置かれているテーブルカッターである。また、仮想オブジェクトVO1は、部品の場所を表す地図の画像であり、仮想オブジェクトVO2は、利用者に対する作業内容の指示を表す文字であり、仮想オブジェクトVO3は、作業内容の指示を補助する矢印の画像である。仮想オブジェクトVO1,VO2は、テーブルカッターの近傍に配置されており、仮想オブジェクトVO3はテーブルカッターに重畳されて配置されている。このように、拡張現実感処理部142は、仮想オブジェクトを対象オブジェクトの近傍に表示させてもよいし、仮想オブジェクトを対象オブジェクトに重ねて表示させてもよい。なお、図6の例では、1つの対象オブジェクトに3つの仮想オブジェクトが対応付けられている例を示した。しかし、1つの対象オブジェクトに対応付けられている仮想オブジェクトの数は任意であり、1つでもよく、複数でもよい。   In the example of FIG. 6, the target object is a table cutter placed on the work site. The virtual object VO1 is a map image representing the location of a part, the virtual object VO2 is a character representing a work content instruction to the user, and the virtual object VO3 is an arrow that assists the work content instruction. It is an image. The virtual objects VO1 and VO2 are arranged in the vicinity of the table cutter, and the virtual object VO3 is arranged so as to be superimposed on the table cutter. As described above, the augmented reality processing unit 142 may display the virtual object in the vicinity of the target object, or may display the virtual object superimposed on the target object. In the example of FIG. 6, an example is shown in which three virtual objects are associated with one target object. However, the number of virtual objects associated with one target object is arbitrary, and may be one or plural.

図5のステップS114において拡張現実感処理部142は、変数iが「0」である場合に、通常表示用画像NIの表示時間の計測を開始する。ステップS116において拡張現実感処理部142は、変数iに「1」をセットする。その後、拡張現実感処理部142は、ステップS102へ処理を遷移させ、上述した処理を繰り返す。   In step S114 of FIG. 5, the augmented reality processing unit 142 starts measuring the display time of the normal display image NI when the variable i is “0”. In step S116, the augmented reality processing unit 142 sets “1” to the variable i. Thereafter, the augmented reality processing unit 142 shifts the processing to step S102 and repeats the above-described processing.

以上のように、通常表示処理(図5)において通常表示処理部144は、HMD100の利用者に対して、拡張現実感を与えるための仮想オブジェクトVO1〜VO3を含む虚像VIを、画像表示部20に表示させることができる。通常表示処理において表示される仮想オブジェクトVO1〜VO3は、利用者の仮想オブジェクトの視認性を優先した、換言すれば、視認性阻害度が高い「第1の表示態様」である。   As described above, in the normal display process (FIG. 5), the normal display processing unit 144 displays the virtual image VI including the virtual objects VO <b> 1 to VO <b> 3 for giving augmented reality to the user of the HMD 100. Can be displayed. The virtual objects VO <b> 1 to VO <b> 3 displayed in the normal display process give priority to the visibility of the virtual object of the user, in other words, the “first display mode” having a high degree of visibility inhibition.

A−2−3.簡易表示処理:
図7は、簡易表示処理の手順を示すフローチャートである。簡易表示処理は、第2の表示態様での仮想オブジェクトを表す虚像を画像表示部20に形成させるための処理である。簡易表示処理は、簡易表示状態ST2(図4)において、拡張現実感処理部142からの指示に基づいて開始され、簡易表示処理部146によって実行される。
A-2-3. Simple display processing:
FIG. 7 is a flowchart showing the procedure of the simple display process. The simple display process is a process for causing the image display unit 20 to form a virtual image representing a virtual object in the second display mode. The simple display process is started based on an instruction from the augmented reality processing unit 142 in the simple display state ST2 (FIG. 4), and is executed by the simple display processing unit 146.

ステップS200において簡易表示処理部146は、通常表示処理(図5)のステップS114において開始した、通常表示用画像NIの表示時間の計測を終了する。簡易表示処理部146は、計測した表示時間を、既存のデーター区別可能な態様で過去維持時間122に記憶させる。   In step S200, the simple display processing unit 146 ends the measurement of the display time of the normal display image NI started in step S114 of the normal display process (FIG. 5). The simple display processing unit 146 stores the measured display time in the past maintenance time 122 in a manner in which existing data can be distinguished.

ステップS202において簡易表示処理部146は、簡易表示態様126(第2の表示態様において採用される具体的な表示態様)を取得する。ステップS202およびS206において簡易表示処理部146は、取得した簡易表示態様126の値を参照する。   In step S202, the simple display processing unit 146 acquires the simple display mode 126 (specific display mode employed in the second display mode). In steps S202 and S206, the simple display processing unit 146 refers to the acquired value of the simple display mode 126.

図8は、非表示の一例を示す説明図である。図7において、簡易表示態様126が「非表示」であることを示している場合(ステップS202:非表示)、ステップS204において簡易表示処理部146は、通常表示用画像NI(図6)を非表示とする。具体的には、簡易表示処理部146は、以下に例示するb1〜b4のいずれかの方法を用いて、通常表示用画像NIを非表示とすることができる。   FIG. 8 is an explanatory diagram showing an example of non-display. In FIG. 7, when the simple display mode 126 indicates “non-display” (step S202: non-display), in step S204, the simple display processing unit 146 hides the normal display image NI (FIG. 6). Display. Specifically, the simple display processing unit 146 can hide the normal display image NI by using any of the methods b1 to b4 exemplified below.

(b1)仮想オブジェクトを突然消す:
簡易表示処理部146は、各仮想オブジェクトVO1〜VO3を突然消す態様で、通常表示用画像NIを非表示とする。具体的には、簡易表示処理部146は、画像処理部160への通常表示用画像NIの送信を停止する。または、簡易表示処理部146は、表示制御部190に対して表示駆動部(LCDまたはバックライト)の駆動を停止させる旨の要求を送信する。これにより、画像表示部20による通常表示用画像NIを表す虚像VIの表示が中止される。
(B1) Erase the virtual object suddenly:
The simple display processing unit 146 hides the normal display image NI in such a manner that the virtual objects VO1 to VO3 are suddenly erased. Specifically, the simple display processing unit 146 stops transmission of the normal display image NI to the image processing unit 160. Alternatively, the simple display processing unit 146 transmits a request to the display control unit 190 to stop driving the display driving unit (LCD or backlight). Thereby, the display of the virtual image VI representing the normal display image NI by the image display unit 20 is stopped.

(b2)仮想オブジェクトを枠外へフェードアウトさせる:
簡易表示処理部146は、各仮想オブジェクトVO1〜VO3を画像の枠外へフェードアウトさせる態様で、通常表示用画像NIを非表示とする。具体的には、簡易表示処理部146は、各仮想オブジェクトVO1〜VO3が、通常表示用画像NIの枠外へフェードアウトしている途中の通常表示用画像の生成と、生成した画像の画像処理部160への送信と、を繰り返せばよい。これにより、図8に示すように、処理が繰り返される毎に、仮想オブジェクトの位置は画像の枠外(図8において矢印で示す方向)に向かって徐々に移動する。この結果、利用者には、仮想オブジェクトが枠外に向かって段階的に消えていくように見えるため、表示態様の変化に伴って利用者に与える違和感を低減させることができる。
(B2) Fade out the virtual object out of the frame:
The simple display processing unit 146 causes the virtual objects VO1 to VO3 to fade out of the frame of the image and hides the normal display image NI. Specifically, the simple display processing unit 146 generates the normal display image while each of the virtual objects VO1 to VO3 fades out of the frame of the normal display image NI, and the image processing unit 160 of the generated image. It is only necessary to repeat transmission to. Thereby, as shown in FIG. 8, each time the process is repeated, the position of the virtual object gradually moves toward the outside of the frame of the image (the direction indicated by the arrow in FIG. 8). As a result, the virtual object appears to the user as it disappears step by step toward the outside of the frame, so that it is possible to reduce the uncomfortable feeling given to the user as the display mode changes.

(b3)仮想オブジェクトの透過率を上げてフェードアウトさせる:
簡易表示処理部146は、各仮想オブジェクトVO1〜VO3の透過率を徐々に上げてフェードアウトさせる態様で、通常表示用画像NIを非表示とする。具体的には、簡易表示処理部146は、各仮想オブジェクトVO1〜VO3のドットをn個(nは任意の整数)抜いた通常表示用画像の生成と、生成した画像の画像処理部160への送信と、を繰り返せばよい。これにより、処理が繰り返される毎に、仮想オブジェクトのドットがn個ずつ減っていく。この結果、利用者には、仮想オブジェクトの透過率が上がって段階的に消えていくように見えるため、表示態様の変化に伴って利用者に与える違和感を低減させることができる。なお、簡易表示処理部146は、仮想オブジェクトのドットを抜く代わりに、仮想オブジェクトのドットを黒ドットと置き換えてもよく、仮想オブジェクトを輪郭だけ表示した仮想オブジェクトに置き換えてもよく、通常表示用画像NIのα値を上げてもよく、通常表示用画像NIの彩度を下げてもよい。
(B3) Increase the transparency of the virtual object to fade out:
The simple display processing unit 146 hides the normal display image NI in a mode of fading out by gradually increasing the transmittance of each of the virtual objects VO1 to VO3. Specifically, the simple display processing unit 146 generates a normal display image obtained by removing n dots (n is an arbitrary integer) from each of the virtual objects VO1 to VO3, and outputs the generated image to the image processing unit 160. The transmission may be repeated. Thus, each time the process is repeated, n dots of the virtual object are reduced by n. As a result, since it seems to the user that the transparency of the virtual object increases and disappears in stages, it is possible to reduce the uncomfortable feeling given to the user as the display mode changes. The simple display processing unit 146 may replace the dots of the virtual object with black dots instead of extracting the dots of the virtual object, or may replace the virtual object with a virtual object that displays only the outline. The α value of NI may be increased, and the saturation of the normal display image NI may be decreased.

(b4)仮想オブジェクトの透過率を上げつつ、枠外へフェードアウトさせる:
方法b2と方法b3との組み合わせである。これにより、処理が繰り返される毎に、仮想オブジェクトのドットがn個ずつ減ると共に、仮想オブジェクトの位置は画像の枠外(図8において矢印で示す方向)に向かって徐々に移動していく。この結果、利用者には、仮想オブジェクトの透過率が上がりつつ、仮想オブジェクトが枠外に向かって段階的に消えていくように見えるため、表示態様の変化に伴って利用者に与える違和感を低減させることができる。
(B4) Fading out of the frame while increasing the transparency of the virtual object:
It is a combination of method b2 and method b3. As a result, each time the process is repeated, n dots of the virtual object are reduced by n, and the position of the virtual object gradually moves out of the frame of the image (in the direction indicated by the arrow in FIG. 8). As a result, the transparency of the virtual object is increased for the user, and the virtual object seems to disappear step by step toward the outside of the frame, thereby reducing the uncomfortable feeling given to the user as the display mode changes. be able to.

図9は、端部アイコン表示の一例を示す説明図である。図7において、簡易表示態様126が「端部アイコン表示」であることを示している場合(ステップS202:その他、ステップS206:端部アイコン表示)、ステップS210において簡易表示処理部146は、通常表示用画像NI(図6)に表示されている各仮想オブジェクトVO1〜VO3に対応する1つまたは複数のアイコン画像を取得する。簡易表示処理部146は、アイコン画像を、HMD100内の図示しないデータベースから取得してもよく、HMD100にネットワークを介して接続されている他の装置(サーバー等)内の図示しないデータベースから取得してもよい。アイコン画像は、仮想オブジェクトと1対1の関係で対応付けられていてもよいし、1対多、多対1の関係で対応付けられていてもよい。   FIG. 9 is an explanatory diagram illustrating an example of the end icon display. In FIG. 7, when the simple display mode 126 indicates “end part icon display” (step S202: other, step S206: end part icon display), in step S210, the simple display processing part 146 displays the normal display. One or a plurality of icon images corresponding to the respective virtual objects VO1 to VO3 displayed in the image NI (FIG. 6) are acquired. The simple display processing unit 146 may acquire an icon image from a database (not shown) in the HMD 100, or may acquire an icon image from a database (not shown) in another device (such as a server) connected to the HMD 100 via a network. Also good. The icon image may be associated with the virtual object in a one-to-one relationship, or may be associated in a one-to-many or many-to-one relationship.

ステップS212において簡易表示処理部146は、ステップS210で取得した全てのアイコン画像を端部に配置し、簡易表示用画像を生成する。ここで「端部」とは、上下左右どこでもよい。ただし、情報受容能力に優れる有効視野である水平約30°、垂直約20°の範囲内、または、注視点が迅速に安定して見える安定注視野である水平60°〜90°、垂直45°〜70°の範囲内を避けることが好ましい。また、簡易表示処理部146は、簡易表示用画像のうち、アイコン画像が配置されていない領域については、画像が表示された際における外景SCの視認性を向上させるために、黒色のデーターを配置する。   In step S212, the simple display processing unit 146 arranges all the icon images acquired in step S210 at the end, and generates a simple display image. Here, the “end portion” may be anywhere up, down, left, or right. However, the effective field of view with excellent information receiving ability is within the range of about 30 ° horizontal and about 20 ° vertical, or the stable field of view where the gazing point looks stable quickly is horizontal 60 ° to 90 °, vertical 45 °. It is preferable to avoid within the range of ~ 70 °. In addition, the simple display processing unit 146 arranges black data for the area where the icon image is not arranged in the simple display image in order to improve the visibility of the outside scene SC when the image is displayed. To do.

ステップS240において簡易表示処理部146は、通常表示用画像NI(図6)に代えて、生成した簡易表示用画像を表示させる。この結果、図9に示すように、利用者は、視野VRにおいて、仮想オブジェクト(アイコン画像)VO4,VO5が含まれた簡易表示用画像SIを表す虚像VIを視認することができる。また、利用者は、虚像VIの背後の外景SCにおいて、仮想オブジェクトVO4,VO5が装飾する対象オブジェクト(実オブジェクト)を視認することができる。   In step S240, the simple display processing unit 146 displays the generated simple display image instead of the normal display image NI (FIG. 6). As a result, as shown in FIG. 9, the user can visually recognize the virtual image VI representing the simple display image SI including the virtual objects (icon images) VO4 and VO5 in the visual field VR. Further, the user can visually recognize the target object (real object) decorated by the virtual objects VO4 and VO5 in the outside scene SC behind the virtual image VI.

図9の例では、対象オブジェクトは、図6と同様に、作業現場に置かれているテーブルカッターである。また、仮想オブジェクトVO4は、地図のアイコン画像であり、仮想オブジェクトVO5は、マニュアルのアイコン画像である。仮想オブジェクトVO4は、仮想オブジェクトVO1に対応付けられている。仮想オブジェクトVO5は、仮想オブジェクトVO2およびVO3に対応付けられている。仮想オブジェクトVO4,VO5は、共に、簡易表示用画像SIの右下端部に配置されている。   In the example of FIG. 9, the target object is a table cutter placed at the work site, as in FIG. The virtual object VO4 is a map icon image, and the virtual object VO5 is a manual icon image. The virtual object VO4 is associated with the virtual object VO1. Virtual object VO5 is associated with virtual objects VO2 and VO3. The virtual objects VO4 and VO5 are both arranged at the lower right corner of the simple display image SI.

図10は、近傍アイコン表示の一例を示す説明図である。図7において、簡易表示態様126が「近傍アイコン表示」であることを示している場合(ステップS202:その他、ステップS206:近傍アイコン表示)、ステップS220において簡易表示処理部146は、通常表示用画像NI(図6)に表示されている各仮想オブジェクトVO1〜VO3に対応する1つまたは複数のアイコン画像を取得する。詳細は、ステップS210と同様である。   FIG. 10 is an explanatory diagram illustrating an example of the vicinity icon display. In FIG. 7, when the simple display mode 126 indicates “neighbor icon display” (step S202: other, step S206: neighborhood icon display), in step S220, the simple display processing unit 146 displays the normal display image. One or a plurality of icon images corresponding to the virtual objects VO1 to VO3 displayed on the NI (FIG. 6) are acquired. Details are the same as in step S210.

ステップS222において簡易表示処理部146は、カメラ61に外景画像を取得させる。ステップS224において簡易表示処理部146は、取得した外景画像から、対象オブジェクトの特徴を抽出する。詳細は、図5のステップS104と同様である。ステップS226において簡易表示処理部146は、対象オブジェクトの位置と、距離とを取得する。詳細は、図5のステップS106と同様である。   In step S222, the simple display processing unit 146 causes the camera 61 to acquire an outside scene image. In step S224, the simple display processing unit 146 extracts features of the target object from the acquired outside scene image. Details are the same as step S104 in FIG. In step S226, the simple display processing unit 146 acquires the position and distance of the target object. Details are the same as step S106 of FIG.

ステップS228において簡易表示処理部146は、対象オブジェクトの位置および距離に合わせてアイコン画像を配置して、簡易表示用画像を生成する。具体的には、簡易表示処理部146は、ステップS220で取得したアイコン画像を、ステップS226で取得した対象オブジェクトの距離に合わせた大きさに加工し、ステップS226で取得した対象オブジェクトの位置に合わせた位置(近傍)に配置する。また、簡易表示処理部146は、簡易表示用画像のうち、アイコン画像が配置されていない領域については、画像が表示された際における外景SCの視認性を向上させるために、黒色のデーターを配置する。   In step S228, the simple display processing unit 146 arranges icon images according to the position and distance of the target object, and generates a simple display image. Specifically, the simple display processing unit 146 processes the icon image acquired in step S220 into a size that matches the distance of the target object acquired in step S226, and matches the position of the target object acquired in step S226. Placed in the vicinity (near). In addition, the simple display processing unit 146 arranges black data for the area where the icon image is not arranged in the simple display image in order to improve the visibility of the outside scene SC when the image is displayed. To do.

ステップS240において簡易表示処理部146は、通常表示用画像NI(図6)に代えて、生成した簡易表示用画像を表示させる。この結果、図10に示すように、利用者は、視野VRにおいて、仮想オブジェクト(アイコン画像)VO4,VO5が含まれた簡易表示用画像SIを表す虚像VIを視認することができる。図10の例では、対象オブジェクト、および、仮想オブジェクトVO4,VO5は、図9と同様である。図10が図9と相違する点は、仮想オブジェクトが簡易表示用画像の端部ではなく、対象オブジェクト(実オブジェクト)の近傍に配置されている点である。   In step S240, the simple display processing unit 146 displays the generated simple display image instead of the normal display image NI (FIG. 6). As a result, as shown in FIG. 10, the user can visually recognize the virtual image VI representing the simple display image SI including the virtual objects (icon images) VO4 and VO5 in the visual field VR. In the example of FIG. 10, the target object and the virtual objects VO4 and VO5 are the same as those in FIG. FIG. 10 is different from FIG. 9 in that the virtual object is arranged in the vicinity of the target object (real object), not the end of the simple display image.

図11は、強調表示の一例を示す説明図である。図7において、簡易表示態様126が「強調表示」であることを示している場合(ステップS202:その他、ステップS206:強調表示)、ステップS230において簡易表示処理部146は、カメラ61に外景画像を取得させる。ステップS232において136は、取得した外景画像から、対象オブジェクトの特徴を抽出する。詳細は、図5のステップS104と同様である。ステップS234において簡易表示処理部146は、対象オブジェクトの位置と、距離とを取得する。詳細は、図5のステップS106と同様である。   FIG. 11 is an explanatory diagram illustrating an example of highlight display. In FIG. 7, when the simple display mode 126 indicates “highlighted display” (step S202: other, step S206: highlighted display), the simple display processing unit 146 displays an outside scene image on the camera 61 in step S230. Get it. In step S232, 136 extracts features of the target object from the acquired outside scene image. Details are the same as step S104 in FIG. In step S234, the simple display processing unit 146 acquires the position and distance of the target object. Details are the same as step S106 of FIG.

ステップS236において簡易表示処理部146は、対象オブジェクトの装飾用画像を生成する。具体的には、簡易表示処理部146は、ステップS232で特定した対象オブジェクトの特徴と、ステップS234で取得した対象オブジェクトの位置と距離とに応じて、対象オブジェクトの少なくとも一部分を装飾するための画像を生成する。ここで、「装飾」とは、強調することを意味する。このため、「装飾するための画像」とは、対象オブジェクトの少なくとも一部分が発光(点灯、点滅含む)しているように見せるための画像や、対象オブジェクトの少なくとも一部分を縁取るための画像や、対象オブジェクトの少なくとも一部分を浮き出して見せるための画像等を意味する。   In step S236, the simple display processing unit 146 generates a decoration image of the target object. Specifically, the simple display processing unit 146 decorates at least a part of the target object according to the characteristics of the target object specified in step S232 and the position and distance of the target object acquired in step S234. Is generated. Here, “decoration” means emphasis. For this reason, an “image for decoration” refers to an image for making at least a part of the target object appear to emit light (including lighting and blinking), an image for bordering at least a part of the target object, It means an image or the like for raising and showing at least a part of the target object.

ステップS238において簡易表示処理部146は、対象オブジェクトの位置および距離に合わせて、ステップS236で生成した装飾用画像を配置して、簡易表示用画像を生成する。また、簡易表示処理部146は、簡易表示用画像のうち、装飾用画像が配置されていない領域については、画像が表示された際における外景SCの視認性を向上させるために、黒色のデーターを配置する。   In step S238, the simple display processing unit 146 arranges the decoration image generated in step S236 in accordance with the position and distance of the target object, and generates a simple display image. In addition, the simple display processing unit 146 adds black data to the area where the decoration image is not arranged in the simple display image in order to improve the visibility of the outside scene SC when the image is displayed. Deploy.

ステップS240において簡易表示処理部146は、通常表示用画像NI(図6)に代えて、生成した簡易表示用画像を表示させる。この結果、図11に示すように、利用者は、視野VRにおいて、仮想オブジェクト(装飾用画像)VO6が含まれた簡易表示用画像SIを表す虚像VIを視認することができる。   In step S240, the simple display processing unit 146 displays the generated simple display image instead of the normal display image NI (FIG. 6). As a result, as shown in FIG. 11, the user can visually recognize the virtual image VI representing the simple display image SI including the virtual object (decorative image) VO6 in the visual field VR.

図11の例では、対象オブジェクト(実オブジェクト)は、図6と同様に、作業現場に置かれているテーブルカッターである。また、仮想オブジェクトVO6は、テーブルカッターの一部分、すなわち、刃の部分を強調するための装飾用画像である。   In the example of FIG. 11, the target object (real object) is a table cutter placed on the work site, as in FIG. The virtual object VO6 is a decorative image for emphasizing a part of the table cutter, that is, a blade part.

図7のステップS240が終了した後、簡易表示処理部146は、ステップS202へ処理を遷移させ、上述した処理を繰り返す。   After step S240 in FIG. 7 ends, the simple display processing unit 146 shifts the process to step S202 and repeats the above-described process.

以上のように、簡易表示処理(図7)において、簡易表示処理部146が「端部アイコン表示」と、「近傍アイコン表示」と、「強調表示」と、のうちのいずれかである場合、簡易表示処理部146は、HMD100の利用者に対して、拡張現実感を与えるための仮想オブジェクトVO4〜VO6を含む虚像VIを、画像表示部20に表示させることができる。簡易表示処理において表示される仮想オブジェクトVO4〜VO6は、利用者の外景の視認性を優先した、換言すれば、視認性阻害度が低い「第2の表示態様」である。   As described above, in the simple display process (FIG. 7), when the simple display processing unit 146 is any one of “end part icon display”, “neighbor icon display”, and “highlight display”, The simple display processing unit 146 can cause the image display unit 20 to display a virtual image VI including virtual objects VO4 to VO6 for giving augmented reality to the user of the HMD 100. The virtual objects VO4 to VO6 displayed in the simple display process give priority to the visibility of the outside scene of the user, in other words, the “second display mode” having a low visibility inhibition degree.

以上のように、簡易表示処理(図7)によれば、第1の表示態様の仮想オブジェクト(図6、VO1〜VO3)と比較して、虚像VIに占める仮想オブジェクトの面積が小さい(視認性阻害度が低い)第2の表示態様の仮想オブジェクト(図8、図9、図10、図11、VO4〜VO6)を用いて、第1の表示態様での仮想オブジェクトの内容を示唆することができる。   As described above, according to the simple display process (FIG. 7), the area of the virtual object occupied in the virtual image VI is small (visibility) compared to the virtual objects of the first display mode (FIG. 6, VO1 to VO3). Using the virtual object (FIGS. 8, 9, 10, 11, and VO4 to VO6) of the second display mode with a low degree of inhibition may suggest the contents of the virtual object in the first display mode. it can.

なお、上述した端部アイコン表示、近傍アイコン表示、強調表示の各説明において、通常表示用画像NI(図6)と簡易表示用画像SI(図9、図10、図11)との遷移は、突然行われるものとした。しかし、通常表示用画像NIから簡易表示用画像SIへの遷移は、徐々に行ってもよい。具体的には、ステップS204の方法b2〜b4と同様の方法を用いることができる。このようにすれば、利用者には、通常表示用画像NIが段階的に簡易表示用画像SIへ変化するように見えるため、表示態様の変化に伴って利用者に与える違和感を低減させることができる。   In each of the descriptions of the end icon display, the neighborhood icon display, and the highlight display described above, the transition between the normal display image NI (FIG. 6) and the simple display image SI (FIGS. 9, 10, and 11) is as follows. It was supposed to happen suddenly. However, the transition from the normal display image NI to the simple display image SI may be performed gradually. Specifically, a method similar to the methods b2 to b4 in step S204 can be used. In this way, since the normal display image NI appears to the user to gradually change to the simple display image SI, it is possible to reduce the uncomfortable feeling given to the user as the display mode changes. it can.

また、上述した端部アイコン表示、近傍アイコン表示の各説明において、仮想オブジェクトVO4,VO5は、アイコン画像であるとした。また、強調表示の説明において、仮想オブジェクトVO6は、図形画像であるとした。しかし、これら第2の表示態様での仮想オブジェクトは、必ずしもアイコン画像や図形画像でなくともよい。第2の表示態様での仮想オブジェクトは、第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の内容を示唆する文字と、図形と、絵柄と、記号と、または、これらの組み合わせとからなる限りにおいて、任意の態様を採用することができる。例えば、第2の表示態様での仮想オブジェクトは、単なる文字列であってもよいし、単なる記号であってもよいし、絵柄と文字列との組み合わせであってもよい。   Further, in each description of the end icon display and the neighborhood icon display described above, it is assumed that the virtual objects VO4 and VO5 are icon images. In the description of the highlight display, the virtual object VO6 is assumed to be a graphic image. However, the virtual object in the second display mode is not necessarily an icon image or a graphic image. The virtual object in the second display mode is a character, a figure, a pattern, a symbol, or a combination thereof that suggests the content of the virtual object (VO1, VO1 to VO3) in the first display mode. As long as it consists of, arbitrary aspects can be employ | adopted. For example, the virtual object in the second display mode may be a simple character string, a simple symbol, or a combination of a picture and a character string.

以降では、拡張現実感処理において拡張現実感処理部142が実施する、遷移条件1〜3の成立の監視の手順について説明する。   Hereinafter, a procedure for monitoring the establishment of transition conditions 1 to 3 performed by the augmented reality processing unit 142 in the augmented reality processing will be described.

A−2−4.遷移条件1の成立の監視:
図12は、遷移条件1の成立の監視の手順を示すフローチャートである。拡張現実感処理部142には、以下に列挙する条件1−1〜1−5のうちの少なくともいずれか1つ(複数でもよい)が、遷移条件1として予め設定されている。拡張現実感処理部142は、設定されている条件(1−1〜1−5)のうちの、少なくともいずれか1つが成立した場合に、遷移条件1が成立したと判定する。
A-2-4. Monitoring the establishment of transition condition 1:
FIG. 12 is a flowchart showing a procedure for monitoring whether the transition condition 1 is satisfied. In the augmented reality processing unit 142, at least one of a plurality of conditions 1-1 to 1-5 listed below (may be plural) is preset as the transition condition 1. The augmented reality processing unit 142 determines that the transition condition 1 is satisfied when at least one of the set conditions (1-1 to 1-5) is satisfied.

(1−1)利用者の視界内に、仮想オブジェクトの表示対象である実オブジェクトが入った場合
(1−2)利用者による注目動作が、過去の拡張現実感処理における基準時間の統計値以上、継続された場合
(1−3)利用者による注目動作が、仮想オブジェクトの情報量から求めた時間以上、継続された場合
(1−4)利用者による注目動作が、利用者によって設定された設定値以上、継続された場合
(1−5)利用者による注目動作が、利用者の個人差と仮想オブジェクトの情報量とを考慮して求めた時間以上、継続された場合
(1-1) When a real object that is a display target of a virtual object is in the user's field of view (1-2) The attention action by the user is greater than or equal to the statistical value of the reference time in past augmented reality processing When continued (1-3) When the attention action by the user is continued for more than the time obtained from the information amount of the virtual object (1-4) The attention action by the user is set by the user When continued for more than the set value (1-5) When the user's attention movement continues for more than the time determined in consideration of the individual difference of the user and the information amount of the virtual object

以降、拡張現実感処理部142が条件1−1〜1−5の成立を判定するための具体的な手順について、図12を用いて説明する。   Hereinafter, a specific procedure for the augmented reality processing unit 142 to determine whether the conditions 1-1 to 1-5 are satisfied will be described with reference to FIG.

(1−1)CASE(視界内):利用者の視界内に、仮想オブジェクトの表示対象である実オブジェクトが入った場合 (1-1) CASE (in view): When a real object that is a display target of a virtual object enters in the user's view

ステップS310において拡張現実感処理部142は、カメラ61を用いて外景画像を取得する。ステップS312において拡張現実感処理部142は、取得した外景画像を画像認識することで、外景画像に仮想オブジェクトの表示対象である実オブジェクトが含まれているか否かを判定する。この「仮想オブジェクトの表示対象である実オブジェクト」は、通常表示処理(図5)における「対象オブジェクト」となる。   In step S <b> 310, the augmented reality processing unit 142 acquires an outside scene image using the camera 61. In step S312, the augmented reality processing unit 142 recognizes the acquired outside scene image, and determines whether the outside scene image includes a real object that is a display target of the virtual object. The “real object that is the display target of the virtual object” is the “target object” in the normal display process (FIG. 5).

対象オブジェクトが含まれている場合(ステップS312:YES)、ステップS314において拡張現実感処理部142は、遷移条件1が成立したと判定する。なお、対象オブジェクトが含まれていない場合、拡張現実感処理部142は、条件1−1〜1−5の成立を引き続き監視する。   When the target object is included (step S312: YES), in step S314, the augmented reality processing unit 142 determines that the transition condition 1 is satisfied. When the target object is not included, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 1-1 to 1-5.

このように、条件1−1を用いれば、拡張現実感処理部142は、仮想オブジェクトの表示対象である実オブジェクト(対象オブジェクト)が利用者の視界内に入った場合に、遷移条件1が成立したと判定し、拡張現実感処理の状態(図4)を、初期状態から通常表示状態ST1へと遷移させることができる。この結果、通常表示処理部144による通常表示処理(図5)が実行され、HMD100は、第1の表示状態での仮想オブジェクトを含む虚像VI(図6)を利用者に視認させることができる。   As described above, when the condition 1-1 is used, the augmented reality processing unit 142 satisfies the transition condition 1 when the real object (target object) that is the display target of the virtual object enters the user's field of view. The state of augmented reality processing (FIG. 4) can be transitioned from the initial state to the normal display state ST1. As a result, the normal display processing (FIG. 5) by the normal display processing unit 144 is executed, and the HMD 100 can make the user visually recognize the virtual image VI (FIG. 6) including the virtual object in the first display state.

(1−2)CASE(過去基準時間):利用者による注目動作が、過去の拡張現実感処理における基準時間の統計値以上、継続された場合 (1-2) CASE (past reference time): When the user's attention movement continues for more than the statistical value of the reference time in past augmented reality processing

ステップS320において拡張現実感処理部142は、利用者による注目動作(利用者が特定の1点を注目する動作)の開始を検出する。本実施形態では、視線取得部(視線検出部62およびCPU140の拡張現実感処理部142)によって取得された利用者の視線が、所定時間以上に亘ってある1点から動かない場合に、注目動作が開始されたと判定することができる。所定時間とは任意に定めることができる。また、「ある1点から動いたか否か」の判定においては、眼球振盪に起因する視線のぶれを考慮して、所定の範囲内のぶれを許容することが好ましい。なお、動き検出部(カメラ61およびCPU140の拡張現実感処理部142)によって取得された利用者の手の動きが、所定時間以上に亘ってある1点から動かない場合に、注目動作が開始されたと判定してもよい。この場合も、「ある1点から動いたか否か」の判定において、手ぶれを考慮して、所定の範囲内のぶれを許容することが好ましい。   In step S320, the augmented reality processing unit 142 detects the start of the attention operation (operation in which the user pays attention to a specific point) by the user. In the present embodiment, when the user's line of sight acquired by the line-of-sight acquisition unit (the line-of-sight detection unit 62 and the augmented reality processing unit 142 of the CPU 140) does not move from a certain point for a predetermined time or more, the attention action Can be determined to have started. The predetermined time can be arbitrarily determined. Further, in determining whether or not it has moved from a certain point, it is preferable to allow blurring within a predetermined range in consideration of blurring of the line of sight caused by eyeball shaking. Note that the attention movement is started when the movement of the user's hand acquired by the movement detection unit (the camera 61 and the augmented reality processing unit 142 of the CPU 140) does not move from one point over a predetermined time. It may be determined that Also in this case, it is preferable to allow blurring within a predetermined range in consideration of camera shake in the determination of “whether or not it has moved from a certain point”.

ステップS322において拡張現実感処理部142は、過去基準時間124に記憶されている、過去の拡張現実感処理において使用された基準時間(以降、「過去の基準時間」とも呼ぶ。)の履歴を、他の利用者の履歴も含めて、全て取得する。なお、ステップS322において拡張現実感処理部142は「基準時間取得部」として機能し、過去基準時間124は「基準時間情報」として機能する。   In step S322, the augmented reality processing unit 142 stores the history of the reference time used in the past augmented reality processing stored in the past reference time 124 (hereinafter also referred to as “past reference time”). Acquire all, including the history of other users. In step S322, the augmented reality processing unit 142 functions as a “reference time acquisition unit”, and the past reference time 124 functions as “reference time information”.

ステップS324において拡張現実感処理部142は、取得した履歴を用いて、過去の基準時間の統計値を求める。統計値は、任意の統計的手法によって求めることができ、例えば、平均値、最頻値、中央値等とすることができる。拡張現実感処理部142は、求めた統計値を「今回の処理で使用する基準時間」とする。   In step S324, the augmented reality processing unit 142 obtains a statistical value of the past reference time using the acquired history. The statistical value can be obtained by any statistical method, and can be, for example, an average value, a mode value, a median value, or the like. The augmented reality processing unit 142 sets the obtained statistical value as “a reference time used in the current process”.

ステップS326において拡張現実感処理部142は、ステップS320から検出を開始した利用者の注目動作の継続時間が、今回の処理で使用する基準時間(ステップS324の統計値)以上となったか否かを判定する。   In step S326, the augmented reality processing unit 142 determines whether or not the duration of the attention operation of the user who has started detection from step S320 is equal to or longer than the reference time used in the current process (statistic value in step S324). judge.

統計値以上となった場合(ステップS326:YES)、ステップS328において拡張現実感処理部142は、遷移条件1が成立したと判定する。そして、拡張現実感処理部142は、ステップS320から検出を開始した実際の利用者の注目動作の継続時間と、第1の表示態様での仮想オブジェクトの情報量と、利用者の識別子と、を過去基準時間124に記憶させる。第1の表示態様での仮想オブジェクトの情報量の求め方は、ステップS332で説明する。   If the value is equal to or greater than the statistical value (step S326: YES), the augmented reality processing unit 142 determines in step S328 that the transition condition 1 is satisfied. Then, the augmented reality processing unit 142 obtains the duration of the attention operation of the actual user who started the detection from step S320, the information amount of the virtual object in the first display mode, and the identifier of the user. It is stored in the past reference time 124. A method for obtaining the information amount of the virtual object in the first display mode will be described in step S332.

さらに、ステップS328において拡張現実感処理部142は、注目動作の対象となった実オブジェクトを特定する。具体的には、拡張現実感処理部142は、ステップS320によって検出された利用者の視線の方向と、カメラ61によって得られた外景画像とを照合することによって、注目動作の対象となった実オブジェクトを特定することができる。この「注目動作の対象となった実オブジェクト」は、通常表示処理(図5)および簡易表示処理(図7)における「対象オブジェクト」となる。なお、ステップS320において利用者の手の動きを用いる場合、拡張現実感処理部142は、カメラ61によって得られた外景画像を画像解析し、利用者の手(例えば指先)によって示されているオブジェクトを、注目動作の対象となった実オブジェクトとしてもよい。   Further, in step S328, the augmented reality processing unit 142 identifies the real object that is the target of the attention motion. Specifically, the augmented reality processing unit 142 collates the direction of the user's line of sight detected in step S320 with the outside scene image obtained by the camera 61, so that An object can be specified. The “real object that is the target of the target action” is the “target object” in the normal display process (FIG. 5) and the simple display process (FIG. 7). In addition, when using a user's hand movement in step S320, the augmented reality processing unit 142 performs image analysis on the outside scene image obtained by the camera 61, and an object indicated by the user's hand (for example, a fingertip). May be a real object that is the target of the attention motion.

なお、統計値以上となる前に注目動作が終了した場合、拡張現実感処理部142は、条件1−1〜1−5の成立を引き続き監視する。   Note that, when the notable action ends before reaching the statistical value or more, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 1-1 to 1-5.

このように、条件1−2を用いれば、拡張現実感処理部142は、過去の拡張現実感処理で使用された基準時間(過去の基準時間)の統計値、すなわち、過去の基準時間の傾向に基づいて、自動的に、現在の拡張現実感処理で使用する基準時間を変更することができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件1が成立したと判定し、拡張現実感処理の状態(図4)を、初期状態から通常表示状態ST1へと遷移させることができる。   As described above, when the condition 1-2 is used, the augmented reality processing unit 142 causes the statistical value of the reference time (past reference time) used in the past augmented reality processing, that is, the tendency of the past reference time. Based on the above, it is possible to automatically change the reference time used in the current augmented reality processing. The augmented reality processing unit 142 determines that the transition condition 1 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality. The state of the feeling process (FIG. 4) can be changed from the initial state to the normal display state ST1.

(1−3)CASE(情報量):利用者による注目動作が、仮想オブジェクトの情報量から求めた時間以上、継続された場合 (1-3) CASE (amount of information): When the user's attention movement is continued for a time determined from the amount of information of the virtual object or more

ステップS330において拡張現実感処理部142は、利用者による注目動作の開始を検出する。詳細は、ステップS320と同様である。   In step S330, the augmented reality processing unit 142 detects the start of the attention motion by the user. Details are the same as in step S320.

ステップS332において拡張現実感処理部142は、仮想オブジェクトの情報量を取得する。具体的には、拡張現実感処理部142は、ステップS320において検出された、注目動作の対象となった実オブジェクト(すなわち、対象オブジェクト)を特定する。詳細は、ステップS326と同様である。拡張現実感処理部142は、特定した対象オブジェクトに対応する1つまたは複数の仮想オブジェクト(第1の表示態様の仮想オブジェクト)を取得する。詳細は、図5のステップS108と同様である。拡張現実感処理部142は、取得した1つまたは複数の仮想オブジェクトの情報量を求める。拡張現実感処理部142は、仮想オブジェクトの情報量を、例えば、以下に例示するc1〜c3のいずれかの方法を用いて求めることができる。仮想オブジェクトが複数取得された場合は、複数の平均値を情報量としてもよいし、複数の合計値を情報量としてもよい。   In step S332, the augmented reality processing unit 142 acquires the information amount of the virtual object. Specifically, the augmented reality processing unit 142 identifies the real object (that is, the target object) that is detected in step S320 and is the target of the attention motion. The details are the same as in step S326. The augmented reality processing unit 142 acquires one or more virtual objects (virtual objects in the first display mode) corresponding to the identified target object. Details are the same as step S108 in FIG. The augmented reality processing unit 142 obtains the information amount of the acquired one or more virtual objects. The augmented reality processing unit 142 can obtain the information amount of the virtual object using, for example, any one of the methods c1 to c3 exemplified below. When a plurality of virtual objects are acquired, a plurality of average values may be used as the information amount, or a plurality of total values may be used as the information amount.

(c1)仮想オブジェクトのファイルサイズ:拡張現実感処理部142は、仮想オブジェクトが文字と画像との結合である場合や、仮想オブジェクトが映像である場合や、仮想オブジェクトの種類が不明である場合において、方法c1を採用することが好ましい。
(c2)仮想オブジェクトに含まれる文字数:拡張現実感処理部142は、仮想オブジェクトが文字である場合に、方法c2を採用することが好ましい。
(c3)仮想オブジェクトを二値化した際の黒色ドットの割合:拡張現実感処理部142は、仮想オブジェクトが画像である場合に、方法c3を採用することが好ましい。
(C1) Virtual object file size: The augmented reality processing unit 142 is used when the virtual object is a combination of a character and an image, when the virtual object is a video, or when the type of the virtual object is unknown. It is preferable to adopt the method c1.
(C2) Number of characters included in the virtual object: The augmented reality processing unit 142 preferably employs the method c2 when the virtual object is a character.
(C3) Ratio of black dots when binarizing a virtual object: The augmented reality processing unit 142 preferably adopts the method c3 when the virtual object is an image.

上述した方法c1〜c3を使い分ければ、拡張現実感処理部142は、第1の表示態様での仮想オブジェクトの種類に適した方法で仮想オブジェクトの情報量を求めることができるため、より正確に仮想オブジェクトの情報量を把握することができる。   If the methods c1 to c3 described above are properly used, the augmented reality processing unit 142 can obtain the information amount of the virtual object by a method suitable for the type of the virtual object in the first display mode. The information amount of the virtual object can be grasped.

ステップS334において拡張現実感処理部142は、ステップS332で取得した仮想オブジェクトの情報量から、今回の処理で使用する基準時間の閾値を求める。閾値は、任意の方法で求めることができ、例えば、情報量に所定の係数を乗じて閾値としてもよいし、情報量の候補と閾値の候補とを対応付けたテーブルを用いて閾値を求めてもよい。拡張現実感処理部142は、求めた閾値を「今回の処理で使用する基準時間」とする。   In step S334, the augmented reality processing unit 142 obtains a threshold value of the reference time used in the current process from the information amount of the virtual object acquired in step S332. The threshold value can be obtained by an arbitrary method. For example, the threshold value may be obtained by multiplying the information amount by a predetermined coefficient, or the threshold value may be obtained using a table in which information amount candidates and threshold candidates are associated with each other. Also good. The augmented reality processing unit 142 sets the obtained threshold as “a reference time used in the current process”.

ステップS336において拡張現実感処理部142は、ステップS330から検出を開始した利用者の注目動作の継続時間が、今回の処理で使用する基準時間(ステップS334の閾値)以上となったか否かを判定する。   In step S336, the augmented reality processing unit 142 determines whether or not the duration of the attention operation of the user who has started detection from step S330 is equal to or longer than the reference time used in the current process (the threshold in step S334). To do.

閾値以上となった場合(ステップS336:YES)、ステップS338において拡張現実感処理部142は、遷移条件1が成立したと判定する。遷移条件1成立後の処理(過去基準時間124への記憶、注目動作の対象となった実オブジェクトの特定)は、ステップS328と同様である。なお、閾値以上となる前に注目動作が終了した場合、拡張現実感処理部142は、条件1−1〜1−5の成立を引き続き監視する。   When the threshold value is exceeded (step S336: YES), the augmented reality processing unit 142 determines in step S338 that the transition condition 1 is satisfied. The processing after the transition condition 1 is satisfied (stored in the past reference time 124 and identification of the real object that is the target of the target action) is the same as in step S328. Note that, when the notable action ends before the threshold value is exceeded, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 1-1 to 1-5.

このように、条件1−3を用いれば、拡張現実感処理部142は、虚像VIに占める面積が大きな(視認性阻害度が高い)第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の情報量に基づいて、現在の拡張現実感処理で使用する基準時間を変更することができる。このようにすれば、拡張現実感処理部142は、例えば、第1の表示態様での仮想オブジェクトの情報量が多い場合、換言すれば、初期状態から第1の表示態様への遷移に伴う仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりやすい場合の基準時間を、情報量が少ない場合の基準時間よりも長くすることもできるため、利用者の利便性を向上させることができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件1が成立したと判定し、拡張現実感処理の状態(図4)を通常表示状態ST1へと遷移させることができる。   As described above, using Condition 1-3, the augmented reality processing unit 142 uses the virtual object (FIG. 6, VO1 to VO1) in the first display mode in which the area occupied in the virtual image VI is large (the degree of visibility inhibition is high). Based on the information amount of VO3), the reference time used in the current augmented reality processing can be changed. In this way, the augmented reality processing unit 142, for example, when the information amount of the virtual object in the first display mode is large, in other words, the virtual reality associated with the transition from the initial state to the first display mode. Since the reference time when the display of the object tends to hinder the visual recognition of the real object can be made longer than the reference time when the amount of information is small, the convenience for the user can be improved. The augmented reality processing unit 142 determines that the transition condition 1 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality. The state of the feeling process (FIG. 4) can be changed to the normal display state ST1.

(1−4)CASE(利用者の設定):利用者による注目動作が、利用者によって設定された設定値以上、継続された場合 (1-4) CASE (user setting): When the user's attention action continues for more than the set value set by the user

ステップS340において拡張現実感処理部142は、利用者による注目動作の開始を検出する。詳細は、ステップS320と同様である。   In step S340, the augmented reality processing unit 142 detects the start of the attention motion by the user. Details are the same as in step S320.

ステップS342において拡張現実感処理部142は、基準時間設定125に記憶されている、利用者が設定した基準時間の設定値を取得する。なお、ステップS342において拡張現実感処理部142は「基準時間取得部」として機能する。拡張現実感処理部142は、取得した設定値を「今回の処理で使用する基準時間」とする。   In step S342, the augmented reality processing unit 142 acquires the set value of the reference time set by the user and stored in the reference time setting 125. In step S342, the augmented reality processing unit 142 functions as a “reference time acquisition unit”. The augmented reality processing unit 142 sets the acquired setting value as “a reference time used in the current process”.

ステップS344において拡張現実感処理部142は、ステップS340から検出を開始した利用者の注目動作の継続時間が、今回の処理で使用する基準時間(ステップS342の設定値)以上となったか否かを判定する。   In step S344, the augmented reality processing unit 142 determines whether or not the duration of the attention operation of the user who has started detection from step S340 is equal to or longer than the reference time used in the current process (set value in step S342). judge.

設定値以上となった場合(ステップS344:YES)、ステップS346において拡張現実感処理部142は、遷移条件1が成立したと判定する。遷移条件1成立後の処理(過去基準時間124への記憶、注目動作の対象となった実オブジェクトの特定)は、ステップS328と同様である。なお、設定値以上となる前に注目動作が終了した場合、拡張現実感処理部142は、条件1−1〜1−5の成立を引き続き監視する。   If it is equal to or greater than the set value (step S344: YES), the augmented reality processing unit 142 determines in step S346 that the transition condition 1 is satisfied. The processing after the transition condition 1 is satisfied (stored in the past reference time 124 and identification of the real object that is the target of the target action) is the same as in step S328. Note that if the notable action ends before the set value is exceeded, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 1-1 to 1-5.

このように、条件1−4を用いれば、拡張現実感処理部142は、基準時間設定125に記憶されている利用者の好みの設定値に応じて、現在の拡張現実感処理で使用する基準時間を変更することができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件1が成立したと判定し、拡張現実感処理の状態(図4)を、初期状態から通常表示状態ST1へと遷移させることができる。   As described above, when the condition 1-4 is used, the augmented reality processing unit 142 uses the reference value used in the current augmented reality processing according to the user's favorite setting value stored in the reference time setting 125. You can change the time. The augmented reality processing unit 142 determines that the transition condition 1 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality. The state of the feeling process (FIG. 4) can be changed from the initial state to the normal display state ST1.

(1−5)CASE(利用者の個人差):利用者による注目動作が、利用者の個人差と仮想オブジェクトの情報量とを考慮して求めた時間以上、継続された場合 (1-5) CASE (individual difference among users): When the attention movement by the user is continued for more than the time determined in consideration of the individual difference between the users and the amount of information of the virtual object.

ステップS350において拡張現実感処理部142は、利用者による注目動作の開始を検出する。詳細は、ステップS320と同様である。   In step S350, the augmented reality processing unit 142 detects the start of the attention motion by the user. Details are the same as in step S320.

ステップS352において拡張現実感処理部142は、過去基準時間124に記憶されている過去の拡張現実感処理において使用された基準時間の履歴から、現在のHMD100の利用者についての履歴を取得する。拡張現実感処理部142は、利用者の識別子をキーとして過去基準時間124を検索すればよい。なお、ステップS322において拡張現実感処理部142は「基準時間取得部」として機能する。   In step S <b> 352, the augmented reality processing unit 142 acquires the history of the current user of the HMD 100 from the history of the reference time used in the past augmented reality processing stored in the past reference time 124. The augmented reality processing unit 142 may search the past reference time 124 using the user identifier as a key. In step S322, the augmented reality processing unit 142 functions as a “reference time acquisition unit”.

ステップS354において拡張現実感処理部142は、取得した履歴の「情報量」を「注目動作の継続時間」で除することで、HMD100の利用者が単位時間あたりに注目することのできる情報量を求める。次に拡張現実感処理部142は、第1の表示態様での仮想オブジェクトの情報量を、求めた情報量(単位時間あたりに注目することのできる情報量)で除することで、理想基準時間を求める。拡張現実感処理部142は、求めた理想基準時間を「今回の処理で使用する基準時間」とする。なお、第1の表示態様での仮想オブジェクトの情報量の求め方は、ステップS332と同様である。   In step S354, the augmented reality processing unit 142 divides the “information amount” of the acquired history by the “duration of attention operation”, thereby obtaining an information amount that the user of the HMD 100 can focus on per unit time. Ask. Next, the augmented reality processing unit 142 divides the information amount of the virtual object in the first display mode by the obtained information amount (information amount that can be noticed per unit time), thereby obtaining the ideal reference time. Ask for. The augmented reality processing unit 142 sets the obtained ideal reference time as “a reference time used in the current process”. The method for obtaining the information amount of the virtual object in the first display mode is the same as that in step S332.

ステップS356において拡張現実感処理部142は、ステップS320から検出を開始した利用者の注目動作の継続時間が、今回の処理で使用する基準時間(ステップS354の理想基準時間)以上となったか否かを判定する。   In step S356, the augmented reality processing unit 142 determines whether or not the duration of the attention operation of the user who has started detection from step S320 is equal to or longer than the reference time used in the current process (ideal reference time in step S354). Determine.

理想基準時間以上となった場合(ステップS356:YES)、ステップS358において拡張現実感処理部142は、遷移条件1が成立したと判定する。遷移条件1成立後の処理(過去基準時間124への記憶、注目動作の対象となった実オブジェクトの特定)は、ステップS328と同様である。なお、理想基準時間以上となる前に注目動作が終了した場合、拡張現実感処理部142は、条件1−1〜1−5の成立を引き続き監視する。   If it is equal to or longer than the ideal reference time (step S356: YES), in step S358, the augmented reality processing unit 142 determines that the transition condition 1 is satisfied. The processing after the transition condition 1 is satisfied (stored in the past reference time 124 and identification of the real object that is the target of the target action) is the same as in step S328. Note that, when the attention operation ends before the ideal reference time is reached, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 1-1 to 1-5.

このように、条件1−5を用いれば、拡張現実感処理部142は、基準時間情報(過去基準時間124)を用いて、利用者が単位時間当たりに注目することのできる情報量を求めることができる。このため、拡張現実感処理部142は、例えば、求めた情報量(利用者が単位時間当たりに注目することのできる情報量)と、第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の情報量と、に基づいて、現在の拡張現実感処理で使用する基準時間を変更することができる。このようにすれば、拡張現実感処理部142は、例えば、利用者が単位時間あたりに注目することのできる情報量が少ない場合、換言すれば、初期状態から第1の表示態様への遷移に伴う仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりやすい場合の基準時間を、情報量が多い場合の基準時間よりも長くすることができる。この結果、拡張現実感処理部142は、利用者の個人差に応じて基準時間を変更することができるため、利用者の利便性を向上させることができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件1が成立したと判定し、拡張現実感処理の状態(図4)を、初期状態から通常表示状態ST1へと遷移させることができる。   As described above, using Condition 1-5, the augmented reality processing unit 142 uses the reference time information (past reference time 124) to obtain the amount of information that the user can focus on per unit time. Can do. For this reason, the augmented reality processing unit 142, for example, obtains the obtained information amount (the information amount that the user can pay attention to per unit time) and the virtual object (FIG. 6, VO1 to VO1) in the first display mode. The reference time used in the current augmented reality processing can be changed based on the information amount of VO3). In this way, the augmented reality processing unit 142, for example, when there is a small amount of information that can be noticed per unit time by the user, in other words, transitions from the initial state to the first display mode. The reference time when the accompanying virtual object display tends to hinder the real object can be made longer than the reference time when the amount of information is large. As a result, the augmented reality processing unit 142 can change the reference time according to individual differences among users, and thus can improve user convenience. The augmented reality processing unit 142 determines that the transition condition 1 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality. The state of the feeling process (FIG. 4) can be changed from the initial state to the normal display state ST1.

以上のように、拡張現実感処理(遷移条件1の成立に伴う、初期状態から通常表示状態ST1への遷移)によれば、拡張現実感処理部142は、所定の基準時間に亘る注目動作の継続に応じて、少なくとも注目動作のなされた実オブジェクト(対象オブジェクト)について、第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)を含んだ虚像VI(NI)を画像表示部20に形成させる。このようにして、注目動作の継続という利用者の意図によって仮想オブジェクトを表示させるため、利用者は、注目動作を継続して行わない限り、現実世界に実在する実オブジェクトを視認しやすい状態を維持することができる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置(HMD100)を提供することができる。   As described above, according to the augmented reality processing (transition from the initial state to the normal display state ST1 when the transition condition 1 is established), the augmented reality processing unit 142 performs the attention motion over a predetermined reference time. In response to the continuation, at least for the real object (target object) on which the target action has been performed, the virtual image VI (NI) including the virtual objects (FIG. 6, VO1 to VO3) in the first display mode is displayed on the image display unit 20. Let it form. In this way, the virtual object is displayed according to the user's intention to continue the attention movement, so that the user can easily see the real object in the real world unless the attention movement is continued. can do. As a result, it is possible to provide the head-mounted display device (HMD 100) in which the display of the virtual object is unlikely to hinder the visual recognition of the real object or its background.

さらに、拡張現実感処理(遷移条件1の成立の監視)によれば、拡張現実感処理部142は、張現実感処理が開始された後、虚像VIに占める仮想オブジェクトVO1〜VO3の面積が大きな(視認性阻害度が高い)第1の表示態様(図6)へと表示態様を遷移させるための基準時間を、例えば、条件1−2〜1−5に列挙したような、種々の条件に応じて変更することができる。   Furthermore, according to the augmented reality processing (monitoring of the establishment of transition condition 1), the augmented reality processing unit 142 has a large area of the virtual objects VO1 to VO3 occupying the virtual image VI after the augmented reality processing is started. The reference time for transitioning the display mode to the first display mode (FIG. 6) (with a high degree of visibility inhibition) is set to various conditions such as those listed in Conditions 1-2 to 1-5, for example. It can be changed accordingly.

さらに、拡張現実感処理(遷移条件1の成立の監視)において、視線取得部(視線検出部62およびCPU140の拡張現実感処理部142)によって取得された利用者の視線を用いることとすれば、利用者は、手や足を動かさずに視線を用いて注目動作を行うことが可能となる。このため、利用者が手を離すことが困難である作業中等の場面においても、利用者は、簡単に注目動作を行うことができる。また、拡張現実感処理(遷移条件1の成立の監視)において、動き検出部(カメラ61およびCPU140の拡張現実感処理部142)によって取得された利用者の手の動きを用いることとすれば、利用者は、普段の動作において慣れた手の動きを用いて、簡単に注目動作を行うことが可能となる。   Furthermore, in the augmented reality process (monitoring of the establishment of the transition condition 1), if the user's line of sight acquired by the line-of-sight acquisition unit (the line-of-sight detection unit 62 and the augmented reality processing unit 142 of the CPU 140) is used, The user can perform the attention action using the line of sight without moving the hand or foot. For this reason, the user can easily perform the attention operation even in a scene such as during work where it is difficult for the user to release his / her hand. Further, in the augmented reality processing (monitoring of the establishment of the transition condition 1), if the movement of the user's hand acquired by the motion detection unit (the camera 61 and the augmented reality processing unit 142 of the CPU 140) is used, The user can easily perform the attention operation using the hand movement familiar in the normal operation.

A−2−5.遷移条件3の成立の監視:
遷移条件3の成立の監視の手順は、図12に示した遷移条件1とほぼ同じである。以降、相違点について説明する。拡張現実感処理部142には、以下に列挙する条件3−1〜3−5のうちの少なくともいずれか1つ(複数でもよい)が、遷移条件3として予め設定されている。拡張現実感処理部142は、設定されている条件(3−1〜3−5)のうちの、少なくともいずれか1つが成立した場合に、遷移条件3が成立したと判定する。
A-2-5. Monitoring the establishment of transition condition 3:
The procedure for monitoring the establishment of the transition condition 3 is almost the same as the transition condition 1 shown in FIG. Hereinafter, differences will be described. In the augmented reality processing unit 142, at least one (or a plurality of) of the conditions 3-1 to 3-5 listed below may be set in advance as the transition condition 3. The augmented reality processing unit 142 determines that the transition condition 3 is satisfied when at least one of the set conditions (3-1 to 3-5) is satisfied.

(3−1)利用者の視界内に仮想オブジェクトの表示対象である実オブジェクトが入り、かつ、利用者が所定の動作を行った場合
(3−2)利用者による注目動作が、過去の拡張現実感処理における基準時間の統計値以上、継続された場合
(3−3)利用者による注目動作が、仮想オブジェクトの情報量から求めた時間以上、継続された場合
(3−4)利用者による注目動作が、利用者によって設定された設定値以上、継続された場合
(3−5)利用者による注目動作が、利用者の個人差と仮想オブジェクトの情報量とを考慮して求めた時間以上、継続された場合
(3-1) When a real object that is a display target of a virtual object enters the user's field of view and the user performs a predetermined action (3-2) The attention action by the user is a past extension When it is continued for more than the statistical value of the reference time in the realistic processing (3-3) When the attention action by the user is continued for more than the time obtained from the information amount of the virtual object (3-4) By the user When the attention movement continues for more than the set value set by the user (3-5) The time for which the attention movement by the user is longer than the time determined in consideration of the individual difference of the user and the information amount of the virtual object If continued

(3−1)利用者の視界内に仮想オブジェクトの表示対象である実オブジェクトが入り、かつ、利用者が所定の動作を行った場合 (3-1) When a real object that is a display target of a virtual object enters the user's field of view and the user performs a predetermined action

ステップS310、S312は図12と同様である。ステップS312において対象オブジェクトが含まれている場合(ステップS312:YES)、拡張現実感処理部142は、利用者によって所定の動作が行われたか否かを監視する。所定の動作としては、図4で説明した無効化アクションとは異なる動作である限りにおいて任意の動作を採用することができ、例えば、特定の「ジェスチャー」を採用することができる。ジェスチャーの取得方法は、無効化アクションの取得方法と同様である。所定の動作が行われた場合、ステップS314において拡張現実感処理部142は、遷移条件3が成立したと判定する。   Steps S310 and S312 are the same as in FIG. If the target object is included in step S312 (step S312: YES), the augmented reality processing unit 142 monitors whether or not a predetermined operation has been performed by the user. As the predetermined operation, an arbitrary operation can be adopted as long as the operation is different from the invalidation action described in FIG. 4. For example, a specific “gesture” can be adopted. The method for acquiring the gesture is the same as the method for acquiring the invalidation action. When the predetermined operation is performed, in step S314, the augmented reality processing unit 142 determines that the transition condition 3 is satisfied.

このように、条件3−1を用いれば、拡張現実感処理部142は、仮想オブジェクトの表示対象である実オブジェクト(対象オブジェクト)が利用者の視界内に入り、かつ、利用者が所定の動作を行った場合に、遷移条件3が成立したと判定し、拡張現実感処理の状態(図4)を、簡易表示状態ST2から通常表示状態ST1へと遷移させることができる。   As described above, when the condition 3-1 is used, the augmented reality processing unit 142 causes the real object (target object) that is the display target of the virtual object to enter the user's field of view, and the user performs a predetermined operation. When it is performed, it is determined that the transition condition 3 is satisfied, and the state of the augmented reality processing (FIG. 4) can be transitioned from the simple display state ST2 to the normal display state ST1.

(3−2)利用者による注目動作が、過去の拡張現実感処理における基準時間の統計値以上、継続された場合 (3-2) When attention movement by the user is continued for more than the statistical value of the reference time in the past augmented reality processing

ステップS320〜S326は図12と同様である。ステップS328において拡張現実感処理部142は、遷移条件3が成立したと判定後、過去基準時間124への記憶(ステップS328と同様)を実施する。その後、拡張現実感処理部142は、以下d1、d2いずれかの実オブジェクトを特定する。特定方法は、ステップS328と同様である。
(d1)注目動作の対象となった実オブジェクト
(d2)注目動作の対象となった第2の表示態様での仮想オブジェクトに対応付けられている実オブジェクト
Steps S320 to S326 are the same as those in FIG. In step S328, the augmented reality processing unit 142 performs storage in the past reference time 124 (similar to step S328) after determining that the transition condition 3 is satisfied. Thereafter, the augmented reality processing unit 142 specifies one of the real objects d1 and d2 below. The specifying method is the same as that in step S328.
(D1) Real object targeted for attention motion (d2) Real object associated with virtual object in second display mode targeted for attention motion

このように、条件3−2を用いれば、拡張現実感処理部142は、条件1−2と同様に、過去の基準時間の統計値(過去の基準時間)の傾向に基づいて、自動的に、現在の拡張現実感処理で使用する基準時間を変更することができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件3が成立したと判定し、拡張現実感処理の状態(図4)を、簡易表示状態ST2から通常表示状態ST1へと遷移させることができる。   As described above, using the condition 3-2, the augmented reality processing unit 142 automatically, based on the tendency of the statistical value of the past reference time (the past reference time), similarly to the condition 1-2. The reference time used in the current augmented reality processing can be changed. Further, the augmented reality processing unit 142 determines that the transition condition 3 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality The state of the feeling process (FIG. 4) can be changed from the simple display state ST2 to the normal display state ST1.

(3−3)利用者による注目動作が、仮想オブジェクトの情報量から求めた時間以上、継続された場合 (3-3) When the attention movement by the user is continued for more than the time obtained from the information amount of the virtual object

ステップS330、S334、S336は図12と同様である。ステップS332、S338については、「注目動作の対象となった実オブジェクト」との記載を「条件3−2で説明したd1、d2いずれかの実オブジェクト」と読み替えればよい。   Steps S330, S334, and S336 are the same as those in FIG. For Steps S332 and S338, the description “the real object that is the target of the action of interest” may be read as “the real object of either d1 or d2 described in Condition 3-2”.

このように、条件3−3を用いれば、拡張現実感処理部142は、条件1−3と同様に、虚像VIに占める面積が大きな(視認性阻害度が高い)第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の情報量に基づいて、現在の拡張現実感処理で使用する基準時間を変更することができる。このようにすれば、拡張現実感処理部142は、例えば、第1の表示態様での仮想オブジェクトの情報量が多い場合、換言すれば、第2の表示態様(図8、図9、図10、図11)から第1の表示態様への遷移に伴う仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりやすい場合の基準時間を、情報量が少ない場合の基準時間よりも長くすることもできるため、利用者の利便性を向上させることができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件3が成立したと判定し、拡張現実感処理の状態(図4)を、簡易表示状態ST2から通常表示状態ST1へと遷移させることができる。   As described above, when the condition 3-3 is used, the augmented reality processing unit 142 uses the first display mode in which the area occupied in the virtual image VI is large (the degree of visibility inhibition is high), similarly to the condition 1-3. Based on the information amount of the virtual object (FIG. 6, VO1 to VO3), the reference time used in the current augmented reality process can be changed. In this way, the augmented reality processing unit 142, for example, if the information amount of the virtual object in the first display mode is large, in other words, the second display mode (FIGS. 8, 9, and 10). , FIG. 11) The reference time when the display of the virtual object accompanying the transition from the first display mode is likely to hinder the real object is made longer than the reference time when the amount of information is small. Therefore, convenience for the user can be improved. Further, the augmented reality processing unit 142 determines that the transition condition 3 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality The state of the feeling process (FIG. 4) can be changed from the simple display state ST2 to the normal display state ST1.

(3−4)利用者による注目動作が、利用者によって設定された設定値以上、継続された場合 (3-4) When the user's attention movement continues for more than the set value set by the user

ステップS340〜S344は図12と同様である。ステップS346については、「注目動作の対象となった実オブジェクト」との記載を「条件3−2で説明したd1、d2いずれかの実オブジェクト」と読み替えればよい。   Steps S340 to S344 are the same as those in FIG. For step S346, the description “the real object that is the target of the action of interest” may be read as “the real object of either d1 or d2 described in Condition 3-2”.

このように、条件3−4を用いれば、拡張現実感処理部142は、条件1−4と同様に、基準時間設定125に記憶されている利用者の好みの設定値に応じて、現在の拡張現実感処理で使用する基準時間を変更することができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件3が成立したと判定し、拡張現実感処理の状態(図4)を、簡易表示状態ST2から通常表示状態ST1へと遷移させることができる。   As described above, when the condition 3-4 is used, the augmented reality processing unit 142, as in the condition 1-4, according to the user's favorite setting value stored in the reference time setting 125, The reference time used in augmented reality processing can be changed. Further, the augmented reality processing unit 142 determines that the transition condition 3 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality The state of the feeling process (FIG. 4) can be changed from the simple display state ST2 to the normal display state ST1.

(3−5)利用者による注目動作が、利用者の個人差と仮想オブジェクトの情報量とを考慮して求めた時間以上、継続された場合 (3-5) When the user's attention movement is continued for more than the time determined in consideration of the individual difference of the user and the information amount of the virtual object

ステップS350〜S356は図12と同様である。ステップS358については、「注目動作の対象となった実オブジェクト」との記載を「条件3−2で説明したd1、d2いずれかの実オブジェクト」と読み替えればよい。   Steps S350 to S356 are the same as those in FIG. In step S358, the description “the real object that is the target of the action of interest” may be read as “the real object of either d1 or d2 described in Condition 3-2”.

このように、条件3−5を用いれば、拡張現実感処理部142は、条件1−5と同様に、例えば、利用者が単位時間当たりに注目することのできる情報量と、第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の情報量と、に基づいて、現在の拡張現実感処理で使用する基準時間を変更することができる。このようにすれば、拡張現実感処理部142は、例えば、利用者が単位時間あたりに注目することのできる情報量が少ない場合、換言すれば、第2の表示態様(図8、図9、図10、図11)から第1の表示態様への遷移に伴う仮想オブジェクトの表示が、実オブジェクトを視認する際の妨げとなりやすい場合の基準時間を、情報量が多い場合の基準時間よりも長くすることができる。この結果、拡張現実感処理部142は、利用者の個人差に応じて基準時間を変更することができるため、利用者の利便性を向上させることができる。また、拡張現実感処理部142は、利用者の注目動作の継続時間が、現在の拡張現実感処理で使用する基準時間以上となった場合に、遷移条件3が成立したと判定し、拡張現実感処理の状態(図4)を、簡易表示状態ST2から通常表示状態ST1へと遷移させることができる。   As described above, when the condition 3-5 is used, the augmented reality processing unit 142, for example, in the same manner as the condition 1-5, the amount of information that the user can pay attention to per unit time, and the first display Based on the information amount of the virtual objects (VO1 to VO3 in FIG. 6) in the aspect, the reference time used in the current augmented reality processing can be changed. In this way, the augmented reality processing unit 142, for example, when the amount of information that the user can pay attention to per unit time is small, in other words, the second display mode (FIG. 8, FIG. 9, The reference time when the display of the virtual object accompanying the transition from the FIG. 10 and FIG. 11) to the first display mode is likely to hinder the real object is longer than the reference time when the amount of information is large. can do. As a result, the augmented reality processing unit 142 can change the reference time according to individual differences among users, and thus can improve user convenience. Further, the augmented reality processing unit 142 determines that the transition condition 3 is satisfied when the duration of the user's attention motion is equal to or longer than the reference time used in the current augmented reality processing, and augmented reality The state of the feeling process (FIG. 4) can be changed from the simple display state ST2 to the normal display state ST1.

以上のように、拡張現実感処理(遷移条件3の成立に伴う、簡易表示状態ST2から通常表示状態ST1への遷移)によれば、拡張現実感処理部142は、第2の表示態様での仮想オブジェクト(図8、図9、図10、図11、VO4〜VO6)を含んだ虚像VI(SI)を画像表示部20に形成させた後においては、実オブジェクト(上記d1)に加えて、第2の表示態様での仮想オブジェクト(上記d2)に対する所定の基準時間に亘る注目動作の継続に応じて、第2の表示態様よりも虚像に占める仮想オブジェクトの面積が大きい(視認性阻害度が高い)第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)を含んだ虚像VI(NI)を画像表示部20に形成させることができる。また、注目動作の継続という利用者の意図によって、第2の表示状態から第1の表示状態へと仮想オブジェクトの表示状態が遷移し、表示される虚像に占める仮想オブジェクトの面積が大きくなる(視認性阻害度が高くなる)ため、利用者は、注目動作を継続して行わない限り、現実世界に実在する実オブジェクトを視認しやすい状態を維持することができる。換言すれば、利用者は、自分の意図で仮想オブジェクトの視認性阻害度を制御することができる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置(HMD100)を提供することができる。   As described above, according to the augmented reality processing (transition from the simple display state ST2 to the normal display state ST1 due to the establishment of the transition condition 3), the augmented reality processing unit 142 performs the second display mode. After the virtual image VI (SI) including the virtual object (FIGS. 8, 9, 10, 11, VO4 to VO6) is formed on the image display unit 20, in addition to the real object (above d1), In accordance with the continuation of the attention movement over the predetermined reference time for the virtual object (d2) in the second display mode, the area of the virtual object occupying the virtual image is larger than the second display mode (visibility inhibition degree is low). A high virtual image VI (NI) including the virtual objects (VO1 to VO3 in FIG. 6) in the first display mode can be formed on the image display unit 20. Further, the display state of the virtual object transitions from the second display state to the first display state due to the user's intention to continue the attention motion, and the area of the virtual object occupied in the displayed virtual image increases (visual recognition). Therefore, the user can maintain a state in which a real object existing in the real world can be easily visually recognized unless the attention movement is continuously performed. In other words, the user can control the visibility obstruction degree of the virtual object with his / her intention. As a result, it is possible to provide the head-mounted display device (HMD 100) in which the display of the virtual object is unlikely to hinder the visual recognition of the real object or its background.

さらに、拡張現実感処理(遷移条件3の成立の監視)によれば、拡張現実感処理部142は、虚像VIに占める仮想オブジェクトVO4〜VO6の面積が小さな(視認性阻害度が低い)第2の表示態様(図8、図9、図10、図11)から、虚像VIに占める仮想オブジェクトVO1〜VO3の面積が大きな(視認性阻害度が高い)第1の表示態様(図6)へと表示態様を遷移させるための基準時間を、例えば、条件3−2〜3−5に列挙したような、種々の条件に応じて変更することができる。   Furthermore, according to the augmented reality processing (monitoring of the establishment of the transition condition 3), the augmented reality processing unit 142 is the second in which the areas of the virtual objects VO4 to VO6 occupying the virtual image VI are small (visibility inhibition degree is low). From the display mode (FIGS. 8, 9, 10, and 11) to the first display mode (FIG. 6) in which the areas of the virtual objects VO1 to VO3 occupying the virtual image VI are large (visibility inhibition is high). The reference time for changing the display mode can be changed according to various conditions such as those listed in Conditions 3-2 to 3-5.

A−2−6.遷移条件2の成立の監視:
図13は、遷移条件2の成立の監視の手順を示すフローチャートである。拡張現実感処理部142には、以下に列挙する条件2−1〜2−5のうちの少なくともいずれか1つ(複数でもよい)が、遷移条件2として予め設定されている。拡張現実感処理部142は、設定されている条件(2−1〜2−5)のうちの、少なくともいずれか1つが成立した場合に、遷移条件2が成立したと判定する。
A-2-6. Monitoring the establishment of transition condition 2:
FIG. 13 is a flowchart showing a procedure for monitoring whether the transition condition 2 is satisfied. In the augmented reality processing unit 142, at least one (or more) of the conditions 2-1 to 2-5 listed below may be set in advance as the transition condition 2. The augmented reality processing unit 142 determines that the transition condition 2 is satisfied when at least one of the set conditions (2-1 to 2-5) is satisfied.

(2−1)利用者の視界内から、仮想オブジェクトの表示対象である実オブジェクトが外れた場合
(2−2)第1の表示態様での仮想オブジェクトの表示後、過去の拡張現実感処理における維持時間の統計値以上の時間が経過した場合
(2−3)第1の表示態様での仮想オブジェクトの表示後、仮想オブジェクトの情報量から求めた時間以上の時間が経過した場合
(2−4)第1の表示態様での仮想オブジェクトの表示後、利用者によって設定された設定値以上の時間が経過した場合
(2−5)第1の表示態様での仮想オブジェクトの表示後、利用者の個人差と仮想オブジェクトの情報量とを考慮して求めた時間以上の時間が経過した場合
(2-1) When a real object that is a display target of a virtual object is out of the user's field of view (2-2) After displaying the virtual object in the first display mode, in past augmented reality processing When the time equal to or longer than the statistical value of the maintenance time has elapsed (2-3) After the virtual object is displayed in the first display mode, when the time more than the time obtained from the information amount of the virtual object has elapsed (2-4) ) When a time longer than the set value set by the user has elapsed after displaying the virtual object in the first display mode (2-5) After displaying the virtual object in the first display mode, When more than the time calculated considering the individual difference and the amount of information of the virtual object has passed

以降、拡張現実感処理部142が条件2−1〜2−5の成立を判定するための具体的な手順について、図13を用いて説明する。   Hereinafter, a specific procedure for the augmented reality processing unit 142 to determine whether the conditions 2-1 to 2-5 are satisfied will be described with reference to FIG.

(2−1)CASE(視界外):利用者の視界から、仮想オブジェクトの表示対象である実オブジェクトが外れた場合 (2-1) CASE (out of sight): When the real object that is the display target of the virtual object is out of the user's sight

ステップS410において拡張現実感処理部142は、カメラ61を用いて外景画像を取得する。ステップS412において拡張現実感処理部142は、取得した外景画像を画像認識することで、外景画像に第1の表示態様で表示している仮想オブジェクトについての実オブジェクトが含まれているか否かを判定する。この「仮想オブジェクトの表示対象である実オブジェクト」は、簡易表示処理(図7)における「対象オブジェクト」となる。   In step S <b> 410, the augmented reality processing unit 142 acquires an outside scene image using the camera 61. In step S412, the augmented reality processing unit 142 recognizes the acquired outside scene image to determine whether the outside object includes a real object for the virtual object displayed in the first display mode. To do. The “real object that is the display target of the virtual object” becomes the “target object” in the simple display process (FIG. 7).

対象オブジェクトが含まれていない場合(ステップS412:NO)、ステップS414において拡張現実感処理部142は、遷移条件2が成立したと判定する。なお、対象オブジェクトが含まれている場合、拡張現実感処理部142は、条件2−1〜2−5の成立を引き続き監視する。   When the target object is not included (step S412: NO), in step S414, the augmented reality processing unit 142 determines that the transition condition 2 is satisfied. When the target object is included, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 2-1 to 2-5.

このように、条件2−1を用いれば、拡張現実感処理部142は、第1の表示態様で表示している仮想オブジェクトについての実オブジェクト(対象オブジェクト)が利用者の視界から外れた場合に、遷移条件2が成立したと判定し、拡張現実感処理の状態(図4)を、通常表示状態ST1から簡易表示状態ST2へと遷移させることができる。この結果、簡易表示処理部146による簡易表示処理(図7)が実行され、HMD100は、第2の表示態様での仮想オブジェクトを含む虚像VI(図8、図9、図10、図11)を利用者に視認させることができる。   As described above, when the condition 2-1 is used, the augmented reality processing unit 142 causes the real object (target object) of the virtual object displayed in the first display mode to be out of the user's view. Therefore, it is determined that the transition condition 2 is satisfied, and the state of the augmented reality processing (FIG. 4) can be transitioned from the normal display state ST1 to the simple display state ST2. As a result, the simple display processing (FIG. 7) is executed by the simple display processing unit 146, and the HMD 100 displays the virtual image VI (FIGS. 8, 9, 10, and 11) including the virtual object in the second display mode. It can be visually recognized by the user.

(2−2)CASE(過去維持時間):第1の表示態様での仮想オブジェクトの表示後、過去の拡張現実感処理における維持時間の統計値以上の時間が経過した場合 (2-2) CASE (Past maintenance time): When a time equal to or greater than the statistical value of the maintenance time in the past augmented reality processing has elapsed after the virtual object is displayed in the first display mode.

ステップS420において拡張現実感処理部142は、過去維持時間122に記憶されている、過去の拡張現実感処理において使用された維持時間(以降、「過去の維持時間」とも呼ぶ。)の履歴を、他の利用者の履歴も含めて、全て取得する。なお、ステップS420において拡張現実感処理部142は「維持時間取得部」として機能し、過去維持時間122は「維持時間情報」として機能する。   In step S <b> 420, the augmented reality processing unit 142 stores the history of the maintenance time used in the past augmented reality processing stored in the past maintenance time 122 (hereinafter, also referred to as “past maintenance time”). Acquire all, including the history of other users. In step S420, the augmented reality processing unit 142 functions as a “maintenance time acquisition unit”, and the past maintenance time 122 functions as “maintenance time information”.

ステップS422において拡張現実感処理部142は、取得した履歴を用いて、過去の維持時間の統計値を求める。統計値は、任意の統計的手法によって求めることができ、例えば、平均値、最頻値、中央値等とすることができる。拡張現実感処理部142は、求めた統計値を「今回の処理で使用する維持時間」とする。   In step S422, the augmented reality processing unit 142 obtains a statistical value of the past maintenance time using the acquired history. The statistical value can be obtained by any statistical method, and can be, for example, an average value, a mode value, a median value, or the like. The augmented reality processing unit 142 sets the obtained statistical value as “a maintenance time used in the current process”.

ステップS424において拡張現実感処理部142は、図5のステップS114から計測を開始している通常表示用画像NI(図6)の表示時間が、今回の処理で使用する維持時間(ステップS422の統計値)以上となったか否かを判定する。なお、通常表示用画像NI(図6)の表示時間とは、すなわち、第1の表示態様での仮想オブジェクトの表示時間と同義である。   In step S424, the augmented reality processing unit 142 determines that the display time of the normal display image NI (FIG. 6) whose measurement is started from step S114 in FIG. 5 is the maintenance time used in the current process (statistics in step S422). Value) or more. Note that the display time of the normal display image NI (FIG. 6) is synonymous with the display time of the virtual object in the first display mode.

統計値以上となった場合(ステップS424:YES)、ステップS426において拡張現実感処理部142は、遷移条件2が成立したと判定する。なお、表示時間が統計値より小さい場合、拡張現実感処理部142は、条件2−1〜2−5の成立を引き続き監視する。   If the value is equal to or greater than the statistical value (step S424: YES), in step S426, the augmented reality processing unit 142 determines that the transition condition 2 is satisfied. When the display time is smaller than the statistical value, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 2-1 to 2-5.

このように、条件2−2を用いれば、拡張現実感処理部142は、拡張現実感処理部142は、過去の拡張現実感処理で使用された維持時間(過去の維持時間)の統計値、すなわち、過去の維持時間の傾向に基づいて、自動的に、現在の拡張現実感処理で使用する維持時間を変更することができる。また、拡張現実感処理部142は、通常表示用画像NIの表示時間(第1の表示態様での仮想オブジェクトVO1〜VO3の表示時間)が、現在の拡張現実感処理で使用する維持時間以上となった場合に、遷移条件2が成立したと判定し、拡張現実感処理の状態(図4)を、通常表示状態ST1から簡易表示状態ST2へと遷移させることができる。   In this way, using the condition 2-2, the augmented reality processing unit 142, the augmented reality processing unit 142, the statistical value of the maintenance time (past maintenance time) used in the past augmented reality processing, That is, the maintenance time used in the current augmented reality process can be automatically changed based on the past maintenance time trend. Further, the augmented reality processing unit 142 has a display time of the normal display image NI (display time of the virtual objects VO1 to VO3 in the first display mode) equal to or longer than a maintenance time used in the current augmented reality processing. In this case, it is determined that the transition condition 2 is satisfied, and the state of the augmented reality processing (FIG. 4) can be transitioned from the normal display state ST1 to the simple display state ST2.

(2−3)CASE(情報量):第1の表示態様での仮想オブジェクトの表示後、仮想オブジェクトの情報量から求めた時間以上の時間が経過した場合 (2-3) CASE (information amount): When a time equal to or greater than the time obtained from the information amount of the virtual object has elapsed after the display of the virtual object in the first display mode

ステップS430において拡張現実感処理部142は、第1の表示態様で表示している仮想オブジェクトの情報量を取得する。仮想オブジェクトの情報量の取得方法については、図12のステップS332の方法c1〜c3と同様である。   In step S430, the augmented reality processing unit 142 acquires the information amount of the virtual object displayed in the first display mode. The method for acquiring the information amount of the virtual object is the same as the methods c1 to c3 in step S332 in FIG.

ステップS432において拡張現実感処理部142は、ステップS430で取得した仮想オブジェクトの情報量から、今回の処理で使用する維持時間の閾値を求める。閾値は、任意の方法で求めることができ、例えば、情報量に所定の係数(図12のステップS334とは異なる係数とする)を乗じて閾値としてもよいし、情報量の候補と閾値の候補とを対応付けたテーブル(図12のステップS334とは異なるテーブルとする)を用いて閾値を求めてもよい。拡張現実感処理部142は、求めた閾値を「今回の処理で使用する維持時間」とする。   In step S432, the augmented reality processing unit 142 obtains a threshold for the maintenance time used in the current process from the information amount of the virtual object acquired in step S430. The threshold value can be obtained by an arbitrary method. For example, the threshold value may be obtained by multiplying the information amount by a predetermined coefficient (a coefficient different from that in step S334 in FIG. 12), or the information amount candidate and the threshold candidate. And the threshold value may be obtained using a table that is associated with (a table different from step S334 in FIG. 12). The augmented reality processing unit 142 sets the obtained threshold as “a maintenance time used in the current process”.

ステップS434において拡張現実感処理部142は、図5のステップS114から計測を開始している通常表示用画像NI(図6)の表示時間が、今回の処理で使用する維持時間(ステップS432の閾値)以上となったか否かを判定する。   In step S434, the augmented reality processing unit 142 determines that the display time of the normal display image NI (FIG. 6) whose measurement is started from step S114 in FIG. 5 is the maintenance time used in the current process (threshold value in step S432). ) It is determined whether or not the above is reached.

閾値以上となった場合(ステップS434:YES)、ステップS436において拡張現実感処理部142は、遷移条件2が成立したと判定する。なお、表示時間が閾値より小さい場合、拡張現実感処理部142は、条件2−1〜2−5の成立を引き続き監視する。   When the threshold value is exceeded (step S434: YES), the augmented reality processing unit 142 determines in step S436 that the transition condition 2 is satisfied. When the display time is smaller than the threshold value, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 2-1 to 2-5.

このように、条件2−3を用いれば、拡張現実感処理部142は、虚像VIに占める面積が大きな(視認性阻害度が高い)第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の情報量に基づいて、現在の拡張現実感処理で使用する維持時間を変更することができる。このようにすれば、拡張現実感処理部142は、例えば、第1の表示態様での仮想オブジェクトの情報量が多い場合、換言すれば、利用者が仮想オブジェクトの内容の確認に多くの時間を要すると推定される場合の維持時間を、情報量が少ない場合の維持時間よりも長くすることもできるため、利用者の利便性を向上させることができる。また、拡張現実感処理部142は、第1の表示態様での仮想オブジェクトの表示時間が現在の拡張現実感処理で使用する維持時間以上となった場合に、遷移条件2が成立したと判定し、拡張現実感処理の状態(図4)を、通常表示状態ST1から簡易表示状態ST2へと遷移させることができる。   As described above, using the condition 2-3, the augmented reality processing unit 142 uses the virtual object (FIG. 6, VO1 to VO1) in the first display mode in which the area occupied in the virtual image VI is large (the degree of visibility inhibition is high). Based on the information amount of VO3), the maintenance time used in the current augmented reality processing can be changed. In this way, the augmented reality processing unit 142, for example, when the information amount of the virtual object in the first display mode is large, in other words, the user spends a lot of time checking the contents of the virtual object. Since the maintenance time when estimated to be necessary can be made longer than the maintenance time when the amount of information is small, the convenience for the user can be improved. Further, the augmented reality processing unit 142 determines that the transition condition 2 is satisfied when the display time of the virtual object in the first display mode is equal to or longer than the maintenance time used in the current augmented reality processing. The state of the augmented reality processing (FIG. 4) can be transitioned from the normal display state ST1 to the simple display state ST2.

(2−4)CASE(利用者の設定):第1の表示態様での仮想オブジェクトの表示後、利用者によって設定された設定値以上の時間が経過した場合 (2-4) CASE (user setting): After the display of the virtual object in the first display mode, a time longer than the setting value set by the user has elapsed.

ステップS440において拡張現実感処理部142は、維持時間設定123に記憶されている、利用者が設定した維持時間の設定値を取得する。なお、ステップS440において拡張現実感処理部142は「維持時間取得部」として機能する。拡張現実感処理部142は、取得した設定値を「今回の処理で使用する維持時間」とする。   In step S440, the augmented reality processing unit 142 acquires the set value of the maintenance time set by the user and stored in the maintenance time setting 123. In step S440, the augmented reality processing unit 142 functions as a “maintenance time acquisition unit”. The augmented reality processing unit 142 sets the acquired setting value as “maintenance time used in the current process”.

ステップS442において拡張現実感処理部142は、図5のステップS114から計測を開始している通常表示用画像NI(図6)の表示時間が、今回の処理で使用する維持時間(ステップS440の設定値)以上となったか否かを判定する。   In step S442, the augmented reality processing unit 142 determines that the display time of the normal display image NI (FIG. 6) whose measurement is started from step S114 in FIG. 5 is the maintenance time used in the current process (setting in step S440). Value) or more.

設定値以上となった場合(ステップS442:YES)、ステップS444において拡張現実感処理部142は、遷移条件2が成立したと判定する。なお、表示時間が設定値より小さい場合、拡張現実感処理部142は、条件2−1〜2−5の成立を引き続き監視する。   If it is equal to or greater than the set value (step S442: YES), in step S444, the augmented reality processing unit 142 determines that the transition condition 2 is satisfied. When the display time is smaller than the set value, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 2-1 to 2-5.

このように、条件2−3を用いれば、拡張現実感処理部142は、維持時間設定123に記憶されている利用者の好みの設定値に応じて、現在の拡張現実感処理で使用する維持時間を変更することができる。また、拡張現実感処理部142は、第1の表示態様での仮想オブジェクトの表示時間が現在の拡張現実感処理で使用する維持時間以上となった場合に、遷移条件2が成立したと判定し、拡張現実感処理の状態(図4)を、通常表示状態ST1から簡易表示状態ST2へと遷移させることができる。   In this way, using Condition 2-3, the augmented reality processing unit 142 maintains the current augmented reality processing used in the augmented reality processing according to the user's favorite setting value stored in the maintenance time setting 123. You can change the time. Further, the augmented reality processing unit 142 determines that the transition condition 2 is satisfied when the display time of the virtual object in the first display mode is equal to or longer than the maintenance time used in the current augmented reality processing. The state of the augmented reality processing (FIG. 4) can be transitioned from the normal display state ST1 to the simple display state ST2.

(2−5)CASE(利用者の個人差):第1の表示態様での仮想オブジェクトの表示後、利用者の個人差と仮想オブジェクトの情報量とを考慮して求めた時間以上の時間が経過した場合 (2-5) CASE (individual difference of user): After the virtual object is displayed in the first display mode, a time longer than the time determined in consideration of the individual difference of the user and the information amount of the virtual object When it has passed

ステップS450において拡張現実感処理部142は、過去維持時間122に記憶されている過去の拡張現実感処理において使用された維持時間の履歴から、現在のHMD100の利用者についての履歴を取得する。拡張現実感処理部142は、利用者の識別子をキーとして過去維持時間122を検索すればよい。なお、ステップS322において拡張現実感処理部142は「維持時間取得部」として機能し、過去維持時間122は「維持時間情報」として機能する。   In step S450, the augmented reality processing unit 142 acquires a history of the current user of the HMD 100 from the history of the maintenance time used in the past augmented reality processing stored in the past maintenance time 122. The augmented reality processing unit 142 may search the past maintenance time 122 using the user identifier as a key. In step S322, the augmented reality processing unit 142 functions as a “maintenance time acquisition unit”, and the past maintenance time 122 functions as “maintenance time information”.

ステップS452において拡張現実感処理部142は、取得した履歴の「情報量」を「維持時間」で除することで、HMD100の利用者が単位時間あたりに認識することのできる情報量を求める。次に拡張現実感処理部142は、第1の表示態様での仮想オブジェクトの情報量を、求めた情報量(単位時間あたりに認識することのできる情報量)で除することで、理想維持時間を求める。拡張現実感処理部142は、求めた理想維持時間を「今回の処理で使用する維持時間」とする。なお、仮想オブジェクトの情報量の取得方法については、図12のステップS332の方法c1〜c3と同様である。   In step S452, the augmented reality processing unit 142 divides the “information amount” of the acquired history by the “maintenance time” to obtain an information amount that can be recognized per unit time by the user of the HMD 100. Next, the augmented reality processing unit 142 divides the information amount of the virtual object in the first display mode by the obtained information amount (information amount that can be recognized per unit time), thereby obtaining the ideal maintenance time. Ask for. The augmented reality processing unit 142 sets the calculated ideal maintenance time as “maintenance time used in the current process”. The method for acquiring the information amount of the virtual object is the same as the methods c1 to c3 in step S332 in FIG.

ステップS454において拡張現実感処理部142は、図5のステップS114から計測を開始している通常表示用画像NI(図6)の表示時間が、今回の処理で使用する維持時間(ステップS452の理想維持時間)以上となったか否かを判定する。   In step S454, the augmented reality processing unit 142 determines that the display time of the normal display image NI (FIG. 6) whose measurement is started from step S114 of FIG. 5 is the maintenance time used in the current process (ideal of step S452). It is determined whether or not the maintenance time has been exceeded.

理想維持時間以上となった場合(ステップS454:YES)、ステップS456において拡張現実感処理部142は、遷移条件2が成立したと判定する。なお、表示時間が理想維持時間より小さい場合、拡張現実感処理部142は、条件2−1〜2−5の成立を引き続き監視する。   If it is equal to or longer than the ideal maintenance time (step S454: YES), the augmented reality processing unit 142 determines in step S456 that the transition condition 2 is satisfied. When the display time is smaller than the ideal maintenance time, the augmented reality processing unit 142 continues to monitor the establishment of the conditions 2-1 to 2-5.

このように、条件2−5を用いれば、拡張現実感処理部142は、維持時間情報(過去維持時間122)を用いて、利用者が単位時間あたりに認識することのできる情報量を求めることができる。このため、拡張現実感処理部142は、例えば、求めた情報量(利用者が単位時間あたりに認識することのできる情報量)と、第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)の情報量と、に基づいて、現在の拡張現実感処理で使用する維持時間を変更することができる。このようにすれば、拡張現実感処理部142は、例えば、利用者が単位時間あたりに認識することのできる情報量が少ない場合、換言すれば、利用者が第1の表示態様での仮想オブジェクトの内容の確認に多くの時間を要すると推定される場合の維持時間を、情報量が多い場合の維持時間よりも長くすることができる。この結果、拡張現実感処理部142は、利用者の個人差に応じて維持時間を変更することができるため、利用者の利便性を向上させることができる。また、拡張現実感処理部142は、第1の表示態様での仮想オブジェクトの表示時間が現在の拡張現実感処理で使用する維持時間以上となった場合に、遷移条件2が成立したと判定し、拡張現実感処理の状態(図4)を、通常表示状態ST1から簡易表示状態ST2へと遷移させることができる。   Thus, using Condition 2-5, the augmented reality processing unit 142 uses the maintenance time information (past maintenance time 122) to obtain the amount of information that the user can recognize per unit time. Can do. Therefore, the augmented reality processing unit 142, for example, obtains the obtained information amount (information amount that can be recognized per unit time by the user) and the virtual object (FIG. 6, VO1 to VO1) in the first display mode. The maintenance time used in the current augmented reality processing can be changed based on the information amount of VO3). In this way, the augmented reality processing unit 142, for example, when the amount of information that the user can recognize per unit time is small, in other words, the user can view the virtual object in the first display mode. The maintenance time when it is estimated that it takes a lot of time to confirm the contents of can be made longer than the maintenance time when the amount of information is large. As a result, the augmented reality processing unit 142 can change the maintenance time according to the individual difference of the user, so that the convenience of the user can be improved. Further, the augmented reality processing unit 142 determines that the transition condition 2 is satisfied when the display time of the virtual object in the first display mode is equal to or longer than the maintenance time used in the current augmented reality processing. The state of the augmented reality processing (FIG. 4) can be transitioned from the normal display state ST1 to the simple display state ST2.

以上のように、拡張現実感処理(遷移条件2の成立に伴う、通常表示状態ST1から簡易表示状態ST2への遷移)によれば、拡張現実感処理部142は、第1の表示態様での仮想オブジェクト(図6、VO1〜VO3)を含んだ虚像VI(NI)を画像表示部20に形成させた後、所定の維持時間の経過後に、第1の表示態様よりも虚像に占める仮想オブジェクトの面積が小さい(視認性阻害度が低い)第2の表示態様での仮想オブジェクト(図8、図9、図10、図11、VO4〜VO6)を含んだ虚像VI(SI)を画像表示部20に形成させる。このようにして、維持時間の経過後に自動的に、表示される虚像に占める仮想オブジェクトの面積が小さく(視認性阻害度が低下する)なるため、利用者は、現実世界に実在する実オブジェクトを視認しやすくなる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置(HMD100)を提供することができる。   As described above, according to the augmented reality processing (transition from the normal display state ST1 to the simplified display state ST2 when the transition condition 2 is satisfied), the augmented reality processing unit 142 is configured to display the first display mode. After the virtual image VI (NI) including the virtual object (FIG. 6, VO1 to VO3) is formed on the image display unit 20, the virtual object occupying the virtual image more than the first display mode after a predetermined maintenance time has elapsed. A virtual image VI (SI) including a virtual object (FIGS. 8, 9, 10, 11, and VO4 to VO6) in the second display mode having a small area (low visibility inhibition degree) is displayed on the image display unit 20. To form. In this way, since the area of the virtual object occupied in the displayed virtual image is automatically reduced after the maintenance time has elapsed (visibility impediment is reduced), the user can replace the real object that exists in the real world. Easy to see. As a result, it is possible to provide the head-mounted display device (HMD 100) in which the display of the virtual object is unlikely to hinder the visual recognition of the real object or its background.

さらに、拡張現実感処理(遷移条件2の成立の監視)によれば、拡張現実感処理部142は、虚像VIに占める仮想オブジェクトVO1〜VO3の面積が大きな(視認性阻害度が高い)第1の表示態様(図6)から、虚像VIに占める仮想オブジェクトVO4〜VO6の面積が小さな(視認性阻害度が低い)第2の表示態様(図8、図9、図10、図11)へと表示態様を遷移させるための維持時間を、例えば、条件2−2〜2−5に列挙したような、種々の条件に応じて変更することができる。   Furthermore, according to the augmented reality processing (monitoring of the establishment of the transition condition 2), the augmented reality processing unit 142 has a large area of the virtual objects VO1 to VO3 occupying the virtual image VI (the degree of visibility inhibition is high). From the display mode (FIG. 6) to the second display mode (FIGS. 8, 9, 10, and 11) in which the areas of the virtual objects VO4 to VO6 occupying the virtual image VI are small (visibility inhibition is low). The maintenance time for changing the display mode can be changed according to various conditions such as those listed in Conditions 2-2 to 2-5.

B.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
B. Variations:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used. (V) The control unit and the image display unit are connected by connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth, and the connection unit (code) is connected. Abolished aspect. In this case, power supply to the control unit or the image display unit may be performed wirelessly.

例えば、上記実施形態で例示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、上記実施形態では、制御部が送信部を備え、画像表示部が受信部を備えるものとしたが、送信部および受信部はいずれも、双方向通信が可能な機能を備えており、送受信部として機能してもよい。また、例えば、制御部が備えるとした操作用インターフェイス(各種キーやトラックパッド等)の一部を省略してもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。例えば、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, the configurations of the control unit and the image display unit exemplified in the above embodiment can be arbitrarily changed. Specifically, for example, in the above embodiment, the control unit includes the transmission unit and the image display unit includes the reception unit. However, both the transmission unit and the reception unit have a function capable of bidirectional communication. It may be provided and may function as a transmission / reception unit. Further, for example, a part of an operation interface (such as various keys and a trackpad) provided in the control unit may be omitted. The control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives an input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. For example, although the secondary battery is used as the power source, the power source is not limited to the secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

図14は、変形例におけるHMDの外観の構成を示す説明図である。図14(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め上にそれぞれ配置されている。図14(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は利用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が利用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が利用者の眼を完全に覆わない態様のHMDとして実現することもできる。   FIG. 14 is an explanatory diagram showing an external configuration of the HMD in the modification. 14A, the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and a left optical image display unit 28x instead of the left optical image display unit 28. I have. The right optical image display unit 26x and the left optical image display unit 28x are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the right eye and the left eye of the user when the HMD is worn. . 14B, the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and a left optical image display unit 28y instead of the left optical image display unit 28. I have. The right optical image display unit 26y and the left optical image display unit 28y are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the right eye and the left eye of the user when the HMD is mounted. . Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit completely covers the user's eyes. It can also be realized as an HMD in an uncovered form.

例えば、制御部が備えるとした各処理部(例えば画像処理部、表示制御部、拡張現実感処理部等)は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。また、各処理部は、制御部ではなく画像表示部に配置されていてもよい。   For example, each processing unit (for example, an image processing unit, a display control unit, an augmented reality processing unit, and the like) included in the control unit executes a computer program stored in a ROM or a hard disk by the CPU on the RAM. It was described as being realized. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function. Each processing unit may be arranged in the image display unit instead of the control unit.

例えば、HMDは、両眼タイプの透過型HMDであるものとしたが、単眼タイプのHMDとしてもよい。また、利用者がHMDを装着した状態において外景の透過が遮断される非透過型HMDとして構成してもよいし、非透過型HMDにカメラを搭載したビデオシースルーとして構成してもよい。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)を採用してもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両、またはその他の交通手段に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。   For example, the HMD is a binocular transmissive HMD, but may be a monocular HMD. Further, it may be configured as a non-transparent HMD that blocks the transmission of outside scenes when the user wears the HMD, or may be configured as a video see-through in which a camera is mounted on the non-transparent HMD. Further, for example, instead of the image display unit worn like glasses, an ordinary flat display device (a liquid crystal display device, a plasma display device, an organic EL display device, etc.) may be employed as the image display unit. Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device. For example, instead of the image display unit worn like glasses, an image display unit having another shape such as an image display unit worn like a hat may be adopted as the image display unit. Further, the earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-up display (HUD) mounted on a vehicle such as an automobile or an airplane, or other transportation means. For example, you may comprise as HMD incorporated in body armor, such as a helmet.

例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。   For example, in the above embodiment, the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit. However, the above aspect is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units. For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image generation unit can use a digital micromirror device or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device.

・変形例2:
上記実施形態では、拡張現実感処理の一例を示した。しかし、上記実施形態において示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
Modification 2
In the above embodiment, an example of augmented reality processing has been described. However, the processing procedure shown in the above embodiment is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

例えば、拡張現実感処理は、通常表示状態ST1から開始(すなわち、初期状態から、通常表示状態ST1へ遷移)することとしたが、拡張現実感処理は簡易表示状態ST2から開始(すなわち、初期状態から、簡易表示状態ST2へ遷移)してもよい。   For example, the augmented reality process starts from the normal display state ST1 (that is, transition from the initial state to the normal display state ST1), but the augmented reality process starts from the simple display state ST2 (that is, the initial state). To the simple display state ST2).

例えば、拡張現実感処理部は、遷移条件1の監視中においても、遷移条件2、3と同様に、無効化アクションを監視し、状態遷移の中止を行ってもよい。また、例えば、拡張現実感処理部は、遷移条件2、3の監視中における無効化アクションの監視を省略してもよい。   For example, the augmented reality processing unit may monitor the invalidation action and cancel the state transition similarly to the transition conditions 2 and 3 even while the transition condition 1 is being monitored. For example, the augmented reality processing unit may omit the monitoring of the invalidation action during the monitoring of the transition conditions 2 and 3.

例えば、拡張現実感処理部は、遷移条件1、3の監視中において、上記実施形態で説明した視線取得部(視線の動きを取得)や動き取得部(手の動きを取得)に代えて、または、視線取得部や動き取得部と共に、9軸センサーによって取得される利用者の頭部の動きによって実現される「注目動作」を監視してもよい。   For example, the augmented reality processing unit replaces the gaze acquisition unit (acquisition of gaze movement) and the movement acquisition unit (acquisition of hand movement) described in the above embodiment during the monitoring of the transition conditions 1 and 3. Or you may monitor the "attention action" implement | achieved by the motion of the user's head acquired by a 9-axis sensor with a gaze acquisition part and a movement acquisition part.

例えば、通常表示処理部は、通常表示処理(図5)において、外景画像に含まれている複数の実オブジェクトのうち、遷移条件1または遷移条件3の成立時において、利用者の注目動作の対象となっていない実オブジェクト(以降、「他の実オブジェクト」とも呼ぶ)についても、仮想オブジェクトを表示させてもよい。通常表示処理部は、他の実オブジェクトに付加する仮想オブジェクトの表示態様と、注目動作の対象となった実オブジェクト(すなわち、対象オブジェクト)に付加する仮想オブジェクトの表示態様と、を変えてもよい。表示態様とは、例えば、大きさ、明度、彩度等である。   For example, in the normal display process (FIG. 5), the normal display processing unit is the target of the user's attention action when the transition condition 1 or the transition condition 3 is satisfied among the plurality of real objects included in the outside scene image. Virtual objects may also be displayed for real objects that are not (hereinafter also referred to as “other real objects”). The normal display processing unit may change the display mode of the virtual object to be added to another real object and the display mode of the virtual object to be added to the real object (that is, the target object) that is the target of the attention motion. . The display mode is, for example, size, brightness, saturation, and the like.

例えば、上述した無効化アクション(第1の要求)に代えて、または、無効化アクションと共に、拡張現実感処理を強制的に状態遷移させるための強制遷移アクション(第2の要求)を用いてもよい。強制遷移アクションは、利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによってなされる動作であり、かつ、無効化アクションとは異なる動作である限りにおいて、任意の動作を採用することができる。拡張現実感処理が通常表示状態ST1である場合に強制遷移アクションが検出された場合、拡張現実感処理部は、拡張現実感処理を簡易表示状態ST2へと遷移させる。このようにすれば、拡張現実感処理部は、利用者からの第2の要求に応じて、維持時間の経過前であっても、第1の表示態様から第2の表示態様へ強制的に遷移させることができるため、利用者の利便性を向上させることができる。一方、拡張現実感処理が簡易表示状態ST2である場合に強制遷移アクションが検出された場合、拡張現実感処理部は、拡張現実感処理を通常表示状態ST1へと遷移させる。このようにすれば、拡張現実感処理部は、利用者からの第2の要求に応じて、基準時間の経過前であっても、第1の表示態様での仮想オブジェクトを表示させることができるため、利用者の利便性を向上させることができる。   For example, instead of the invalidation action (first request) described above, or together with the invalidation action, a forced transition action (second request) for forcibly changing the state of augmented reality processing may be used. Good. The forced transition action is an action performed by at least one of the user's hand, foot, voice, head, or a combination thereof, and is different from the invalidation action. As long as it is, any operation can be adopted. When the forced transition action is detected when the augmented reality processing is in the normal display state ST1, the augmented reality processing unit transitions the augmented reality processing to the simplified display state ST2. In this way, the augmented reality processing unit forcibly changes from the first display mode to the second display mode in response to the second request from the user even before the maintenance time has elapsed. Since it is possible to make transition, user convenience can be improved. On the other hand, when a forced transition action is detected when the augmented reality processing is in the simple display state ST2, the augmented reality processing unit transitions the augmented reality processing to the normal display state ST1. In this way, the augmented reality processing unit can display the virtual object in the first display mode in response to the second request from the user even before the reference time has elapsed. Therefore, user convenience can be improved.

・変形例3:
上記実施形態で例示した拡張現実処理に対して、以下に挙げるe1〜e8の変形を施せば、HMDを用いた作業支援を実現することができる。
・ Modification 3:
If the following e1 to e8 modifications are applied to the augmented reality processing exemplified in the above embodiment, work support using the HMD can be realized.

(e1)記憶部に、作業に関連した情報(例えば、作業内容の指示、作業内容の指示を補助する情報、作業に要する標準時間、作業時の利用者の動きを特定するための情報等を含む)を予め記憶しておく。
(e2)9軸センサーと、カメラと、を利用(単独でもよいし併用でもよい。他のセンサーをさらに併用してもよい)して、利用者の体の動きを取得する。
(E1) Information related to work (for example, work content instruction, information for assisting work content instruction, standard time required for work, information for specifying a user's movement during the work, etc. in the storage unit) Including) in advance.
(E2) A 9-axis sensor and a camera are used (may be used alone or in combination. Other sensors may be used in combination) to acquire the movement of the user's body.

(e3)作業支援の開始後、記憶部内の作業に関連した情報(作業に要する標準時間、作業時の利用者の動きを特定するための情報)と、変形e2により取得した利用者の体の動きとを照合し、利用者による作業の進捗具合を監視する。
(e4)変形e3の監視結果が、利用者の体の動きが止まっている「作業停止」か、進捗が所定の時間以上遅れている「作業遅延」のどちらかである場合、拡張現実感処理の遷移条件1(初期状態から通常表示状態ST1への遷移条件)が成立したと判定し、第1の表示態様での仮想オブジェクトを表示させる。表示される仮想オブジェクトは、記憶部内の作業に関連した情報(作業内容の指示、作業内容の指示を補助する情報)に基づく情報である。
(E3) After starting work support, information related to the work in the storage unit (standard time required for work, information for specifying the user's movement during the work), and the user's body acquired by the modification e2 The movement is checked and the progress of the work by the user is monitored.
(E4) When the monitoring result of the deformation e3 is either “work stop” in which the user's body motion has stopped or “work delay” in which the progress has been delayed for a predetermined time or more, augmented reality processing Transition condition 1 (transition condition from the initial state to the normal display state ST1) is satisfied, and the virtual object in the first display mode is displayed. The virtual object to be displayed is information based on information related to work in the storage unit (work content instruction, information assisting work content instruction).

(e5)通常表示状態ST1において、変形e3の監視結果が、進捗が予定通りである「作業中」である場合、拡張現実感処理の遷移条件2(通常表示状態ST1から簡易表示状態ST2への遷移条件)が成立したと判定し、第2の表示態様での仮想オブジェクトを表示させる。第2の表示態様での仮想オブジェクトは、上述したように、非表示でもよいし、アイコン画像や文字等を使った表示でもよい。
(e6)通常表示状態ST1において、変形e3の監視結果が、作業停止または作業遅延である場合、通常表示状態ST1を継続する。
(E5) In the normal display state ST1, when the monitoring result of the deformation e3 is “working” whose progress is as planned, transition condition 2 of the augmented reality process (from the normal display state ST1 to the simple display state ST2) It is determined that the (transition condition) is satisfied, and the virtual object in the second display mode is displayed. As described above, the virtual object in the second display mode may be non-displayed or may be displayed using an icon image, characters, or the like.
(E6) In the normal display state ST1, when the monitoring result of the deformation e3 is work stoppage or work delay, the normal display state ST1 is continued.

(e7)簡易表示状態ST2において、変形e3の監視結果が、作業停止または作業遅延である場合、拡張現実感処理の遷移条件3(簡易表示状態ST2から通常表示状態ST1への遷移条件)が成立したと判定し、第1の表示態様での仮想オブジェクトを表示させる。
(e8)簡易表示状態ST2において、変形e3の監視結果が、作業中である場合、簡易表示状態ST2を継続する。
(E7) In the simple display state ST2, when the monitoring result of the deformation e3 is work stoppage or work delay, transition condition 3 (transition condition from the simple display state ST2 to the normal display state ST1) of the augmented reality process is satisfied. The virtual object in the first display mode is displayed.
(E8) In the simple display state ST2, when the monitoring result of the deformation e3 is in operation, the simple display state ST2 is continued.

このようにすれば、HMDは、スムーズに作業を進めることができる熟練した作業者の場合は簡易表示状態ST2(第2の表示態様での仮想オブジェクトの表示/非表示含む)を継続することができ、作業に不慣れな作業者の場合は通常表示状態ST1(第1の表示態様での仮想オブジェクトの表示)を継続することができる。また、熟練した作業者であっても、途中の手順で不明点が生じた場合等、作業が止まった際には、通常表示状態ST1へ遷移し、第1の表示態様での仮想オブジェクトを表示させることができる。この結果、作業者における利便性を向上させた作業支援が可能なHMDを提供することができる。また、この結果、熟練した作業者がHMDの利用者となる場合等、仮想オブジェクトを表示することが必要ないと思われる場合には、仮想オブジェクトの表示を省略(または簡略化)することができる。このため、実オブジェクトの視認性が不必要に損なわれる可能性を低減し、利用者が煩わしさを感じるおそれを低減することができる。   In this way, the HMD can continue the simple display state ST2 (including display / non-display of the virtual object in the second display mode) in the case of a skilled worker who can proceed with the work smoothly. The normal display state ST1 (display of the virtual object in the first display mode) can be continued for an operator who is unfamiliar with the work. Moreover, even if it is a skilled worker, when work is stopped, such as when an unclear point occurs during the procedure in the middle, the transition is made to the normal display state ST1, and the virtual object in the first display mode is displayed. Can be made. As a result, it is possible to provide an HMD capable of supporting work with improved convenience for the worker. As a result, when it is considered unnecessary to display a virtual object, such as when a skilled worker becomes an HMD user, the display of the virtual object can be omitted (or simplified). . For this reason, the possibility that the visibility of the real object is unnecessarily impaired can be reduced, and the possibility that the user feels bothered can be reduced.

以上のように、変形例3において拡張現実感処理部は、所定の基準時間(作業に要する標準時間)以内に、利用者(作業者)による所定の動作(作業時の利用者の動きを特定するための情報)が開始されていない場合に、第1の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させる。換言すれば、拡張現実感処理部は、基準時間以内に利用者による所定の動作が開始されている場合は、第1の表示態様での仮想オブジェクトを表示させない。このため、例えば、利用者が所定の動作(例えば何らかの作業)をしている場合に、第1の表示態様での仮想オブジェクトが表示されて、使用者の眼前を遮るという可能性を低減することができる。この結果、仮想オブジェクトの表示が、実オブジェクトまたはその背景を視認する際の妨げとなりづらい頭部装着型表示装置(HMD)を提供することができる。   As described above, in the third modification, the augmented reality processing unit specifies a predetermined action (the user's movement at the time of work) by the user (worker) within a predetermined reference time (standard time required for the work). When the information to start) is not started, a virtual image including the virtual object in the first display mode is formed on the image display unit. In other words, the augmented reality processing unit does not display the virtual object in the first display mode when the predetermined operation by the user is started within the reference time. Therefore, for example, when the user is performing a predetermined action (for example, some work), the possibility that the virtual object in the first display mode is displayed and blocks the user's eyes is reduced. Can do. As a result, it is possible to provide a head-mounted display device (HMD) in which the display of the virtual object does not easily hinder the visual recognition of the real object or its background.

変形例3においても、上記実施形態と同様に、「所定の基準時間に亘る注目動作の継続」で、通常表示状態ST1と簡易表示状態ST2との間を遷移させてもよい。このようにすれば、一連の作業を行う作業者が、次の動作を思い出せない(または知らない)ことにより、作業者が途方に暮れている場合に、簡易表示状態ST2から通常表示状態ST1へと状態遷移して、作業支援を行うことができる。   Also in the modification 3, as in the above embodiment, the transition between the normal display state ST1 and the simple display state ST2 may be made by “continuation of the attention operation over a predetermined reference time”. In this way, when the worker who performs a series of work cannot remember (or does not know) the next operation, and the worker is at a loss, the simple display state ST2 changes to the normal display state ST1. The state can be changed to support the work.

なお、上述した「所定の基準時間以内に、利用者による所定の動作が開始されていない場合に、第1の表示態様での仮想オブジェクトを含んだ虚像を画像表示部に形成させる。」との記載において、「所定の動作」を「注目動作の継続をやめる(停止する)動作」とすれば、上記実施形態の内容と整合する。   The above-mentioned “form a virtual image including a virtual object in the first display mode on the image display unit when a predetermined operation by the user is not started within a predetermined reference time” is described above. In the description, if the “predetermined operation” is “an operation that stops (stops) the attention operation”, it matches the contents of the above embodiment.

・変形例4:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Modification 4:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ(動き取得部)
62…視線検出部(視線取得部)
66…9軸センサー
110…入力情報取得部
100…HMD(頭部装着型表示装置)
120…記憶部
121…表示状態
122…過去維持時間(維持時間情報)
123…維持時間設定
124…過去基準時間(基準時間情報)
125…基準時間設定
126…簡易表示態様
130…電源
132…無線通信部
140…CPU
142…拡張現実感処理部(拡張現実感処理部、維持時間取得部、基準時間取得部)
144…通常表示処理部
146…簡易表示処理部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
VI…虚像
VR…視野
RE…右眼
LE…左眼
ER…端部
EL…端部
NI…通常表示用画像
SI…簡易表示用画像
VO1…仮想オブジェクト(第1の表示態様)
VO2…仮想オブジェクト(第1の表示態様)
VO3…仮想オブジェクト(第1の表示態様)
VO4…仮想オブジェクト(第2の表示態様)
VO5…仮想オブジェクト(第2の表示態様)
VO6…仮想オブジェクト(第2の表示態様)
ST1…通常表示状態
ST2…簡易表示状態
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switching key 14 ... Trackpad 15 ... Luminance switching key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive unit 23 ... Left holding unit 24 ... Left display drive unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left code 46 ... Connecting member 48 ... Body code 51 ... Transmission unit 52 ... Transmission unit 53 ... Reception unit 54 ... Reception unit 61 ... Camera (motion acquisition unit)
62 ... Gaze detection unit (gaze acquisition unit)
66 ... 9-axis sensor 110 ... Input information acquisition unit 100 ... HMD (head-mounted display device)
120 ... storage unit 121 ... display state 122 ... past maintenance time (maintenance time information)
123 ... maintenance time setting 124 ... past reference time (reference time information)
125 ... reference time setting 126 ... simple display mode 130 ... power source 132 ... wireless communication unit 140 ... CPU
142 ... Augmented reality processing unit (augmented reality processing unit, maintenance time acquisition unit, reference time acquisition unit)
144 ... Normal display processing unit 146 ... Simple display processing unit 160 ... Image processing unit 170 ... Audio processing unit 180 ... Interface 190 ... Display control unit 201 ... Right backlight control unit 202 ... Left backlight control unit 211 ... Right LCD control unit 212 ... Left LCD controller 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate PCLK ... Clock signal VSync ... Vertical sync signal HSync ... Horizontal sync signal Data ... Image data Data1 ... Right eye image data Data2 ... Left Image data for eyes OA ... External device PC ... Personal computer SC ... Outside view VI ... Virtual image VR ... Field of view RE ... Right eye LE ... Left eye ER ... End EL ... End NI ... Normal display image SI ... Simple display image VO1 ... Virtual object (first display mode)
VO2 ... Virtual object (first display mode)
VO3 ... Virtual object (first display mode)
VO4 ... Virtual object (second display mode)
VO5 ... Virtual object (second display mode)
VO6 ... Virtual object (second display mode)
ST1 ... Normal display state ST2 ... Simple display state

Claims (17)

利用者が虚像と外景とを視認可能な頭部装着型表示装置であって、
前記利用者に前記虚像を視認させる画像表示部と、
現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、
を備え、
前記拡張現実感処理部は、
前記実オブジェクトに対する所定の基準時間に亘る注目動作の継続に応じて、
少なくとも前記注目動作のなされた前記実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる、頭部装着型表示装置。
A head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
An image display unit for allowing the user to visually recognize the virtual image;
An augmented reality processing unit that causes the image display unit to form the virtual image including a virtual object to be additionally displayed on a real object that actually exists in the real world;
With
The augmented reality processing unit
According to the continuation of the attention movement over a predetermined reference time for the real object,
A head-mounted display device that forms a virtual image including at least the virtual object in the first display mode, which is a virtual object related to the real object that has been subjected to the attention movement.
請求項1に記載の頭部装着型表示装置であって、
前記拡張現実感処理部は、さらに、
前記第1の表示態様での前記仮想オブジェクトを含んだ前記虚像の形成に先立って第2の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させた場合においては、
前記第2の表示態様での前記仮想オブジェクトと前記実オブジェクトとのうちのいずれかに対する、前記基準時間に亘る前記注目動作の継続に応じて、
少なくとも前記注目動作のなされた前記仮想オブジェクトまたは前記実オブジェクトに関連する仮想オブジェクトであって、前記第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させ、
前記実オブジェクトに対する前記第2の表示態様での前記仮想オブジェクトの視認性阻害度は、前記実オブジェクトに対する前記第1の表示態様での前記仮想オブジェクトの視認性阻害度よりも低い、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The augmented reality processing unit further includes:
In the case where the virtual image including the virtual object in the second display mode is formed prior to the formation of the virtual image including the virtual object in the first display mode,
In response to continuation of the attention movement over the reference time for either the virtual object or the real object in the second display mode,
A virtual object related to at least the virtual object or the real object on which the attention movement is performed, and forming the virtual image including the virtual object in the first display mode;
The head mounted type in which the visibility inhibition degree of the virtual object in the second display mode with respect to the real object is lower than the visibility inhibition degree of the virtual object in the first display mode with respect to the real object Display device.
請求項1または請求項2のいずれか一項に記載の頭部装着型表示装置であって、さらに、
前記注目動作としての前記利用者の視線の動きを取得する視線取得部を備える、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 and 2, further comprising:
A head-mounted display device comprising a line-of-sight acquisition unit that acquires the movement of the user's line of sight as the attention movement.
請求項1または請求項2のいずれか一項に記載の頭部装着型表示装置であって、さらに、
前記注目動作としての前記利用者の手の動きを取得する動き取得部を備える、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 and 2, further comprising:
A head-mounted display device comprising a movement acquisition unit that acquires movement of the user's hand as the attention movement.
請求項1から請求項4のいずれか一項に記載の頭部装着型表示装置であって、
前記基準時間は、可変長である、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4,
The head-mounted display device, wherein the reference time has a variable length.
請求項5に記載の頭部装着型表示装置であって、さらに、
前記拡張現実感処理部において過去に使用された前記基準時間を取得する基準時間取得部を備え、
前記拡張現実感処理部は、
取得された過去の前記基準時間の統計値を求め、
求めた統計値に基づいて、現在の処理で使用する前記基準時間を変更する、頭部装着型表示装置。
The head-mounted display device according to claim 5, further comprising:
A reference time acquisition unit that acquires the reference time used in the past in the augmented reality processing unit;
The augmented reality processing unit
Obtain the statistical value of the acquired reference time in the past,
A head-mounted display device that changes the reference time used in the current process based on the obtained statistical value.
請求項5に記載の頭部装着型表示装置であって、
前記拡張現実感処理部は、
前記第1の表示態様での前記仮想オブジェクトの情報量を求め、
求めた情報量に基づいて、現在の処理で使用する前記基準時間を変更する、頭部装着型表示装置。
The head-mounted display device according to claim 5,
The augmented reality processing unit
Obtaining an information amount of the virtual object in the first display mode;
A head-mounted display device that changes the reference time used in the current processing based on the obtained information amount.
請求項7に記載の頭部装着型表示装置であって、
前記拡張現実感処理部は、
前記情報量の求め方を、前記第1の表示態様での前記仮想オブジェクトの種類に応じて変更する、頭部装着型表示装置。
The head-mounted display device according to claim 7,
The augmented reality processing unit
A head-mounted display device that changes a method of obtaining the information amount according to a type of the virtual object in the first display mode.
請求項5に記載の頭部装着型表示装置であって、
前記基準時間についての前記利用者の設定を取得する基準時間取得部を備え、
前記拡張現実感処理部は、
取得された前記利用者の設定に基づいて、現在の処理で使用する前記基準時間を変更する、頭部装着型表示装置。
The head-mounted display device according to claim 5,
A reference time acquisition unit for acquiring the user's setting for the reference time;
The augmented reality processing unit
A head-mounted display device that changes the reference time used in the current process based on the acquired setting of the user.
請求項5に記載の頭部装着型表示装置であって、さらに、
前記拡張現実感処理部において過去に使用された前記基準時間と、その際の前記第1の表示態様での前記仮想オブジェクトの情報量と、その際の前記利用者を識別するための識別情報と、を対応付けた基準時間情報を取得する基準時間取得部を備え、
前記拡張現実感処理部は、
取得された前記基準時間情報と、前記第1の表示態様での前記仮想オブジェクトの情報量とに基づいて、現在の処理で使用する前記基準時間を変更する、頭部装着型表示装置。
The head-mounted display device according to claim 5, further comprising:
The reference time used in the past in the augmented reality processing unit, the information amount of the virtual object in the first display mode at that time, and identification information for identifying the user at that time And a reference time acquisition unit that acquires reference time information associated with
The augmented reality processing unit
A head-mounted display device that changes the reference time used in the current process based on the acquired reference time information and the information amount of the virtual object in the first display mode.
請求項2から請求項10のいずれか一項に記載の頭部装着型表示装置であって、
前記第2の表示態様での前記仮想オブジェクトは、前記第1の表示態様での前記仮想オブジェクトの内容を示唆する文字と、図形と、絵柄と、記号と、または、これらの組み合わせと、のうちの少なくともいずれかを含む、頭部装着型表示装置。
The head-mounted display device according to any one of claims 2 to 10,
The virtual object in the second display mode is a character, a figure, a picture, a symbol, or a combination thereof that suggests the content of the virtual object in the first display mode. A head-mounted display device including at least one of the above.
請求項1から請求項11のいずれか一項に記載の頭部装着型表示装置であって、
前記拡張現実感処理部は、
前記基準時間の経過の待機中において前記利用者からの第1の要求を取得した場合に、前記第1の表示態様への遷移を中止する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 11,
The augmented reality processing unit
A head-mounted display device that stops the transition to the first display mode when a first request from the user is acquired while waiting for the elapse of the reference time.
請求項1から請求項12のいずれか一項に記載の頭部装着型表示装置であって、
前記拡張現実感処理部は、
前記基準時間の経過の待機中において、前記利用者からの第2の要求を取得した場合に、前記基準時間の経過前であっても、前記第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 12,
The augmented reality processing unit
When the second request from the user is acquired while waiting for the elapse of the reference time, the virtual object in the first display mode is included even before the elapse of the reference time. A head-mounted display device that forms the virtual image.
請求項12または請求項13に記載の頭部装着型表示装置であって、
前記利用者の手と、足と、声と、頭部と、または、これらの組み合わせと、のうちの少なくともいずれかによってなされる要求を、前記第1の要求または前記第2の要求として取得する要求取得部を備える、頭部装着型表示装置。
The head-mounted display device according to claim 12 or 13,
A request made by at least one of the user's hand, foot, voice, head, or a combination thereof is acquired as the first request or the second request. A head-mounted display device including a request acquisition unit.
頭部装着型表示装置の制御方法であって、
利用者に虚像を視認させる表示工程と、
現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記表示工程において形成させる制御工程と、
を備え、
前記制御工程は、
前記実オブジェクトに対する所定の基準時間に亘る注目動作の継続に応じて、
少なくとも前記注目動作のなされた前記実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device,
A display process that allows the user to visually recognize a virtual image;
A control step of forming in the display step the virtual image including a virtual object for additionally displaying a real object existing in the real world;
With
The control step includes
According to the continuation of the attention movement over a predetermined reference time for the real object,
A control method for a head-mounted display device, wherein at least a virtual object related to the real object that has been subjected to the attention movement is formed, and the virtual image including the virtual object in a first display mode is formed.
コンピュータープログラムであって、
利用者に虚像を視認させる表示機能と、
現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記表示機能において形成させる制御機能と、
をコンピューターに実現させるためのコンピュータープログラムであり、
前記制御機能は、
前記実オブジェクトに対する所定の基準時間に亘る注目動作の継続に応じて、
少なくとも前記注目動作のなされた前記実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる、コンピュータープログラム。
A computer program,
A display function that allows the user to visually recognize a virtual image;
A control function for forming, in the display function, the virtual image including a virtual object for additionally displaying a real object existing in the real world;
Is a computer program for causing a computer to realize
The control function is
According to the continuation of the attention movement over a predetermined reference time for the real object,
A computer program that forms at least a virtual object that is related to the real object that has been subjected to the attention movement and that includes the virtual object in a first display mode.
利用者が虚像と外景とを視認可能な頭部装着型表示装置であって、
前記利用者に前記虚像を視認させる画像表示部と、
現実世界に実在する実オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、
を備え、
前記拡張現実感処理部は、
所定の基準時間以内に前記利用者による所定の動作が開始されていない場合には、少なくとも前記実オブジェクトに関連する仮想オブジェクトであって、第1の表示態様での前記仮想オブジェクトを含んだ前記虚像を形成させる、頭部装着型表示装置。
A head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
An image display unit for allowing the user to visually recognize the virtual image;
An augmented reality processing unit that causes the image display unit to form the virtual image including a virtual object to be additionally displayed on a real object that actually exists in the real world;
With
The augmented reality processing unit
When a predetermined action by the user is not started within a predetermined reference time, the virtual image is at least a virtual object related to the real object and includes the virtual object in the first display mode. A head-mounted display device.
JP2014212728A 2014-10-17 2014-10-17 Head-mounted display device, method for controlling head-mounted display device, computer program Active JP6421543B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014212728A JP6421543B2 (en) 2014-10-17 2014-10-17 Head-mounted display device, method for controlling head-mounted display device, computer program
US14/870,659 US10140768B2 (en) 2014-10-17 2015-09-30 Head mounted display, method of controlling head mounted display, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014212728A JP6421543B2 (en) 2014-10-17 2014-10-17 Head-mounted display device, method for controlling head-mounted display device, computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018155085A Division JP6711379B2 (en) 2018-08-22 2018-08-22 Head-mounted display, computer program

Publications (2)

Publication Number Publication Date
JP2016081339A true JP2016081339A (en) 2016-05-16
JP6421543B2 JP6421543B2 (en) 2018-11-14

Family

ID=55958810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014212728A Active JP6421543B2 (en) 2014-10-17 2014-10-17 Head-mounted display device, method for controlling head-mounted display device, computer program

Country Status (1)

Country Link
JP (1) JP6421543B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005743A (en) * 2016-07-06 2018-01-11 富士ゼロックス株式会社 Information processing apparatus, image forming system, and program
JP2018205974A (en) * 2017-06-01 2018-12-27 株式会社日立ドキュメントソリューションズ Space display device and space display method
JP2019032728A (en) * 2017-08-09 2019-02-28 アズビル株式会社 Display device and display method
JP6581748B1 (en) * 2018-05-21 2019-09-25 楽天株式会社 Display device, display method, program, and non-transitory computer-readable information recording medium
CN110300994A (en) * 2017-02-23 2019-10-01 索尼公司 Image processing apparatus, image processing method and picture system
JP2019197251A (en) * 2018-05-07 2019-11-14 セイコーエプソン株式会社 Connection device, display device, control method of connection device, and control method of display device
JP2020009306A (en) * 2018-07-11 2020-01-16 東芝プラントシステム株式会社 Equipment work support device
WO2020202992A1 (en) * 2019-03-29 2020-10-08 村田機械株式会社 Maintenance method, maintenance server, and program
CN113101636A (en) * 2021-04-19 2021-07-13 网易(杭州)网络有限公司 Information display method and device of virtual object, electronic equipment and storage medium
JP2021176004A (en) * 2020-04-24 2021-11-04 株式会社日立製作所 Display device, display system, and display method
WO2022125384A1 (en) * 2020-12-10 2022-06-16 A9.Com, Inc. Gaze dependent ocular mode controller for mixed reality
JP2022138964A (en) * 2021-03-11 2022-09-26 株式会社日立製作所 Display system and display device

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324250A (en) * 1992-05-26 1993-12-07 Canon Inc Image forming device
JPH07168852A (en) * 1993-12-15 1995-07-04 Nec Corp Electronic book
JP2002157275A (en) * 2000-11-22 2002-05-31 Fuji Photo Film Co Ltd Picture display device and storage medium
JP2005207783A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2007296889A (en) * 2006-04-28 2007-11-15 Honda Motor Co Ltd Operation device of on-vehicle equipment
JP2007302215A (en) * 2006-05-15 2007-11-22 Toyota Motor Corp Input device for vehicle
WO2009093435A1 (en) * 2008-01-25 2009-07-30 Panasonic Corporation Brain wave interface system, brain wave interface device, method and computer program
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010164814A (en) * 2009-01-16 2010-07-29 Brother Ind Ltd Head mounted display
JP2010210822A (en) * 2009-03-09 2010-09-24 Brother Ind Ltd Head mounted display
JP2012163853A (en) * 2011-02-08 2012-08-30 Ns Solutions Corp Display device, information service system, information service method, and program
WO2013175847A1 (en) * 2012-05-22 2013-11-28 ソニー株式会社 Image processing device, image processing method, and program
JP2014059840A (en) * 2012-09-19 2014-04-03 Research Organization Of Information & Systems Interactive information search device using line of sight interface
WO2014095070A1 (en) * 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh Input device for a motor vehicle
WO2014110437A1 (en) * 2013-01-13 2014-07-17 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device
WO2014162823A1 (en) * 2013-04-04 2014-10-09 ソニー株式会社 Information processing device, information processing method and program
WO2015107625A1 (en) * 2014-01-15 2015-07-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
WO2015155841A1 (en) * 2014-04-08 2015-10-15 日立マクセル株式会社 Information display method and information display terminal

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324250A (en) * 1992-05-26 1993-12-07 Canon Inc Image forming device
JPH07168852A (en) * 1993-12-15 1995-07-04 Nec Corp Electronic book
JP2002157275A (en) * 2000-11-22 2002-05-31 Fuji Photo Film Co Ltd Picture display device and storage medium
JP2005207783A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2007296889A (en) * 2006-04-28 2007-11-15 Honda Motor Co Ltd Operation device of on-vehicle equipment
JP2007302215A (en) * 2006-05-15 2007-11-22 Toyota Motor Corp Input device for vehicle
WO2009093435A1 (en) * 2008-01-25 2009-07-30 Panasonic Corporation Brain wave interface system, brain wave interface device, method and computer program
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010164814A (en) * 2009-01-16 2010-07-29 Brother Ind Ltd Head mounted display
JP2010210822A (en) * 2009-03-09 2010-09-24 Brother Ind Ltd Head mounted display
JP2012163853A (en) * 2011-02-08 2012-08-30 Ns Solutions Corp Display device, information service system, information service method, and program
WO2013175847A1 (en) * 2012-05-22 2013-11-28 ソニー株式会社 Image processing device, image processing method, and program
JP2014059840A (en) * 2012-09-19 2014-04-03 Research Organization Of Information & Systems Interactive information search device using line of sight interface
WO2014095070A1 (en) * 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh Input device for a motor vehicle
WO2014110437A1 (en) * 2013-01-13 2014-07-17 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device
WO2014162823A1 (en) * 2013-04-04 2014-10-09 ソニー株式会社 Information processing device, information processing method and program
WO2015107625A1 (en) * 2014-01-15 2015-07-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
WO2015155841A1 (en) * 2014-04-08 2015-10-15 日立マクセル株式会社 Information display method and information display terminal

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107589919A (en) * 2016-07-06 2018-01-16 富士施乐株式会社 Information processor, image formation system and information processing method
JP2018005743A (en) * 2016-07-06 2018-01-11 富士ゼロックス株式会社 Information processing apparatus, image forming system, and program
CN110300994A (en) * 2017-02-23 2019-10-01 索尼公司 Image processing apparatus, image processing method and picture system
CN110300994B (en) * 2017-02-23 2023-07-04 索尼公司 Image processing apparatus, image processing method, and image system
JP2018205974A (en) * 2017-06-01 2018-12-27 株式会社日立ドキュメントソリューションズ Space display device and space display method
JP2019032728A (en) * 2017-08-09 2019-02-28 アズビル株式会社 Display device and display method
JP7135413B2 (en) 2018-05-07 2022-09-13 セイコーエプソン株式会社 Connection device, display device, connection device control method, and display device control method
JP2019197251A (en) * 2018-05-07 2019-11-14 セイコーエプソン株式会社 Connection device, display device, control method of connection device, and control method of display device
JP6581748B1 (en) * 2018-05-21 2019-09-25 楽天株式会社 Display device, display method, program, and non-transitory computer-readable information recording medium
WO2019224866A1 (en) * 2018-05-21 2019-11-28 楽天株式会社 Display device, display method, program, and non-transitory computer readable information recording medium
JP2020009306A (en) * 2018-07-11 2020-01-16 東芝プラントシステム株式会社 Equipment work support device
JP2020166686A (en) * 2019-03-29 2020-10-08 村田機械株式会社 Maintenance method, and maintenance server
WO2020202992A1 (en) * 2019-03-29 2020-10-08 村田機械株式会社 Maintenance method, maintenance server, and program
JP7338200B2 (en) 2019-03-29 2023-09-05 村田機械株式会社 Maintenance method and maintenance server
JP2021176004A (en) * 2020-04-24 2021-11-04 株式会社日立製作所 Display device, display system, and display method
JP7492904B2 (en) 2020-04-24 2024-05-30 株式会社日立製作所 Display device, display system, and display method
WO2022125384A1 (en) * 2020-12-10 2022-06-16 A9.Com, Inc. Gaze dependent ocular mode controller for mixed reality
GB2615937A (en) * 2020-12-10 2023-08-23 A9 Com Inc Gaze dependent ocular mode controller for mixed reality
JP2022138964A (en) * 2021-03-11 2022-09-26 株式会社日立製作所 Display system and display device
JP7476128B2 (en) 2021-03-11 2024-04-30 株式会社日立製作所 Display system and display device
CN113101636A (en) * 2021-04-19 2021-07-13 网易(杭州)网络有限公司 Information display method and device of virtual object, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6421543B2 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
JP6421543B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
US10140768B2 (en) Head mounted display, method of controlling head mounted display, and computer program
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US10133344B2 (en) Head mounted display apparatus
JP6107276B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6155622B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP6217244B2 (en) Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
JP5884576B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6358038B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
US9799144B2 (en) Head mounted display, and control method for head mounted display
JP2017091433A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6488629B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6268778B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6711379B2 (en) Head-mounted display, computer program
JP6337534B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6369583B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6451222B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6394174B2 (en) Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program
JP6669183B2 (en) Head mounted display and control method of head mounted display
JP6217772B2 (en) Head-mounted display device and method for controlling head-mounted display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180822

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6421543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150