JP2018041362A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2018041362A
JP2018041362A JP2016176229A JP2016176229A JP2018041362A JP 2018041362 A JP2018041362 A JP 2018041362A JP 2016176229 A JP2016176229 A JP 2016176229A JP 2016176229 A JP2016176229 A JP 2016176229A JP 2018041362 A JP2018041362 A JP 2018041362A
Authority
JP
Japan
Prior art keywords
display
information
image
user
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016176229A
Other languages
Japanese (ja)
Inventor
忠慈 牧野
Tadashige Makino
忠慈 牧野
輝子 石川
Teruko Ishikawa
輝子 石川
悠樹 ▲高▼橋
悠樹 ▲高▼橋
Yuki Takahashi
美彩 渋谷
Misa Shibuya
美彩 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2016176229A priority Critical patent/JP2018041362A/en
Publication of JP2018041362A publication Critical patent/JP2018041362A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an HMD device that enables a user to arrange information to be added and improve recognition of information.SOLUTION: A head-mounted display device 100 causes a user to visually recognize a display image including predetermined information overlapped on a landscape. A control part 10 virtually sets a plurality of display zones having different positions in the depth direction in front of the user, specifies the display zone gazed by the user on the basis of gazing position information obtained from a gazing position detection part 20, acquires image information indicating information associated with the specified display zone from a cloud server 200 via a communication part 70, drives an imaging position adjustment part 90 so as to match the depth position of the specified display zone with the imaging position of the information associated with at least the specified display zone in the display image, and displays the display image on a display unit 80 according to the acquired image information.SELECTED DRAWING: Figure 2

Description

本発明は、使用者に風景と重ねて所定の情報を含む表示画像を視認させる表示装置に関する。   The present invention relates to a display device that allows a user to visually recognize a display image including predetermined information superimposed on a landscape.

従来より、使用者に風景と重ねて虚像を視認させる透過型のヘッドマウントディスプレイ(Head Mounted Display;HMD)装置が知られている(例えば特許文献1参照)。HMD装置は、頭部に装着する表示装置であり、表示器からの表示光を投射光学系や導光体などを用いて使用者に投射し、使用者に表示光が示す表示画像の虚像を視認させるものである。使用者は、HMD装置による虚像を前方の実風景を重ねて視認することができる。また、HMD装置は、拡張現実(Augmented Reality;AR)と称される技術を適用することができる。すなわち、表示画像として実風景に関連するAR画像を表示することで、実風景に情報を付加することができる。   2. Description of the Related Art Conventionally, a transmissive head mounted display (HMD) device that allows a user to visually recognize a virtual image over a landscape is known (see, for example, Patent Document 1). The HMD device is a display device that is worn on the head, projects display light from a display device to a user using a projection optical system or a light guide, and the like, and displays a virtual image of a display image indicated by the display light to the user. It is to be visually recognized. The user can visually recognize the virtual image obtained by the HMD device by superimposing a front real scene. Further, a technique called augmented reality (AR) can be applied to the HMD device. That is, by displaying an AR image related to a real landscape as a display image, information can be added to the real landscape.

また、HMD装置として、使用者が視認する虚像の結像位置を変更可能な技術が特許文献2及び3に開示されている。特許文献2に開示される技術は、虚像距離制御手段によって表示パネルと拡大光学部材の間隔を機械的に切り換えることで虚像の結像位置を変更するものである。また、特許文献3に開示される技術は、一対の表示駆動部からの表示光により形成される像の射出領域を移動させることで画像処理によって虚像の結像位置を変更するものである。   Further, as HMD devices, Patent Documents 2 and 3 disclose techniques capable of changing the imaging position of a virtual image visually recognized by a user. The technique disclosed in Patent Document 2 changes the imaging position of a virtual image by mechanically switching the distance between the display panel and the magnifying optical member by a virtual image distance control means. In addition, the technique disclosed in Patent Document 3 changes the imaging position of a virtual image by image processing by moving an emission region of an image formed by display light from a pair of display driving units.

特開2014−119786号公報JP 2014-119786 A 特開平10−262165号公報Japanese Patent Laid-Open No. 10-262165 特開2015−32131号公報JP-A-2015-32131

前述したように、透過型のHMD装置は、虚像によって実風景と重ねて情報を提供することができるものであるが、使用者の視界に常時虚像が視認されるため、視認される情報が多くなると使用者にとって煩わしく、使用者が情報を整理できずに各情報の認識性が低下するという問題点があった。   As described above, a transmissive HMD device can provide information superimposed on a real scene by a virtual image. However, since a virtual image is always visible in the user's field of view, much information is visually recognized. In this case, there is a problem that it is troublesome for the user, and the user cannot organize the information, and the recognizability of each information is lowered.

本発明は、上記の問題点に鑑みてなされたものであり、使用者が付加される情報を整理でき、情報の認識性を向上させることが可能な表示装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a display device capable of organizing information added by a user and improving information recognizability.

本発明の表示装置は、前述の課題を解決するために、使用者に風景と重ねて所定の情報を含む表示画像を視認させる表示装置であって、
前記使用者の注視位置を検出する注視位置検出部と、
前記使用者の脳活動に基いて前記使用者が前記情報のうち特定情報を認知したか否かを判定する認知判定部と、
前記表示画像を示す表示光を出射する表示器と、
外部サーバと通信可能な通信部と、
前記通信部を介して前記外部サーバから取得した前記情報を示す画像情報に応じて前記表示画像を前記表示器に表示させる制御部と、
前記表示光によって使用者に視認される前記表示画像の少なくとも一部の結像位置を調整可能な結像位置調整部と、を備え、
前記制御部は、前記使用者前方に奥行き方向の位置が異なる複数の表示ゾーンを仮想的に設定し、前記注視位置検出部からの注視位置情報に基づいて使用者が注視している表示ゾーンを特定し、前記通信部を介して前記外部サーバから特定した前記表示ゾーンに関連付けられた情報を示す画像情報を取得して、特定した前記表示ゾーンの奥行き位置と前記表示画像のうち少なくとも特定した前記表示ゾーンに関連付けられた前記情報の結像位置とが一致するように前記結像位置調整部を駆動させるとともに、前記表示器に取得した前記画像情報に応じて前記表示画像を表示させ、さらに、前記表示画像の表示後に前記認知判定部からの認知情報に基いて前記使用者が前記特定情報を認知したと判断される場合に、前記表示画像のうち前記特定情報の視認性を低下させる、
ことを特徴とする。
A display device of the present invention is a display device that allows a user to visually recognize a display image including predetermined information superimposed on a landscape in order to solve the above-described problem,
A gaze position detection unit for detecting a gaze position of the user;
A recognition determination unit that determines whether the user has recognized specific information among the information based on the brain activity of the user;
A display that emits display light indicating the display image;
A communication unit capable of communicating with an external server;
A control unit that causes the display to display the display image in accordance with image information indicating the information acquired from the external server via the communication unit;
An imaging position adjustment unit capable of adjusting an imaging position of at least a part of the display image visually recognized by the user by the display light,
The control unit virtually sets a plurality of display zones having different positions in the depth direction in front of the user, and displays the display zone being watched by the user based on gaze position information from the gaze position detection unit. Specifying and acquiring image information indicating information associated with the display zone specified from the external server via the communication unit, and specifying at least the depth position of the specified display zone and the display image Driving the imaging position adjustment unit to match the imaging position of the information associated with the display zone, and causing the display to display the display image according to the acquired image information; When it is determined that the user has recognized the specific information based on the recognition information from the recognition determination unit after the display image is displayed, the specific of the display image Reducing the visibility of the broadcast,
It is characterized by that.

本発明は、使用者が付加される情報を整理でき、情報の認識性を向上させることが可能となる。   According to the present invention, it is possible to organize information added by a user and improve information recognizability.

本発明の第一の実施形態であるヘッドマウントディスプレイ装置の概観を示す図である。It is a figure which shows the general view of the head mounted display apparatus which is 1st embodiment of this invention. 同上ヘッドマウントディスプレイ装置の電気的構成を示すブロック図である。It is a block diagram which shows the electrical constitution of a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置を装着した使用者が車両に搭乗した状態を示す図である。It is a figure which shows the state which the user with which the head mounted display apparatus same as the above boarded. 同上ヘッドマウントディスプレイ装置において仮想的に設定される表示ゾーンと表示ゾーンに関連付けられた情報の一例を示す図である。It is a figure which shows an example of the information linked | related with the display zone and display zone which are virtually set in a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置における表示処理を示すフロー図である。It is a flowchart which shows the display process in a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置の表示例を示す図である。It is a figure which shows the example of a display of a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置の他の表示例を示す図である。It is a figure which shows the other example of a display of a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置における警告表示処理を示すフロー図である。It is a flowchart which shows the warning display process in a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置の警告表示処理による表示例を示す図である。It is a figure which shows the example of a display by the warning display process of a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置の視認性低下処理を示すフロー図である。It is a flowchart which shows the visibility fall process of a head mounted display apparatus same as the above. 同上ヘッドマウントディスプレイ装置の視認性低下処理による表示例を示す図である。It is a figure which shows the example of a display by the visibility fall process of a head mounted display apparatus same as the above.

以下、本発明に係る実施形態について図面を参照して説明する。なお、本発明は下記の実施形態(図面の内容も含む。)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, this invention is not limited by the following embodiment (The content of drawing is also included). It goes without saying that changes (including deletion of components) can be added to the following embodiments. Moreover, in the following description, in order to make an understanding of this invention easy, description of a known technical matter is abbreviate | omitted suitably.

図1は、本発明の第一の実施形態に係るヘッドマウントディスプレイ装置(以下、HMD装置ともいう)100の概観を示す図であり、図2はHMD装置100の電気的構成を示す図である。
HMD装置100は、制御部10と、注視位置検出部20と、撮像部30と、位置情報取得部40と、脳測定部50と、状態情報取得部60と、通信部70と、表示器80と、結像位置調整部90と、を備える。
HMD装置100は、使用者Uの頭部に装着される眼鏡型の表示装置である。HMD装置100は、クラウドサーバ(外部サーバ)200と無線通信で接続され、HMD装置100とクラウドサーバ200とからなる表示システムを構成している。クラウドサーバ200には、使用者Uの個人情報や身体情報などの生体情報や、地図情報、後述する第1、第2、第3の表示ゾーンZ1、Z2、Z3にそれぞれ関連付けられた各種情報を示す画像情報がネットワーク通信によって蓄積されている。HMD装置100は、後述する表示処理によって、クラウドサーバ200から任意の画像情報を受信して各種情報を示す表示画像を表示し、表示画像を示す表示光を図示しないレンズや光学部材などを介して使用者Uの眼に入射させ、使用者Uに前方の風景と重ねて表示画像(虚像)を視認させる。
FIG. 1 is a diagram illustrating an overview of a head mounted display device (hereinafter also referred to as an HMD device) 100 according to the first embodiment of the present invention, and FIG. 2 is a diagram illustrating an electrical configuration of the HMD device 100. .
The HMD device 100 includes a control unit 10, a gaze position detection unit 20, an imaging unit 30, a position information acquisition unit 40, a brain measurement unit 50, a state information acquisition unit 60, a communication unit 70, and a display 80. And an imaging position adjusting unit 90.
The HMD device 100 is a glasses-type display device worn on the user U's head. The HMD device 100 is connected to the cloud server (external server) 200 by wireless communication, and constitutes a display system including the HMD device 100 and the cloud server 200. The cloud server 200 stores biological information such as personal information and physical information of the user U, map information, and various types of information associated with first, second, and third display zones Z1, Z2, and Z3 described later. The image information shown is accumulated by network communication. The HMD device 100 receives arbitrary image information from the cloud server 200 by display processing to be described later, displays a display image indicating various information, and displays display light indicating the display image via a lens or an optical member (not shown). The light is incident on the eyes of the user U, and the display image (virtual image) is visually recognized by the user U so as to overlap the scenery in front.

制御部10は、例えばマイクロコンピュータからなり、制御部10が実行する処理(HMD装置100全体の制御など)を実際に行うCPU(Central Processing Unit)と、CPUのメインメモリとして機能するRAM(Random Access Memory)と、制御部10に後述の処理などを実行させる各種プログラムを格納するROM(Read Only Memory)と、制御部10に入出力される情報(信号)をCPU用にデジタル変換したり出力用にアナログ変換したりする各種変換器と、を備える。制御部10は、CPUに加えて、制御部10が行う処理の一部をCPUに代わって実行するための各種専用回路(例えば、画像処理回路など)を備えても良い。   The control unit 10 is composed of, for example, a microcomputer, and a CPU (Central Processing Unit) that actually performs processing (such as control of the entire HMD device 100) executed by the control unit 10 and a RAM (Random Access) that functions as a main memory of the CPU. Memory), ROM (Read Only Memory) for storing various programs for causing the control unit 10 to execute processing described later, and information (signals) input / output to / from the control unit 10 are digitally converted for output to the CPU And various converters that perform analog conversion. In addition to the CPU, the control unit 10 may include various dedicated circuits (for example, an image processing circuit) for executing part of the processing performed by the control unit 10 instead of the CPU.

制御部10は、図1に示すように、使用者Uの前方に奥行き方向の異なる第1、第2、第3の表示ゾーンZ1、Z2、Z3を仮想的に設定している。
第1の表示ゾーンZ1は、第2の表示ゾーンZ2と第3の表示ゾーンZ3との間に位置する表示ゾーンである。第2の表示ゾーンZ2は、第1の表示ゾーンZ1よりも奥行き側(最も奥行き側)に位置する表示ゾーンである。第3の表示ゾーンZ3は、第1の表示ゾーンZ1よりも使用者U側(最も手前側)に位置する表示ゾーンである。
各表示ゾーンZ1、Z2、Z3の奥行き位置は、任意に設定されるものであるが、図3に示すように、使用者Uが車両Cの運転席に座って車両C前方を見た状態を例に挙げると以下のように設定することができる。すなわち、第3の表示ゾーンZ3は、使用者U(運転者)とインパネC2との間に位置するステアリングC1付近を奥行き位置とする。第1の表示ゾーンZ1は、ステアリングC1よりも奥行き側のインパネC2付近を奥行き位置とする。第2の表示ゾーンZ2は、インパネC2よりも奥行き側の、フロントガラスから視認できる使用者Uから15m先の風景付近を奥行き位置とする。なお、以上の説明は、第1、第2、第3の表示ゾーンZ1、Z2、Z3の奥行き位置の例を説明したものであって、第1、第2、第3の表示ゾーンZ1、Z2、Z3は、車両の各部と重なる部分にのみ設定されるものではなく、使用者Uの顔が向いている先に設定される。
As shown in FIG. 1, the control unit 10 virtually sets first, second, and third display zones Z1, Z2, and Z3 having different depth directions in front of the user U.
The first display zone Z1 is a display zone located between the second display zone Z2 and the third display zone Z3. The second display zone Z2 is a display zone located closer to the depth side (most depth side) than the first display zone Z1. The third display zone Z3 is a display zone located on the user U side (most front side) with respect to the first display zone Z1.
The depth positions of the display zones Z1, Z2, and Z3 are arbitrarily set. As shown in FIG. 3, the user U sits in the driver's seat of the vehicle C and looks at the front of the vehicle C. For example, it can be set as follows. That is, in the third display zone Z3, the vicinity of the steering wheel C1 located between the user U (driver) and the instrument panel C2 is set as the depth position. In the first display zone Z1, the depth position is near the instrument panel C2 on the depth side of the steering C1. The second display zone Z2 has a depth position in the vicinity of a landscape 15 m away from the user U that can be viewed from the windshield, on the depth side of the instrument panel C2. In addition, the above description demonstrated the example of the depth position of 1st, 2nd, 3rd display zone Z1, Z2, Z3, Comprising: 1st, 2nd, 3rd display zone Z1, Z2 , Z3 is not set only in a portion overlapping with each part of the vehicle, but is set at a point where the face of the user U is facing.

前述のように、クラウドサーバ200には、第1、第2、第3の表示ゾーンZ1、Z2、Z3に関連付けられた情報を示す画像情報が格納されている。図4は表示ゾーンZ1、Z2、Z3に関連付けられた情報の一例を示すものである。第1の表示ゾーンZ1、第2の表示ゾーンZ2、第3の表示ゾーンZ3は、第3の表示ゾーンZ3、第1の表示ゾーンZ1、第2の表示ゾーンZ2の順に優先度が高い情報が関連付けられている。すなわち、第1の表示ゾーンZ1を基準として、より優先度の低い情報が第2の表示ゾーンZ2に関連付けられており、より優先度が高い情報が第3の表示ゾーンZ3に関連付けられている。第1の表示ゾーンZ1には、2番目に優先度の高い(優先度「中」)、例えば使用者Uの状態(心拍数、脈拍、脳波など)や使用者Uが搭乗する車両C(使用者Uと共に移動する移動体の一例)の状態(走行速度、エンジン回転数、残燃料など)といった使用者U及び使用者と共に移動する移動体に関する情報(第1の情報)が関連付けられている。第2の表示ゾーンZ2には、最も優先度の低い(優先度「低」)、例えば周辺の店舗情報や経路案内情報、ヒヤリハット情報といった風景に対して所定の位置関係を持って重畳して情報を付加するAR情報(第2の情報)が関連付けられている。第3の表示ゾーンZ3には、最も優先度の高い(優先度「高」)、例えば使用者Uの体調不良や車両Cの故障などの警告情報といった緊急度の高い警告状態に関する情報(第3の情報)が関連付けられている。   As described above, the cloud server 200 stores image information indicating information associated with the first, second, and third display zones Z1, Z2, and Z3. FIG. 4 shows an example of information associated with the display zones Z1, Z2, and Z3. In the first display zone Z1, the second display zone Z2, and the third display zone Z3, the information having the highest priority in the order of the third display zone Z3, the first display zone Z1, and the second display zone Z2. Associated. That is, with the first display zone Z1 as a reference, information with lower priority is associated with the second display zone Z2, and information with higher priority is associated with the third display zone Z3. The first display zone Z1 has the second highest priority (priority “medium”), for example, the state of the user U (heart rate, pulse, brain wave, etc.) and the vehicle C (use) Information (first information) related to the user U and the mobile object moving with the user, such as a state (traveling speed, engine speed, remaining fuel, etc.) of the moving object moving with the user U is associated. In the second display zone Z2, information with the lowest priority (priority level “low”) is superimposed with a predetermined positional relationship with information such as surrounding store information, route guidance information, and near miss information. Is associated with AR information (second information). The third display zone Z3 has the highest priority (priority “high”), for example, information related to a warning state with a high degree of urgency such as warning information such as a physical condition of the user U or a failure of the vehicle C (third Information).

注視位置検出部20は、視線検出や眼軸測定により使用者Uの注視位置を検出するものである。視線検出の場合は、CCDカメラなどで使用者Uの眼を撮像し、画像処理技術のパターンマッチング処理によって注視位置として使用者Uの視線方向を検出する。眼軸測定の場合は、使用者Uの眼球に超音波を照射し、眼の水晶体前面、後面、網膜前面までの距離をエコーの伝搬時間から算出することによって、眼軸長(角膜、前房、水晶体、硝子体の組織の軸長を含んだ眼の角膜前面から網膜前面までの長さ)及び水晶体厚を測定し、その測定結果から注視位置として使用者Uの焦点位置を検出する。注視位置検出部20は、使用者Uの注視位置情報を制御部10に送信する。   The gaze position detection unit 20 detects the gaze position of the user U by gaze detection or eye axis measurement. In the case of gaze detection, the eyes of the user U are imaged with a CCD camera or the like, and the gaze direction of the user U is detected as a gaze position by pattern matching processing of image processing technology. In the case of the measurement of the axial axis, the user's U's eyeball is irradiated with ultrasonic waves, and the distance to the front lens surface, the rear surface, and the front surface of the retina is calculated from the echo propagation time. The length of the lens including the axial length of the lens and vitreous tissue from the front of the cornea to the front of the retina) and the lens thickness are measured, and the focus position of the user U is detected as the gaze position from the measurement result. The gaze position detection unit 20 transmits gaze position information of the user U to the control unit 10.

撮像部30は、例えばCCDカメラなどからなり、使用者U前方の風景を撮像するものである。撮像部30は、使用者U前方の風景を撮像した撮像情報(風景画像情報)を制御部10に送信する。   The imaging unit 30 is formed of a CCD camera, for example, and images a landscape in front of the user U. The imaging unit 30 transmits imaging information (landscape image information) obtained by imaging a landscape in front of the user U to the control unit 10.

位置情報取得部40は、例えばGPSアンテナを含み、使用者Uの現在位置を取得するものである。位置情報取得部40は、使用者Uの現在位置を示す位置情報を制御部10に送信する。   The position information acquisition unit 40 includes a GPS antenna, for example, and acquires the current position of the user U. The position information acquisition unit 40 transmits position information indicating the current position of the user U to the control unit 10.

脳測定部50は、使用者Uの脳活動(意識・意図)を測定する機能を有するものである。脳測定部50は、HMD装置100の眼鏡と一体に設けられる。なお、脳測定部50をHMD装置100の眼鏡とは別体に設けて車両Cのヘッドレストに設置し、HMD装置100の本体と有線あるいは無線で接続してもよい。脳測定部50は、より具体的には使用者Uの少なくとも脳波を測定し、主に脳波の変化から使用者Uが表示画像に含まれる特定情報を認知したか否か判定し、測定した数値及び判定結果を脳測定情報及び認知情報として制御部10に送信する。すなわち、脳測定部50は、認知判定部として機能する。なお、本実施形態において、特定情報は「緊急度の高い警告状態に関する情報」であるものとする。使用者Uの認知の判定は、例えば予め使用者Uが特定情報を示す画像を認知している状態での脳波をそれぞれ測定して基準データとして格納しておき、計測した脳波の状態と基準データと一致あるいは近似するか否かを判断することで行う。基準データと一致あるいは近似しない場合は「認知していない」と判断する。また、他の方法として、人間が光や音などの刺激に対して認知した時、一過性に生じる脳波を利用する方法が考えられる。具体的には、表示画像のうち特定情報を所定周期で点滅させる、あるいは特定情報の近傍で所定のアイコンを所定周期で点滅させる。使用者Uの脳波から特定情報あるいはアイコンの周期と同じ周期で脳波が測定された場合、使用者Uが特定情報を認知したと判定できる。なお、脳測定部50は、脳波のほか、脳血流量や脳電磁波を測定するものであってもよい。また、脳測定部50は、脳活動の測定のみを行い、脳測定情報を制御部10にまたは通信部70を介してクラウドサーバ200に送信し、制御部10またはクラウドサーバ200上で特定情報の認知の判定を行ってもよい。すなわち、制御部10またはクラウドサーバ200が認知判定部として機能してもよい。   The brain measurement unit 50 has a function of measuring the brain activity (consciousness / intention) of the user U. The brain measurement unit 50 is provided integrally with the glasses of the HMD device 100. The brain measurement unit 50 may be provided separately from the glasses of the HMD device 100 and installed on the headrest of the vehicle C, and connected to the main body of the HMD device 100 by wire or wirelessly. More specifically, the brain measurement unit 50 measures at least the brain waves of the user U, determines whether or not the user U has recognized specific information included in the display image mainly from changes in the brain waves, and measures the measured numerical values. The determination result is transmitted to the control unit 10 as brain measurement information and cognitive information. That is, the brain measurement unit 50 functions as a recognition determination unit. In the present embodiment, it is assumed that the specific information is “information related to a warning state with a high degree of urgency”. The determination of the recognition of the user U is performed, for example, by measuring an electroencephalogram in a state where the user U recognizes an image indicating specific information in advance and storing it as reference data. This is done by judging whether or not it matches or approximates. If it does not match or approximate the reference data, it is judged as “not recognized”. Another possible method is to use a brain wave that is generated transiently when a human recognizes a stimulus such as light or sound. Specifically, specific information in the display image is blinked at a predetermined cycle, or a predetermined icon is blinked at a predetermined cycle near the specific information. When the brain waves are measured from the brain waves of the user U with the same period as the specific information or icon, it can be determined that the user U has recognized the specific information. In addition to the brain wave, the brain measuring unit 50 may measure a cerebral blood flow or a brain electromagnetic wave. In addition, the brain measurement unit 50 performs only brain activity measurement, transmits brain measurement information to the control unit 10 or the cloud server 200 via the communication unit 70, and stores specific information on the control unit 10 or the cloud server 200. Cognitive determination may be made. That is, the control unit 10 or the cloud server 200 may function as a recognition determination unit.

状態情報取得部60は、使用者Uの状態を検出する各種センサや使用者Uと共に移動する移動体(車両C)と接続され、使用者Uの状態(脳活動を除く)を示す使用者状態情報や移動体の状態示す移動体状態情報を取得し、制御部10に送信する。なお、使用者Uの状態としては、例えば心拍数、脈拍などが挙げられる。また、移動体が車両Cである場合、移動体の状態としては、走行速度、エンジン回転数、残燃料、走行距離などが挙げられる。   The state information acquisition unit 60 is connected to various sensors that detect the state of the user U and a moving body (vehicle C) that moves with the user U, and indicates the state of the user U (excluding brain activity). The mobile body state information indicating the information and the state of the mobile body is acquired and transmitted to the control unit 10. In addition, as a state of the user U, a heart rate, a pulse, etc. are mentioned, for example. Further, when the moving body is the vehicle C, examples of the state of the moving body include travel speed, engine speed, remaining fuel, travel distance, and the like.

通信部70は、クラウドサーバ200との間で無線通信を行う送信部及び受信部からなり、制御部10からの注視位置情報、脳測定情報、後述する注視表示ゾーン情報、撮像情報、位置情報、状態情報等の各種情報をクラウドサーバ200に送信し、クラウドサーバ200から画像情報を受信し、制御部10に送信する。   The communication unit 70 includes a transmission unit and a reception unit that perform wireless communication with the cloud server 200, and includes gaze position information, brain measurement information, gaze display zone information, imaging information, position information, which will be described later, from the control unit 10. Various information such as status information is transmitted to the cloud server 200, image information is received from the cloud server 200, and is transmitted to the control unit 10.

表示器80は、例えばTFT型の液晶表示器や有機EL表示器からなり、所定の表示画像を表示して、表示画像を表す表示光を出射するものである。   The display device 80 includes, for example, a TFT liquid crystal display device or an organic EL display device, displays a predetermined display image, and emits display light representing the display image.

結像位置調整部90は、使用者Uに視認される表示画像の少なくとも一部の結像位置を変更可能とするものである。具体的には、一例として、表示器80から使用者Uまでの表示光の光路長を変更するべく、表示器80を移動させて表示器80と図示しないレンズとの間の距離を変更可能とするモータなどから構成される。また、表示器80とレンズとの間に光学部材が設けられる場合は、この光学部材の位置を変更するものであってもよい。さらに、結像位置の調整として、画像処理を行うものであってもよく、左右の視差によって結像位置を変更するために左右の眼に入射させる画像の位置を調整するものや、任意の焦点距離で画像が鮮明に視認されるように画像をぼかして表示するものであってもよい。この場合、制御部10が結像位置調整部90を兼ねても良い。したがって、結像位置の調整、変更には使用者Uの錯覚による場合も含む。   The imaging position adjustment unit 90 can change the imaging position of at least a part of the display image visually recognized by the user U. Specifically, as an example, in order to change the optical path length of the display light from the display device 80 to the user U, the display device 80 can be moved to change the distance between the display device 80 and a lens (not shown). It consists of a motor that performs. Moreover, when an optical member is provided between the display device 80 and the lens, the position of the optical member may be changed. Further, the image formation position may be adjusted by performing image processing, such as adjusting the position of the image incident on the left and right eyes in order to change the image formation position according to the left and right parallax, and an arbitrary focus. The image may be displayed so as to be blurred so that the image is clearly visible at a distance. In this case, the control unit 10 may also serve as the imaging position adjustment unit 90. Therefore, the adjustment and change of the imaging position includes the case based on the illusion of the user U.

次に、図5を用いてHMD装置100の注視位置に基づく通常表示処理について説明する。   Next, normal display processing based on the gaze position of the HMD device 100 will be described with reference to FIG.

まず、ステップS101において、制御部10は、注視位置検出部20から使用者Uの注視位置を示す注視位置情報を取得する。なお、情報の取得には、受信する場合のほか受信した情報に基づいて算出する場合を含む。   First, in step S <b> 101, the control unit 10 acquires gaze position information indicating the gaze position of the user U from the gaze position detection unit 20. Note that the acquisition of information includes the case of calculating based on the received information in addition to the case of receiving.

次に、ステップS102において、制御部10は、脳測定部50から脳測定情報を取得する。   Next, in step S <b> 102, the control unit 10 acquires brain measurement information from the brain measurement unit 50.

次に、ステップS103において、制御部10は、注視位置情報に基づいて第1、第2、第3の表示ゾーンZ1、Z2、Z3のうちから、使用者Uが意図的に注視している表示ゾーン(以下、注視表示ゾーンともいう)を特定する。具体的に、制御部10は、注視位置情報に基づき奥行き位置が最も注視位置に近い表示ゾーンを注視表示ゾーンに特定する。また、注視位置情報に基づいて、注視表示ゾーンがないと判断する場合を含んでもよく、注視位置情報に基いて注視表示ゾーンが特定できない場合に、前回の特定した注視表示ゾーンを今回の注視表示ゾーンに特定してもよい。   Next, in step S103, the control unit 10 displays the display in which the user U is gazing intentionally from the first, second, and third display zones Z1, Z2, and Z3 based on the gaze position information. A zone (hereinafter also referred to as a gaze display zone) is specified. Specifically, the control unit 10 identifies a display zone whose depth position is closest to the gaze position based on the gaze position information as the gaze display zone. In addition, it may include a case where it is determined that there is no gaze display zone based on the gaze position information, and when the gaze display zone cannot be identified based on the gaze position information, the last gaze display zone identified this time is displayed. You may specify a zone.

また、ステップS104において、制御部10は、撮像部30から使用者U前方の風景を撮像した撮像情報を取得する。   In step S <b> 104, the control unit 10 acquires imaging information obtained by imaging the landscape in front of the user U from the imaging unit 30.

また、ステップS105において、制御部10は、位置情報取得部40から使用者Uの現在位置を示す位置情報を取得する。   In step S <b> 105, the control unit 10 acquires position information indicating the current position of the user U from the position information acquisition unit 40.

また、ステップS106において、制御部10は、状態情報取得部60から使用者U及び使用者Uと共に移動する移動体の状態を示す使用者状態情報及び移動体状態情報(以下、まとめて状態情報ともいう)を取得する。   Further, in step S106, the control unit 10 transmits the user state information and the moving body state information (hereinafter collectively referred to as state information) indicating the state of the moving body moving together with the user U and the user U from the state information acquiring unit 60. Say).

次に、ステップS107において、制御部10は、ステップS101、S102、S104〜S106で取得した注視位置情報、脳測定情報、撮像情報、状態情報に基づいて、新たに警告状態が発生したか否かを判定する。なお、本実施形態における警告状態とは、第3の表示ゾーンZ3に表示する、緊急度の高い情報が示す内容が発生した状態を意味している。制御部10は、上述の情報の他にも外部から警告状態の発生を示す情報を受信して、新たに警告状態が発生したか否かを判定してもよい。ステップS107において新たに警告状態が発生していないと判定されると(ステップS107;No)、制御部10はステップS108以降の処理を実行し、新たに警告状態が発生したと判定されると(ステップS107;Yes)、制御部はステップS113の警告表示処理を実行する。警告表示処理については後で詳述する。   Next, in step S107, the control unit 10 determines whether or not a new warning state has occurred based on the gaze position information, brain measurement information, imaging information, and state information acquired in steps S101, S102, and S104 to S106. Determine. Note that the warning state in the present embodiment means a state in which the content indicated by the highly urgent information displayed in the third display zone Z3 has occurred. In addition to the information described above, the control unit 10 may receive information indicating the occurrence of a warning state from the outside and determine whether or not a new warning state has occurred. If it is determined in step S107 that a new warning state has not occurred (step S107; No), the control unit 10 executes the processes in and after step S108, and if it is determined that a new warning state has occurred (step S107; No). In step S107; Yes), the control unit executes warning display processing in step S113. The warning display process will be described in detail later.

ステップS108において、制御部10は、ステップS103で決定した注視表示ゾーンを示す注視表示ゾーン情報、ステップS101、S102、S104〜S106で取得した注視位置情報、脳測定情報、撮像情報、状態情報を通信部70を介してクラウドサーバ200に送信する。
HMD装置100(の通信部70)からこれらの情報を受信したクラウドサーバ200は、受信した注視表示ゾーン情報及び各種情報に基づいて、自身に蓄積される画像情報から特定された表示ゾーンに関連付けられた情報を示す画像情報を抽出する。具体的に、注視表示ゾーンが第1の表示ゾーンZ1である場合、クラウドサーバ200は、抽出する情報の種別を第1の表示ゾーンZ1に関連付けられた「使用者U及び移動体に関する情報」とし、さらに、状態情報に基づいて表示するべき画像情報(例えば状態情報の値や程度を表す数字、文字、図柄など)を抽出する。また、注視表示ゾーンが第2の表示ゾーンZ2である場合、クラウドサーバ200は、抽出する情報の種別を第2の表示ゾーンZ2に関連付けられた「風景に重畳するAR情報」とし、さらに、注視位置情報、撮像情報及び位置情報に基づいて表示するべき画像情報(例えば、使用者Uの注視位置周辺の店舗情報、道路に重畳する経路案内マーク、現在位置周辺のヒヤリハット情報)を抽出する。また、注視表示ゾーンが第3の表示ゾーンZ3である場合、クラウドサーバ200は、抽出する情報の種別を第3の表示ゾーンZ3に関連付けられた「緊急度の高い警告状態に関する情報」とし、さらに、状態情報などに基づいて表示するべき画像情報(例えば使用者Uの体調不良や移動体の故障、不調を報知する文字、図柄など)を抽出する。クラウドサーバ200は、抽出した画像情報をHMD装置100に送信する。
In step S108, the control unit 10 communicates gaze display zone information indicating the gaze display zone determined in step S103, gaze position information, brain measurement information, imaging information, and state information acquired in steps S101, S102, and S104 to S106. To the cloud server 200 via the unit 70.
The cloud server 200 that has received these pieces of information from the HMD device 100 (the communication unit 70 thereof) is associated with the display zone specified from the image information stored therein based on the received gaze display zone information and various information. The image information indicating the acquired information is extracted. Specifically, when the gaze display zone is the first display zone Z1, the cloud server 200 sets the type of information to be extracted as “information about the user U and the moving object” associated with the first display zone Z1. Furthermore, image information to be displayed based on the state information (for example, numbers, characters, designs, etc. representing the value and degree of the state information) is extracted. When the gaze display zone is the second display zone Z2, the cloud server 200 sets the type of information to be extracted as “AR information superimposed on the landscape” associated with the second display zone Z2, and further Image information to be displayed based on the position information, the imaging information, and the position information (for example, store information around the gaze position of the user U, a route guidance mark superimposed on the road, and near-miss information around the current position) is extracted. When the gaze display zone is the third display zone Z3, the cloud server 200 sets the type of information to be extracted as “information related to a warning state with a high degree of urgency” associated with the third display zone Z3. Then, image information to be displayed based on the state information or the like (for example, characters or symbols for notifying the user U of poor physical condition, moving body failure or malfunction) is extracted. The cloud server 200 transmits the extracted image information to the HMD device 100.

次に、ステップS109において、制御部10は、通信部70を介してクラウドサーバ200が抽出した画像情報を受信する。なお、HMD装置100は、クラウドサーバ200から各表示ゾーンZ1〜Z3に関連付けられた情報を示す画像情報の一部を予め受信して内部の記憶部(図示しない)に格納しておき、ステップS103で決定した注視表示ゾーンを示す注視表示ゾーン情報、ステップS101、S101、S104〜S106で取得した注視位置情報、脳測定情報、撮像情報、状態情報に基づいて前記記憶部から注視表示ゾーンに関連付けられた情報のうち表示するべき画像情報を読み出してもよい。   Next, in step S <b> 109, the control unit 10 receives the image information extracted by the cloud server 200 via the communication unit 70. Note that the HMD device 100 previously receives a part of image information indicating information associated with each of the display zones Z1 to Z3 from the cloud server 200, and stores the image information in an internal storage unit (not shown), in step S103. Based on the gaze display zone information indicating the gaze display zone determined in step S1, the gaze position information acquired in steps S101, S101, and S104 to S106, the brain measurement information, the imaging information, and the state information, the gaze display zone is associated with the gaze display zone. Image information to be displayed may be read out of the received information.

次に、ステップS110において、制御部10は、ステップS103で特定した注視表示ゾーンの奥行き位置と表示画像の虚像の結像位置とが一致するように結像位置調整部90を駆動させる。なお、表示画像の一部について結像位置の調整が可能である場合は、表示画像のうち決定した注視表示ゾーンに関連付けられた情報(受信した画像情報に応じた部分)についてのみ結像位置を調整してもよい。   Next, in step S110, the control unit 10 drives the imaging position adjustment unit 90 so that the depth position of the gaze display zone specified in step S103 matches the imaging position of the virtual image of the display image. If the image formation position can be adjusted for a part of the display image, the image formation position is set only for information associated with the determined gaze display zone (part corresponding to the received image information) in the display image. You may adjust.

次に、ステップS111において、制御部10は、表示器80にステップS109でクラウドサーバ200から受信した画像情報に応じた表示画像を表示させる(表示画像を更新させる)。   Next, in step S111, the control unit 10 causes the display device 80 to display a display image corresponding to the image information received from the cloud server 200 in step S109 (update the display image).

ステップS111あるいはステップS112の実行後、すなわち表示画像が表示された後、ステップS113において、制御部10は、脳測定部50からの認知判定情報に基づく視認性低下処理を実行する。視認性低下処理の詳細については後述する。   After step S111 or step S112 is executed, that is, after the display image is displayed, in step S113, the control unit 10 executes a visibility reduction process based on the recognition determination information from the brain measurement unit 50. Details of the visibility reduction process will be described later.

以上の処理を繰り返し実行することによって、HMD装置100は、使用者Uの注視位置に応じて、注視位置に関連する情報を虚像として使用者Uに視認させることができる。これにより、使用者Uが注視している位置に関連する情報が自動的に切り換えて表示されるため、使用者Uが付加される情報を容易に整理でき、情報の認識性を向上することができる。   By repeatedly executing the above processing, the HMD device 100 can cause the user U to visually recognize information related to the gaze position as a virtual image according to the gaze position of the user U. As a result, the information related to the position where the user U is gazing is automatically switched and displayed, so that the information added by the user U can be easily organized and the information recognizability can be improved. it can.

図6は、使用者Uが車両Cを運転している場合のHMD装置100の表示例を示すものである。なお、図6では使用者Uに視認される表示画像の虚像を示している。図6(a)は、注視表示ゾーンが第1の表示ゾーンZ1である場合の例を示す。図6(a)に示す例では、使用者U及び移動体に関する情報として、車両Cの走行速度(60Km/h)と使用者Uの脈拍(80bpm)を示す表示画像V1が表示器80に表示され、表示画像V1の虚像が使用者Uに視認される。図6(b)は、注視表示ゾーンが第2の表示ゾーンZ2である場合の例を示す。図6(b)に示す例では、風景に重畳するAR情報として、経路案内マーク(矢印マーク)と駐車場マーク(「P」を含むアイコン)を示す表示画像V2が表示器80に表示され、表示画像V2の虚像が使用者Uに視認される。図6(c)は、注視表示ゾーンが第3の表示ゾーンZ3である場合の例を示す。図6(c)に示す例では、緊急度の高い警告状態に関する情報として、残燃料の減少(警告状態)を報知するテキストメッセージ(「燃料減少。給油してください。」なる文字)を示す表示画像V3が表示器80に表示され、表示画像V3の虚像が使用者Uに視認される。   FIG. 6 shows a display example of the HMD device 100 when the user U is driving the vehicle C. In addition, in FIG. 6, the virtual image of the display image visually recognized by the user U is shown. FIG. 6A shows an example in which the gaze display zone is the first display zone Z1. In the example shown in FIG. 6A, a display image V1 indicating the traveling speed (60 Km / h) of the vehicle C and the pulse (80 bpm) of the user U is displayed on the display device 80 as information about the user U and the moving body. The virtual image of the display image V1 is visually recognized by the user U. FIG. 6B shows an example in which the gaze display zone is the second display zone Z2. In the example shown in FIG. 6B, a display image V2 indicating a route guidance mark (arrow mark) and a parking lot mark (icon including “P”) is displayed on the display device 80 as AR information superimposed on the landscape. The virtual image of the display image V2 is visually recognized by the user U. FIG. 6C shows an example in which the gaze display zone is the third display zone Z3. In the example shown in FIG. 6C, a display showing a text message (letter “fuel reduction. Please refuel”) that informs the decrease of the remaining fuel (warning state) as information on the warning state with a high degree of urgency. The image V3 is displayed on the display device 80, and a virtual image of the display image V3 is visually recognized by the user U.

図7は、使用者Uが車両Cを運転している場合のHMD装置100の他の表示例を示すものである。他の表示例では、ステップS101で取得した注視位置情報に基づいて、表示画像に含まれる情報のうちその少なくとも一部が注視位置P近傍に位置する情報をその全てが使用者Uの注視位置P近傍よりも外側に位置する情報に対して強調されるように表示器80に表示画像が表示される。本実施形態においては、制御部10は、注視位置情報と表示器80に表示される表示画像における情報の位置とから、その少なくとも一部が使用者Uの注視位置Pを含む注視領域Eの内側に位置すると判断される場合に使用者Uの注視位置P近傍に位置すると判断し、その全てが注視領域Eの外側に位置すると判断される場合に使用者Uの注視位置P近傍の外側に位置すると判断する。なお、注視領域Eは注視位置Pを中心として車両Cの水平方向(使用者Uの前後方向に対して垂直な方向)に広がる円状の範囲である。なお、図7では使用者Uに視認される表示画像の虚像を示している。図7は、注視表示ゾーンが第2の表示ゾーンZ2である場合の例を示す。図7に示す例では、風景に重畳するAR情報として、経路案内マーク(矢印マーク)と駐車場マーク(「P」を含むアイコン)を含む表示画像V22が表示器80に表示され、表示画像V22の虚像が使用者Uに視認される。さらに、表示画像V22に含まれるAR情報のうち、経路案内マークはその一部が注視領域Eの内側に位置し、駐車場マークはその全てが注視領域Eの外側に位置しており、経路案内マークが駐車場マークよりも強調されている。ここで、特定の情報を他の情報よりも強調するとは、特定の情報が他の情報よりも鮮明に使用者Uに視認されることを意味し、その具体的な方法としては、特定の情報の表示輝度を他の情報よりも高くする、表示色を異ならせるなどのほか、他の情報の表示輝度を下げる、他の情報の表示色をカラーからモノクロ(白黒)とする、他の情報をぼかして表示する(ピントをずらす)など他の情報の視認性を強調する特定の情報よりも低下させて相対的に強調する方法がある。なお、かかる他の表示例では、注視表示ゾーンが第1、第3の表示ゾーンZ1、Z3である場合も同様に、ステップS101で取得した注視位置情報に基づいて、表示画像に含まれる情報のうちその少なくとも一部が使用者Uの注視位置Pを含む注視領域Eの内側、すなわち注視位置P近傍に位置する情報をその全てが使用者Uの注視領域Eよりも外側に位置する情報に対して強調されるように表示器80に表示画像が表示され、その虚像が使用者Uに視認される。   FIG. 7 shows another display example of the HMD device 100 when the user U is driving the vehicle C. In another display example, based on the gaze position information acquired in step S101, all of the information included in the display image is information in the vicinity of the gaze position P, all of which is the gaze position P of the user U. A display image is displayed on the display device 80 so as to be emphasized with respect to information located outside the vicinity. In the present embodiment, the control unit 10, from the gaze position information and the position of the information in the display image displayed on the display device 80, at least a part of the inside of the gaze area E including the gaze position P of the user U. If it is determined that it is located near the gaze position P of the user U, it is located outside the vicinity of the gaze position P of the user U when it is judged that all are located outside the gaze area E. Judge that. Note that the gaze region E is a circular range that extends in the horizontal direction of the vehicle C (a direction perpendicular to the front-rear direction of the user U) with the gaze position P as the center. In addition, in FIG. 7, the virtual image of the display image visually recognized by the user U is shown. FIG. 7 shows an example in which the gaze display zone is the second display zone Z2. In the example shown in FIG. 7, a display image V22 including a route guidance mark (arrow mark) and a parking lot mark (icon including “P”) is displayed on the display device 80 as AR information to be superimposed on the landscape, and the display image V22 is displayed. Is visually recognized by the user U. Furthermore, among the AR information included in the display image V22, part of the route guidance mark is located inside the gaze area E, and all the parking lot marks are located outside the gaze area E. The mark is emphasized more than the parking lot mark. Here, emphasizing specific information over other information means that the specific information is visually recognized by the user U more clearly than the other information. In addition to making the display brightness higher than other information, changing the display color, etc., lowering the display brightness of other information, changing the display color of other information from color to monochrome (black and white), other information There is a method of relatively emphasizing by lowering specific information that emphasizes the visibility of other information, such as blurring display (shifting the focus). In the other display examples, when the gaze display zones are the first and third display zones Z1 and Z3, the information included in the display image is similarly based on the gaze position information acquired in step S101. Among them, at least a part of the information located in the gaze area E including the gaze position P of the user U, that is, the information located in the vicinity of the gaze position P is all the information located outside the gaze area E of the user U. The display image is displayed on the display unit 80 so as to be emphasized, and the virtual image is visually recognized by the user U.

次に、ステップS112における警告表示処理について図8を用いて説明する。
まず、ステップS121において、制御部10は、警告状態の発生を示す警告状態発生情報、ステップS101、S102、S104〜S106で取得した注視位置情報、脳測定情報、撮像情報、状態情報を通信部70を介してクラウドサーバ200に送信する。また、このとき、注視表示ゾーン情報も送信してもよい。
HMD装置100(の通信部70)からこれらの情報を受信したクラウドサーバ200は、受信した警告状態発生情報及び各種情報に基づいて、自身に蓄積される画像情報から第3の表示ゾーンZ3に関連付けられた情報を示す画像情報を抽出する。具体的に、クラウドサーバ200は、抽出する情報の種別を第3の表示ゾーンZ3に関連付けられた「緊急度の高い警告状態に関する情報」とし、さらに、状態情報などに基づいて表示するべき画像情報(新たに発生した警告状態に関する画像情報)を抽出する。クラウドサーバ200は、抽出した画像情報をHMD装置100に送信する。また、クラウドサーバ200は、注視表示ゾーン情報を受信した場合、自身に蓄積される画像情報から注視表示ゾーンに関連付けられた情報を示す画像情報も抽出してもよい。
Next, the warning display process in step S112 will be described with reference to FIG.
First, in step S121, the control unit 10 transmits warning state occurrence information indicating the occurrence of a warning state, gaze position information, brain measurement information, imaging information, and state information acquired in steps S101, S102, and S104 to S106 to the communication unit 70. To the cloud server 200 via At this time, gaze display zone information may also be transmitted.
The cloud server 200 that has received these pieces of information from the HMD device 100 (the communication unit 70 thereof) associates the image information stored in itself with the third display zone Z3 based on the received warning state occurrence information and various types of information. Image information indicating the obtained information is extracted. Specifically, the cloud server 200 sets the type of information to be extracted as “information related to a warning state with a high degree of urgency” associated with the third display zone Z3, and image information to be displayed based on the state information and the like. (Image information related to a newly generated warning state) is extracted. The cloud server 200 transmits the extracted image information to the HMD device 100. Moreover, when the cloud server 200 receives the gaze display zone information, the cloud server 200 may also extract image information indicating information associated with the gaze display zone from the image information stored in itself.

次に、ステップS122において、制御部10は、通信部70を介してクラウドサーバ200が抽出した画像情報を受信する。このとき、クラウドサーバ200から受信する画像情報は、少なくとも第3の表示ゾーンZ3に関連付けられた「緊急度の高い警告状態に関する情報」を示す画像情報となる。   Next, in step S <b> 122, the control unit 10 receives the image information extracted by the cloud server 200 via the communication unit 70. At this time, the image information received from the cloud server 200 is image information indicating “information regarding a warning state with a high degree of urgency” associated with at least the third display zone Z3.

次に、ステップS123において、制御部10は、第3の表示ゾーンZ3の奥行き位置と表示画像の結像位置とが一致するように結像位置調整部90を駆動させる。   Next, in step S123, the control unit 10 drives the imaging position adjustment unit 90 so that the depth position of the third display zone Z3 matches the imaging position of the display image.

次に、ステップS124において、制御部10は、表示器80にステップS107でクラウドサーバ200から受信した、第3の表示ゾーンZ3に関連付けられた「緊急度の高い警告状態に関する情報」を示す画像情報に応じた表示画像を表示させる(表示画像を更新させる)。   Next, in step S124, the control unit 10 displays, on the display device 80, image information indicating “information related to a warning state with a high degree of urgency” associated with the third display zone Z3 received from the cloud server 200 in step S107. A display image corresponding to is displayed (the display image is updated).

以上の処理を実行することによって、HMD装置100は、警告状態が新たに発生した場合には、使用者Uの注視位置に係わらず、優先順位の高い情報を虚像として使用者Uに視認させることができる。これにより、新たに発生した優先順位の高い情報が使用者Uに近い結像位置で自動的に表示されるため、使用者Uが付加される情報を容易に整理でき、情報の認識性を向上することができる。なお、警告状態が継続する場合、制御部10は、ステップS101からの処理を繰り返し実行することで、再び使用者Uの注視表示ゾーンに関連付けられた情報を示す表示画像の表示を行う。すなわち、使用者Uの注視位置が第3の表示ゾーンZ3に維持されない場合は、表示画像の結像位置が他の表示ゾーンに移動し、また、視認される表示画像はその表示内容が緊急度の高い警告状態に関する情報から使用者Uの注視表示ゾーンに関連付けられた情報に切り替わることとなる。   By executing the above processing, the HMD device 100 causes the user U to visually recognize high priority information as a virtual image regardless of the user U's gaze position when a new warning state occurs. Can do. As a result, the newly generated high priority information is automatically displayed at the imaging position close to the user U, so that the information added by the user U can be easily arranged and the information recognizability is improved. can do. When the warning state continues, the control unit 10 repeatedly displays the display image indicating information associated with the gaze display zone of the user U by repeatedly executing the processing from step S101. That is, when the gaze position of the user U is not maintained in the third display zone Z3, the image formation position of the display image moves to another display zone, and the display content of the visually recognized display image has an urgency level. The information regarding the high warning state is switched to the information associated with the gaze display zone of the user U.

図9は、使用者Uが車両Cを運転している場合のHMD装置100の警告表示処理による表示例を示すものである。なお、図8においては使用者Uに視認される表示画像の虚像を示している。図9(a)に示す第1の例では、警告表示処理により、使用者Uの注視位置に応じた情報の表示に替えて、緊急度の高い警告状態に関する情報(残燃料の減少を報知するテキストメッセージ(「燃料減少。給油してください。」なる文字))のみを含む表示画像V4が表示器80に表示され、表示画像V4の虚像が使用者Uに視認される。図9(b)に示す第2の例では、警告表示処理により、使用者Uの注視表示ゾーンに関連付けられた情報の表示(風景に重畳するAR情報(経路案内マーク(矢印マーク)及び駐車場マーク(「P」を含むアイコン)))に、緊急度の高い警告状態に関する情報(残燃料の減少を報知するテキストメッセージ(「燃料減少。給油してください。」なる文字))が使用者U側となるように重なり、かつ緊急度の高い警告状態に関する情報が使用者Uの注視表示ゾーンに関連付けられた情報よりも強調されている表示画像V5が表示器80に表示され、表示画像V5の虚像が使用者Uに視認される。情報を強調する具体的な方法としては、その表示輝度を他の情報よりも高くする、表示色を異ならせるなど前述の方法が用いられる。図9(c)に示す第3の例では、警告表示処理により、使用者Uの注視表示ゾーンに関連付けられた情報の表示(風景に重畳するAR情報(経路案内マーク(矢印マーク)及び駐車場マーク(「P」を含むアイコン)))に、緊急度の高い警告状態に関する情報(残燃料の減少を報知するテキストメッセージ(「燃料減少。給油してください。」なる文字))が使用者U側となるように重なり、かつ、使用者Uの注視表示ゾーンに関連付けられた情報が緊急度の高い警告状態に関する情報よりも視認性を下げられた表示画像V6が表示器80に表示され、表示画像V6の虚像が使用者Uに視認される。情報の視認性を下げる具体的な方法としては、その表示輝度を他の情報よりも低くする、彩度及び/あるいは明度を下げる、表示をぼかす(ピントをずらす)、一部(例えば緊急度の高い警告状態に関する情報と重なる部分及び周辺部分)を非表示とする、大きさを縮小するなどの方法がある。さらに、図9(d)に示す例の表示画像V7のように、情報の視認性を下げる方法として、使用者Uの注視表示ゾーンに関連付けられた情報を緊急度の高い警告状態に関する情報と重ならない表示位置に移動させてもよい。   FIG. 9 shows a display example by the warning display process of the HMD device 100 when the user U is driving the vehicle C. In addition, in FIG. 8, the virtual image of the display image visually recognized by the user U is shown. In the first example shown in FIG. 9A, information related to a warning state with a high degree of urgency (notification of a decrease in remaining fuel) is issued instead of displaying information according to the gaze position of the user U by warning display processing. A display image V4 including only a text message (letter “Fuel reduction. Please refuel”) is displayed on the display device 80, and a virtual image of the display image V4 is visually recognized by the user U. In the second example shown in FIG. 9B, display of information associated with the gaze display zone of the user U (AR information superimposed on the landscape (route guidance mark (arrow mark) and parking lot) is performed by warning display processing. Mark (icons including “P”))), a warning message with a high degree of urgency (a text message that informs the reduction of the remaining fuel (a letter “fuel reduction. Please refuel”)) is displayed on the user U. The display image V5 is displayed on the display device 80, and the information related to the warning state with high urgency is emphasized more than the information associated with the gaze display zone of the user U. A virtual image is visually recognized by the user U. As a specific method for emphasizing information, the above-described methods such as making the display brightness higher than other information and changing the display color are used. In the third example shown in FIG. 9C, display of information associated with the gaze display zone of the user U (AR information superimposed on the landscape (route guidance mark (arrow mark) and parking lot) is performed by warning display processing. Mark (icons including “P”))), a warning message with a high degree of urgency (a text message that informs the reduction of the remaining fuel (a letter “fuel reduction. Please refuel”)) is displayed on the user U. The display image V6 is displayed on the display device 80 so that the information associated with the gaze display zone of the user U is lower in visibility than the information on the warning state with a high degree of urgency. A virtual image of the image V6 is visually recognized by the user U. Specific methods for lowering the visibility of information include lowering its display brightness compared to other information, lowering saturation and / or brightness, blurring the display (shifting the focus), and part (eg, There are methods such as hiding a portion overlapping with information related to a high warning state and a surrounding portion, and reducing the size. Furthermore, as a method for reducing the visibility of information as in the display image V7 in the example shown in FIG. 9D, the information associated with the gaze display zone of the user U is overlapped with the information related to the warning state with a high degree of urgency. It may be moved to a display position that does not become necessary.

次に、ステップS113における視認性低下処理について図10を用いて説明する。
まず、ステップS131において、制御部10は、脳測定部50から使用者Uが特定情報(緊急度の高い警告状態に関する情報)を認知したか否かを示す認知判定情報を取得する。ここで取得する認知判定情報は、ステップS111またはステップS112において表示画像が表示された後の使用者Uの認知の有無を示すものである。
Next, the visibility reduction process in step S113 will be described with reference to FIG.
First, in step S131, the control unit 10 acquires recognition determination information indicating whether or not the user U has recognized specific information (information on a warning state with a high degree of urgency) from the brain measurement unit 50. The recognition determination information acquired here indicates whether or not the user U has recognized after the display image is displayed in step S111 or step S112.

次に、ステップS132において、制御部10は、ステップS131で取得した認知判定情報に基いて、使用者Uが表示画像に含まれる特定情報を認知したか否かを判断し、使用者Uが特定情報を認知したと判断される場合(ステップS132でYES)は、ステップS133に進み、使用者Uが特定情報を認知していないと判断される場合(ステップS132でNO)はステップS134に進む。   Next, in step S132, the control unit 10 determines whether or not the user U has recognized the specific information included in the display image based on the recognition determination information acquired in step S131. If it is determined that the information is recognized (YES in step S132), the process proceeds to step S133. If it is determined that the user U does not recognize the specific information (NO in step S132), the process proceeds to step S134.

ステップS133において、制御部10は、表示画像のうち特定情報の視認性が表示開始時よりも低下するように処理して、表示画像を更新する。ここで、特定情報の視認性を低下させる具体的な方法としては、非表示とする、その表示輝度を低くする、彩度及び/あるいは明度を下げる、表示をぼかす(ピントをずらす)、一部(例えば他の情報と重なる部分及び周辺部分)を非表示とする、大きさを縮小するなどの方法がある。さらに、視認性を低下させる方法として、特定情報を他の情報と重ならない表示位置に移動させてもよい。また、ステップS112の警告表示処理によって表示画像を表示した場合は、特定情報である緊急度の高い警告状態に関する情報の視認性を低下させることに伴って、表示画像の結像位置を注視表示ゾーンの奥行き位置と一致するように結像位置調整部90を駆動させるとともに、注視表示ゾーンに関連付けられた情報を表示画像に表示してもよい。図11は、視認性低下処理を行った後の表示例を示すものである。なお、図11では使用者Uに視認さえる表示画像の虚像を示している。また、図11(a)〜(b)は、図9(a)に示す警告表示処理による第1の例に対応するものである。図11(a)に示す例では、視認性低下処理により、使用者Uに認知された緊急度の高い警告状態に関する情報(残燃料の減少を報知するテキストメッセージ(「燃料減少。給油してください。」なる文字))の視認性を低下させた表示画像V41が表示器80に表示され、表示画像V41の虚像が使用者Uに視認される。図11(b)に示す例では、視認性低下処理により、使用者Uに認知された緊急度の高い警告状態に関する情報(残燃料の減少を報知するテキストメッセージ(「燃料減少。給油してください。」なる文字))を非表示とするとともに、使用者Uの注視表示ゾーンに関連付けられた情報の表示(風景に重畳するAR情報(経路案内マーク(矢印マーク)及び駐車場マーク(「P」を含むアイコン)))を含む表示画像V42が表示され、表示画像V42の虚像が使用者Uに視認される。この例では、さらに、表示画像の結像位置を注視表示ゾーンの奥行き位置と一致するように結像位置調整部90を駆動させてもよい。また、図11(c)に示す例の表示画像V43のように、情報の視認性を下げる方法として、使用者Uに認知された緊急度の高い警告状態に関する情報を使用者Uの注視表示ゾーンに関連付けられた情報と重ならない表示位置に移動させてもよい。   In step S133, the control unit 10 performs processing so that the visibility of the specific information in the display image is lower than that at the start of display, and updates the display image. Here, specific methods for reducing the visibility of specific information include non-display, lowering the display brightness, lowering saturation and / or brightness, blurring the display (shifting the focus), and some There are methods such as hiding (for example, a portion overlapping with other information and a peripheral portion) and reducing the size. Furthermore, as a method of reducing the visibility, the specific information may be moved to a display position that does not overlap with other information. When the display image is displayed by the warning display process in step S112, the image formation position of the display image is changed to the gaze display zone as the visibility of the information related to the warning state with high urgency that is the specific information is reduced. The image position adjustment unit 90 may be driven so as to coincide with the depth position of the image and information associated with the gaze display zone may be displayed on the display image. FIG. 11 shows a display example after the visibility lowering process is performed. In addition, in FIG. 11, the virtual image of the display image which the user U can visually recognize is shown. 11A to 11B correspond to the first example by the warning display process shown in FIG. 9A. In the example shown in FIG. 11 (a), the information about the warning state with a high degree of urgency recognized by the user U (text message to notify the decrease in the remaining fuel ("Fuel reduction. .) Is displayed on the display device 80, and the virtual image of the display image V41 is visually recognized by the user U. In the example shown in FIG. 11 (b), the information about the warning state with a high degree of urgency recognized by the user U (the text message ("Fuel reduction. ")" And the display of information associated with the gaze display zone of the user U (AR information (route guidance mark (arrow mark) and parking lot mark ("P") superimposed on the landscape)). The display image V42 including the icon))) is displayed, and the virtual image of the display image V42 is visually recognized by the user U. In this example, the imaging position adjustment unit 90 may be further driven so that the imaging position of the display image matches the depth position of the gaze display zone. Moreover, as a display image V43 in the example shown in FIG. 11C, as a method of reducing the visibility of information, information on a warning state with a high degree of urgency recognized by the user U is used as a gaze display zone of the user U. You may move to the display position which does not overlap with the information linked | related.

以上の処理を実行することによって、より使用者Uの実状に応じた情報を提供することができる。   By executing the above processing, information according to the actual condition of the user U can be provided.

本実施形態におけるHMD装置100は、使用者Uに風景と重ねて所定の情報を含む表示画像V1〜V7、V22、V41〜V43を視認させる表示装置であって、使用者Uの注視位置を検出する注視位置検出部20と、表示画像V1〜V7、V22、V41〜V43を示す表示光を出射する表示器80と、クラウドサーバ200と通信可能な通信部70と、通信部70を介してクラウドサーバ200から取得した前記情報を示す画像情報に応じて表示画像V1〜V7、V22、V41〜V43を表示器80に表示させる制御部10と、前記表示光によって使用者Uに視認される表示画像V1〜V7、V22、V41〜V43の少なくとも一部の結像位置を調整可能な結像位置調整部90と、を備え、
制御部10は、使用者U前方に奥行き方向の位置が異なる複数の表示ゾーンZ1、Z2、Z3を仮想的に設定し、注視位置検出部20からの注視位置情報に基づいて使用者Uが注視している表示ゾーンを特定し、通信部70を介してクラウドサーバ200から特定した前記表示ゾーンに関連付けられた情報を示す画像情報を取得して、特定した前記表示ゾーンの奥行き位置と表示画像V1〜V3、V22のうち少なくとも特定した前記表示ゾーンに関連付けられた前記情報の結像位置とが一致するように結像位置調整部90を駆動させるとともに、表示器80に取得した前記画像情報に応じて表示画像V1〜V3、V22を表示させる。
The HMD device 100 according to the present embodiment is a display device that allows the user U to view display images V1 to V7, V22, and V41 to V43 including predetermined information superimposed on the landscape, and detects the gaze position of the user U. Gaze position detection unit 20, display device 80 that emits display light indicating display images V 1 to V 7, V 22, V 41 to V 43, a communication unit 70 that can communicate with the cloud server 200, and a cloud via the communication unit 70. The control unit 10 that displays the display images V1 to V7, V22, and V41 to V43 on the display device 80 according to the image information indicating the information acquired from the server 200, and the display image that is visually recognized by the user U by the display light. An imaging position adjustment unit 90 that can adjust at least a part of the imaging positions of V1 to V7, V22, and V41 to V43, and
The control unit 10 virtually sets a plurality of display zones Z1, Z2, and Z3 having different positions in the depth direction in front of the user U, and the user U gazes based on the gaze position information from the gaze position detection unit 20. Image information indicating information associated with the specified display zone is acquired from the cloud server 200 via the communication unit 70, and the depth position of the specified display zone and the display image V1 are acquired. The imaging position adjustment unit 90 is driven so that the imaging position of the information associated with at least the specified display zone of ~ V3 and V22 coincides, and the display unit 80 responds to the acquired image information. Display images V1 to V3 and V22.

これによれば、使用者Uが注視している位置に関連する情報が自動的に切り換えて表示されるため、使用者Uが付加される情報を容易に整理でき、情報の認識性を向上することができる。   According to this, since the information related to the position where the user U is gazing is automatically switched and displayed, the information added by the user U can be easily arranged and the information recognizability is improved. be able to.

また、HMD装置100は、使用者Uの脳活動に基いて使用者Uが前記情報のうち特定情報を認知したか否かを判定する脳測定部50を備え、
制御部10は、表示画像V1〜V7、V22の表示後に脳測定部50からの認知情報に基いて使用者Uが前記特定情報を認知したと判断される場合に、表示画像V1〜V7、V22のうち前記特定情報の視認性を低下させる。
これによれば、使用者Uが認知して表示の優先度が下がった情報が視認されない、あるいは視認されにくくなるため、より使用者Uの実状に応じた情報を提供することができる。
Further, the HMD device 100 includes a brain measurement unit 50 that determines whether the user U has recognized specific information among the information based on the brain activity of the user U,
When it is determined that the user U has recognized the specific information based on the recognition information from the brain measurement unit 50 after the display images V1 to V7 and V22 are displayed, the control unit 10 displays the display images V1 to V7 and V22. Among them, the visibility of the specific information is reduced.
According to this, since the information which the user U recognized and the display priority fell is not visually recognized or becomes difficult to visually recognize, the information according to the actual condition of the user U can be provided more.

また、HMD装置100は、複数の表示ゾーンとして、第1の表示ゾーンZ1とこの第1の表示ゾーンZ1よりも奥行き側に位置する第2の表示ゾーンZ2が設定され、
クラウドサーバ200において、第1の表示ゾーンZ1に関連付けられて使用者U及び/あるいは使用者Uと共に移動する移動体(車両C)に関する第1の情報が格納されており、第2の表示ゾーンZ2に関連付けられて風景に重畳する第2の情報が格納されている。
またさらに、HMD装置100は、複数の表示ゾーンとして、さらに第1の表示ゾーンZ1よりも手前側に位置する第3の表示ゾーンZ3が設定され、
クラウドサーバ200において、第3の表示ゾーンZ3に関連付けられて警告状態に関する第3の情報が格納されており、
前記特定情報は前記第3の情報である。
これによれば、使用者Uが注視する位置に応じて優先度の異なる情報が自動的に切り換えて表示されるため、使用者Uが付加される情報を容易に整理でき、情報の認識性を向上することができる。また、優先度の高い情報を特定情報とすることで、優先度の高い情報を使用者Uの実状に応じて適切に提供することができる。
In addition, the HMD device 100 is configured with a first display zone Z1 and a second display zone Z2 located on the depth side of the first display zone Z1 as a plurality of display zones,
In the cloud server 200, first information related to the user U and / or a moving body (vehicle C) moving with the user U in association with the first display zone Z1 is stored, and the second display zone Z2 is stored. Second information to be superimposed on the landscape is stored.
Furthermore, in the HMD device 100, as a plurality of display zones, a third display zone Z3 positioned further on the near side than the first display zone Z1 is set,
In the cloud server 200, the third information related to the warning state is stored in association with the third display zone Z3.
The specific information is the third information.
According to this, since information with different priorities is automatically switched and displayed according to the position where the user U is gazing, the information added by the user U can be easily organized and the information can be recognized. Can be improved. Moreover, information with high priority can be appropriately provided according to the actual state of the user U by using specific information as information with high priority.

また、HMD装置100において、制御部10は、取得した前記画像情報に応じて表示画像V22を表示器80に表示させる際に、前記注視位置情報に基づいて表示画像V22に含まれる前記情報のうちその少なくとも一部が使用者Uの注視位置P近傍に位置する情報をその全てが使用者Uの注視位置P近傍よりも外側に位置する情報に対して強調されるように表示器80に表示画像V22を表示させる。
これによれば、使用者Uが付加される情報のうち、より注視位置に近い情報を瞬時に認識することができ、情報の視認性を向上することができる。
Further, in the HMD device 100, when the control unit 10 displays the display image V22 on the display unit 80 according to the acquired image information, the control unit 10 includes the information included in the display image V22 based on the gaze position information. The display image is displayed on the display unit 80 so that at least a part of the information located near the user's U gaze position P is emphasized with respect to the information located outside the gaze position P of the user U. V22 is displayed.
According to this, among the information added by the user U, information closer to the gaze position can be recognized instantly, and the visibility of the information can be improved.

また、HMD装置100において、制御部10は、前記警告状態の発生を判定し、前記警告状態が発生したと判定される場合に、特定した前記表示ゾーンに係わらず通信部70を介してクラウドサーバ200から前記第3の情報を示す画像情報を取得して、表示画像V4〜V7のうち少なくとも前記第3の情報の結像位置が第3の表示ゾーンZ3の奥行き位置に一致するように結像位置調整部90を駆動させるとともに、表示器80に取得した前記第3の情報を示す画像情報に応じて表示画像V4〜V7を表示させる。
これによれば、新たに発生した警告状態に関する情報を優先的に表示でき、状況に応じた最適な情報を提供することができる。
Further, in the HMD device 100, the control unit 10 determines the occurrence of the warning state, and when it is determined that the warning state has occurred, the cloud server via the communication unit 70 is determined regardless of the specified display zone. Image information indicating the third information is acquired from 200, and image formation is performed so that at least the image formation position of the third information in the display images V4 to V7 matches the depth position of the third display zone Z3. The position adjustment unit 90 is driven, and the display images V4 to V7 are displayed according to the image information indicating the acquired third information on the display device 80.
According to this, it is possible to preferentially display information related to a newly generated warning state, and it is possible to provide optimal information according to the situation.

また、HMD装置100において、制御部10は、前記警告状態が発生したと判定し、表示器80に前記第3の情報を示す画像情報に応じて表示画像V5を表示させる際に、特定した前記表示ゾーンに関連付けられた前記情報と前記第3の情報とを含み、かつ、前記第3の情報が特定した前記表示ゾーンに関連付けられた前記情報よりも強調されるように表示器80に表示画像V5を表示させる。
これによれば、新たに発生した警告状態に関する情報を優先的に表示する場合に、使用者Uが使用者Uの注視位置に関連する情報の存在を認識しながら、優先度の高い情報を容易に把握することができる。
Further, in the HMD device 100, the control unit 10 determines that the warning state has occurred, and when the display image V5 is displayed according to the image information indicating the third information on the display device 80, the control unit 10 identifies The display image is displayed on the display unit 80 so as to include the information associated with the display zone and the third information, and the third information is more emphasized than the information associated with the specified display zone. V5 is displayed.
According to this, when information related to a newly generated warning state is preferentially displayed, it is easy for the user U to recognize high-priority information while recognizing the presence of information related to the gaze position of the user U. Can grasp.

また、HMD装置100において、制御部10は、前記警告状態が発生したと判定し、表示器80に前記第3の情報を示す画像情報に応じて表示画像V6、V7を表示させる際に、特定した前記表示ゾーンに関連付けられた前記情報と前記第3の情報とを含み、かつ、特定した前記表示ゾーンに関連付けられた前記情報が前記第3の情報よりも視認性が低くなるように前記表示器に前記表示画像を表示させる。
これによれば、新たに発生した警告状態に関する情報を優先的に表示する場合に、使用者Uが使用者Uの注視位置に関連する情報の存在を認識しながら、優先度の高い情報を容易に把握することができる。
Further, in the HMD device 100, the control unit 10 determines that the warning state has occurred, and specifies the display image V6 or V7 on the display device 80 according to the image information indicating the third information. The display includes the information associated with the display zone and the third information, and the information associated with the identified display zone is less visible than the third information. The display image is displayed on a container.
According to this, when information related to a newly generated warning state is preferentially displayed, it is easy for the user U to recognize high-priority information while recognizing the presence of information related to the gaze position of the user U. Can grasp.

なお、本実施形態においてはHMD装置100を例に挙げて説明したが、本発明は、表示装置として、表示画像を示す表示光を出射する表示器と、車両に使用者の少なくとも一方の眼の視界を覆うように設置され、前記表示光を前記使用者の眼に入射させる透過性のコンバイナ(表示部材)と、を備える車両用表示装置(非装着型の表示装置)に適用されてもよい。また、本発明は、表示装置として、表示器が使用者の視界を遮るように配置される非透過型の表示装置に適用されてもよい。非透過型の表示装置においては、使用者前方の風景を撮像した風景画像に所定の情報を示す付加画像が重ねられた表示画像が表示器に表示され、レンズや光学部材を介して使用者に表示画像(実像)が視認される。すなわち、本発明における「風景」は実風景のほか風景画像であってもよく、使用者に視認される表示画像は虚像であっても実像であってもよい。
また、本発明の特定情報は、緊急度の高い警告状態に関する情報に限定されるものではなく、任意の情報を選択することができる。使用者Uによる設定で特定情報とする情報を変更可能としてもよい。
In the present embodiment, the HMD device 100 has been described as an example. However, the present invention provides, as a display device, a display that emits display light indicating a display image, and at least one eye of a user on the vehicle. The present invention may be applied to a vehicle display device (non-wearable display device) that is provided so as to cover a field of view and includes a transmissive combiner (display member) that causes the display light to enter the user's eyes. . Further, the present invention may be applied to a non-transmissive display device in which a display device is arranged so as to block a user's field of view as a display device. In the non-transmissive display device, a display image in which an additional image indicating predetermined information is superimposed on a landscape image obtained by capturing a landscape in front of the user is displayed on the display, and is displayed to the user via a lens or an optical member. A display image (real image) is visually recognized. That is, the “landscape” in the present invention may be a landscape image in addition to a real landscape, and the display image visually recognized by the user may be a virtual image or a real image.
Further, the specific information of the present invention is not limited to information related to a warning state with a high degree of urgency, and arbitrary information can be selected. Information set as specific information by setting by the user U may be changeable.

本発明は、視認者に風景と重ねて所定の情報を含む表示画像を視認させる表示装置に好適である。   The present invention is suitable for a display device that allows a viewer to visually recognize a display image including predetermined information superimposed on a landscape.

100 ヘッドマウントディスプレイ装置(HMD装置)
10 制御部
20 注視位置検出部
30 撮像部
40 位置情報取得部
50 脳測定部(認知判定部)
60 状態情報取得部
70 通信部
80 表示器
90 結像位置調整部
C 車両
U 使用者
V1〜V7、V22、V41〜V43 表示画像
100 Head-mounted display device (HMD device)
DESCRIPTION OF SYMBOLS 10 Control part 20 Gaze position detection part 30 Imaging part 40 Position information acquisition part 50 Brain measurement part (cognitive determination part)
60 Status information acquisition unit 70 Communication unit 80 Display 90 Imaging position adjustment unit C Vehicle U User V1 to V7, V22, V41 to V43 Display image

Claims (7)

使用者に風景と重ねて所定の情報を含む表示画像を視認させる表示装置であって、
前記使用者の注視位置を検出する注視位置検出部と、
前記使用者の脳活動に基いて前記使用者が前記情報のうち特定情報を認知したか否かを判定する認知判定部と、
前記表示画像を示す表示光を出射する表示器と、
外部サーバと通信可能な通信部と、
前記通信部を介して前記外部サーバから取得した前記情報を示す画像情報に応じて前記表示画像を前記表示器に表示させる制御部と、
前記表示光によって使用者に視認される前記表示画像の少なくとも一部の結像位置を調整可能な結像位置調整部と、を備え、
前記制御部は、前記使用者前方に奥行き方向の位置が異なる複数の表示ゾーンを仮想的に設定し、前記注視位置検出部からの注視位置情報に基づいて使用者が注視している表示ゾーンを特定し、前記通信部を介して前記外部サーバから特定した前記表示ゾーンに関連付けられた情報を示す画像情報を取得して、特定した前記表示ゾーンの奥行き位置と前記表示画像のうち少なくとも特定した前記表示ゾーンに関連付けられた前記情報の結像位置とが一致するように前記結像位置調整部を駆動させるとともに、前記表示器に取得した前記画像情報に応じて前記表示画像を表示させ、さらに、前記表示画像の表示後に前記認知判定部からの認知情報に基いて前記使用者が前記特定情報を認知したと判断される場合に、前記表示画像のうち前記特定情報の視認性を低下させる、
ことを特徴とする表示装置。
A display device that allows a user to visually recognize a display image including predetermined information superimposed on a landscape,
A gaze position detection unit for detecting a gaze position of the user;
A recognition determination unit that determines whether the user has recognized specific information among the information based on the brain activity of the user;
A display that emits display light indicating the display image;
A communication unit capable of communicating with an external server;
A control unit that causes the display to display the display image in accordance with image information indicating the information acquired from the external server via the communication unit;
An imaging position adjustment unit capable of adjusting an imaging position of at least a part of the display image visually recognized by the user by the display light,
The control unit virtually sets a plurality of display zones having different positions in the depth direction in front of the user, and displays the display zone being watched by the user based on gaze position information from the gaze position detection unit. Specifying and acquiring image information indicating information associated with the display zone specified from the external server via the communication unit, and specifying at least the depth position of the specified display zone and the display image Driving the imaging position adjustment unit to match the imaging position of the information associated with the display zone, and causing the display to display the display image according to the acquired image information; When it is determined that the user has recognized the specific information based on the recognition information from the recognition determination unit after the display image is displayed, the specific of the display image Reducing the visibility of the broadcast,
A display device characterized by that.
前記複数の表示ゾーンとして、第1の表示ゾーンとこの第1の表示ゾーンよりも奥行き側に位置する第2の表示ゾーンが設定され、
前記外部サーバにおいて、前記第1の表示ゾーンに関連付けられて前記使用者及び/あるいは前記使用者と共に移動する移動体に関する第1の情報が格納されており、前記第2の表示ゾーンに関連付けられて風景に重畳する第2の情報が格納されている、
ことを特徴とする請求項1に記載の表示装置。
As the plurality of display zones, a first display zone and a second display zone located on the depth side of the first display zone are set,
In the external server, first information related to the user and / or a moving body that moves together with the user is stored in association with the first display zone, and is associated with the second display zone. Second information to be superimposed on the landscape is stored.
The display device according to claim 1.
前記複数の表示ゾーンとして、さらに前記第1の表示ゾーンよりも手前側に位置する第3の表示ゾーンが設定され、
前記外部サーバにおいて、前記第3の表示ゾーンに関連付けられて警告状態に関する第3の情報が格納されており、
前記特定情報は、前記第3の情報である、
ことを特徴とする請求項2に記載の表示装置。
As the plurality of display zones, a third display zone located further on the front side than the first display zone is set,
In the external server, third information related to the warning state is stored in association with the third display zone,
The specific information is the third information.
The display device according to claim 2.
前記制御部は、前記警告状態の発生を判定し、前記警告状態が発生したと判定される場合に、特定した前記表示ゾーンに係わらず前記通信部を介して前記外部サーバから前記第3の情報を示す画像情報を取得して、前記表示画像のうち少なくとも前記第3の情報の結像位置が前記第3の表示ゾーンの奥行き位置に一致するように前記結像位置調整部を駆動させるとともに、前記表示器に取得した前記第3の情報を示す画像情報に応じて前記表示画像を表示させる、
ことを特徴とする請求項3に記載の表示装置。
The control unit determines the occurrence of the warning state, and when it is determined that the warning state has occurred, the third information is transmitted from the external server via the communication unit regardless of the specified display zone. And driving the imaging position adjustment unit so that at least the imaging position of the third information in the display image matches the depth position of the third display zone, Displaying the display image according to image information indicating the third information acquired by the display;
The display device according to claim 3.
前記制御部は、前記警告状態が発生したと判定し、前記表示器に前記第3の情報を示す前記画像情報に応じて前記表示画像を表示させる際に、特定した前記表示ゾーンに関連付けられた前記情報と前記第3の情報とを含み、かつ、前記第3の情報が特定した前記表示ゾーンに関連付けられた前記情報よりも強調されるように前記表示器に前記表示画像を表示させる、
ことを特徴とする請求項4に記載の表示装置。
The control unit determines that the warning state has occurred, and displays the display image in accordance with the image information indicating the third information on the display, and is associated with the specified display zone Including the information and the third information, and causing the display to display the display image such that the third information is emphasized more than the information associated with the specified display zone.
The display device according to claim 4.
前記制御部は、前記警告状態が発生したと判定し、前記表示器に前記第3の情報を示す前記画像情報に応じて前記表示画像を表示させる際に、特定した前記表示ゾーンに関連付けられた前記情報と前記第3の情報とを含み、かつ、前記情報が前記第3の情報よりも視認性が低くなるように前記表示器に前記表示画像を表示させる、
ことを特徴とする請求項4に記載の表示装置。
The control unit determines that the warning state has occurred, and displays the display image in accordance with the image information indicating the third information on the display, and is associated with the specified display zone Including the information and the third information, and causing the display to display the display image so that the information is less visible than the third information.
The display device according to claim 4.
前記制御部は、取得した前記画像情報に応じて前記表示画像を前記表示器に表示させる際に、前記注視位置情報に基づいて前記表示画像に含まれる前記情報のうちその少なくとも一部が前記使用者の注視位置近傍に位置する情報をその全てが前記使用者の注視位置近傍よりも外側に位置する情報に対して強調されるように前記表示器に前記表示画像を表示させる、
ことを特徴とする請求項1記載の表示装置。
When the control unit displays the display image on the display according to the acquired image information, at least a part of the information included in the display image based on the gaze position information is used. Display the display image on the display so that all the information located near the gaze position of the person is emphasized with respect to information located outside the gaze position near the user.
The display device according to claim 1.
JP2016176229A 2016-09-09 2016-09-09 Display device Pending JP2018041362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016176229A JP2018041362A (en) 2016-09-09 2016-09-09 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016176229A JP2018041362A (en) 2016-09-09 2016-09-09 Display device

Publications (1)

Publication Number Publication Date
JP2018041362A true JP2018041362A (en) 2018-03-15

Family

ID=61626151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016176229A Pending JP2018041362A (en) 2016-09-09 2016-09-09 Display device

Country Status (1)

Country Link
JP (1) JP2018041362A (en)

Similar Documents

Publication Publication Date Title
JP6443677B2 (en) Head mounted display device
JP6493361B2 (en) Vehicle device, vehicle program, filter design program
US20140098008A1 (en) Method and apparatus for vehicle enabled visual augmentation
US20230249618A1 (en) Display system and display method
JP2013203103A (en) Display device for vehicle, control method therefor, and program
JP4501778B2 (en) Vehicle information display method and vehicle information display device
EP3540710A1 (en) Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
JP2018156173A (en) Display system in vehicle and method for controlling display system in vehicle
JP2017009406A (en) Display system for on vehicle use
JP2015128202A (en) Vehicular information display apparatus and vehicular information display method
JP6620977B2 (en) Display control device, projection device, and display control program
JP2009183473A (en) Visual line direction detection device, and visual line direction detection method
JP2005301144A (en) Virtual image display device and program
JP2017016457A (en) Display control device, projector, display control program, and recording medium
JP2018041011A (en) Display device
CN110053609B (en) Display cooperation control device for vehicle
JP2013255781A (en) Method for adjusting point-of-gaze for visual line detection unit and pointing device for display
JP2017091013A (en) Driving support device
US9495871B2 (en) Display control device, display control method, non-transitory recording medium, and projection device
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP2017167623A (en) Information display device, information display method, and program
JP2018041009A (en) Display device
JP6485310B2 (en) Information providing system, information providing method, and computer program
JP2018042166A (en) Display device
WO2016143744A1 (en) Head mounted display device