JP6733174B2 - Head-mounted display device, head-mounted display device control method, and computer program - Google Patents

Head-mounted display device, head-mounted display device control method, and computer program Download PDF

Info

Publication number
JP6733174B2
JP6733174B2 JP2015251491A JP2015251491A JP6733174B2 JP 6733174 B2 JP6733174 B2 JP 6733174B2 JP 2015251491 A JP2015251491 A JP 2015251491A JP 2015251491 A JP2015251491 A JP 2015251491A JP 6733174 B2 JP6733174 B2 JP 6733174B2
Authority
JP
Japan
Prior art keywords
image
display
unit
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015251491A
Other languages
Japanese (ja)
Other versions
JP2017117175A5 (en
JP2017117175A (en
Inventor
健郎 矢島
健郎 矢島
勇一 毛利
勇一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015251491A priority Critical patent/JP6733174B2/en
Priority to CN201610146097.6A priority patent/CN105988219B/en
Priority to CN202011123958.1A priority patent/CN112130329B/en
Priority to US15/070,469 priority patent/US9977241B2/en
Publication of JP2017117175A publication Critical patent/JP2017117175A/en
Priority to US15/964,843 priority patent/US10175484B2/en
Publication of JP2017117175A5 publication Critical patent/JP2017117175A5/ja
Application granted granted Critical
Publication of JP6733174B2 publication Critical patent/JP6733174B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、頭部装着型表示装置の技術に関する。 The present invention relates to a technique of a head-mounted display device.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表わす画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。 2. Description of the Related Art A head-mounted display device (head mounted display, HMD) that is a display device mounted on the head is known. A head-mounted display device, for example, uses a liquid crystal display and a light source to generate image light representing an image, and guides the generated image light to a user's eye using a projection optical system or a light guide plate. This allows the user to visually recognize the virtual image. There are two types of head-mounted display devices, a transmissive type in which a user can visually recognize an outside scene in addition to a virtual image and a non-transmissive type in which a user cannot visually recognize an outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.

特許文献1には、使用者の視野を2つ以上の領域に分割し、分割した領域ごとに対応させた仮想画像を表示させる頭部装着型表示装置が記載されている。また、特許文献2には、検出された使用者の視線位置の近傍に入力を補助するためのガイド情報を示す画像を表示させるマルチモーダル・インターフェース(multimodal interface)が記載されている。また、特許文献3には、使用者の歩行などの移動状態に合わせて変化する使用者の注視点までの距離と同じ位置に、使用者に視認される画像を表示させる頭部装着型表示装置が記載されている。 Patent Document 1 describes a head-mounted display device that divides a visual field of a user into two or more regions and displays a virtual image corresponding to each of the divided regions. Further, Patent Document 2 describes a multimodal interface that displays an image showing guide information for assisting input in the vicinity of the detected line-of-sight position of the user. Further, in Patent Document 3, a head-mounted display device that displays an image visually recognized by the user at the same position as the distance to the gazing point of the user, which changes according to a moving state of the user such as walking. Is listed.

特表2014−526157号公報Special table 2014-526157 gazette 特開平11−54778号公報JP, 11-54778, A 特開2014−225727号公報JP, 2014-225727, A

しかし、特許文献1に記載された技術では、分割された領域に表示される仮想画像が多い場合には、仮想画像を表示させるための処理の負担が大きく、仮想画像の表示に遅れを生じるおそれがあった。また、特許文献2,3に記載された技術でも、表示される画像の容量が大きい場合には、画像を表示させるための処理の負担が大きい場合があった。そのほか、従来の頭部装着型表示装置の技術においては、その小型化や、低コスト化、製造の容易化、使い勝手の向上等が望まれていた。 However, in the technique described in Patent Document 1, when a large number of virtual images are displayed in the divided areas, the processing load for displaying the virtual images is heavy and the display of the virtual images may be delayed. was there. Further, even in the technologies described in Patent Documents 2 and 3, when the capacity of the displayed image is large, the processing load for displaying the image may be heavy. In addition, in the conventional head-mounted display device technology, there have been demands for downsizing, cost reduction, easy manufacturing, and improvement of usability.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
本発明の一形態の頭部装着型表示装置は、画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示部と、使用者の視線方向を特定する視線方向特定部と、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、前記外景を撮像する外景撮像部と、特定対象物に対応付けられた前記表示画像の元である画像データを、前記画像データの種類ごとに識別して取得する画像データ取得部と、を備え、前記画像変更部は、前記外景撮像部が特定対象物を撮像した場合に、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記画像データ取得部が取得した前記画像データの種類と、前記表示領域に対する撮像された前記特定対象物の位置と、に基づいて、前記特定対象物に対応付けられた前記表示画像の態様を決定する。
この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。また、特定対象物と表示される画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。また、画像データの種類に応じて使用者に視認させる画像の表示態様が異なり、必要に応じた画像を使用者に視認させることができる。
本発明の他の一形態の頭部装着型表示装置は、画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示部と、使用者の視線方向を特定する視線方向特定部と、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、前記外景を撮像する外景撮像部と、前記外景において移動している移動物体を特定する移動物体特定部と、を備え、前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記移動物体が前記画像表示部に近づく速度に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する。
この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。また、特定対象物と表示される画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。また、使用者に近づく自動車等について危険を使用者に報知できる。
本発明のさらに他の一形態の頭部装着型表示装置は、画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示部と、使用者の視線方向を特定する視線方向特定部と、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、前記外景を撮像する外景撮像部と、を備え、前記視線方向特定部は、さらに、使用者が視認している視認対象までの距離を特定し、前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記視認対象と、前記視認対象以外の範囲であると共に前記視認対象に対して移動している移動背景に基づく運動特性と、に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する。
この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。また、特定対象物と表示される画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。また、使用者が視認している視認対象との移動速度の比較によって、画像の表示態様を設定するため、使用者に与える臨場感を調整できる。
その他、本発明は、以下の形態としても実現することが可能である。
The present invention has been made to solve at least a part of the problems described above, and can be realized as the following modes.
A head-mounted display device according to an aspect of the present invention is capable of displaying an image in a display area, and an image display unit capable of transmitting an outside scene, and a line-of-sight direction specifying unit that specifies a line-of-sight direction of a user, An image changing unit that changes a display image displayed in the display area according to the identified line-of-sight direction, an outside scene image capturing unit that captures the outside scene, and an original of the display image associated with a specific object. And an image data acquisition unit that identifies and acquires the image data for each type of the image data, and the image changing unit is imaged when the outside scene imaging unit images the specific object. A specific object is detected from the image of the outside scene, the position of the display image is set in association with the position of the detected specific object, and the type of the image data acquired by the image data acquisition unit, and A mode of the display image associated with the specific object is determined based on the imaged position of the specific object with respect to the display area.
According to the head-mounted display device of this aspect, by changing the display mode of the image according to the position visually recognized by the user, the visibility of the image displayed by the user is not reduced, and the image is displayed. It is possible to reduce the processing load for displaying. In addition, the correspondence between the specific object and the displayed image can be more visually recognized by the user, and the usability for the user is improved. In addition, the display mode of the image visually recognized by the user varies depending on the type of image data, and the image can be visually recognized by the user as needed.
A head-mounted display device according to another aspect of the present invention is an image display unit capable of displaying an image in a display area and capable of transmitting an outside scene, and a line-of-sight direction specifying unit for specifying a line-of-sight direction of a user. And an image changing unit that changes a display image displayed in the display area according to the specified line-of-sight direction, an outside scene imaging unit that captures the outside scene, and a moving object that is moving in the outside scene. And a moving object specifying unit that does, the image changing unit detects a specific target object from the captured image of the outside scene, and associates the position of the display image with the position of the detected specific target object. The display mode of the display image associated with the specific object is set based on the speed at which the moving object approaches the image display unit.
According to the head-mounted display device of this aspect, by changing the display mode of the image according to the position visually recognized by the user, the visibility of the image displayed by the user is not reduced, and the image is displayed. It is possible to reduce the processing load for displaying. In addition, the correspondence between the specific object and the displayed image can be more visually recognized by the user, and the usability for the user is improved. Further, it is possible to inform the user of a danger of a car approaching the user.
A head-mounted display device according to still another aspect of the present invention is capable of displaying an image in a display area, and an image display unit capable of transmitting an outside scene, and a line-of-sight direction specification for specifying a line-of-sight direction of a user. Unit, an image changing unit that changes a display image displayed in the display area according to the identified line-of-sight direction, and an outside-view image capturing unit that captures the outside scene. Furthermore, the distance to the visual target visually recognized by the user is specified, the image changing unit detects the specific object from the captured image of the outside scene, and corresponds to the position of the detected specific object. The position of the display image is set, and the specific target is based on the visual target and a motion characteristic based on a moving background that is in a range other than the visual target and that is moving with respect to the visual target. A display mode of the display image associated with an object is set.
According to the head-mounted display device of this aspect, by changing the display mode of the image according to the position visually recognized by the user, the visibility of the image displayed by the user is not reduced, and the image is displayed. It is possible to reduce the processing load for displaying. In addition, the correspondence between the specific object and the displayed image can be more visually recognized by the user, and the usability for the user is improved. Further, since the display mode of the image is set by comparing the moving speed with the visual target visually recognized by the user, the sense of presence given to the user can be adjusted.
In addition, the present invention can be implemented as the following modes.

(1)本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表示領域に表示可能な画像表示部と;使用者の視線方向を特定する視線方向特定部と;特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、を備える。この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。 (1) According to one aspect of the invention, a head-mounted display device is provided. This head-mounted display device includes an image display unit capable of displaying an image in a display region; a line-of-sight direction specifying unit that specifies a user's line-of-sight direction; and a display line in the display region according to the specified line-of-sight direction. An image changing unit that changes the displayed image to be displayed. According to the head-mounted display device of this aspect, by changing the display mode of the image according to the position visually recognized by the user, the visibility of the image displayed by the user is not reduced, and the image is displayed. It is possible to reduce the processing load for displaying.

(2)上記形態の頭部装着型表示装置において、前記画像変更部は、特定された前記視線方向に応じて変化する使用者の視覚特性に対応させて前記表示画像を変更してもよい。この形態の頭部装着型表示装置によれば、画像を視認する使用者の認識などの視覚特性を損なわないで、画像を表示させる処理の速度を向上させることができる。 (2) In the head-mounted display device according to the above aspect, the image changing unit may change the display image in correspondence with the visual characteristic of the user that changes according to the specified line-of-sight direction. According to the head-mounted display device of this aspect, the speed of the process of displaying the image can be improved without impairing the visual characteristics such as the recognition of the user who visually recognizes the image.

(3)上記形態の頭部装着型表示装置において、前記視覚特性は、サッカードに関連する特性であり;前記画像変更部は、使用者の視野範囲として、サッカードによる視角も加えた範囲を設定してもよい。この形態の頭部装着型表示装置によれば、サッカードを考慮して表示画像の表示態様が設定されるため、使用者が意図しない眼球運動の範囲も考慮された画像を予め表示領域に表示できる。 (3) In the head-mounted display device according to the above aspect, the visual characteristic is a characteristic associated with a saccade; the image changing unit sets a range including a visual angle of the saccade as a visual field range of the user. You may set it. According to the head-mounted display device of this aspect, since the display mode of the display image is set in consideration of the saccade, the image in which the range of the eye movement not intended by the user is also considered is displayed in the display area in advance. it can.

(4)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示領域の一部に前記表示画像を表示する場合に、前記表示画像の位置と前記視線方向とに応じて、前記表示画像を変更してもよい。この形態の頭部装着型表示装置によれば、画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度を向上させることができる。 (4) In the head-mounted display device according to the above aspect, when the image changing unit displays the display image in a part of the display area, depending on the position of the display image and the line-of-sight direction, The display image may be changed. According to the head-mounted display device of this aspect, the speed of the process of displaying the image can be improved without reducing the easiness of recognition by the user who visually recognizes the image.

(5)上記形態の頭部装着型表示装置において、前記画像表示部は、外景を透過可能であり;前記頭部装着型表示装置は、さらに;前記外景を撮像する外景撮像部を備え;前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定してもよい。この形態の頭部装着型表示装置によれば、特定対象物と表示される画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。 (5) In the head-mounted display device according to the above aspect, the image display unit can transmit an outside scene; the head-mounted display device further includes an outside scene imaging unit that images the outside scene; The image changing unit may detect a specific object from the captured image of the outside scene and set the position of the display image in association with the detected position of the specific object. According to the head-mounted display device of this aspect, it is possible to make the user visually recognize the correspondence between the specific object and the displayed image, and the usability for the user is improved.

(6)上記形態の頭部装着型表示装置において、前記視線方向特定部は、前記画像表示部の向きを検出する表示部方向検出部を有し、検出された前記画像表示部の向きに基づいて前記視線方向を特定してもよい。この形態の頭部装着型表示装置によれば、例えば、使用者の眼を撮像するような装置を使用せずに、簡便に安価に使用者の視線方向を特定できる。 (6) In the head-mounted display device according to the above aspect, the line-of-sight direction identification unit includes a display unit direction detection unit that detects the orientation of the image display unit, and based on the detected orientation of the image display unit. Alternatively, the line-of-sight direction may be specified. According to the head-mounted display device of this aspect, for example, it is possible to easily and inexpensively specify the line-of-sight direction of the user without using a device that images the eyes of the user.

(7)上記形態の頭部装着型表示装置において、前記視線方向特定部は、使用者の眼を撮像する眼撮像部を有し、撮像された使用者の眼の画像に基づいて、前記視線方向を特定してもよい。この形態の頭部装着型表示装置によれば、使用者の視線方向を精度良く特定できる。 (7) In the head-mounted display device according to the above aspect, the line-of-sight direction identifying unit includes an eye image capturing unit that captures an image of the user's eye, and the line-of-sight based on the captured image of the user's eye. The direction may be specified. According to the head-mounted display device of this aspect, it is possible to accurately specify the line-of-sight direction of the user.

(8)上記形態の頭部装着型表示装置において、前記視線方向特定部は、さらに、使用者が視認している視認対象まで距離を特定し;前記画像変更部は、前記視認対象と、前記視認対象以外の範囲であると共に前記視認対象に対して移動している移動背景に基づく運動特性と、に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定してもよい。この形態の頭部装着型表示装置によれば、使用者が視認している視認対象との移動速度の比較によって、画像の表示態様を設定するため、使用者に与える臨場感を調整できる。 (8) In the head-mounted display device according to the above aspect, the line-of-sight direction specifying unit further specifies a distance to a visual recognition target visually recognized by a user; and the image changing unit includes the visual recognition target and the visual recognition target. Based on the movement characteristics based on the moving background that is moving with respect to the visual target as well as in the range other than the visual target, even if the display mode of the display image associated with the specific object is set. Good. According to the head-mounted display device of this aspect, since the display mode of the image is set by comparing the moving speed with the visual target visually recognized by the user, it is possible to adjust the sense of presence given to the user.

(9)上記形態の頭部装着型表示装置において、前記画像変更部は、前記特定対象物が前記移動背景である場合には、前記特定対象物が前記視認対象に対して移動していない場合と比較して、前記特定対象物に対応付けられた前記表示画像の表示態様を簡便な態様に設定してもよい。この形態の頭部装着型表示装置によれば、視認対象と異なる移動速度の対象に対応付けられた画像を表示するための処理を低減することで、使用者の画像の視認性を低減させずに、処理の負担を軽減できる。 (9) In the head-mounted display device according to the aspect described above, the image changing unit may be configured such that, when the specific object is the moving background, the specific object does not move with respect to the visual target. Compared with, the display mode of the display image associated with the specific object may be set to a simple mode. According to the head-mounted display device of this aspect, the visibility of the image of the user is not reduced by reducing the processing for displaying the image associated with the target having the moving speed different from the visual target. Moreover, the processing load can be reduced.

(10)上記形態の頭部装着型表示装置において、前記画像表示部は、外景を透過可能であり;前記頭部装着型表示装置は、さらに;前記外景を撮像する外景撮像部と;前記特定対象物に対応付けられた前記表示画像の元である画像データを、前記画像データの種類ごとに識別して取得する画像データ取得部と、を備え;前記画像変更部は、前記外景撮像部が前記特定対象物を撮像した場合に、前記画像データ取得部が取得した前記画像データの種類と、前記表示領域に対する撮像された前記特定対象物の位置と、に基づいて、前記特定対象物に対応付けられた前記表示画像の態様を決定してもよい。この形態の頭部装着型表示装置によれば、画像データの種類に応じて使用者に視認させる画像の表示態様が異なり、必要に応じた画像を使用者に視認させることができる。 (10) In the head-mounted display device according to the above aspect, the image display unit can transmit an outside scene; the head-mounted display device further includes: an outside scene imaging unit that captures the outside scene; An image data acquisition unit that identifies and acquires, for each type of image data, image data that is the source of the display image that is associated with an object; Corresponding to the specific object based on the type of the image data acquired by the image data acquisition unit and the position of the specific object captured with respect to the display area when the specific object is imaged The mode of the attached display image may be determined. According to the head-mounted display device of this aspect, the display mode of the image visually recognized by the user varies depending on the type of image data, and the image can be visually recognized by the user as necessary.

(11)上記形態の頭部装着型表示装置において、さらに;外景において移動している移動物体を特定する移動物体特定部を備え;前記画像変更部は、前記移動物体が前記画像表示部に近づく速度に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定してもよい。この形態の頭部装着型表示装置によれば、使用者に近づく自動車等について危険を使用者に報知できる。 (11) In the head-mounted display device of the above aspect, further comprising: a moving object specifying unit that specifies a moving object that is moving in an outside scene; the image changing unit causes the moving object to approach the image display unit. You may set the display mode of the said display image matched with the said specific target object based on speed. According to the head-mounted display device of this aspect, it is possible to notify the user of a danger of a car or the like approaching the user.

(12)上記形態の頭部装着型表示装置において、前記画像変更部は、前記視線方向を中心とする所定の領域以外の前記移動物体が予め設定された速度以上で前記画像表示部に近づく場合には、前記移動物体が予め前記特定対象物として設定されていなくても前記特定対象物と判定し、判定された前記特定対象物に予め設定された前記表示画像を設定してもよい。この形態の頭部装着型表示装置によれば、必要なときのみ、必要な画像を使用者に視認させることができ、使用者に対する頭部装着型表示装置の使い勝手が向上する。 (12) In the head-mounted display device according to the above aspect, the image changing unit may approach the image display unit at a speed equal to or higher than a preset speed of the moving object other than a predetermined area centered on the line-of-sight direction. In this case, even if the moving object is not set as the specific target object in advance, the moving object may be determined as the specific target object, and the display image set in advance for the determined specific target object may be set. According to the head-mounted display device of this aspect, the user can view the required image only when necessary, and the usability of the head-mounted display device for the user is improved.

(13)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示画像が文字画像を含む場合には、特定された前記視線方向を含む第1の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させ、前記第1の視野範囲よりも大きい範囲であると共に前記第1の視野範囲を含まない第2の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させなくてもよい。この形態の頭部装着型表示装置によれば、使用者が文字を認識しづらい視野範囲では文字画像を含まない画像が表示領域に表示されるため、画像を視認する使用者の認識のしやすさをより低減させないで、画像を表示させる処理の速度を向上させることができる。 (13) In the head-mounted display device according to the above aspect, when the display image includes a character image, the image changing unit displays the character image in the first visual field range including the specified line-of-sight direction. The character image is displayed as the display image in the second view range that is displayed in the display area as the display image and is larger than the first view range and does not include the first view range. Need not be displayed in. According to the head-mounted display device of this aspect, an image that does not include a character image is displayed in the display area in the visual field range where it is difficult for the user to recognize the character. The speed of the process of displaying an image can be improved without further reducing the size.

(14)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示画像が使用者に三次元画像として視認される画像の場合には、特定された前記視線方向を含む第3の視野範囲では前記表示画像を三次元画像として前記表示領域に表示させ、前記第3の視野範囲よりも大きい範囲であると共に前記第3の視野範囲を含まない第4の視野範囲に表示では前記表示画像を二次元画像として使用者に視認されるように前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者が表示画像までの距離を認識しづらい視野範囲において二次元画像を表示領域に表示させるため、対応画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。 (14) In the head-mounted display device according to the above aspect, the image changing unit may include a third direction including the specified line-of-sight direction when the display image is an image visually recognized by a user as a three-dimensional image. In the visual field range, the display image is displayed in the display area as a three-dimensional image, and the display image is displayed in the fourth visual field range that is larger than the third visual field range and does not include the third visual field range. The display image may be displayed as a two-dimensional image in the display area so that it can be visually recognized by the user. According to the head-mounted display device of this aspect, since the two-dimensional image is displayed in the display area in the visual field range in which it is difficult for the user to recognize the distance to the display image, the user can visually recognize the corresponding image. The speed of the processing for displaying the image can be further improved without reducing the ease.

(15)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示画像が複数の色の情報を含む画像である場合には、特定された前記視線方向を含む第5の視野範囲では前記表示画像を複数の色の情報を含む画像として前記表示領域に表示させ、前記第5の視野範囲よりも大きい範囲であると共に前記第5の視野範囲を含まない第6の視野範囲では前記表示画像を単色の濃淡を用いて前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。 (15) In the head-mounted display device according to the above aspect, the image changing unit may include a fifth visual field including the specified line-of-sight direction when the display image is an image including information of a plurality of colors. In the range, the display image is displayed in the display area as an image including information of a plurality of colors, and in the sixth visual field range which is larger than the fifth visual field range and does not include the fifth visual field range. The display image may be displayed in the display area by using monochromatic shades. According to the head-mounted display device of this aspect, it is possible to further improve the speed of the process of displaying the image without reducing the easiness of recognition by the user who visually recognizes the image.

(16)上記形態の頭部装着型表示装置において、前記画像変更部は、前記第6の視野範囲では、前記表示画像の輪郭のみを前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者が色情報を認識しづらい範囲においては画像の外枠のみを表示させので、対応画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。 (16) In the head-mounted display device according to the above aspect, the image changing unit may display only the contour of the display image in the display area in the sixth visual field range. According to the head-mounted display device of this aspect, only the outer frame of the image is displayed in the range in which it is difficult for the user to recognize the color information, which reduces the ease of recognition by the user who visually recognizes the corresponding image. Without doing so, the speed of the process of displaying the image can be further improved.

(17)上記形態の頭部装着型表示装置において、前記画像変更部は、特定された前記視線方向を含む第7の視野範囲よりも大きい範囲であると共に前記第7の視野範囲を含まない第8の視野範囲では、前記表示画像を前記第7の視野範囲に表示される画像よりも簡略化した簡易画像として前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者が表示画像の詳細な内容までを認識できない視野範囲では画像があることだけを示す簡略化した画像のみが表示領域に表示されるため、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 (17) In the head-mounted display device according to the above aspect, the image changing unit may be a range that is larger than a seventh visual field range including the specified line-of-sight direction and does not include the seventh visual field range. In the view field range of 8, the display image may be displayed in the display area as a simplified image that is simpler than the image displayed in the seventh view range. According to the head-mounted display device of this aspect, only a simplified image indicating that there is an image is displayed in the display area in the visual field range where the user cannot recognize the detailed contents of the display image. The speed of the process of displaying the corresponding image can be further improved without reducing the easiness of recognition by the user who visually recognizes the corresponding image.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。 All of the plurality of constituent elements of each mode of the present invention described above are not indispensable, and for solving part or all of the above problems, or part or all of the effects described in the present specification. In order to achieve the above, it is possible to appropriately change or delete some of the constituent elements of the plurality of constituent elements, replace them with new constituent elements, and partially delete the limited contents. Further, in order to solve some or all of the above problems, or to achieve some or all of the effects described in the present specification, the technical features included in one embodiment of the present invention described above. Part or all of the technical features included in other forms of the present invention described above may be combined with each other to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、視線方向特定部と、画像変更部と、の3つ要素の内の一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、視線方向特定部を有していてもよく、有していなくてもよい。また、装置は、画像変更部を有していてもよく、有していなくてもよい。画像表示部は、例えば、画像を表示領域に表示可能であってもよい。視線方向特定部は、例えば、使用者の視線方向を特定してもよい。画像変更部は、例えば、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更してもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。 For example, one embodiment of the present invention can be realized as an apparatus including some or all of the three elements of the image display unit, the line-of-sight direction specifying unit, and the image changing unit. That is, this device may or may not have the image display unit. The device may or may not include the line-of-sight direction specifying unit. The device may or may not have the image changing unit. The image display unit may be capable of displaying an image in the display area, for example. The line-of-sight direction specifying unit may specify the line-of-sight direction of the user, for example. The image changing unit may change the display image displayed in the display area, for example, according to the specified line-of-sight direction. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, at least one of various problems such as improvement and simplification of operability of the device, integration of the device, and improvement of convenience for a user who uses the device can be solved. it can. Any or all of the technical features of the respective forms of the head-mounted display device described above can be applied to this device.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、制御システム、頭部装着型表示システム、表示装置、制御システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。 The present invention can be realized in various forms other than the head-mounted display device. For example, a display device, a head-mounted display device and a control method for the display device, a control system, a head-mounted display system, a display device, a computer program for realizing the functions of the control system and the display device, and the computer program It can be realized in the form of a recorded recording medium, a data signal including the computer program, and embodied in a carrier wave.

本実施形態における頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display device (HMD) in this embodiment. 本実施形態におけるHMDの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of HMD in this embodiment. 注視点と使用者の視線方向と関係の説明図である。It is explanatory drawing of a gaze point and a user's gaze direction. 注視点を中心とする水平視野および鉛直視野の概略図である。It is a schematic diagram of a horizontal visual field and a vertical visual field centering on a gazing point. 水平視野における視野の範囲ごとの人間の認識の度合いを示す説明図である。It is explanatory drawing which shows the degree of human recognition for every range of the visual field in a horizontal visual field. 鉛直視野における視野の範囲ごとの人間の認識の度合いを示す説明図である。It is explanatory drawing which shows the degree of human recognition for every range of the visual field in a vertical visual field. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is emitted by an image light generation part. 画像表示処理の流れを示すフローチャートである。It is a flow chart which shows a flow of image display processing. 対応画像の画像表示位置と区別された視野範囲との関係を示す説明図である。It is explanatory drawing which shows the relationship between the image display position of a corresponding image, and the distinguished visual field range. 対応画像が表示された場合の使用者の視野の一例を示す説明図である。It is explanatory drawing which shows an example of a visual field of a user when a corresponding image is displayed. カメラの撮像範囲が変化した後の対応画像が表示された場合に使用者の視野の一例を示す説明図である。It is explanatory drawing which shows an example of a visual field of a user, when the corresponding image after the imaging range of a camera changes is displayed. 使用者の視線方向が変化した後の対応画像が表示された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes, when the corresponding image after a user's gaze direction changes is displayed. 第1実施形態の視野範囲と第2実施形態の視野範囲との比較するための説明図である。It is explanatory drawing for comparing the visual field range of 1st Embodiment, and the visual field range of 2nd Embodiment. 第3実施形態において自動車を運転している使用者が視認する視野の説明図である。It is explanatory drawing of the visual field visually recognized by the user who is driving the motor vehicle in 3rd Embodiment. 第3実施形態において自動車を運転している使用者が視認する視野の説明図である。It is explanatory drawing of the visual field visually recognized by the user who is driving the motor vehicle in 3rd Embodiment. 第4実施形態において歩行者である使用者が視認する視野の説明図である。It is explanatory drawing of the visual field visually recognized by the user who is a pedestrian in 4th Embodiment. 変形例における使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which the user visually recognizes in a modification. 変形例における使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which the user visually recognizes in a modification. 対応画像が視野範囲に属する場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes, when a corresponding image belongs to a visual field range. 変形例における使用者の視野における対応画像の表示位置の説明図である。It is explanatory drawing of the display position of the corresponding image in a user's visual field in a modification. 変形例におけるHMDの外観構成を示す説明図である。It is explanatory drawing which shows the external structure of HMD in a modification.

A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本実施形態における頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」ともいう。
A. First embodiment:
A-1. Head-mounted display device configuration:
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (HMD100) according to this embodiment. The HMD 100 is a display device worn on the head and is also called a head mounted display (HMD). The HMD 100 of the present embodiment is an optical transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly visually recognize an outside scene. In the present specification, the virtual image visually recognized by the user by the HMD 100 is also referred to as “display image” for convenience.

HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。 The HMD 100 includes an image display unit 20 that allows the user to visually recognize a virtual image when mounted on the head of the user, and a control unit 10 (controller 10) that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、第1カメラ61と、第2カメラ62と、右眼撮像カメラ37と、左眼撮像カメラ38と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。 The image display unit 20 is a mounting body mounted on the head of the user, and has a spectacle shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a first display unit. The camera 61, the second camera 62, the right-eye imaging camera 37, and the left-eye imaging camera 38 are included. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrows of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。 The right holding portion 21 is provided by extending from the end portion ER which is the other end of the right optical image display portion 26 to a position corresponding to the user's temporal region when the user wears the image display portion 20. It is a member. Similarly, the left holding unit 23 extends from the end EL, which is the other end of the left optical image display unit 28, to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple (vine) of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。 The right display drive unit 22 and the left display drive unit 24 are arranged on the side facing the head of the user when the user wears the image display unit 20. Note that, hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are also collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as "optical image display unit".

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。 The display drive units 22 and 24 include liquid crystal displays 241, 242 (Liquid Crystal Display, hereinafter also referred to as “LCDs 241 and 242”), projection optical systems 251, 252, and the like (see FIG. 2). The details of the configuration of the display drive units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display drive units 22 and 24 to the eyes of the user. The light control plate is a thin plate-shaped optical element, and is arranged so as to cover the front side of the image display unit 20, which is the side opposite to the eye side of the user. The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the eyes of the user and adjust the visibility of the virtual image. The light control plate can be omitted.

第1カメラ61および第2カメラ62は、外景を撮像する。第1カメラ61と第2カメラ62とのそれぞれは、画像表示部20の異なる位置に配置されている。第1カメラ61は、右光学像表示部26の他端である端部ERにおいて、画像表示部20が使用者に装着された場合の使用者の頭部方向に配置されている。また、同じように、第2カメラ62は、左光学像表示部28の他端である端部ELにおいて、画像表示部20が使用者に装着された場合の使用者の頭部方向に配置されている。本実施形態では、第1カメラ61と第2カメラ62とのそれぞれは、画像表示部20の中心である右光学像表示部26の一端と左光学像表示部28の一端とが接続する位置を通る中心線に対して、線対称に配置されている。なお、以降では、第1カメラ61と第2カメラ62とを合わせて、単に、カメラ61,62とも呼ぶ。本実施形態では、第1カメラ61が画像表示部20に配置されている場所と、第2カメラ62が画像表示部20に配置されている場所と、が異なるため、第1カメラ61の撮像範囲と第2カメラ62の撮像範囲との両方に撮像されている対象までの距離を、三角法を用いて算出できる。なお、カメラ61,62は、請求項における外景撮像部に相当する。 The first camera 61 and the second camera 62 capture an outside scene. The first camera 61 and the second camera 62 are arranged at different positions on the image display unit 20. The first camera 61 is arranged at the end ER, which is the other end of the right optical image display unit 26, in the head direction of the user when the image display unit 20 is mounted on the user. Similarly, the second camera 62 is arranged at the end EL, which is the other end of the left optical image display unit 28, in the head direction of the user when the image display unit 20 is attached to the user. ing. In the present embodiment, each of the first camera 61 and the second camera 62 has a position where one end of the right optical image display unit 26, which is the center of the image display unit 20, and one end of the left optical image display unit 28 are connected. They are arranged in line symmetry with respect to the passing center line. Note that, hereinafter, the first camera 61 and the second camera 62 are collectively referred to as cameras 61 and 62. In the present embodiment, since the place where the first camera 61 is arranged in the image display unit 20 and the place where the second camera 62 is arranged in the image display unit 20 are different, the imaging range of the first camera 61 The distance to the object imaged in both the image capturing range of the second camera 62 and the image capturing range of the second camera 62 can be calculated using trigonometry. The cameras 61 and 62 correspond to the outside scene image pickup section in the claims.

右眼撮像カメラ37は、画像表示部20を装着した使用者の右眼を撮像するカメラである。同様に、左眼撮像カメラ38は、画像表示部20を装着した使用者の左眼を撮像するカメラである。右眼撮像カメラ37によって撮像された使用者の右眼の画像および左眼撮像カメラ38によって撮像された使用者の左眼の画像は、後述する方向特定部166が使用者の視線方向を特定するための処理に用いられる。なお、右眼撮像カメラ37および左眼撮像カメラ38は、単眼カメラであるが、ステレオカメラであってもよい。以降では、右眼撮像カメラ37および左眼撮像カメラ38を合わせて、眼撮像カメラ37,38とも呼ぶ。眼撮像カメラ37,38と後述する方向特定部166とは、請求項における視線方向特定部に相当する。また、眼撮像カメラ37,38は、請求項における眼撮像部に相当する。 The right-eye imaging camera 37 is a camera that images the right eye of the user wearing the image display unit 20. Similarly, the left-eye imaging camera 38 is a camera that images the left eye of the user who wears the image display unit 20. With respect to the image of the right eye of the user captured by the right-eye imaging camera 37 and the image of the left eye of the user captured by the left-eye imaging camera 38, the direction identifying unit 166 described later identifies the line-of-sight direction of the user. Used for processing. The right-eye imaging camera 37 and the left-eye imaging camera 38 are monocular cameras, but may be stereo cameras. Hereinafter, the right-eye imaging camera 37 and the left-eye imaging camera 38 are collectively referred to as eye-imaging cameras 37 and 38. The eye imaging cameras 37 and 38 and the direction specifying unit 166 described later correspond to the line-of-sight direction specifying unit in the claims. The eye image pickup cameras 37 and 38 correspond to the eye image pickup section in the claims.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。 The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connecting portion 40 includes a main body cord 48 connected to the control portion 10, a right cord 42, a left cord 44, and a connecting member 46. The right cord 42 and the left cord 44 are cords in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the front end portion AP of the right holding unit 21 in the extending direction, and is connected to the right display drive unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the front end portion AP of the left holding unit 23 in the extending direction, and is connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48 and the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。 The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that is fitted to each other is provided at each of the end of the body cord 48 on the opposite side of the connecting member 46 and the control unit 10. By mating/unmating the connector of the main body cord 48 and the connector of the control unit 10, the control unit 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LEDが用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。 The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes an enter key 11, a lighting unit 12, a display switching key 13, a track pad 14, a brightness switching key 15, a direction key 16, a menu key 17, and a power switch 18. There is. The enter key 11 detects a pressing operation and outputs a signal for determining the content operated by the control unit 10. The lighting unit 12 notifies the operating state of the HMD 100 by its light emitting state. The operating state of the HMD 100 includes, for example, turning on/off a power source. As the lighting unit 12, for example, an LED is used. The display switching key 13 detects a pressing operation and outputs, for example, a signal for switching the display mode of the content moving image between 3D and 2D. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal according to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The brightness switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the brightness of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up, down, left, and right directions, and outputs a signal according to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting the sliding operation of the switch.

図2は、本実施形態におけるHMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、記憶部120と、電源130と、無線通信部132と、操作部135と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えば、コンテンツサーバー、テレビ、パーソナルコンピューターといった他の機器との間で無線通信を行なう。 FIG. 2 is a block diagram functionally showing the configuration of the HMD 100 in this embodiment. As illustrated in FIG. 2, the control unit 10 includes a storage unit 120, a power supply 130, a wireless communication unit 132, an operation unit 135, a CPU 140, an interface 180, a transmission unit 51 (Tx51), and a transmission unit 52 ( Tx52). The operation unit 135 receives an operation by the user, and includes an enter key 11, a display switching key 13, a track pad 14, a brightness switching key 15, a direction key 16, a menu key 17, and a power switch 18. The power supply 130 supplies electric power to each unit of the HMD 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 performs wireless communication with other devices such as a content server, a television, and a personal computer according to a predetermined wireless communication standard such as a wireless LAN and Bluetooth.

記憶部120は、コンピュータープログラムを格納しているROMと、CPU140が種々のコンピュータープログラムの書き込みおよび読み取りを実行するときに用いられるRAMと、を有する。 The storage unit 120 has a ROM that stores computer programs and a RAM that is used when the CPU 140 executes writing and reading of various computer programs.

CPU140は、記憶部120のROMに格納されているコンピュータープログラムを読み出し、記憶部120のRAMに書き込みおよび読み取りを実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、画像設定部165、距離測定部168、および、方向特定部166として機能する。 The CPU 140 reads a computer program stored in the ROM of the storage unit 120, and writes and reads the computer program in the RAM of the storage unit 120, thereby operating system 150 (OS 150), display control unit 190, voice processing unit 170, It functions as the image processing unit 160, the image setting unit 165, the distance measuring unit 168, and the direction specifying unit 166.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。なお、画像光を生成することを「画像を表示する」ともいう。 The display control unit 190 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 causes the right LCD control unit 211 to drive the right LCD 241 ON/OFF, the right backlight control unit 201 to drive the right backlight 221 ON/OFF, and the left LCD control unit according to control signals. The driving ON/OFF of the left LCD 242 by 212, the driving ON/OFF of the left backlight 222 by the left backlight control unit 202, and the like are individually controlled. Accordingly, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 causes both the right display drive unit 22 and the left display drive unit 24 to generate image light, only one of them to generate image light, and both of them to not generate image light. Note that generating image light is also referred to as “displaying an image”.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。 The display control unit 190 transmits control signals to the right LCD control unit 211 and the left LCD control unit 212, respectively, via the transmission units 51 and 52. The display control unit 190 also transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示しない)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示しない)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。 The image processing unit 160 acquires the image signal included in the content. The image processing unit 160 separates the synchronizing signals such as the vertical synchronizing signal VSync and the horizontal synchronizing signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the cycle of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the sync signal has been separated into a digital image signal using an A/D conversion circuit or the like (not shown). After that, the image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 for each frame as image data (RGB data) of the target image. Note that the image processing unit 160 may perform image processing such as resolution conversion processing, various color tone correction processing such as adjustment of brightness and saturation, and keystone correction processing on the image data as necessary. ..

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データ、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。 The image processing unit 160 transmits the generated clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52. .. The image data transmitted via the transmitter 51 is also referred to as “right-eye image data”, and the image data transmitted via the transmitter 52 is also referred to as “left-eye image data”. The transmission units 51 and 52 function as transceivers for serial transmission between the control unit 10 and the image display unit 20.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して音声信号を供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。 The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. (Not shown), an audio signal is supplied. Note that, for example, when the Dolby (registered trademark) system is adopted, the audio signal is processed, and the right earphone 32 and the left earphone 34 respectively output different sounds with different frequencies, for example.

方向特定部166は、眼撮像カメラ37,38によって撮像された使用者の右眼REの画像および左眼LEの画像を解析することによって、使用者の視線方向を特定する。撮像された使用者の右眼REの画像および左眼LEの画像に基づく使用者の視線方向の特定方法としては、種々の公知技術を用いることができる。例えば、方向特定部166は、撮像された画像を、記憶部120に予め記憶された使用者の視線方向に対応させた画像のデータベースを基準として、撮像された眼の画像に対してパターンマッチングや統計的識別法を用いて、使用者の視線方向を特定できる。 The direction specifying unit 166 specifies the line-of-sight direction of the user by analyzing the image of the right eye RE and the image of the left eye LE of the user captured by the eye imaging cameras 37 and 38. Various known techniques can be used as a method of identifying the user's gaze direction based on the imaged image of the right eye RE and left eye LE of the user. For example, the direction identifying unit 166 performs pattern matching or the like on the captured eye image based on a database of images in which the captured image is stored in the storage unit 120 in advance and is associated with the user's line-of-sight direction. The line-of-sight direction of the user can be specified by using the statistical identification method.

距離測定部168は、第1カメラ61の撮像画像に含まれる対象物と、第2カメラ62の撮像画像に含まれる対象物と、に対して三角法を用いることで、カメラ61,62の撮像画像に含まれる対象物の画像までの距離を測定する。なお、本実施形態では、配置された場所が異なるステレオカメラである第1カメラ61と第2カメラ62とによって、対象物までの距離が測定されたが、他の実施形態では、TOF(Time Of Flight)センサーなどの異なる測定手段によって、対象物までの距離が測定されてもよい。 The distance measuring unit 168 uses the trigonometric method for the target object included in the captured image of the first camera 61 and the target object included in the captured image of the second camera 62, so that the image capturing of the cameras 61 and 62 is performed. The distance to the image of the object included in the image is measured. In the present embodiment, the distance to the object is measured by the first camera 61 and the second camera 62, which are stereo cameras in different locations, but in other embodiments, the TOF (Time Of The distance to the object may be measured by different measuring means such as a flight sensor.

画像設定部165は、画像表示部20に表示させる画像(表示画像)の各種設定を行なう。例えば、画像設定部165は、表示画像の表示位置や表示画像の大きさや表示画像の輝度などを設定したり、表示画像を三次元画像として、使用者に立体的(3D)に視認させるために両眼視差(単に、「視差」ともいう)を形成するように右眼用画像データと左眼用画像データとを設定する。また、画像設定部165は、撮像画像に対してパターンマッチング等を用いることで、撮像画像の中から予め設定された検出対象の画像を検出する。 The image setting unit 165 makes various settings for an image (display image) to be displayed on the image display unit 20. For example, the image setting unit 165 sets the display position of the display image, the size of the display image, the brightness of the display image, or the like, or allows the user to stereoscopically (3D) visually recognize the display image as a three-dimensional image. The right-eye image data and the left-eye image data are set so as to form binocular parallax (simply referred to as “parallax”). Further, the image setting unit 165 detects a preset image to be detected from the captured image by using pattern matching or the like for the captured image.

本実施形態では、画像設定部165は、同じ画像データに基づく画像であっても、特定された使用者の視線方向と、画像が表示される画像領域の位置と、の関係によって、異なる画像を画像表示部20に表示させる。例えば、画像設定部165は、RGB(Red Green Blue)の色情報を有する三次元画像データに基づいて、使用者の注視点を中心とする所定の視野の範囲ではRGBの色情報を有し、測定された距離情報を用いた三次元画像として画像表示部20に表示させる。一方、画像設定部165は、三次元画像データに基づいて、当該所定の視野の範囲外では白と黒のみの色情報を有する二次元画像として画像表示部20に表示させる。画像設定部165は、視線方向と画像領域の位置との関係について、同じ画像データであってもどのように異なる画像を表示するかの対応を決定するルックアップテーブルを、ROMを介して読み取ることで、画像表示部20に表示させる画像を決定している。 In the present embodiment, the image setting unit 165 sets different images depending on the relationship between the identified user's line-of-sight direction and the position of the image area in which the image is displayed, even if the images are based on the same image data. The image is displayed on the image display unit 20. For example, the image setting unit 165 has RGB color information in a predetermined visual field range centered on the gazing point of the user, based on three-dimensional image data having RGB (Red Green Blue) color information, It is displayed on the image display unit 20 as a three-dimensional image using the measured distance information. On the other hand, the image setting unit 165 causes the image display unit 20 to display a two-dimensional image having color information of only white and black outside the range of the predetermined visual field based on the three-dimensional image data. The image setting unit 165 reads, via the ROM, a look-up table that determines the correspondence between the line-of-sight direction and the position of the image region, how to display different images even with the same image data. Then, the image to be displayed on the image display unit 20 is determined.

図3は、注視点PORと使用者の視線方向EDと関係の説明図である。図3には、使用者の右眼REと左眼LEとが注視点PORを見ている場合の視線方向EDが示されている。本実施形態では、右眼REと左眼LEとの中間点である左右眼球中心MPから注視点PORまでの方向を視線方向EDとして定義している。なお、使用者の視線方向EDの定義については、種々変形可能であり、例えば、利き眼から注視点PORまでの方向を視線方向EDとして定義してもよい。 FIG. 3 is an explanatory diagram of the relationship between the gazing point POR and the user's line-of-sight direction ED. FIG. 3 shows the line-of-sight direction ED when the right eye RE and the left eye LE of the user are looking at the gazing point POR. In this embodiment, the direction from the right and left eyeball center MP, which is the midpoint between the right eye RE and the left eye LE, to the gazing point POR is defined as the line-of-sight direction ED. The definition of the line-of-sight direction ED of the user can be variously modified, and for example, the direction from the dominant eye to the gazing point POR may be defined as the line-of-sight direction ED.

人間は、注視点PORを中心とする一定の範囲である視野に存在する対象を視認できる。一般に、人間は、注視点PORまでの距離と同じ距離に存在し、注視点PORの近い位置に存在する対象ほど、より明確に視認できる。人間が視野のどの範囲に存在する対象かによって人間の視認性が変化する視覚特性には、種々の形態がある。例えば、ある視野の範囲までは対象の輪郭を明確に視認できるが、それ以外の視野の範囲では、対象が存在することを認識できるものの、対象の輪郭が把握できないといった視覚特性が存在する。なお、対象の代わりとなる表示画像についても同様のことが言える。換言すると、人間は、注視点PORから離れるほど、視野に含まれる対象物を認識する能力が低下する。そのため、本実施形態では、画像設定部165は、使用者の視線方向EDから離れる位置に表示される画像については、同じ画像データに基づく画像であっても、例えば、画像の解像度を落とすなどの手段によって、当該画像を画像表示部20に表示させるための処理を低減させて画像表示部20に当該画像を表示させる。なお、画像設定部165は、請求項における画像変更部に相当する。 A human can visually recognize an object existing in a visual field that is a fixed range centered on the gazing point POR. In general, a human being is present at the same distance as the distance to the point of interest POR, and a subject located closer to the point of interest POR can be seen more clearly. There are various forms of visual characteristics in which the human visibility changes depending on the range of the visual field of the human. For example, there is a visual characteristic that the contour of the object can be clearly visually recognized up to a certain visual field range, but that the target can be recognized in the other visual field range, but the contour of the target cannot be grasped. Note that the same can be said for the display image that is a substitute for the target. In other words, a person's ability to recognize an object included in the visual field decreases as the distance from the gazing point POR increases. Therefore, in the present embodiment, the image setting unit 165, for images displayed at a position away from the user's line-of-sight direction ED, even if the images are based on the same image data, for example, reduces the resolution of the image. The means causes the image display unit 20 to display the image while reducing the processing for displaying the image on the image display unit 20. The image setting unit 165 corresponds to the image changing unit in the claims.

注視点PORを中心とする約5度以内の領域は、視力などの視機能が優れている弁別視野と呼ばれている。また、注視点PORを中心として水平方向に約30度以内で、かつ、視点を中心として垂直方向に約20度以内の領域は、眼球運動だけで瞬時に対象を認識できる有効視野と呼ばれている。また、注視点PORを中心として水平方向に約60〜90度で、かつ、視点を中心として垂直方向に約45〜70度以内の領域は、使用者が眼球を動かす眼球運動や頭部運動を行なうことで無理なく対象を認識できる安定注視野と呼ばれている。 A region within about 5 degrees centering on the gazing point POR is called a discriminative field of view having excellent visual functions such as visual acuity. Further, an area within about 30 degrees in the horizontal direction about the gazing point POR and within about 20 degrees in the vertical direction about the viewpoint is called an effective visual field in which an object can be instantly recognized only by eye movement. There is. In addition, an area within about 60 to 90 degrees in the horizontal direction with respect to the gazing point POR and within about 45 to 70 degrees in the vertical direction with respect to the viewpoint focuses on the eye movement or the head movement in which the user moves the eye. It is called a stable gaze field where you can recognize the object without difficulty.

図4は、注視点PORを中心とする水平視野VRwおよび鉛直視野VRhの概略図である。図4には、水平方向および鉛直方向における弁別視野と有効視野と安定注視野との関係が示されている。図4には、使用者が注視点PORを見ている場合に、注視点PORを中心として視認できる視野VRと、視野VRを水平方向成分に分けて説明するための水平視野VRwと、視野VRを鉛直方向成分に分けて説明するための鉛直視野VRhと、が示されている。図4では、弁別視野と有効視野と安定注視野とは、下記の関係(1)のように表される。なお、関係(1)における括弧書きの角度は、注視点PORを中心とした場合の片側の角度である。
弁別視野:W0,H0(〜約5度)
有効視野:W1(〜約30度),H1(〜約20度) ・・・(1)
安定注視野:W2(〜約60(90)度),H2(〜約45(70)度)
図4に示すように、視野VRの鉛直方向では、上側よりも下側における安定注視野などが広い範囲である。これは、人間にとって、鉛直方向に沿って上側よりも下側を視認しやすいことを示している。
FIG. 4 is a schematic diagram of a horizontal visual field VRw and a vertical visual field VRh centering on the gazing point POR. FIG. 4 shows the relationship between the discrimination visual field, the effective visual field, and the stable fixation visual field in the horizontal direction and the vertical direction. In FIG. 4, when the user is looking at the gazing point POR, a visual field VR that can be visually recognized around the gazing point POR, a horizontal visual field VRw for explaining the visual field VR by dividing into horizontal components, and a visual field VR are shown. And a vertical visual field VRh for describing the vertical direction component by dividing it into vertical components. In FIG. 4, the discrimination visual field, the effective visual field, and the stable fixation visual field are expressed as the following relationship (1). The angle in parentheses in the relationship (1) is an angle on one side when the point of interest POR is the center.
Discrimination field of view: W0, H0 (up to about 5 degrees)
Effective field of view: W1 (up to approximately 30 degrees), H1 (up to approximately 20 degrees) (1)
Stable fixation field: W2 (up to approximately 60 (90) degrees), H2 (up to approximately 45 (70) degrees)
As shown in FIG. 4, in the vertical direction of the visual field VR, the stable gaze field on the lower side is wider than the upper side. This indicates that it is easier for humans to visually recognize the lower side than the upper side along the vertical direction.

図5は、水平視野VRwにおける視野の範囲ごとの人間の認識の度合いを示す説明図である。図5には、使用者USの視線方向EDを中心として6つに区別した視野範囲VR1から視野範囲VR6が示されており、下記の関係(2)が成立する。なお、関係(2)における括弧書きの角度は、注視点PORを中心とした場合の片側の角度である。
VR1:注視点PORとみなせる範囲(〜約1度)
VR2:文字を識別できる範囲(〜約10度)
VR3:眼球運動が楽に行なえる範囲(〜約15度)・・・(2)
VR4:形状を識別できる範囲(〜約30度)
VR5:色情報を識別できる範囲(〜約60度)
VR6:視野の限界(〜約94度)
以上、図5に示すように、視野によって使用者USが認識できる情報が異なってくる。
FIG. 5 is an explanatory diagram showing the degree of human recognition for each range of the visual field in the horizontal visual field VRw. FIG. 5 shows the visual field range VR1 to the visual field range VR6 which are divided into six areas centering on the line-of-sight direction ED of the user US, and the following relationship (2) is established. The angle in parentheses in the relationship (2) is an angle on one side with the point of interest POR as the center.
VR1: Range that can be regarded as gazing point POR (up to about 1 degree)
VR2: Character recognition range (up to about 10 degrees)
VR3: Range in which eye movement can be performed easily (up to about 15 degrees) (2)
VR4: Range in which the shape can be identified (up to about 30 degrees)
VR5: Range in which color information can be identified (up to about 60 degrees)
VR6: Limit of field of view (up to about 94 degrees)
As described above, as shown in FIG. 5, the information that the user US can recognize varies depending on the visual field.

図6は、鉛直視野VRhにおける視野の範囲ごとの人間の認識の度合いを示す説明図である。図6には、図5の水平視野VRwの代わりとしての鉛直視野VRhについての区別された使用者USの視野が示されている。そのため、区別した視野範囲がどういった視野範囲であるのかの説明は省略する。 FIG. 6 is an explanatory diagram showing the degree of human recognition for each visual field range in the vertical visual field VRh. FIG. 6 shows the distinguished user US field of view for a vertical field of view VRh as an alternative to the horizontal field of view VRw of FIG. Therefore, the description of what kind of visual field range the distinguished visual field range is omitted.

図2に示すインターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。 The interface 180 illustrated in FIG. 2 is an interface for connecting the control unit 10 to various external devices OA that are content supply sources. The external device OA is, for example, a personal computer (PC), a mobile phone terminal, a game terminal, or the like. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、第1カメラ61と、第2カメラ62と、を備えている。 The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a first The camera 61 and the second camera 62 are provided.

右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。 The right display drive unit 22 includes a reception unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL 221) that function as light sources, and a right LCD functioning as a display element. The control unit 211, the right LCD 241, and the right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as a display element. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221, and the right LCD 241 are collectively referred to as an “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データと、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。 The reception unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is, for example, a light emitting body such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK input via the reception unit 53, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data for the right eye. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。 The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 into a parallel light flux. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as a “light guide section”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。 The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display drive unit 24 includes a reception unit 54 (Rx 54), a left backlight control unit 202 (left BL control unit 202) and a left backlight 222 (left BL 222) that function as light sources, and a left LCD that functions as a display element. The controller 212 and the left LCD 242 and the left projection optical system 252 are included. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as a display element. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as an “image light generation unit”. In addition, the left projection optical system 252 is configured by a collimator lens that converts the image light emitted from the left LCD 242 into a parallel light flux. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

図7は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図2に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。 FIG. 7 is an explanatory diagram showing how image light is emitted by the image light generator. The right LCD 241 changes the transmittance of light that passes through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, so that the illumination light IL emitted from the right backlight 221 is displayed as an image. Is modulated to an effective image light PL. The same applies to the left side. Note that, as shown in FIG. 2, the backlight system is adopted in the present embodiment, but the image light may be emitted by using the front light system or the reflection system.

A−2.画像表示処理:
図8は、画像表示処理の流れを示すフローチャートである。画像表示処理では、CPU140が、カメラ61,62の撮像画像の中から検出された検出対象に対応付けられた対応画像を画像表示部20に表示させる際に、使用者の視線方向EDを中心として区別された視野範囲と画像の表示位置とに基づいて、表示画像を変更して画像表示部20に表示させる処理である。
A-2. Image display processing:
FIG. 8 is a flowchart showing the flow of image display processing. In the image display process, when the CPU 140 causes the image display unit 20 to display the corresponding image associated with the detection target detected from the images captured by the cameras 61 and 62, the CPU 140 focuses on the user's line-of-sight direction ED. This is a process of changing the display image based on the distinguished visual field range and the display position of the image and displaying the changed image on the image display unit 20.

画像表示処理では、初めに、画像設定部165は、カメラ61,62を用いて、外景を撮像する(ステップS11)。画像設定部165は、撮像されたカメラ61,62の撮像画像の中から画像表示部20に表示させる対応画像に対応付けられた検出対象をパターンマッチング等によって検出する(ステップS13)。画像設定部165は、撮像画像の中から検出対象を検出しない場合には(ステップS13:NO)、引き続き、撮像画像の中から検出対象の検出を待機する(ステップS13)。 In the image display processing, first, the image setting unit 165 captures an outside scene using the cameras 61 and 62 (step S11). The image setting unit 165 detects a detection target associated with the corresponding image displayed on the image display unit 20 from the captured images of the cameras 61 and 62 by pattern matching or the like (step S13). When the detection target is not detected from the captured image (step S13: NO), the image setting unit 165 continuously waits for detection of the detection target from the captured image (step S13).

ステップS13の処理において、画像設定部165は、撮像画像の中から検出対象を検出した場合には(ステップS13:YES)、検出対象に予め対応付けられた対応画像を画像表示部20に表示させる画像表示位置を決定する(ステップS15)。対応画像の画像表示位置については、種々の決定が可能であり、例えば、撮像画像の中の検出対象の位置にかかわらず画像表示部20が画像を表示できる画像表示最大領域PNにおける固定された位置に表示させたり、検出対象に設定された特徴点の位置の近傍に表示させる場合などがある。なお、画像表示最大領域PNは、請求項における表示領域に相当する。 In the process of step S13, when the detection target is detected from the captured image (step S13: YES), the image setting unit 165 causes the image display unit 20 to display the corresponding image previously associated with the detection target. The image display position is determined (step S15). The image display position of the corresponding image can be variously determined. For example, a fixed position in the image display maximum area PN where the image display unit 20 can display the image regardless of the position of the detection target in the captured image. , Or in the vicinity of the position of the feature point set as the detection target. The image display maximum area PN corresponds to the display area in the claims.

対応画像の画像表示位置が決定されると(ステップS15)、CPU140は、画像表示部20を頭部に装着している使用者の注視点PORおよび視線方向EDを、眼撮像カメラ37,38の撮像画像を用いて特定する(ステップS17)。CPU140は、距離測定部168がカメラ61,62の撮像画像を用いて測定した検出対象までの距離と、方向特定部166が眼撮像カメラ37,38の撮像画像を用いて特定した使用者の視線方向EDと、を特定する。 When the image display position of the corresponding image is determined (step S15), the CPU 140 determines the gazing point POR and the line-of-sight direction ED of the user who wears the image display unit 20 on the head of the eye imaging cameras 37 and 38. It is specified using the captured image (step S17). The CPU 140 measures the distance to the detection target measured by the distance measuring unit 168 using the images captured by the cameras 61 and 62, and the line of sight of the user identified by the direction identifying unit 166 using the image captured by the eye image capturing cameras 37 and 38. The direction ED is specified.

画像設定部165は、対応画像の画像表示最大領域PNにおける画像表示位置が、特定された視線方向EDに基づいて設定された複数の視野範囲の内のいずれの視野範囲に属するかを特定する(ステップS19)。画像設定部165は、例えば、図5に示すように、特定された視線方向EDを中心とする複数の視野範囲を区別し、画像表示位置が区別したどの視野範囲に属するのかを特定する。 The image setting unit 165 specifies to which of the plurality of visual field ranges the image display position of the corresponding image in the maximum image display area PN belongs based on the specified visual line direction ED ( Step S19). For example, as shown in FIG. 5, the image setting unit 165 distinguishes a plurality of visual field ranges centered on the specified visual line direction ED, and specifies which visual field range the image display position belongs to.

図9は、対応画像IM1の画像表示位置と区別された視野範囲との関係を示す説明図である。図9には、使用者が視認する視野VRの一例が示されている。図9に示すように、使用者は、光学像表示部26,28を透過した外景SCを視認できる。外景SCには、検出対象TWとしてのランドマークの1つとしての「スカイツリー」が含まれている。図9には、CPU140によって特定された使用者の注視点PORと、注視点PORを中心として所定の範囲で設定された視野範囲VR2,VR3,VR4,VR5と、が示されている。なお、視野範囲VR3とは、視野範囲VR3に含まれ、かつ、視野範囲VR2に含まれない範囲をいう。同じように、視野範囲VR4とは、視野範囲VR4に含まれ、かつ、視野範囲VR2,VR3に含まれない範囲をいい、視野範囲VR5とは、視野範囲VR5に含まれ、かつ、視野範囲VR2,VR3,VR4のいずれにも含まれない範囲をいう。図9では、破線の画像表示最大領域PNと、注視点PORを示す星印と、各視野範囲を示す一点鎖線と、を説明のために便宜上示しているが、これらは使用者には視認されない。本実施形態では、カメラ61,62の撮像画像によって、使用者が視認する視野に相当する撮像画像が作成されているため、作成された撮像画像と使用者の視野VRとは一致する。他の実施形態では、撮像画像と使用者の視野VRとが異なっていてもよい。 FIG. 9 is an explanatory diagram showing the relationship between the image display position of the corresponding image IM1 and the distinguished visual field range. FIG. 9 shows an example of the visual field VR visually recognized by the user. As shown in FIG. 9, the user can visually recognize the outside scene SC transmitted through the optical image display units 26 and 28. The outside scene SC includes a "sky tree" as one of landmarks as the detection target TW. FIG. 9 shows the gazing point POR of the user specified by the CPU 140 and the visual field ranges VR2, VR3, VR4, and VR5 set in a predetermined range centering on the gazing point POR. The visual field range VR3 is a range included in the visual field range VR3 and not included in the visual field range VR2. Similarly, the visual field range VR4 refers to a range included in the visual field range VR4 and not included in the visual field ranges VR2 and VR3, and the visual field range VR5 is included in the visual field range VR5 and the visual field range VR2. , VR3, VR4. In FIG. 9, the broken line image display maximum area PN, the star mark indicating the gazing point POR, and the alternate long and short dash line indicating each visual field range are shown for convenience of explanation, but these are not visually recognized by the user. .. In the present embodiment, since the captured images corresponding to the visual field visually recognized by the user are created by the captured images of the cameras 61 and 62, the created captured image and the visual field VR of the user match. In other embodiments, the captured image and the visual field VR of the user may be different.

画像設定部165は、図8のステップS19の処理を行なうと、検出対象TWに対応付けられた対応画像の画像データに基づいて画像表示最大領域PNに表示させる対応画像の表示態様を設定する(ステップS23)。本実施形態では、画像設定部165は、画像表示最大領域PNにおいて対応画像が表示される位置に対応させて、同じ画像データに基づく表示画像であっても、表示画像の態様の設定を変更する。画像設定部165は、対応画像IM1の表示態様を設定すると、表示態様を設定した対応画像IM1を画像表示最大領域PNに表示させる(ステップS23)。 When the image setting unit 165 performs the process of step S19 in FIG. 8, it sets the display mode of the corresponding image to be displayed in the image display maximum area PN based on the image data of the corresponding image associated with the detection target TW ( Step S23). In the present embodiment, the image setting unit 165 changes the setting of the mode of the display image, even for display images based on the same image data, in correspondence with the position where the corresponding image is displayed in the image display maximum area PN. .. When the display mode of the corresponding image IM1 is set, the image setting unit 165 displays the corresponding image IM1 for which the display mode is set in the image display maximum area PN (step S23).

図10は、対応画像IM1が表示された場合の使用者の視野VRの一例を示す説明図である。図10に示すように、使用者の視野VRには、光学像表示部26,28を透過して使用者が視認できる外景SCと、画像表示最大領域PN内に表示された対応画像IM1と、が含まれている。対応画像IM1は、撮像画像の中から検出された検出対象TWに対応付けられて画像表示最大領域PNに表示される画像である。対応画像IM1は、検出対象TWの近くに検出対象TWに重複しないように表示されるように予め設定されている。特に、特定された使用者の注視点PORが検出対象TWに重複する場合には、対応画像IM1は、特定された注視点PORの位置に合わせて表示される。なお、検出対象TWは、請求項における特定対象物に相当する。 FIG. 10 is an explanatory diagram showing an example of the visual field VR of the user when the corresponding image IM1 is displayed. As shown in FIG. 10, in the visual field VR of the user, an outside scene SC that can be visually recognized by the user through the optical image display units 26 and 28, and a corresponding image IM1 displayed in the image display maximum area PN, It is included. The corresponding image IM1 is an image displayed in the image display maximum area PN in association with the detection target TW detected from the captured image. The corresponding image IM1 is preset so as to be displayed near the detection target TW so as not to overlap with the detection target TW. In particular, when the specified user's gazing point POR overlaps the detection target TW, the corresponding image IM1 is displayed according to the position of the specified gazing point POR. The detection target TW corresponds to the specific target in the claims.

画像設定部165は、特定された注視点PORの位置に対応付けた対応画像IM1を表示させる画像表示位置と各視野範囲との位置関係を特定する。画像設定部165は、対応画像IM1の少なくとも一部が最も注視点PORに近い視野範囲VR2に含まれることを特定すると、対応画像IM1の画像データに基づいて表示させる画像の表示態様として、対応画像IM1の画像データを最も詳細まで表した表示態様として設定する。画像設定部165は、設定した表示態様の対応画像IM1として、下記の内容(A)〜(C)の全てを充足した画像を画像表示最大領域PNに表示させる。
(A)文字画像
(B)三次元画像(距離情報を含む)
(C)RGBの色情報を含む画像
設定された表示態様の対応画像IM1は、文字画像を含んでおり、検出対象TWまでの距離と同じ距離に視認されるような三次元画像として画像表示最大領域PNに表示される。また、対応画像IM1に含まれる文字画像の内の下線が引いてある「こちら」には、別に画像表示最大領域PNに表示されるカーソルなどを移動させることによって、「こちら」を選択可能であることを示すために、他の文字画像と異なる色(例えば、青(BLUE))によって表示されている。操作部135が受け付けた所定の操作によって、対応画像IM1に含まれる「こちら」が選択されると、CPU140は、無線通信部132を介して、検出対象TWのホームページ(HP)へと接続される。なお、本実施形態では、対応画像IM1の画像表示位置が複数の視野範囲に含まれる場合には、画像設定部165は、最も内側の視野範囲に対応画像IM1の全体が含まれた場合に表示される態様で、対応画像IM1を画像表示最大領域PNに表示させる。なお、他の実施形態では、対応画像IM1の表示位置がいずれの視野範囲に含まれるかの特定について種々変形可能であり、例えば、画像の内の最も含まれる表示領域が多い視野範囲が、表示態様を設定するための視野範囲として特定されてもよい。視野範囲VR2は、請求項における第1の視野範囲に相当し、視野範囲VR2以外の視野範囲は、請求項における第2の視野範囲に相当する。
The image setting unit 165 specifies the positional relationship between the image display position for displaying the corresponding image IM1 associated with the position of the specified gazing point POR and each visual field range. When the image setting unit 165 identifies that at least a part of the corresponding image IM1 is included in the visual field range VR2 closest to the gazing point POR, the corresponding image is displayed based on the image data of the corresponding image IM1. The image data of IM1 is set as the display mode showing the most detail. The image setting unit 165 displays an image satisfying all of the following contents (A) to (C) as the corresponding image IM1 of the set display mode in the image display maximum area PN.
(A) Character image (B) Three-dimensional image (including distance information)
(C) Image including RGB color information The corresponding image IM1 in the set display mode includes a character image and is a three-dimensional image that is visually recognized at the same distance as the distance to the detection target TW. It is displayed in the area PN. In addition, “here” can be selected by moving a cursor or the like separately displayed in the image display maximum area PN to “here” which is underlined in the character image included in the corresponding image IM1. In order to indicate that, it is displayed in a color different from other character images (for example, blue (BLUE)). When “here” included in the corresponding image IM1 is selected by a predetermined operation received by the operation unit 135, the CPU 140 is connected to the home page (HP) of the detection target TW via the wireless communication unit 132. .. In the present embodiment, when the image display position of the corresponding image IM1 is included in the plurality of visual field ranges, the image setting unit 165 displays the entire corresponding image IM1 in the innermost visual field range. In this manner, the corresponding image IM1 is displayed in the image display maximum area PN. It should be noted that in other embodiments, it is possible to variously change the specification of which visual field range the display position of the corresponding image IM1 is included in. For example, the visual field range having the largest display area included in the image is displayed. It may be specified as the visual field range for setting the aspect. The visual field range VR2 corresponds to the first visual field range in the claims, and the visual field range other than the visual field range VR2 corresponds to the second visual field range in the claims.

図8のステップS23において、対応画像IM1が画像表示最大領域PNに表示されると、CPU140は、カメラ61,62の撮像範囲の変化を監視する(ステップS25)。CPU140は、カメラ61,62の撮像範囲の変化を検出した場合には(ステップS25:YES)、ステップS13以降の処理を繰り返す。なお、CPU140は、カメラ61,62の撮像範囲の変化は、所定の閾値を用いて、所定の閾値以下の変化であれば、撮像画像に変化がないとして扱ってもよい。 In step S23 of FIG. 8, when the corresponding image IM1 is displayed in the image display maximum area PN, the CPU 140 monitors the change in the imaging range of the cameras 61 and 62 (step S25). CPU140 repeats the process after step S13, when the change of the imaging range of the cameras 61 and 62 is detected (step S25: YES). Note that the CPU 140 may treat a change in the imaging range of the cameras 61 and 62 by using a predetermined threshold value, and if the change is less than or equal to the predetermined threshold value, the captured image may be treated as no change.

図11は、カメラ61,62の撮像範囲が変化した後の対応画像IM2が表示された場合に使用者の視野VRの一例を示す説明図である。図11には、図10と比較して、使用者が検出対象TWよりも離れた位置に存在し、使用者の注視点PORが外景SCに含まれる月MNである場合の視野VRが示されている。すなわち、図11では、図10と比較して、使用者の注視点PORも変化している。図11に示す例では、カメラ61,62の撮像画像から検出された検出対象TWは、視野範囲VR5よりもさらに外側の範囲に含まれる。この場合に、画像設定部165は、対応画像IM1と同じ対応画像IM2の画像データに基づいて画像表示最大領域PNに表示させる画像の表示態様として、検出対象TWの位置のみを簡略化した距離情報を有さない表示態様として設定する。図11に示すように、画像設定部165は、対応画像IM2の画像データに基づく簡略化した対応画像IM2として、検出対象TWの位置に重複する丸の画像である対応画像IM2を、画像表示最大領域PNに無限遠の位置に表示させる。本実施形態では、画像設定部165は、視野範囲VR5に含まれる検出対象TWの対応画像として、検出対象TWの位置を表すだけの画像を画像表示最大領域PNに表示させる。なお、視野範囲VR5よりも外側の範囲は、請求項における第8の視野範囲に相当し、視野範囲VR5を含む視野範囲VR5より内側の視野範囲は、請求項における第7の視野範囲に相当する。 FIG. 11 is an explanatory diagram showing an example of the visual field VR of the user when the corresponding image IM2 after the imaging ranges of the cameras 61 and 62 are changed is displayed. FIG. 11 shows a visual field VR in the case where the user is present at a position farther from the detection target TW than in FIG. 10 and the gazing point POR of the user is the month MN included in the outside scene SC. ing. That is, in FIG. 11, the gazing point POR of the user also changes as compared with FIG. 10. In the example shown in FIG. 11, the detection target TW detected from the images captured by the cameras 61 and 62 is included in a range further outside the visual field range VR5. In this case, the image setting unit 165 uses the distance information in which only the position of the detection target TW is simplified as the display mode of the image displayed in the image display maximum area PN based on the image data of the corresponding image IM2 that is the same as the corresponding image IM1. Is set as a display mode without. As illustrated in FIG. 11, the image setting unit 165 displays the corresponding image IM2, which is a circular image overlapping the position of the detection target TW, as the simplified corresponding image IM2 based on the image data of the corresponding image IM2. The area PN is displayed at a position at infinity. In the present embodiment, the image setting unit 165 displays, as the corresponding image of the detection target TW included in the visual field range VR5, an image only representing the position of the detection target TW in the image display maximum area PN. The range outside the visual range VR5 corresponds to the eighth visual range in the claims, and the visual range inside the visual range VR5 including the visual range VR5 corresponds to the seventh visual range in the claims. ..

図8のステップS23において、対応画像IM2が表示されると、CPU140は、カメラ61,62の撮像範囲の変化を監視する(ステップS25)。CPU140は、カメラ61,62の撮像画像の変化がないと判定した場合には(ステップS25:NO)、使用者の視線方向EDの変化を監視する(ステップS27)。CPU140は、使用者の視線方向EDが変化したと判定した場合には(ステップS27:YES)、ステップS17以降の処理を繰り返す。 When the corresponding image IM2 is displayed in step S23 of FIG. 8, the CPU 140 monitors the change in the imaging range of the cameras 61 and 62 (step S25). When the CPU 140 determines that there is no change in the captured images of the cameras 61 and 62 (step S25: NO), the CPU 140 monitors the change in the line-of-sight direction ED of the user (step S27). When the CPU 140 determines that the line-of-sight direction ED of the user has changed (step S27: YES), it repeats the processing from step S17.

図12は、使用者の視線方向EDが変化した後の対応画像IM3が表示された場合に使用者が視認する視野VRの一例を示す説明図である。図12には、図11と比較して、使用者の注視点PORが変化した場合の視野VRが示されている。図12に示す例では、使用者の注視点PORは、外景SCに含まれる建物BD1であり、カメラ61,62の撮像画像における検出対象TWの位置は、視野範囲VR4および視野範囲VR5に含まれている。そのため、画像設定部165は、検出対象TWが視野範囲VR4に属すると判定して、検出対象TWに対応付けられた対応画像IM1と同じ画像データである対応画像IM3の画像データに基づいて画像表示最大領域PNに表示させる画像の表示態様を設定する。画像設定部165は、設定した表示態様に基づいて、ホームページ(HP)とリンクしており、選択可能なボタンとしての対応画像IM3を、図10の対応画像IM1の「こちら」と同じ色の無限遠に視認される画像として、画像表示最大領域PNに表示させる。換言すると、画像設定部165は、図10に示す対応画像IM1に対して、(A)文字画像の内容と、(B)距離情報を含む三次元画像の内容と、を含まないで、(C)RGBの色情報を含む画像として、画像表示最大領域PNに対応画像IM3を表示させる。なお、視野範囲VR4は、請求項における第4の視野範囲に相当し、視野範囲VR4よりも内側の視野範囲は、請求項における第3の視野範囲に相当する。 FIG. 12 is an explanatory diagram showing an example of the visual field VR visually recognized by the user when the corresponding image IM3 after the user's line-of-sight direction ED is changed is displayed. FIG. 12 shows the visual field VR in the case where the gazing point POR of the user changes, as compared with FIG. 11. In the example illustrated in FIG. 12, the gazing point POR of the user is the building BD1 included in the outside scene SC, and the position of the detection target TW in the images captured by the cameras 61 and 62 is included in the visual field range VR4 and the visual field range VR5. ing. Therefore, the image setting unit 165 determines that the detection target TW belongs to the visual field range VR4 and displays an image based on the image data of the corresponding image IM3 that is the same image data as the corresponding image IM1 associated with the detection target TW. The display mode of the image displayed in the maximum area PN is set. The image setting unit 165 is linked to the home page (HP) based on the set display mode, and displays the corresponding image IM3 as a selectable button in the same color as “here” of the corresponding image IM1 in FIG. It is displayed in the image display maximum area PN as an image visually recognized at a distance. In other words, the image setting unit 165 does not include (A) the content of the character image and (B) the content of the three-dimensional image including the distance information with respect to the corresponding image IM1 shown in FIG. ) A corresponding image IM3 is displayed in the image display maximum area PN as an image including RGB color information. The visual field range VR4 corresponds to the fourth visual field range in the claims, and the visual field range inside the visual field range VR4 corresponds to the third visual field range in the claims.

図8のステップS23の処理において、対応画像IM3が画像表示最大領域PNに表示されると、CPU140は、カメラ61,62の撮像範囲の変化を監視する(ステップS25)。CPU140は、カメラ61,62の撮像範囲の変化がないと判定した場合には(ステップS25:NO)、使用者の視線方向EDの変化を監視する(ステップS27)。CPU140は、使用者USの視線方向EDの変化がないと判定した場合には(ステップS27:NO)、操作部135に対する画像表示処理を終了する所定の操作の受付を監視する(ステップS29)。画像表示処理を終了する所定の操作が受け付けられない場合には(ステップS29:NO)、CPU140は、ステップS25以降の処理を繰り返す。ステップS29の処理において、画像表示処理を終了する所定の操作が受け付けられた場合には(ステップS29:YES)、CPU140は、画像表示処理を終了する。 In the process of step S23 of FIG. 8, when the corresponding image IM3 is displayed in the image display maximum area PN, the CPU 140 monitors the change of the imaging range of the cameras 61 and 62 (step S25). When the CPU 140 determines that there is no change in the imaging range of the cameras 61 and 62 (step S25: NO), the CPU 140 monitors the change in the line-of-sight direction ED of the user (step S27). When the CPU 140 determines that there is no change in the line-of-sight direction ED of the user US (step S27: NO), the CPU 140 monitors reception of a predetermined operation for terminating the image display processing on the operation unit 135 (step S29). When the predetermined operation for ending the image display processing is not accepted (step S29: NO), the CPU 140 repeats the processing of step S25 and thereafter. In the process of step S29, when a predetermined operation for ending the image display process is accepted (step S29: YES), the CPU 140 ends the image display process.

また、本実施形態におけるHMD100では、画像設定部165は、特定された使用者の視線方向EDと対応画像の表示位置との関係に基づいて、同じ対応画像の画像データであっても、異なる画像として画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度を向上させることができる。 Further, in the HMD 100 according to the present embodiment, the image setting unit 165, based on the relationship between the identified user's line-of-sight direction ED and the display position of the corresponding image, even if the image data of the same corresponding image is different, Is displayed in the maximum image display area PN of the image display unit 20. Therefore, in the HMD 100 of the present embodiment, the processing speed for displaying the corresponding image can be improved without reducing the easiness of recognition by the user who visually recognizes the corresponding image.

また、本実施形態のHMD100では、画像設定部165は、カメラ61,62の撮像画像の中から検出された検出対象TWの位置に対応付けて対応画像の画像表示位置を設定する。そのため、本実施形態のHMD100では、検出対象TWと対応画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。 Further, in the HMD 100 of the present embodiment, the image setting unit 165 sets the image display position of the corresponding image in association with the position of the detection target TW detected from the images captured by the cameras 61 and 62. Therefore, in the HMD 100 of the present embodiment, the user can visually recognize the correspondence between the detection target TW and the corresponding image more easily, and the usability for the user is improved.

また、本実施形態のHMD100では、眼撮像カメラ37,38の撮像画像によって使用者の視線方向EDが特定されるため、使用者の視線方向EDおよび注視点PORを精度良く特定できる。 Further, in the HMD 100 of the present embodiment, the user's line-of-sight direction ED is specified by the images captured by the eye image pickup cameras 37 and 38, so that the user's line-of-sight direction ED and the gazing point POR can be specified accurately.

また、本実施形態のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR2では文字画像を含む対応画像IM1を画像表示部20の画像表示最大領域PNに表示させる。一方で、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR2よりも外側の視野範囲では、文字画像を含まない対応画像(例えば、対応画像IM2)を画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者が文字を認識しづらい視野範囲では文字画像を含まない対応画像が画像表示部20に表示されるため、対応画像を視認する使用者の認識のしやすさをより低減させないで、対応画像を表示させる処理の速度を向上させることができる。 Further, in the HMD 100 of the present embodiment, the image setting unit 165 displays the corresponding image IM1 including the character image in the visual field range VR2 in the image display maximum area PN of the image display unit 20 based on the image data of the corresponding image IM1. .. On the other hand, the image setting unit 165 displays the corresponding image (for example, the corresponding image IM2) that does not include the character image in the image display unit 20 in the visual field range outside the visual field range VR2 based on the image data of the corresponding image IM1. The image is displayed in the maximum image display area PN. Therefore, in the HMD 100 of the present embodiment, the corresponding image that does not include the character image is displayed on the image display unit 20 in the visual field range where it is difficult for the user to recognize the character, so that the user who visually recognizes the corresponding image can easily recognize the corresponding image. The speed of the process of displaying the corresponding image can be improved without further reducing the size.

また、本実施形態のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR5では、簡略化した丸の画像の対応画像IM2を画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者が表示画像の詳細な内容までを認識できない視野範囲では画像があることだけを示す簡略化した画像のみが画像表示部20に表示されるため、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 Further, in the HMD 100 of the present embodiment, the image setting unit 165, based on the image data of the corresponding image IM1, the corresponding image IM2 of the simplified circular image in the visual field range VR5, the image display maximum area of the image display unit 20. Display on PN. Therefore, in the HMD 100 of the present embodiment, only a simplified image indicating that there is an image in the visual field range in which the user cannot recognize the detailed contents of the displayed image is displayed on the image display unit 20, so that the corresponding image is displayed. It is possible to further improve the speed of the processing for displaying the corresponding image without reducing the easiness of recognition by the user who visually recognizes.

また、本実施形態のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR4では、使用者の注視点PORまでの距離にかかわらず、距離情報を含まない二次元画像としての対応画像IM3を画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者が表示画像までの距離を認識しづらい視野範囲において二次元画像を画像表示部20に表示させるため、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 Further, in the HMD 100 of the present embodiment, the image setting unit 165, based on the image data of the corresponding image IM1, in the visual field range VR4, regardless of the distance to the gazing point POR of the user, two-dimensional information that does not include distance information. The corresponding image IM3 as an image is displayed in the image display maximum area PN of the image display unit 20. Therefore, in the HMD 100 of the present embodiment, since the two-dimensional image is displayed on the image display unit 20 in the visual field range in which it is difficult for the user to recognize the distance to the display image, it is easy for the user to visually recognize the corresponding image. It is possible to further improve the processing speed for displaying the corresponding image without reducing

B.第2実施形態:
第2実施形態のHMD100aでは、第1実施形態のHMD100と比較して、画像設定部165aが対応画像の表示態様を設定するために用いる視野範囲VR2が異なり、他の構成については第1実施形態のHMD100と同じである。
B. Second embodiment:
The HMD 100a of the second embodiment is different from the HMD 100 of the first embodiment in the visual field range VR2 used by the image setting unit 165a to set the display mode of the corresponding image, and other configurations are the same as the first embodiment. The same as the HMD100.

第2実施形態では、視野範囲VR2は、人間の眼球運動を考慮して決定される。人間の眼球運動としては、固視微動と、追従運動と、サッカードとの3つに分けられることが知られている。人間が特定の対象物を注視している場合であっても、実際の人間の視線は動いており、このような不随運動を固視微動という。追従運動とは、人間が動いている対象物を見ている場合に、当該対象物の動きを追跡する運動である。追従運動の速度は、最大30degree/s(dps)程度である。サッカードとは、眼球が小刻みに、高速で動く運動のことである。例えば、本を読んでいる場合などにおいて、横書きの文の右端まで読んだ後、改行された文の始まりである左端まで視線を高速で移動させる運動がサッカードに当たる。サッカードによる眼球の速度は、300〜600dps程度であり、サッカードの初動には、160〜170ミリセカンド(ms)程度を要する。サッカードの距離を視角で表すと、個人によって差があるものの、2〜6度(degree)程度である。第2実施形態では、画像設定部165aは、第1実施形態の視野範囲VR2に、サッカードによる視角も加えた視野範囲VR2Sを、第1実施形態のVR2における表示態様と同じに設定する。 In the second embodiment, the visual field range VR2 is determined in consideration of human eye movement. It is known that human eye movements can be divided into three types: fixational eye movements, following movements, and saccades. Even when a person is gazing at a specific object, the actual line of sight of the person is moving, and such an involuntary movement is called fixational eye movement. The following movement is a movement for tracking the movement of a moving object when a human is looking at the moving object. The speed of the follow-up movement is about 30 degrees/s (dps) at maximum. Saccade is a movement in which the eyeball moves in small steps at high speed. For example, when reading a book, a saccade is a movement in which the line of sight is moved to the left end, which is the beginning of a line-break sentence, after reading to the right end of a horizontally written sentence. The speed of the saccade eyeball is about 300 to 600 dps, and the initial movement of the saccade requires about 160 to 170 milliseconds (ms). When the saccade distance is represented by a visual angle, it is about 2 to 6 degrees (degree), although there are differences depending on individuals. In the second embodiment, the image setting unit 165a sets the visual field range VR2S in which the visual angle due to saccade is added to the visual field range VR2 of the first embodiment to be the same as the display aspect in VR2 of the first embodiment.

図13は、第1実施形態の視野範囲VR2と第2実施形態の視野範囲VR2Sとの比較するための説明図である。なお、図13には、第1実施形態の図10に図示されていた視野範囲VR3,VR4,VR5を図示せずに、新たに、視野範囲VR2Sを図示している。また、図13では、第1実施形態との比較のために、便宜上、第1実施形態の視野範囲VR2を破線で示している。 FIG. 13 is an explanatory diagram for comparing the visual field range VR2 of the first embodiment and the visual field range VR2S of the second embodiment. 13 does not show the visual field ranges VR3, VR4 and VR5 shown in FIG. 10 of the first embodiment, but newly shows the visual field range VR2S. Further, in FIG. 13, for convenience of comparison with the first embodiment, the visual field range VR2 of the first embodiment is shown by a broken line.

第2実施形態の画像設定部165aは、第1実施形態の視野範囲VR2の外側であっても、視野範囲VR2Sの内側であれば、検出対象TWに対応付けられた画像として、対応画像IM1を画像表示最大領域PNに表示させる。換言すると、第2実施形態では、検出対象TWが検出された場合に対応画像IM1として表示する視野領域が、視野範囲VR2から視野範囲VR2Sへと拡張されている。 The image setting unit 165a of the second embodiment, even if it is outside the visual field range VR2 of the first embodiment, if it is inside the visual field range VR2S, sets the corresponding image IM1 as the image associated with the detection target TW. The image is displayed in the maximum image display area PN. In other words, in the second embodiment, the visual field area displayed as the corresponding image IM1 when the detection target TW is detected is expanded from the visual field range VR2 to the visual field range VR2S.

以上説明したように、第2実施形態のHMD100aでは、画像設定部165aは、人間の眼球運動である視覚特性としてのサッカードを用いて、対応画像の表示態様を変化させた。そのため、第2実施形態のHMD100aでは、第1実施形態と同じように、視野範囲VR2Sよりも外側の領域では、検出対象TWに対応付けられた対応画像を画像表示最大領域PNに表示させるために必要な処理を軽減する。さらに、視野範囲VR2Sの領域では、対応画像IM1を画像表示最大領域PNに表示させるため、注視点PORがサッカードによって第1実施形態の視野範囲VR2の外側に変化したとしても、視野範囲VR2Sの内側であれば、対応画像の表示に遅れを生じさせなくてすむ。これにより、使用者にとってHMD100aの使い勝手が向上する。 As described above, in the HMD 100a of the second embodiment, the image setting unit 165a changes the display mode of the corresponding image by using the saccade as the visual characteristic that is the human eye movement. Therefore, in the HMD 100a of the second embodiment, as in the first embodiment, in the area outside the visual field range VR2S, in order to display the corresponding image associated with the detection target TW in the image display maximum area PN. Reduce the processing required. Further, in the area of the visual field range VR2S, since the corresponding image IM1 is displayed in the maximum image display area PN, even if the gazing point POR changes to the outside of the visual field range VR2 of the first embodiment due to the saccade, If it is inside, there is no need to delay the display of the corresponding image. This improves the usability of the HMD 100a for the user.

C.第3実施形態:
第3実施形態のHMD100bでは、画像設定部165bが画像表示最大領域PNに表示させる対応画像を設定する場合に、上記実施形態で考慮された視線方向EDおよび検出対象に加えて、使用者が注視している視認対象と視認対象以外の範囲との運動特性も考慮して、対応画像の表示態様を設定する。考慮される運動特性としては、例えば、視認対象が静止しており、視認対象の背景が視認対象に対して動いている場合などに使用者が感じる感覚が挙げられる。具体的には、電車に乗っている使用者が電車の窓に張られた広告を視認対象として視認しているに、走っている電車の外の景色は、動いているように使用者に知覚される場合などである。このように、人間が、自身に対して動いていると知覚することを、運動刺激を受けるという。一方で、人間が、自身に対して静止していると知覚することを、静止刺激を受けるという。一般に、人間は、視認対象として静止刺激を受け、視認対象の周りの背景として運動刺激を受けると、自身が運動していると知覚することが知られている。また、人間は、視認対象の近くから(特に奥行きを基準とした前後に)運動刺激を受けると、自身が運動していると知覚する。一方で、視認対象として運動刺激を受け、背景として静止刺激を受けると、自身が運動していないと知覚する。第3実施形態のHMD100bでは、使用者が運動していると感じる自己運動感覚を出したりなくしたりすることで、使用者に臨場感を持たせたり、使用者の臨場感を抑制したりする。本明細書では、HMD100bの使用者が、停止していると認識する視認対象に対して、移動していると認識する背景等を、移動背景とも呼ぶ。
C. Third embodiment:
In the HMD 100b of the third embodiment, when the image setting unit 165b sets the corresponding image to be displayed in the image display maximum area PN, in addition to the line-of-sight direction ED and the detection target considered in the above-described embodiment, the user gazes. The display mode of the corresponding image is set in consideration of the motion characteristics between the visible target being operated and the range other than the visible target. The motion characteristics to be considered include, for example, the feeling that the user feels when the visual target is stationary and the background of the visual target is moving with respect to the visual target. Specifically, while the user on the train is viewing the advertisement on the window of the train as a target for viewing, the scenery outside the running train is perceived by the user as moving. When it is done. Thus, perceiving that a person is moving with respect to himself is called a motion stimulus. On the other hand, what humans perceive to be stationary with respect to themselves is called a static stimulus. It is generally known that human beings perceive that they are moving when receiving a static stimulus as a visual target and a motion stimulus as a background around the visual target. In addition, when a human receives a motion stimulus from near the visual target (especially before and after the depth is used as a reference), the human perceives that he is moving. On the other hand, when a motion stimulus is received as a visual target and a static stimulus is received as a background, the user perceives that he is not moving. In the HMD 100b of the third embodiment, by giving or eliminating a self-kinematic sensation that the user feels that he is exercising, the user has a sense of presence or the presence of the user is suppressed. In the present specification, a background or the like that the user of the HMD 100b recognizes as moving with respect to a visual target that is recognized as stationary is also referred to as a moving background.

図14は、第3実施形態において自動車を運転している使用者が視認する視野VRの説明図である。図14に示すように、第3実施形態では、使用者は、外景SCとして森林の中の道路と、画像表示最大領域PNに表示された対応画像IM7および対応画像IM8と、を視認している。使用者は、右手RHと左手LHとで自動車のハンドルHDを操作し、注視点PORを見ている。対応画像IM7は、検出対象TWaである自動車に搭載されたカーナビゲーション(以降では、単に「カーナビ」とも呼ぶ)に対応付けられた画像である。IM7は、カーナビが目的地までの経路として直進することを使用者に促す画像である。対応画像IM7は、文字などの情報を削った単に矢印の画像(マーク)として画像表示最大領域PNに表示させる。対応画像IM8は、外景SCに含まれる検出対象TWbである道路に対応付けられた画像である。対応画像IM8は、道路の脇から飛び出してくるおそれのある野生の動物に注意することを使用者に促す「動物注意」の文字画像である。 FIG. 14 is an explanatory diagram of a visual field VR visually recognized by a user who is driving an automobile in the third embodiment. As shown in FIG. 14, in the third embodiment, the user visually recognizes the road in the forest as the outside scene SC and the corresponding images IM7 and IM8 displayed in the image display maximum area PN. .. The user operates the steering wheel HD of the automobile with the right hand RH and the left hand LH to see the gazing point POR. The corresponding image IM7 is an image associated with the car navigation (hereinafter, also simply referred to as “car navigation”) mounted on the automobile that is the detection target TWa. IM7 is an image that prompts the user to go straight as a car navigation route to the destination. The corresponding image IM7 is displayed in the image display maximum area PN as an image (mark) of an arrow in which information such as characters is deleted. The corresponding image IM8 is an image associated with the road that is the detection target TWb included in the outside scene SC. The corresponding image IM8 is a character image of "animal caution" that prompts the user to pay attention to wild animals that may jump out from the side of the road.

第3実施形態では、方向特定部166は、右眼撮像カメラ37が撮像した右眼REの撮像画像と、左眼撮像カメラ38が撮像した左眼LEの撮像画像と、を用いることで、使用者の視線方向EDに加えて、視認対象OJ1までの距離も特定できる。図14に示す例では、方向特定部166によって特定された視認対象OJ1までの距離は、10メートル(m)である。すなわち、使用者は、自動車の外景SCに含まれる道路を視認対象OJ1として注視している。この場合、自動車が走行していると、使用者は、自身にとって移動していると認識する道路から運動刺激を受ける。また、使用者は、視認対象OJ1の道路の近くの背景も移動していると知覚することにより、視認対象OJ1の近くの背景から運動刺激を受ける。そのため、使用者は、自身が運動していると知覚する。 In the third embodiment, the direction specifying unit 166 is used by using the captured image of the right eye RE captured by the right eye imaging camera 37 and the captured image of the left eye LE captured by the left eye imaging camera 38. In addition to the line-of-sight direction ED of the person, the distance to the visual target OJ1 can be specified. In the example illustrated in FIG. 14, the distance to the visual target OJ1 specified by the direction specifying unit 166 is 10 meters (m). That is, the user is gazing at the road included in the outside scene SC of the automobile as the visual target OJ1. In this case, when the automobile is running, the user receives a motion stimulus from the road that he recognizes to be moving. In addition, the user receives a motion stimulus from the background near the visual target OJ1 by perceiving that the background near the road of the visual target OJ1 is also moving. Therefore, the user perceives that he is exercising.

第3実施形態の距離測定部168bは、カメラ61,62によって複数の時点(例えば、動画)で撮像された外景の撮像画像を用いて、撮像画像における特定の対象がカメラ61,62に対して移動しているか否かを判定できる。画像設定部165bは、距離測定部168bによって判定された撮像された対象のそれぞれの移動の有無に基づいて、対応画像IM7の表示態様および対応画像IM8の表示態様を設定する。 The distance measuring unit 168b according to the third embodiment uses the captured images of the outside scene captured by the cameras 61 and 62 at a plurality of time points (for example, moving images), and identifies a specific target in the captured images with respect to the cameras 61 and 62. It can be determined whether or not it is moving. The image setting unit 165b sets the display mode of the corresponding image IM7 and the display mode of the corresponding image IM8 based on the presence or absence of movement of each of the imaged objects determined by the distance measuring unit 168b.

画像設定部165bは、使用者が視認対象OJ1から運動刺激を受けているため、同じように運動刺激を使用者に与える検出対象TWbに対応付けられた対応画像IM8を、文字などの情報も含む画像として画像表示最大領域PNに表示させる。一方で、画像設定部165bは、使用者が乗車している自動車の内部に配置された検出対象TWaは、使用者と同じ速度で移動するため、使用者に静止刺激を与える。画像設定部165bは、視認対象OJ1が使用者に与える運動刺激と異なる静止刺激を使用者に与える検出対象TWaに対応付けられた対応画像IM7を、単なるマークを表す画像として画像表示最大領域PNに表示させる。簡単に言うと、第3実施形態のHMD100bでは、画像設定部165bは、使用者の視線方向EDとしての視認対象OJ1までの距離と、視認対象OJ1に対する速度の関係に基づいて、対応画像IM7,IM8の表示態様を設定する。 Since the user receives the motion stimulus from the visual target OJ1, the image setting unit 165b also includes the corresponding image IM8 associated with the detection target TWb that similarly gives the motion stimulus to the user, including information such as characters. The image is displayed in the image display maximum area PN. On the other hand, the image setting unit 165b gives a static stimulus to the user because the detection target TWa arranged inside the vehicle in which the user is riding moves at the same speed as the user. The image setting unit 165b sets the corresponding image IM7 associated with the detection target TWa that gives the user a static stimulus different from the motion stimulus given to the user by the visual target OJ1 as an image representing a simple mark in the image display maximum area PN. Display it. Briefly, in the HMD 100b of the third embodiment, the image setting unit 165b, based on the relationship between the distance to the visual target OJ1 as the user's line-of-sight direction ED and the speed with respect to the visual target OJ1, the corresponding image IM7, Set the display mode of IM8.

図15は、第3実施形態において自動車を運転している使用者が視認する視野VRの説明図である。図15に示すように、使用者は、外景SCと、対応画像IM8および対応画像IM9と、を視認している。図15に示す例では、使用者は、図14に示す使用者の視線方向EDと同じ方向を注視している。この場合、図14に示す例と図15に示す例とでは、画像を表示できる画像表示最大領域PNにおいて、使用者は、同じ領域を視認していることになる。すなわち、使用者の視線方向を基準として、図15における検出対象TWaの位置および検出対象TWbの位置は、図14における検出対象TWaの位置および検出対象TWbの位置と同じである。 FIG. 15 is an explanatory diagram of a visual field VR visually recognized by a user who is driving an automobile in the third embodiment. As shown in FIG. 15, the user visually recognizes the outside scene SC and the corresponding images IM8 and IM9. In the example shown in FIG. 15, the user is gazing in the same direction as the line-of-sight direction ED of the user shown in FIG. In this case, in the example shown in FIG. 14 and the example shown in FIG. 15, the user visually recognizes the same area in the image display maximum area PN in which the image can be displayed. That is, the positions of the detection target TWa and the detection target TWb in FIG. 15 are the same as the positions of the detection target TWa and the detection target TWb in FIG.

図15において、使用者が注視する視認対象OJ2は、使用者から50センチメートル(cm)離れた自動車のフロントガラスである。換言すると、使用者は、自身と一緒に移動して静止しているように見える視認対象OJ2を注視している。図15に示す例では、使用者は、視認対象OJ2から静止刺激を受け、検出対象TWaから静止刺激を受け、検出対象TWbから運動刺激を受ける。そのため、画像設定部165bは、視認対象OJ2と同じ静止刺激を使用者に与える検出対象TWaに対応付けられた対応画像IM9の表示態様として、文字情報も含む画像を設定する。対応画像IM9は、カーナビが使用者を目的地まで案内するための直進することを促す「このまま直進」の文字画像である。一方で、画像設定部165bは、視認対象OJ2の静止刺激と異なる運動刺激を使用者に与える検出対象TWbに対応付けられた対応画像IM10の表示態様として、文字情報を削って、注意を促すびっくりマークである「!」のみを設定する。請求項における簡便な表示態様とは、画像表示最大領域PNに表示される2つの表示画像を比較したときに、表示画像に含まれる形状がより複雑でないこと(例えば、単純な「○」や「×」の形状)、表示画像に用いられる色がより少ないこと、表示画像の領域がより小さいこと(例えば、より少ない文字での表示)、などが挙げられる。 In FIG. 15, the visual target OJ2 that the user gazes at is the windshield of the automobile, which is 50 cm (cm) away from the user. In other words, the user is gazing at the visual target OJ2 that seems to be stationary by moving with him. In the example shown in FIG. 15, the user receives a static stimulus from the visual target OJ2, a static stimulus from the detection target TWa, and a motion stimulus from the detection target TWb. Therefore, the image setting unit 165b sets an image including character information as a display mode of the corresponding image IM9 associated with the detection target TWa that gives the user the same static stimulus as the visual recognition target OJ2. The corresponding image IM9 is a character image of "go straight as it is" to prompt the car navigation to go straight to guide the user to the destination. On the other hand, the image setting unit 165b deletes character information as a display mode of the corresponding image IM10 associated with the detection target TWb that gives the user a motion stimulus different from the static stimulus of the visual target OJ2, and is surprised to call attention. Only the mark "!" is set. The simple display mode in the claims means that when two display images displayed in the maximum image display area PN are compared, the shape included in the display image is not more complicated (for example, simple “○” or “ The shape of “×”), the number of colors used for the display image is smaller, the area of the display image is smaller (for example, display with fewer characters), and the like.

以上説明したように、第3実施形態のHMD100bでは、方向特定部166bが視認対象OJ1,OJ2までの距離を特定し、画像設定部165bは、視認対象OJ1,OJ2から使用者が受ける静止刺激や運動刺激といった運動特性に基づいて、検出対象TWa,TWbに対応付けられた対応画像IM7,IM8,IM9,IM10の表示態様を設定する。そのため、第3実施形態のHMD100bでは、使用者の運動特性も考慮した対応画像が画像表示最大領域PNに表示されるため、対応画像を用いて、使用者が感じる臨場感を調整できる。また、使用者により視認しやすい画像と視認しにくい対応画像を画像表示最大領域PNに表示させる場合に、視認しにくい対応画像の情報を少なくすることで、HMD100bが実行する処理の負担を軽減できる。 As described above, in the HMD 100b of the third embodiment, the direction specifying unit 166b specifies the distance to the visual targets OJ1 and OJ2, and the image setting unit 165b uses the visual stimulus OJ1 and OJ2 to receive the static stimuli and the user. The display mode of the corresponding images IM7, IM8, IM9, IM10 associated with the detection targets TWa, TWb is set based on the motion characteristics such as the motion stimulus. Therefore, in the HMD 100b of the third embodiment, the corresponding image in consideration of the user's motion characteristics is displayed in the image display maximum area PN, so that the corresponding image can be used to adjust the user's sense of presence. Further, when displaying an image that is easily visible to the user and a corresponding image that is difficult to see in the image display maximum area PN, by reducing the information of the corresponding image that is difficult to view, the load of the processing executed by the HMD 100b can be reduced. ..

また、第3実施形態のHMD100bでは、図14に示す例と図15に示す例とで比較したように、画像設定部165bは、視線方向EDに対して、外景の同じ領域に位置する検出対象TWa,TWbであっても、視認対象の運動特性によって、対応画像の表示態様を変更する。そのため、第3実施形態のHMD100bでは、対応画像を用いて、使用者が感じる臨場感をより調整できる。 Further, in the HMD 100b of the third embodiment, as compared with the example shown in FIG. 14 and the example shown in FIG. 15, the image setting unit 165b determines that the detection target located in the same area of the outside scene with respect to the line-of-sight direction ED. Even in TWa and TWb, the display mode of the corresponding image is changed depending on the motion characteristics of the visual target. Therefore, in the HMD 100b of the third embodiment, it is possible to further adjust the sense of presence that the user feels by using the corresponding image.

D.第4実施形態:
第4実施形態のHMD100cでは、撮像された対象の移動速度が特定され、画像設定部165cは、画像表示部20cを装着している使用者に対する特定された対象の移動速度と、使用者の視線方向EDと、に基づいて、対応画像の表示態様を設定する。また、HMD100cでは、無線通信部132cは、無線通信を行なうことで、他のサーバーから検出対象のデータと、当該検出対象に対応付けられた対応画像の基となる画像データと、を取得する。無線通信部132cによって取得される画像データは、画像データが複数のカテゴリーに分類されており、無線通信部132cは、これらのカテゴリーについても、画像データと紐付けて取得する。カテゴリーとしては、例えば、使用者に目的地までの道などを教える「案内」や自然災害などの突発的な事象に起因して使用者に注意を促す「警告」などが挙げられる。なお、無線通信部132cは、請求項における画像データ取得部に相当する。
D. Fourth Embodiment:
In the HMD 100c of the fourth embodiment, the moving speed of the imaged target is specified, and the image setting unit 165c determines the moving speed of the specified target with respect to the user wearing the image display unit 20c and the line of sight of the user. The display mode of the corresponding image is set based on the direction ED. In addition, in the HMD 100c, the wireless communication unit 132c performs wireless communication to acquire the detection target data and the image data that is the basis of the corresponding image associated with the detection target from another server. The image data obtained by the wireless communication unit 132c is classified into a plurality of categories, and the wireless communication unit 132c also obtains these categories in association with the image data. The categories include, for example, “guidance” that teaches the user how to reach the destination, and “warning” that calls the user's attention due to a sudden event such as a natural disaster. The wireless communication unit 132c corresponds to the image data acquisition unit in the claims.

図16は、第4実施形態において歩行者である使用者が視認する視野VRの説明図である。図16に示すように、使用者は、建物BD4などを含む外景SCと、画像表示最大領域PNに表示された対応画像IM11および対応画像IM12と、を視認する。図16に示す例では、使用者は、建物BD4の入口ENを注視点PORとして視認している。なお、図16には、注視点PORを中心として、第1実施形態で説明した視野範囲VR2が示されている。対応画像IM11は、検出対象としての移動物体CA1に対応付けられて表示される画像である。移動物体CA1は、建物BD4の前の道路を、使用者に対して横切るように(左右に)通行している循環バスである。対応画像IM11は、移動物体CA1が〇〇市内を循環するバスであることを表す文字画像「〇〇市内循環バス」である。 FIG. 16 is an explanatory diagram of a visual field VR visually recognized by a user who is a pedestrian in the fourth embodiment. As shown in FIG. 16, the user visually recognizes the outside scene SC including the building BD4 and the like, and the corresponding image IM11 and the corresponding image IM12 displayed in the image display maximum area PN. In the example shown in FIG. 16, the user visually recognizes the entrance EN of the building BD4 as the gazing point POR. Note that FIG. 16 shows the visual field range VR2 described in the first embodiment centering on the point of interest POR. The corresponding image IM11 is an image displayed in association with the moving object CA1 as the detection target. The moving object CA1 is a circulating bus that passes (left and right) across the road in front of the building BD4 so as to cross the user. Corresponding image IM11 is a character image "Circle bus in the city" that represents that moving object CA1 is a bus circulating in the city.

対応画像IM12は、検出対象としての移動物体CA2に対応付けられて表示される画像である。移動物体CA2は、使用者に方向に向かって走行してくる自動車である。画像設定部165cは、無線通信部132cを介して取得した画像データに基づいて、対応画像IM12の表示態様を決定して、画像表示最大領域PNに対応画像IM12を表示させる。第3実施形態では、方向特定部166cは、画像表示部20cを基準として、カメラ61,62によって撮像された撮像画像に含まれる対象の移動速度を測定する。対応画像IM12は、元となる画像データが紐付けられているカテゴリーが「警告」である。この場合、画像設定部165cは、移動物体CA2が予め設定された速度以上で使用者(画像表示部20c)に近づくと判定した場合は、注視点PORおよび視野範囲VR2との位置関係に関わらず、対応画像IM11などの他の対応画像よりも大きく対応画像IM12を画像表示最大領域PNに表示させる。そのため、図16に示すように、使用者への移動物体CA2の接近を注意する文字画像「接近中!」の対応画像IM12のフォントは、対応画像IM11のフォントよりも大きく画像表示最大領域PNに表示される。なお、方向特定部166cは、請求項における移動物体特定部に相当する。 The corresponding image IM12 is an image displayed in association with the moving object CA2 as a detection target. The moving object CA2 is an automobile traveling in a direction toward the user. The image setting unit 165c determines the display mode of the corresponding image IM12 based on the image data acquired via the wireless communication unit 132c, and displays the corresponding image IM12 in the image display maximum area PN. In the third embodiment, the direction identifying unit 166c measures the moving speed of the target included in the captured images captured by the cameras 61 and 62 with the image display unit 20c as a reference. In the corresponding image IM12, the category associated with the original image data is “warning”. In this case, when the image setting unit 165c determines that the moving object CA2 approaches the user (image display unit 20c) at a speed equal to or higher than a preset speed, regardless of the positional relationship between the gazing point POR and the visual field range VR2. The corresponding image IM12 is displayed in the maximum image display area PN larger than other corresponding images such as the corresponding image IM11. For this reason, as shown in FIG. 16, the font of the corresponding image IM12 of the character image “coming in!”, which indicates the approach of the moving object CA2 to the user, is larger than the font of the corresponding image IM11 in the image display maximum area PN. Is displayed. The direction specifying unit 166c corresponds to the moving object specifying unit in the claims.

以上説明したように、第4実施形態のHMD100cでは、画像設定部165cは、視線方向EDに加えて、検出対象としての移動物体CA2が画像表示部20cを装着している使用者に近づく速度に基づいて、移動物体CA2に対応付けられた対応画像IM12の表示態様を設定する。そのため、第4実施形態のHMD100cでは、使用者への近づく速度が速い移動物体がある場合に、使用者に危険を報知することができ、使用者の利便性が向上する。 As described above, in the HMD 100c of the fourth embodiment, in addition to the line-of-sight direction ED, the image setting unit 165c sets the speed at which the moving object CA2 as the detection target approaches the user wearing the image display unit 20c. Based on this, the display mode of the corresponding image IM12 associated with the moving object CA2 is set. Therefore, in the HMD 100c of the fourth embodiment, when there is a moving object that approaches the user at a high speed, the user can be notified of the danger, and the convenience of the user is improved.

E.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
E. Modification:
The present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the scope of the invention, and for example, the following modifications are possible.

E−1.変形例1:
図17は、変形例における使用者が視認する視野VRの一例を示す説明図である。図17には、第1実施形態の図12と比較して、使用者の注視点PORが建物BD1から建物BD2へと変化した後の視野VRが示されている。図17に示す例では、使用者の注視点PORが建物BD2であるため、画像設定部165は、カメラ61,62の撮像画像における検出対象TWの位置が視野範囲VR3に属すると判定して、画像表示最大領域PNに表示画像としての対応画像IM4を表示させる。対応画像IM4は、図12に示す対応画像IM3に対して、さらに、(B)距離情報を含む三次元画像として表示される画像である。換言すると、対応画像IM4は、(B)距離情報を含む三次元画像の内容と、(C)RGBの色情報と、を含む画像である。なお、視野範囲VR4は、請求項における第4の視野範囲に相当し、視野範囲VR4よりも内側の視野範囲は、請求項における第3の視野範囲に相当する。
E-1. Modification 1:
FIG. 17 is an explanatory diagram showing an example of the visual field VR visually recognized by the user in the modified example. FIG. 17 shows the visual field VR after the gazing point POR of the user is changed from the building BD1 to the building BD2, as compared with FIG. 12 of the first embodiment. In the example shown in FIG. 17, since the gazing point POR of the user is the building BD2, the image setting unit 165 determines that the position of the detection target TW in the images captured by the cameras 61 and 62 belongs to the visual field range VR3, The corresponding image IM4 as a display image is displayed in the image display maximum area PN. The corresponding image IM4 is an image displayed as a three-dimensional image including (B) distance information in addition to the corresponding image IM3 shown in FIG. In other words, the corresponding image IM4 is an image including (B) the content of the three-dimensional image including the distance information and (C) the RGB color information. The visual field range VR4 corresponds to the fourth visual field range in the claims, and the visual field range inside the visual field range VR4 corresponds to the third visual field range in the claims.

このように、この変形例のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR3では、距離情報を含む三次元画像としての対応画像IM4を画像表示部20の画像表示最大領域PNに表示させる。そのため、この変形例のHMD100では、同じ画像データに基づいて、使用者が三次元画像として認識できる範囲においては三次元画像が表示され、使用者が三次元画像を認識しづらい範囲においては二次元画像が表示される。これにより、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 As described above, in the HMD 100 of this modification, the image setting unit 165 of the image display unit 20 displays the corresponding image IM4 as the three-dimensional image including the distance information in the visual field range VR3 based on the image data of the corresponding image IM1. The image is displayed in the maximum image display area PN. Therefore, in the HMD 100 of this modified example, a three-dimensional image is displayed based on the same image data in a range where the user can recognize it as a three-dimensional image, and a two-dimensional image is displayed in a range where the user cannot easily recognize the three-dimensional image. The image is displayed. As a result, the speed of the process of displaying the corresponding image can be further improved without reducing the ease of recognition by the user who visually recognizes the corresponding image.

図18は、変形例における使用者が視認する視野VRの一例を示す説明図である。図18には、第1実施形態の図12と比較して、使用者の注視点PORが建物BD1から建物BD3へと変化した後の視野VRが示されている。図18に示す例では、使用者USの注視点PORが建物BD3であるため、画像設定部165は、カメラ61,62の撮像画像における検出対象TWの位置が視野範囲VR5に属すると判定して、画像表示最大領域PNに表示画像としての対応画像IM5を表示させる。対応画像IM5は、白と黒との濃淡によって表され、対応画像IM1と同じ画像データに基づいて作成される画像である。対応画像IM5は、RGBの色情報を含まない上で使用者の視認性を向上させるために、濃淡の濃い色の長方形の画像を背景として、濃淡の薄い色の「HP」の文字を表した画像である。換言すると、対応画像IM5は、対応画像IM3に対して、(C)RGBの色情報を含まない画像である。なお、視野範囲VR5は、請求項における第6の視野範囲に相当し、視野範囲VR5よりも内側の視野範囲は、請求項における第5の視野範囲に相当する。 FIG. 18 is an explanatory diagram showing an example of the visual field VR visually recognized by the user in the modified example. FIG. 18 shows the visual field VR after the user's gazing point POR changes from the building BD1 to the building BD3, as compared with FIG. 12 of the first embodiment. In the example illustrated in FIG. 18, since the gazing point POR of the user US is the building BD3, the image setting unit 165 determines that the position of the detection target TW in the images captured by the cameras 61 and 62 belongs to the visual field range VR5. The corresponding image IM5 as the display image is displayed in the image display maximum area PN. The corresponding image IM5 is an image that is represented by shading of white and black and is created based on the same image data as the corresponding image IM1. Corresponding image IM5 does not include RGB color information, and in order to improve the user's visibility, a dark and light shaded rectangular image is used as a background and the light and shaded letters "HP" are displayed. It is an image. In other words, the corresponding image IM5 is an image that does not include (C) RGB color information with respect to the corresponding image IM3. The visual field range VR5 corresponds to the sixth visual field range in the claims, and the visual field range inside the visual field range VR5 corresponds to the fifth visual field range in the claims.

このように、この変形例のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR5では、RGBの色情報を含まない対応画像IM5を画像表示部20の画像表示最大領域PNに表示させる。そのため、この変形例のHMD100では、同じ画像データに基づいて、使用者がRGBを含む種々の色情報を認識できる範囲においてはRGBの色情報を用いた対応画像が表示され、使用者が色情報を認識しづらい範囲においては白と黒との色情報のみを有する対応画像が表示させる。これにより、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 As described above, in the HMD 100 of this modification, the image setting unit 165 displays the corresponding image IM5 that does not include RGB color information in the image display unit 20 in the visual field range VR5 based on the image data of the corresponding image IM1. The maximum area PN is displayed. Therefore, in the HMD 100 of this modification, a corresponding image using the RGB color information is displayed in the range where the user can recognize various color information including RGB based on the same image data, and the user displays the color information. In the range where it is difficult to recognize, the corresponding image having only the color information of white and black is displayed. As a result, the speed of the process of displaying the corresponding image can be further improved without reducing the ease of recognition by the user who visually recognizes the corresponding image.

E−2.変形例2:
図19は、対応画像IM5が視野範囲VR5に属する場合に使用者が視認する視野VRの一例を示す説明図である。図19には、撮像された人間の被写体OBに頭部の位置に、帽子の画像である対応画像IM6が重畳されて表示されている場合の視野VRが示されている。被写体OBは、上半身および下半身にスキーウェアを試着している人間であり、実際には帽子を頭部に試着していない。図19に示すように、HMD100の使用者の注視点PORは、被写体OBから離れた位置であり、この場合に、対応画像IM6が画像表示最大領域PNにおいて表示される領域は、視野範囲VR5に属する。対応画像IM6の基となる画像データは、対応画像IM6として表示されている帽子の模様などの色情報も含んでいる。しかし、画像設定部165は、対応画像IM6の表示位置が視野範囲VR5に属するため、対応画像IM6を、模様やRGBなどの色情報を含まず、帽子の外枠だけを黒の濃い濃淡で表示させた画像として画像表示最大領域PNに表示させる。換言すると、画像設定部165は、対応画像IM6の輪郭を使用者に認識させるため、帽子の画像の外枠のみの画像を画像表示最大領域PNに表示させる。
E-2. Modification 2:
FIG. 19 is an explanatory diagram showing an example of the visual field VR visually recognized by the user when the corresponding image IM5 belongs to the visual field range VR5. FIG. 19 shows the visual field VR in the case where the corresponding image IM6 which is the image of the hat is superimposed and displayed at the position of the head on the imaged human subject OB. The subject OB is a person who is trying on the ski wear on the upper body and the lower body, and does not actually try on the hat on the head. As shown in FIG. 19, the gazing point POR of the user of the HMD 100 is a position distant from the subject OB, and in this case, the area in which the corresponding image IM6 is displayed in the image display maximum area PN is in the visual field range VR5. Belong to The image data that is the basis of the corresponding image IM6 also includes color information such as the pattern of the hat displayed as the corresponding image IM6. However, since the display position of the corresponding image IM6 belongs to the visual field range VR5, the image setting unit 165 does not include color information such as a pattern or RGB in the corresponding image IM6 and displays only the outer frame of the hat in dark and light shades of black. The displayed image is displayed in the image display maximum area PN. In other words, the image setting unit 165 displays an image of only the outer frame of the hat image in the maximum image display area PN in order to allow the user to recognize the contour of the corresponding image IM6.

このように、この変形例のHMD100では、画像設定部165は、画像データに基づいて、視野範囲VR5では、表示画像の輪郭のみの対応画像IM6を画像表示部20の画像表示最大領域PNに表示させる。そのため、この変形例のHMD100では、使用者が色情報を認識しづらい範囲においては画像の外枠のみを表示させので、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 As described above, in the HMD 100 of this modification, the image setting unit 165 displays the corresponding image IM6 of only the contour of the display image in the image display maximum area PN of the image display unit 20 in the visual field range VR5 based on the image data. Let Therefore, in the HMD 100 of this modification, only the outer frame of the image is displayed in the range in which the user is difficult to recognize the color information, so that the recognizability of the user who visually recognizes the corresponding image is not reduced. The speed of the processing for displaying the image can be further improved.

E−3.変形例3:
上記実施形態では、表示画像が画像表示最大領域PNの一部に表示されたが、表示画像は、画像表示最大領域PNの全体に表示される画像であってもよいし、カメラ61,62の撮像画像から検出される検出対象と対応付けられた対応画像とは異なる画像であってもよい。例えば、表示画像は、検出対象と無関係に、コンテンツ等によって再生される映画などの動画であってもよい。また、表示画像としての動画は、画像表示最大領域PNの全体に表示されてもよい。画像が画像表示最大領域PNの全体に表示される動画の場合に、画像設定部165は、使用者の視線方向EDが画像表示最大領域PN上にないと判定したときには、動画を非表示にしてもよい。このように、画像設定部165は、画像表示最大領域PNに表示される画像と特定された使用者の視線方向EDとに基づいて、表示画像の表示態様を種々変形して設定する。
E-3. Modification 3:
In the above embodiment, the display image is displayed in a part of the image display maximum area PN, but the display image may be an image displayed in the entire image display maximum area PN, or the images of the cameras 61 and 62. The image may be different from the corresponding image associated with the detection target detected from the captured image. For example, the display image may be a moving image such as a movie that is played by content or the like regardless of the detection target. Further, the moving image as the display image may be displayed in the entire image display maximum area PN. When the image is a moving image displayed in the entire image display maximum region PN, the image setting unit 165 hides the moving image when it is determined that the line-of-sight direction ED of the user is not on the image display maximum region PN. Good. In this way, the image setting unit 165 variously modifies and sets the display mode of the display image based on the image displayed in the image display maximum area PN and the specified line-of-sight direction ED of the user.

上記実施形態では、使用者の視線方向EDは、眼撮像カメラ37,38の撮像画像に基づいて特定されたが、別の方法によって特定されてもよい。例えば、画像表示部20の向きによって使用者の視線方向EDが特定されてもよい。具体的には、画像表示部20を頭部に装着している使用者の視線方向EDは、画像表示部20の正面方向であると特定し、常に、画像表示最大領域PNの中心を使用者の注視点PORとして設定してもよい。この変形例のHMD100によれば、眼撮像カメラ37,38のような装置を使用せずに、簡便に安価に使用者の視線方向EDを特定できる。また、画像表示部20にジャイロセンサーが搭載されて、ジャイロセンサーによって検出された角速度に基づいて、画像表示部20の向きが特定されてもよい。また、使用者のこめかみや鼻に接触する部分に配置された電極が検出する筋電位によって使用者の視線方向が特定されてもよい。 In the above embodiment, the line-of-sight direction ED of the user is specified based on the images captured by the eye imaging cameras 37 and 38, but may be specified by another method. For example, the line-of-sight direction ED of the user may be specified by the orientation of the image display unit 20. Specifically, the line-of-sight direction ED of the user who wears the image display unit 20 on his/her head is specified to be the front direction of the image display unit 20, and the center of the image display maximum area PN is always set to the user. May be set as the gazing point POR. According to the HMD 100 of this modification, the user's line-of-sight direction ED can be specified easily and inexpensively without using a device such as the eye imaging cameras 37 and 38. Further, a gyro sensor may be mounted on the image display unit 20, and the orientation of the image display unit 20 may be specified based on the angular velocity detected by the gyro sensor. Further, the line-of-sight direction of the user may be specified by a myoelectric potential detected by an electrode arranged in a portion that comes into contact with the temples or the nose of the user.

また、上記実施形態では、人間の視野と視野に関連した人間に視認の程度によって、視野範囲VR2などの使用者の注視点PORに対する範囲を設定したが、これらの範囲によっては、種々変形可能である。外景SCの輝度などの明るさ、HMD100の使用者の視力、表示される画像の解像度などによって視野範囲VR2などが設定されてもよい。 Further, in the above embodiment, the range for the user's gazing point POR such as the visual field range VR2 is set according to the visual field of the human and the degree of visual recognition by the human in relation to the visual field, but various modifications are possible depending on these ranges. is there. The visual field range VR2 and the like may be set depending on the brightness such as the brightness of the outside scene SC, the visual acuity of the user of the HMD 100, the resolution of the displayed image, and the like.

上記実施形態では、カメラ61,62の撮像画像に基づいて、撮像画像に含まれる対象物までの距離が測定されたが、対象物までの距離の測定の方法や測定の有無については、種々変形可能である。また、必ずしも、対象物までの距離が測定される必要はない。 In the above-described embodiment, the distance to the target object included in the captured images is measured based on the captured images of the cameras 61 and 62. However, the method of measuring the distance to the target object and the presence/absence of the measurement are variously modified. It is possible. Also, the distance to the object does not necessarily have to be measured.

上記実施形態では、画像表示部20を装着した使用者が透過した外景SCを視認できたが、使用者が外景SCを視認できないいわゆるクローズ型のHMDであってもよい。 In the above-described embodiment, the user wearing the image display unit 20 can see the transparent outside scene SC, but a so-called closed HMD in which the user cannot see the outside scene SC may be used.

また、上記実施形態では、外景SCを撮像する撮像部として、第1カメラ61と第2カメラ62とによって構成されるステレオカメラが用いられたが、1つのカメラが用いられてもよいし、3つ以上のカメラが用いられてもよい。また、カメラの配置される位置は、必ずしも画像表示部20に含まれる必要はなく、カメラは、画像表示部20と別体で構成されてもよい。 Further, in the above-described embodiment, the stereo camera including the first camera 61 and the second camera 62 is used as the image capturing unit that captures the outside scene SC, but one camera may be used or 3 More than one camera may be used. Further, the position where the camera is arranged does not necessarily have to be included in the image display unit 20, and the camera may be configured separately from the image display unit 20.

また、使用者の視覚特性には個人差があるため、操作部135が所定の操作を受け付けることで、視野範囲と画像表示部20に表示される画像との対応関係が変更されてもよい。 In addition, since the visual characteristics of the user vary from person to person, the correspondence between the visual field range and the image displayed on the image display unit 20 may be changed by the operation unit 135 receiving a predetermined operation.

上記実施形態では、三次元画像として使用者に認識させるために、両眼視差を形成する方法を用いたが、三次元画像として使用者に認識させる方法については、種々変形可能である。例えば、三次元画像として使用者に認識させる方法として、輻輳運動させる画像が画像表示部20に表示されたり、陰影が画像に付与したり、画像の大きさの変更させることで奥行き感が表されてもよい。また、二次元画像についても、例えば、距離情報を含まない無限遠として画像表示部20に表示される画像であってもよく、種々変形可能である。 In the above embodiment, the method of forming binocular parallax is used in order to make the user recognize as a three-dimensional image, but the method of making the user recognize as a three-dimensional image can be variously modified. For example, as a method for allowing the user to recognize the image as a three-dimensional image, an image in which vergence movement is performed is displayed on the image display unit 20, a shadow is added to the image, or the size of the image is changed to express a sense of depth. May be. Also, the two-dimensional image may be an image displayed on the image display unit 20 as infinity that does not include distance information, and can be variously modified.

図18に示すように、視野範囲VR5では、RGBの色情報を含まない対応画像IM5が画像表示最大領域PNに表示されたが、色情報を含まない例としては、これに限られず、種々変形可能である。例えば、赤(RED)などの単色に対して、濃淡が付与された画像が画像表示最大領域PNに表示されてもよい。色情報を減らした画像としては、単に、特定の色のグレースケールなどによって表示された画像であってもよい。 As shown in FIG. 18, in the visual field range VR5, the corresponding image IM5 that does not include the RGB color information is displayed in the image display maximum area PN, but the example in which the color information is not included is not limited to this, and various modifications are possible. It is possible. For example, an image in which light and shade is given to a single color such as red (RED) may be displayed in the image display maximum area PN. The image with reduced color information may simply be an image displayed in gray scale of a specific color.

上記実施形態では、図11に示すように、簡略化した画像として丸の画像である対応画像IM2が画像表示最大領域PNに表示されたが、簡略化した画像については、種々変形可能である。例えば、丸以外の三角や四角の画像であってもよいし、画像データに対応付けられた当該画像データを連想しやすい何らかのシンボルマークの形状であってもよい。簡略化した画像とは、画像データに基づいて表示される画像(例えば、対応画像IM1)と比較して、複雑ではなく、そこに簡略化した画像が存在することを使用者に認識させる程度の画像であればよい。 In the above embodiment, as shown in FIG. 11, the corresponding image IM2, which is a circular image, is displayed in the image display maximum area PN as a simplified image, but the simplified image can be variously modified. For example, it may be an image of a triangle or a square other than a circle, or may be a shape of some symbol mark associated with the image data, which makes it easy to associate the image data. The simplified image is not complicated as compared with the image displayed based on the image data (for example, the corresponding image IM1), and has a degree of causing the user to recognize that the simplified image exists therein. Any image will do.

上記実施形態では、使用者の視線方向と使用者の視野範囲との関係に基づいて、画像表示最大領域PNに表示される画像の態様が変化したが、態様ではなく、画像が表示される位置が変化してもよい。例えば、視野範囲VR2に含まれる場合には、画像表示最大領域PNの全体に画像が表示され、視野範囲VR5よりも外側の範囲である場合には、画像表示最大領域PNの一部に簡略化された画像が表示されてもよい。 In the above-described embodiment, the aspect of the image displayed in the image display maximum area PN is changed based on the relationship between the visual line direction of the user and the visual field range of the user. May change. For example, when included in the visual field range VR2, the image is displayed in the entire image display maximum area PN, and when it is outside the visual field range VR5, it is simplified to a part of the image display maximum area PN. The displayed image may be displayed.

E−4.変形例4:
上記第4実施形態では、移動物体CA2が検出対象として予め設定されていたが、検出対象として予め設定さていない対象が、上述した速度以上で使用者に近づくと判断された場合に、新たに検出対象として設定されてもよい。また、図16の対応画像IM12は、注視点POR付近の視野範囲VR2に含まれる場合には、対応画像IM11と同じフォントで画像表示最大領域PNに表示されてもよい。これは、画像表示最大領域PNにおける注視点PORの近くに、使用者へと注意を促す対応画像IM12が表示される場合には、使用者が対応画像IM12を注視していると判定されるからである。また、他の実施形態として、無線通信部132cが他のサーバーから対応画像の基となる画像データを取得するのではなく、HMD100cがデータベースとしてこれらの画像データを記憶した記憶部を有していてもよい。また、HMD100cの画像設定部165cが、インターフェイス180を介して接続されたデータベースから画像データ等を取得してもよい。
E-4. Modification 4:
In the fourth embodiment, the moving object CA2 is preset as the detection target, but a new detection is made when an object that is not preset as the detection target is determined to approach the user at the above speed or higher. It may be set as a target. When the corresponding image IM12 in FIG. 16 is included in the visual field range VR2 near the gazing point POR, the corresponding image IM12 may be displayed in the image display maximum area PN with the same font as the corresponding image IM11. This is because it is determined that the user is gazing at the corresponding image IM12 when the corresponding image IM12 that calls attention to the user is displayed near the gazing point POR in the image display maximum area PN. Is. In addition, as another embodiment, the wireless communication unit 132c does not acquire the image data that is the basis of the corresponding image from another server, but the HMD 100c has a storage unit that stores these image data as a database. Good. Further, the image setting unit 165c of the HMD 100c may acquire image data and the like from a database connected via the interface 180.

以上説明したように、変形例のMD100cでは、画像設定部165cは、予め検出対象TWとして記憶されていない対象であっても、一定速度以上で画像表示部20cを装着している使用者に近づく場合には、当該対象を検出対象TWと判定して、予め設定された警告等の対応画像IM12を画像表示最大領域PNに表示させる。そのため、第4実施形態のHMD100cでは、使用者に危険をより適切に報知でき、使用者の利便性が向上する。 As described above, in the MD 100c of the modified example, the image setting unit 165c approaches the user wearing the image display unit 20c at a certain speed or higher, even if the target is not stored in advance as the detection target TW. In this case, the target is determined as the detection target TW, and the corresponding image IM12 such as a preset warning is displayed in the image display maximum area PN. Therefore, in the HMD 100c of the fourth embodiment, the user can be more appropriately notified of the danger, and the convenience of the user is improved.

E−5.変形例5:
この変形例では、上記第4実施形態のHMD100cの画像設定部165cと比較して、変形例の画像設定部165dが画像データに紐付けられたカテゴリーに応じて対応画像の表示位置を変更することが異なる。画像設定部165dは、カテゴリーに応じて表示する優先度の重み付けを行ない、優先度の高いカテゴリーに紐付けられた画像データに基づく表示画像を、注視点PORの近くに表示させる。なお、画像データに紐付けられたカテゴリーは、請求項における画像データの種類に相当する。
E-5. Modification 5:
In this modification, as compared with the image setting unit 165c of the HMD 100c of the fourth embodiment, the image setting unit 165d of the modification changes the display position of the corresponding image according to the category associated with the image data. Is different. The image setting unit 165d weights the priorities to be displayed according to the category, and displays the display image based on the image data associated with the category with the high priority near the gazing point POR. The category associated with the image data corresponds to the type of image data in the claims.

図20は、変形例における使用者の視野VRにおける対応画像IM13,IM14の表示位置の説明図である。図20に示すように、画像表示部20dを頭部に装着した使用者は、外景SCとしての商店街と、対応画像IM14と、対応画像IM15と、を視認している。使用者の注視点PORは、商店街にあるお店「〇〇薬局」の看板を見ている。図20に示す例では、カメラ61,62は、検出対象TWd1としての「〇〇薬局」の看板と、検出対象TWd2としての自動車と、を撮像している。対応画像IM13は、検出対象TWd1に対応付けられて、画像表示最大領域PNに表示される画像である。対応画像IM13は、画像表示最大領域PNの中央上部に表示されている。対応画像IM13の画像データに紐付けられたカテゴリーは、「広告」である。対応画像IM14は、検出対象TWd1に対応付けられて、画像表示最大領域PNに表示される画像である。対応画像IM14は、画像表示最大領域PNの中央部に表示されている。対応画像IM14の画像データに紐付けられたカテゴリーは、「警告」である。 FIG. 20 is an explanatory diagram of display positions of the corresponding images IM13 and IM14 in the visual field VR of the user in the modification. As shown in FIG. 20, the user wearing the image display unit 20d on his/her head visually recognizes the shopping street as the outside scene SC, the corresponding image IM14, and the corresponding image IM15. The user's gaze POR is looking at the signboard of the store "XX Pharmacy" in the shopping district. In the example shown in FIG. 20, the cameras 61 and 62 image the signboard of "0000 pharmacy" as the detection target TWd1 and the automobile as the detection target TWd2. The corresponding image IM13 is an image displayed in the image display maximum area PN in association with the detection target TWd1. The corresponding image IM13 is displayed in the upper center of the image display maximum area PN. The category associated with the image data of the corresponding image IM13 is “advertisement”. The corresponding image IM14 is an image displayed in the image display maximum area PN in association with the detection target TWd1. The corresponding image IM14 is displayed in the center of the image display maximum area PN. The category associated with the image data of the corresponding image IM14 is "warning".

変形例の画像設定部165dは、使用者の視線方向EDにおいて、距離の異なる位置に複数の検出対象が重複している場合に、対応画像の画像データに紐付けられたカテゴリーに基づいて、複数の対応画像の表示領域が重複しないように、対応画像の表示位置を含む表示態様を設定する。図20では、検出対象TWd1の看板と、検出対象TWd2の自動車とは、同じ注視点POR付近で重複している。このような場合に、画像設定部165dは、カテゴリーが「警告」である対応画像IM14を、カテゴリーが「広告」である対応画像IM13よりも目立つように、画像表示最大領域PNの中央部に表示させる。また、画像設定部165dは、対応画像IM14を、対応画像IM13よりも大きく表示させる。 The image setting unit 165d of the modified example, based on the category linked to the image data of the corresponding image, when a plurality of detection targets overlap at positions with different distances in the line-of-sight direction ED of the user, The display mode including the display position of the corresponding image is set so that the display areas of the corresponding images of No. In FIG. 20, the signboard of the detection target TWd1 and the automobile of the detection target TWd2 overlap in the vicinity of the same gazing point POR. In such a case, the image setting unit 165d displays the corresponding image IM14 whose category is "warning" in the central portion of the image display maximum area PN so that it is more visible than the corresponding image IM13 whose category is "advertisement". Let Further, the image setting unit 165d displays the corresponding image IM14 larger than the corresponding image IM13.

以上説明したように、変形例のHMD100dでは、画像設定部165dが対応画像の画像データに紐付けられたカテゴリーに応じて、検出対象に対応付けられた対応画像の画像表示最大領域PNにおける表示態様を設定する。そのため、変形例のHMD100dでは、より使用者に視認させたい画像を優先的に画像表示最大領域PNに表示させ、使用者の使い勝手を向上させる。 As described above, in the modified HMD 100d, the image setting unit 165d displays the corresponding image associated with the detection target in the image display maximum area PN in accordance with the category associated with the image data of the corresponding image. To set. Therefore, in the HMD 100d of the modified example, the image that the user wants to see more is preferentially displayed in the image display maximum area PN, and the usability for the user is improved.

E−6.変形例6:
上記実施形態では、制御部10に操作部135が形成されたが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、カメラ61,62が画像表示部20に配置されたが、カメラ61が画像表示部20とは別体に構成され、外景SCを撮像できてもよい。また、制御部10の構成するCPU140や電源130が画像表示部20に全て搭載されたHMD100であってもよい。このHMD100では、画像表示部20と別体で構成されるコントローラーがないため、より小型化できる。また、制御部10と画像表示部20とのそれぞれに、CPU140が搭載されることで、制御部10がコントローラー単体として使用され、画像表示部20が表示装置単体として使用されてもよい。
E-6. Modification 6:
In the above embodiment, the operation unit 135 is formed in the control unit 10, but the mode of the operation unit 135 can be variously modified. For example, there may be a mode in which there is a user interface that is the operation unit 135 separately from the control unit 10. In this case, the operation unit 135 is a separate body from the control unit 10 in which the power source 130 and the like are formed, so that the operation unit 135 can be downsized and the operability for the user is improved. Further, although the cameras 61 and 62 are arranged in the image display unit 20, the camera 61 may be configured separately from the image display unit 20 and can capture the outside scene SC. Further, the HMD 100 in which the CPU 140 and the power source 130 included in the control unit 10 are all mounted on the image display unit 20 may be used. Since the HMD 100 does not have a controller that is separate from the image display unit 20, the HMD 100 can be further downsized. Further, the CPU 140 may be installed in each of the control unit 10 and the image display unit 20, so that the control unit 10 may be used as a single controller and the image display unit 20 may be used as a single display device.

例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のHMD100に対して本発明を適用することも可能である。また、画像表示最大領域PNは、各画素に形成されたMEMSシャッターを開閉するMEMSシャッター方式のディスプレイによって構成されてもよい。 For example, the image light generation unit may be configured to include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation section may use an LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type HMD 100. Further, the image display maximum area PN may be configured by a MEMS shutter type display that opens and closes the MEMS shutter formed in each pixel.

また、画像光生成部として、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用したHMD100であってもよい。具体的な構成としては、HMD100は、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材と、を光射出部として備えてもよい。HMD100がこの構成を備えると、信号光形成部によって射出された光は、MEMSミラーによって反射され、光学部材に入射し、光学部材に導かれて、虚像形成面(例えば、反射面)に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、形成された虚像を使用者が視認することで、使用者に画像が認識される。 Further, the HMD 100 may be a HMD 100 that employs a scanning optical system using a MEMS mirror as the image light generation unit and uses the MEMS display technology. As a specific configuration, in the HMD 100, a virtual image is formed by a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted by the signal light forming unit, and light scanned by the scanning optical system. An optical member may be provided as the light emitting unit. When the HMD 100 has this configuration, the light emitted by the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided to the optical member, and reaches the virtual image forming surface (for example, a reflecting surface). When the MEMS mirror scans light, a virtual image is formed on the virtual image forming surface, and the user visually recognizes the formed virtual image, whereby the user recognizes the image.

また、例えば、HMD100は、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、HMD100は、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。また、HMD100の代わりに、使用者の頭部に装着されるのではなく、双眼鏡のように使用者が手で位置を固定するハンドヘルドディスプレイが画像表示装置として用いられてもよい。また、HMD100は、両眼タイプの光学透過型であるとしているが、本発明は、例えば、ビデオ透過型といった他の形式の頭部装着型表示装置にも同様に適用可能である。 Further, for example, the HMD 100 may be a head mounted display in which the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit does not completely cover the user's eye. Further, the HMD 100 may be a so-called monocular type head mounted display. Further, instead of the HMD 100, a handheld display, which is not mounted on the head of the user and whose position is fixed manually by the user like binoculars, may be used as the image display device. Further, the HMD 100 is described as a binocular optical transmission type, but the present invention can be similarly applied to other types of head-mounted display devices such as a video transmission type.

また、HMD100は、他の装置から受信した画像信号に基づく画像を表示するためだけの表示装置と用いられてもよい。具体的には、デスクトップ型のPCのモニターに相当する表示装置として用いられ、例えば、デスクトップ型のPCから画像信号を受信することで、画像表示部20の画像表示最大領域PNに画像が表示されてもよい。 Further, the HMD 100 may be used as a display device only for displaying an image based on an image signal received from another device. Specifically, it is used as a display device corresponding to a monitor of a desktop PC, and an image is displayed in the maximum image display area PN of the image display unit 20 by receiving an image signal from the desktop PC, for example. May be.

また、HMD100は、システムの一部として機能するように用いられてもよい。例えば、航空機を含むシステムの一部の機能を実行するための装置としてHMD100が用いられてもよいし、HMD100が用いられるシステムとしては、航空機を含むシステムに限られず、自動車や自転車など含むシステムであってもよい。 The HMD 100 may also be used to function as a part of the system. For example, the HMD 100 may be used as a device for executing a part of the functions of a system including an aircraft, and the system in which the HMD 100 is used is not limited to a system including an aircraft, and a system including an automobile, a bicycle, or the like. It may be.

また、イヤホンは耳掛け型やヘッドバンド型が採用されてもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載される頭部装着型表示装置として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。 The earphone may be of an ear-hook type or a headband type, and may be omitted. Further, for example, it may be configured as a head-mounted display device mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display device built in a body protector such as a helmet.

E−7.変形例7:
上記実施形態におけるHMD100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16を省略したり、方向キー16やトラックパッド14に加えて、操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
E-7. Modification 7:
The configuration of the HMD 100 in the above embodiment is merely an example, and can be variously modified. For example, the direction key 16 provided in the control unit 10 may be omitted, or in addition to the direction key 16 and the track pad 14, another operation interface such as an operation stick may be provided. Further, the control unit 10 may have a configuration capable of connecting an input device such as a keyboard and a mouse, and may accept an input from the keyboard and the mouse.

また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34は、適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。 Further, as the image display unit, instead of the image display unit 20 worn like glasses, an image display unit of another system such as an image display unit worn like a hat may be adopted. Moreover, the earphones 32 and 34 can be appropriately omitted. Further, in the above-described embodiment, the LCD and the light source are used as the configuration for generating the image light, but instead of these, another display element such as an organic EL display may be adopted.

図21は、変形例におけるHMDの外観構成を示す説明図である。図21(A)の例の場合、図1に示したHMD100との違いは、画像表示部20xが、右光学像表示部26に代えて右光学像表示部26xを備える点と、左光学像表示部28に代えて左光学像表示部28xを備える点とである。右光学像表示部26xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の左眼の斜め上に配置されている。図21(B)の例の場合、図1に示したHMD100との違いは、画像表示部20yが、右光学像表示部26に代えて右光学像表示部26yを備える点と、左光学像表示部28に代えて左光学像表示部28yを備える点とである。右光学像表示部26yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMD100として実現できる。 FIG. 21 is an explanatory diagram showing the external configuration of the HMD in the modification. In the case of the example of FIG. 21A, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and a left optical image. That is, a left optical image display unit 28x is provided instead of the display unit 28. The right optical image display unit 26x is formed smaller than the optical member of the above-described embodiment, and is arranged diagonally above the right eye of the user when the HMD 100x is worn. Similarly, the left optical image display unit 28x is formed smaller than the optical member of the above embodiment, and is arranged diagonally above the left eye of the user when the HMD 100x is worn. In the case of the example of FIG. 21B, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and a left optical image. In other words, a left optical image display unit 28y is provided instead of the display unit 28. The right optical image display unit 26y is formed smaller than the optical member of the above embodiment, and is arranged diagonally below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28y is formed smaller than the optical member of the above-described embodiment, and is arranged diagonally below the left eye of the user when the head mounted display is mounted. As described above, it is sufficient if the optical image display unit is arranged near the eyes of the user. Further, the size of the optical member forming the optical image display unit is also arbitrary, the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit completely covers the user's eyes. It can be realized as the HMD 100 in an uncovered form.

また、上記実施形態において、HMD100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。 Further, in the above embodiment, the HMD 100 may guide image light representing the same image to the left and right eyes of the user to allow the user to visually recognize a two-dimensional image, or the HMD 100 may display different images for the left and right eyes of the user. The image light may be guided so that the user can visually recognize the three-dimensional image.

また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。 Further, in the above embodiment, part of the configuration realized by hardware may be replaced with software, and conversely, part of the configuration realized by software may be replaced with hardware. Good. For example, in the above embodiment, the image processing unit 160 and the audio processing unit 170 are realized by the CPU 140 reading and executing a computer program, but these functional units may be realized by hardware circuits. Good.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。 When some or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the "computer-readable recording medium" is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but various internal RAMs, ROMs, etc. in a computer, a hard disk, etc. It also includes an external storage device fixed to the computer.

また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。 Further, in the above-described embodiment, as shown in FIGS. 1 and 2, the control unit 10 and the image display unit 20 are formed as separate configurations. However, regarding the configuration of the control unit 10 and the image display unit 20, However, the present invention is not limited to this, and various modifications are possible. For example, all or some of the components formed in the control unit 10 may be formed inside the image display unit 20. In addition, the power supply 130 in the above-described embodiment may be formed independently and replaceable, or the configuration formed in the control unit 10 may be duplicated in the image display unit 20. For example, the CPU 140 shown in FIG. 2 may be formed in both the control unit 10 and the image display unit 20, or the functions performed by the CPU 140 formed in the control unit 10 and the CPU formed in the image display unit 20. May be separately configured.

本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present invention is not limited to the above-described embodiments and modified examples, and can be realized with various configurations without departing from the spirit of the invention. For example, the technical features in the embodiments and modified examples corresponding to the technical features in each mode described in the section of the summary of the invention are provided in order to solve some or all of the above-mentioned problems, or In order to achieve some or all of the effects, it is possible to appropriately replace or combine them. If the technical features are not described as essential in this specification, they can be deleted as appropriate.

10…制御部,11…決定キー,12…点灯部,13…表示切替キー,14…トラックパッド,15…輝度切替キー,16…方向キー,17…メニューキー,18…電源スイッチ,20…画像表示部(画像表示部),21…右保持部,22…右表示駆動部,23…左保持部,24…左表示駆動部,26…右光学像表示部,28…左光学像表示部,30…イヤホンプラグ,32…右イヤホン,34…左イヤホン,37…右眼撮像カメラ(眼撮像部、視線方向特定部),38…左眼撮像カメラ(眼撮像部、視線方向特定部),40…接続部,42…右コード,44…左コード,46…連結部材,48…本体コード,51,52…送信部,53,54…受信部,61…第1カメラ(外景撮像部),62…第2カメラ(外景撮像部),100…HMD(頭部装着型表示装置),120…記憶部,130…電源,132…無線通信部,135…操作部,140…CPU,150…オペレーティングシステム,160…画像処理部,165…画像設定部(画像変更部),166…方向特定部(視線方向特定部),168…距離測定部,170…音声処理部,180…インターフェイス,190…表示制御部,201…右BL制御部,202…左BL制御部,211…右LCD制御部,212…左LCD制御部,221…右バックライト,222…左バックライト,241…右LCD,242…左LCD,251…右投写光学系,252…左投写光学系,261…右導光板,262…左導光板,AP…先端部,BD1,BD2,BD3,BD4…建物,ED…使用者の視線方向,EL…左光学像表示部の端部,ER…右光学像表示の端部,HSync…水平同期信号,VSync…垂直同期信号,PCLK…クロック信号,IL…照明光,IM1,IM2,IM3,IM4,IM5,IM6,IM7,IM8,IM9,IM10,IM11,IM12,IM13,IM14…対応画像,LE…左眼,RE…右眼,MN…月,MP…左右眼球中心,OA…外部機器,OB…被写体,PL…画像光,PN…画像表示最大領域(表示領域),POR…注視点,SC…外景,TW,TWa,TWb,TWd1,TWd2…検出対象(特定対象物),US…使用者,VR…視野,VR1,VR2,VR3,VR4,VR5,VR6,VR2S…視野範囲,VRh…鉛直視野,VRw…水平視野,OJ1,OJ2…視認対象,RH…右手,LH…左手,HD…ハンドル,CA1,CA2…移動物体,EN…入口 10... Control part, 11... Enter key, 12... Illuminating part, 13... Display switching key, 14... Track pad, 15... Luminance switching key, 16... Direction key, 17... Menu key, 18... Power switch, 20... Image Display unit (image display unit), 21... right holding unit, 22... right display driving unit, 23... left holding unit, 24... left display driving unit, 26... right optical image display unit, 28... left optical image display unit, 30... Earphone plug, 32... Right earphone, 34... Left earphone, 37... Right eye imaging camera (eye imaging unit, line-of-sight direction specifying unit), 38... Left-eye imaging camera (eye imaging unit, line-of-sight direction specifying unit), 40 ... connection section, 42... right code, 44... left code, 46... connecting member, 48... body code, 51, 52... transmission section, 53, 54... reception section, 61... first camera (outside view imaging section), 62 ...Second camera (outside view image pickup section), 100...HMD (head mounted display device), 120...storage section, 130...power supply, 132...wireless communication section, 135...operation section, 140...CPU, 150...operating system , 160... Image processing unit, 165... Image setting unit (image changing unit), 166... Direction specifying unit (line-of-sight direction specifying unit), 168... Distance measuring unit, 170... Voice processing unit, 180... Interface, 190... Display control Section, 201... right BL control section, 202... left BL control section, 211... right LCD control section, 212... left LCD control section, 221... right backlight, 222... left backlight, 241... right LCD, 242... left LCD, 251... Right projection optical system, 252... Left projection optical system, 261... Right light guide plate, 262... Left light guide plate, AP... Tip part, BD1, BD2, BD3, BD4... Building, ED... User's line-of-sight direction , EL... Edge of left optical image display section, ER... Edge of right optical image display, HSync... Horizontal sync signal, VSync... Vertical sync signal, PCLK... Clock signal, IL... Illumination light, IM1, IM2, IM3 IM4, IM5, IM6, IM7, IM8, IM9, IM10, IM11, IM12, IM13, IM14... Corresponding image, LE... Left eye, RE... Right eye, MN... Month, MP... Left/right eyeball center, OA... External device, OB... object, PL... image light, PN... image display maximum area (display area), POR... gazing point, SC... outside scene, TW, TWa, TWb, TWd1, TWd2... detection target (specific object), US... use Person, VR... visual field, VR1, VR2, VR3, VR4, VR5, VR6, VR2S... visual field range, VRh... vertical visual field, VRw... horizontal visual field, OJ1, OJ2... visual target, RH... right hand, LH... left hand, HD... Handle, CA1, CA2... Moving object, EN... Entrance

Claims (17)

頭部装着型表示装置であって、
画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示部と、
使用者の視線方向を特定する視線方向特定部と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、
前記外景を撮像する外景撮像部と、
特定対象物に対応付けられた前記表示画像の元である画像データを、前記画像データの種類ごとに識別して取得する画像データ取得部と、を備え
前記画像変更部は、前記外景撮像部が特定対象物を撮像した場合に、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記画像データ取得部が取得した前記画像データの種類と、前記表示領域に対する撮像された前記特定対象物の位置と、に基づいて、前記特定対象物に対応付けられた前記表示画像の態様を決定する、頭部装着型表示装置。
A head-mounted display device,
An image display unit capable of displaying an image in the display area and transmitting an outside scene ,
A line-of-sight direction specifying unit that specifies the line-of-sight direction of the user,
An image changing unit that changes the display image displayed in the display area according to the identified line-of-sight direction,
An outside scene image capturing section for capturing the outside scene,
Image data that is the source of the display image associated with a specific object, an image data acquisition unit that identifies and acquires for each type of the image data ,
The image changing unit detects a specific object from the imaged image of the outside scene when the outside scene image capturing unit picks up an image of the specific object, and displays the specific object in association with the detected position of the specific object. Based on the type of the image data acquired by the image data acquisition unit and the position of the imaged specific object with respect to the display area, the position of the image is set, and the image is associated with the specific object. A head-mounted display device for determining a mode of the display image .
請求項1に記載の頭部装着型表示装置であって、さらに、
外景において移動している移動物体を特定する移動物体特定部を備え、
前記画像変更部は、前記移動物体が前記画像表示部に近づく速度に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する、頭部装着型表示装置。
The head-mounted display device according to claim 1 , further comprising:
A moving object specifying unit that specifies a moving object that is moving in the outside scene,
The head-mounted display device, wherein the image changing unit sets a display mode of the display image associated with the specific object based on a speed at which the moving object approaches the image display unit.
頭部装着型表示装置であって、
画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示部と、
使用者の視線方向を特定する視線方向特定部と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、
前記外景を撮像する外景撮像部と、
前記外景において移動している移動物体を特定する移動物体特定部と、を備え、
前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記移動物体が前記画像表示部に近づく速度に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する、頭部装着型表示装置。
A head-mounted display device,
An image display unit capable of displaying an image in the display area and transmitting an outside scene ,
A line-of-sight direction specifying unit that specifies the line-of-sight direction of the user,
An image changing unit that changes the display image displayed in the display area according to the identified line-of-sight direction,
An outside scene image capturing section for capturing the outside scene,
A moving object specifying unit that specifies a moving object that is moving in the outside scene ,
The image changing unit detects a specific object from the captured image of the outside scene, sets the position of the display image in association with the position of the detected specific object, and the moving object displays the image. A head-mounted display device , wherein a display mode of the display image associated with the specific object is set based on the speed of approaching the part .
請求項2または請求項3に記載の頭部装着型表示装置であって、
前記画像変更部は、前記視線方向を中心とする所定の領域以外の前記移動物体が予め設定された速度以上で前記画像表示部に近づく場合には、前記移動物体が予め前記特定対象物として設定されていなくても前記特定対象物と判定し、判定された前記特定対象物に予め設定された前記表示画像を設定する、頭部装着型表示装置。
The head-mounted display device according to claim 2 or 3 ,
When the moving object other than a predetermined area centered on the line-of-sight direction approaches the image display unit at a preset speed or higher, the image changing unit sets the moving object as the specific target object in advance. A head-mounted display device, which is determined to be the specific object even if not, and sets the display image set in advance to the determined specific object.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記視線方向特定部は、さらに、使用者が視認している視認対象まで距離を特定し、
前記画像変更部は、前記視認対象と、前記視認対象以外の範囲であると共に前記視認対象に対して移動している移動背景に基づく運動特性と、に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4 ,
The line-of-sight direction specifying unit further specifies the distance to the visual target visually recognized by the user,
The image changing unit is associated with the specific target object based on the visual target and a motion characteristic based on a moving background that is in a range other than the visual target and that is moving with respect to the visual target. A head-mounted display device for setting a display mode of the display image.
頭部装着型表示装置であって、
画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示部と、
使用者の視線方向を特定する視線方向特定部と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、
前記外景を撮像する外景撮像部と、を備え、
前記視線方向特定部は、さらに、使用者が視認している視認対象までの距離を特定し、
前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記視認対象と、前記視認対象以外の範囲であると共に前記視認対象に対して移動している移動背景に基づく運動特性と、に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する、頭部装着型表示装置。
A head-mounted display device,
An image display unit capable of displaying an image in the display area and transmitting an outside scene ,
A line-of-sight direction specifying unit that specifies the line-of-sight direction of the user,
An image changing unit that changes the display image displayed in the display area according to the identified line-of-sight direction,
An outside scene image capturing section for capturing the outside scene ,
The line-of-sight direction specifying unit further specifies the distance to the visual recognition target visually recognized by the user,
The image changing unit detects a specific target object from the captured image of the outside scene, sets the position of the display image in association with the detected position of the specific target object, and the visual recognition target and the visual recognition target. A display mode of the display image associated with the specific target object is set based on a motion characteristic based on a moving background that is moving with respect to the visual target in a range other than the target, the head. Wearable display device.
請求項5または請求項6に記載の頭部装着型表示装置であって、
前記画像変更部は、前記特定対象物が前記移動背景である場合には、前記特定対象物が前記視認対象に対して移動していない場合と比較して、前記特定対象物に対応付けられた前記表示画像の表示態様を簡便な態様に設定する、頭部装着型表示装置。
The head-mounted display device according to claim 5 or 6 , wherein
When the specific object is the moving background, the image changing unit is associated with the specific object as compared with the case where the specific object is not moving with respect to the visual target. A head-mounted display device for setting the display mode of the display image to a simple mode.
請求項1から請求項7までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、特定された前記視線方向に応じて変化する使用者の視覚特性に対応させて前記表示画像を変更する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 7 ,
The head-mounted display device, wherein the image changing unit changes the display image in accordance with the visual characteristic of the user that changes according to the specified line-of-sight direction.
請求項8に記載の頭部装着型表示装置であって、
前記視覚特性は、サッカードに関連する特性であり、
前記画像変更部は、使用者の視野範囲として、サッカードによる視角も加えた範囲を設定する、頭部装着型表示装置。
The head-mounted display device according to claim 8 ,
The visual characteristic is a characteristic related to saccade,
The head-mounted display device, wherein the image changing unit sets a range including a viewing angle of a saccade as a visual field range of the user.
請求項1から請求項9までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、前記表示領域の一部に前記表示画像を表示する場合に、前記表示画像の位置と前記視線方向とに応じて、前記表示画像を変更する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 9 ,
The head-mounted display device, wherein the image changing unit changes the display image in accordance with the position of the display image and the line-of-sight direction when the display image is displayed in a part of the display area.
請求項1から請求項10までのいずれか一項に記載の頭部装着型表示装置であって、
前記視線方向特定部は、前記画像表示部の向きを検出する表示部方向検出部を有し、検出された前記画像表示部の向きに基づいて前記視線方向を特定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 10 ,
The line-of-sight direction specifying unit has a display unit direction detection unit that detects the direction of the image display unit, and specifies the line-of-sight direction based on the detected direction of the image display unit, head-mounted display device ..
請求項1から請求項11までのいずれか一項に記載の頭部装着型表示装置であって、
前記視線方向特定部は、使用者の眼を撮像する眼撮像部を有し、撮像された使用者の眼の画像に基づいて、前記視線方向を特定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 11 ,
The head-mounted display device, wherein the line-of-sight direction identifying unit includes an eye image capturing unit that captures an image of the user's eye, and identifies the line-of-sight direction based on the captured image of the user's eye.
請求項1から請求項12までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、前記表示画像が文字画像を含む場合には、特定された前記視線方向を含む第1の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させ、前記第1の視野範囲よりも大きい範囲であると共に前記第1の視野範囲を含まない第2の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させない、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 12 ,
When the display image includes a character image, the image changing unit displays the character image as the display image in the display area in the first visual field range including the specified line-of-sight direction, The head-mounted display device, wherein the character image is not displayed as the display image in the display area in a second visual field range that is larger than the visual field range and does not include the first visual field range.
請求項1から請求項13までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、特定された前記視線方向を含む第7の視野範囲よりも大きい範囲であると共に前記第7の視野範囲を含まない第8の視野範囲では、前記表示画像を前記第7の視野範囲に表示される画像よりも簡略化した簡易画像として前記表示領域に表示させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 13 ,
In the eighth visual field range which is larger than the seventh visual field range including the specified visual line direction and does not include the seventh visual field range, the image changing unit displays the display image in the seventh visual field range. A head-mounted display device, which is displayed in the display area as a simple image that is simpler than the image displayed in the visual field range.
頭部装着型表示装置のためのコンピュータープログラムであって、
画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示機能と、
使用者の視線方向を特定する視線方向特定機能と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更機能と、
前記外景を撮像する外景撮像機能と、
特定対象物に対応付けられた前記表示画像の元である画像データを、前記画像データの種類ごとに識別して取得する画像データ取得機能と、を頭部装着型表示装置に実現させ
前記画像変更機能は、前記外景撮像機能が特定対象物を撮像した場合に、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記画像データ取得機能が取得した前記画像データの種類と、前記表示領域に対する撮像された前記特定対象物の位置と、に基づいて、前記特定対象物に対応付けられた前記表示画像の態様を決定する、コンピュータープログラム。
A computer program for a head-mounted display device,
An image display function that can display an image in the display area and that can see through the outside scene ,
A line-of-sight direction specifying function that specifies the line-of-sight direction of the user,
An image changing function for changing a display image displayed in the display area according to the identified line-of-sight direction,
An outside scene image capturing function for capturing the outside scene,
The image data that is the source of the display image associated with the specific object, an image data acquisition function of identifying and acquiring for each type of the image data, and realizing the head-mounted display device ,
The image changing function detects a specific object from the captured image of the external scene when the external scene imaging function images the specific object, and displays the specific object in association with the detected position of the specific object. Based on the type of the image data acquired by the image data acquisition function and the position of the imaged specific object with respect to the display area, the position of the image is set, and the image is associated with the specific object. A computer program that determines the aspect of the displayed image .
頭部装着型表示装置のためのコンピュータープログラムであって、
画像を表示領域に表示可能であり、かつ、外景を透過可能な画像表示機能と、
使用者の視線方向を特定する視線方向特定機能と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更機能と、
前記外景を撮像する外景撮像機能と、
前記外景において移動している移動物体を特定する移動物体特定機能と、を頭部装着型表示装置に実現させ
前記画像変更機能は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記移動物体が前記表示領域に近づく速度に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する、コンピュータープログラム。
A computer program for a head-mounted display device,
An image display function that can display an image in the display area and that can see through the outside scene ,
A line-of-sight direction specifying function that specifies the line-of-sight direction of the user,
An image changing function for changing a display image displayed in the display area according to the identified line-of-sight direction,
An outside scene image capturing function for capturing the outside scene,
A moving object identification function of identifying a moving object that is moving in the outside scene, and a head-mounted display device ,
The image changing function detects a specific object from the captured image of the outside scene, sets the position of the display image in association with the detected position of the specific object, and the moving object is the display area. A computer program that sets the display mode of the display image associated with the specific object based on the speed of approaching .
頭部装着型表示装置のためのコンピュータープログラムであって、
画像を表示領域に表示可能なであり、かつ、外景を透過可能な画像表示機能と、
使用者の視線方向を特定する視線方向特定機能と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更機能と、
前記外景を撮像する外景撮像機能と、を頭部装着型表示装置に実現させ、
前記視線方向特定機能は、さらに、使用者が視認している視認対象までの距離を特定し、
前記画像変更機能は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定し、前記視認対象と、前記視認対象以外の範囲であると共に前記視認対象に対して移動している移動背景に基づく運動特性と、に基づいて、前記特定対象物に対応付けられた前記表示画像の表示態様を設定する、コンピュータープログラム。
A computer program for a head-mounted display device,
An image display function that can display an image in the display area and that can transmit the outside scene ,
A line-of-sight direction specifying function that specifies the line-of-sight direction of the user,
An image changing function for changing a display image displayed in the display area according to the identified line-of-sight direction,
The head mounted display device is realized with an outside scene image capturing function for capturing the outside scene ,
The line-of-sight direction specifying function further specifies the distance to the visual target visually recognized by the user,
The image changing function detects a specific object from the captured image of the outside scene, sets the position of the display image in association with the position of the detected specific object, and determines the visual target and the visual confirmation. A computer program that sets a display mode of the display image associated with the specific target object based on a motion characteristic based on a moving background that is moving with respect to the visual target in a range other than the target. ..
JP2015251491A 2015-03-17 2015-12-24 Head-mounted display device, head-mounted display device control method, and computer program Active JP6733174B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015251491A JP6733174B2 (en) 2015-12-24 2015-12-24 Head-mounted display device, head-mounted display device control method, and computer program
CN201610146097.6A CN105988219B (en) 2015-03-17 2016-03-15 Head-mounted display device and method for controlling head-mounted display device
CN202011123958.1A CN112130329B (en) 2015-03-17 2016-03-15 Head-mounted display device and method for controlling head-mounted display device
US15/070,469 US9977241B2 (en) 2015-03-17 2016-03-15 Head-mounted display device, control method for head-mounted display device, and computer program
US15/964,843 US10175484B2 (en) 2015-03-17 2018-04-27 Head-mounted display device, control method for head-mounted display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015251491A JP6733174B2 (en) 2015-12-24 2015-12-24 Head-mounted display device, head-mounted display device control method, and computer program

Publications (3)

Publication Number Publication Date
JP2017117175A JP2017117175A (en) 2017-06-29
JP2017117175A5 JP2017117175A5 (en) 2019-01-17
JP6733174B2 true JP6733174B2 (en) 2020-07-29

Family

ID=59232256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015251491A Active JP6733174B2 (en) 2015-03-17 2015-12-24 Head-mounted display device, head-mounted display device control method, and computer program

Country Status (1)

Country Link
JP (1) JP6733174B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023065837A (en) 2021-10-28 2023-05-15 セイコーエプソン株式会社 Head-mounted display device, and control method for head-mounted display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056335A (en) * 2002-07-18 2004-02-19 Sony Corp Information processing apparatus and method, display apparatus and method, and program
WO2005043218A1 (en) * 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha Image display device
JP6040715B2 (en) * 2012-11-06 2016-12-07 ソニー株式会社 Image display apparatus, image display method, and computer program
JP6398157B2 (en) * 2013-08-19 2018-10-03 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP6488786B2 (en) * 2015-03-17 2019-03-27 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, and computer program

Also Published As

Publication number Publication date
JP2017117175A (en) 2017-06-29

Similar Documents

Publication Publication Date Title
CN105988219B (en) Head-mounted display device and method for controlling head-mounted display device
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
CN105607255B (en) Head-mounted display device, method of controlling the same, and computer-readable storage medium
KR101845350B1 (en) Head-mounted display device, control method of head-mounted display device, and display system
US9971155B2 (en) Head mounted display device and control method for head mounted display device
JP6488786B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6369005B2 (en) Head-mounted display device and method for controlling head-mounted display device
TW201604586A (en) Display device, control method for display device, and program
JP2016208348A (en) Display device, control method for display device, and program
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2015046092A (en) Image processing device and head-mounted type display device having the same
JP6600945B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016224086A (en) Display device, control method of display device and program
JP2016024208A (en) Display device, method for controlling display device, and program
JP2016057814A (en) Head-mounted type display device, control method of head-mounted type display device, information system, and computer program
JP2016033759A (en) Display device, method for controlling display device, and program
JP6620417B2 (en) Display device, control method therefor, and computer program
JP6550734B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6733174B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2017079389A (en) Display device, display device control method, and program
JP2016090853A (en) Display device, control method of display device and program
JP6582374B2 (en) Display device, control method therefor, and computer program
JP6683218B2 (en) Head-mounted display device and control method for head-mounted display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R150 Certificate of patent or registration of utility model

Ref document number: 6733174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150