JP2016224086A - Display device, control method of display device and program - Google Patents

Display device, control method of display device and program Download PDF

Info

Publication number
JP2016224086A
JP2016224086A JP2015107046A JP2015107046A JP2016224086A JP 2016224086 A JP2016224086 A JP 2016224086A JP 2015107046 A JP2015107046 A JP 2015107046A JP 2015107046 A JP2015107046 A JP 2015107046A JP 2016224086 A JP2016224086 A JP 2016224086A
Authority
JP
Japan
Prior art keywords
display
image
unit
outside scene
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015107046A
Other languages
Japanese (ja)
Inventor
青沼 正志
Masashi Aonuma
正志 青沼
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015107046A priority Critical patent/JP2016224086A/en
Priority to US14/884,302 priority patent/US9898868B2/en
Priority to CN201510731717.8A priority patent/CN105589199B/en
Publication of JP2016224086A publication Critical patent/JP2016224086A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent a problem caused from inconsistency between a range in which display images can be seen and a range in which an outside scene can be seen on a display device when a user watches images with the display device put on and watches a scene outside of the display device.SOLUTION: A head-mount type display device 100 has an image display unit 20 which transmits an outside scene to allow a user to view images displayed together with the outside scene. The head-mount type display device 100 also includes a control unit 140 that acquires an image of outside scene which includes an outside scene viewed through the image display unit 20. Based on the acquired image of outside scene, the control unit 140 recognizes an object which can be viewed through the image display unit 20 and displays a piece of information on the object on the image display unit 20.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、使用者が頭部に装着して使用する、ヘッドマウントディスプレイ(Head Mounted Display:HMD)と呼ばれる表示装置が知られている(例えば、特許文献1参照)。この種の表示装置は、例えば特許文献1に記載されたように、現実の空間に関連した表示を行う用途に使用されるが、装着者に、表示する内容と現実の空間との位置関係の食い違いを感じさせるという課題があった。この課題に対し、特許文献1には、使用者の頭部の動きの変化を検出して表示を補正する構成が記載されている。   2. Description of the Related Art Conventionally, a display device called a head mounted display (HMD) that is used by being worn on a head by a user is known (for example, see Patent Document 1). This type of display device is used, for example, for the purpose of performing display related to the real space, as described in Patent Document 1, but the wearer has a positional relationship between the content to be displayed and the real space. There was a problem of making a discrepancy. In response to this problem, Patent Document 1 describes a configuration in which a display is corrected by detecting a change in the movement of the user's head.

特開2007−213407号公報JP 2007-213407 A

特許文献1記載の構成では、HMDを装着中は、使用者は表示画像を見るが、その外界を見ることはない。このため、特許文献1の構成では、使用者の前庭反射の運動感覚と表示の食い違いを防止する。
ところで、使用者がHMDの画像を視認する間に、HMDの外の外景を視認できる構成を考えると、HMDの表示画像と外景の見え方が異なるという課題がある。すなわち、HMDを装着する使用者にとって、表示画像を視認する範囲が、外景が見える範囲と一致することは少ない。例えば、表示画像が、外景が見える範囲に比べて小さい範囲にしか見えないという事態が起こり得る。このような構成で効果的な表示を行うための手法が望まれていた。
本発明は上記事情に鑑みてなされたものであり、使用者が表示装置を装着して、画像と、表示装置の外景を見る場合に、表示装置の表示画像が見える範囲と外景が見える範囲との不整合に起因する問題を防止することを目的とする。
In the configuration described in Patent Document 1, while the HMD is being worn, the user sees the display image but does not see the outside world. For this reason, in the structure of patent document 1, a user's vestibular reflex motor sense and the display discrepancy are prevented.
By the way, when considering a configuration in which an outside scene outside the HMD can be viewed while the user visually recognizes the HMD image, there is a problem that the display image of the HMD and the appearance of the outside scene are different. That is, for the user wearing the HMD, the range in which the display image is visually recognized is unlikely to coincide with the range in which the outside scene can be seen. For example, a situation in which the display image can be seen only in a smaller range than the range in which the outside scene can be seen may occur. A method for performing effective display with such a configuration has been desired.
The present invention has been made in view of the above circumstances, and when a user wears a display device and sees an image and an outside scene of the display device, a range where the display image of the display device can be seen and a range where the outside scene can be seen The purpose is to prevent problems caused by inconsistencies.

上記目的を達成するために、本発明の表示装置は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、前記表示部を透過して視認される外景を含む外景画像を取得する外景画像取得部と、前記外景画像取得部が取得する外景画像に基づいて、前記表示部を透過して視認される対象を認識し、前記対象に関する情報を前記表示部に表示する制御部と、を備えることを特徴とする。
本発明によれば、外景画像に基づいて表示部を透過して視認される対象を認識するので、使用者が視認する外景における対象の位置や大きさ等に対応して、対象に関する情報を表示できる。このため、使用者が視認する外景と表示画像との不整合を防ぐことができ、効果的な表示を行うことができる。
In order to achieve the above object, a display device of the present invention includes an external scene image that includes an external scene that transmits an external scene and displays an image that can be viewed together with the external scene, and an external scene that is viewed through the display section. And a control for recognizing an object viewed through the display unit and displaying information on the object on the display unit based on the outside scene image acquired by the outside scene image acquisition unit And a section.
According to the present invention, since an object viewed through the display unit is recognized based on the outside scene image, information on the object is displayed in accordance with the position and size of the object in the outside scene visually recognized by the user. it can. For this reason, inconsistency between the outside scene visually recognized by the user and the display image can be prevented, and effective display can be performed.

また、本発明は、上記表示装置において、前記制御部は、前記対象が前記表示部において前記情報が表示される範囲の外にある場合に、前記表示部により、視線を前記対象へ誘導する誘導表示を行うこと、を特徴とする。
本発明によれば、対象の位置が、情報が表示される範囲に収まるように、視線を誘導できる。
In the display device, the control unit may guide the line of sight to the target by the display unit when the target is outside a range where the information is displayed on the display unit. It is characterized by performing display.
According to the present invention, it is possible to guide the line of sight so that the position of the target falls within the range in which information is displayed.

また、本発明は、上記表示装置において、前記制御部は、前記外景画像取得部が取得する外景画像に基づいて、前記表示部を透過して視認可能な範囲の外景の画像を、前記表示部に表示すること、を特徴とする。
本発明によれば、使用者が視認する外景の画像の見え方を変化させることができる。
Further, according to the present invention, in the display device, the control unit displays an image of an outside scene in a range that is visible through the display unit based on the outside scene image acquired by the outside scene image acquiring unit. It is characterized by displaying.
ADVANTAGE OF THE INVENTION According to this invention, the appearance of the image of the outside scene visually recognized by the user can be changed.

また、本発明は、上記表示装置において、前記表示部は、使用者の頭部に装着される頭部装着型の表示部であり、前記画像を表示する第1表示部と、前記第1表示部よりも外景側において前記第1表示部よりも広い範囲で視認される画像を表示する第2表示部と、を備え、前記制御部は、前記第2表示部により、視線を前記対象へ誘導する誘導表示を行うこと、を特徴とする。
本発明によれば、頭部装着型の表示装置が2つの表示部で表示を行う場合に、使用者が視認する外景と表示画像との不整合を防ぐことができる。また、使用者に表示画像を視認させた状態で、使用者の視線を表示画像の外に誘導できる。
In the display device according to the present invention, the display unit is a head-mounted display unit mounted on a user's head, and the first display unit displays the image and the first display unit. A second display unit that displays an image that is visible in a wider range than the first display unit on the outside scene side of the unit, and the control unit guides the line of sight to the target by the second display unit It is characterized by performing guidance display.
ADVANTAGE OF THE INVENTION According to this invention, when a head-mounted display apparatus displays on two display parts, inconsistency with the external scene visually recognized by a user and a display image can be prevented. In addition, the user's line of sight can be guided out of the display image in a state where the user is viewing the display image.

また、本発明は、上記表示装置において、前記表示部は、使用者の頭部に装着される頭部装着型の表示部であり、前記使用者の視線を検出する視線検出部を備え、前記制御部は、前記視線検出部が検出する前記使用者の視線の方向に対応して前記表示部の表示を変化させること、を特徴とする。
本発明によれば、表示画像を使用者の視線に対応させることができ、より効果的に、使用者が視認する外景と表示画像との不整合を防ぐことができる。
In the display device according to the present invention, the display unit is a head-mounted display unit that is mounted on a user's head, and includes a line-of-sight detection unit that detects the line of sight of the user, The control unit changes the display of the display unit in accordance with the direction of the user's line of sight detected by the line-of-sight detection unit.
ADVANTAGE OF THE INVENTION According to this invention, a display image can be made to respond | correspond to a user's eyes | visual_axis, and inconsistency with the external scene visually recognized by a user and a display image can be prevented more effectively.

また、本発明は、上記表示装置において、前記制御部は、前記外景画像取得部が取得する外景画像の一部領域を前記表示部に表示し、前記視線検出部が検出する前記使用者の視線の方向に対応して、前記外景画像において前記表示部に表示する一部領域の位置を変化させること、を特徴とする。
本発明によれば、使用者の視線に対応させて、外景画像を表示するので、使用者が視認する外景と表示画像との不整合を防ぎ、外景画像を使用者に視認させることができる。
Further, according to the present invention, in the display device, the control unit displays a partial area of the outside scene image acquired by the outside scene image acquisition unit on the display unit, and the user's line of sight detected by the line of sight detection unit. The position of the partial area displayed on the display unit in the outside scene image is changed in accordance with the direction of.
According to the present invention, since the outside scene image is displayed in correspondence with the user's line of sight, inconsistency between the outside scene visually recognized by the user and the display image can be prevented, and the outside scene image can be visually recognized by the user.

また、本発明は、上記表示装置において、前記表示部を透過して視認される外景を含む範囲を撮像する撮像部を備え、前記外景画像取得部は、前記撮像部の撮像画像を前記外景画像として取得すること、を特徴とする。
本発明によれば、外景画像を事前に用意することなく、使用者が視認する外景に対応する外景画像を取得し、画像を表示できる。
The display device may further include an imaging unit that captures a range including an outside scene that is visible through the display unit, and the outside scene image acquisition unit converts the captured image of the imaging unit into the outside scene image. It is characterized by acquiring as.
According to the present invention, an outside scene image corresponding to the outside scene visually recognized by the user can be acquired and displayed without preparing an outside scene image in advance.

また、本発明は、上記表示装置において、前記外景画像取得部は、前記撮像部が撮像した複数の撮像画像を取得して合成することにより前記外景画像を生成すること、を特徴とする。
本発明によれば、撮像部の画角等に制限されず、好ましいサイズや画角を有する外景画像を得ることができる。
Further, the present invention is characterized in that, in the display device, the outside scene image acquisition unit generates the outside scene image by acquiring and synthesizing a plurality of captured images captured by the imaging unit.
According to the present invention, an outside scene image having a preferable size and angle of view can be obtained without being limited to the angle of view of the imaging unit.

また、本発明は、上記表示装置において、複数の前記撮像部を備え、前記外景画像取得部は、複数の前記撮像部がそれぞれ撮像した複数の撮像画像を取得して合成することにより前記外景画像を生成すること、を特徴とする。
本発明によれば、複数の撮像画像を用いて、好ましいサイズや画角を有する外景画像を得ることができる。
Further, the present invention provides the display device including a plurality of the imaging units, wherein the outside scene image acquisition unit acquires and combines the plurality of captured images captured by the plurality of imaging units, respectively. Generating.
According to the present invention, an outside scene image having a preferable size and angle of view can be obtained using a plurality of captured images.

また、本発明は、上記表示装置において、外部機器に接続する接続部を備え、前記外景画像取得部は、前記接続部に接続する前記外部機器から前記外景画像を取得すること、を特徴とする。
本発明によれば、予め外景画像を記憶したり、撮像する手段を設けたりすることなく、外景画像を取得できる。
The display device may further include a connection unit connected to an external device, and the outside scene image acquisition unit acquires the outside scene image from the external device connected to the connection unit. .
According to the present invention, an outside scene image can be acquired without storing the outside scene image in advance or providing a means for imaging.

また、本発明は、上記表示装置において、現在位置を検出する位置検出部を備え、前記外景画像取得部は、前記接続部に接続する前記外部機器から、前記位置検出部が検出する現在位置に対応する前記外景画像を取得すること、を特徴とする。
本発明によれば、表示装置の位置に対応する外景画像を取得できる。
The display device may further include a position detection unit that detects a current position, and the outside scene image acquisition unit may detect the current position detected by the position detection unit from the external device connected to the connection unit. The corresponding outside scene image is acquired.
According to the present invention, an outside scene image corresponding to the position of the display device can be acquired.

また、本発明は、上記表示装置において、前記制御部は、前記外景画像取得部が取得した前記外景画像から前記対象の画像を抽出することにより、前記対象を認識すること、を特徴とする。
本発明によれば、外景画像を用いて対象の位置を速やかに検出できる。
ここで、制御部は、外景画像から、予め設定された対象の画像を検出し、検出した画像の外景画像における位置を特定することで、対象を認識してもよい。また、制御部には、予め、認識する対象が設定されてもよく、この対象に関するデータが、予め記憶部に記憶されてもよい。ここで記憶されるデータは、対象を検出し認識するためのデータであり、例えば、対象の画像の特徴量等である。例えば、対象が物体である場合に、この物体を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量が設定データに含まれる。この場合、制御部は、外景画像の画像データから物体の画像を抽出する処理を行い、抽出した物体の画像の特徴量を算出し、算出した特徴量と、予め記憶されたデータに含まれる特徴量とを比較照合する。特徴量が近い値であり、或いは同一である場合は、外景画像から抽出した画像の物体と、対象とが一致したと判定でき、この物体を対象として認識する。また、対象について複数の特徴量のデータが記憶される場合、制御部は、複数の特徴量に基づき外景画像から対象を認識してもよい。また、制御部は、対象までの距離を検出する距離検出部を利用して、対象までの距離を検出し、検出した距離に基づき対象を認識してもよい。また、外景画像から対象を認識する方法としては、外景画像を取得して特徴量に基づく処理を行うだけでなく、表示装置を使用する人間(使用者)の指示により、外景画像に含まれる物体等から対象を選択してもよい。この場合、使用者の指示は、音声による指示であってもよいし、表示装置が備える操作部に対する指等の操作であってもよい。また、表示装置がジェスチャー操作を認識する機構を備える場合に、使用者がジェスチャー操作によって対象を指定し、指定された対象を外景から認識してもよい。
In the display device, the control unit may recognize the target by extracting the target image from the outside scene image acquired by the outside scene image acquisition unit.
According to the present invention, it is possible to quickly detect the position of an object using an outside scene image.
Here, the control unit may recognize the target by detecting a preset target image from the outside scene image and specifying the position of the detected image in the outside scene image. In addition, a target to be recognized may be set in advance in the control unit, and data regarding this target may be stored in the storage unit in advance. The data stored here is data for detecting and recognizing a target, for example, a feature amount of the target image. For example, when the target is an object, the setting data includes a feature amount indicating the color, shape, and other characteristics of the captured image when the object is captured. In this case, the control unit performs a process of extracting the object image from the image data of the outside scene image, calculates the feature amount of the extracted object image, and calculates the feature amount and the feature included in the data stored in advance. Compare with quantity. When the feature amounts are close or the same, it can be determined that the object of the image extracted from the outside scene image matches the target, and this object is recognized as the target. In addition, when data of a plurality of feature amounts is stored for the target, the control unit may recognize the target from the outside scene image based on the plurality of feature amounts. In addition, the control unit may detect the distance to the target using a distance detection unit that detects the distance to the target, and recognize the target based on the detected distance. As a method for recognizing a target from an outside scene image, not only the outside scene image is acquired and the processing based on the feature amount is performed, but also an object included in the outside scene image is instructed by a person (user) using the display device. The target may be selected from the above. In this case, the user's instruction may be an instruction by voice, or may be an operation of a finger or the like on an operation unit provided in the display device. Further, when the display device includes a mechanism for recognizing the gesture operation, the user may specify the target by the gesture operation and recognize the specified target from the outside scene.

また、上記目的を達成するために、本発明の表示装置は、使用者の頭部に装着される表示装置であって、外景を透過し、前記外景とともに視認できるように画像を表示する表示領域を有する表示部と、前記表示領域を透過して視認できる範囲の外に位置する対象を認識し、前記対象に関する情報を出力する制御部と、を備えることを特徴とする。
本発明によれば、使用者を注目させる対象が、表示領域に重なって視認できる位置にない場合であっても、この対象に関する情報を使用者に提供できる。
In order to achieve the above object, a display device according to the present invention is a display device that is worn on a user's head, and displays an image so that it can be seen through the outside scene and visible together with the outside scene. And a control unit for recognizing an object located outside the range that can be seen through the display area and outputting information related to the object.
According to the present invention, even if a target that attracts the user's attention is not in a position where it can be visually recognized by overlapping the display area, information regarding this target can be provided to the user.

また、本発明は、上記表示装置において、前記制御部は、前記対象が前記表示部を透過して視認できる範囲の外にある場合に、前記使用者を、前記対象を視認可能な状態に誘導する前記情報を出力すること、を特徴とする。
本発明によれば、使用者を注目させる対象が、表示部を透過して使用者が視認できる位置にない場合に、対象に関する情報を出力できる。このため、例えば使用者の視線を対象に向けて誘導することができる。
In the display device according to the aspect of the invention, the control unit guides the user to a state where the target can be visually recognized when the target is outside a range in which the target is visible through the display unit. Outputting the information.
ADVANTAGE OF THE INVENTION According to this invention, when the object which makes a user pay attention is not in the position which permeate | transmits a display part and a user can visually recognize, the information regarding an object can be output. Therefore, for example, the user's line of sight can be guided toward the target.

また、本発明は、上記表示装置において、前記制御部は、前記対象が前記表示部において前記表示領域の外側を透過して視認される場合に、前記使用者を、前記表示領域を透過して前記対象を視認可能な状態に誘導する前記情報を出力すること、を特徴とする。
本発明によれば、使用者を注目させる対象が、表示部を透過して使用者が視認できる位置にあり、表示領域に重なって視認される位置にない場合に、使用者の視線を誘導して、対象を視認させることができる。
In the display device according to the aspect of the invention, the control unit transmits the user through the display area when the target is visually recognized through the outside of the display area in the display unit. The information for guiding the target to a visually recognizable state is output.
According to the present invention, the user's line of sight is guided when the target to be noticed by the user is at a position that can be seen by the user through the display unit and is not visible at the position overlapping the display area. The target can be visually recognized.

本発明において、前記制御部は、前記情報を構成する文字及び/又は画像を前記表示部の表示領域に表示してもよい。また、本発明において、音を出力する音出力部を備え、前記制御部は、前記情報を構成する音を前記音出力部により出力してもよい。   In the present invention, the control unit may display characters and / or images constituting the information in a display area of the display unit. Moreover, in this invention, the sound output part which outputs a sound is provided, The said control part may output the sound which comprises the said information by the said sound output part.

また、本発明は、上記表示装置において、前記制御部は、前記対象の位置を示す位置情報を取得し、取得した前記位置情報に基づいて、前記使用者が前記表示領域を透過して視認する範囲と前記対象との相対位置を求めて前記情報を出力すること、を特徴とする。
本発明によれば、対象の位置にかかわらず、対象の位置に対応して情報を出力して、例えば使用者を対象の方向を向くように誘導できる。このため、例えば、対象の位置が、表示装置から対象を撮像し、或いは視認できる位置でなくても、情報を出力できる。
Further, according to the present invention, in the display device, the control unit acquires position information indicating the position of the target, and based on the acquired position information, the user sees through the display area and visually recognizes the position information. The relative position between the range and the object is obtained and the information is output.
According to the present invention, regardless of the position of the target, information can be output corresponding to the position of the target, and for example, the user can be guided to face the direction of the target. For this reason, for example, even if the position of the target is not a position where the target can be imaged or visually recognized from the display device, information can be output.

また、本発明は、上記表示装置において、前記制御部は、前記外景を撮像した外景画像を取得し、取得した前記外景画像に基づいて、前記使用者が前記表示領域を透過して視認する範囲と前記対象との相対位置を求めて前記情報を出力すること、を特徴とする。
本発明によれば、使用者が視認する外景における対象の位置に対応して、対象に関する情報を表示できる。このため、使用者が視認する外景と表示画像との不整合を防ぐことができ、効果的な表示を行うことができる。
Further, in the display device according to the present invention, the control unit acquires an outside scene image obtained by capturing the outside scene, and a range in which the user visually recognizes the display area based on the acquired outside scene image. And calculating the relative position of the object and outputting the information.
ADVANTAGE OF THE INVENTION According to this invention, the information regarding an object can be displayed corresponding to the position of the object in the outside scene visually recognized by the user. For this reason, inconsistency between the outside scene visually recognized by the user and the display image can be prevented, and effective display can be performed.

また、上記目的を達成するために、本発明の表示装置の制御方法は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置を制御して、前記表示部を透過して視認される外景を含む外景画像を取得し、取得した前記外景画像に基づいて、前記表示部を透過して視認される対象を認識し、前記対象に関する情報を前記表示部に表示すること、を特徴とする。
本発明によれば、外景画像に基づいて表示部を透過して視認される対象を認識するので、使用者が視認する外景における対象の位置や大きさ等に対応して、対象に関する情報を表示できる。このため、使用者が視認する外景に対応した、効果的な表示を行うことができる。
In order to achieve the above object, the display device control method according to the present invention controls a display device that includes a display unit that displays an image so that the image can be visually recognized together with the outside scene. An outside scene image including an outside scene that is visible through the screen is acquired, a target that is viewed through the display section is recognized based on the acquired outside scene image, and information related to the target is displayed on the display section. It is characterized by doing.
According to the present invention, since an object viewed through the display unit is recognized based on the outside scene image, information on the object is displayed in accordance with the position and size of the object in the outside scene visually recognized by the user. it can. For this reason, an effective display corresponding to the outside scene visually recognized by the user can be performed.

上記目的を達成するために、本発明のプログラムは、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備えた表示装置を制御するコンピューターを、前記表示部を透過して視認される外景を含む外景画像を取得する外景画像取得部と、前記外景画像取得部が取得する外景画像に基づいて、前記表示部を透過して視認される対象を認識し、前記対象に関する情報を前記表示部に表示する制御部と、して機能させる。
本発明によれば、表示装置を制御して、外景画像に基づいて表示部を透過して視認される対象を認識するので、使用者が視認する外景における対象の位置や大きさ等に対応して、対象に関する情報を表示できる。このため、使用者が視認する外景に対応した、効果的な表示を行うことができる。
In order to achieve the above object, a program of the present invention transmits a computer that controls a display device including a display unit that displays an image so that the program can be seen through the outside scene and the outside scene. An external scene image acquisition unit that acquires an external scene image including an external scene to be visually recognized, and an object that is viewed through the display unit based on the external scene image acquired by the external scene image acquisition unit, and information on the target Is made to function as a control unit for displaying on the display unit.
According to the present invention, since the display device is controlled to recognize the object that is viewed through the display unit based on the outside scene image, it corresponds to the position and size of the object in the outside scene that the user visually recognizes. Information about the subject can be displayed. For this reason, an effective display corresponding to the outside scene visually recognized by the user can be performed.

上記目的を達成するために、本発明のプログラムは、外景を透過し、前記外景とともに視認できるように画像を表示する表示領域を有する表示部を備えた表示装置を制御するコンピューターを、前記表示領域を透過して視認できる範囲の外に位置する対象を認識し、前記対象に関する情報を出力する制御部と、して機能させる。
本発明によれば、使用者を注目させる対象が、表示領域に重なって視認できる位置にない場合であっても、この対象に関する情報を使用者に提供できる。
In order to achieve the above object, a program according to the present invention provides a computer that controls a display device having a display unit that includes a display area that transmits an outside scene and displays an image so as to be visible together with the outside scene. The control unit recognizes an object located outside the range that can be visually recognized and outputs information related to the object.
According to the present invention, even if a target that attracts the user's attention is not in a position where it can be visually recognized by overlapping the display area, information regarding this target can be provided to the user.

第1実施形態の頭部装着型表示装置の外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of the head mounted display apparatus of 1st Embodiment. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部の要部構成を示す図。The figure which shows the principal part structure of an image display part. 頭部装着型表示装置を構成する各部の機能ブロック図。The functional block diagram of each part which comprises a head mounting | wearing type display apparatus. 第1実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of the head mounted display apparatus of 1st Embodiment. 外景画像取得処理の第1の態様を示すフローチャート。The flowchart which shows the 1st aspect of an outside scene image acquisition process. 外景画像取得処理の第2の態様に係る撮像処理を示すフローチャート。The flowchart which shows the imaging process which concerns on the 2nd aspect of an outside scene image acquisition process. 外景画像取得処理の第2の態様を示すフローチャート。The flowchart which shows the 2nd aspect of an outside scene image acquisition process. 外景画像取得処理の第3の態様を示すフローチャート。The flowchart which shows the 3rd aspect of an outside scene image acquisition process. 頭部装着型表示装置の表示例を示す図であり、(A)は使用者の視野を示し、(B)は外景画像の例を示し、(C)は誘導画像の表示例を示す。It is a figure which shows the example of a display of a head mounted type display apparatus, (A) shows a user's visual field, (B) shows the example of an outside scene image, (C) shows the example of a display of a guidance image. 頭部装着型表示装置の表示例を示す図であり、(A)は縮小表示の例を示し、(B)は注視方向を検出する例を示し、(C)は注視方向を拡大した表示例を示す。It is a figure which shows the example of a display of a head mounting type display apparatus, (A) shows the example of a reduction display, (B) shows the example which detects a gaze direction, (C) is the example of a display which expanded the gaze direction Indicates. 第2実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of the head mounted display apparatus of 2nd Embodiment. 頭部装着型表示装置の誘導動作の具体例を示す図であり、(A)は画像による誘導動作の例を示し、(B)は画像とテキストによる誘導動作の例を示す。It is a figure which shows the specific example of guidance operation | movement of a head mounted display apparatus, (A) shows the example of guidance operation by an image, (B) shows the example of guidance operation by an image and a text. 頭部装着型表示装置の誘導動作の具体例を示す図。The figure which shows the specific example of guidance operation | movement of a head mounting | wearing type display apparatus. 頭部装着型表示装置の誘導動作の具体例を示す図であり、(A)はマーカーを操作対象とする例を示し、(B)はマーカーに対する操作例を示し、(C)はマーカーに対する操作の別の例を示す。It is a figure which shows the specific example of guidance operation | movement of a head mounting type display apparatus, (A) shows the example which makes a marker the operation object, (B) shows the operation example with respect to a marker, (C) shows the operation with respect to a marker Another example of 第3実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of the head mounted display apparatus of 3rd Embodiment. 頭部装着型表示装置の表示例を示す図であり、(A)は使用者の視野を示し、(B)は外景画像の例を示し、(C)は外景画像の表示例を示す。It is a figure which shows the example of a display of a head-mounted display apparatus, (A) shows a user's visual field, (B) shows the example of an outside scene image, (C) shows the example of a display of an outside scene image. 第4実施形態の頭部装着型表示装置を構成する各部の機能ブロック図。The functional block diagram of each part which comprises the head mounted display apparatus of 4th Embodiment. 第4実施形態の画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of the image display part of 4th Embodiment. 頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation | movement of a head mounting | wearing type display apparatus. 頭部装着型表示装置の表示例を示す図であり、(A)は右透明LCD、左透明LCDの表示の例を示し、(B)はハーフミラーによる表示の例を示し、(C)は表示が重なった状態を示す。It is a figure which shows the example of a display of a head-mounted display apparatus, (A) shows the example of a display of right transparent LCD and left transparent LCD, (B) shows the example of a display by a half mirror, (C) is Indicates that the display overlaps.

[第1実施形態]
図1は、本発明を適用した実施形態に係る頭部装着型表示装置100(表示装置)の外観構成を示す説明図である。
頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。
[First Embodiment]
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (display device) according to an embodiment to which the present invention is applied.
The head-mounted display device 100 includes an image display unit 20 that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. The control device 10 also functions as a controller for the user to operate the head mounted display device 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、右カメラ61(撮像部)と、左カメラ62(撮像部)と、マイク63と、距離センサー64とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a right camera. 61 (imaging part), left camera 62 (imaging part), microphone 63, and distance sensor 64 are provided. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2〜図4を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 described later with reference to FIGS.
The right optical image display unit 26 and the left optical image display unit 28 include light guide plates 261 and 262 (FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate 20A is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various materials such as a material that has almost no light transmission, a material that is nearly transparent, a material that attenuates the amount of light and transmits light, and a material that attenuates or reflects light of a specific wavelength may be used. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having such a light transmittance that a user wearing the head-mounted display device 100 can visually recognize an outside scene is used. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The dimming plate 20A may be detachable from the right optical image display unit 26 and the left optical image display unit 28, or may be mounted by replacing a plurality of types of dimming plates 20A, or may be omitted. .

右カメラ61は、頭部装着型表示装置100の前面において右保持部21側の端部に配置される。また、左カメラ62は、頭部装着型表示装置100の前面において左保持部23側の端部に配置される。右カメラ61、左カメラ62は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
右カメラ61及び左カメラ62は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。右カメラ61及び左カメラ62の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む画角である。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように右カメラ61、左カメラ62の撮像範囲が設定されているとより好ましい。
右カメラ61及び左カメラ62は、制御部140が備える画像取得部161(図3)の制御に従って撮像を実行し、撮像画像データを画像取得部161に出力する。
The right camera 61 is disposed at the end on the right holding unit 21 side on the front surface of the head-mounted display device 100. The left camera 62 is disposed at the end on the left holding unit 23 side on the front surface of the head-mounted display device 100. The right camera 61 and the left camera 62 are digital cameras including an imaging element such as a CCD or a CMOS and an imaging lens, and may be a monocular camera or a stereo camera.
The right camera 61 and the left camera 62 image at least a part of the outside scene in the front side direction of the head-mounted display device 100, in other words, the user's view direction when the head-mounted display device 100 is mounted. . The width of the angle of view of the right camera 61 and the left camera 62 can be set as appropriate, but in the present embodiment, as will be described later, the user visually recognizes through the right optical image display unit 26 and the left optical image display unit 28. An angle of view including the outside world. Furthermore, it is more preferable that the imaging ranges of the right camera 61 and the left camera 62 are set so that the entire field of view of the user through the light control plate 20A can be imaged.
The right camera 61 and the left camera 62 execute imaging in accordance with the control of the image acquisition unit 161 (FIG. 3) included in the control unit 140 and output captured image data to the image acquisition unit 161.

距離センサー64は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。
距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。この場合、距離センサー64は、後述する位置検出部162の制御に従い、三角測距処理や時間差に基づく測距処理を実行する。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、後述する位置検出部162の制御に従い、超音波の反射までの時間差に基づき測距処理を実行する。なお、距離センサー64は光源や受光部、或いは音源と検出部とを備え、測距処理を位置検出部162が行ってもよい。
本実施形態の距離センサー64の測定方向は、頭部装着型表示装置100の表側方向であり、右カメラ61及び左カメラ62の撮像方向と重複する。
The distance sensor 64 is disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28. When the user wears the image display unit 20, the position of the distance sensor 64 is substantially in the middle between both eyes of the user in the horizontal direction and above the eyes of the user in the vertical direction.
The distance sensor 64 detects the distance to the measurement object located in the preset measurement direction. The distance sensor 64 includes, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. In this case, the distance sensor 64 executes a triangular distance measurement process or a distance measurement process based on a time difference in accordance with the control of the position detection unit 162 described later. The distance sensor 64 may include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor 64 performs a distance measurement process based on a time difference until the reflection of the ultrasonic wave according to control of the position detection unit 162 described later. The distance sensor 64 may include a light source, a light receiving unit, or a sound source and a detection unit, and the position detection unit 162 may perform distance measurement processing.
The measurement direction of the distance sensor 64 of the present embodiment is the front side direction of the head-mounted display device 100 and overlaps with the imaging directions of the right camera 61 and the left camera 62.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、および、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
The left display driving unit 24 includes a left backlight 222 having a light source such as an LED and a diffusion plate, a transmissive left LCD 242 arranged on an optical path of light emitted from the diffusion plate of the left backlight 222, and a left LCD 242. A left projection optical system 252 including a lens group that guides the image light L that has passed through the lens. The left LCD 242 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection optical system 252 includes a collimator lens that converts the image light L emitted from the left LCD 242 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens is incident on the left light guide plate 262. The left light guide plate 262 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. The left light guide plate 262 is formed with a half mirror 262A (reflection surface) positioned in front of the left eye LE.
The image light L reflected by the half mirror 262A is emitted from the left optical image display unit 28 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE so that the user can visually recognize the image.

右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、および、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The right display driving unit 22 is configured to be symmetrical with the left display driving unit 24. The right display driving unit 22 includes a right backlight 221 having a light source such as an LED and a diffusion plate, a transmissive right LCD 241 disposed on an optical path of light emitted from the diffusion plate of the right backlight 221, and a right LCD 241. A right projection optical system 251 including a lens group that guides the image light L that has passed through the lens. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板261に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection optical system 251 includes a collimator lens that converts the image light L emitted from the right LCD 241 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens is incident on the right light guide plate 261. The right light guide plate 261 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 261. The right light guide plate 261 is formed with a half mirror 261A (reflection surface) located in front of the right eye RE.
The image light L reflected by the half mirror 261A is emitted from the right optical image display unit 26 toward the right eye RE, and this image light L forms an image on the retina of the right eye RE to make the user visually recognize the image.

使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、頭部装着型表示装置100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。   The image light L reflected by the half mirror 261A and the external light OL transmitted through the light control plate 20A are incident on the right eye RE of the user. The image light L reflected by the half mirror 262A and the external light OL transmitted through the light control plate 20A are incident on the left eye LE. As described above, the head-mounted display device 100 causes the image light L and the external light OL of the internally processed image to overlap each other and enter the user's eyes, and for the user, seeing through the light control plate 20A. An outside scene can be seen, and an image by the image light L is visually recognized over the outside scene. Thus, the head-mounted display device 100 functions as a see-through display device.

なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “left light guide unit”, and the right projection optical system 251 and the right light guide plate 261 are collectively referred to as “right light guide unit”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

画像表示部20は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。   The image display unit 20 is connected to the control device 10 via the connection unit 40. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control device 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and is connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collecting unit of the microphone 63 faces the user's line of sight, collects sound, and sends the sound signal to the sound processing unit 187 (FIG. 4). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。   The right cord 42, the left cord 44, and the main body cord 48 only need to be capable of transmitting digital data, and can be constituted by, for example, a metal cable or an optical fiber. Further, the right cord 42 and the left cord 44 may be combined into a single cord.

画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. The end of the main body cord 48 opposite to the connecting member 46 and the control device 10 are provided with connectors (not shown) that fit together. By fitting the connector of the main body cord 48 and the connector of the control device 10 or removing this fitting, the control device 10 and the image display unit 20 can be contacted and separated.

制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。   The control device 10 controls the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is operated by a user with fingers.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 includes a light source such as an LED (Light Emitting Diode), and notifies the operating state (for example, power ON / OFF) of the head-mounted display device 100 according to the lighting state of the light source. The display switching key 13 outputs, for example, a signal instructing switching of the image display mode in response to the pressing operation.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源オン/オフを切り替えるスイッチである。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. The luminance switching key 15 outputs a signal instructing increase / decrease of the luminance of the image display unit 20 in response to the pressing operation. The direction key 16 outputs an operation signal in response to a pressing operation on a key corresponding to the up / down / left / right direction. The power switch 18 is a switch for switching power on / off of the head-mounted display device 100.

図3は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)は右カメラ61及び左カメラ62の画角の説明図である。なお、図3(A)では画像表示部20に繋がる右コード42、左コード44等の図示を省略する。   3A and 3B are diagrams showing the configuration of the main part of the image display unit 20, where FIG. 3A is a main part perspective view of the image display unit 20 viewed from the user's head side, and FIG. 3B is the right camera 61 and the left side. It is explanatory drawing of the angle of view of the camera 62. FIG. In FIG. 3A, illustration of the right cord 42 and the left cord 44 connected to the image display unit 20 is omitted.

図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右光学像表示部26及び左光学像表示部28の裏側が見えている。
この図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。また、ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体が、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
FIG. 3A shows the side of the image display unit 20 in contact with the user's head, in other words, the side visible to the user's right eye RE and left eye LE. In other words, the back sides of the right optical image display unit 26 and the left optical image display unit 28 are visible.
In FIG. 3A, the half mirror 261A that irradiates the user's right eye RE with the image light and the half mirror 262A that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right optical image display unit 26 and left optical image display unit 28 including the half mirrors 261A and 262A transmit external light as described above. For this reason, the user sees the outside scene through the entire right optical image display unit 26 and left optical image display unit 28, and visually recognizes a rectangular display image at the positions of the half mirrors 261A and 262A.

右カメラ61は、上記のように右保持部21側の端部に、画像表示部20の前方を向いて配置され、左カメラ62は、左保持部23側の端部に配置される。また、距離センサー64は、右光学像表示部26と左光学像表示部28との中央において、前方を向いて配置される。
図3(B)は、右カメラ61、左カメラ62、及び距離センサー64の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。右カメラ61の画角(撮像範囲)をCR、左カメラ62の画角(撮像範囲)をCLで示す。なお、図3(B)には水平方向の画角CR、CLを示すが、右カメラ61及び左カメラ62の実際の画角は、一般的なデジタルカメラと同様に上下方向に拡がる。
As described above, the right camera 61 is arranged at the end on the right holding unit 21 side so as to face the front of the image display unit 20, and the left camera 62 is arranged at the end on the left holding unit 23 side. Further, the distance sensor 64 is disposed facing forward in the center of the right optical image display unit 26 and the left optical image display unit 28.
FIG. 3B is a diagram schematically showing the positions of the right camera 61, the left camera 62, and the distance sensor 64 together with the right eye RE and the left eye LE of the user in plan view. The angle of view (imaging range) of the right camera 61 is indicated by CR, and the angle of view (imaging range) of the left camera 62 is indicated by CL. Note that FIG. 3B shows horizontal field angles CR and CL, but the actual field angles of the right camera 61 and the left camera 62 expand in the vertical direction as in a general digital camera.

画角CRと画角CLとは、画像表示部20の中央位置に対してほぼ左右対称であり、画角CRと画角CLは、いずれも画像表示部20の中央位置の真正面方向を含む。このため、画像表示部20の中央位置の正面で、画角CR、CLが重なる。
例えば、図3(B)に示すように、画像表示部20の正面方向に対象OBがある場合、対象OBは画角CR及び画角CLのどちらにも含まれる。このため、右カメラ61の撮像画像と、左カメラ62の撮像画像のいずれも、対象OBが写る。ここで、使用者が対象OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。
従って、注視点が対象OBである場合、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
The angle of view CR and the angle of view CL are substantially bilaterally symmetric with respect to the center position of the image display unit 20, and both the field angle CR and the angle of view CL include the frontal direction of the center position of the image display unit 20. For this reason, the angles of view CR and CL overlap in front of the central position of the image display unit 20.
For example, as shown in FIG. 3B, when there is a target OB in the front direction of the image display unit 20, the target OB is included in both the view angle CR and the view angle CL. For this reason, the target OB is captured in both the captured image of the right camera 61 and the captured image of the left camera 62. Here, when the user gazes at the target OB, the user's line of sight is directed toward the target OB as indicated by reference signs RD and LD in the figure. In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective field of view with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction.
Therefore, when the gazing point is the target OB, the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD, and 60 to 90 degrees in the horizontal direction and 45 degrees to the vertical direction. A stable visual field is about 70 degrees, and a viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction.

また、頭部装着型表示装置100を装着する使用者が画像表示部20を透過して右光学像表示部26及び左光学像表示部28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。図1及び図2に示す本実施形態の構成で、実視野は、右光学像表示部26及び左光学像表示部28を透過して使用者が視認する実際の視野に相当する。実視野は、図3(B)を参照して説明した視野角及び安定注視野より狭いが、有効視野より広い。   In addition, an actual field of view that a user wearing the head-mounted display device 100 sees through the image display unit 20 and through the right optical image display unit 26 and the left optical image display unit 28 is a real field ( This is called FOV (Field Of View). In the configuration of the present embodiment shown in FIGS. 1 and 2, the real field of view corresponds to an actual field of view that the user sees through the right optical image display unit 26 and the left optical image display unit 28. The real field of view is narrower than the viewing angle and stable focus field described with reference to FIG.

右カメラ61及び左カメラ62は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角CR、CLの全体が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角CR、CLの全体が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角CR、CLの全体が、使用者の安定注視野よりも広く、最も好ましくは、画角CR、CLの全体が使用者の視野角よりも広い。   The right camera 61 and the left camera 62 are preferably capable of imaging a wider range than the user's field of view. Specifically, the entire view angles CR and CL are at least wider than the effective field of view of the user. Is preferred. Further, it is more preferable that the entire angles of view CR and CL are wider than the actual field of view of the user. More preferably, the entire angle of view CR, CL is wider than the stable viewing field of the user, and most preferably, the entire angle of view CR, CL is wider than the viewing angle of the user.

このため、右カメラ61及び左カメラ62は、画角CRと画角CLとが、図3(B)に示すように画像表示部20の前方で重なるように配置される。また、右カメラ61及び左カメラ62を広角カメラで構成してもよい。すなわち、右カメラ61及び左カメラ62が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群を右カメラ61及び左カメラ62が備えてもよい。また、右カメラ61の画角CRと左カメラ62の画角CLとは同じ角度でなくてもよい。また、右カメラ61の撮像方向と左カメラ62の撮像方向とは、完全に平行である必要はない。右カメラ61の撮像画像と、左カメラ62の撮像画像とを重ね合わせた場合に、使用者の視野よりも広い範囲が撮像されていればよい。   For this reason, the right camera 61 and the left camera 62 are arranged such that the field angle CR and the field angle CL overlap each other in front of the image display unit 20 as illustrated in FIG. Further, the right camera 61 and the left camera 62 may be configured by wide angle cameras. That is, the right camera 61 and the left camera 62 may include a so-called wide-angle lens as an imaging lens and can capture a wide angle of view. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, or may be a single-focus lens or a zoom lens. The lens group composed of a plurality of lenses includes the right camera 61 and the left camera. 62 may be provided. Further, the angle of view CR of the right camera 61 and the angle of view CL of the left camera 62 may not be the same angle. Further, the imaging direction of the right camera 61 and the imaging direction of the left camera 62 do not have to be completely parallel. When the captured image of the right camera 61 and the captured image of the left camera 62 are superimposed, it is only necessary to capture a range wider than the visual field of the user.

図3(B)には、距離センサー64の検出方向を符号64Aで示す。本実施形態で、距離センサー64は、画像表示部20の中央位置から正面方向に位置する物体までの距離を検出可能に構成され、例えば対象OBまでの距離を検出する。頭部装着型表示装置100を装着した使用者は、注視する方向に頭を向けるため、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、使用者が注視する対象までの距離を検出できる。   In FIG. 3B, the detection direction of the distance sensor 64 is indicated by reference numeral 64A. In the present embodiment, the distance sensor 64 is configured to be able to detect the distance from the center position of the image display unit 20 to the object located in the front direction, and detects the distance to the target OB, for example. Since the user wearing the head-mounted display device 100 turns his head in the direction of gazing, it can be considered that the object to be gazed is in front of the image display unit 20. For this reason, if the distance sensor 64 arrange | positioned in the center of the image display part 20 makes the front of the image display part 20 the detection direction 64A, it can detect the distance to the object which a user gazes at.

また、図3(A)に示すように、画像表示部20の使用者側には視線センサー68が配置される。視線センサー68は、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右光学像表示部26と左光学像表示部28との中央位置に一対、設けられる。視線センサー68は、例えば、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラで構成される。視線センサー68は、制御部140(図4)の制御に従って撮像を行い、制御部140が、撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、視線方向を特定する。   Further, as shown in FIG. 3A, a line-of-sight sensor 68 is disposed on the user side of the image display unit 20. A pair of line-of-sight sensors 68 are provided at the center positions of the right optical image display unit 26 and the left optical image display unit 28 so as to correspond to the right eye RE and the left eye LE of the user. The line-of-sight sensor 68 includes, for example, a pair of cameras that respectively capture the right eye RE and the left eye LE of the user. The line-of-sight sensor 68 captures images in accordance with the control of the control unit 140 (FIG. 4), and the control unit 140 detects reflected light and pupil images on the eyeball surfaces of the right eye RE and the left eye LE from the captured image data. Identify the direction.

図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
頭部装着型表示装置100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the head-mounted display device 100.
The head-mounted display device 100 includes an interface 125 for connecting various external devices OA that are content supply sources. As the interface 125, for example, an interface corresponding to wired connection such as a USB interface, a micro USB interface, a memory card interface, or the like may be used, and the interface 125 may be configured by a wireless communication interface. The external device OA is an image supply device that supplies an image to the head-mounted display device 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
The control device 10 includes a control unit 140, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.
The input information acquisition unit 110 is connected to the operation unit 135. The operation unit 135 includes the track pad 14, the direction key 16, the power switch 18, and the like. The input information acquisition unit 110 acquires input contents based on a signal input from the operation unit 135. The control device 10 includes a power supply unit (not shown), and supplies power to each unit of the control device 10 and the image display unit 20.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20.
The storage unit 120 stores setting data 121. The setting data 121 includes various setting values used by the control unit 140. The setting value included in the setting data 121 may be a value input in advance by operating the operation unit 135, or a setting value from an external device OA or another device (not shown) via the communication unit 117 or the interface 125. May be received and stored.

制御部140には、3軸センサー113、GPS115、通信部117及び音声認識部114が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。3軸センサー113により、制御部140は、制御装置10の動きを検出することができ、例えば制御装置10を振る等の操作を検出できる。また、3軸センサー113は9軸センサーに置き換えてもよい。この場合、制御部140は、3軸の加速度センサー、3軸の角速度センサー、及び3軸の地磁気センサーの検出値を取得し、例えば、制御装置10の姿勢、向き、動きを検出できる。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
A three-axis sensor 113, a GPS 115, a communication unit 117, and a voice recognition unit 114 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 acquires the detection value of the triaxial sensor 113. With the three-axis sensor 113, the control unit 140 can detect the movement of the control device 10, and can detect an operation such as shaking the control device 10, for example. The 3-axis sensor 113 may be replaced with a 9-axis sensor. In this case, the control unit 140 can acquire detection values of the three-axis acceleration sensor, the three-axis angular velocity sensor, and the three-axis geomagnetic sensor, and can detect the attitude, orientation, and movement of the control device 10, for example.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 125, the control unit 140 acquires content data from the interface 125 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 125 function as a data acquisition unit DA that acquires content data from the external device OA.

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、画像取得部161、位置検出部162、画像選択部163、動作処理部164、表示位置制御部165、音声処理部187、及び、表示制御部190として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 reads and executes the computer program stored in the storage unit 120, and executes an operating system (OS) 150, an image processing unit 160, an image acquisition unit 161, a position detection unit 162, an image selection unit 163, and an operation processing unit 164. , Function as a display position control unit 165, a sound processing unit 187, and a display control unit 190.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the RAM of the control unit 140 for each frame as image data of the target image (Data in the figure). This image data is, for example, RGB data.
Note that the image processing unit 160 may perform a resolution conversion process for converting the resolution of the image data into a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed.

画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the RAM via the transmission units 51 and 52, respectively. The transmission units 51 and 52 function as a transceiver and execute serial transmission between the control device 10 and the image display unit 20. The image data Data transmitted via the transmission unit 51 is referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is referred to as “left eye image data”.

表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 190 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. Further, the display control unit 190 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

画像表示部20は、上記の右カメラ61、左カメラ62、及び距離センサー64を備える。また、画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、9軸センサー66と、視線センサー68とを備える。   The image display unit 20 includes the right camera 61, the left camera 62, and the distance sensor 64 described above. The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left guide as a left optical image display unit 28. An optical plate 262, a nine-axis sensor 66, and a line-of-sight sensor 68 are provided.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). When the image display unit 20 is mounted on the user's head, the control unit 140 can detect the movement of the user's head based on the detection value of the 9-axis sensor 66. For example, the control unit 140 can estimate the magnitude of the tilt and the tilt direction of the image display unit 20 based on the detection value of the 9-axis sensor 66.

インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、右カメラ61、左カメラ62、距離センサー64、9軸センサー66及び視線センサー68を接続するインターフェイスである。右カメラ61、左カメラ62の撮像データ、距離センサー64の検出結果、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果、及び、視線センサー68の検出結果は、インターフェイス25を介して制御部140に送られる。
The interface 25 includes a connector to which the right cord 42 and the left cord 44 are connected. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 190 to the corresponding receiving units 53 and 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface for connecting the right camera 61, the left camera 62, the distance sensor 64, the 9-axis sensor 66, and the line-of-sight sensor 68. Imaging data of right camera 61 and left camera 62, detection result of distance sensor 64, detection result of acceleration (three axes), angular velocity (three axes), geomagnetism (three axes) by nine-axis sensor 66, and gaze sensor 68 The detection result is sent to the control unit 140 via the interface 25.

右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。   The right display drive unit 22 includes the right backlight 221, the right LCD 241, and the right projection optical system 251 described above. The right display driving unit 22 includes a receiving unit 53, a right backlight (BL) control unit 201 that controls the right backlight (BL) 221, and a right LCD control unit 211 that drives the right LCD 241.

受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。   The reception unit 53 operates as a receiver corresponding to the transmission unit 51 and executes serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data input via the reception unit 53. .

左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes the left backlight 222, the left LCD 242 and the left projection optical system 252 described above. The left display driving unit 24 includes a receiving unit 54, a left backlight control unit 202 that drives the left backlight 222, and a left LCD control unit 212 that drives the left LCD 242.

受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The reception unit 54 operates as a receiver corresponding to the transmission unit 52 and executes serial transmission between the control device 10 and the image display unit 20. The left backlight control unit 202 drives the left backlight 222 based on the input control signal. The left LCD control unit 212 drives the left LCD 242 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data Data input via the reception unit 54. .
The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

図3(A)に示したように、頭部装着型表示装置100を装着する使用者が、ハーフミラー261A、262Aから照射される画像光を視認する範囲は、実視野より小さい。例えば、頭部装着型表示装置100が、AR(Augmented Reality)効果を奏する画像(以下、AR画像という)を表示する場合、使用者が注視する対象OBに重なるようにAR画像を表示する。この場合、対象OBにAR画像が重なって見えることで、ARの効果が得られるが、AR画像が視認される領域はハーフミラー261A、262Aの大きさの制約を受ける。このため、実視野に対象OBが含まれる場合であっても、対象OBに重なる位置にAR画像を表示することが困難なケースも考えられる。また、AR画像以外の画像を表示する場合も、頭部装着型表示装置100が画像を表示できる領域が、実視野に比べて小さいことが機能上の制約となる可能性がある。   As shown in FIG. 3A, the range in which the user wearing the head-mounted display device 100 visually recognizes the image light emitted from the half mirrors 261A and 262A is smaller than the actual visual field. For example, when the head-mounted display device 100 displays an image that exhibits an AR (Augmented Reality) effect (hereinafter referred to as an AR image), the AR image is displayed so as to overlap the target OB that the user gazes at. In this case, the AR effect can be obtained by making the AR image appear to overlap the target OB, but the area where the AR image is visually recognized is restricted by the size of the half mirrors 261A and 262A. For this reason, even if the target OB is included in the real field of view, it may be difficult to display the AR image at a position overlapping the target OB. In addition, when displaying an image other than the AR image, there is a possibility that the area in which the head-mounted display device 100 can display an image is smaller than the actual visual field, which may be a functional limitation.

そこで、頭部装着型表示装置100は、右カメラ61及び左カメラ62の撮像画像や、予め用意された画像など、使用者の実視野よりも広い範囲の外景の画像を利用して、使用者が注視する外景中の対象OBに対応するARコンテンツを表示するなど、外景に対応した表示を行う。   Therefore, the head-mounted display device 100 uses the images of the outside scene in a wider range than the actual field of view of the user, such as images captured by the right camera 61 and the left camera 62 and images prepared in advance. Display corresponding to the outside scene, such as displaying the AR content corresponding to the target OB in the outside scene that is being watched.

画像取得部161は、頭部装着型表示装置100の現在の位置に対応する外景画像を取得する。外景画像は、右カメラ61及び左カメラ62の撮像画像、または、通信部117を介して通信可能な外部装置から取得する画像が挙げられる。画像取得部161が外景画像を取得する処理については後述する。   The image acquisition unit 161 acquires an outside scene image corresponding to the current position of the head-mounted display device 100. The outside scene image may be a captured image of the right camera 61 and the left camera 62 or an image acquired from an external device that can communicate via the communication unit 117. The process in which the image acquisition unit 161 acquires an outside scene image will be described later.

位置検出部162は、制御部140が外景画像から対象物(対象)を検出(認識)する機能を実行する。この機能では、位置検出部162は、例えば画像取得部161が取得した外景画像を解析する。位置検出部162は、外景画像から対象物の画像を検出し、検出した画像の外景画像における位置を特定することで、使用者が注視する対象物の位置を検出する。この処理については後述する。また、位置検出部162は、距離センサー64を制御して検出した対象物までの距離を計測することにより、対象物の位置を検出してもよく、外景画像の処理と距離センサー64で検出した距離とを併用して対象物の位置を検出してもよい。   The position detection unit 162 performs a function for the control unit 140 to detect (recognize) an object (object) from the outside scene image. In this function, the position detection unit 162 analyzes an outside scene image acquired by the image acquisition unit 161, for example. The position detection unit 162 detects an object image from the outside scene image and specifies the position of the detected image in the outside scene image, thereby detecting the position of the object that the user gazes at. This process will be described later. Further, the position detection unit 162 may detect the position of the object by controlling the distance sensor 64 and measuring the distance to the detected object. You may detect the position of a target object using distance together.

画像選択部163は、外部機器OAからインターフェイス125に入力されるARコンテンツのうち、表示するARコンテンツを選択する。
動作処理部164は、9軸センサー66の検出値等に基づいて、画像表示部20の動きを検出し、画像表示部20の動きに対応した処理を行う。画像表示部20の動きは、頭部装着型表示装置100を装着する使用者の頭の動きと見なすことができる。また、動作処理部164は、視線センサー68を制御して、使用者の視線方向を検出する。
表示位置制御部165は、位置検出部162が検出する対象物の位置、動作処理部164が検出する画像表示部20の動き、及び/又は使用者の視線方向に対応して右表示駆動部22及び左表示駆動部24のAR画像の表示位置に係る制御を行う。
The image selection unit 163 selects the AR content to be displayed from among the AR content input from the external device OA to the interface 125.
The operation processing unit 164 detects the movement of the image display unit 20 based on the detection value of the 9-axis sensor 66 and performs processing corresponding to the movement of the image display unit 20. The movement of the image display unit 20 can be regarded as the movement of the head of the user wearing the head-mounted display device 100. The operation processing unit 164 controls the line-of-sight sensor 68 to detect the user's line-of-sight direction.
The display position control unit 165 corresponds to the position of the object detected by the position detection unit 162, the movement of the image display unit 20 detected by the motion processing unit 164, and / or the right display driving unit 22 corresponding to the user's line-of-sight direction. And the control which concerns on the display position of AR image of the left display drive part 24 is performed.

図5は、頭部装着型表示装置100の動作を示すフローチャートである。
使用者が頭部装着型表示装置100を装着し、操作部135の操作によりARコンテンツの表示が指示されると、制御部140は、表示に係る動作を開始する(ステップS11)。
制御部140は、画像取得部161により、外景画像取得処理を実行する(ステップS12)。外景画像取得処理の具体的な態様は3通りある。
FIG. 5 is a flowchart showing the operation of the head-mounted display device 100.
When the user wears the head-mounted display device 100 and the display of the AR content is instructed by the operation of the operation unit 135, the control unit 140 starts an operation related to the display (step S11).
The controller 140 causes the image acquisition unit 161 to execute an outside scene image acquisition process (step S12). There are three specific modes of outside scene image acquisition processing.

図6は、ステップS12の外景画像取得処理の第1の態様を示すフローチャートである。この第1の態様では、画像取得部161は、右カメラ61及び左カメラ62を制御して撮像を実行させ(ステップSA1)、撮像画像データを取得する(ステップSA2)。
画像取得部161は、取得した撮像画像データが複数あるか否かを判定する(ステップSA3)。本実施形態の頭部装着型表示装置100は2つの右カメラ61、左カメラ62のそれぞれが撮像画像データを出力するので、画像取得部161は複数の撮像画像データを取得し(ステップSA3;YES)、取得した撮像画像データを合成することにより外景画像データを得る(ステップSA4)。また、ステップSA2で取得した撮像画像データが1つである場合(ステップSA3;NO)、画像取得部161は、取得した撮像画像データを外景画像データとする。撮像画像データが1つである場合とは、例えば、右カメラ61と左カメラ62が撮像した範囲の1つの撮像画像データが制御部140に入力される場合や、右カメラ61または左カメラ62のいずれか一方のみを使用するよう設定された場合、1つのカメラを備えた構成である場合等が挙げられる。
FIG. 6 is a flowchart showing a first aspect of the outside scene image acquisition processing in step S12. In the first mode, the image acquisition unit 161 controls the right camera 61 and the left camera 62 to execute imaging (step SA1), and acquires captured image data (step SA2).
The image acquisition unit 161 determines whether there are a plurality of acquired captured image data (step SA3). In the head-mounted display device 100 of this embodiment, each of the two right cameras 61 and the left camera 62 outputs captured image data, so the image acquisition unit 161 acquires a plurality of captured image data (step SA3; YES) ) To obtain outside scene image data by synthesizing the acquired captured image data (step SA4). When the number of captured image data acquired in step SA2 is one (step SA3; NO), the image acquisition unit 161 uses the acquired captured image data as outside scene image data. The case where the number of captured image data is one is, for example, the case where one captured image data within the range captured by the right camera 61 and the left camera 62 is input to the control unit 140, or the case where the right camera 61 or the left camera 62 When it is set to use only one of them, there is a case where the configuration is provided with one camera.

図7及び図8は、外景画像取得処理の第2の態様を示し、図7は撮像処理を示すフローチャートであり、図8は外景画像取得処理を示すフローチャートである。
第2の態様では、頭部装着型表示装置100の動作中、画像取得部161が、一定時間毎に右カメラ61及び左カメラ62による撮像を実行する。すなわち、画像取得部161は、頭部装着型表示装置100の動作開始またはARコンテンツの表示開始をトリガーとして撮像動作を開始し(ステップSB1)、右カメラ61及び左カメラ62による撮像を実行する(ステップSB2)。
画像取得部161は右カメラ61及び左カメラ62が撮像した撮像画像データを取得する(ステップSB3)。続いて、画像取得部161は、GPS115により頭部装着型表示装置100の現在位置の座標、及び/又は9軸センサー66の検出値を取得する(ステップSB4)。例えば、画像取得部161は、GPS115の現在位置と、9軸センサー66の地磁気センサー、角速度センサー及び加速度センサーの検出値とを取得し、頭部装着型表示装置100の現在位置と姿勢を特定できる。
7 and 8 show a second aspect of the outside scene image acquisition process, FIG. 7 is a flowchart showing the imaging process, and FIG. 8 is a flowchart showing the outside scene image acquisition process.
In the second mode, during operation of the head-mounted display device 100, the image acquisition unit 161 executes imaging with the right camera 61 and the left camera 62 at regular intervals. That is, the image acquisition unit 161 starts an imaging operation triggered by the operation start of the head-mounted display device 100 or the AR content display start (step SB1), and executes imaging by the right camera 61 and the left camera 62 ( Step SB2).
The image acquisition unit 161 acquires captured image data captured by the right camera 61 and the left camera 62 (step SB3). Subsequently, the image acquisition unit 161 acquires the coordinates of the current position of the head-mounted display device 100 and / or the detection value of the 9-axis sensor 66 by the GPS 115 (step SB4). For example, the image acquisition unit 161 can acquire the current position of the GPS 115 and the detection values of the geomagnetic sensor, the angular velocity sensor, and the acceleration sensor of the nine-axis sensor 66, and can specify the current position and posture of the head-mounted display device 100. .

画像取得部161は、ステップSB3で取得した撮像画像データを、ステップSB4で取得した現在位置や検出値に対応付けて記憶部120に記憶する(ステップSB5)。
その後、画像取得部161は、撮像を終了する条件が成立しているか否かを判定し(ステップSB6)、撮像終了の条件が成立していない場合は(ステップSB6;NO)、ステップSB2に戻る。撮像終了の条件とは、操作部135の操作により撮像終了が指示された場合、頭部装着型表示装置100の動作モードが、ARコンテンツを表示する動作モードや、右カメラ61、左カメラ62の撮像を行わない動作モードに切り換えられた場合等が挙げられる。
The image acquisition unit 161 stores the captured image data acquired in step SB3 in the storage unit 120 in association with the current position and detection value acquired in step SB4 (step SB5).
Thereafter, the image acquisition unit 161 determines whether or not a condition for ending imaging is satisfied (step SB6). If the condition for ending imaging is not satisfied (step SB6; NO), the process returns to step SB2. . The condition for the end of imaging is that when the end of imaging is instructed by operating the operation unit 135, the operation mode of the head-mounted display device 100 is the operation mode for displaying AR content, the right camera 61, and the left camera 62. For example, the mode may be switched to an operation mode in which imaging is not performed.

頭部装着型表示装置100は、例えば、右カメラ61及び左カメラ62が撮像を実行可能な状態で、ステップSB2〜SB6の動作を、所定時間ごとに繰り返し実行してもよい。この場合、頭部装着型表示装置100がAR表示を行うか否かにかかわらず、記憶部120には、頭部装着型表示装置100の現在位置やセンサーの検出値に対応付けて、撮像画像データが記憶される。なお、記憶部120の記憶容量の制限がある場合、画像取得部161は、通信部117を介して接続される外部装置に、撮像画像データと現在位置とセンサーの検出値とを対応付けて送信してもよい。この場合の外部装置は、LAN(Local Area Network)に接続された記憶装置や、オンラインストレージと呼ばれる記憶装置、或いは、クラウドストレージサーバー等が挙げられる。
また、撮像終了の条件が成立した場合は(ステップSB6;YES)、本処理を終了する。
For example, the head-mounted display device 100 may repeatedly execute the operations of Steps SB2 to SB6 every predetermined time in a state where the right camera 61 and the left camera 62 can perform imaging. In this case, regardless of whether or not the head-mounted display device 100 performs AR display, the storage unit 120 stores a captured image in association with the current position of the head-mounted display device 100 and the detection value of the sensor. Data is stored. If the storage capacity of the storage unit 120 is limited, the image acquisition unit 161 transmits the captured image data, the current position, and the detection value of the sensor in association with each other to an external device connected via the communication unit 117. May be. Examples of the external device in this case include a storage device connected to a LAN (Local Area Network), a storage device called online storage, a cloud storage server, and the like.
If the condition for ending imaging is satisfied (step SB6; YES), this process ends.

図8の外景画像取得処理は、図7の動作で記憶された撮像画像データを使用するが、図7の動作と連動または協調して実行する必要はない。つまり、図7の動作および図8の動作は、互いに、実行タイミングは拘束されない。
画像取得部161は、GPS115で頭部装着型表示装置100の現在位置を検出して取得し、9軸センサー66の検出値を取得する(ステップSB11)。続いて、画像取得部161は、ステップSB11で取得した現在位置及びセンサーの検出値に対応付けて記憶された撮像画像データを、記憶部120または通信部117で接続された外部機器から取得する(ステップSB12)。ステップSB12で、画像取得部161は、ステップSB11で取得した現在位置及びセンサー検出値を検索条件として撮像画像データを検索する。画像取得部161は、検索条件の全てに該当する撮像画像データを取得してもよいし、一部の検索条件にのみ該当する撮像画像データを取得してもよい。
The outside scene image acquisition process of FIG. 8 uses the captured image data stored in the operation of FIG. 7, but does not need to be executed in conjunction with or in cooperation with the operation of FIG. That is, the execution timing of the operation of FIG. 7 and the operation of FIG.
The image acquisition unit 161 detects and acquires the current position of the head-mounted display device 100 using the GPS 115, and acquires the detection value of the 9-axis sensor 66 (step SB11). Subsequently, the image acquisition unit 161 acquires captured image data stored in association with the current position acquired in step SB11 and the detection value of the sensor from an external device connected by the storage unit 120 or the communication unit 117 ( Step SB12). In step SB12, the image acquisition unit 161 searches the captured image data using the current position and sensor detection value acquired in step SB11 as search conditions. The image acquisition unit 161 may acquire captured image data that meets all of the search conditions, or may acquire captured image data that meets only some of the search conditions.

画像取得部161は、ステップSB12で取得した撮像画像データが複数か否かを判定する(ステップSB13)。撮像画像データが複数ある場合(ステップSB13;YES)、画像取得部161は、取得した複数の撮像画像データを合成して1つの撮像画像データにして(ステップSB14)、図5のステップS13に移行する。一方、取得した撮像画像データが1つである場合(ステップSB13;NO)、画像取得部161は、図5のステップS13に移行する。   The image acquisition unit 161 determines whether there are a plurality of captured image data acquired in step SB12 (step SB13). When there are a plurality of captured image data (step SB13; YES), the image acquisition unit 161 combines the acquired captured image data into one captured image data (step SB14), and proceeds to step S13 in FIG. To do. On the other hand, when the acquired captured image data is one (step SB13; NO), the image acquisition unit 161 proceeds to step S13 in FIG.

図9は、外景画像取得処理の第3の態様を示す。
第3の態様では、画像取得部161は外部機器から撮像画像データを取得する。この場合の外部機器は、限定的な範囲に敷設されたLAN等の通信回線、或いは、インターネット等の広域ネットワークを介して、頭部装着型表示装置100と通信可能に接続されたサーバー装置等である。この外部機器は、頭部装着型表示装置100の位置やセンサーの検出値等に対応する画像データを記憶する。
FIG. 9 shows a third mode of outside scene image acquisition processing.
In the third aspect, the image acquisition unit 161 acquires captured image data from an external device. The external device in this case is a server device or the like that is communicably connected to the head-mounted display device 100 via a communication line such as a LAN laid in a limited range or a wide area network such as the Internet. is there. The external device stores image data corresponding to the position of the head-mounted display device 100, the detection value of the sensor, and the like.

画像取得部161は、GPS115で頭部装着型表示装置100の現在位置を検出して取得し、9軸センサー66の検出値を取得する(ステップSC1)。続いて、画像取得部161は、ステップSB11で取得した現在位置及びセンサーの検出値を、通信部117を介して接続される外部機器に送信し、撮像画像データを要求する(ステップSC3)。
その後、画像取得部161は、ステップSC3で送信した要求への応答として、外部機器が送信する画像データを受信する(ステップSC3)。
The image acquisition unit 161 detects and acquires the current position of the head-mounted display device 100 with the GPS 115, and acquires the detection value of the 9-axis sensor 66 (step SC1). Subsequently, the image acquisition unit 161 transmits the current position and sensor detection value acquired in step SB11 to an external device connected via the communication unit 117, and requests captured image data (step SC3).
Thereafter, the image acquisition unit 161 receives the image data transmitted by the external device as a response to the request transmitted in step SC3 (step SC3).

画像取得部161は、ステップSC3で受信した撮像画像データが複数か否かを判定する(ステップSC4)。撮像画像データが複数ある場合(ステップSC4;YES)、画像取得部161は、受信した複数の撮像画像データを合成して1つの撮像画像データにして(ステップSC5)、図5のステップS13に移行する。一方、受信した撮像画像データが1つである場合(ステップSC4;NO)、画像取得部161は、図5のステップS13に移行する。   The image acquisition unit 161 determines whether there are a plurality of captured image data received in step SC3 (step SC4). When there are a plurality of captured image data (step SC4; YES), the image acquisition unit 161 combines the received plurality of captured image data into one captured image data (step SC5), and proceeds to step S13 in FIG. To do. On the other hand, when the received captured image data is one (step SC4; NO), the image acquisition unit 161 proceeds to step S13 in FIG.

上記の第1、第2、或いは第3の態様の外景画像取得処理を実行し、画像取得部161は、1つの外景画像を得る。
その後、位置検出部162は、取得した外景画像から、AR表示の対象を認識する(ステップS13)。AR表示の対象とは、頭部装着型表示装置100の使用者が外景において視認する物体であり、人間、動物、及び無生物のいずれであってもよく、移動可能なものに限定されず建物等の移動できない物を含む。対象は、使用者が対象の方を向いたときに、右光学像表示部26及び左光学像表示部28を透過して視認される。頭部装着型表示装置100は、予め設定された対象に関する情報を、対象と同時に見えるように画像表示部20により表示することで、AR表示を行う。
The outside scene image acquisition process of the first, second, or third aspect is executed, and the image acquisition unit 161 obtains one outside scene image.
Thereafter, the position detection unit 162 recognizes an AR display target from the acquired outside scene image (step S13). The target of AR display is an object that the user of the head-mounted display device 100 visually recognizes in the outside scene, and may be any one of humans, animals, and inanimate objects. Including things that cannot be moved. The object is viewed through the right optical image display unit 26 and the left optical image display unit 28 when the user faces the target. The head-mounted display device 100 performs AR display by displaying information related to a preset target on the image display unit 20 so that the information can be seen simultaneously with the target.

位置検出部162には、予め、検出する対象が設定される。対象は、AR表示のコンテンツ毎に設定可能であり、例えば、AR表示のコンテンツ(以下、ARコンテンツと呼ぶ)のデータに含まれる。また、検出する対象に関するデータが設定データ121として記憶されてもよい。ステップS13で、位置検出部162は、ARコンテンツまたは設定データ121から対象を検出するためのデータを取得し、このデータを用いて、外景画像に含まれる対象物(対象)を認識する。対象物を検出するためのデータとは、撮像画像から対象物の画像を検出する処理に用いるデータであり、対象物の画像の特徴量等である。例えば、対象物が物体である場合に、この物体を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量が設定データに含まれる。この場合、位置検出部162は、外景画像の画像データから物体の画像を抽出する処理を行い、抽出した物体の画像の特徴量を算出し、算出した特徴量と、設定データ121に含まれる特徴量とを比較照合する。特徴量が近い値であり、或いは同一である場合は、外景画像から抽出した画像の物体を対象物として認識できる。また、対象物について複数の特徴量が設定データ121に含まれる場合、位置検出部162は複数の特徴量に基づき外景画像から対象物を検出し、認識できる。位置検出部162は、外景画像において対象を認識できない場合、ステップS12で画像取得部161が新たな外景画像を取得するまで待機し、新たな外景画像について対象を認識する処理を行う。   A target to be detected is set in the position detection unit 162 in advance. The target can be set for each AR display content, and is included in, for example, data of AR display content (hereinafter referred to as AR content). Further, data related to the target to be detected may be stored as setting data 121. In step S <b> 13, the position detection unit 162 acquires data for detecting a target from the AR content or setting data 121, and recognizes a target (target) included in the outside scene image using this data. The data for detecting the object is data used for processing for detecting the image of the object from the captured image, and is a feature amount of the image of the object. For example, when the target object is an object, the setting data includes a feature amount indicating the color, shape, and other characteristics of the captured image when the object is imaged. In this case, the position detection unit 162 performs a process of extracting the object image from the image data of the outside scene image, calculates the feature amount of the extracted object image, and calculates the calculated feature amount and the feature included in the setting data 121. Compare with quantity. When the feature values are close or the same, the object of the image extracted from the outside scene image can be recognized as the target. Further, when the setting data 121 includes a plurality of feature amounts for the object, the position detection unit 162 can detect and recognize the object from the outside scene image based on the plurality of feature amounts. If the target cannot be recognized in the outside scene image, the position detection unit 162 waits until the image acquisition unit 161 acquires a new outside scene image in step S12, and performs processing for recognizing the target for the new outside scene image.

ステップS13において、位置検出部162が対象物を認識する方法は、上記のように画像の特徴量に基づき対象物の画像を認識する方法に限定されない。例えば、使用者の指示により、外景画像に含まれる物体等から対象を選択してもよい。この場合、使用者の指示は、音声による指示であってもよく、マイク63で集音された音声を音声処理部187がテキスト変換することにより、位置検出部162が対象を認識し、特定するための情報を取得する。例えば、色や対象の形状など、撮像画像における対象物の特徴を指定する音声がテキスト変換された場合に、位置検出部162は、指定された特徴に該当する画像を撮像画像から検出して、認識する。
対象物に関する情報の入力方法は、トラックパッド14への操作であってもよいし、指等によるジェスチャー操作を制御部140が検出してもよい。この場合、右カメラ61、左カメラ62の撮像範囲において使用者が指等を動かしてジェスチャー操作を行い、このジェスチャー操作を制御部140が検出すれば良い。具体的には、使用者が対象物を指さすことで、対象物そのものを指定する方法を採用してもよい。また、使用者が対象物の方向を手や指で指し示す、使用者が対象物を視認する範囲を手や指で囲む等のジェスチャーを用いてもよい。
In step S13, the method of recognizing the object by the position detection unit 162 is not limited to the method of recognizing the image of the object based on the feature amount of the image as described above. For example, the target may be selected from an object included in the outside scene image according to a user instruction. In this case, the user's instruction may be an instruction by voice, and the voice processing unit 187 converts the voice collected by the microphone 63 into text, so that the position detection unit 162 recognizes and identifies the target. Get information for. For example, when the sound that specifies the feature of the object in the captured image, such as the color or the shape of the target, is converted into text, the position detection unit 162 detects an image corresponding to the specified feature from the captured image, recognize.
The method for inputting information related to the object may be an operation on the track pad 14 or the control unit 140 may detect a gesture operation with a finger or the like. In this case, the user may perform a gesture operation by moving a finger or the like within the imaging range of the right camera 61 and the left camera 62, and the control unit 140 may detect this gesture operation. Specifically, a method of designating the target object itself by pointing the target object at the user may be employed. In addition, a gesture may be used such that the user points the direction of the object with a hand or a finger, and the range in which the user visually recognizes the object is surrounded with the hand or the finger.

続いて、位置検出部162は、ステップS13で認識した対象の位置、または、位置および距離を算出する(ステップS14)。位置検出部162は、頭部装着型表示装置100を基準とした位置及び距離を算出する。より詳細には、画像表示部20に対する対象の相対位置および画像表示部20から対象までの距離を算出する。この場合、画像表示部20の右光学像表示部26と左光学像表示部28との中央の位置を、位置及び距離を算出するときの基準にしてもよい。   Subsequently, the position detection unit 162 calculates the position of the target recognized in step S13, or the position and distance (step S14). The position detection unit 162 calculates a position and distance based on the head-mounted display device 100. More specifically, the relative position of the object with respect to the image display unit 20 and the distance from the image display unit 20 to the object are calculated. In this case, the center position of the right optical image display unit 26 and the left optical image display unit 28 of the image display unit 20 may be used as a reference when calculating the position and distance.

位置検出部162が位置を算出する方法は、ステップS13で外景画像から認識した対象の外景画像における座標を求め、求めた座標から、画像表示部20に対する対象の相対位置を求める方法を採用できる。この場合、位置検出部162は、外景画像における対象の画像のサイズから、画像表示部20から対象までの距離の推定値を算出できる。ここで、外景画像と画像表示部20の位置との位置関係を示すデータが、外景画像のデータに付加されていてもよい。   As a method for calculating the position by the position detection unit 162, a method can be employed in which the coordinates in the target outside scene image recognized from the outside scene image in step S13 are obtained, and the relative position of the object with respect to the image display unit 20 is obtained from the obtained coordinates. In this case, the position detection unit 162 can calculate an estimated value of the distance from the image display unit 20 to the target from the size of the target image in the outside scene image. Here, data indicating the positional relationship between the outside scene image and the position of the image display unit 20 may be added to the data of the outside scene image.

また、位置検出部162は、右カメラ61及び左カメラ62により対象を撮像して、撮像画像における対象の画像を検出し、検出した画像の撮像画像における座標及びサイズに基づき、対象の位置と距離とを算出してもよい。画像取得部161が図6の動作で外景画像を取得した場合、この外景画像をもとに上記処理を実行できる。また、画像取得部161が図7、8の動作または図9の動作で外景画像を取得した場合、位置検出部162は、外景画像で対象を検出した後に、右カメラ61及び左カメラ62に撮像を実行させて、上記処理を行えばよい。   In addition, the position detection unit 162 images the target with the right camera 61 and the left camera 62, detects the target image in the captured image, and based on the coordinates and size of the detected image in the captured image, the position and distance of the target And may be calculated. When the image acquisition unit 161 acquires an outside scene image by the operation of FIG. 6, the above processing can be executed based on the outside scene image. In addition, when the image acquisition unit 161 acquires the outside scene image by the operations of FIGS. 7 and 8 or the operation of FIG. 9, the position detection unit 162 captures the image by the right camera 61 and the left camera 62 after detecting the target from the outside scene image. To execute the above process.

また、位置検出部162は、対象までの距離を、距離センサー64を利用して求めてもよい。位置検出部162は、外景画像から検出した対象が、距離センサー64の検出方向に位置すると判定した場合に、距離センサー64を動作させて距離を検出し、検出した距離を、対象までの距離とすればよい。   Further, the position detection unit 162 may obtain the distance to the target using the distance sensor 64. When the position detection unit 162 determines that the target detected from the outside scene image is located in the detection direction of the distance sensor 64, the position detection unit 162 operates the distance sensor 64 to detect the distance, and the detected distance is set as the distance to the target. do it.

ステップS14で位置検出部162が算出する対象の位置及び距離に基づき、表示位置制御部165は、右光学像表示部26及び左光学像表示部28の表示領域における対象の位置を算出する(ステップS15)。右光学像表示部26及び左光学像表示部28の表示領域は、具体的には、図3(A)に示したように、ハーフミラー261A、262Aが相当する。表示位置制御部165は、使用者がハーフミラー261A、262A越しに視認する外景の範囲を基準とし、ARコンテンツの対象の位置を算出する。   Based on the position and distance of the target calculated by the position detection unit 162 in step S14, the display position control unit 165 calculates the position of the target in the display area of the right optical image display unit 26 and the left optical image display unit 28 (step S14). S15). Specifically, the display areas of the right optical image display unit 26 and the left optical image display unit 28 correspond to half mirrors 261A and 262A, as shown in FIG. The display position control unit 165 calculates the target position of the AR content with reference to the range of the outside scene visually recognized by the user through the half mirrors 261A and 262A.

表示位置制御部165は、ステップS15で算出した対象の位置が画像表示部20の表示領域内か否かを判定する(ステップS16)。ここで、表示領域とは、使用者がハーフミラー261A、262A越しに視認する外景の範囲を指す。この対象は外景に存在するものであり、表示位置制御部165は、対象が、使用者に、ハーフミラー261A、262Aと重なって見えるか否かを判定する。   The display position control unit 165 determines whether or not the target position calculated in step S15 is within the display area of the image display unit 20 (step S16). Here, the display area refers to a range of an outside scene that is visually recognized by the user through the half mirrors 261A and 262A. This target exists in the outside scene, and the display position control unit 165 determines whether or not the target appears to overlap with the half mirrors 261A and 262A to the user.

ステップS16で、表示位置制御部165は、ハーフミラー261Aとハーフミラー262Aのそれぞれについて判定を行っても良い。この場合、表示位置制御部165は、使用者がハーフミラー261A越しに視認する範囲に対象が含まれるか否かの判定、及び、使用者がハーフミラー262A越しに視認する範囲に対象が含まれるか否かの判定を、それぞれ行う。
例えば、画像選択部163が3DのARコンテンツを選択した場合等は、ハーフミラー261A、262Aの両方において対象が表示範囲内であることが好ましい。この場合、表示位置制御部165は、ハーフミラー261A、262Aの両方で対象が表示範囲内にある場合に、対象が表示領域内にあると判定する。
また、例えば、画像選択部163が、対象に関する説明文や注釈のテキストまたは画像を表示するARコンテンツを選択した場合、ハーフミラー261A、262Aのいずれか一方に、ARコンテンツが表示されればよい。この場合、表示位置制御部165は、ハーフミラー261A、262Aのいずれか一方で対象が表示範囲内にあれば、対象が表示領域内にあると判定する。
このように、表示位置制御部165は、ハーフミラー261A、262Aに関する判定結果を、画像選択部163が選択するARコンテンツの種類に応じて統合し、ステップS16の判定を行ってもよい。
In step S16, the display position control unit 165 may determine each of the half mirror 261A and the half mirror 262A. In this case, the display position control unit 165 determines whether or not the target is included in the range that the user visually recognizes through the half mirror 261A, and the target is included in the range that the user visually recognizes through the half mirror 262A. Whether or not is determined.
For example, when the image selection unit 163 selects 3D AR content, the target is preferably within the display range in both the half mirrors 261A and 262A. In this case, the display position control unit 165 determines that the target is in the display area when the target is in the display range in both the half mirrors 261A and 262A.
Further, for example, when the image selection unit 163 selects the AR content for displaying the explanatory text or the annotation text or the image regarding the target, the AR content may be displayed on one of the half mirrors 261A and 262A. In this case, the display position control unit 165 determines that the target is within the display area if the target is within the display range of one of the half mirrors 261A and 262A.
As described above, the display position control unit 165 may integrate the determination results regarding the half mirrors 261A and 262A according to the type of AR content selected by the image selection unit 163, and perform the determination in step S16.

表示位置制御部165が、対象の位置表示領域内でないと判定した場合(ステップS16;NO)、動作処理部164は、表示制御部190を制御して、視線を誘導する誘導画像を右光学像表示部26及び左光学像表示部28に表示させる(ステップS17)。   When the display position control unit 165 determines that it is not within the target position display region (step S16; NO), the operation processing unit 164 controls the display control unit 190 to display a guidance image for guiding the line of sight as a right optical image. The information is displayed on the display unit 26 and the left optical image display unit 28 (step S17).

図10は、本実施形態における表示例を示す図であり、(A)は使用者の視野VRを示し、(B)は外景画像の例を示し、(C)は誘導画像の表示例を示す。
図10(A)は使用者の右眼の視野VRの例を示しており、使用者の左眼の視野は図10(A)と同一または左右対称であるため図示を省略する。視野VRのうちハーフミラー261Aに相当する領域が表示領域D1となり、この表示領域D1に、右LCD241(図4)に描画される画像が表示される。
図10(A)の例では視野VRに自転車が見えているが、この自転車は画像表示部20の外側に置かれている実物の自転車である。つまり、使用者は、右光学像表示部26を透過して、外景の自転車を視認する。
FIG. 10 is a diagram illustrating a display example in the present embodiment, in which (A) shows a user's visual field VR, (B) shows an example of an outside scene image, and (C) shows a display example of a guidance image. .
FIG. 10A shows an example of the visual field VR of the user's right eye. The visual field of the user's left eye is the same as or symmetrical with that of FIG. An area corresponding to the half mirror 261A in the visual field VR is a display area D1, and an image drawn on the right LCD 241 (FIG. 4) is displayed in the display area D1.
In the example of FIG. 10A, a bicycle can be seen in the field of view VR, but this bicycle is a real bicycle placed outside the image display unit 20. That is, the user views the bicycle in the outside scene through the right optical image display unit 26.

図10(B)には画像取得部161が取得する外景画像Pの例を示す。この例では、画像取得部161は、使用者が視認する範囲より広い範囲の外景画像Pを取得し、この外景画像Pには使用者の視野VRに見える範囲より大きな範囲が写っている。参考のため、外景画像Pにおいて、視野VRに見える範囲を符号P1で示し、表示領域D1に対応する範囲を符号P2で示す。
図10(B)の例では、ARコンテンツに対応する対象OBが、視野VRに見える範囲P1の外にあり、表示領域D1に対応する範囲P2の外でもある。このため、表示位置制御部165は、ステップS16で、対象OBの位置が表示領域内でないと判定する。この場合、動作処理部164がステップS17で表示する誘導画像は、例えば図10(C)に示すように、使用者の視線を対象OB側に移動させる画像である。図10(C)の誘導画像D2は、対象OBの方向を示す矢印である。この矢印に従って使用者が頭部の向きを変えると、対象OBが表示領域D1に入る可能性がある。
FIG. 10B shows an example of the outside scene image P acquired by the image acquisition unit 161. In this example, the image acquisition unit 161 acquires an outside scene image P in a range wider than the range visually recognized by the user, and the outside scene image P includes a range larger than the range visible in the user's visual field VR. For reference, in the outside scene image P, a range that can be seen in the visual field VR is indicated by a symbol P1, and a range corresponding to the display region D1 is indicated by a symbol P2.
In the example of FIG. 10B, the target OB corresponding to the AR content is outside the range P1 that is visible in the visual field VR, and is also outside the range P2 corresponding to the display area D1. For this reason, the display position control unit 165 determines in step S16 that the position of the target OB is not within the display area. In this case, the guidance image displayed in step S17 by the operation processing unit 164 is an image that moves the user's line of sight toward the target OB, as shown in FIG. 10C, for example. A guide image D2 in FIG. 10C is an arrow indicating the direction of the target OB. When the user changes the direction of the head according to this arrow, the target OB may enter the display area D1.

動作処理部164は、頭部装着型表示装置100の移動を検出したか否かを判定する(ステップS18)。動作処理部164は、9軸センサー66により、画像表示部20の向きや位置の変化を検出し、予め設定された閾値よりも大きい変化があった場合に、移動を検出したと判定する。また、動作処理部164は、GPS115を利用して頭部装着型表示装置100の移動を検出してもよい。頭部装着型表示装置100の移動を検出しないと判定した場合(ステップS18;NO)、動作処理部164は、誘導画像の表示を継続し、一定時間毎にステップS18の判定を行う。頭部装着型表示装置100の移動を検出した場合(ステップS18;YES)、動作処理部164はステップS14に戻る。   The motion processing unit 164 determines whether or not the movement of the head-mounted display device 100 is detected (step S18). The motion processing unit 164 detects a change in the orientation or position of the image display unit 20 using the 9-axis sensor 66, and determines that the movement is detected when there is a change larger than a preset threshold value. Further, the operation processing unit 164 may detect the movement of the head mounted display device 100 using the GPS 115. When it determines with not detecting the movement of the head mounted display apparatus 100 (step S18; NO), the operation | movement process part 164 continues the display of a guidance image, and performs determination of step S18 for every fixed time. When the movement of the head-mounted display device 100 is detected (step S18; YES), the operation processing unit 164 returns to step S14.

また、表示位置制御部165が、対象が表示領域内であると判定した場合(ステップS16;YES)、動作処理部164は表示制御部190を制御して、ARコンテンツを右光学像表示部26、左光学像表示部28に表示させる(ステップS19)。ここで、動作処理部164は、ARコンテンツのデータを間引きして表示制御部190に表示させてもよい。データの間引きとは、具体的には、動画像データの一部のフレームを抽出することでフレームレートを低下させる、フレームの解像度を低下させる、等の処理を含む。これにより、表示制御部190が処理するデータ量を削減でき、表示タイミングの遅延を防止できる等の利点がある。   When the display position control unit 165 determines that the target is within the display area (step S16; YES), the operation processing unit 164 controls the display control unit 190 to display the AR content on the right optical image display unit 26. Then, it is displayed on the left optical image display unit 28 (step S19). Here, the operation processing unit 164 may thin the AR content data and cause the display control unit 190 to display the data. Specifically, the data thinning includes processing such as reducing a frame rate by extracting a part of a frame of moving image data, reducing the resolution of the frame, and the like. Thereby, there is an advantage that the amount of data processed by the display control unit 190 can be reduced and a delay in display timing can be prevented.

続いて、表示位置制御部165が、表示位置のフィッティングを実行する(ステップS20)。フィッティングは使用者が制御装置10を操作して、手動でARコンテンツの表示位置を調整する機能である。使用者が、ステップS19でARコンテンツが表示された位置の変更を望む場合など、必要があれば実行される。従って、ステップS20を省略することも可能であり、ステップS20のフィッティングを実行するか否かを設定可能な構成であってもよい。ステップS20で、表示位置制御部165は、操作部135等の操作に従って、ARコンテンツの表示位置を移動させる。ここで、表示位置制御部165は、操作部135等の操作に従ってARコンテンツの表示サイズを変更してもよい。また、ステップS20で実行した位置調整やサイズ調整の調整量を、記憶部120に設定データ121として記憶してもよい。   Subsequently, the display position control unit 165 performs display position fitting (step S20). Fitting is a function in which the user operates the control device 10 to manually adjust the display position of the AR content. This is executed if necessary, such as when the user desires to change the position where the AR content is displayed in step S19. Therefore, step S20 can be omitted, and it may be configured to set whether or not to perform the fitting of step S20. In step S20, the display position control unit 165 moves the display position of the AR content according to the operation of the operation unit 135 or the like. Here, the display position control unit 165 may change the display size of the AR content in accordance with the operation of the operation unit 135 or the like. Further, the adjustment amount of the position adjustment and the size adjustment executed in step S <b> 20 may be stored as setting data 121 in the storage unit 120.

ステップS19〜S20の動作により、使用者には、対象に重なる位置、或いは対象に対応する位置で、ARコンテンツを視認できる。
その後、動作処理部164は、操作部135等においてズーム表示を指示する操作があったか否かを判定する(ステップS21)。該当する操作があった場合(ステップS21;YES)、動作処理部164は、視線センサー68によって使用者の視線を検出する(ステップS22)。動作処理部164は、検出した視線に基づき、表示領域において使用者が注視する方向を特定し、注視方向を中心にしたズーム表示を実行し(ステップS23)、ステップS24に移行する。また、ズーム表示を指示する操作がないと判定した場合(ステップS21;NO)、動作処理部164はステップS24に移行する。
Through the operations in steps S19 to S20, the user can visually recognize the AR content at a position overlapping the target or a position corresponding to the target.
Thereafter, the operation processing unit 164 determines whether or not there is an operation for instructing zoom display on the operation unit 135 or the like (step S21). When there is a corresponding operation (step S21; YES), the motion processing unit 164 detects the user's line of sight with the line-of-sight sensor 68 (step S22). Based on the detected line of sight, the motion processing unit 164 identifies the direction in which the user gazes in the display area, executes zoom display centered on the gaze direction (step S23), and proceeds to step S24. When it is determined that there is no operation for instructing zoom display (step S21; NO), the operation processing unit 164 proceeds to step S24.

図11は、頭部装着型表示装置100の表示例を示す図であり、(A)は縮小表示の例を示し、(B)は注視方向を検出する例を示し、(C)はズーム表示の例を示す。
図11(A)に示す縮小表示は、操作部135の操作に対応して動作処理部164が実行する動作の一例であり、外景画像P(図10(B))を縮小して表示領域D1に表示する。外景画像Pが、使用者が画像表示部20を透過して視認する外景よりも広い範囲の画像である場合に、縮小表示を行うと、使用者は視野VRよりも広い範囲の外景を見ることができる。
FIG. 11 is a diagram illustrating a display example of the head-mounted display device 100, where (A) illustrates an example of reduced display, (B) illustrates an example of detecting a gaze direction, and (C) illustrates zoom display. An example of
The reduced display shown in FIG. 11A is an example of the operation performed by the operation processing unit 164 in response to the operation of the operation unit 135, and the outside scene image P (FIG. 10B) is reduced and displayed in the display area D1. To display. If the outside scene image P is an image in a wider range than the outside scene that the user sees through the image display unit 20, when the reduced display is performed, the user sees the outside scene in a wider range than the visual field VR. Can do.

表示位置制御部165は、ステップS22で、視線センサー68を使用して視線を検出し、検出した視線に基づいて使用者が注視している方向を求め、表示領域D1に重なる外景において使用者が注視している注視点を算出する。図11(B)には注視点VPOが表示領域D1の内部にあるが、視線センサー68を使用すれば、注視点VPOが表示領域D1の外にある場合も検出できる。
図11(C)の例では、注視点VPOを中心とした所定範囲が、拡大されて表示領域D1に表示される。図11(C)では外景画像Pの一部が拡大されて表示されているが、表示領域D1に表示中のAR画像を、拡大表示してもよい。
In step S22, the display position control unit 165 detects the line of sight using the line-of-sight sensor 68, obtains the direction in which the user is gazing based on the detected line of sight, and the user views the outside scene that overlaps the display area D1. Calculate the gaze point you are gazing at. In FIG. 11B, the gazing point VPO is inside the display area D1, but if the line-of-sight sensor 68 is used, even when the gazing point VPO is outside the display area D1, it can be detected.
In the example of FIG. 11C, a predetermined range centered on the gazing point VPO is enlarged and displayed in the display area D1. Although part of the outside scene image P is enlarged and displayed in FIG. 11C, the AR image being displayed in the display area D1 may be enlarged and displayed.

ステップS24で、動作処理部164は、頭部装着型表示装置100の移動を検出したか否かを判定する(ステップS24)。動作処理部164は、9軸センサー66及び/又はGPS115を利用して、頭部装着型表示装置100の移動を検出する。頭部装着型表示装置100の移動を検出しないと判定した場合(ステップS24;NO)、動作処理部164は、誘導画像の表示を継続し、一定時間毎にステップS21の判定を行う。   In step S24, the motion processing unit 164 determines whether or not the movement of the head-mounted display device 100 is detected (step S24). The motion processing unit 164 detects the movement of the head-mounted display device 100 using the 9-axis sensor 66 and / or the GPS 115. When it determines with not detecting the movement of the head mounted display apparatus 100 (step S24; NO), the operation | movement process part 164 continues the display of a guidance image, and performs determination of step S21 for every fixed time.

頭部装着型表示装置100の移動を検出した場合(ステップS24;YES)、動作処理部164は、表示領域における対象の位置を算出する(ステップS25)。この動作はステップS15と同様である。表示位置制御部165は、ステップS25で算出した対象の位置が画像表示部20の表示領域内か否かを判定する(ステップS26)。ステップS26の判定は、ステップS16と同様に行うことができる。   When the movement of the head-mounted display device 100 is detected (step S24; YES), the operation processing unit 164 calculates the position of the target in the display area (step S25). This operation is the same as step S15. The display position control unit 165 determines whether or not the target position calculated in step S25 is within the display area of the image display unit 20 (step S26). The determination in step S26 can be performed in the same manner as in step S16.

表示位置制御部165が、対象の位置が表示領域内でないと判定した場合(ステップS26;NO)、制御部140はステップS17に移行して、視線を誘導する誘導画像を右光学像表示部26及び左光学像表示部28に表示させる(ステップS17)。
AR表示の対象の位置が表示領域内であると判定した場合(ステップS26;YES)、表示位置制御部165は、AR表示の表示位置を算出して更新し、更新後の位置に基づき、動作処理部164が表示制御部190を制御してARコンテンツを表示する(ステップS27)。
When the display position control unit 165 determines that the target position is not within the display region (step S26; NO), the control unit 140 proceeds to step S17 and displays the guidance image for guiding the line of sight to the right optical image display unit 26. And it displays on the left optical image display part 28 (step S17).
When it is determined that the target position of the AR display is within the display area (step S26; YES), the display position control unit 165 calculates and updates the display position of the AR display, and operates based on the updated position. The processing unit 164 controls the display control unit 190 to display the AR content (step S27).

その後、動作処理部164は、表示終了の条件が成立しているか否かを判定し(ステップS28)、表示終了の条件が成立していない場合は(ステップS28;NO)、ステップS21に戻る。また、表示終了の条件が成立した場合(ステップS28;YES)、ARコンテンツの表示を停止する。表示終了の条件は、例えば、操作部135による終了の指示があること、ARコンテンツの表示が完了したこと、等である。   Thereafter, the operation processing unit 164 determines whether or not a display end condition is satisfied (step S28). If the display end condition is not satisfied (step S28; NO), the process returns to step S21. If the display end condition is satisfied (step S28; YES), the display of the AR content is stopped. The display end condition is, for example, that the operation unit 135 has been instructed to end, or that the AR content display has been completed.

なお、ステップS24で移動を検出した場合、制御部140は、移動中にAR表示を更新する構成としてもよい。この場合、制御部140は、右カメラ61及び左カメラ62の撮像画像から対象を検出し、対象の位置を特定して、対象に重なるようにAR表示の表示位置を求める。さらに、制御部140は、撮像画像から対象の移動速度または移動量を検出し、対象の移動に合わせてAR表示の表示位置を移動させることができる。具体的には、右カメラ61及び左カメラ62の撮像画像を複数取得し、これら複数の撮像画像における対象と背景すなわち対象以外の物体との相対位置の変化を検出し、対象の移動速度または移動量を求める。これにより、移動する対象に追従するように、AR表示を行うことができる。   In addition, when a movement is detected by step S24, the control part 140 is good also as a structure which updates AR display during a movement. In this case, the control unit 140 detects the target from the captured images of the right camera 61 and the left camera 62, specifies the target position, and obtains the display position of the AR display so as to overlap the target. Furthermore, the control unit 140 can detect the movement speed or movement amount of the target from the captured image, and can move the display position of the AR display in accordance with the movement of the target. Specifically, a plurality of captured images of the right camera 61 and the left camera 62 are acquired, a change in the relative position between the target and the background, that is, an object other than the target in the plurality of captured images is detected, and the moving speed or movement of the target Find the amount. Thereby, AR display can be performed so as to follow the moving object.

ここで、撮像画像に写る背景の物体が移動した場合であっても、撮像画像から対象の位置を移動速度及び移動量を正確に求めることができるように、制御部140は、9軸センサー66の検出値を利用してもよい。使用者は、対象が移動する場合、対象が視野に収まるように頭部を動かすと考えることができる。制御部140は、撮像画像において背景と対象との相対的な移動を検出した場合に、9軸センサー66の検出値から画像表示部20の移動を検出する。例えば、撮像画像から検出した背景に対する対象の移動方向と、画像表示部20の移動方向とが一致または近似する場合、制御部140は、対象が移動していると判定して、AR表示の表示位置を調整する。また、例えば、撮像画像から検出した背景に対する対象の移動方向と、画像表示部20の移動方向とが異なる場合、制御部140は、背景が移動していると判定する。この場合、AR表示の表示位置を変化させることで使用者の違和感を惹起する可能性があるので、制御部140は、AR表示の表示位置を変化させない。   Here, the control unit 140 controls the nine-axis sensor 66 so that the moving speed and the moving amount of the target position can be accurately obtained from the captured image even when the background object in the captured image moves. The detected value may be used. When the object moves, the user can think of moving the head so that the object is within the field of view. The control unit 140 detects the movement of the image display unit 20 from the detection value of the nine-axis sensor 66 when detecting the relative movement between the background and the target in the captured image. For example, when the moving direction of the target with respect to the background detected from the captured image matches or approximates the moving direction of the image display unit 20, the control unit 140 determines that the target is moving and displays the AR display. Adjust the position. For example, when the moving direction of the target with respect to the background detected from the captured image is different from the moving direction of the image display unit 20, the control unit 140 determines that the background is moving. In this case, since there is a possibility that the user feels uncomfortable by changing the display position of the AR display, the control unit 140 does not change the display position of the AR display.

また、AR表示する画像等は、制御部140が、右カメラ61及び左カメラ62から対象を検出する検出結果等に基づいて生成してもよいが、予め記憶部120等に記憶した画像データに基づき表示してもよい。また、制御部140は、右カメラ61及び/又は左カメラ62の撮像画像の一部を切り出して、AR表示してもよい。この場合、AR表示する画像等を生成する処理の負荷を軽減できるので、高速にAR表示を行うことができる。   Further, the image or the like for AR display may be generated based on the detection result or the like by which the control unit 140 detects the object from the right camera 61 and the left camera 62, but the image data stored in the storage unit 120 or the like in advance. You may display based on. In addition, the control unit 140 may cut out a part of the captured image of the right camera 61 and / or the left camera 62 and display the AR. In this case, it is possible to reduce the load of processing for generating an image or the like for AR display, so that AR display can be performed at high speed.

以上説明したように、本発明を適用した第1実施形態に係る頭部装着型表示装置100は、頭部装着型表示装置100は、外景を透過し、外景とともに視認できるように画像を表示する画像表示部20を備える。また、画像表示部20を透過して視認される外景を含む外景画像を取得し、取得した外景画像に基づいて、画像表示部20を透過して視認される対象を認識し、対象に関する情報を画像表示部20に表示する制御部140を備える。これにより、使用者が視認する外景における対象の位置や大きさ等に対応して、対象に関する情報を表示できる。このため、使用者が視認する外景と表示画像との不整合を防ぐことができ、効果的な表示を行うことができる。また、画像表示部20において虚像を表示できる領域(表示領域D1)が小さくても、実空間に存在する対象に関する表示を行うことができ、虚像を表示できる領域のサイズによる制約を軽減し、より広い範囲の実空間に対するAR表示を行うことが可能となる。   As described above, the head-mounted display device 100 according to the first embodiment to which the present invention is applied displays an image so that the head-mounted display device 100 transmits the outside scene and can be visually recognized together with the outside scene. An image display unit 20 is provided. In addition, an outside scene image including an outside scene that is visible through the image display unit 20 is acquired, and an object that is viewed through the image display unit 20 is recognized based on the acquired outside scene image. The control part 140 displayed on the image display part 20 is provided. Thereby, the information regarding the object can be displayed in correspondence with the position and size of the object in the outside scene visually recognized by the user. For this reason, inconsistency between the outside scene visually recognized by the user and the display image can be prevented, and effective display can be performed. Moreover, even if the area (display area D1) in which the virtual image can be displayed in the image display unit 20 is small, it is possible to perform display related to the object existing in the real space, and to reduce the restriction due to the size of the area where the virtual image can be displayed. It is possible to perform AR display over a wide real space.

また、制御部140は、対象が画像表示部20において情報が表示される範囲の外にある場合に、画像表示部20により、視線を対象へ誘導する誘導表示を行う。これにより、対象の位置が、情報が表示される範囲に収まるように、視線を誘導できる。
また、制御部140は、取得した外景画像に基づいて、画像表示部20を透過して視認可能な範囲の外景の画像を、画像表示部20に表示する。これにより、使用者が視認する外景の画像の見え方を変化させることができる。
In addition, when the target is outside the range where information is displayed on the image display unit 20, the control unit 140 performs guidance display for guiding the line of sight to the target by the image display unit 20. Thereby, it is possible to guide the line of sight so that the target position falls within the range in which information is displayed.
Further, the control unit 140 displays, on the image display unit 20, an image of the outside scene in a range that is visible through the image display unit 20 based on the acquired outside scene image. Thereby, the appearance of the image of the outside scene visually recognized by the user can be changed.

また、画像表示部20は、使用者の頭部に装着される頭部装着型の表示部であり、使用者の視線を検出する視線センサー68を備える。制御部140は、視線センサー68が検出する使用者の視線の方向に対応して画像表示部20の表示を変化させる。これにより、表示画像を使用者の視線に対応させることができ、より効果的に、使用者が視認する外景と表示画像との不整合を防ぐことができる。   The image display unit 20 is a head-mounted display unit that is worn on the user's head, and includes a line-of-sight sensor 68 that detects the user's line of sight. The control unit 140 changes the display of the image display unit 20 in accordance with the direction of the user's line of sight detected by the line-of-sight sensor 68. Thereby, the display image can be made to correspond to the user's line of sight, and inconsistency between the outside scene visually recognized by the user and the display image can be prevented more effectively.

また、制御部140は、外景画像の一部領域を画像表示部20に表示し、視線検出部が検出する使用者の視線の方向に対応して、外景画像において画像表示部20に表示する一部領域の位置を変化させる。これにより、使用者の視線に対応させて、外景画像を表示するので、使用者が視認する外景と表示画像との不整合を防ぎ、外景画像を使用者に視認させることができる。   In addition, the control unit 140 displays a partial region of the outside scene image on the image display unit 20 and displays it on the image display unit 20 in the outside scene image corresponding to the direction of the user's line of sight detected by the line of sight detection unit. The position of the partial area is changed. Accordingly, since the outside scene image is displayed in correspondence with the user's line of sight, inconsistency between the outside scene visually recognized by the user and the display image can be prevented, and the outside scene image can be visually recognized by the user.

また、頭部装着型表示装置100は、画像表示部20を透過して視認される外景を含む範囲を撮像する右カメラ61及び左カメラ62を備える。制御部140は、第1の態様で説明したように、右カメラ61及び左カメラ62の撮像画像を外景画像として取得してもよい。この場合、外景画像を事前に用意することなく、使用者が視認する外景に対応する外景画像を取得し、画像を表示できる。
また、制御部140は、複数の撮像部である右カメラ61、左カメラ62がそれぞれ撮像した複数の撮像画像を取得して合成することにより外景画像を生成してもよい。この場合、複数の撮像画像を用いて、好ましいサイズや画角を有する外景画像を得ることができる。
The head-mounted display device 100 includes a right camera 61 and a left camera 62 that capture a range including an outside scene that is visible through the image display unit 20. As described in the first aspect, the control unit 140 may acquire the captured images of the right camera 61 and the left camera 62 as an outside scene image. In this case, an outside scene image corresponding to the outside scene visually recognized by the user can be acquired and displayed without preparing an outside scene image in advance.
The control unit 140 may generate an outside scene image by acquiring and synthesizing a plurality of captured images captured by the right camera 61 and the left camera 62 that are a plurality of imaging units. In this case, an outside scene image having a preferred size and angle of view can be obtained using a plurality of captured images.

また、制御部140は、第2の態様で説明したように、右カメラ61及び左カメラ62が撮像した複数の撮像画像を取得して合成することにより外景画像を生成してもよい。この場合、右カメラ61、左カメラ62の画角等に制限されず、好ましいサイズや画角を有する外景画像を得ることができる。   Further, as described in the second aspect, the control unit 140 may generate an outside scene image by acquiring and combining a plurality of captured images captured by the right camera 61 and the left camera 62. In this case, it is not limited to the angle of view of the right camera 61 and the left camera 62, and an outside scene image having a preferable size and angle of view can be obtained.

また、頭部装着型表示装置100は、外部機器に接続する通信部117を備え、制御部140は、第3の態様で説明したように、通信部117に接続する外部機器から外景画像を取得してもよい。この場合、予め外景画像を記憶したり、撮像する手段を設けたりすることなく、外景画像を取得できる。
また、頭部装着型表示装置100は、現在位置を検出するGPS115を備え、制御部140は、通信部117を介して、外部機器から、GPS115で検出する現在位置に対応する外景画像を取得してもよい。この場合、頭部装着型表示装置100の位置に対応する外景画像を取得できる。
The head-mounted display device 100 includes a communication unit 117 connected to an external device, and the control unit 140 acquires an outside scene image from the external device connected to the communication unit 117 as described in the third aspect. May be. In this case, the outside scene image can be acquired without storing the outside scene image in advance or providing a means for imaging.
The head-mounted display device 100 includes a GPS 115 that detects the current position, and the control unit 140 acquires an external scene image corresponding to the current position detected by the GPS 115 from an external device via the communication unit 117. May be. In this case, an outside scene image corresponding to the position of the head-mounted display device 100 can be acquired.

また、頭部装着型表示装置100は、使用者の頭部に装着される表示装置であって、外景を透過し、外景とともに視認できるように画像を表示する表示領域としてのハーフミラー261A、262Aを有する画像表示部20を有する。頭部装着型表示装置100が備える制御部140は、ハーフミラー261A、262Aを透過して視認できる範囲の外に位置する対象を認識し、対象に関する情報を出力する。
例えば、制御部140は、対象が画像表示部20においてハーフミラー261A、262Aの外側を透過して視認される場合に、使用者を、対象を視認可能な状態に誘導する情報を出力する。制御部140が出力する情報は、例えば、AR表示の対象が位置する方向を示す誘導画像D2である。この場合、制御部140が情報を出力する方法は、画像表示部20に誘導画像D2を表示する方法であるが、テキストによって対象の位置を示して使用者を誘導してもよい。また、右イヤホン32及び/又は左イヤホン34から、使用者を誘導する音を出力してもよい。
The head-mounted display device 100 is a display device that is worn on the user's head, and is half mirrors 261A and 262A serving as display areas that display images so that they can be seen through the outside scene and visible together with the outside scene. It has the image display part 20 which has. The control unit 140 included in the head-mounted display device 100 recognizes a target located outside the range that can be seen through the half mirrors 261A and 262A, and outputs information related to the target.
For example, when the target is viewed through the outside of the half mirrors 261A and 262A in the image display unit 20, the control unit 140 outputs information that guides the user to a state in which the target is visible. The information output by the control unit 140 is, for example, a guidance image D2 indicating the direction in which the AR display target is located. In this case, the method in which the control unit 140 outputs information is a method of displaying the guidance image D2 on the image display unit 20, but the user may be guided by indicating the target position by text. Further, a sound for guiding the user may be output from the right earphone 32 and / or the left earphone 34.

[第2実施形態]
図12は、第2実施形態における頭部装着型表示装置100の動作を示すフローチャートである。
第2実施形態の頭部装着型表示装置100の構成は、上記第1実施形態で図1〜図4を参照して説明した構成と共通であるため、図示及び説明を省略する。
第2実施形態で、頭部装着型表示装置100は、ARコンテンツの対象が、画像表示部20を透過して視認できる範囲の外にある場合に、対象を視認できる状態となるように使用者に対する案内を出力する。
[Second Embodiment]
FIG. 12 is a flowchart illustrating the operation of the head-mounted display device 100 according to the second embodiment.
Since the configuration of the head-mounted display device 100 according to the second embodiment is the same as the configuration described with reference to FIGS. 1 to 4 in the first embodiment, illustration and description thereof are omitted.
In the second embodiment, the head-mounted display device 100 allows the user to view the target when the target of the AR content is outside the range that can be viewed through the image display unit 20. The guidance for is output.

使用者が頭部装着型表示装置100を装着し、操作部135の操作によりARコンテンツの表示が指示されると、制御部140は、表示に係る動作を開始する(ステップS11)。   When the user wears the head-mounted display device 100 and the display of the AR content is instructed by the operation of the operation unit 135, the control unit 140 starts an operation related to the display (step S11).

制御部140は、ARコンテンツの表示の対象の位置に関する対象情報を取得する(ステップS31)。対象情報は、頭部装着型表示装置100と対象との相対位置を求めるためのデータを含む。具体的には、頭部装着型表示装置100と対象との相対位置を示すデータを含んでもよいし、所定の目標物と対象との相対位置を示すデータを含んでもよい。   The control unit 140 acquires target information regarding the target position of the AR content display (step S31). The target information includes data for obtaining a relative position between the head-mounted display device 100 and the target. Specifically, data indicating the relative position between the head-mounted display device 100 and the target may be included, or data indicating the relative position between a predetermined target and the target may be included.

例えば、対象情報は、GPSやWiFiを利用した位置検出システムで対象の位置を特定できるデータを含んでもよい。この場合、制御部140は、GPS115や通信部117を利用して画像表示部20の位置を検出し、検出した画像表示部20の位置と対象情報とに基づいて、画像表示部20と対象との相対位置を特定できる。
また、AR表示の対象は、物体の全体に限定されず、物体において特定される部分または面が対象に設定されてもよい。この場合、対象を含む物体の位置に対する対象の位置を特定するデータを、対象情報に含めることができる。例えば、対象を含む物体のCADデータ、物体全体の外観図など、物体の全体を特定するデータと、物体の全体における対象の位置を特定するデータとを、対象情報に含めることができる。
For example, the target information may include data that can identify the position of the target with a position detection system using GPS or WiFi. In this case, the control unit 140 detects the position of the image display unit 20 using the GPS 115 and the communication unit 117, and based on the detected position of the image display unit 20 and target information, the control unit 140 detects the position of the image display unit 20 and the target. The relative position of can be specified.
Further, the target of AR display is not limited to the entire object, and a part or surface specified in the object may be set as the target. In this case, data for specifying the position of the target with respect to the position of the object including the target can be included in the target information. For example, the target information can include data for specifying the entire object, such as CAD data of the object including the target, an external view of the entire object, and data for specifying the position of the target in the entire object.

制御部140は、画像取得部161により、外景画像取得処理を実行する(ステップS12)。外景画像取得処理は、上述した第1〜第3の態様で実行できる。   The controller 140 causes the image acquisition unit 161 to execute an outside scene image acquisition process (step S12). The outside scene image acquisition process can be executed in the first to third modes described above.

制御部140は、位置検出部162により、ステップS12で取得した外景画像と、ステップS31で取得した対象情報から、AR表示の対象を認識する(ステップS32)。AR表示の対象は、上述したように、ARコンテンツを表示する際に使用者が視認する実空間の物体である。ステップS32で、位置検出部162は、ステップS13(図5)を参照して説明したように、ステップS12で取得した外景画像において対象を認識する。また、対象が外景画像に含まれない場合、位置検出部162は、ステップS31で取得した対象情報を用いて対象の位置(頭部装着型表示装置100と対象との相対位置)を特定する。   The control unit 140 recognizes the target of AR display from the outside scene image acquired in step S12 and the target information acquired in step S31 by the position detection unit 162 (step S32). The target of AR display is an object in real space that is visually recognized by the user when displaying AR content, as described above. In step S32, the position detection unit 162 recognizes the target in the outside scene image acquired in step S12, as described with reference to step S13 (FIG. 5). When the target is not included in the outside scene image, the position detection unit 162 specifies the position of the target (the relative position between the head-mounted display device 100 and the target) using the target information acquired in step S31.

対象情報が、目標物と対象の相対位置を示すデータを含む場合、位置検出部162は、外景画像から目標物を検出し、検出した目標物と頭部装着型表示装置100との相対位置を求める。求めた相対位置と対象情報に含まれるデータとをもとに、位置検出部162は、頭部装着型表示装置100に対する対象の位置を求める。外景画像から目標物を検出する処理では、撮像画像から目標物の画像を検出する処理に用いるデータが用いられ、このデータは、例えば目標物を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量を含む。このデータは、例えば、対象情報に含まれる。位置検出部162は、外景画像の画像データから物体の画像を抽出する処理を行い、抽出した物体の画像の特徴量を算出し、算出した特徴量と、対象情報に含まれる特徴量とを比較照合する。特徴量が近い値である場合、或いは同一である場合、位置検出部162は、外景画像から抽出した画像を目標物の画像として認識する。   When the target information includes data indicating the relative position between the target and the target, the position detection unit 162 detects the target from the outside scene image, and determines the relative position between the detected target and the head-mounted display device 100. Ask. Based on the calculated relative position and the data included in the target information, the position detection unit 162 determines the position of the target with respect to the head-mounted display device 100. In the process of detecting the target from the outside scene image, data used for the process of detecting the target image from the captured image is used. For example, the data includes the color, shape, and other information of the captured image when the target is captured. Includes a feature value indicating the feature. This data is included in the target information, for example. The position detection unit 162 performs processing for extracting an object image from the image data of the outside scene image, calculates the feature amount of the extracted object image, and compares the calculated feature amount with the feature amount included in the target information Collate. When the feature values are close or the same, the position detection unit 162 recognizes the image extracted from the outside scene image as the target image.

また、ステップS31で取得した対象情報に、対象と頭部装着型表示装置100の相対位置を示すデータが含まれる場合、位置検出部162は、外景画像を用いずに対象の位置を特定してもよい。この処理は、位置検出部162が、外景画像から対象及び目標物のいずれも検出できない場合に実行してもよい。   When the target information acquired in step S31 includes data indicating the relative position of the target and the head-mounted display device 100, the position detection unit 162 specifies the target position without using the outside scene image. Also good. This process may be executed when the position detection unit 162 cannot detect both the target and the target from the outside scene image.

位置検出部162は、ステップS32で認識した対象の位置について、使用者が視認可能な位置であるか否かを判定する(ステップS33)。画像表示部20を装着する使用者は、画像表示部20を透過して外景(実空間)を視認するので、位置検出部162は、使用者が画像表示部20を透過して視認する範囲に対象があるか否かを判定する。
ここで、使用者が視認可能な範囲に対象がある場合(ステップS33;YES)、位置検出部162は、ステップS14に移行する。その後の動作は上記第1実施形態で説明した通りである。
The position detection unit 162 determines whether or not the target position recognized in step S32 is a position that can be visually recognized by the user (step S33). Since the user wearing the image display unit 20 sees the outside scene (real space) through the image display unit 20, the position detection unit 162 is within a range that the user can see through the image display unit 20. Determine whether there is a target.
Here, when there is an object in the range which can be visually recognized by the user (Step S33; YES), the position detection unit 162 proceeds to Step S14. The subsequent operation is as described in the first embodiment.

一方、使用者が視認可能な範囲に対象がない場合(ステップS33;NO)、動作処理部164は、使用者を誘導する誘導動作を実行する(ステップS34)。
制御部140がステップS34に移行する場合は、使用者が画像表示部20を透過して視認可能な範囲、すなわち、使用者の視野に対象が無い。このため、使用者が対象を見るためには、使用者自身が、移動(前進や後退など)したり、頭の向きを変えたりする必要がある。制御部140は、ステップS34の誘導動作により、対象が使用者の視野に入る状態にするために使用者が行うべき動作を、案内あるいは通知する。つまり、誘導動作は、使用者を、対象を視認できる状態に誘導するための頭部装着型表示装置100の動作である。誘導動作は、具体的には、画像の表示、テキストの表示、及び、音声の出力が挙げられ、これらを組み合わせて実行してもよい。
On the other hand, when there is no object in the range which can be visually recognized by the user (step S33; NO), the operation processing unit 164 performs a guiding operation for guiding the user (step S34).
When the control unit 140 proceeds to step S34, there is no target in the range that the user can see through the image display unit 20, that is, the user's field of view. For this reason, in order for the user to see the object, the user himself / herself needs to move (forward or backward) or change the direction of the head. The control unit 140 guides or notifies the operation to be performed by the user in order to make the target enter the user's field of view through the guidance operation in step S34. That is, the guidance operation is an operation of the head-mounted display device 100 for guiding the user to a state where the user can visually recognize the target. Specifically, the guidance operation includes image display, text display, and audio output, and these may be executed in combination.

図13は、誘導動作の具体例を示す図であり、(A)は画像による誘導動作の例を示し、(B)は画像とテキストによる誘導動作の例を示す。
図13(A)の例では、使用者の視野VRにおいて表示領域D1に誘導表示D3が表示される。表示領域D1は、上述したようにハーフミラー261A、262Aにより使用者の眼に虚像を視認させることが可能な領域である。
FIG. 13 is a diagram illustrating a specific example of the guiding operation, where (A) illustrates an example of the guiding operation using an image, and (B) illustrates an example of the guiding operation using an image and text.
In the example of FIG. 13A, the guidance display D3 is displayed in the display area D1 in the visual field VR of the user. As described above, the display area D1 is an area in which the virtual image can be visually recognized by the user's eyes by the half mirrors 261A and 262A.

図13(A)に例示する誘導表示D3は、矢印によって特定の方向を指し示す。誘導表示D3が指し示す方向は、例えば、(1)対象が位置する方向、(2)対象を視認できる状態にするために使用者が移動すべき方向、あるいは、(3)対象を視認できる状態にするために使用者が顔(頭)の向きを転回すべき方向である。誘導表示D3が指し示す方向の意味あるいは目的(例えば、上記(1)〜(3))を、誘導画像の属性と呼ぶ。
誘導表示D3の属性は、上記(1)〜(3)のどれであるか予め設定されてもよいし、誘導表示D3の表示態様により区別できるようにしてもよい。
The guidance display D3 illustrated in FIG. 13A indicates a specific direction with an arrow. The direction indicated by the guidance display D3 is, for example, (1) the direction in which the object is located, (2) the direction in which the user should move to make the object visible, or (3) the state in which the object can be visually recognized. This is the direction in which the user should turn the face (head). The meaning or purpose of the direction indicated by the guidance display D3 (for example, (1) to (3) above) is referred to as an attribute of the guidance image.
The attribute of the guidance display D3 may be set in advance as to which of the above (1) to (3), or may be distinguishable depending on the display mode of the guidance display D3.

例えば、制御部140が、誘導表示D3の表示態様を切り替えることが可能な構成であってもよい。具体的には、誘導表示D3を点滅させる表示と点滅しない表示とを切り替えてもよいし、誘導表示D3の表示色を複数の色から選択して切り替えてもよく、誘導表示D3の表示サイズを、複数段階の表示サイズから選択してもよい。
この場合、制御部140は、誘導表示D3の属性に対応して誘導表示D3の表示態様を選択できる。例えば、誘導表示D3の各々の属性に対応付けて表示態様が設定され、この設定に従って制御部140が誘導表示D3の表示態様を決定してもよい。
For example, the control unit 140 may be configured to be able to switch the display mode of the guidance display D3. Specifically, the display that blinks the guidance display D3 and the display that does not blink may be switched, or the display color of the guidance display D3 may be selected and switched from a plurality of colors, and the display size of the guidance display D3 may be changed. The display size may be selected from a plurality of stages.
In this case, the control unit 140 can select the display mode of the guidance display D3 corresponding to the attribute of the guidance display D3. For example, a display mode may be set in association with each attribute of the guidance display D3, and the control unit 140 may determine the display mode of the guidance display D3 according to this setting.

図13(B)は、制御部140が、誘導表示D3に加えてテキストを含む誘導表示D4を表示する例を示す。誘導表示D4は、誘導表示D3とともに表示領域D1に表示され、テキストによって情報を提供する。誘導表示D4の内容は任意であるが、誘導表示D3が提供する情報に関連する内容であってもよい。例えば、誘導表示D3が示す方向について、付加的な情報を誘導表示D4で提供してもよい。また、誘導表示D4の情報の内容が、誘導表示D3と同じ情報であってもよいし、誘導表示D3の情報の説明であってもよい。また、誘導表示D4の内容が、誘導表示D3を見ることなく理解可能な情報であってもよい。   FIG. 13B shows an example in which the control unit 140 displays a guidance display D4 including text in addition to the guidance display D3. The guidance display D4 is displayed in the display area D1 together with the guidance display D3, and provides information by text. The content of the guidance display D4 is arbitrary, but may be content related to information provided by the guidance display D3. For example, additional information about the direction indicated by the guidance display D3 may be provided by the guidance display D4. Further, the information content of the guidance display D4 may be the same information as the guidance display D3, or may be an explanation of the information of the guidance display D3. The contents of the guidance display D4 may be information that can be understood without looking at the guidance display D3.

誘導表示D4は、使用者に対して移動を促す内容であってもよい。例えば、「前方に1歩進んでください」、「前方に50cm進み、対象の自転車に近づいてください」等のテキストとすることができる。また、移動を促すテキストと、移動の目的や移動後の動作を説明するテキストを含んでもよい。例えば、「前方に50cm進み、対象の自転車に近づいてください。AR表示する工具が自転車のネジに重なります」等とすることができる。また、誘導表示D3の矢印を利用して、使用者の動作を促す内容であってもよく、例えば、「左の黄色の矢印方向に工具箱があります。工具箱からレンチを取り出してください」等とすることができる。   The guidance display D4 may be content that prompts the user to move. For example, the text may be “Please go forward one step” or “Go forward 50 cm and approach the target bicycle”. Moreover, the text which promotes a movement and the text explaining the objective of movement and the operation | movement after a movement may be included. For example, “Go forward 50 cm and approach the target bicycle. The AR display tool overlaps the bicycle screw”. Also, it may be content that prompts the user's action using the arrow of the guidance display D3, for example, “There is a tool box in the direction of the yellow arrow on the left. Please take out the wrench from the tool box.” It can be.

制御部140は、図13(A)、(B)に例示する誘導表示D3、D4等により、使用者に対し、AR表示の対象が表示領域D1に重なるように誘導できる。また、制御部140は、AR表示の対象が表示領域D1の中央に重なるように誘導してもよい。
また、制御部140は、誘導表示D3、D4等の誘導のための表示の表示態様を、表示領域D1とAR表示の対象との相対位置に応じて変化させてもよい。すなわち、使用者が表示領域D1を透過して視認する実空間と、対象との相対位置に応じて、表示態様を変化させてもよい。具体的には、使用者が表示領域D1を透過して視認する実空間と対象との距離を複数段階に分類し、距離が長いほど誘導表示D3や誘導表示D4の表示サイズを大きくし、距離が短いほど表示サイズを小さくしてもよい。また、距離が長い場合は誘導表示D3や誘導表示D4の表示位置を表示領域D1の中央に近い位置とし、距離が短いほど、表示位置を、AR表示の対象が位置する側に移動してもよい。
The control unit 140 can guide the user so that the target of the AR display overlaps the display area D1 with the guidance displays D3, D4, and the like illustrated in FIGS. Further, the control unit 140 may guide the AR display target so as to overlap the center of the display area D1.
In addition, the control unit 140 may change the display mode of the display for guidance, such as the guidance displays D3 and D4, according to the relative position between the display area D1 and the AR display target. That is, the display mode may be changed according to the relative position between the target and the real space that the user sees through the display area D1. Specifically, the distance between the real space that the user sees through the display area D1 and the target is classified into a plurality of stages, and the display size of the guidance display D3 and the guidance display D4 is increased as the distance is longer. The shorter the is, the smaller the display size may be. Further, when the distance is long, the display position of the guidance display D3 or the guidance display D4 is set to a position closer to the center of the display area D1, and the shorter the distance, the more the display position is moved to the side where the AR display target is located. Good.

また、制御部140は、誘導表示D3、D4に限らず、音声による誘導を組み合わせてもよい。使用者が制御装置10に対して予め設定した言語で、使用者に対し、誘導や案内に関する情報を伝える内容とすることができる。
音声により提供する具体的な内容は、例えば、誘導表示D4の内容と同様とすることができる。また、テキストを含む誘導表示や音声により、使用者に対し、立ち位置、視線、頭の向き、手の位置、持ち方等の指示を出力してもよい。たとえば、AR表示により、作業シナリオに従って作業手順の案内を行う場合に、テキストの表示や音声によって作業状態を案内する情報を提供してもよい。シナリオは、画像、テキスト及び音声の少なくともいずれかを含み、画像及び/又はテキストには表示順序が設定され、画像及び/又はテキストの表示順に対応付けて音声の出力タイミングが設定されたデータである。出力するオブジェクト(画像、テキスト、音声等)が複数ある場合に、オブジェクトを切り替えて出力してもよい。オブジェクトの出力タイミングや切り替えのタイミングは、シナリオの再生開始からの時間の経過に対応付けて設定されてもよいし、制御装置10への入力をトリガーとしてもよい。また、制御部140が右カメラ61及び左カメラ62の撮像画像を解析して、トリガーを検出してもよく、この場合はトリガーとして検出する画像の特徴量等がシナリオに含まれる。制御部140が出力する誘導表示D3、D4等の誘導用の画像やテキスト、或いは音声を、シナリオの一部に含めることも可能である。また、シナリオのデータに、AR表示の対象の特徴量等のデータを含めることも可能である。
制御部140は、シナリオのテキストや音声とともに、ステップS32で認識した対象の位置に対応して、誘導表示D3、D4等のような誘導のテキスト、音声を出力してもよい。
Moreover, the control part 140 may combine not only guidance display D3 and D4 but the guidance by an audio | voice. It is possible to use a language preset by the user with respect to the control device 10 so as to convey information related to guidance and guidance to the user.
The specific content provided by voice can be the same as the content of the guidance display D4, for example. In addition, instructions such as a standing position, a line of sight, a head orientation, a hand position, and a holding method may be output to the user by guidance display including voice and voice. For example, when the work procedure is guided according to the work scenario by AR display, information for guiding the work state may be provided by text display or voice. The scenario includes data including at least one of an image, text, and sound, a display order is set for the image and / or text, and a sound output timing is set in association with the display order of the image and / or text. . When there are a plurality of objects (images, texts, sounds, etc.) to be output, the objects may be switched and output. The output timing and switching timing of the object may be set in association with the passage of time from the start of scenario playback, or may be triggered by an input to the control device 10. Further, the control unit 140 may detect the trigger by analyzing the captured images of the right camera 61 and the left camera 62. In this case, the feature amount of the image detected as the trigger is included in the scenario. It is also possible to include guidance images such as guidance displays D3 and D4, text, or voice output by the control unit 140 as part of the scenario. Further, the scenario data can include data such as the feature amount of the AR display target.
The control unit 140 may output guidance text and voice such as guidance displays D3 and D4 corresponding to the target position recognized in step S32 together with the text and voice of the scenario.

制御部140は、誘導表示D4のように出力するテキスト、或いは出力する音声の内容を、ステップS31で取得した対象情報や、ステップS32における認識結果に基づいて、その都度、生成してもよい。また、制御部140は、予め記憶部120等に記憶したデータや外部機器OAから取得したデータに含まれるテキストから、テキストを選択し、選択したテキストを表示し、或いは音声に変換して出力してもよい。   The control unit 140 may generate the text to be output as in the guidance display D4 or the content of the audio to be output based on the target information acquired in step S31 and the recognition result in step S32 each time. In addition, the control unit 140 selects a text from data stored in the storage unit 120 or the like or data included in data acquired from the external device OA, displays the selected text, or converts it into speech and outputs it. May be.

制御部140が誘導表示において表示する誘導表示D3、D4、或いはAR表示等は、予め記憶部120等に記憶された画像データを用いて表示してもよい。この場合、例えば、対象と使用者との相対位置が短時間で大きく変化する場合に、速やかに表示を行うことができる。また、制御部140は、右カメラ61及び左カメラ62の撮像画像の一部を切り出してAR表示を行ってもよい。   The guidance display D3, D4, AR display, or the like displayed by the control unit 140 in the guidance display may be displayed using image data stored in advance in the storage unit 120 or the like. In this case, for example, when the relative position between the target and the user greatly changes in a short time, the display can be performed promptly. Further, the control unit 140 may cut out a part of the captured images of the right camera 61 and the left camera 62 and perform AR display.

また、制御部140が、誘導表示D4の表示態様を切り替え可能な構成であってもよい。例えば、誘導表示D4を点滅させる表示と点滅しない表示とを切り替えてもよいし、誘導表示D4の表示色を複数の色から選択して切り替えてもよく、誘導表示D4のフォント及び文字サイズを複数のフォント及び文字サイズから選択してもよい。   Moreover, the structure which can switch the display mode of the guidance display D4 may be sufficient as the control part 140. FIG. For example, the display that blinks the guidance display D4 and the display that does not blink may be switched, or the display color of the guidance display D4 may be selected and switched from a plurality of colors, and a plurality of fonts and character sizes of the guidance display D4 may be selected. You may select from the font and character size.

制御部140は、誘導表示D3、D4の表示態様を、上述したように誘導表示D3の属性や誘導表示D4の内容に対応して切り替えてもよい。また、誘導表示D4の内容により誘導表示D3の属性が明らかな場合、制御部140は、誘導表示D3の属性に対応する表示態様の調整を行わなくてもよい。   The control unit 140 may switch the display mode of the guidance displays D3 and D4 according to the attribute of the guidance display D3 and the content of the guidance display D4 as described above. When the attribute of the guidance display D3 is clear from the content of the guidance display D4, the control unit 140 may not adjust the display mode corresponding to the attribute of the guidance display D3.

制御部140が実行する誘導動作の内容は、図13(A)、(B)に示した例に限定されない。例えば、表示領域D1の周縁部に、通知用のマーカーを表示してもよい。マーカーは、誘導表示D3のように矢印としてもよいし、円形や多角形等の幾何学図形であってもよいし、イラスト等であってもよい。マーカーはテキストを伴ってもよいが、使用者が直感的に認識できるように、テキストを伴わない態様で表示することが好ましい。   The contents of the guidance operation executed by the control unit 140 are not limited to the examples shown in FIGS. For example, a notification marker may be displayed on the periphery of the display area D1. The marker may be an arrow as in the guidance display D3, a geometric figure such as a circle or a polygon, or an illustration. The marker may be accompanied by text, but it is preferable that the marker be displayed in a form without text so that the user can intuitively recognize it.

図14は、頭部装着型表示装置100の誘導動作の別の具体例として、マーカーによる誘導動作の例を示す。
図14の例では使用者の視野VRにおいて表示領域D1の周縁部にマーカーD6、D10が表示される。この例では、制御部140は、使用者に対して注意を促す注意情報、安全性に関係する事柄について特に強い注意または警戒を促す警戒情報、及び、シナリオに従った作業に関する作業情報を表示する。
例えば、マーカーD10は、図中左方向に関する警戒情報を示すマーカーであり、警戒情報の表示色として設定された色(例えば、赤色)で表示される。このマーカーD10の表示を開始するタイミングに同期して、制御部140は、「それ以上左方向に近づかないでください。壁にぶつかります」等のテキストを音声に変換して右イヤホン32及び左イヤホン34から出力してもよい。また、マーカーD6は、注意情報の表示色として設定された色(例えば、黄色)で表示される。マーカーD6の表示を開始するタイミングに同期して、制御部140は、「左前方に進行案内矢印が見えます。行き過ぎないようにしてください」等のテキストを音声に変換して右イヤホン32及び左イヤホン34から出力してもよい。
FIG. 14 shows an example of the guide operation by the marker as another specific example of the guide operation of the head-mounted display device 100.
In the example of FIG. 14, markers D6 and D10 are displayed on the periphery of the display area D1 in the visual field VR of the user. In this example, the control unit 140 displays caution information that calls attention to the user, caution information that particularly requires attention or warning about matters related to safety, and work information related to work according to the scenario. .
For example, the marker D10 is a marker indicating warning information regarding the left direction in the figure, and is displayed in a color (for example, red) set as a display color of the warning information. In synchronism with the timing of starting the display of the marker D10, the control unit 140 converts the text such as “Do not move further to the left. Do not hit the wall” to sound and convert the right earphone 32 and the left earphone. 34 may be output. The marker D6 is displayed in a color (for example, yellow) set as the display color of the caution information. In synchronization with the start timing of the display of the marker D6, the control unit 140 converts the text such as “You can see a progress guide arrow to the left front. You may output from the earphone 34.

また、マーカーD7はAR表示の対象の位置を示し、作業情報の表示色として設定された色(例えば、緑色)で表示される。マーカーD6の表示を開始するタイミングに同期して、制御部140は、「30メートル左前方に進んでください。対象の荷物がみえます。対象物は緑色のマーカーです。」等のテキストを音声に変換して右イヤホン32及び左イヤホン34から出力してもよい。ここで、対象そのものが表示領域D1を透過して視認できる場合、制御部140は表示領域D1にAR表示を行う。制御部140は、頭部装着型表示装置100から対象までの距離が設定された距離より遠い場合、壁や障害物のために対象を直接視認できず撮像画像から対象を検出できない場合、マーカーD7を表示する。これにより、表示領域D1に重なる位置にあって直接視認できない、或いは直接の視認が難しい対象について使用者に通知できる。   The marker D7 indicates the position of an AR display target, and is displayed in a color (for example, green) set as a display color of work information. In synchronization with the start of displaying the marker D6, the control unit 140 utters a text such as “Go ahead 30 meters to the left. You can see the target package. The target is a green marker.” You may convert and output from the right earphone 32 and the left earphone 34. FIG. Here, when the object itself is visible through the display area D1, the control unit 140 performs AR display on the display area D1. When the distance from the head-mounted display device 100 to the target is longer than the set distance, the control unit 140 cannot directly recognize the target due to a wall or an obstacle and cannot detect the target from the captured image. Is displayed. Thereby, it is possible to notify the user of an object that is in a position overlapping with the display area D1 and cannot be directly visually recognized or difficult to visually recognize directly.

マーカーD6、10等、方向を有するマーカーは、指し示す方向が特定された画像、或いはARオブジェクトとして予め記憶される。すなわち、制御部140は、指し示す方向が特定されたマーカーを表示する場合、表示する方向に対応するマーカーの画像を読み出して表示する。これらの画像は、ベクトルを有するAR表示オブジェクトということができる。図に例示した矢印の画像だけでなく、文字(テキスト)に方向を対応付けてもよい。この場合、マーカーの画像や文字を生成する場合に比べ、制御部140は、速やかにAR表示を行えるという利点がある。   Markers having directions, such as the markers D6 and D10, are stored in advance as an image or AR object in which the pointing direction is specified. That is, when displaying the marker in which the pointing direction is specified, the control unit 140 reads and displays the marker image corresponding to the display direction. These images can be referred to as AR display objects having vectors. The direction may be associated with a character (text) as well as the arrow image illustrated in the figure. In this case, compared with the case where the marker image or character is generated, the control unit 140 has an advantage that the AR display can be performed quickly.

さらに、頭部装着型表示装置100において、表示領域D1に表示するマーカーを、使用者の入力を受け付ける操作対象として利用可能な構成としてもよい。
図15は、頭部装着型表示装置100の誘導動作の別の具体例を示す図であり、(A)はマーカーを操作対象とする例を示し、(B)はマーカーに対する操作例を示し、(C)はマーカーに対する操作の別の例を示す。
Furthermore, in the head-mounted display device 100, the marker displayed in the display area D1 may be configured to be usable as an operation target that receives user input.
FIG. 15 is a diagram illustrating another specific example of the guiding operation of the head-mounted display device 100, (A) illustrates an example in which a marker is an operation target, (B) illustrates an operation example with respect to the marker, (C) shows another example of the operation for the marker.

図15(A)では表示領域D1にマーカーD11が表示される。制御部140は、マーカーD11に対する操作を検出すると、例えばテキスト情報D12を表示し、出力する。テキスト情報D12は天気予報であり、制御部140が、通信部117等により取得する。
また、図15(B)では、表示領域D1に、マーカーD6、及びマーカーD13が表示される。マーカーD6は図14で説明したように、例えば注意情報として表示される。これに対し、マーカーD13は操作の対象であり、マーカーD13が操作されると、例えばプルダウンメニューD14が表示される。
In FIG. 15A, a marker D11 is displayed in the display area D1. When the control unit 140 detects an operation on the marker D11, for example, the control unit 140 displays and outputs text information D12. The text information D12 is a weather forecast, and is acquired by the control unit 140 using the communication unit 117 or the like.
In FIG. 15B, a marker D6 and a marker D13 are displayed in the display area D1. The marker D6 is displayed, for example, as caution information as described with reference to FIG. On the other hand, the marker D13 is an operation target, and when the marker D13 is operated, for example, a pull-down menu D14 is displayed.

マーカーD13を選択する操作は、例えば、使用者が指示の音声を発話し、この音声を、マイク63が集音した音声の中から制御部140が検出することで、行われる。また、使用者が頭を動かすことでマーカーを選択できる構成としてもよい。制御部140は、9軸センサー66により、画像表示部20を装着した使用者の頭部の動きを検出して、検出した動きに対応する位置に表示されるマーカーを選択する。図15(B)の例では、使用者が頭を右上に動かす動作を行うことで、表示領域D1の右上に表示されたマーカーD13が選択される。また、プルダウンメニューD14に表示される項目(図15(B)の例では四項目)から1つの項目を選択する操作も、音声、或いは頭部の動きで行える。また、頭部装着型表示装置100が、使用者の身体の動きを検出するセンサーを有する場合、頭だけでなく、使用者の身体の動きを操作として検出してもよい。
マーカーD13等の操作対象のマーカーは、警戒情報、注意情報、或いは作業情報を示すマーカーと同時に表示することができ、例えば図15(B)の例ではマーカーD6と同時に表示される。この場合、操作対象のマーカーの表示色は、警戒情報、注意情報、或いは作業情報を示すマーカーとは異なる表示色とすることが好ましい。この場合、使用者は、マーカーの色により、警戒情報、注意情報、或いは作業情報のマーカーと、操作対象のマーカーとを容易に識別できる。
The operation of selecting the marker D13 is performed, for example, when the user speaks an instruction voice and the control unit 140 detects the voice from the voice collected by the microphone 63. Moreover, it is good also as a structure which a user can select a marker by moving a head. The control unit 140 detects the movement of the head of the user wearing the image display unit 20 by the 9-axis sensor 66 and selects a marker displayed at a position corresponding to the detected movement. In the example of FIG. 15B, the marker D13 displayed on the upper right of the display area D1 is selected by the user moving the head to the upper right. Further, an operation for selecting one item from the items displayed on the pull-down menu D14 (four items in the example of FIG. 15B) can also be performed by voice or head movement. When the head-mounted display device 100 includes a sensor that detects the movement of the user's body, not only the head but also the movement of the user's body may be detected as an operation.
The marker to be operated such as the marker D13 can be displayed simultaneously with the marker indicating the warning information, the caution information, or the work information. For example, in the example of FIG. 15B, the marker is displayed simultaneously with the marker D6. In this case, the display color of the marker to be operated is preferably set to a display color different from the marker indicating the warning information, the attention information, or the work information. In this case, the user can easily identify the marker of the warning information, the attention information, or the work information and the marker to be operated by the color of the marker.

また、制御部140は表示領域D1に、捜査対象のマーカーを複数表示する構成としてもよい。この場合、表示された複数のマーカーの中から、使用者が音声により一つのマーカーを選択することができる。音声による選択方法は、マーカーの色、形状、位置などマーカーの属性を指定する語を発話すればよく、このため、表示領域D1に同時に表示される複数のマーカーは、それぞれ属性が異なることが好ましい。例えば、表示色が赤、青、黄色など異なる色のマーカーが表示された状態で、使用者がマーカーの色を指定する語を発話すれば、発話された語に該当するマーカーが選択される。   In addition, the control unit 140 may be configured to display a plurality of markers to be investigated in the display area D1. In this case, the user can select one marker by voice from a plurality of displayed markers. The selection method by voice only needs to utter words that specify the marker attributes such as the color, shape, and position of the markers. For this reason, it is preferable that the plurality of markers displayed simultaneously in the display area D1 have different attributes. . For example, if the user speaks a word that specifies the color of the marker in a state where markers of different colors such as red, blue, and yellow are displayed, the marker corresponding to the spoken word is selected.

さらに、図15(C)には、複数のマーカーD21、D22、D23、D24を利用して方向指示操作を行う例を示す。図15(C)の例では上下左右の方向指示に対応するキー画像D20が表示され、指示方向に対応する位置にマーカーD21、D22、D23、D24が配置される。マーカーD21、D22、D23、D24は、それぞれ、目視により区別可能な属性を有し、例えば、表示色が赤、青、黄色など異なる色となっている。
使用者が音声でマーカーの属性を指定する語(例えば、表示色を指定する赤、青、黄色などの語)を発話すると、制御部140は、マーカーD21、D22、D23、D24から該当するマーカーを選択する。制御部140は、選択したマーカーに対応する方向に、方向を指示する操作が行われたと判定する。つまり、マーカーD21、D22、D23、D24のいずれかを選択することで、選択したマーカーに対応する方向の指示を行える。これにより、実質的に、キー画像D20のような十字キーのハードウェアを操作するように、ハンズフリーで音声による操作を行うことが可能となる。
Further, FIG. 15C shows an example in which a direction instruction operation is performed using a plurality of markers D21, D22, D23, and D24. In the example of FIG. 15C, a key image D20 corresponding to the up / down / left / right direction instruction is displayed, and markers D21, D22, D23, and D24 are arranged at positions corresponding to the instruction direction. Each of the markers D21, D22, D23, and D24 has an attribute that can be visually discriminated. For example, the display colors are different colors such as red, blue, and yellow.
When the user utters a word that specifies a marker attribute by voice (for example, a word such as red, blue, or yellow that specifies a display color), the control unit 140 selects the corresponding marker from the markers D21, D22, D23, and D24. Select. The control unit 140 determines that an operation for instructing the direction has been performed in the direction corresponding to the selected marker. That is, by selecting any of the markers D21, D22, D23, and D24, it is possible to instruct the direction corresponding to the selected marker. Thereby, it becomes possible to perform a voice-free operation in a hands-free manner so that the hardware of the cross key such as the key image D20 is substantially operated.

制御部140は、例えば、キー画像D20により特定の方向(例えば右方向)が指示された場合に、AR表示の表示態様を、近位置作業用の表示に切り替える。 画像表示部20は、外景を透過可能なハーフミラー261A、262Aによって使用者の眼に虚像を形成する構成である。このため、人間の視覚特性により、画像表示部20を装着する使用者には、表示領域D1に表示するオブジェクトの大きさが、画像表示部20を透過して視認する外景までの距離に応じた大きさに見える。頭部装着型表示装置100では、デフォルト(初期)の設定で、使用者が、実空間において画像表示部20から4m離れた位置を注目する場合に合わせて表示する。   For example, when a specific direction (for example, right direction) is instructed by the key image D20, the control unit 140 switches the display mode of the AR display to the display for near-position work. The image display unit 20 is configured to form a virtual image on the user's eyes by half mirrors 261A and 262A that can transmit the outside scene. For this reason, the size of the object displayed in the display area D1 depends on the distance to the outside scene that is visible through the image display unit 20 for the user wearing the image display unit 20 due to human visual characteristics. Looks like size. In the head-mounted display device 100, the default (initial) setting is displayed in accordance with a case where the user pays attention to a position 4 m away from the image display unit 20 in the real space.

具体的には、制御部140は、表示領域D1におけるAR画像(マーカー等のオブジェクトを含む)の表示位置を、使用者が4m先の位置に注目する場合の両眼の輻輳角に合わせた位置とする。輻輳角は、図3(B)に示す対象OBに注目する場合の、右眼REと対象OBとを結ぶ直線と左眼LEと対象OBとを結ぶ直線とがなす角度をいう。輻輳角の大きさは使用者が注視する距離(対象OBまでの距離)に対応して変化する。使用者が注視する距離が4mより短い場合、両眼の輻輳角は、デフォルトの設定が想定する輻輳角よりも大きくなる。この場合、制御部140は、ハーフミラー261A、262Aにおける画像の表示位置を画像表示部20の中央寄り、すなわち鼻側に移動させる。また、使用者が注視する距離が4mより長い場合、両眼の輻輳角は、デフォルトの設定が想定する輻輳角よりも小さくなる。この場合、制御部140は、ハーフミラー261A、262Aにおける画像の表示位置を画像表示部20の端寄りの位置、すなわち耳側に移動させる。図15(C)のキー画像D20の操作を、輻輳角の調整に対応させることができる。制御部140は、キー画像D20の特定の方向が指示された場合に、輻輳角が大きくなるように、表示領域D1における表示位置を鼻側に移動させる。これにより、使用者が、手元など近い位置に注視して作業を行う場合に適した表示を行える。また、キー画像D20において上記特定の方向の反対側が指示された場合、制御部140は、輻輳角が小さくなるように、表示領域D1における表示位置を耳側に移動させる。これにより、使用者が、遠方を注視して作業を行う場合に適した表示を行える。この例では、使用者は、ハンズフリーの操作によって、作業対象までの距離に適した表示位置の調整を行うことができる。   Specifically, the control unit 140 adjusts the display position of the AR image (including an object such as a marker) in the display area D1 to the convergence angle of both eyes when the user pays attention to the position 4 m ahead. And The convergence angle refers to an angle formed by a straight line connecting the right eye RE and the target OB and a straight line connecting the left eye LE and the target OB when paying attention to the target OB shown in FIG. The magnitude of the convergence angle changes corresponding to the distance (distance to the target OB) that the user gazes at. When the distance that the user gazes is shorter than 4 m, the convergence angle of both eyes is larger than the convergence angle assumed by the default setting. In this case, the control unit 140 moves the image display position on the half mirrors 261A and 262A toward the center of the image display unit 20, that is, the nose side. Further, when the distance that the user gazes is longer than 4 m, the convergence angle of both eyes is smaller than the convergence angle assumed by the default setting. In this case, the control unit 140 moves the image display position on the half mirrors 261A and 262A to a position closer to the end of the image display unit 20, that is, the ear side. The operation of the key image D20 in FIG. 15C can be made to correspond to the adjustment of the convergence angle. When the specific direction of the key image D20 is instructed, the control unit 140 moves the display position in the display area D1 to the nose side so that the convergence angle is increased. Thereby, a display suitable for the case where the user performs work while paying attention to a close position such as a hand can be performed. Further, when the opposite side of the specific direction is instructed in the key image D20, the control unit 140 moves the display position in the display area D1 to the ear side so that the convergence angle becomes small. Thereby, a display suitable for the case where the user performs work while gazing at a distant place can be performed. In this example, the user can adjust the display position suitable for the distance to the work target by a hands-free operation.

[第3実施形態]
図16は、第3実施形態における頭部装着型表示装置100の動作を示すフローチャートである。
第3実施形態の頭部装着型表示装置100の構成は、上記第1実施形態で図1〜図4を参照して説明した構成と共通であるため、図示及び説明を省略する。
この第3実施形態で、頭部装着型表示装置100は、ARコンテンツの表示中に使用者の視線が移動したことを検出し、視線の移動に合わせて表示位置を変更する。
[Third Embodiment]
FIG. 16 is a flowchart showing the operation of the head-mounted display device 100 according to the third embodiment.
Since the configuration of the head-mounted display device 100 of the third embodiment is the same as the configuration described with reference to FIGS. 1 to 4 in the first embodiment, illustration and description are omitted.
In the third embodiment, the head-mounted display device 100 detects that the user's line of sight has moved while the AR content is being displayed, and changes the display position in accordance with the movement of the line of sight.

使用者が頭部装着型表示装置100を装着し、操作部135の操作によりARコンテンツの表示が指示されると、制御部140は、表示に係る動作を開始する(ステップS11)。
制御部140は、画像取得部161により、外景画像取得処理を実行する(ステップS12)。外景画像取得処理は、上述した第1〜第3の態様で実行できる。
When the user wears the head-mounted display device 100 and the display of the AR content is instructed by the operation of the operation unit 135, the control unit 140 starts an operation related to the display (step S11).
The controller 140 causes the image acquisition unit 161 to execute an outside scene image acquisition process (step S12). The outside scene image acquisition process can be executed in the first to third modes described above.

画像取得部161が外景画像取得処理で外景画像を取得した後、動作処理部164は、視線センサー68によって使用者の視線を検出する(ステップS41)。動作処理部164は、検出した視線に基づき、表示領域において使用者が注視する方向を特定し、外景画像から、注視方向に対応する部分を切り出す処理を行う(ステップS42)。   After the image acquisition unit 161 acquires the outside scene image by the outside scene image acquisition process, the operation processing unit 164 detects the user's line of sight using the line-of-sight sensor 68 (step S41). Based on the detected line of sight, the motion processing unit 164 identifies a direction in which the user is gazing in the display area, and performs a process of cutting out a portion corresponding to the gazing direction from the outside scene image (step S42).

動作処理部164は、ステップS41において、視線センサー68を使用して使用者の視線を検出し、画像表示部20を基準として使用者が注視する方向を特定する。この場合の基準は、画像表示部20の右光学像表示部26と左光学像表示部28との中央位置や、ハーフミラー261A、262Aの中心等とすることができる。
ステップS42において、動作処理部164は、画像取得部161がステップS12で取得した外景画像と、使用者が画像表示部20を透過して視認する実際の外景との対応を特定する。画像取得部161が取得する外景画像は、使用者が視認する実際の外景を含み、これに加えて、使用者が視認できない範囲の外景の画像を含む。動作処理部164は、ステップS12の外景画像取得処理が第1の態様(図6)または第2の態様(図7、図8)で実行された場合は、右カメラ61及び左カメラ62の画角に基づき、使用者が視認する外景と外景画像との相対位置を求める。また、外景画像取得処理が第3の態様(図9)で実行された場合、動作処理部164は、外部機器から外景画像を受信する際に検出した画像表示部20の位置や方向に基づき、使用者が視認する外景と外景画像との相対位置を求める。この相対位置をもとに、動作処理部164は、外景画像において使用者の視線方向に重なる位置、すなわち注視点を特定する。
In step S <b> 41, the motion processing unit 164 detects the user's line of sight using the line-of-sight sensor 68, and specifies the direction in which the user is gazing with the image display unit 20 as a reference. The reference in this case can be the center position of the right optical image display unit 26 and the left optical image display unit 28 of the image display unit 20, the center of the half mirrors 261A, 262A, or the like.
In step S <b> 42, the motion processing unit 164 identifies the correspondence between the outside scene image acquired by the image acquisition unit 161 in step S <b> 12 and the actual outside scene that the user views through the image display unit 20. The outside scene image acquired by the image acquisition unit 161 includes an actual outside scene visually recognized by the user, and additionally includes an outside scene image in a range that cannot be visually recognized by the user. When the outside scene image acquisition processing in step S12 is executed in the first mode (FIG. 6) or the second mode (FIGS. 7 and 8), the motion processing unit 164 displays the images of the right camera 61 and the left camera 62. Based on the corner, the relative position between the outside scene visually recognized by the user and the outside scene image is obtained. When the outside scene image acquisition process is executed in the third mode (FIG. 9), the operation processing unit 164 is based on the position and direction of the image display unit 20 detected when receiving the outside scene image from the external device. The relative position between the outside scene visually recognized by the user and the outside scene image is obtained. Based on this relative position, the motion processing unit 164 identifies a position that overlaps the user's line-of-sight direction in the outside scene image, that is, a gaze point.

図17は、第3実施形態における表示例を示す図であり、(A)は使用者の視野VRを示し、(B)は外景画像の例を示し、(C)は視線方向に対応した表示例を示す。
図17(A)、(C)は使用者の右眼の視野VRの例を示しており、使用者の左眼の視野は図17(A)、(C)と同一または左右対称であるため図示を省略する。視野VRのうちハーフミラー261Aに相当する領域として表示領域D1を示す。
図17(A)の例では視野VRに自転車が見えているが、この自転車は画像表示部20の外側に置かれている実物の自転車である。つまり、使用者は、右光学像表示部26を透過して、外景の自転車を視認する。
FIG. 17 is a diagram showing a display example in the third embodiment, where (A) shows a user's visual field VR, (B) shows an example of an outside scene image, and (C) shows a table corresponding to the line-of-sight direction. An example is shown.
FIGS. 17A and 17C show examples of the visual field VR of the user's right eye, and the visual field of the user's left eye is the same as or symmetrical with FIGS. 17A and 17C. Illustration is omitted. A display area D1 is shown as an area corresponding to the half mirror 261A in the visual field VR.
In the example of FIG. 17A, a bicycle is visible in the field of view VR, but this bicycle is a real bicycle placed outside the image display unit 20. That is, the user views the bicycle in the outside scene through the right optical image display unit 26.

動作処理部164は、図17(B)に示すように、使用者の視線方向に対応する外景画像中の位置を特定し、この位置を注視点VPOとする。さらに、動作処理部164は、注視点VPOを中心とする矩形の部分P3を、外景画像から切り出す処理を行う。部分P3のサイズは、右LCD241及び左LCD242の表示解像度等に合わせて予め設定される。   As illustrated in FIG. 17B, the motion processing unit 164 identifies a position in the outside scene image corresponding to the user's line-of-sight direction, and sets this position as the gazing point VPO. Further, the operation processing unit 164 performs processing for cutting out a rectangular portion P3 centered on the gazing point VPO from the outside scene image. The size of the portion P3 is set in advance according to the display resolution of the right LCD 241 and the left LCD 242.

ステップS42で動作処理部164が切り出す画像について、表示位置制御部165は、表示位置及びサイズを決定する(ステップS43)。続いて、動作処理部164は、表示の輝度の調整を行い、ステップS43で決定した位置及びサイズに従って、ステップS42で切り出した外景画像を表示する(ステップS44)。
外景画像の表示例を図17(C)に示す。視野VRには、注視点VPOを中心とした画像が、ハーフミラー261Aの位置に表示される。ハーフミラー261Aの表示画像は、外景の一部の表示位置をずらしたような表示となっており、使用者は、自分が見たい位置の外景を、見やすい位置にシフトした状態で視認できる。
表示輝度を調整すると、外景画像から切り出した画像と、実際の外景との視認性を調整できる。ハーフミラー261A、262Aが使用者の眼に入射させる画像光の光量が多いほど、ハーフミラー261A、262Aを透過する外光の光量が相対的に小さくなるので、実際の外景が見えにくくなる。言い換えれば、画像表示部20の表示画像の輝度が高いと、表示画像の視認性が高く、実際の外景の視認性が低い。反対に、画像表示部20の表示画像の輝度を低くすれば、表示画像の視認性が低くなり、実際の外景の視認性が高くなる。この第3実施形態で表示する画像は外景画像であるから、実際の外景と似ている。このため、輝度を高くすれば、表示される外景画像と実際の外景とを混同しにくくなるという利点がある。一方、表示画像の輝度を低くすれば、外景の視認性を確保して画像を表示できるという利点がある。
The display position control unit 165 determines the display position and size of the image cut out by the operation processing unit 164 in step S42 (step S43). Subsequently, the operation processing unit 164 adjusts the display brightness, and displays the outside scene image cut out in step S42 according to the position and size determined in step S43 (step S44).
A display example of the outside scene image is shown in FIG. In the visual field VR, an image centered on the gazing point VPO is displayed at the position of the half mirror 261A. The display image of the half mirror 261A is a display in which the display position of a part of the outside scene is shifted, and the user can visually recognize the outside scene at the position he / she wants to see in a state where the outside scene is shifted to an easily viewable position.
When the display brightness is adjusted, the visibility between the image cut out from the outside scene image and the actual outside scene can be adjusted. As the amount of image light incident on the user's eyes by the half mirrors 261A and 262A increases, the amount of external light transmitted through the half mirrors 261A and 262A becomes relatively small, so that the actual outside scene becomes difficult to see. In other words, when the brightness of the display image of the image display unit 20 is high, the visibility of the display image is high and the visibility of the actual outside scene is low. On the contrary, if the brightness of the display image of the image display unit 20 is lowered, the visibility of the display image is lowered and the visibility of the actual outside scene is enhanced. Since the image displayed in the third embodiment is an outside scene image, it is similar to an actual outside scene. For this reason, if the brightness is increased, there is an advantage that it is difficult to confuse the displayed outside scene image with the actual outside scene. On the other hand, if the brightness of the display image is lowered, there is an advantage that the image can be displayed while ensuring the visibility of the outside scene.

ステップS44で外景画像の表示を開始した後、動作処理部164は、視線センサー68による視線の検出を行い、視線の移動があったか否かを判定する(ステップS45)。すなわち、動作処理部164は、使用者の視線方向が、前回検出した視線方向から、予め設定されたしきい値を超えて変化したか否かを判定する。
視線の移動がないと判定した場合(ステップS45;NO)、動作処理部164は、視線センサー68による視線検出とステップS45の判定を、所定時間ごとに繰り返し実行する。そして、視線の移動があったと判定した場合(ステップS45;YES)、動作処理部164は、移動後の視線に基づき注視点の位置を特定し、特定した注視点に対応する部分を、ステップS12で取得した外景画像から切り出す(ステップS46)。
After starting the display of the outside scene image at step S44, the motion processing unit 164 detects the line of sight by the line-of-sight sensor 68 and determines whether or not the line of sight has moved (step S45). That is, the operation processing unit 164 determines whether or not the user's gaze direction has changed from a previously detected gaze direction exceeding a preset threshold value.
When it is determined that there is no movement of the line of sight (step S45; NO), the operation processing unit 164 repeatedly performs the line-of-sight detection by the line-of-sight sensor 68 and the determination of step S45 at predetermined time intervals. If it is determined that the line of sight has moved (step S45; YES), the motion processing unit 164 identifies the position of the point of gaze based on the line of sight after the movement, and the portion corresponding to the identified point of gaze is determined in step S12. It cuts out from the outside scene image acquired by (step S46).

表示位置制御部165は、ステップS46で動作処理部164が切り出す外景画像について、表示位置及びサイズを決定する(ステップS47)。動作処理部164は、ステップS47で決定した位置及びサイズに従って、表示中の画像を、ステップS46で切り出した外景画像に更新する(ステップS48)。   The display position control unit 165 determines the display position and size of the outside scene image cut out by the motion processing unit 164 in step S46 (step S47). The motion processing unit 164 updates the displayed image to the outside scene image cut out in step S46 according to the position and size determined in step S47 (step S48).

その後、動作処理部164は、表示終了の条件が成立しているか否かを判定し(ステップS49)、表示終了の条件が成立していない場合は(ステップS49;NO)、ステップS45に戻る。また、表示終了の条件が成立した場合(ステップS49;YES)、ARコンテンツの表示を停止する。表示終了の条件は、例えば、操作部135による終了の指示があること、ARコンテンツの表示が完了したこと、等である。   Thereafter, the operation processing unit 164 determines whether or not the display end condition is satisfied (step S49). If the display end condition is not satisfied (step S49; NO), the process returns to step S45. If the display end condition is satisfied (step S49; YES), the display of the AR content is stopped. The display end condition is, for example, that the operation unit 135 has been instructed to end, or that the AR content display has been completed.

このように、第3実施形態において、頭部装着型表示装置100の制御部140は、画像取得部161が取得する外景画像の一部領域を画像表示部20に表示し、視線センサー68が検出する使用者の視線の方向に対応して、外景画像において画像表示部20に表示する一部領域の位置を変化させる。このため、使用者の視線に対応させて、外景画像を表示するので、使用者が視認する外景と表示画像との不整合を防ぎ、外景画像を使用者に視認させることができる。また、使用者の視線の変化に追従するように、外景画像の表示が変化するので、使用者には、外景が視線に合わせて移動するように見える。また、外景画像が使用者の視界より大きい範囲を含む場合、使用者には、視認できる範囲が拡大したように見える。このように、使用者の視線に合わせて、擬似的な外景を表示し、擬似的な外景の位置を変化させることで、外景の視認性に関する新たな操作感を提供できる。
また、動作処理部164は、画像表示部20で表示する外景画像の表示輝度を調整し、実際の外景よりも表示画像が明瞭に視認できるようにすることができる。これにより、実際の外景と外景画像を混同することがなく、使用者を外景画像に注目させることができ、擬似的な外景を表示することの効果を、より顕著にすることができる。
As described above, in the third embodiment, the control unit 140 of the head-mounted display device 100 displays a partial area of the outside scene image acquired by the image acquisition unit 161 on the image display unit 20 and is detected by the line-of-sight sensor 68. The position of the partial area displayed on the image display unit 20 in the outside scene image is changed corresponding to the direction of the user's line of sight. For this reason, since the outside scene image is displayed in correspondence with the line of sight of the user, inconsistency between the outside scene visually recognized by the user and the display image can be prevented, and the outside scene image can be visually recognized by the user. In addition, since the display of the outside scene image changes so as to follow the change in the user's line of sight, it appears to the user that the outside scene moves according to the line of sight. Further, when the outside scene image includes a range larger than the user's field of view, it seems to the user that the visible range is enlarged. In this way, by displaying the pseudo outside scene in accordance with the user's line of sight and changing the position of the pseudo outside scene, it is possible to provide a new operational feeling related to the visibility of the outside scene.
In addition, the operation processing unit 164 can adjust the display brightness of the outside scene image displayed on the image display unit 20 so that the display image can be visually recognized more clearly than the actual outside scene. Accordingly, the actual outside scene and the outside scene image are not confused, the user can be focused on the outside scene image, and the effect of displaying the pseudo outside scene can be made more remarkable.

[第4実施形態]
図18は、第4実施形態に係る頭部装着型表示装置100Aを構成する各部の機能ブロック図である。
頭部装着型表示装置100Aは、右透明LCD271及び左透明LCD272を備える点を除き、第1実施形態の頭部装着型表示装置100と共通の構成を有する。この共通の構成部については、同符号を付して説明を省略する。
[Fourth Embodiment]
FIG. 18 is a functional block diagram of each part constituting the head-mounted display device 100A according to the fourth embodiment.
The head-mounted display device 100A has the same configuration as the head-mounted display device 100 of the first embodiment, except that the head-mounted display device 100A includes a right transparent LCD 271 and a left transparent LCD 272. About this common structural part, the same code | symbol is attached | subjected and description is abbreviate | omitted.

詳細には、頭部装着型表示装置100Aは、画像表示部20Bに、右透明LCD271を有する右表示駆動部22Aと、左透明LCD272を有する左表示駆動部24Aとを備える。右表示駆動部22Aは、上述した右表示駆動部22に、透過型液晶表示パネルで構成される右透明LCD271を設け、右透明LCD271を右LCD制御部211で駆動する構成である。また、左表示駆動部24Aは、上述した左表示駆動部24に、透過型液晶表示パネルで構成される左透明LCD272を設け、左透明LCD272を左LCD制御部212で駆動する構成である。   Specifically, the head-mounted display device 100A includes a right display driving unit 22A having a right transparent LCD 271 and a left display driving unit 24A having a left transparent LCD 272 in the image display unit 20B. The right display driving unit 22A is configured such that the right display driving unit 22 is provided with a right transparent LCD 271 configured by a transmissive liquid crystal display panel, and the right transparent LCD 271 is driven by the right LCD control unit 211. Further, the left display driving unit 24A is configured such that the left display driving unit 24 is provided with a left transparent LCD 272 configured by a transmissive liquid crystal display panel, and the left transparent LCD 272 is driven by the left LCD control unit 212.

右LCD制御部211が右透明LCD271を駆動して表示する画像のデータ、及び、左LCD制御部212が左透明LCD272を駆動して表示する画像のデータは、画像処理部160から、送信部51及び受信部53を介して送信される。   The image data displayed by the right LCD control unit 211 driving the right transparent LCD 271 and the image data displayed by the left LCD control unit 212 driving the left transparent LCD 272 are transmitted from the image processing unit 160 to the transmission unit 51. And transmitted via the receiving unit 53.

図19は、画像表示部20Bが備える光学系の構成を示す要部平面図であり、説明のため使用者の左眼LE及び右眼REを図示する。
図19に示すように、右透明LCD271は、右導光板261と調光板20Aとの間に配置される。右透明LCD271は、右導光板261の、使用者の眼の側とは反対の側である画像表示部20Bの表側を覆うように配置される。右透明LCD271は光透過性を有し、調光板20Aを透過する外光OLを、さらに右導光板261側に透過させる。
また、左透明LCD272は、左導光板262と調光板20Aとの間に配置される。すなわち、左透明LCD272は、左導光板262の、使用者の眼の側とは反対側である画像表示部20Bの表側を覆うように配置される。左透明LCD272は光透過性を有し、調光板20Aを透過する外光OLを、さらに左導光板262側に透過させる。
FIG. 19 is a principal plan view showing the configuration of the optical system provided in the image display unit 20B, and illustrates the left eye LE and the right eye RE of the user for explanation.
As shown in FIG. 19, the right transparent LCD 271 is disposed between the right light guide plate 261 and the light control plate 20A. The right transparent LCD 271 is disposed so as to cover the front side of the image display unit 20B, which is the side of the right light guide plate 261 opposite to the user's eye side. The right transparent LCD 271 has light transmittance, and further transmits the external light OL transmitted through the light control plate 20A to the right light guide plate 261 side.
The left transparent LCD 272 is disposed between the left light guide plate 262 and the light control plate 20A. That is, the left transparent LCD 272 is disposed so as to cover the front side of the image display unit 20B that is the opposite side of the left light guide plate 262 from the user's eye side. The left transparent LCD 272 is light transmissive, and further transmits external light OL transmitted through the light control plate 20A to the left light guide plate 262 side.

右透明LCD271、左透明LCD272の光透過性は制限されないが、右透明LCD271及び左透明LCD272の表示を視認可能な程度の光量の外光OLを透過することが好ましい。また、右透明LCD271及び左透明LCD272を透過して、外景を視認できることは要求されない。   The light transparency of the right transparent LCD 271 and the left transparent LCD 272 is not limited, but it is preferable to transmit the external light OL with a light amount that allows the right transparent LCD 271 and the left transparent LCD 272 to be visually recognized. Further, it is not required that the outside scene can be seen through the right transparent LCD 271 and the left transparent LCD 272.

図20は、頭部装着型表示装置100Aの動作を示すフローチャートである。また、図21は、頭部装着型表示装置100Aの表示例を示す図であり、(A)は右透明LCD271、左透明LCD272の表示の例を示し、(B)はハーフミラー261A、262Aによる表示の例を示す。(C)は右導光板261、左導光板262、右透明LCD271及び左透明LCD272の表示が重なった状態を示す。
図21(A)、(B)、(C)の各図には使用者の右眼に対応する右透明LCD271及び視野VRの例を示す。使用者の左眼に対応する表示例は図21(A)〜(C)と同一の表示、または、表示位置が左右対称な同内容の表示となるため図示を省略する。
FIG. 20 is a flowchart showing the operation of the head-mounted display device 100A. FIG. 21 is a diagram showing a display example of the head-mounted display device 100A, where (A) shows an example of display on the right transparent LCD 271 and the left transparent LCD 272, and (B) is shown by the half mirrors 261A and 262A. An example of display is shown. (C) shows a state in which the display of the right light guide plate 261, the left light guide plate 262, the right transparent LCD 271 and the left transparent LCD 272 are overlapped.
21A, 21B, and 21C show examples of the right transparent LCD 271 and the visual field VR corresponding to the right eye of the user. Since the display example corresponding to the left eye of the user is the same display as that shown in FIGS. 21A to 21C, or the display content is symmetrical and the display content is the same, the illustration is omitted.

使用者が頭部装着型表示装置100Aを装着し(ステップS61)、操作部135の操作によりARコンテンツの表示が指示されると、動作処理部164は、外景画像を取得する処理を実行する(ステップS62)。ステップS62の動作は、上述した第1実施形態の図5のステップS12に示した動作と同様である。   When the user wears the head-mounted display device 100A (step S61) and the display of the AR content is instructed by the operation of the operation unit 135, the operation processing unit 164 executes a process of acquiring an outside scene image ( Step S62). The operation in step S62 is the same as the operation shown in step S12 in FIG. 5 of the first embodiment described above.

動作処理部164は、視線センサー68によって使用者の視線を検出する(ステップS63)。動作処理部164は、検出した視線に基づき、表示領域において使用者が注視する方向を特定し、外景画像から、注視方向に対応する部分を切り出す処理を行う(ステップS64)。   The motion processing unit 164 detects the user's line of sight with the line-of-sight sensor 68 (step S63). Based on the detected line of sight, the operation processing unit 164 identifies the direction in which the user is gazing in the display area, and performs a process of cutting out a portion corresponding to the gazing direction from the outside scene image (step S64).

動作処理部164は、ステップS64において、視線センサー68を使用して使用者の視線を検出し、画像表示部20を基準として使用者が注視する方向を特定する。この場合の基準は、画像表示部20の右光学像表示部26と左光学像表示部28との中央位置や、ハーフミラー261A、262Aの中心等とすることができる。そして、動作処理部164は、外景画像と、使用者の視線方向との対応付けを行い、外景画像において使用者の視線方向に重なる位置、すなわち注視点を特定する。   In step S <b> 64, the motion processing unit 164 detects the user's line of sight using the line-of-sight sensor 68, and specifies the direction in which the user is gazing with the image display unit 20 as a reference. The reference in this case can be the center position of the right optical image display unit 26 and the left optical image display unit 28 of the image display unit 20, the center of the half mirrors 261A, 262A, or the like. Then, the motion processing unit 164 associates the outside scene image with the user's line-of-sight direction, and identifies a position that overlaps the user's line-of-sight direction in the outside scene image, that is, a gaze point.

動作処理部164は、注視点を基準として外景画像から切り出した画像を、右表示駆動部22A、左表示駆動部24Aにより表示し(ステップS65)、続いて、外景画像を右透明LCD271、左透明LCD272により表示する(ステップS66)。   The motion processing unit 164 displays an image cut out from the outside scene image with the gazing point as a reference by the right display driving unit 22A and the left display driving unit 24A (step S65), and then the outside scene image is displayed on the right transparent LCD 271 and the left transparent image. The image is displayed on the LCD 272 (step S66).

図21(A)には右透明LCD271の表示領域を符号D5で示す。表示領域D5には外景画像が表示される。この外景画像は画像表示部20を装着した使用者が、同じ位置および同じ向きにおいて画像表示部20を装着しない場合に視認できる外景を含む。頭部装着型表示装置100Aでは右透明LCD271、左透明LCD272があるため、使用者の眼に入射する外光OLは外景を明瞭に視認できる程度の光量を有さない可能性がある。そこで、右透明LCD271、272に外景画像を表示し、使用者が外景を認識できるようにする。但し、表示領域D5では、図21(B)に示す表示領域D1に重なる位置に表示をしないことが望ましい。ハーフミラー261A、262Aは右透明LCD271及び左透明LCD272の画像光を透過するので、ハーフミラー261A、262Aの表示画像の視認性を確保するためには、右透明LCD271及び左透明LCD272の表示画像がハーフミラー261A、262Aを避けた範囲であることが好ましい。図21(A)の表示領域D5はハーフミラー261Aでは表示をしない構成となっている。   In FIG. 21A, the display area of the right transparent LCD 271 is denoted by reference numeral D5. An outside scene image is displayed in the display area D5. The outside scene image includes an outside scene that can be visually recognized by a user wearing the image display unit 20 when the user does not wear the image display unit 20 at the same position and orientation. Since the head-mounted display device 100A includes the right transparent LCD 271 and the left transparent LCD 272, there is a possibility that the external light OL incident on the user's eyes does not have an amount of light that can clearly see the outside scene. Therefore, an outside scene image is displayed on the right transparent LCDs 271 and 272 so that the user can recognize the outside scene. However, in the display area D5, it is desirable not to display at a position overlapping the display area D1 shown in FIG. Since the half mirrors 261A and 262A transmit the image light of the right transparent LCD 271 and the left transparent LCD 272, in order to ensure the visibility of the display images of the half mirrors 261A and 262A, the display images of the right transparent LCD 271 and the left transparent LCD 272 are displayed. A range that avoids the half mirrors 261A and 262A is preferable. The display area D5 in FIG. 21A is configured not to be displayed by the half mirror 261A.

図21(B)に示すように、表示領域D1には、外景画像から、使用者の視線に合わせて切り出した画像が表示される。また、右透明LCD271に対応する表示領域D5には、図21(A)に示す外景画像の全体が表示される。使用者の眼には、表示領域D5に表示される画像と、表示領域D1に表示される画像とが重なって、図21(C)に示すように視認される。
右透明LCD271、左透明LCD272は、右導光板261、左導光板262のように最適化された光学特性を持たない構成とすることがあり、表示領域D5に表示される画像は、表示領域D1に比べて不明瞭な画像に見える可能性がある。しかしながら、図21(C)に示すように、使用者には、表示領域D1で視線方向に対応する明瞭な外景画像が視認され、その背景として、表示領域D5に外景画像の全体が表示される。このため、使用者には、外景画像の全体と、視線方向の一部とが視認されるため、直接外景を見ることができない使用者に、擬似的な外景を見せることができる。
As shown in FIG. 21B, an image cut out from the outside scene image according to the user's line of sight is displayed in the display area D1. The entire outside scene image shown in FIG. 21A is displayed in the display area D5 corresponding to the right transparent LCD 271. The image displayed in the display area D5 and the image displayed in the display area D1 overlap with the user's eyes and are visually recognized as shown in FIG.
The right transparent LCD 271 and the left transparent LCD 272 may have a configuration that does not have optimized optical characteristics like the right light guide plate 261 and the left light guide plate 262, and an image displayed in the display area D5 is displayed in the display area D1. Compared to the above, there is a possibility that an unclear image appears. However, as shown in FIG. 21C, the user sees a clear outside scene image corresponding to the line-of-sight direction in the display area D1, and the entire outside scene image is displayed in the display area D5 as the background. . For this reason, since the user can visually recognize the entire outside scene image and a part in the line-of-sight direction, the user who cannot directly see the outside scene can be shown a pseudo outside scene.

動作処理部164は、視線センサー68による視線の検出を行い、視線の移動があったか否かを判定する(ステップS67)。すなわち、動作処理部164は、使用者の視線方向が、前回検出した視線方向から、予め設定されたしきい値を超えて変化したか否かを判定する。視線の移動がないと判定した場合(ステップS67;NO)、動作処理部164は、視線センサー68による視線検出とステップS67の判定を、所定時間ごとに繰り返し実行する。そして、視線の移動があったと判定した場合(ステップS67;YES)、動作処理部164は、移動後の視線に基づき注視点の位置を特定し、特定した注視点に対応する部分を、ステップS62で取得した外景画像から切り出す(ステップS68)。
表示位置制御部165は、ハーフミラー261A、262Aにより表示中の画像を、ステップS68で切り出した外景画像に更新する(ステップS69)。
The motion processing unit 164 detects the line of sight by the line-of-sight sensor 68 and determines whether or not the line of sight has moved (step S67). That is, the operation processing unit 164 determines whether or not the user's gaze direction has changed from a previously detected gaze direction exceeding a preset threshold value. When it is determined that there is no movement of the line of sight (step S67; NO), the operation processing unit 164 repeatedly executes the line-of-sight detection by the line-of-sight sensor 68 and the determination in step S67 every predetermined time. If it is determined that the line of sight has moved (step S67; YES), the operation processing unit 164 identifies the position of the gazing point based on the line of sight after movement, and the portion corresponding to the identified gazing point is determined in step S62. It cuts out from the outside scene image acquired by (step S68).
The display position control unit 165 updates the image being displayed by the half mirrors 261A and 262A to the outside scene image cut out in step S68 (step S69).

その後、動作処理部164は、表示終了の条件が成立しているか否かを判定し(ステップS70)、表示終了の条件が成立していない場合は(ステップS70;NO)、ステップS67に戻る。また、表示終了の条件が成立した場合(ステップS70;YES)、ARコンテンツの表示を停止する。表示終了の条件は、例えば、操作部135による終了の指示があること、ARコンテンツの表示が完了したこと、等である。   Thereafter, the operation processing unit 164 determines whether or not a display end condition is satisfied (step S70). If the display end condition is not satisfied (step S70; NO), the process returns to step S67. If the display end condition is satisfied (step S70; YES), the display of the AR content is stopped. The display end condition is, for example, that the operation unit 135 has been instructed to end, or that the AR content display has been completed.

このように、第4実施形態の頭部装着型表示装置100Aは、右透明LCD271、左透明LCD272における表示と、右導光板261、左導光板262による表示とを組合せて行う。右透明LCD271、左透明LCD272にはARコンテンツ(例えば、外景画像)の全体を表示し、右導光板261、左導光板262にはARコンテンツの一部を切り出した画像を表示する。これにより、2つの表示を組み合わせて効果的なAR表示を行える。また、右導光板261、左導光板262に表示する画像が、使用者の視線方向に対応してARコンテンツから切り出された画像であってもよい。また、ARコンテンツから切り出された画像を拡大表示、または縮小表示してもよい。さらに、ARコンテンツが、右カメラ61及び左カメラ62の撮像画像や、この撮像画像を用いて生成された外景画像である場合、使用者に擬似的に外景を視認させることができる。   As described above, the head-mounted display device 100A according to the fourth embodiment performs a combination of the display on the right transparent LCD 271 and the left transparent LCD 272 and the display on the right light guide plate 261 and the left light guide plate 262. The entire AR content (for example, an outside scene image) is displayed on the right transparent LCD 271 and the left transparent LCD 272, and an image obtained by cutting out a part of the AR content is displayed on the right light guide plate 261 and the left light guide plate 262. Thereby, effective AR display can be performed by combining two displays. Further, the images displayed on the right light guide plate 261 and the left light guide plate 262 may be images cut out from the AR content corresponding to the user's line-of-sight direction. In addition, an image cut out from the AR content may be enlarged or reduced. Furthermore, when the AR content is a captured image of the right camera 61 and the left camera 62 or an outside scene image generated using the captured image, the user can visually recognize the outside scene.

なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。   In addition, this invention is not restricted to the structure of said each embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.

上記各実施形態では、使用者が表示部を透過して外景を視認できる範囲について、右光学像表示部26及び左光学像表示部28が外光を透過し、この右光学像表示部26及び左光学像表示部28を透過する外光が使用者の眼に入射することで、使用者が外景を視認する構成を例示した。この構成において、使用者が表示部を透過して視認できる範囲は、使用者の視野(視界)において右光学像表示部26及び左光学像表示部28が占める範囲として説明したが、本発明はこれに限定されない。例えば、使用者の視野において右光学像表示部26及び左光学像表示部28に重なり、或いは含まれる領域であっても、画像表示部20が備える枠などの構成物または付属物により視認できない範囲または領域があれば、「視認できる範囲」から除外してもよい。また、右光学像表示部26及び左光学像表示部28において外景を透過する部分と、使用者の視野との相対位置関係を示すデータを、予め記憶部120等に記憶する構成であってもよい。この場合、使用者が視認できる範囲は、記憶部120に記憶されるデータにより定義される範囲とすることができる。さらに、右光学像表示部26及び左光学像表示部28において外景を透過する部分と、使用者の視野と、右光学像表示部26及び左光学像表示部28が画像を表示する表示領域との相対位置関係を示すデータを、予め記憶部120等に記憶する構成であってもよい。このデータには、右光学像表示部26及び左光学像表示部28において外景を透過する部分と、表示領域とのサイズを特定するデータを含めてもよい。また、当該データは、使用者が画像表示部20を装着した状態で、キャリブレーションが行われることで、制御部140が生成し、記憶部120に記憶させてもよい。このキャリブレーションでは、制御部140が右光学像表示部26及び左光学像表示部28によりキャリブレーション用の画像を表示し、キャリブレーション用の画像が視認できる位置と使用者の視野との位置関係について、使用者が入力または操作を行い、この操作を制御部140が検出して上記データを生成すればよい。この場合、キャリブレーション用の画像は、例えば、複数の幾何学図形等が配置された画像を用いることができる。   In each of the above embodiments, the right optical image display unit 26 and the left optical image display unit 28 transmit external light in a range in which the user can see the outside scene through the display unit, and the right optical image display unit 26 and The configuration in which the user visually recognizes the outside scene by allowing the outside light transmitted through the left optical image display unit 28 to enter the user's eyes is illustrated. In this configuration, the range in which the user can see through the display unit has been described as the range occupied by the right optical image display unit 26 and the left optical image display unit 28 in the user's field of view (field of view). It is not limited to this. For example, even in a region that overlaps or is included in the right optical image display unit 26 and the left optical image display unit 28 in the user's field of view, a range that cannot be visually recognized by components or accessories such as a frame provided in the image display unit 20 Alternatively, if there is a region, it may be excluded from the “visible range”. In addition, data indicating the relative positional relationship between the portion that transmits the outside scene in the right optical image display unit 26 and the left optical image display unit 28 and the visual field of the user may be stored in the storage unit 120 or the like in advance. Good. In this case, the range visible to the user can be a range defined by the data stored in the storage unit 120. Further, the right optical image display unit 26 and the left optical image display unit 28 transmit the outside scene, the user's field of view, and the right optical image display unit 26 and the left optical image display unit 28 display images. The data indicating the relative positional relationship may be stored in advance in the storage unit 120 or the like. This data may include data specifying the size of the display area and the portion that transmits the outside scene in the right optical image display unit 26 and the left optical image display unit 28. In addition, the data may be generated by the control unit 140 and stored in the storage unit 120 by performing calibration in a state where the user wears the image display unit 20. In this calibration, the control unit 140 displays a calibration image on the right optical image display unit 26 and the left optical image display unit 28, and the positional relationship between the position where the calibration image can be visually recognized and the user's visual field. The user may perform input or operation, and the control unit 140 may detect the operation and generate the data. In this case, for example, an image in which a plurality of geometric figures or the like are arranged can be used as the calibration image.

また、使用者が表示部を透過して外景を視認する構成は、右光学像表示部26及び左光学像表示部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、右カメラ61及び/又は左カメラ62の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。   Further, the configuration in which the user visually recognizes the outside scene through the display unit is not limited to the configuration in which the right optical image display unit 26 and the left optical image display unit 28 transmit external light. For example, the present invention can be applied to a display device that displays an image in a state where an outside scene cannot be visually recognized. Specifically, a captured image of the right camera 61 and / or the left camera 62, an image or CG generated based on the captured image, a video based on video data stored in advance or video data input from the outside, and the like are displayed. The present invention can be applied to a display device. This type of display device can include a so-called closed display device in which an outside scene cannot be visually recognized. Of course, a display device that displays video data or an analog video signal input from the outside without performing processing such as AR display, MR display, or VR display is also included as an application target of the present invention.

また、例えば、画像表示部20、20Bに代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display units 20 and 20B, an image display unit of another method such as an image display unit worn like a hat may be adopted, and an image corresponding to the left eye of the user is used. And a display unit that displays an image corresponding to the right eye of the user. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

さらに、上記実施形態では、画像表示部20、20Bと制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20、20Bと分離して構成され、制御装置10と画像表示部20、20Bとの間で無線通信により各種信号を送受信する構成としてもよい。
Furthermore, in the above embodiment, the image display units 20 and 20B and the control device 10 are separated and connected by way of the connection unit 40. However, the control device 10 and the image display unit 20 It is also possible to adopt a configuration in which is integrally formed and is mounted on the user's head.
As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. The control device 10 may be configured separately from the image display units 20 and 20B, and various signals may be transmitted and received between the control device 10 and the image display units 20 and 20B by wireless communication.

また、例えば、画像表示部20、20Bにおいて画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。   For example, as a configuration for generating image light in the image display units 20 and 20B, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.

本発明でいう「表示部」は、画像光を出射する構成に相当し、以下の説明では頭部装着型表示装置100が画像光を出射することを、「表示する」と呼ぶ。
上記各実施形態では、図4を参照して説明した左右の画像光生成部により画像光を生成し、図2に示す右光学像表示部26及び左光学像表示部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示する。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであれば、図2及び図4の構成に限定されない。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
The “display unit” in the present invention corresponds to a configuration that emits image light. In the following description, the fact that the head-mounted display device 100 emits image light is referred to as “display”.
In each of the above embodiments, image light is generated by the left and right image light generation units described with reference to FIG. 4, and the right optical image display unit 26 and the left optical image display unit 28 shown in FIG. A configuration in which image light is irradiated toward each of the eyes and the left eye and the image light is incident on each of the right eye and the left eye of the user is illustrated. The configuration of the “display unit” is not limited to this. That is, as long as it emits image light, it is not limited to the structure of FIG.2 and FIG.4. For example, in the configuration of the present embodiment, image light is emitted toward the user's eyes by the “right light guide” and “left light guide” having the half mirrors 261A and 262A. Further, as a configuration for generating image light, a right backlight 221 and a left backlight 222, and a right LCD 241 and a left LCD 242 are provided. The “display unit” does not require these configurations.

例えば、画像表示部20の右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、画像表示部20の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、画像表示部20に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   For example, image light generated by a mechanism built in either or both of the right display driving unit 22 and the left display driving unit 24 of the image display unit 20 is transmitted to the user side of the image display unit 20, that is, the user's eyes. The light may be reflected by a reflection mechanism provided on the facing side and emitted to the user's eyes. Here, as the reflection mechanism, for example, a scanning optical system using a MEMS (Micro Electro Mechanical Systems) mirror can be adopted. In other words, a scanning optical system having a MEMS mirror that scans the light emitted from the image light generation unit may be provided, and the light scanned by the scanning optical system may be directly incident on the user's eyes. Further, an optical member on which a virtual image is formed by light scanned by the scanning optical system may be provided in the image display unit 20. This optical member forms a virtual image by scanning light scanned by the MEMS mirror. In this case, when the MEMS mirror scans light, a virtual image is formed on the virtual image forming surface, and the image is visually recognized (recognized) when the user catches the virtual image with eyes. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
Further, the scanning optical system is not limited to the configuration including the MEMS mirror. The mechanism that generates the image light may also be a laser light source that emits laser light. For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Moreover, it may replace with the virtual image formation surface which receives the light scanned, and the structure which guides image light to a user's eyes using a diffraction grating may be sufficient. That is, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

MEMS等を有する走査光学系を備えた構成では、画像表示部20における走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。   In the configuration including the scanning optical system having MEMS or the like, the position where the user visually recognizes the image, that is, the display position of the image can be changed by changing the mounting angle of the scanning optical system in the image display unit 20. Therefore, in the process of changing the display position in each of the above embodiments, an operation of changing the angle of the scanning optical system may be performed instead of the operation of changing the display position of the image on the right LCD 241 and the left LCD 242.

また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。   The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field.

また、上記各実施形態では使用者の眼前に位置する右光学像表示部26及び左光学像表示部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右光学像表示部26及び左光学像表示部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。   Further, in each of the above embodiments, a configuration in which virtual images are formed by the half mirrors 261A and 262A on a part of the right optical image display unit 26 and the left optical image display unit 28 positioned in front of the user's eyes is illustrated. The present invention is not limited to this, and an image may be displayed on a display area having an area that occupies the entire surface or most of the right optical image display unit 26 and the left optical image display unit 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.

さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。   Furthermore, the optical element of the present invention is not limited to the right light guide plate 261 and the left light guide plate 262 having the half mirrors 261A and 262A, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4、図18に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図4に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部135のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4、図18に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20、20Bに形成されたCPUとが行う機能が別々に分けられている構成としてもよい。   In addition, at least a part of the functional blocks shown in FIGS. 4 and 18 may be realized by hardware, or may be realized by cooperation of hardware and software. As described above, the present invention is not limited to a configuration in which independent hardware resources are arranged. Further, the program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in the external device is acquired via the communication unit 117 or the interface 125. It is good also as a structure to execute. Of the components formed in the control device 10, only the operation unit 135 may be formed as a single user interface (UI). Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 shown in FIGS. 4 and 18 may be formed in both the control device 10 and the image display unit 20, or the control unit 140 and the image display units 20 and 20B formed in the control device 10. The functions performed by the CPU formed in the above may be configured separately.

10…制御装置、20、20B…画像表示部(表示部)、21…右保持部、22、22A…右表示駆動部、23…左保持部、24、24A…左表示駆動部、25…インターフェイス、26…右光学像表示部、28…左光学像表示部、61…右カメラ(撮像部)、62…左カメラ(撮像部)、64…距離センサー、68…視線センサー(視線検出部)、100、100A…頭部装着型表示装置(表示装置)、117…通信部(接続部)、120…記憶部、125…インターフェイス、140…制御部、150…オペレーティングシステム、160…画像処理部、161…画像取得部(外景画像取得部)、162…位置検出部、163…画像選択部、164…動作処理部、165…表示位置制御部、187…音声処理部、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、261A、262A…ハーフミラー、271…右透明LCD、272…左透明LCD。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus 20, 20B ... Image display part (display part), 21 ... Right holding part, 22, 22A ... Right display drive part, 23 ... Left holding part, 24, 24A ... Left display drive part, 25 ... Interface , 26 ... right optical image display unit, 28 ... left optical image display unit, 61 ... right camera (imaging unit), 62 ... left camera (imaging unit), 64 ... distance sensor, 68 ... gaze sensor (gaze detection unit), DESCRIPTION OF SYMBOLS 100, 100A ... Head-mounted display apparatus (display apparatus), 117 ... Communication part (connection part), 120 ... Memory | storage part, 125 ... Interface, 140 ... Control part, 150 ... Operating system, 160 ... Image processing part, 161 ... image acquisition unit (outside scene image acquisition unit), 162 ... position detection unit, 163 ... image selection unit, 164 ... operation processing unit, 165 ... display position control unit, 187 ... audio processing unit, 190 ... display control unit, 2 DESCRIPTION OF SYMBOLS 1 ... Right backlight control part, 202 ... Left backlight control part, 211 ... Right LCD control part, 212 ... Left LCD control part, 221 ... Right backlight, 222 ... Left backlight, 241 ... Right LCD, 242 ... Left LCD, 251 ... right projection optical system, 252 ... left projection optical system, 261 ... right light guide plate, 262 ... left light guide plate, 261A, 262A ... half mirror, 271 ... right transparent LCD, 272 ... left transparent LCD.

Claims (22)

外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、
前記表示部を透過して視認される外景を含む外景画像を取得する外景画像取得部と、
前記外景画像取得部が取得する外景画像に基づいて、前記表示部を透過して視認される対象を認識し、前記対象に関する情報を前記表示部に表示する制御部と、
を備えることを特徴とする表示装置。
A display unit that displays an image so that it can be seen through the outside scene together with the outside scene;
An outside scene image acquisition unit that acquires an outside scene image including an outside scene that is visible through the display unit;
A control unit that recognizes an object viewed through the display unit based on an outside scene image acquired by the outside scene image acquisition unit, and displays information on the object on the display unit;
A display device comprising:
前記制御部は、前記対象が前記表示部において前記情報が表示される範囲の外にある場合に、前記表示部により、視線を前記対象へ誘導する誘導表示を行うこと、
を特徴とする請求項1記載の表示装置。
The control unit, when the target is outside the range in which the information is displayed on the display unit, by the display unit to perform a guidance display that guides the line of sight to the target;
The display device according to claim 1.
前記制御部は、前記外景画像取得部が取得する外景画像に基づいて、前記表示部を透過して視認可能な範囲の外景の画像を、前記表示部に表示すること、
を特徴とする請求項1または2記載の表示装置。
The control unit displays, on the display unit, an image of an outside scene in a range that is visible through the display unit, based on the outside scene image acquired by the outside scene image acquisition unit;
The display device according to claim 1 or 2.
前記表示部は、使用者の頭部に装着される頭部装着型の表示部であり、前記画像を表示する第1表示部と、前記第1表示部よりも外景側において前記第1表示部よりも広い範囲で視認される画像を表示する第2表示部と、を備え、
前記制御部は、前記第2表示部により、視線を前記対象へ誘導する誘導表示を行うこと、
を特徴とする請求項1から3のいずれかに記載の表示装置。
The display unit is a head-mounted display unit that is worn on a user's head, and includes a first display unit that displays the image, and the first display unit that is closer to the outside scene than the first display unit. A second display unit that displays an image that is visually recognized in a wider range,
The control unit performs guidance display for guiding a line of sight to the target by the second display unit,
The display device according to claim 1, wherein:
前記表示部は、使用者の頭部に装着される頭部装着型の表示部であり、
前記使用者の視線を検出する視線検出部を備え、
前記制御部は、前記視線検出部が検出する前記使用者の視線の方向に対応して前記表示部の表示を変化させること、
を特徴とする請求項1から4のいずれかに記載の表示装置。
The display unit is a head-mounted display unit mounted on the user's head,
A line-of-sight detector that detects the line of sight of the user;
The control unit changes the display of the display unit corresponding to the direction of the line of sight of the user detected by the line-of-sight detection unit;
The display device according to claim 1, wherein:
前記制御部は、前記外景画像取得部が取得する外景画像の一部領域を前記表示部に表示し、前記視線検出部が検出する前記使用者の視線の方向に対応して、前記外景画像において前記表示部に表示する一部領域の位置を変化させること、
を特徴とする請求項5記載の表示装置。
The control unit displays a partial region of the outside scene image acquired by the outside scene image acquisition unit on the display unit, and corresponds to the direction of the user's line of sight detected by the line of sight detection unit. Changing the position of a partial area to be displayed on the display unit;
The display device according to claim 5.
前記表示部を透過して視認される外景を含む範囲を撮像する撮像部を備え、
前記外景画像取得部は、前記撮像部の撮像画像を前記外景画像として取得すること、
を特徴とする請求項1から6のいずれかに記載の表示装置。
An imaging unit that images a range including an outside scene that is visible through the display unit;
The outside scene image acquisition unit acquires a captured image of the imaging unit as the outside scene image;
The display device according to claim 1, wherein:
前記外景画像取得部は、前記撮像部が撮像した複数の撮像画像を取得して合成することにより前記外景画像を生成すること、
を特徴とする請求項7記載の表示装置。
The outside scene image acquisition unit generates the outside scene image by acquiring and combining a plurality of captured images captured by the imaging unit;
The display device according to claim 7.
複数の前記撮像部を備え、
前記外景画像取得部は、複数の前記撮像部がそれぞれ撮像した複数の撮像画像を取得して合成することにより前記外景画像を生成すること、
を特徴とする請求項7または8記載の表示装置。
A plurality of the imaging units;
The outside scene image acquisition unit generates the outside scene image by acquiring and combining a plurality of captured images respectively captured by the plurality of imaging units;
The display device according to claim 7 or 8.
外部機器に接続する接続部を備え、
前記外景画像取得部は、前記接続部に接続する前記外部機器から前記外景画像を取得すること、
を特徴とする請求項1から6のいずれかに記載の表示装置。
It has a connection to connect to external equipment,
The outside scene image acquisition unit acquires the outside scene image from the external device connected to the connection unit;
The display device according to claim 1, wherein:
現在位置を検出する位置検出部を備え、
前記外景画像取得部は、前記接続部に接続する前記外部機器から、前記位置検出部が検出する現在位置に対応する前記外景画像を取得すること、
を特徴とする請求項10記載の表示装置。
It has a position detector that detects the current position,
The outside scene image acquisition unit acquires the outside scene image corresponding to the current position detected by the position detection unit from the external device connected to the connection unit;
The display device according to claim 10.
前記制御部は、前記外景画像取得部が取得した前記外景画像から前記対象の画像を抽出することにより、前記対象を認識すること、
を特徴とする請求項1から11のいずれかに記載の表示装置。
The control unit recognizes the target by extracting the target image from the outside scene image acquired by the outside scene image acquisition unit;
The display device according to claim 1, wherein:
使用者の頭部に装着される表示装置であって、
外景を透過し、前記外景とともに視認できるように画像を表示する表示領域を有する表示部と、
前記表示領域を透過して視認できる範囲の外に位置する対象を認識し、前記対象に関する情報を出力する制御部と、
を備えることを特徴とする表示装置。
A display device mounted on a user's head,
A display unit having a display area for transmitting an outside scene and displaying an image so as to be visible together with the outside scene;
A control unit for recognizing an object located outside a range that can be seen through the display area and outputting information on the object;
A display device comprising:
前記制御部は、前記対象が前記表示部を透過して視認できる範囲の外にある場合に、前記使用者を、前記対象を視認可能な状態に誘導する前記情報を出力すること、
を特徴とする請求項13記載の表示装置。
The control unit outputs the information that guides the user to a state in which the target can be visually recognized when the target is outside a range that can be viewed through the display unit.
The display device according to claim 13.
前記制御部は、前記対象が前記表示部において前記表示領域の外側を透過して視認される場合に、前記使用者を、前記表示領域を透過して前記対象を視認可能な状態に誘導する前記情報を出力すること、
を特徴とする請求項13記載の表示装置。
The control unit guides the user to a state in which the target is visible through the display region when the target is viewed through the outside of the display region in the display unit. Outputting information,
The display device according to claim 13.
前記制御部は、前記情報を構成する文字及び/又は画像を前記表示部の表示領域に表示すること、
を特徴とする請求項13から15のいずれかに記載の表示装置。
The control unit displays characters and / or images constituting the information in a display area of the display unit;
The display device according to any one of claims 13 to 15.
音を出力する音出力部を備え、
前記制御部は、前記情報を構成する音を前記音出力部により出力すること、
を特徴とする請求項13から16のいずれかに記載の表示装置。
It has a sound output unit that outputs sound,
The control unit outputs sound constituting the information by the sound output unit;
The display device according to claim 13, wherein the display device is a display device.
前記制御部は、前記対象の位置を示す位置情報を取得し、取得した前記位置情報に基づいて、前記使用者が前記表示領域を透過して視認する範囲と前記対象との相対位置を求めて前記情報を出力すること、
を特徴とする請求項13から17のいずれかに記載の表示装置。
The control unit obtains position information indicating the position of the object, and obtains a relative position between the object and a range that the user sees through the display area based on the obtained position information. Outputting the information;
The display device according to claim 13, wherein:
前記制御部は、前記外景を撮像した外景画像を取得し、取得した前記外景画像に基づいて、前記使用者が前記表示領域を透過して視認する範囲と前記対象との相対位置を求めて前記情報を出力すること、
を特徴とする請求項13から18のいずれかに記載の表示装置。
The control unit obtains an outside scene image obtained by imaging the outside scene, and obtains a relative position between the target and a range that the user sees through the display area based on the obtained outside scene image. Outputting information,
The display device according to claim 13, wherein the display device is a display device.
外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置を制御して、
前記表示部を透過して視認される外景を含む外景画像を取得し、取得した前記外景画像に基づいて、前記表示部を透過して視認される対象を認識し、前記対象に関する情報を前記表示部に表示すること、
を特徴とする表示装置の制御方法。
Control a display device that includes a display unit that displays an image so that it can be seen with the outside scene through the outside scene,
An outside scene image including an outside scene that is visible through the display unit is acquired, an object that is viewed through the display unit is recognized based on the acquired outside scene image, and information about the object is displayed. Display in the department,
A control method of a display device characterized by the above.
外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備えた表示装置を制御するコンピューターを、
前記表示部を透過して視認される外景を含む外景画像を取得する外景画像取得部と、
前記外景画像取得部が取得する外景画像に基づいて、前記表示部を透過して視認される対象を認識し、前記対象に関する情報を前記表示部に表示する制御部と、
して機能させるプログラム。
A computer that controls a display device that includes a display unit that transmits an outside scene and displays an image so as to be visible together with the outside scene.
An outside scene image acquisition unit that acquires an outside scene image including an outside scene that is visible through the display unit;
A control unit that recognizes an object viewed through the display unit based on an outside scene image acquired by the outside scene image acquisition unit, and displays information on the object on the display unit;
Program to make it work.
外景を透過し、前記外景とともに視認できるように画像を表示する表示領域を有する表示部を備えた表示装置を制御するコンピューターを、
前記表示領域を透過して視認できる範囲の外に位置する対象を認識し、前記対象に関する情報を出力する制御部と、
して機能させるプログラム。
A computer that controls a display device that includes a display unit that has a display area that displays an image so that the image can be visually recognized through the outside scene.
A control unit for recognizing an object located outside a range that can be seen through the display area and outputting information on the object;
Program to make it work.
JP2015107046A 2014-11-06 2015-05-27 Display device, control method of display device and program Pending JP2016224086A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015107046A JP2016224086A (en) 2015-05-27 2015-05-27 Display device, control method of display device and program
US14/884,302 US9898868B2 (en) 2014-11-06 2015-10-15 Display device, method of controlling the same, and program
CN201510731717.8A CN105589199B (en) 2014-11-06 2015-11-02 Display device, control method for display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015107046A JP2016224086A (en) 2015-05-27 2015-05-27 Display device, control method of display device and program

Publications (1)

Publication Number Publication Date
JP2016224086A true JP2016224086A (en) 2016-12-28

Family

ID=57745884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015107046A Pending JP2016224086A (en) 2014-11-06 2015-05-27 Display device, control method of display device and program

Country Status (1)

Country Link
JP (1) JP2016224086A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018155872A (en) * 2017-03-16 2018-10-04 株式会社デンソーウェーブ Information display system
JP2019045630A (en) * 2017-08-31 2019-03-22 キヤノン株式会社 Image display apparatus
WO2020145092A1 (en) * 2019-01-07 2020-07-16 株式会社mediVR Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP2020110209A (en) * 2019-01-07 2020-07-27 株式会社mediVR Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
WO2020189162A1 (en) * 2019-03-18 2020-09-24 Necプラットフォームズ株式会社 Information display system and wearable device
CN113267896A (en) * 2020-01-30 2021-08-17 精工爱普生株式会社 Display system, controller, control method of display system, and recording medium
JP7418870B2 (en) 2020-06-29 2024-01-22 株式会社青電社 Display device, display control method for display device, display control program for display device
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
US12001600B2 (en) 2021-05-07 2024-06-04 Beckman Coulter, Inc. Service glasses with selective data provision

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258123A (en) * 2003-02-24 2004-09-16 Canon Inc Method and unit for display control
JP2010145436A (en) * 2008-12-16 2010-07-01 Brother Ind Ltd Head-mounted display
JP2011035592A (en) * 2009-07-31 2011-02-17 Nintendo Co Ltd Display control program and information processing system
JP2011066549A (en) * 2009-09-15 2011-03-31 Brother Industries Ltd Head mounted display
WO2013088486A1 (en) * 2011-12-12 2013-06-20 パイオニア株式会社 Display device, display method, and display program
WO2014097706A1 (en) * 2012-12-21 2014-06-26 ソニー株式会社 Display control apparatus and storage medium
JP2015048171A (en) * 2013-08-30 2015-03-16 学校法人立命館 Picking system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258123A (en) * 2003-02-24 2004-09-16 Canon Inc Method and unit for display control
JP2010145436A (en) * 2008-12-16 2010-07-01 Brother Ind Ltd Head-mounted display
JP2011035592A (en) * 2009-07-31 2011-02-17 Nintendo Co Ltd Display control program and information processing system
JP2011066549A (en) * 2009-09-15 2011-03-31 Brother Industries Ltd Head mounted display
WO2013088486A1 (en) * 2011-12-12 2013-06-20 パイオニア株式会社 Display device, display method, and display program
WO2014097706A1 (en) * 2012-12-21 2014-06-26 ソニー株式会社 Display control apparatus and storage medium
JP2015048171A (en) * 2013-08-30 2015-03-16 学校法人立命館 Picking system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018155872A (en) * 2017-03-16 2018-10-04 株式会社デンソーウェーブ Information display system
JP7265312B2 (en) 2017-03-16 2023-04-26 株式会社デンソーウェーブ Information display system
JP2019045630A (en) * 2017-08-31 2019-03-22 キヤノン株式会社 Image display apparatus
JP2020110561A (en) * 2019-01-07 2020-07-27 株式会社mediVR Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP2020110209A (en) * 2019-01-07 2020-07-27 株式会社mediVR Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
WO2020145092A1 (en) * 2019-01-07 2020-07-16 株式会社mediVR Rehabilitation assistance device, rehabilitation assistance system, rehabilitation assistance method, and rehabilitation assistance program
JP7385238B2 (en) 2019-01-07 2023-11-22 株式会社mediVR Rehabilitation support device, rehabilitation support method, and rehabilitation support program
WO2020189162A1 (en) * 2019-03-18 2020-09-24 Necプラットフォームズ株式会社 Information display system and wearable device
JP2020154009A (en) * 2019-03-18 2020-09-24 Necプラットフォームズ株式会社 Information display system and wearable device
US11557233B2 (en) 2019-03-18 2023-01-17 Nec Platforms, Ltd. Information display system and wearable device
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
CN113267896A (en) * 2020-01-30 2021-08-17 精工爱普生株式会社 Display system, controller, control method of display system, and recording medium
JP7418870B2 (en) 2020-06-29 2024-01-22 株式会社青電社 Display device, display control method for display device, display control program for display device
US12001600B2 (en) 2021-05-07 2024-06-04 Beckman Coulter, Inc. Service glasses with selective data provision

Similar Documents

Publication Publication Date Title
CN105589199B (en) Display device, control method for display device, and program
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
CN112130329B (en) Head-mounted display device and method for controlling head-mounted display device
JP6693060B2 (en) Display system, display device, display device control method, and program
JP2016224086A (en) Display device, control method of display device and program
JP6492531B2 (en) Display device and control method of display device
US20160313973A1 (en) Display device, control method for display device, and computer program
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
CN105739095B (en) Display device and control method of display device
JP2017102768A (en) Information processor, display device, information processing method, and program
KR20150134409A (en) Head-mounted display device, control method of head-mounted display device, and display system
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2015032131A (en) Display device, head-mounted display device, display system, and control method of display device
JP6707823B2 (en) Display device, display device control method, and program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6554948B2 (en) Display device, display device control method, and program
JP2017091433A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP2016024208A (en) Display device, method for controlling display device, and program
JP2016186561A (en) Display device, control method for display device, and program
JP2016122177A (en) Display device and control method of display device
JP2016033759A (en) Display device, method for controlling display device, and program
JP6135162B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
JP2016090853A (en) Display device, control method of display device and program
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
JP2017079389A (en) Display device, display device control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190820