JP2017182460A - Head-mounted type display device, method for controlling head-mounted type display device, and computer program - Google Patents

Head-mounted type display device, method for controlling head-mounted type display device, and computer program Download PDF

Info

Publication number
JP2017182460A
JP2017182460A JP2016068694A JP2016068694A JP2017182460A JP 2017182460 A JP2017182460 A JP 2017182460A JP 2016068694 A JP2016068694 A JP 2016068694A JP 2016068694 A JP2016068694 A JP 2016068694A JP 2017182460 A JP2017182460 A JP 2017182460A
Authority
JP
Japan
Prior art keywords
user
unit
inclination
head
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016068694A
Other languages
Japanese (ja)
Inventor
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016068694A priority Critical patent/JP2017182460A/en
Priority to US15/466,073 priority patent/US10643390B2/en
Publication of JP2017182460A publication Critical patent/JP2017182460A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted type display device capable of displaying a virtual object in a position intended by a user and with an inclination intended by the user.SOLUTION: A head-mounted type display device 100 includes an image display part 20, acquisition parts 61 and 62 which acquire the information of a real space, and a control part 10 which allows the image display part to form a virtual image including the virtual object which is an object which does not actually exist in the real space. The control part analyzes the acquired information of the real space, to obtain the position and inclination of a reference surface as a plane which exists in the real space and satisfies a predetermined condition, and changes the position and inclination of the virtual object visually recognized by the user on the basis of the obtained position and inclination of the reference surface.SELECTED DRAWING: Figure 1

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

使用者の頭部に装着されて、使用者の視野領域に虚像を形成する頭部装着型表示装置が知られている。また、現実環境にコンピューターを用いて情報を付加提示する拡張現実感(AR、Augmented Reality)と呼ばれる技術が知られている。特許文献1には、このような拡張現実感の技術を用いて、使用者の視野領域に仮想的な入力面を表す虚像を形成し、かつ、その仮想的な入力面による入力を可能とした頭部装着型表示装置について記載されている。   2. Description of the Related Art A head-mounted display device that is worn on a user's head and forms a virtual image in the user's visual field region is known. In addition, a technique called augmented reality (AR) that adds information to a real environment using a computer is known. In Patent Literature 1, using such augmented reality technology, a virtual image representing a virtual input surface is formed in the user's visual field area, and input using the virtual input surface is enabled. A head-mounted display device is described.

特表2015−519673号公報JP-T-2015-519673

一方、近年では、装着状態において使用者の視界が遮断されない透過型の頭部装着型表示装置を、仕事や生活といった様々な場面で利用することが提案されている。例えば、製造業等で使用される頭部装着型表示装置では、上述した仮想的な入力面と共に、使用者が行うべき作業手順や作業内容等を表した仮想的な案内面が拡張現実感の技術を利用して提示される。しかし、このような頭部装着型表示装置では、仮想的な入力面や案内面が、使用者の意図しない位置や傾きで表示されることがあり、使い勝手が悪いという課題があった。なお、仮想的な入力面や仮想的な案内面を形成する、仮想的なオブジェクトを「仮想オブジェクト」とも呼ぶ。   On the other hand, in recent years, it has been proposed to use a transmissive head-mounted display device in which the user's view is not blocked in a worn state in various scenes such as work and life. For example, in a head-mounted display device used in the manufacturing industry or the like, the virtual input surface described above and the virtual guide surface representing the work procedure and work contents to be performed by the user are augmented reality. Presented using technology. However, in such a head-mounted display device, there is a problem that the virtual input surface and the guide surface are displayed at a position and an inclination that are not intended by the user, which is unusable. A virtual object that forms a virtual input surface or a virtual guide surface is also referred to as a “virtual object”.

このため、仮想オブジェクトを、使用者の意図する位置および傾きで表示させることが可能な頭部装着型表示装置が望まれていた。   For this reason, a head-mounted display device capable of displaying a virtual object at a position and inclination intended by the user has been desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記頭部装着型表示装置を装着した使用者に対して虚像を視認させる画像表示部と;実空間の情報を取得する取得部と;前記実空間に実在しないオブジェクトである仮想オブジェクトを含んだ前記虚像を、前記画像表示部に形成させる制御部と、を備え;前記制御部は;取得された前記実空間の情報を解析することで、前記実空間にあると共に予め定められた条件を満たす平面である基準面の、前記使用者の視界内における位置および傾きを求め;前記使用者が視認する前記仮想オブジェクトの位置および傾きを、求めた前記基準面の位置および傾きに基づいて変更する。
この形態の頭部装着型表示装置によれば、制御部は、使用者が視認する仮想オブジェクトの位置および傾きを、実空間にある基準面の位置および傾きに基づいて変更する。このため使用者は、基準面の位置および傾きを調整することによって、虚像として視認する仮想オブジェクトの位置および傾きを、意図するように調整することができる。
(1) According to one aspect of the present invention, a head-mounted display device is provided. The head-mounted display device includes: an image display unit that allows a user wearing the head-mounted display device to visually recognize a virtual image; an acquisition unit that acquires real space information; A control unit that causes the image display unit to form the virtual image including a virtual object that is an object; and the control unit is in the real space by analyzing the acquired information of the real space In addition, the position and inclination of a reference plane, which is a plane satisfying a predetermined condition, are determined in the user's field of view; the position and inclination of the virtual object visually recognized by the user are determined. And change based on tilt.
According to this form of the head-mounted display device, the control unit changes the position and inclination of the virtual object visually recognized by the user based on the position and inclination of the reference plane in the real space. For this reason, the user can adjust the position and inclination of the virtual object visually recognized as a virtual image as desired by adjusting the position and inclination of the reference plane.

(2)上記形態の頭部装着型表示装置において;前記制御部は;前記使用者が視認する前記仮想オブジェクトの位置および傾きを、前記基準面の位置および傾きと同じにしてもよい。
この形態の頭部装着型表示装置によれば、使用者が虚像として視認する仮想オブジェクトの位置および傾きは、実空間にある基準面の位置および傾きと同じとなる。このため使用者は、仮想オブジェクトの位置および傾きの調整を直感的に行うことができる。
(2) In the head-mounted display device of the above aspect; the control unit may make the position and inclination of the virtual object visually recognized by the user the same as the position and inclination of the reference plane.
According to this form of the head-mounted display device, the position and inclination of the virtual object that the user visually recognizes as a virtual image are the same as the position and inclination of the reference plane in the real space. Therefore, the user can intuitively adjust the position and inclination of the virtual object.

(3)上記形態の頭部装着型表示装置では、さらに;前記使用者の視線の方向を取得する視線検出部を備え;前記取得部は;前記基準面の位置および傾きを求める際に、前記視線検出部により取得された前記視線の方向に相当しない前記実空間の情報の取得を省略してもよい。
この形態の頭部装着型表示装置によれば、取得部は、使用者の視線の方向に相当しない実空間の情報の取得を省略するため、取得部により取得された実空間の情報における情報量を低減することができる。この結果、制御部による解析時の処理負荷を低減することができる。
(3) The head-mounted display device of the above aspect further includes: a line-of-sight detection unit that acquires the direction of the line of sight of the user; the acquisition unit; You may abbreviate | omit acquisition of the information of the said real space which does not correspond to the direction of the said gaze acquired by the gaze detection part.
According to the head-mounted display device of this aspect, the acquisition unit omits acquisition of real space information that does not correspond to the direction of the user's line of sight, and thus the amount of information in the real space information acquired by the acquisition unit Can be reduced. As a result, the processing load at the time of analysis by the control unit can be reduced.

(4)上記形態の頭部装着型表示装置において;前記制御部は、さらに;前記使用者による予め定められた第1の動作を検出した際に、前記基準面の前記使用者の視界内における位置および傾きを再び求め、変更後の前記仮想オブジェクトの位置および傾きを、新たに求めた前記基準面の位置および傾きに基づいて再変更してもよい。
この形態の頭部装着型表示装置によれば、制御部は、第1の動作を契機として仮想オブジェクトの位置および傾きを再変更するため、使用者における利便性を向上させることができる。
(4) In the head-mounted display device according to the above aspect; the control unit; and; when detecting a predetermined first action by the user, the reference plane in the field of view of the user The position and inclination may be obtained again, and the changed position and inclination of the virtual object may be changed again based on the newly obtained position and inclination of the reference plane.
According to the head-mounted display device of this aspect, the control unit re-changes the position and inclination of the virtual object triggered by the first action, so that the convenience for the user can be improved.

(5)上記形態の頭部装着型表示装置において;前記制御部は、さらに;前記使用者による予め定められた第2の動作を検出した際に、前記仮想オブジェクトの表示態様を変更してもよい。
この形態の頭部装着型表示装置によれば、制御部は、第2の動作を契機として仮想オブジェクトの表示態様を変更するため、使用者における利便性を向上させることができる。
(5) In the head-mounted display device according to the above aspect; the control unit may further: change the display mode of the virtual object when detecting a second action predetermined by the user Good.
According to the head-mounted display device of this aspect, the control unit changes the display mode of the virtual object in response to the second operation, so that convenience for the user can be improved.

(6)上記形態の頭部装着型表示装置において;前記制御部は;人間の手と、前記使用者の手と、所定形状の物体と、所定のパターンを有する情報を含んだ画像と、の少なくともいずれかを前記基準面を含む物体とみなしてもよい。
この形態の頭部装着型表示装置によれば、制御部は、人間の手と、使用者自身の手と、所定形状の物体と、所定のパターンを有する情報を含んだ画像と、の少なくともいずれかを基準面を含む物体とみなして処理を効率化することができる。
(6) In the head-mounted display device according to the above aspect; the control unit; a human hand, the user's hand, an object having a predetermined shape, and an image including information having a predetermined pattern; At least one of them may be regarded as an object including the reference plane.
According to the head-mounted display device of this aspect, the control unit includes at least one of a human hand, a user's own hand, an object having a predetermined shape, and an image including information having a predetermined pattern. It is possible to improve the processing efficiency by regarding the object as an object including a reference plane.

(7)上記形態の頭部装着型表示装置において;前記予め定められた条件を満たす平面は;三次元認識の結果、予め定められた第1の範囲内の平面度を有し、かつ、予め定められた第2の値以上の面積を有する面であってもよい。
この形態の頭部装着型表示装置によれば、制御部は、三次元認識の結果、第1の範囲内の平面度を有することを条件とする。第1の範囲を適切に設定することにより、制御部は、例えば人間の手のような多少の凹凸のある面を基準面とみなすことができ、かつ、例えば人間の顔のような凹凸の大きい面については基準面から除外することで、誤認識を抑制することができる。また、制御部は、面積が予め定められた第2の値以上であることを条件とする。第2の値を適切に設定することにより、制御部は、例えば使用者から遠く離れた場所にいる第三者の手等について基準面から除外することで、誤認識を抑制することができる。
(7) In the head-mounted display device according to the above aspect; the plane that satisfies the predetermined condition; has a flatness within a predetermined first range as a result of three-dimensional recognition; It may be a surface having an area equal to or larger than a predetermined second value.
According to the head-mounted display device of this aspect, the control unit is required to have flatness within the first range as a result of the three-dimensional recognition. By appropriately setting the first range, the control unit can regard a surface with some unevenness such as a human hand as a reference surface, and has a large unevenness such as a human face. By excluding the surface from the reference surface, erroneous recognition can be suppressed. Moreover, a control part is on condition that an area is more than 2nd predetermined value. By appropriately setting the second value, the control unit can suppress misrecognition by excluding, for example, a hand of a third party located far away from the user from the reference plane.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置を含む画像表示システム、これらの装置、方法、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを配布するためのサーバー装置、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a head-mounted display device control method, an image display system including a head-mounted display device, and the like. The present invention can be realized in the form of a computer program for realizing the functions of the apparatus, method, and system, a server apparatus for distributing the computer program, a storage medium storing the computer program, and the like.

本発明の一実施形態におけるHMDの外観構成を示す図である。It is a figure which shows the external appearance structure of HMD in one Embodiment of this invention. 画像表示部が備える光学系の構成を示す要部平面図である。It is a principal part top view which shows the structure of the optical system with which an image display part is provided. 使用者から見た画像表示部の要部構成を示す図である。It is a figure which shows the principal part structure of the image display part seen from the user. カメラの画角を説明するための図である。It is a figure for demonstrating the angle of view of a camera. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. HMDの制御機能部の構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of the control function part of HMD. デフォルト表示面について説明する図である。It is a figure explaining a default display surface. 表示面設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a display surface setting process. 表示面設定処理のステップS104〜S108について説明する図である。It is a figure explaining step S104-S108 of a display surface setting process. 表示面設定処理のステップS110について説明する図である。It is a figure explaining step S110 of a display surface setting process. 補正後の表示面について説明する図である。It is a figure explaining the display surface after correction | amendment. 仮想オブジェクトの表示面の再変更について説明する図である。It is a figure explaining re-change of the display surface of a virtual object. 仮想オブジェクトの表示面の再変更について説明する図である。It is a figure explaining re-change of the display surface of a virtual object. 仮想オブジェクトの表示態様の変更について説明する図である。It is a figure explaining the change of the display mode of a virtual object. 変形例の画像表示部が備える光学系の構成を示す要部平面図である。It is a principal part top view which shows the structure of the optical system with which the image display part of a modification is provided.

A.実施形態:
A−1.HMDの構成:
図1は、本発明の一実施形態におけるHMD(頭部装着型表示装置、Head Mounted Display)100の外観構成を示す図である。HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10(制御部)と、を備える表示装置である。制御装置10は、使用者の操作を取得するための各種の入力デバイスを備え、使用者がHMD100を操作するためのコントローラーとして機能する。
A. Embodiment:
A-1. HMD configuration:
FIG. 1 is a diagram showing an external configuration of an HMD (Head Mounted Display) 100 according to an embodiment of the present invention. HMD100 is a display provided with the image display part 20 (display part) which makes a user visually recognize a virtual image in the state with which the user's head was mounted | worn, and the control apparatus 10 (control part) which controls the image display part 20. Device. The control device 10 includes various input devices for acquiring a user's operation, and functions as a controller for the user to operate the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27. With.

右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。   Each of the right holding unit 21 and the left holding unit 23 extends rearward from both end portions of the front frame 27 and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is worn. The left holding part 23 is provided to extend from the end EL of the front frame 27 to a position corresponding to the left side of the user when the image display part 20 is worn.

右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other. This connection position corresponds to the position between the eyebrows of the user when the image display unit 20 is mounted. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt that is in contact with the back of the user's head when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 can be firmly held on the user's head by the belt.

右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。なお、右表示ユニット22および左表示ユニット24を総称して「表示駆動部」とも呼ぶ。   The right display unit 22 displays an image by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located in the vicinity of the right side of the user when the image display unit 20 is worn. The left display unit 24 displays an image by the left light guide plate 28. The left display unit 24 is provided in the left holding unit 23 and is located in the vicinity of the user's left head when the image display unit 20 is worn. The right display unit 22 and the left display unit 24 are also collectively referred to as “display driving unit”.

本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。   The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units (for example, prisms) formed of a light transmissive resin or the like, and use image light output from the right display unit 22 and the left display unit 24. Lead to the eyes of the person. A dimming plate may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is a thin plate-like optical element having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the surface of the front frame 27 (the surface opposite to the surface facing the user's eyes). By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって虚像を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光と、外光とが入射する。このため、使用者における虚像の視認性は、外光の強さに影響を受ける。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively, and causes the user to visually recognize a virtual image with this image light (this is referred to as “ Also called “display image”). When external light is incident on the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, image light constituting the virtual image and external light are incident on the user's eyes. To do. For this reason, the visibility of the virtual image for the user is affected by the intensity of external light.

このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整することができる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。   Therefore, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, it is possible to adjust the visibility of the virtual image. In a typical example, it is possible to select a dimming plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. Use of the light control plate can be expected to protect the right light guide plate 26 and the left light guide plate 28, and to suppress damage to the right light guide plate 26 and the left light guide plate 28, adhesion of dirt and the like. The light control plate may be detachable from the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28. In addition, a plurality of types of light control plates may be exchanged and removable, or the light control plates may be omitted.

カメラ61は、画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。   The camera 61 is disposed on the front frame 27 of the image display unit 20. The camera 61 is provided on the front surface of the front frame 27 at a position that does not block outside light that passes through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27. The camera 61 may be disposed on the end EL side of the front frame 27 or may be disposed at a connection portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外景(実空間)を撮像する。換言すれば、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。カメラ61は、制御部150(図5)の制御に従って撮像を実行し、得られた撮像データーを制御部150へ出力する。なお、カメラ61は、制御部150と協働することにより「取得部」として機能する。   The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of this embodiment is a monocular camera, but a stereo camera may be adopted. The camera 61 captures at least a part of the outside scene (real space) in the front side direction of the HMD 100, in other words, in the visual field direction visually recognized by the user when the image display unit 20 is mounted. In other words, the camera 61 images a range or direction that overlaps the user's field of view, and images a direction that the user visually recognizes. The angle of view of the camera 61 can be set as appropriate. In the present embodiment, the width of the angle of view of the camera 61 is set so that the entire field of view of the user that the user can see through the right light guide plate 26 and the left light guide plate 28 is imaged. The camera 61 executes imaging according to the control of the control unit 150 (FIG. 5), and outputs the obtained imaging data to the control unit 150. The camera 61 functions as an “acquisition unit” by cooperating with the control unit 150.

内側カメラ62は、カメラ61と同様に、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。内側カメラ62は、HMD100の内側方向、換言すれば、画像表示部20の装着状態における使用者と対向する方向を撮像する。本実施形態の内側カメラ62は、使用者の右眼を撮像するための内側カメラと、左眼を撮像するための内側カメラと、を含んでいる。内側カメラ62の画角の広さは、カメラ61と同様に適宜設定できる。ただし、内側カメラ62の画角の広さは、使用者の右眼または左眼の全体を撮像可能な範囲に設定されることが好ましい。内側カメラ62は、カメラ61と同様に、制御部150(図5)の制御に従って撮像を実行し、得られた撮像データーを制御部150へ出力する。なお、内側カメラ62は、制御部150と協働することにより「視線検出部」として機能する。   Similarly to the camera 61, the inner camera 62 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The inner camera 62 images the inner direction of the HMD 100, in other words, the direction facing the user when the image display unit 20 is worn. The inner camera 62 of the present embodiment includes an inner camera for imaging the right eye of the user and an inner camera for imaging the left eye. The width of the angle of view of the inner camera 62 can be set as appropriate similarly to the camera 61. However, the width of the angle of view of the inner camera 62 is preferably set in a range in which the entire right eye or left eye of the user can be imaged. Similarly to the camera 61, the inner camera 62 executes imaging in accordance with the control of the control unit 150 (FIG. 5), and outputs the obtained imaging data to the control unit 150. The inner camera 62 functions as a “line-of-sight detection unit” in cooperation with the control unit 150.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、MD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーはカメラ61と同様に、制御部150により制御され、検出結果を制御部150へ出力する。   The HMD 100 may include a distance measuring sensor that detects a distance to a measurement object positioned in a preset measurement direction. The distance measuring sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 of the front frame 27. The measurement direction of the distance measuring sensor can be the front side direction of the MD 100 (the direction overlapping the imaging direction of the camera 61). The distance measuring sensor can be composed of, for example, a light emitting unit such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured by the light source. In this case, the distance is obtained by triangular distance measurement processing or distance measurement processing based on a time difference. The distance measuring sensor may be configured by, for example, a transmission unit that emits ultrasonic waves and a reception unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance is obtained by distance measurement processing based on the time difference. The distance measuring sensor is controlled by the control unit 150 similarly to the camera 61, and outputs the detection result to the control unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。   FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. For convenience of explanation, FIG. 2 shows a user's right eye RE and left eye LE. As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically.

右眼REに虚像を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。   As a configuration for allowing the right eye RE to visually recognize a virtual image, the right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 and a right optical system 251. The OLED unit 221 emits image light. The right optical system 251 includes a lens group and the like, and guides the image light L emitted from the OLED unit 221 to the right light guide plate 26.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。   The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by light emitting elements that emit light by organic electroluminescence and emit color lights of R (red), G (green), and B (blue). In the OLED panel 223, a plurality of pixels each having a unit including one R, G, and B element as one pixel are arranged in a matrix.

OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。   The OLED drive circuit 225 selects and energizes the light emitting elements included in the OLED panel 223 under the control of the control unit 150 (FIG. 5), and causes the light emitting elements to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be configured by a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate that is fixed to the back surface of the OLED panel 223. A temperature sensor 217 described later is mounted on this substrate. Note that the OLED panel 223 may employ a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to the colors R, G, and B are stacked. Further, an OLED panel 223 having a WRGB configuration including a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be employed.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に虚像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and then emitted from the right light guide plate 26 to the right eye RE. The image light L forms an image with the retina of the right eye RE, thereby allowing the user to visually recognize a virtual image.

左眼LEに虚像を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239が実装される。また、左光学系252の詳細は右光学系251と同じである。   As a configuration for causing the left eye LE to visually recognize a virtual image, the left display unit 24 includes an OLED unit 241 and a left optical system 252. The OLED unit 241 emits image light. The left optical system 252 includes a lens group and the like, and guides the image light L emitted from the OLED unit 241 to the left light guide plate 28. The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. Details of each part are the same as those of the OLED unit 221, the OLED panel 223, and the OLED drive circuit 225. A temperature sensor 239 is mounted on the substrate fixed to the back surface of the OLED panel 243. The details of the left optical system 252 are the same as those of the right optical system 251.

以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外景(実世界)が見えると共に、この外景に重なるようにして画像光Lによる虚像が視認される。   According to the configuration described above, the HMD 100 can function as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 enter the right eye RE of the user. The image light L reflected by the half mirror 281 and the external light OL transmitted through the left light guide plate 28 enter the left eye LE of the user. As described above, the HMD 100 causes the image light L of the image processed inside and the external light OL to overlap and enter the user's eyes. As a result, for the user, the outside scene (real world) can be seen through the right light guide plate 26 and the left light guide plate 28, and the virtual image by the image light L is visually recognized so as to overlap the outside scene.

なお、ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す「画像取り出し部」として機能する。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。   The half mirror 261 and the half mirror 281 function as an “image extraction unit” that reflects the image light output from the right display unit 22 and the left display unit 24 and extracts an image. Further, the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”, and the left optical system 252 and the left light guide plate 28 are also collectively referred to as a “left light guide”. The configurations of the right light guide unit and the left light guide unit are not limited to the above-described examples, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used for the right light guide and the left light guide.

図1において、制御装置10と画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端から、画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。   In FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector provided in the lower part of the control device 10, and is connected to various circuits inside the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable or an optical fiber cable that transmits digital data. The connection cable 40 may further include a metal cable that transmits analog data. A connector 46 is provided in the middle of the connection cable 40.

コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェイス182(図5)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。   The connector 46 is a jack for connecting a stereo mini-plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. Connected to the connector 46 are a right earphone 32 and a left earphone 34 constituting a stereo headphone, and a headset 30 having a microphone 63. For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the line of sight of the user. The microphone 63 collects sound and outputs a sound signal to the sound interface 182 (FIG. 5). The microphone 63 may be a monaural microphone or a stereo microphone, and may be a directional microphone or an omnidirectional microphone.

制御装置10は、使用者に対する入出力インターフェイスとして、ボタン11と、LEDインジケーター12と、十字キー13と、トラックパッド14と、上下キー15と、切替スイッチ16と、電源スイッチ18とを備える。   The control device 10 includes a button 11, an LED indicator 12, a cross key 13, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as an input / output interface for a user.

ボタン11は、制御装置10が実行するOS(オペレーティングシステム)143(図6)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含む。本実施形態のボタン11は、これらのキーやスイッチのうちの押圧操作により変位するタイプのボタンである。LEDインジケーター12は、HMD100の動作状態に対応して点灯あるいは消灯する。十字キー13は、上下左右および中央部分にそれぞれ対応するキーへのタッチまたは押圧操作を検出して、検出内容に応じた信号を出力する。本実施形態の十字キー13は、中央に円形形状の決定ボタンが配置され、その上下左右方向に、上ボタン、下ボタン、左ボタン、右ボタンがそれぞれ配置されている。各ボタンには種々の態様を採用でき、例えば静電容量式のボタンであってもよく、機械接点式のボタンであってもよい。   The button 11 includes a menu key, a home key, a return key, and the like for operating an OS (Operating System) 143 (FIG. 6) executed by the control device 10. The button 11 of this embodiment is a type of button that is displaced by a pressing operation of these keys and switches. The LED indicator 12 is turned on or off according to the operating state of the HMD 100. The cross key 13 detects a touch or press operation on keys corresponding to the upper, lower, left, right, and center portions, and outputs a signal corresponding to the detected content. In the cross key 13 of the present embodiment, a circular determination button is arranged at the center, and an up button, a down button, a left button, and a right button are arranged in the up, down, left and right directions, respectively. Various modes can be adopted for each button, for example, a capacitance type button or a mechanical contact type button.

トラックパッド14は、接触操作を検出する操作面を有し、操作面への接触操作を検出して、検出内容に応じた信号を出力する。接触操作の検出方法には、静電式、圧力検出式、光学式等の種々の方法を採用できる。上下キー15は、ヘッドセット30のイヤホンから出力する音量を増減させるための指示操作や、画像表示部20における輝度を増減させるための指示操作を検出する。切替スイッチ16は、上下キー15の指示対象(音量、輝度)の切り替え操作を検出する。電源スイッチ18は、HMD100の電源のオンオフ(ON、OFF)の切り替え操作を検出する。電源スイッチ18としては、例えばスライドスイッチを採用できる。   The track pad 14 has an operation surface for detecting a contact operation, detects a contact operation on the operation surface, and outputs a signal corresponding to the detected content. Various methods such as an electrostatic method, a pressure detection method, and an optical method can be adopted as a detection method for the contact operation. The up / down key 15 detects an instruction operation for increasing / decreasing the volume output from the earphone of the headset 30 or an instruction operation for increasing / decreasing the luminance in the image display unit 20. The changeover switch 16 detects a changeover operation of an instruction target (volume, luminance) of the up / down key 15. The power switch 18 detects an on / off (ON, OFF) switching operation of the power of the HMD 100. As the power switch 18, for example, a slide switch can be adopted.

図3は、使用者から見た画像表示部20の要部構成を示す図である。図3では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図3の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者は、これらハーフミラー261、281を含む左右の導光板26、28の全体を透過して外景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。   FIG. 3 is a diagram illustrating a main configuration of the image display unit 20 as viewed from the user. In FIG. 3, the connection cable 40, the right earphone 32, and the left earphone 34 are not shown. In the state of FIG. 3, the back sides of the right light guide plate 26 and the left light guide plate 28 can be visually recognized, the half mirror 261 for irradiating the right eye RE with image light, and the image light for irradiating the left eye LE with image light. The half mirror 281 can be visually recognized as a substantially rectangular area. The user views the outside scene through the entire left and right light guide plates 26 and 28 including the half mirrors 261 and 281 and visually recognizes a rectangular display image at the position of the half mirrors 261 and 281.

図4は、カメラ61の画角を説明するための図である。図4では、カメラ61と、使用者の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をCで示す。なお、カメラ61の画角Cは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。   FIG. 4 is a diagram for explaining the angle of view of the camera 61. In FIG. 4, the camera 61 and the user's right eye RE and left eye LE are schematically shown in plan view, and the angle of view (imaging range) of the camera 61 is indicated by C. Note that the angle of view C of the camera 61 extends in the horizontal direction as shown in the figure, and also in the vertical direction as in a general digital camera.

上述のようにカメラ61は、画像表示部20において右側の端部に配置され、使用者の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められHMD100にプリセットされていてもよいし、使用者が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。   As described above, the camera 61 is arranged at the right end of the image display unit 20 and images the direction of the user's line of sight (that is, the front of the user). For this reason, the optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The outside scene that the user can visually recognize in a state where the HMD 100 is worn is not always at infinity. For example, when the user gazes at the object OB with both eyes, the user's line of sight is directed toward the object OB as indicated by reference numerals RD and LD in the figure. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often 1 m to 4 m. Therefore, for the HMD 100, an upper limit and a lower limit of the distance from the user to the object OB during normal use may be determined. This standard may be obtained in advance and preset in the HMD 100, or may be set by the user. The optical axis and the angle of view of the camera 61 are set so that the object OB is included in the angle of view when the distance to the object OB during normal use corresponds to the set upper and lower limits. It is preferred that

なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図4)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。使用者が画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。   In general, a human viewing angle is approximately 200 degrees in the horizontal direction and approximately 125 degrees in the vertical direction. Among them, the effective visual field with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. A stable gaze field in which a gaze point that a person gazes at appears quickly and stably is set to 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB (FIG. 4), the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD. Further, the stable focus is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. The actual field of view that the user permeates through the image display unit 20 and permeates through the right light guide plate 26 and the left light guide plate 28 is referred to as a real field of view (FOV). The real field of view is narrower than the viewing angle and stable focus field, but wider than the effective field of view.

本実施形態のカメラ61の画角Cは、使用者の視野より広い範囲を撮像可能に設定される。カメラ61の画角Cは、少なくとも使用者の有効視野より広い範囲を撮像可能に設定されることが好ましく、実視野よりも広い範囲を撮像可能に設定されることがより好ましい。カメラ61の画角Cは、使用者の安定注視野より広い範囲を撮像可能に設定されることがさらに好ましく、使用者の両眼の視野角よりも広い範囲を撮像可能に設定されることが最も好ましい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。   The angle of view C of the camera 61 of the present embodiment is set so that a wider range than the user's visual field can be imaged. The angle of view C of the camera 61 is preferably set so that at least a range wider than the effective visual field of the user can be captured, and more preferably set so that a range wider than the actual visual field can be captured. It is more preferable that the angle of view C of the camera 61 is set so as to be able to image a wider range than the stable viewing field of the user, and is set so as to be able to image a range wider than the viewing angle of both eyes of the user. Most preferred. For this reason, the camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called an ultra-wide-angle lens or a quasi-wide-angle lens. The camera 61 may include a single focus lens, a zoom lens, or a lens group including a plurality of lenses.

図5は、HMD100の構成を機能的に示すブロック図である。制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェイスと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェイス、電源部130がそれぞれ接続されている。メインプロセッサー140は、制御装置10が内蔵しているコントローラー基板120に実装されている。   FIG. 5 is a block diagram functionally showing the configuration of the HMD 100. The control device 10 includes a main processor 140 that controls the HMD 100 by executing a program, a storage unit, an input / output unit, sensors, an interface, and a power supply unit 130. The storage unit, input / output unit, sensors, interface, and power supply unit 130 are connected to the main processor 140. The main processor 140 is mounted on the controller board 120 built in the control device 10.

記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデーターを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデーターを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。   The storage unit includes a memory 118 and a nonvolatile storage unit 121. The memory 118 constitutes a work area that temporarily stores a computer program executed by the main processor 140 and data to be processed. The nonvolatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a computer program executed by the main processor 140 and various data processed by the main processor 140. In the present embodiment, these storage units are mounted on the controller board 120.

入出力部には、トラックパッド14と、操作部110とが含まれている。操作部110には、上述したボタン11と、LEDインジケーター12と、十字キー13と、トラックパッド14と、上下キー15と、切替スイッチ16と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。   The input / output unit includes a track pad 14 and an operation unit 110. The operation unit 110 includes the button 11, the LED indicator 12, the cross key 13, the track pad 14, the up / down key 15, the changeover switch 16, and the power switch 18. The main processor 140 controls these input / output units and acquires signals output from the input / output units.

センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GPS115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。これらセンサー類(6軸センサー111、磁気センサー113、GPS115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。   The sensors include a six-axis sensor 111, a magnetic sensor 113, and a GPS (Global Positioning System) 115. The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Inertial Measurement Unit) in which these sensors are modularized. The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor. The GPS 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the control device 10. These sensors (six-axis sensor 111, magnetic sensor 113, GPS 115) output detection values to the main processor 140 according to a sampling frequency designated in advance. The timing at which each sensor outputs a detection value may be in accordance with an instruction from the main processor 140.

インターフェイスには、通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェイス186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェイス196とが含まれている。これらは、外部とのインターフェイスとして機能する。通信部117は、HMD100と外部機器との間における無線通信を実行する。通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。通信部117は、例えば、Bluetooth(登録商標)、Wi−Fiを含む無線LAN等の規格に準拠した無線通信を行う。   The interface includes a communication unit 117, an audio codec 180, an external connector 184, an external memory interface 186, a USB (Universal Serial Bus) connector 188, a sensor hub 192, an FPGA 194, and an interface 196. Yes. These function as an interface with the outside. The communication unit 117 performs wireless communication between the HMD 100 and an external device. The communication unit 117 includes an antenna (not shown), an RF circuit, a baseband circuit, a communication control circuit, and the like, or is configured as a device in which these are integrated. The communication unit 117 performs wireless communication based on a standard such as a wireless LAN including Bluetooth (registered trademark) and Wi-Fi, for example.

音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180は、内蔵されているヘッドセット30を介して入出力される音声を加工処理する機能を備えていてもよい。さらに、音声コーデック180は、内蔵されているヘッドセット30を介して入出力される音声信号について、アナログ音声信号からデジタル音声データーへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。A/Dコンバーターは、マイク63を介して入力されるアナログ音声信号を、デジタル音声データーに変換してメインプロセッサー140へ出力する。D/Aコンバーターは、メインプロセッサー140から出力されるデジタル音声データーをアナログ音声信号に変換して、右イヤホン32および左イヤホン34へと出力する。音声インターフェイス182は、ヘッドセット30との間で、音声信号を入出力するインターフェイスである。   The audio codec 180 is connected to the audio interface 182 and encodes / decodes an audio signal input / output via the audio interface 182. The audio codec 180 may have a function of processing audio input / output via the built-in headset 30. Furthermore, the audio codec 180 performs an A / D converter that converts an analog audio signal into digital audio data and vice versa for an audio signal that is input / output via the built-in headset 30. A D / A converter may be provided. The A / D converter converts an analog audio signal input via the microphone 63 into digital audio data and outputs the digital audio data to the main processor 140. The D / A converter converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal to the right earphone 32 and the left earphone 34. The audio interface 182 is an interface for inputting / outputting audio signals to / from the headset 30.

外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスや、無線LANインターフェイス、Bluetoothインターフェイス等の無線接続に対応したインターフェイスを採用できる。   The external connector 184 is a connector for connecting an external device (for example, a personal computer, a smart phone, a game device, etc.) that communicates with the main processor 140 to the main processor 140. The external device connected to the external connector 184 can be a content supply source, and can be used for debugging a computer program executed by the main processor 140 and collecting an operation log of the HMD 100. The external connector 184 can employ various modes. As the external connector 184, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, a memory card interface, or an interface corresponding to a wireless connection such as a wireless LAN interface or a Bluetooth interface can be adopted.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスである。外部メモリーインターフェイス186は、例えば、カード型記録媒体を装着してデーターの読み書きを行うメモリーカードスロットと、インターフェイス回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェイスである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェイス回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。   The external memory interface 186 is an interface to which a portable memory device can be connected. The external memory interface 186 includes, for example, a memory card slot in which a card-type recording medium is mounted and data is read and written, and an interface circuit. The size, shape, standard, etc. of the card type recording medium can be selected as appropriate. The USB connector 188 is an interface that can connect a memory device, a smartphone, a personal computer, or the like that conforms to the USB standard. The USB connector 188 includes, for example, a connector conforming to the USB standard and an interface circuit. The size, shape, USB standard version, etc. of the USB connector 188 can be selected as appropriate.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発声する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。   Further, the HMD 100 includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor, and the like, and utters vibrations under the control of the main processor 140. The HMD 100 causes the vibrator 19 to generate a vibration with a predetermined vibration pattern when, for example, an operation on the operation unit 110 is detected or when the power of the HMD 100 is turned on / off.

センサーハブ192およびFPGA194は、インターフェイス(I/F)196を介して画像表示部20に接続されている。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信されるデーターの処理およびインターフェイス196を介した伝送を実行する。インターフェイス196は、画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、制御装置10のインターフェイス196に接続される。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted / received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196. The interface 196 is connected to each of the right display unit 22 and the left display unit 24 of the image display unit 20. In the example of the present embodiment, the connection cable 40 is connected to the left holding unit 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is It is connected to the interface 196 of the control device 10.

電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、制御装置10から画像表示部20へと電力を供給してもよい。電源部130から制御装置10の各部および画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。   The power supply unit 130 includes a battery 132 and a power supply control circuit 134. The power supply unit 130 supplies power for operating the control device 10. The battery 132 is a rechargeable battery. The power control circuit 134 detects the remaining capacity of the battery 132 and controls the charging of the OS 143. The power supply control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 and a detected value of the voltage of the battery 132 to the main processor 140. Note that power may be supplied from the control device 10 to the image display unit 20 based on the power supplied by the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

右表示ユニット22は、表示ユニット基板210と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read-Only Memory)215とが実装されている。受信部213は、インターフェイス211を介して制御装置10から入力されるデーターを受信する。受信部213は、OLEDユニット221で表示する画像の画像データーを受信した場合に、受信した画像データーをOLED駆動回路225(図2)へと出力する。   The right display unit 22 includes a display unit substrate 210, an OLED unit 221, a camera 61, an illuminance sensor 65, an LED indicator 67, and a temperature sensor 217. On the display unit substrate 210, an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213, and an EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 are mounted. The receiving unit 213 receives data input from the control device 10 via the interface 211. When receiving the image data of the image to be displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

EEPROM215は、各種のデーターをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデーター、右表示ユニット22または左表示ユニット24のセンサー特性に関するデーター等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデーター等を記憶する。これらのデーターは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデーターを読み込んで各種の処理に利用する。   The EEPROM 215 stores various data in a manner that can be read by the main processor 140. The EEPROM 215 stores, for example, data on the light emission characteristics and display characteristics of the OLED units 221 and 241 of the image display unit 20, data on the sensor characteristics of the right display unit 22 or the left display unit 24, and the like. Specifically, for example, parameters relating to gamma correction of the OLED units 221 and 241, data for compensating detection values of temperature sensors 217 and 239 described later, and the like are stored. These data are generated by the factory inspection of the HMD 100 and are written in the EEPROM 215. After shipment, the main processor 140 reads the data in the EEPROM 215 and uses it for various processes.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データーあるいは撮像結果を表す信号を制御装置10へと出力する。照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。   The camera 61 executes imaging in accordance with a signal input via the interface 211 and outputs captured image data or a signal representing the imaging result to the control device 10. As shown in FIG. 1, the illuminance sensor 65 is provided at an end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity). As shown in FIG. 1, the LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 3). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223. The temperature sensor 217 may be incorporated in the OLED panel 223 or the OLED drive circuit 225. For example, when the OLED panel 223 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 225, the temperature sensor 217 may be mounted on the semiconductor chip.

左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェイス196に接続されるインターフェイス(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェイス231を介して制御装置10から入力されるデーターを受信する。受信部233は、OLEDユニット241で表示する画像の画像データーを受信した場合に、受信した画像データーをOLED駆動回路245(図2)へと出力する。   The left display unit 24 includes a display unit substrate 230, an OLED unit 241, and a temperature sensor 239. On the display unit substrate 230, an interface (I / F) 231 connected to the interface 196, a receiving unit (Rx) 233, a six-axis sensor 235, and a magnetic sensor 237 are mounted. The receiving unit 233 receives data input from the control device 10 via the interface 231. When receiving the image data of the image displayed by the OLED unit 241, the receiving unit 233 outputs the received image data to the OLED drive circuit 245 (FIG. 2).

6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245に内蔵されてもよい。詳細は温度センサー217と同様である。   The 6-axis sensor 235 is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensors are modularized. The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor. The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 3). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243. The temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. Details are the same as those of the temperature sensor 217.

右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データーの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデーター形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。   The camera 61, the illuminance sensor 65, and the temperature sensor 217 of the right display unit 22, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 of the left display unit 24 are connected to the sensor hub 192 of the control device 10. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a cache function that temporarily holds the detection value of each sensor. The sensor hub 192 may have a conversion function (for example, a conversion function to a unified format) of a signal format or a data format of a detection value of each sensor. The sensor hub 192 turns on or off the LED indicator 67 by starting and stopping energization of the LED indicator 67 according to the control of the main processor 140.

図6は、HMD100の制御機能部の構成を機能的に示すブロック図である。HMD100の制御機能部は、記憶部122と、制御部150とを備える。記憶部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部である。図6では記憶部122のみを使用する例を示すが、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118が使用されてもよい。また、制御部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。   FIG. 6 is a block diagram functionally showing the configuration of the control function unit of the HMD 100. The control function unit of the HMD 100 includes a storage unit 122 and a control unit 150. The storage unit 122 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 5). Although FIG. 6 illustrates an example in which only the storage unit 122 is used, the EEPROM 215 or the memory 118 may be used in combination with the nonvolatile storage unit 121. The control unit 150 is configured by the main processor 140 executing a computer program, that is, hardware and software cooperate.

記憶部122には、制御部150における処理に供する種々のデーターが記憶されている。具体的には、本実施形態の記憶部122には、設定データー123と、コンテンツデーター124と、デフォルト表示面設定126と、変化パラメーター128とが記憶されている。デフォルト表示面設定126の詳細は後述する。変化パラメーター128は、後述の表示面設定処理において設定されるパラメーターであり、初期状態では0が格納されている。   The storage unit 122 stores various data used for processing in the control unit 150. Specifically, the storage unit 122 of the present embodiment stores setting data 123, content data 124, a default display screen setting 126, and a change parameter 128. Details of the default display screen setting 126 will be described later. The change parameter 128 is a parameter set in a display surface setting process described later, and 0 is stored in the initial state.

設定データー123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データー123には、制御部150がHMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が含まれている。   The setting data 123 includes various setting values related to the operation of the HMD 100. For example, the setting data 123 includes parameters, determinants, arithmetic expressions, LUTs (Look Up Tables), and the like when the control unit 150 controls the HMD 100.

コンテンツデーター124には、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデーター(画像データー、映像データー、音声データー等)が含まれている。なお、コンテンツデーター124には、双方向型のコンテンツのデーターが含まれてもよい。双方向型のコンテンツとは、制御装置10によって使用者の操作を取得して、取得した操作内容に応じた処理を制御部150が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデーターには、使用者の操作を取得するためのメニュー画面の画像データー、メニュー画面に含まれる項目に対応する処理を定めるデーター等を含みうる。   The content data 124 includes content data (image data, video data, audio data, etc.) including images and video displayed by the image display unit 20 under the control of the control unit 150. The content data 124 may include interactive content data. The interactive content is acquired by a user operation by the control device 10, the process according to the acquired operation content is executed by the control unit 150, and the content according to the process content is displayed on the image display unit 20. Means the type of content In this case, the content data may include image data of a menu screen for acquiring a user's operation, data for defining a process corresponding to an item included in the menu screen, and the like.

制御部150は、記憶部122が記憶しているデーターを利用して各種処理を実行することにより、OS143、画像処理部145、表示制御部147、撮像制御部149、拡張現実感処理部151、表示面設定部152としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるアプリケーションプログラムとして構成されている。   The control unit 150 executes various processes using the data stored in the storage unit 122, whereby the OS 143, the image processing unit 145, the display control unit 147, the imaging control unit 149, the augmented reality processing unit 151, The function as the display surface setting unit 152 is executed. In the present embodiment, each functional unit other than the OS 143 is configured as an application program executed on the OS 143.

画像処理部145は、画像表示部20により表示する画像/映像の画像データーに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムをじっこうして実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。   The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image / video image data displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like. In addition to a configuration in which the main processor 140 is realized by running a computer program, the image processing unit 145 may be configured by hardware (for example, a DSP (Digital Signal Processor)) different from the main processor 140.

なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データーの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データーの輝度や彩度を調整する処理である。2D/3D変換処理は、三次元画像データーから二次元画像データーを生成し、あるいは、二次元画像データーから三次元画像データーを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データーに基づき画像を表示するための信号を生成し、接続ケーブル40を介して画像表示部20へと送信する。   Note that the image processing unit 145 may execute resolution conversion processing, image adjustment processing, 2D / 3D conversion processing, and the like as necessary. The resolution conversion process is a process for converting the resolution of the image data into a resolution suitable for the right display unit 22 and the left display unit 24. The image adjustment process is a process for adjusting the brightness and saturation of image data. The 2D / 3D conversion process is a process of generating 2D image data from 3D image data or generating 3D image data from 2D image data. When these processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 147 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by each of the right display unit 22 and the left display unit 24 based on the control signal. To do. Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243 and controls the luminance of the OLED panels 223 and 243 based on the signal output from the image processing unit 145.

撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データーを生成し、記憶部122に一時的に記憶させる。また、カメラ61が撮像画像データーを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データーをカメラ61から取得して、記憶部122に一時的に記憶させる。   The imaging control unit 149 controls the camera 61 to perform imaging, generates captured image data, and temporarily stores the captured image data in the storage unit 122. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 149 acquires the captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 122.

拡張現実感処理部151は、拡張現実感処理を実行する。拡張現実感処理は、仮想オブジェクトを表す虚像を画像表示部20に形成させるための処理であり、以下の手順a1〜a3を含む。ここで、「仮想オブジェクト」とは、現実に使用者を取り巻く周囲の環境(以降、単に「実空間」とも呼ぶ。)には実在しないオブジェクト(画像、文字、図形記号等)を意味する。この仮想オブジェクトは、使用者からの入力を受け付けるための仮想的な入力面や、使用者に対して使用者が行うべき作業手順や作業内容等を案内するための仮想的な案内面を形成することができる。   The augmented reality processing unit 151 executes augmented reality processing. The augmented reality process is a process for causing the image display unit 20 to form a virtual image representing a virtual object, and includes the following procedures a1 to a3. Here, the “virtual object” means an object (image, character, graphic symbol, etc.) that does not actually exist in the surrounding environment (hereinafter also simply referred to as “real space”) surrounding the user. This virtual object forms a virtual input surface for receiving input from the user, and a virtual guide surface for guiding the user to work procedures and work contents to be performed by the user. be able to.

(a1)拡張現実感処理部151は、虚像形成の対象となる仮想オブジェクトを決定する。この仮想オブジェクトは、例えば、制御部150において実行中のアプリケーションに依存して決定され得る。例えば、実行中のアプリケーションが製造業等で使用される作業支援アプリである場合、使用者が次に行うべき作業手順を表す図形や記号や文字や画像、作業支援アプリを操作するためのソフトウェアキーボードやボタン、等が仮想オブジェクトになり得る。例えば、実行中のアプリケーションが通話アプリである場合、通話相手の情報を表す文字や、通話相手の画像、通話アプリを操作するためのソフトウェアキーボードやボタン、等が仮想オブジェクトになり得る。なお、ここで言う画像には、静止画と動画の両方を含む。 (A1) The augmented reality processing unit 151 determines a virtual object that is a target of virtual image formation. This virtual object can be determined depending on, for example, an application being executed in the control unit 150. For example, when the application being executed is a work support application used in the manufacturing industry or the like, a figure, a symbol, a character, an image representing a work procedure to be performed next by the user, or a software keyboard for operating the work support application And buttons can be virtual objects. For example, when the application being executed is a calling application, characters representing information on the calling party, images of the calling party, software keyboards and buttons for operating the calling application, and the like can be virtual objects. The image referred to here includes both a still image and a moving image.

(a2)拡張現実感処理部151は、デフォルト表示面設定126により定まるデフォルト表示面に、手順a1で決定した仮想オブジェクトを表示させるための画像データーを生成する。具体的には、拡張現実感処理部151は、HMD100を装着した状態の使用者がデフォルト表示面に仮想オブジェクトを表す虚像を視認するように、位置および傾きを調整した仮想オブジェクトを配置し、かつ、他の部分に黒色を配置した画像データーを生成する。なお、拡張現実感処理部151は、仮想オブジェクトの位置および傾きの調整のために、手順a1で決定した仮想オブジェクトに対して、拡大、縮小、回転、台形補正等の画像処理を施してもよい。 (A2) The augmented reality processing unit 151 generates image data for displaying the virtual object determined in the procedure a1 on the default display surface determined by the default display surface setting 126. Specifically, the augmented reality processing unit 151 arranges a virtual object whose position and inclination are adjusted so that a user wearing the HMD 100 visually recognizes a virtual image representing the virtual object on the default display surface, and Then, image data in which black is arranged in other portions is generated. Note that the augmented reality processing unit 151 may perform image processing such as enlargement, reduction, rotation, and keystone correction on the virtual object determined in step a1 in order to adjust the position and inclination of the virtual object. .

(a3)拡張現実感処理部151は、手順a2で生成した画像データーを画像処理部145へ送信する。画像処理部145は、受信した画像データーに対して、上述の処理を実行する。 (A3) The augmented reality processing unit 151 transmits the image data generated in the procedure a2 to the image processing unit 145. The image processing unit 145 performs the above-described processing on the received image data.

図7は、デフォルト表示面について説明する図である。手順a1〜a3で説明した拡張現実感処理が実行された結果、HMD100を装着した状態の使用者は、自身の眼前の領域AR1(図7、破線で図示した矩形)に、手順a1で決定された仮想オブジェクト(図形、記号、文字、画像等)を視認することができる。すなわち、図示した領域AR1がデフォルト表示面となる。デフォルト表示面AR1は、使用者の視界内における、重心位置Dと、面の傾きDx,Dy,Dzにより特定される。デフォルト表示面設定126(図6)には、このデフォルト表示面AR1を特定するためのパラメーターとして、重心位置Dと、面の傾きDx,Dy,Dzとが予め記憶されている。   FIG. 7 is a diagram illustrating the default display surface. As a result of the execution of the augmented reality processing described in steps a1 to a3, the user wearing the HMD 100 is determined in step a1 to the area AR1 in front of his / her own eye (the rectangle illustrated by the broken line in FIG. 7). Virtual objects (graphics, symbols, characters, images, etc.) can be visually recognized. That is, the illustrated area AR1 is the default display surface. The default display surface AR1 is specified by the gravity center position D and the surface inclinations Dx, Dy, Dz in the user's field of view. In the default display surface setting 126 (FIG. 6), the center-of-gravity position D and the surface inclinations Dx, Dy, and Dz are stored in advance as parameters for specifying the default display surface AR1.

表示面設定部152(図6)は、後述の表示面設定処理を実行することにより、図7で説明したデフォルト表示面から、使用者が指定した任意の表示面へと仮想オブジェクトの表示面を変更することができる。   The display surface setting unit 152 (FIG. 6) executes the display surface setting process described later to change the display surface of the virtual object from the default display surface described in FIG. 7 to an arbitrary display surface designated by the user. Can be changed.

A−2.表示面設定処理:
図8は、表示面設定処理の手順を示すフローチャートである。表示面設定処理は、図7で説明したデフォルト表示面から、使用者が指定した任意の表示面へと仮想オブジェクトの表示面を変更する処理である。表示面設定処理は、制御装置10の表示面設定部152により実行される。
A-2. Display surface setting process:
FIG. 8 is a flowchart showing the procedure of the display surface setting process. The display surface setting process is a process of changing the display surface of the virtual object from the default display surface described in FIG. 7 to an arbitrary display surface designated by the user. The display surface setting process is executed by the display surface setting unit 152 of the control device 10.

ステップS100において表示面設定部152は、使用者から表示面設定処理の開始指示があったか否かを判定する。開始指示は、任意の態様で与えられうる。例えば、OS143の画面上に作成されたアイコンの選択実行や、音声によるコマンドを用いた開始指示、ジェスチャーによるコマンドを用いた開始指示等を利用できる。表示面設定処理の開始指示は、OS143にインストールされている任意のコンピュータープログラムからの呼び出しの形式で与えられてもよい。表示面設定処理の開始指示がない場合(ステップS100:NO)、表示面設定部152は、ステップS100に戻って監視を継続する。   In step S <b> 100, the display surface setting unit 152 determines whether or not there is an instruction to start the display surface setting process from the user. The start instruction can be given in any manner. For example, selection execution of an icon created on the screen of the OS 143, a start instruction using a voice command, a start instruction using a gesture command, or the like can be used. The display surface setting process start instruction may be given in the form of a call from an arbitrary computer program installed in the OS 143. When there is no instruction to start the display surface setting process (step S100: NO), the display surface setting unit 152 returns to step S100 and continues monitoring.

表示面設定処理の開始指示があった場合(ステップS100:YES)、ステップS102において表示面設定部152は、表示面設定モードに移行する。まず、表示面設定部152は、使用者の視線の方向を取得する。具体的には、表示面設定部152は、内側カメラ62により撮影された使用者の右眼の画像および左眼の画像をそれぞれ解析し、黒目の向きを取得する。表示面設定部152は、取得した黒目の向きから使用者の視線の方向を推定する。   When there is an instruction to start the display surface setting process (step S100: YES), in step S102, the display surface setting unit 152 shifts to the display surface setting mode. First, the display surface setting unit 152 acquires the direction of the user's line of sight. Specifically, the display surface setting unit 152 analyzes the right eye image and the left eye image of the user taken by the inner camera 62, and acquires the direction of the black eye. The display surface setting unit 152 estimates the direction of the user's line of sight from the acquired direction of the black eye.

図9は、表示面設定処理のステップS104〜S108について説明する図である。図9以降の図では、HMD100を装着した使用者と、使用者の手とを鉛直方向上側(使用者の頭頂部側)から図示している。ステップS104において表示面設定部152は、カメラ61に、取得した視線の方向を三次元スキャン(三次元認識)させる。図1および図5で説明した本実施形態のカメラ61は、レーザー光射出部を備えており、HMD100の表側方向(画像表示部20の装着状態において使用者が視認する視界方向)を三次元スキャンすることができる。   FIG. 9 is a diagram illustrating steps S104 to S108 of the display surface setting process. In FIG. 9 and subsequent figures, the user wearing the HMD 100 and the user's hand are illustrated from the upper side in the vertical direction (the top of the user's head). In step S104, the display surface setting unit 152 causes the camera 61 to perform a three-dimensional scan (three-dimensional recognition) on the acquired line-of-sight direction. The camera 61 of the present embodiment described with reference to FIGS. 1 and 5 includes a laser light emitting unit, and performs a three-dimensional scan in the front side direction of the HMD 100 (the visual field direction visually recognized by the user when the image display unit 20 is mounted). can do.

具体的には、カメラ61は、レーザー光射出部から、スリット状のレーザー光をHMD100の表側方向へと射出する。カメラ61は、射出したレーザー光の反射光を、CCDまたはCMOSの撮像素子を用いて受光する。カメラ61は、三角測距の原理を用いて被写体との距離情報を取得し、三次元データー化する。また、カメラ61は、受光データーを回転フィルターで分光することで、同一のCCDまたはCMOSによって所定解像度のカラー画像データーも取得する。例えば、図9の例では、表示面設定部152は、カメラ61に視線の方向LSを三次元スキャンさせることで、使用者の手hdの三次元データーと、カラー画像データーとを取得することができる。本ステップで得られた三次元データーとカラー画像データーとは「実空間の情報」として機能する。   Specifically, the camera 61 emits slit-shaped laser light from the laser light emitting unit in the front side direction of the HMD 100. The camera 61 receives reflected light of the emitted laser light using a CCD or CMOS image sensor. The camera 61 acquires distance information with respect to the subject using the principle of triangulation, and converts it into three-dimensional data. Further, the camera 61 obtains color image data having a predetermined resolution by the same CCD or CMOS by dispersing the received light data with a rotating filter. For example, in the example of FIG. 9, the display surface setting unit 152 can acquire the three-dimensional data of the user's hand hd and the color image data by causing the camera 61 to perform a three-dimensional scan in the direction LS of the line of sight. it can. The three-dimensional data and color image data obtained in this step function as “real space information”.

ステップS106において表示面設定部152は、三次元スキャンの有効範囲内に何らかの物体があるか否かを判定する。具体的には、表示面設定部152は、ステップS104で得られた三次元データーを参照し、三次元データーに含まれている物体を検出する。なお、三次元データーに複数の物体(例えば、複数の手、手と置物等)が含まれている場合、本ステップでは全ての物体を検出する。物体がない場合(ステップS106:NO)、表示面設定部152は、ステップS102に遷移して使用者の視線の方向を再取得する。この際、表示面設定部152は、物体が検出されなかった旨や、視線の方向の移動を誘導するためのメッセージを使用者に通知してもよい。通知は、文字等の表示、音声等の任意の態様を採用できる。   In step S106, the display surface setting unit 152 determines whether there is any object within the effective range of the three-dimensional scan. Specifically, the display surface setting unit 152 refers to the 3D data obtained in step S104 and detects an object included in the 3D data. In addition, when a plurality of objects (for example, a plurality of hands, hands and figurines, etc.) are included in the three-dimensional data, all objects are detected in this step. When there is no object (step S106: NO), the display surface setting unit 152 proceeds to step S102 and reacquires the direction of the user's line of sight. At this time, the display surface setting unit 152 may notify the user that the object has not been detected or a message for guiding the movement in the direction of the line of sight. The notification can employ any form such as display of characters or the like, voice or the like.

物体がある場合(ステップS106:YES)、ステップS108において表示面設定部152は、検出した物体のうちの1つについて、当該物体が基準面を含むか否かを判定する。本実施形態の表示面設定部152は、以下の条件b1、b2の両方を満たす場合に、当該物体が基準面を含むと判定する。なお、表示面設定部152は、例示した条件b1、b2の他にも種々の条件を用いて基準面を含むか否かの判定を行うことができる。なお、条件b1、b2は「予め定められた条件」に相当する。   When there is an object (step S106: YES), in step S108, the display surface setting unit 152 determines, for one of the detected objects, whether the object includes a reference surface. The display surface setting unit 152 of the present embodiment determines that the object includes a reference surface when both of the following conditions b1 and b2 are satisfied. The display surface setting unit 152 can determine whether or not the reference surface is included using various conditions in addition to the exemplified conditions b1 and b2. The conditions b1 and b2 correspond to “predetermined conditions”.

(b1)判定対象の物体が、第1の範囲内の平面度を有する面を含むこと。第1の範囲は、適宜設定できるが、例えば人間の手のような多少の凹凸のある物体を許容し、かつ、人間の顔のような凹凸の大きい物体については許容しない範囲とされることが好ましい。第1の範囲を適切に設定することにより、表示面設定部152は、誤認識を抑制することができる。
(b2)判定対象の物体における上記面の面積が、第2の値以上であること。第2の値は、適宜設定できるが、例えば使用者から遠く離れた場所にいる第三者の手や顔、任意の物体等については除外できる値とされることが好ましい。第2の値を適切に設定することにより、表示面設定部152は、誤認識を抑制することができる。
(B1) The determination target object includes a surface having flatness within the first range. The first range can be set as appropriate. For example, an object with some unevenness such as a human hand is allowed, and an object with large unevenness such as a human face is not allowed. preferable. By appropriately setting the first range, the display surface setting unit 152 can suppress erroneous recognition.
(B2) The area of the surface of the object to be determined is greater than or equal to the second value. The second value can be set as appropriate, but is preferably a value that can be excluded from, for example, a third party's hand, face, or any object located far away from the user. By appropriately setting the second value, the display surface setting unit 152 can suppress erroneous recognition.

例えば、図9の例では、表示面設定部152は、検出した物体(使用者の手hd)の手のひら、および、そろえられた指からなる平面CA(図9、破線)を、基準面CAと認定する。なお、図9の例では基準面CAは楕円形状であるが、基準面の形状に特に制限はなく、任意の形状を採り得る。   For example, in the example of FIG. 9, the display surface setting unit 152 sets a plane CA (FIG. 9, broken line) including the palm of the detected object (user's hand hd) and the aligned fingers as the reference plane CA. Authorize. In the example of FIG. 9, the reference plane CA has an elliptical shape, but the shape of the reference plane is not particularly limited, and any shape can be adopted.

判定対象の物体が基準面を含まない場合(ステップS108:NO)、表示面設定部152は、検出した他の物体について、ステップS108の判定を順次行っていく。なお、検出した全ての物体が基準面を含まなかった場合、表示面設定部152は、ステップS102に遷移して使用者の視線の方向を再取得してもよい。この際、表示面設定部152は、物体が検出されなかった旨のメッセージや、視線の方向の移動を誘導するためのメッセージを使用者に通知してもよい。   When the object to be determined does not include the reference surface (step S108: NO), the display surface setting unit 152 sequentially performs the determination in step S108 for the other detected objects. When all the detected objects do not include the reference plane, the display plane setting unit 152 may transition to step S102 and reacquire the direction of the user's line of sight. At this time, the display surface setting unit 152 may notify the user of a message indicating that no object has been detected or a message for guiding the movement in the direction of the line of sight.

なお、表示面設定部152は、ステップS108の判定を、検出した物体のうち、特定の特徴を含む物体に限って実施してもよい。特定の特徴として、例えば、人間の手、使用者の手、所定形状の物体、所定のパターンを有する情報を含んだ画像等を採用できる。人間の手とは、使用者、第三者問わない人間の手である。使用者の手とは、HMD100を現在使用している使用者自身の手を意味し、指紋や掌紋を照合することで判定できる。所定形状の物体とは、例えば、スマートフォン(矩形形状のデバイス)や、手帳(矩形形状の媒体)、時計の文字盤(矩形形状や円形状のデバイス)、うちわ(円形状の媒体)、ペン(細長い円筒形状の媒体)等を採用し得る。所定のパターンを有する情報を含んだ画像とは、例えば、QRコード(登録商標)等の二次元コード、マーカー等を採用し得る。使用者の手を認識するための指紋や掌紋、所定形状の物体を認識するための物体のパターン、所定のパターンを有する情報を含んだ画像を認識するための画像内のパターンについては、記憶部122に予め記憶されていてもよく、ネットワークを介してHMD100に接続されている外部装置(例えばクラウドサーバー)に予め記憶されていてもよい。このようにすれば、これら特定の特徴を含む物体に限りステップS108の処理が実行されるため、表示面設定処理を効率化することができる。   Note that the display surface setting unit 152 may perform the determination in step S108 only on an object including a specific feature among the detected objects. As specific characteristics, for example, a human hand, a user's hand, an object having a predetermined shape, an image including information having a predetermined pattern, or the like can be employed. The human hand is a human hand regardless of a user or a third party. The user's hand means the hand of the user who is currently using the HMD 100, and can be determined by collating fingerprints or palm prints. Examples of objects having a predetermined shape include smartphones (rectangular devices), notebooks (rectangular media), clock faces (rectangular and circular devices), round fans (circular media), pens ( An elongated cylindrical medium) or the like may be employed. As an image including information having a predetermined pattern, for example, a two-dimensional code such as a QR code (registered trademark), a marker, or the like may be employed. For a fingerprint or palm print for recognizing a user's hand, an object pattern for recognizing an object of a predetermined shape, and a pattern in an image for recognizing an image including information having a predetermined pattern, a storage unit 122 may be stored in advance, or may be stored in advance in an external device (for example, a cloud server) connected to the HMD 100 via a network. In this way, since the process of step S108 is executed only for objects including these specific features, the display surface setting process can be made more efficient.

図10は、表示面設定処理のステップS110について説明する図である。図8において判定対象の物体が基準面CAを含む場合(ステップS108:YES)、ステップS110において表示面設定部152は、デフォルト表示面(図7)に対する基準面CAの重心位置と、平面傾きとの変化パラメーターを求める。基準面CAの重心位置は、使用者の視界内における基準面CAの重心位置Cである(図10、黒丸)。基準面CAの平面傾きは、使用者の視界内における傾きCx,Cy,Czである(図10、黒丸から延びる矢印)。このため、ステップS110において表示面設定部152は、使用者の視界内における、
・デフォルト表示面の重心位置Dから基準面CAの重心位置Cへの変化量と、
・デフォルト表示面の傾きDxから基準面CAの傾きCxへの変化量と、
・デフォルト表示面の傾きDyから基準面CAの傾きCyへの変化量と、
・デフォルト表示面の傾きDzから基準面CAの傾きCzへの変化量と、
をそれぞれ求め、これらをセットにして変化パラメーターとする。
FIG. 10 is a diagram illustrating step S110 of the display surface setting process. When the object to be determined includes the reference plane CA in FIG. 8 (step S108: YES), in step S110, the display plane setting unit 152 determines the center of gravity position of the reference plane CA with respect to the default display plane (FIG. 7), the plane inclination, and the like. Find the change parameter of. The gravity center position of the reference surface CA is the gravity center position C of the reference surface CA in the user's field of view (FIG. 10, black circle). The plane inclination of the reference plane CA is the inclination Cx, Cy, Cz in the user's field of view (FIG. 10, arrow extending from the black circle). For this reason, the display surface setting unit 152 in step S110 is within the user's field of view.
The amount of change from the center of gravity position D of the default display surface to the center of gravity position C of the reference surface CA;
The amount of change from the inclination Dx of the default display surface to the inclination Cx of the reference surface CA;
An amount of change from the inclination Dy of the default display surface to the inclination Cy of the reference surface CA;
The amount of change from the inclination Dz of the default display surface to the inclination Cz of the reference surface CA;
Are obtained and set as a change parameter.

図8のステップS112において表示面設定部152は、求めた変化パラメーターに基づいて仮想オブジェクトの表示面を設定する。具体的には、表示面設定部152は、ステップS110で求めた変化パラメーター(重心位置の変化量、傾きx,y,zの変化量の各々)を、変化パラメーター128(図6)に記憶させる。変化パラメーター128に初期値(0)以外の値が格納されている場合、上述した拡張現実感処理の手順a2において拡張現実感処理部151は、デフォルト表示面設定126(重心位置D、面の傾きDx,Dy,Dz)を、変化パラメーター128(重心位置の変化量、傾きx,y,zの変化量の各々)で補正することにより定まる表示面に対して、手順a1で決定した仮想オブジェクトを表示させるための画像データーを生成する。   In step S112 of FIG. 8, the display surface setting unit 152 sets the display surface of the virtual object based on the obtained change parameter. Specifically, the display surface setting unit 152 stores the change parameters (the change amounts of the center of gravity and the change amounts of the inclinations x, y, and z) obtained in step S110 in the change parameter 128 (FIG. 6). . When a value other than the initial value (0) is stored in the change parameter 128, the augmented reality processing unit 151 in the above-described augmented reality processing procedure a 2 causes the default display surface setting 126 (centroid position D, surface inclination). Dx, Dy, Dz) is corrected with the change parameter 128 (the change in the center of gravity position and the change in each of the inclinations x, y, z), and the virtual object determined in step a1 is determined on the display surface. Generate image data to be displayed.

図11は、補正後の表示面について説明する図である。変化パラメーター128を用いた拡張現実感処理(手順a1〜a3)が実行された結果、HMD100を装着した状態の使用者は、基準面CAの重心位置Cと同じ重心位置、かつ、基準面CAの傾きCx,Cy,Czと同じ傾きの領域AR2(図11、破線で図示した矩形)に、手順a1で決定された仮想オブジェクト(図形、記号、文字、画像等)を視認することができる。   FIG. 11 is a diagram for explaining the corrected display surface. As a result of executing the augmented reality processing (procedures a1 to a3) using the change parameter 128, the user wearing the HMD 100 has the same centroid position C as the centroid position C of the reference plane CA and the reference plane CA. The virtual objects (graphics, symbols, characters, images, etc.) determined in step a1 can be visually recognized in the area AR2 (the rectangle shown by the broken line in FIG. 11) having the same inclination as the inclinations Cx, Cy, Cz.

なお、上述した例では、1つの仮想オブジェクトの表示面だけを例示して説明したが、表示面設定部152は、複数の仮想オブジェクトの表示面についても、上記と同様の方法を用いて設定することができる。複数の仮想オブジェクトの表示面には、例えば、使用者が行うべき作業手順や作業内容等を案内する案内面用の表示面と、使用者がHMD100を操作するために用いる操作面用の表示面等、性質の異なる表示面が含まれていてもよい。また、複数の仮想オブジェクトの表示面には、同じ性質の表示面が含まれていてもよい。   In the above-described example, only the display surface of one virtual object is described as an example, but the display surface setting unit 152 sets the display surfaces of a plurality of virtual objects using the same method as described above. be able to. The display surfaces of the plurality of virtual objects include, for example, a display surface for a guide surface that guides work procedures and work contents to be performed by the user, and a display surface for an operation surface that is used by the user to operate the HMD 100. Etc., display surfaces having different properties may be included. The display surfaces of the plurality of virtual objects may include display surfaces having the same property.

以上のように、本実施形態によれば、制御部150の表示面設定部152は、使用者が視認する仮想オブジェクトの位置および傾きを、実空間にある基準面CAの位置Cおよび傾きCx,Cy,Czに基づいて変更する(図8、ステップS112)。このため使用者は、表示面設定モード中に基準面CAの位置Cおよび傾きCx,Cy,Czを調整する(例えば、手の位置や傾きを変える)ことによって、虚像として視認する仮想オブジェクトの位置および傾き、換言すれば、仮想オブジェクトの表示面AR2の位置および傾きを、意図するように調整することができる。   As described above, according to the present embodiment, the display surface setting unit 152 of the control unit 150 determines the position and inclination of the virtual object visually recognized by the user as the position C and the inclination Cx of the reference plane CA in the real space. It changes based on Cy and Cz (FIG. 8, step S112). For this reason, the user adjusts the position C and the inclinations Cx, Cy, and Cz of the reference surface CA during the display surface setting mode (for example, by changing the position and inclination of the hand) and the position of the virtual object that is visually recognized as a virtual image. And, in other words, the position and inclination of the display surface AR2 of the virtual object can be adjusted as intended.

また、本実施形態によれば、使用者が虚像として視認する仮想オブジェクトの位置および傾き(仮想オブジェクトの表示面AR2の位置および傾き)は、実空間にある基準面CAの位置Cおよび傾きCx,Cy,Czと同じとなる(図8、ステップS112)。このため使用者は、仮想オブジェクトの位置および傾きの調整を直感的に行うことができる。   Further, according to the present embodiment, the position and inclination of the virtual object that the user visually recognizes as a virtual image (the position and inclination of the display surface AR2 of the virtual object) are the position C and inclination Cx of the reference plane CA in the real space. It becomes the same as Cy and Cz (FIG. 8, step S112). Therefore, the user can intuitively adjust the position and inclination of the virtual object.

さらに、本実施形態によれば、取得部(カメラ61)は、使用者の視線の方向LSに相当する実空間の情報(三次元データー、カラー画像データー)だけを取得する(ステップS104)。換言すれば、取得部は、使用者の視線の方向LSに相当しない実空間の情報の取得を省略する。このため、取得部により取得された実空間の情報における情報量を低減することができる。この結果、制御部150の表示面設定部152による解析(ステップS108、S110)時の処理負荷を低減することができる。   Furthermore, according to the present embodiment, the acquisition unit (camera 61) acquires only real space information (three-dimensional data, color image data) corresponding to the user's line-of-sight direction LS (step S104). In other words, the acquisition unit omits acquisition of real space information that does not correspond to the user's line-of-sight direction LS. For this reason, the information content in the information of the real space acquired by the acquisition part can be reduced. As a result, the processing load at the time of analysis (steps S108 and S110) by the display surface setting unit 152 of the control unit 150 can be reduced.

A−3.付加処理:
表示面設定処理において、表示面設定部152は、次に例示する処理c1,c2を付加的に実行してもよい。処理c1,c2は、単独で付加されてもよく、組み合わせて付加されてもよい。
A-3. Additional processing:
In the display surface setting process, the display surface setting unit 152 may additionally execute processes c1 and c2 exemplified below. The processes c1 and c2 may be added alone or in combination.

(c1)仮想オブジェクトの表示面の再変更:
図12は、仮想オブジェクトの表示面の再変更について説明する図である。図8で説明した表示面設定処理を終了後、使用者による第1の動作の検出に応じて、表示面設定部152は、表示面設定処理を再び実行することで、仮想オブジェクトの表示面の位置および傾きを、新たに求めた基準面の位置および傾きに基づいて再変更してもよい。第1の動作とは、予め任意に定めておくことができる。例えば、図12に示すように、手hdを所定の形(図の例では、親指を立てる形)にする動作、指を所定の形にする動作、手hdの向きや表裏を変える動作、所定のジェスチャー、所定内容の発話(音声コマンド)等を採用できる。なお、表示面設定部152は、前回の表示面設定処理により設定された仮想オブジェクトの表示面AR2の近傍で第1の動作を検出した場合に限って、表示面設定処理を再び実行してもよい。
(C1) Re-changing the display surface of the virtual object:
FIG. 12 is a diagram for explaining re-change of the display surface of the virtual object. After the display surface setting process described with reference to FIG. 8 is completed, the display surface setting unit 152 executes the display surface setting process again in response to the detection of the first motion by the user, so that the display surface of the virtual object is displayed. The position and inclination may be changed again based on the newly obtained position and inclination of the reference plane. The first operation can be arbitrarily determined in advance. For example, as shown in FIG. 12, the operation to make the hand hd a predetermined shape (in the example shown, the shape of standing the thumb), the operation to make the finger a predetermined shape, the operation to change the direction and front / back of the hand hd, the predetermined Gestures, utterances with predetermined contents (voice commands), etc. can be employed. Note that the display surface setting unit 152 may execute the display surface setting process again only when the first action is detected in the vicinity of the display surface AR2 of the virtual object set by the previous display surface setting process. Good.

この再変更の場合、表示面設定部152は、新たに求めた変化パラメーターによって変化パラメーター128を上書きしてもよいし、変化パラメーター128に時刻や版数と共に、新たに求めた変化パラメーターを記憶させてもよい。   In the case of this re-change, the display surface setting unit 152 may overwrite the change parameter 128 with the newly obtained change parameter, or store the newly obtained change parameter together with the time and version number in the change parameter 128. May be.

このようにすれば、制御部150の表示面設定部152は、第1の動作を契機として仮想オブジェクトの位置および傾き(仮想オブジェクトの表示面AR2の位置および傾き)を再変更するため、使用者における利便性を向上させることができる。   In this way, the display surface setting unit 152 of the control unit 150 re-changes the position and inclination of the virtual object (position and inclination of the display surface AR2 of the virtual object) triggered by the first operation. Convenience can be improved.

(c2)仮想オブジェクトの表示態様の変更:
図12および図14は、仮想オブジェクトの表示態様の変更について説明する図である。図8で説明した表示面設定処理を終了後、使用者による第2の動作の検出に応じて、拡張現実感処理部151は、仮想オブジェクトの表示態様を変更してもよい。表示態様とは、仮想オブジェクトの表示の有無、仮想オブジェクトの大きさ、仮想オブジェクトの色彩、仮想オブジェクトの透過度、仮想オブジェクトの明るさ、仮想オブジェクトの内容等である。第2の動作とは、予め任意に定めておくことができ、手hdを所定の形にする動作、指を所定の形にする動作、手hdの向きや表裏を変える動作、所定のジェスチャー、所定内容の発話(音声コマンド)等を採用できる。例えば、図13の例では、手hdのページをめくる動作により、仮想オブジェクトOBの内容(具体的には、表示されているページ)が変更される。例えば、図14の例では、手hdの拳を握る動作により、仮想オブジェクトOBが非表示に変更される。
(C2) Change display mode of virtual object:
FIG. 12 and FIG. 14 are diagrams for explaining the change of the display mode of the virtual object. After the display surface setting process described with reference to FIG. 8 ends, the augmented reality processing unit 151 may change the display mode of the virtual object in response to the detection of the second action by the user. The display mode includes whether or not a virtual object is displayed, the size of the virtual object, the color of the virtual object, the transparency of the virtual object, the brightness of the virtual object, the contents of the virtual object, and the like. The second action can be arbitrarily determined in advance, such as an action for making the hand hd into a predetermined shape, an action for making the finger into a predetermined shape, an action for changing the orientation or front / back of the hand hd, a predetermined gesture, An utterance (voice command) having a predetermined content can be employed. For example, in the example of FIG. 13, the content of the virtual object OB (specifically, the displayed page) is changed by the operation of turning the page of the hand hd. For example, in the example of FIG. 14, the virtual object OB is changed to non-display by the operation of grasping the fist of the hand hd.

このようにすれば、制御部150の拡張現実感処理部151は、第2の動作を契機として仮想オブジェクトの表示態様を変更するため、使用者における利便性を向上させることができる。   In this way, since the augmented reality processing unit 151 of the control unit 150 changes the display mode of the virtual object triggered by the second operation, the convenience for the user can be improved.

B.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
B. Variations:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

上記実施形態では、右導光板26および左導光板28が外光を透過する、いわゆる透過型のHMD100について説明した。しかし、本発明は、例えば、外景を視認できない状態で画像を表示する、いわゆる非透過型のHMD100に適用することもできる。また、これらのHMD100では、上記実施形態で説明した実空間に重畳して画像を表示するAR表示のほか、撮像した実空間の画像と仮想画像とを組み合わせて表示するMR(Mixed Reality)表示、あるいは、仮想空間を表示するVR(Virtual Reality)表示を行うこともできる。また本発明は、AR、MR、VR表示のいずれも行わない装置にも適用できる。   In the above embodiment, the so-called transmission type HMD 100 in which the right light guide plate 26 and the left light guide plate 28 transmit external light has been described. However, the present invention can also be applied to, for example, a so-called non-transmissive HMD 100 that displays an image in a state where an outside scene cannot be visually recognized. In addition, in these HMDs 100, in addition to the AR display that displays an image superimposed on the real space described in the above embodiment, an MR (Mixed Reality) display that displays a combination of the captured real space image and a virtual image, Or VR (Virtual Reality) display which displays virtual space can also be performed. The present invention can also be applied to an apparatus that does not perform any of AR, MR, and VR display.

上記実施形態では、制御装置10および画像表示部20の機能部について説明したが、これらは任意に変更することができる。例えば、次のような態様を採用してもよい。制御装置10に記憶部122および制御部150を搭載し、画像表示部20には表示機能のみを搭載する態様。制御装置10と画像表示部20との両方に、記憶部122および制御部150を搭載する態様。制御装置10と画像表示部20とを一体化した態様。この場合、例えば、画像表示部20に制御装置10の構成要素が全て含まれ、眼鏡型のウェアラブルコンピューターとして構成される。制御装置10の代わりにスマートフォンや携帯型ゲーム機器を使用する態様。制御装置10と画像表示部20とを無線通信により接続し、接続ケーブル40を配した態様。この場合、例えば、制御装置10や画像表示部20に対する給電についても無線で実施してよい。   In the above embodiment, the functional units of the control device 10 and the image display unit 20 have been described, but these can be arbitrarily changed. For example, the following aspects may be adopted. A mode in which the storage unit 122 and the control unit 150 are mounted on the control device 10 and only the display function is mounted on the image display unit 20. The aspect which mounts the memory | storage part 122 and the control part 150 in both the control apparatus 10 and the image display part 20. FIG. The aspect which integrated the control apparatus 10 and the image display part 20. FIG. In this case, for example, the image display unit 20 includes all the components of the control device 10 and is configured as a glasses-type wearable computer. A mode in which a smartphone or a portable game device is used instead of the control device 10. The aspect which connected the control apparatus 10 and the image display part 20 by radio | wireless communication, and arranged the connection cable 40. FIG. In this case, for example, power supply to the control device 10 and the image display unit 20 may be performed wirelessly.

・変形例2:
上記実施形態では、制御装置の構成について例示した。しかし、制御装置の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
Modification 2
In the said embodiment, it illustrated about the structure of the control apparatus. However, the configuration of the control device can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

上記実施形態では、制御装置10が備える入力手段の一例について説明した。しかし、制御装置10は、例示した一部の入力手段を省略して構成されてもよく、上述しない他の入力手段を備えていてもよい。例えば、制御装置10は、操作スティック、キーボード、マウス等を備えていてもよい。例えば、制御装置10は、使用者の身体の動き等に対応付けられたコマンドを解釈する入力手段を備えていてもよい。使用者の身体の動き等とは、例えば、視線を検出する視線検出、手の動きを検出するジェスチャー検出、足の動きを検出するフットスイッチ等により取得できる。なお、視線検出は、例えば、画像表示部20の内側を撮像するカメラにより実現できる。ジェスチャー検出は、例えば、カメラ61により経時的に撮影された画像を解析することにより実現できる。   In the above embodiment, an example of the input unit provided in the control device 10 has been described. However, the control device 10 may be configured by omitting some of the illustrated input means, and may include other input means not described above. For example, the control device 10 may include an operation stick, a keyboard, a mouse, and the like. For example, the control device 10 may include an input unit that interprets a command associated with the movement of the user's body. The user's body movement or the like can be acquired by, for example, line-of-sight detection for detecting line-of-sight, gesture detection for detecting hand movement, foot switch for detecting foot movement, or the like. The line-of-sight detection can be realized by, for example, a camera that images the inside of the image display unit 20. Gesture detection can be realized, for example, by analyzing an image taken with time by the camera 61.

上記実施形態では、制御部150は、メインプロセッサー140が記憶部122内のコンピュータープログラムを実行することにより動作するとした。しかし、制御部150は種々の構成を採用することができる。例えば、コンピュータープログラムは、記憶部122に代えて、または記憶部122と共に、不揮発性記憶部121、EEPROM215、メモリー118、他の外部記憶装置(各種インターフェイスに挿入されているUSBメモリー等の記憶装置、ネットワークを介して接続されているサーバー等の外部装置を含む)に格納されていてもよい。また、制御部150の各機能は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit)を用いて実現されてもよい。   In the above embodiment, the control unit 150 is operated by the main processor 140 executing the computer program in the storage unit 122. However, the control unit 150 can employ various configurations. For example, the computer program may be replaced with or together with the storage unit 122, the nonvolatile storage unit 121, the EEPROM 215, the memory 118, another external storage device (a storage device such as a USB memory inserted in various interfaces, It may be stored in an external device such as a server connected via a network. In addition, each function of the control unit 150 may be realized using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

・変形例3:
上記実施形態では、画像表示部の構成について例示した。しかし、画像表示部の構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
・ Modification 3:
In the said embodiment, it illustrated about the structure of the image display part. However, the configuration of the image display unit can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

図15は、変形例の画像表示部が備える光学系の構成を示す要部平面図である。変形例の画像表示部では、使用者の右眼REに対応したOLEDユニット221aと、左眼LEに対応したOLEDユニット241aと、が設けられている。右眼REに対応したOLEDユニット221aは、白色で発色するOLEDパネル223aと、OLEDパネル223aを駆動して発光させるOLED駆動回路225とを備えている。OLEDパネル223aと右光学系251との間には、変調素子227(変調装置)が配置されている。変調素子227は、例えば、透過型液晶パネルで構成され、OLEDパネル223aが発する光を変調して画像光Lを生成する。変調素子227を透過して変調された画像光Lは、右導光板26によって右眼REに導かれる。   FIG. 15 is a main part plan view showing the configuration of the optical system provided in the image display unit of the modification. In the image display unit of the modified example, an OLED unit 221a corresponding to the user's right eye RE and an OLED unit 241a corresponding to the left eye LE are provided. The OLED unit 221a corresponding to the right eye RE includes an OLED panel 223a that develops white color and an OLED drive circuit 225 that drives the OLED panel 223a to emit light. A modulation element 227 (modulation device) is arranged between the OLED panel 223a and the right optical system 251. The modulation element 227 is configured by, for example, a transmissive liquid crystal panel, and generates image light L by modulating light emitted from the OLED panel 223a. The image light L that has been transmitted through the modulation element 227 and is modulated is guided to the right eye RE by the right light guide plate 26.

左眼LEに対応したOLEDユニット241aは、白色で発光するOLEDパネル243aと、OLEDパネル243aを駆動して発光させるOLED駆動回路245とを備えている。OLEDパネル243aと左光学系252との間には、変調素子247(変調装置)が配置されている。変調素子247は、例えば、透過型液晶パネルで構成され、OLEDパネル243aが発する光を変調して画像光Lを生成する。変調素子247を透過して変調された画像光Lは、左導光板28によって左眼LEに導かれる。変調素子227、247は、図示しない液晶ドライバー回路に接続される。この液晶ドライバー回路(変調装置駆動部)は、例えば変調素子227、247の近傍に配置される基板に実装される。   The OLED unit 241a corresponding to the left eye LE includes an OLED panel 243a that emits white light and an OLED drive circuit 245 that drives the OLED panel 243a to emit light. A modulation element 247 (modulation device) is arranged between the OLED panel 243a and the left optical system 252. The modulation element 247 is constituted by, for example, a transmissive liquid crystal panel, and generates image light L by modulating light emitted from the OLED panel 243a. The image light L that has been modulated through the modulation element 247 is guided to the left eye LE by the left light guide plate 28. The modulation elements 227 and 247 are connected to a liquid crystal driver circuit (not shown). The liquid crystal driver circuit (modulation device driving unit) is mounted on a substrate disposed in the vicinity of the modulation elements 227 and 247, for example.

変形例の画像表示部によれば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネル223a、243aと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子227、247と、を備える映像素子として構成される。なお、OLEDパネル223a、243aが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザー網膜投影型のHMD100としてもよい。   According to the image display unit of the modified example, the right display unit 22 and the left display unit 24 respectively include OLED panels 223a and 243a as light source units and image light including a plurality of color lights by modulating light emitted from the light source units. Are provided as modulation elements 227 and 247 that output a video signal. Note that the modulation device that modulates the light emitted from the OLED panels 223a and 243a is not limited to a configuration in which a transmissive liquid crystal panel is employed. For example, a reflective liquid crystal panel may be used instead of the transmissive liquid crystal panel, a digital micromirror device may be used, or a laser retinal projection type HMD 100 may be used.

上記実施形態では、眼鏡型の画像表示部20について説明したが、画像表示部20の態様は任意に変更することができる。例えば、画像表示部20を帽子のように装着する態様としてもよく、ヘルメット等の身体防護具に内蔵された態様としてもよい。また、画像表示部20を、自動車や飛行機等の車両、またはその他の交通手段に搭載されるHUD(Head Up Display)として構成してもよい。   In the above embodiment, the spectacle-type image display unit 20 has been described, but the aspect of the image display unit 20 can be arbitrarily changed. For example, the image display unit 20 may be mounted like a hat, or may be built in a body protector such as a helmet. Further, the image display unit 20 may be configured as a HUD (Head Up Display) mounted on a vehicle such as an automobile or an airplane, or other transportation means.

上記実施形態では、画像光を使用者の眼に導く光学系として、右導光板26および左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。しかし、この構成は任意に変更することができる。たとえば、右導光板26および左導光板28の全面(または大部分)を占める領域に虚像が形成されてもよい。この場合、画像の表示位置を変化させる動作によって画像を縮小してもよい。また、本発明の光学素子は、ハーフミラー261、281を有する右導光板26および左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品(例えば、回折格子、プリズム、ホログラフィー等)を用いる限り任意の態様を採用できる。   In the above embodiment, a configuration in which virtual images are formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 as an optical system that guides image light to the user's eyes has been exemplified. However, this configuration can be arbitrarily changed. For example, a virtual image may be formed in a region that occupies the entire surface (or most) of the right light guide plate 26 and the left light guide plate 28. In this case, the image may be reduced by an operation for changing the display position of the image. The optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, but is an optical component (for example, a diffraction grating, a prism, or the like) that makes image light incident on the user's eyes. Any form can be adopted as long as holography or the like is used.

・変形例4:
上記実施形態では、表示面設定処理の手順について例示した。しかし、表示面設定処理の手順は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、実行されるステップの追加・削除、ステップ内における処理内容の変更等を行うことができる。
-Modification 4:
In the said embodiment, it illustrated about the procedure of the display surface setting process. However, the procedure of the display surface setting process can be arbitrarily determined without departing from the gist of the present invention. For example, addition / deletion of executed steps, change of processing contents in the steps, and the like are performed. Can do.

上記実施形態では、基準面および仮想オブジェクトの表示面の位置を特定するために、重心位置を用いた。しかし、基準面および仮想オブジェクトの表示面の位置を特定できる限りにおいて、任意の情報を利用できる。例えば、重心位置に代えて基準面および仮想オブジェクトの表示面の端点(例えば、左側上部の点)を利用してもよいし、重心位置に代えて基準面および仮想オブジェクトの表示面の枠を利用してもよい。また、例えば、基準面および仮想オブジェクトの表示面の重心位置と、端点とを両方利用してもよい。   In the above embodiment, the position of the center of gravity is used to specify the positions of the reference plane and the display surface of the virtual object. However, arbitrary information can be used as long as the positions of the reference plane and the display surface of the virtual object can be specified. For example, the reference plane and the end point of the virtual object display plane (for example, the upper left point) may be used instead of the barycentric position, or the reference plane and virtual object display plane frame may be used instead of the barycentric position. May be. Further, for example, both the center of gravity position of the reference plane and the display surface of the virtual object and the end point may be used.

上記実施形態では、拡張現実感処理部151は、デフォルト表示面設定126(重心位置D、面の傾きDx,Dy,Dz)と、変化パラメーター128(重心位置の変化量、傾きx,y,zの変化量の各々)とを利用することで、補正後の仮想オブジェクトの表示面の位置および傾きを、基準面の位置および傾きと同じになるように制御した。しかし、拡張現実感処理部151は、補正後の仮想オブジェクトの表示面の位置および傾きを、基準面CAの位置Cおよび傾きCx,Cy,Czに基づいて変更する限りにおいて、任意の態様を採用できる。例えば、拡張現実感処理部151は、変化パラメーター128に何らかの係数を掛けてもよい。   In the above embodiment, the augmented reality processing unit 151 includes the default display surface setting 126 (centroid position D, surface inclination Dx, Dy, Dz) and the change parameter 128 (center of gravity position change amount, inclination x, y, z). And the position and inclination of the display surface of the virtual object after correction are controlled to be the same as the position and inclination of the reference surface. However, the augmented reality processing unit 151 adopts any mode as long as the position and inclination of the display surface of the corrected virtual object are changed based on the position C and inclination Cx, Cy, Cz of the reference plane CA. it can. For example, the augmented reality processing unit 151 may multiply the change parameter 128 by some coefficient.

上記実施形態では、カメラ61は、使用者の視線の方向を三次元スキャン(三次元認識)した。しかし、カメラ61は、自身が認識可能な全ての範囲を三次元スキャンしてもよい。なお、上記実施形態の三次元スキャンの方法はあくまで一例であり、他の方法を採用することもできる。   In the embodiment described above, the camera 61 performs a three-dimensional scan (three-dimensional recognition) on the direction of the user's line of sight. However, the camera 61 may three-dimensionally scan the entire range that can be recognized by itself. Note that the three-dimensional scanning method of the above embodiment is merely an example, and other methods may be employed.

上記実施形態では、表示面設定部152は、条件b1(第1の範囲内の平面度)および条件b2(面積が第2の値以上)を用いて、基準面の判定を行った。しかし、表示面設定部152は、条件b1、b2のいずれか一方、または両方を省略してもよい。   In the embodiment described above, the display surface setting unit 152 determines the reference surface using the condition b1 (flatness within the first range) and the condition b2 (area is equal to or greater than the second value). However, the display surface setting unit 152 may omit either one or both of the conditions b1 and b2.

上記実施形態の条件b2(面積が第2の値以上)に関し、表示面設定部152は、複数のモード(例えば、通常モード、微小面検出モード)を利用可能であってもよい。採用されるモードの指定は、例えば使用者の指示に応じて行われる。微小面検出モードの場合、表示面設定部152は、条件b2における第2の値を、通常モードの場合の第2の値よりも小さく設定する。このようにすれば、表示面設定部152は、使用者の指示に応じて、小さな面をも基準面として、表示面設定処理を実行することができる。   Regarding the condition b2 (the area is equal to or larger than the second value) in the above embodiment, the display surface setting unit 152 may be able to use a plurality of modes (for example, the normal mode and the minute surface detection mode). The mode to be adopted is designated according to a user instruction, for example. In the case of the minute surface detection mode, the display surface setting unit 152 sets the second value in the condition b2 to be smaller than the second value in the normal mode. In this way, the display surface setting unit 152 can execute the display surface setting process using a small surface as a reference surface in accordance with a user instruction.

上記実施形態の条件b2(面積が第2の値以上)に代えて、表示面設定部152は、判定対象の物体における面と、利用者との間の距離が、所定範囲内であることを採用してもよい。所定範囲とは任意に決定することができるが、例えば、20cm〜80cm程度に設定することができる。このようにしても表示面設定部152は、上記実施形態と同様に、誤認識を抑制することができる。   Instead of the condition b2 (the area is equal to or larger than the second value) in the above embodiment, the display surface setting unit 152 determines that the distance between the surface of the object to be determined and the user is within a predetermined range. It may be adopted. Although it can determine arbitrarily with a predetermined range, it can set to about 20 cm-80 cm, for example. Even in this way, the display surface setting unit 152 can suppress misrecognition as in the above embodiment.

上記実施形態では、指紋や掌紋を照合することで使用者自身の手を認識し、当該使用者の手に限ってステップS108の判定を実施してもよいとした。使用者自身の手の認識の方法として、指紋や掌紋に代えて、広角カメラの撮像画像を画像認識してもよい。この場合、HMD100は、カメラ61に代えて、またはカメラ61と共に広角カメラを備える構成とする。表示面設定部152は、広角カメラの撮像画像を画像認識し、判定対象の物体(手)がHMD100の使用者から伸びていると判定した場合に、判定対象の物体(手)は、当該使用者の手であると判定できる。   In the above-described embodiment, the user's own hand may be recognized by collating fingerprints or palm prints, and the determination in step S108 may be performed only for the user's hand. As a method for recognizing the user's own hand, a captured image of a wide-angle camera may be recognized as an image instead of a fingerprint or a palm print. In this case, the HMD 100 includes a wide-angle camera instead of the camera 61 or together with the camera 61. When the display surface setting unit 152 recognizes an image captured by the wide-angle camera and determines that the object to be determined (hand) extends from the user of the HMD 100, the object to be determined (hand) It can be determined that it is the hand of the person.

上記実施形態において、表示面設定部152は、人間の手であるか否かの判断をカメラ61により撮像された画像を画像解析することで行った。しかし、表示面設定部152は、人間の手であるか否かの判断を、HMD100に搭載された温度検出部(サーモグラフィー)の検出結果に拠って行ってもよい。   In the above-described embodiment, the display surface setting unit 152 determines whether or not the display surface setting unit 152 is a human hand by performing image analysis on an image captured by the camera 61. However, the display surface setting unit 152 may determine whether or not it is a human hand based on the detection result of the temperature detection unit (thermography) mounted on the HMD 100.

上記実施形態では、表示面設定部152は、複数の仮想オブジェクトの表示面について、表示面設定処理を介して設定可能であるとした。この複数の仮想オブジェクトの表示面の設定にあたって、表示面設定部152は、例えば、使用者の右手を基準面とした第1の表示面と、使用者の左手を基準面とした第2の表示面と、を設定してもよい。これら複数の仮想オブジェクトの表示面は、表示面設定処理をシリアルに実行することで順次設定されてもよく、表示面設定処理をパラレルに実行することで同時に設定されてもよい。   In the above-described embodiment, the display surface setting unit 152 can set the display surfaces of a plurality of virtual objects through the display surface setting process. In setting the display surfaces of the plurality of virtual objects, the display surface setting unit 152, for example, uses a first display surface with the user's right hand as a reference surface and a second display with the user's left hand as a reference surface. A surface may be set. The display surfaces of the plurality of virtual objects may be sequentially set by executing the display surface setting process serially, or may be simultaneously set by executing the display surface setting process in parallel.

上記実施形態では、拡張現実感処理部151は、変化パラメーター128に初期値以外の値が格納されている場合、即時に、変化パラメーター128で補正した表示面に対して仮想オブジェクトを表示させた。しかし、拡張現実感処理部151は、変化パラメーター128に初期値以外の値が格納されてから所定時間経過後に上述した処理を実行してもよい。このようにすれば、拡張現実感処理部151は、変化パラメーター128に初期値以外の値が格納(図8、ステップS112)されてから、補正された表示面に対して仮想オブジェクトが表示されるまでの時間に遅延を生じさせることができる。なお、この遅延時間は、使用者やHMD100にインストールされているアプリケーションからの要求によって、適宜設定可能とされてもよい。   In the above embodiment, when a value other than the initial value is stored in the change parameter 128, the augmented reality processing unit 151 immediately displays the virtual object on the display surface corrected with the change parameter 128. However, the augmented reality processing unit 151 may execute the above-described processing after a predetermined time has elapsed since a value other than the initial value is stored in the change parameter 128. In this way, the augmented reality processing unit 151 displays the virtual object on the corrected display surface after the value other than the initial value is stored in the change parameter 128 (FIG. 8, step S112). A delay can be caused in the time until. The delay time may be set as appropriate according to a request from a user or an application installed in the HMD 100.

上記実施形態の表示面設定処理では、二次元の仮想オブジェクトの表示面を対象として説明した。しかし、表示面設定部152は、三次元の仮想オブジェクトの表示面を設定可能であってもよい。三次元の仮想オブジェクトの表示面とは、例えば、三次元の仮想オブジェクトの重心位置Aと、三次元の仮想オブジェクトの基準点の向きAx,Ay,Azと、三次元の仮想オブジェクトの大きさAsと、により特定できる。上述した表示面設定処理において、表示面設定部152は、人間の手のひらを第1基準面とし、手のひらから伸びる各指の腹面を第2基準面(親指の腹)〜第6基準面(小指の腹)として、三次元の仮想オブジェクトの重心位置、向き、大きさを特定できる。このようにすれば、表示面設定部152は、二次元の仮想オブジェクトの表示面だけでなく、三次元の仮想オブジェクトの表示面についても、使用者の意図するように調整することができる。   In the display surface setting process of the above embodiment, the display surface of a two-dimensional virtual object has been described. However, the display surface setting unit 152 may be able to set the display surface of the three-dimensional virtual object. The display surface of the three-dimensional virtual object is, for example, the center-of-gravity position A of the three-dimensional virtual object, the orientations Ax, Ay, Az of the reference points of the three-dimensional virtual object, and the size As of the three-dimensional virtual object. And can be specified by In the display surface setting process described above, the display surface setting unit 152 uses the human palm as the first reference surface, and the abdominal surface of each finger extending from the palm as the second reference surface (thumb of the thumb) to the sixth reference surface (of the little finger). As an antinode, the center of gravity position, orientation, and size of the three-dimensional virtual object can be specified. In this way, the display surface setting unit 152 can adjust not only the display surface of the two-dimensional virtual object but also the display surface of the three-dimensional virtual object as intended by the user.

・変形例5:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Modification 5:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御装置、11…ボタン、12…LEDインジケーター、13…十字キー、14…トラックパッド、15…上下キー、16…切替スイッチ、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、62…内側カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、110…操作部、111…6軸センサー、113…磁気センサー、117…通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データー、124…コンテンツデーター、126…デフォルト表示面設定、128…変化パラメーター、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御部、151…拡張現実感処理部、152…表示面設定部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、196…インターフェイス、210…表示ユニット基板、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221、221a…OLEDユニット、223、223a…OLEDパネル、225…OLED駆動回路、227…変調素子、230…表示ユニット基板、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241、241a…OLEDユニット、243、243a…OLEDパネル、245…OLED駆動回路、247…変調素子、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー     DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 11 ... Button, 12 ... LED indicator, 13 ... Cross key, 14 ... Track pad, 15 ... Up / down key, 16 ... Changeover switch, 18 ... Power switch, 19 ... Vibrator, 20 ... Image display part, 21 ... Right holding unit, 22 ... Right display unit, 23 ... Left holding unit, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame, 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone 34 ... left earphone, 40 ... connection cable, 46 ... connector, 61 ... camera, 62 ... inside camera, 63 ... microphone, 65 ... illuminance sensor, 67 ... LED indicator, 110 ... operation unit, 111 ... 6-axis sensor, 113 ... magnetic sensor, 117 ... communication unit, 118 ... memory, 120 ... controller board, 121 ... nonvolatile storage unit, 122 ... memory , 123 ... setting data, 124 ... content data, 126 ... default display surface setting, 128 ... change parameter, 130 ... power supply unit, 132 ... battery, 134 ... power supply control circuit, 140 ... main processor, 145 ... image processing unit, 147 ... display control unit, 149 ... imaging control unit, 150 ... control unit, 151 ... augmented reality processing unit, 152 ... display surface setting unit, 180 ... audio codec, 182 ... audio interface, 184 ... external connector, 186 ... external memory Interface, 188 ... USB connector, 192 ... Sensor hub, 196 ... Interface, 210 ... Display unit board, 211 ... Interface, 213 ... Receiver, 215 ... EEPROM, 217 ... Temperature sensor, 221, 221a ... OLED unit, 223, 23a ... OLED panel, 225 ... OLED drive circuit, 227 ... modulation element, 230 ... display unit substrate, 231 ... interface, 233 ... receiver, 235 ... 6-axis sensor, 237 ... magnetic sensor, 239 ... temperature sensor, 241, 241a ... OLED unit, 243, 243a ... OLED panel, 245 ... OLED drive circuit, 247 ... modulation element, 251 ... right optical system, 252 ... left optical system, 261 ... half mirror, 281 ... half mirror

Claims (9)

頭部装着型表示装置であって、
前記頭部装着型表示装置を装着した使用者に対して虚像を視認させる画像表示部と、
実空間の情報を取得する取得部と、
前記実空間に実在しないオブジェクトである仮想オブジェクトを含んだ前記虚像を、前記画像表示部に形成させる制御部と、
を備え、
前記制御部は、
取得された前記実空間の情報を解析することで、前記実空間にあると共に予め定められた条件を満たす平面である基準面の、前記使用者の視界内における位置および傾きを求め、
前記使用者が視認する前記仮想オブジェクトの位置および傾きを、求めた前記基準面の位置および傾きに基づいて変更する、頭部装着型表示装置。
A head-mounted display device,
An image display unit for visually recognizing a virtual image for a user wearing the head-mounted display device;
An acquisition unit for acquiring real space information;
A control unit that causes the image display unit to form the virtual image including a virtual object that is an object that does not exist in the real space;
With
The controller is
By analyzing the information of the acquired real space, the position and inclination of the reference plane, which is a plane in the real space and satisfies a predetermined condition, in the user's field of view,
A head-mounted display device that changes the position and inclination of the virtual object visually recognized by the user based on the obtained position and inclination of the reference plane.
請求項1に記載の頭部装着型表示装置であって、
前記制御部は、
前記使用者が視認する前記仮想オブジェクトの位置および傾きを、前記基準面の位置および傾きと同じにする、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The controller is
A head-mounted display device that makes the position and inclination of the virtual object visually recognized by the user the same as the position and inclination of the reference plane.
請求項1または請求項2に記載の頭部装着型表示装置であって、さらに、
前記使用者の視線の方向を取得する視線検出部を備え、
前記取得部は、
前記基準面の位置および傾きを求める際に、前記視線検出部により取得された前記視線の方向に相当しない前記実空間の情報の取得を省略する、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2, further comprising:
A line-of-sight detector that obtains the direction of the line of sight of the user;
The acquisition unit
A head-mounted display device that omits acquisition of information in the real space that does not correspond to the direction of the line of sight acquired by the line-of-sight detection unit when obtaining the position and inclination of the reference plane.
請求項1から請求項3のいずれか一項に記載の頭部装着型表示装置であって、
前記制御部は、さらに、
前記使用者による予め定められた第1の動作を検出した際に、前記基準面の前記使用者の視界内における位置および傾きを再び求め、変更後の前記仮想オブジェクトの位置および傾きを、新たに求めた前記基準面の位置および傾きに基づいて再変更する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3,
The control unit further includes:
When a predetermined first motion by the user is detected, the position and inclination of the reference plane in the user's field of view are obtained again, and the position and inclination of the virtual object after the change are newly determined. A head-mounted display device that changes again based on the obtained position and inclination of the reference plane.
請求項1から請求項4のいずれか一項に記載の頭部装着型表示装置であって、
前記制御部は、さらに、
前記使用者による予め定められた第2の動作を検出した際に、前記仮想オブジェクトの表示態様を変更する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4,
The control unit further includes:
A head-mounted display device that changes a display mode of the virtual object when detecting a predetermined second action by the user.
請求項1から請求項5のいずれか一項に記載の頭部装着型表示装置であって、
前記制御部は、
人間の手と、前記使用者の手と、所定形状の物体と、所定のパターンを有する情報を含んだ画像と、の少なくともいずれかを前記基準面を含む物体とみなす、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 5,
The controller is
A head-mounted display device that regards at least one of a human hand, the user's hand, an object having a predetermined shape, and an image including information having a predetermined pattern as an object including the reference plane. .
請求項1から請求項6のいずれか一項に記載の頭部装着型表示装置であって、
前記予め定められた条件を満たす平面は、三次元認識の結果、予め定められた第1の範囲内の平面度を有し、かつ、予め定められた第2の値以上の面積を有する面である、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 6,
The plane satisfying the predetermined condition is a plane having flatness within a predetermined first range as a result of three-dimensional recognition and having an area equal to or greater than a predetermined second value. A head-mounted display device.
頭部装着型表示装置の制御方法であって、コンピューターが、
実空間に実在しないオブジェクトである仮想オブジェクトを含んだ虚像を形成し、使用者に視認させる工程と、
前記実空間の情報を取得する工程と、
取得された前記実空間の情報を解析することで、前記実空間にあると共に予め定められた条件を満たす平面である基準面の、前記使用者の視界内における位置および傾きを求める工程と、
前記視認させる工程における前記仮想オブジェクトの位置および傾きを、求めた前記基準面の位置および傾きに基づいて変更する工程と、
を備える、制御方法。
A method of controlling a head-mounted display device, wherein a computer
Forming a virtual image including a virtual object, which is an object that does not exist in real space, and causing the user to visually recognize it;
Obtaining the real space information;
Analyzing the acquired information of the real space to obtain a position and inclination in the user's field of view of a reference plane that is in the real space and satisfies a predetermined condition;
Changing the position and inclination of the virtual object in the visualizing step based on the obtained position and inclination of the reference plane;
A control method comprising:
コンピュータープログラムであって、
実空間に実在しないオブジェクトである仮想オブジェクトを含んだ虚像を形成し、使用者に視認させる機能と、
前記実空間の情報を取得する機能と、
取得された前記実空間の情報を解析することで、前記実空間にあると共に予め定められた条件を満たす平面である基準面の、前記使用者の視界内における位置および傾きを求める機能と、
前記視認させる工程における前記仮想オブジェクトの位置および傾きを、求めた前記基準面の位置および傾きに基づいて変更する機能と、
を備える、コンピュータープログラム。
A computer program,
A function of forming a virtual image including a virtual object that is an object that does not exist in real space, and causing the user to visually recognize it;
A function of acquiring information of the real space;
By analyzing the information of the acquired real space, a function for obtaining a position and inclination in the user's field of view of a reference plane that is a plane that is in the real space and satisfies a predetermined condition;
A function of changing the position and inclination of the virtual object in the step of visually recognizing based on the obtained position and inclination of the reference plane;
A computer program comprising:
JP2016068694A 2016-03-30 2016-03-30 Head-mounted type display device, method for controlling head-mounted type display device, and computer program Pending JP2017182460A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016068694A JP2017182460A (en) 2016-03-30 2016-03-30 Head-mounted type display device, method for controlling head-mounted type display device, and computer program
US15/466,073 US10643390B2 (en) 2016-03-30 2017-03-22 Head mounted display, method for controlling head mounted display, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068694A JP2017182460A (en) 2016-03-30 2016-03-30 Head-mounted type display device, method for controlling head-mounted type display device, and computer program

Publications (1)

Publication Number Publication Date
JP2017182460A true JP2017182460A (en) 2017-10-05

Family

ID=60006998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068694A Pending JP2017182460A (en) 2016-03-30 2016-03-30 Head-mounted type display device, method for controlling head-mounted type display device, and computer program

Country Status (1)

Country Link
JP (1) JP2017182460A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044342A1 (en) * 2020-08-31 2022-03-03 マクセル株式会社 Head-mounted display and voice processing method therefor
JP7361853B1 (en) 2022-08-10 2023-10-16 功憲 末次 E-book display system and e-book display program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112286A (en) * 2000-09-27 2002-04-12 Mixed Reality Systems Laboratory Inc Composite reality providing device and its method, and storage medium
JP2006506737A (en) * 2002-11-19 2006-02-23 モトローラ・インコーポレイテッド Body-centric virtual interactive device and method
JP2015000629A (en) * 2013-06-14 2015-01-05 株式会社デンソー Onboard display device and program
JP2015079447A (en) * 2013-10-18 2015-04-23 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
US20150253862A1 (en) * 2014-03-06 2015-09-10 Lg Electronics Inc. Glass type mobile terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112286A (en) * 2000-09-27 2002-04-12 Mixed Reality Systems Laboratory Inc Composite reality providing device and its method, and storage medium
JP2006506737A (en) * 2002-11-19 2006-02-23 モトローラ・インコーポレイテッド Body-centric virtual interactive device and method
JP2015000629A (en) * 2013-06-14 2015-01-05 株式会社デンソー Onboard display device and program
JP2015079447A (en) * 2013-10-18 2015-04-23 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
US20150253862A1 (en) * 2014-03-06 2015-09-10 Lg Electronics Inc. Glass type mobile terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044342A1 (en) * 2020-08-31 2022-03-03 マクセル株式会社 Head-mounted display and voice processing method therefor
JP7361853B1 (en) 2022-08-10 2023-10-16 功憲 末次 E-book display system and e-book display program

Similar Documents

Publication Publication Date Title
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10785472B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
CN108508603B (en) Head-mounted display device, control method therefor, and recording medium
US10474226B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
JP2018160735A (en) Transmission type display apparatus, display control method, and computer program
JP2018151851A (en) Transmissive type display device, display control method, and computer program
JP2018082363A (en) Head-mounted display device and method for controlling the same, and computer program
JP2018124721A (en) Head-mounted type display device and control method of head-mounted type display device
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
JP2018124651A (en) Display system
JP6776578B2 (en) Input device, input method, computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2018137505A (en) Display device and control method thereof
US10884498B2 (en) Display device and method for controlling display device
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017182413A (en) Head-mounted type display device, control method for the same, and computer program
JP2017134630A (en) Display device, control method of display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200728