JP2011180867A - Head-mounted display - Google Patents

Head-mounted display Download PDF

Info

Publication number
JP2011180867A
JP2011180867A JP2010045012A JP2010045012A JP2011180867A JP 2011180867 A JP2011180867 A JP 2011180867A JP 2010045012 A JP2010045012 A JP 2010045012A JP 2010045012 A JP2010045012 A JP 2010045012A JP 2011180867 A JP2011180867 A JP 2011180867A
Authority
JP
Japan
Prior art keywords
image
operation surface
unit
cpu
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010045012A
Other languages
Japanese (ja)
Other versions
JP5428943B2 (en
Inventor
Yusuke Fukuda
雄介 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010045012A priority Critical patent/JP5428943B2/en
Publication of JP2011180867A publication Critical patent/JP2011180867A/en
Application granted granted Critical
Publication of JP5428943B2 publication Critical patent/JP5428943B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an HMD (Head-Mounted Display) that facilitates an input to an image presented by the HMD. <P>SOLUTION: The HMD 1 includes an image presentation unit 120 for presenting an image V1 visibly to eyes of a user USR, and a pen mouse 30 serving as a movement amount detection unit for detecting the amount of the movement of a hand of the user USR. Based on the amount of the movement of the pen mouse 30, a position of the movement amount detection means in a real space is determined. A predetermined range of the surface of a table TBL, i.e., a certain object existing in the real space is defined as an operation surface CP on which input operation is performed on the image VI. The position on the operation surface CP in the real space is associated with coordinates in an image space in the image VI. When the pen mouse 30 exists on the operation surface CP, the coordinates in the image space that are associated with the position of the pen mouse 30 in the real space are received as input coordinates to the image VI. Based on the input coordinates, the operation of the image presentation unit 120 is controlled. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザの頭部に装着され、ユーザに画像を提示するヘッドマウントディスプレイに関する。   The present invention relates to a head mounted display that is mounted on a user's head and presents an image to the user.

従来、ユーザの頭部に装着され、ユーザに画像を提示するシースルー型のヘッドマウントディスプレイ(Head Mounted Display:以下、HMD)に関する技術が提案されている。例えば、特許文献1においては、ユーザからの入力を受け付ける手段として、HMDが提示する画像に対してユーザがペンを用いて入力を行う構成が開示されている。   2. Description of the Related Art Conventionally, a technique related to a see-through type head mounted display (hereinafter referred to as “HMD”) that is worn on a user's head and presents an image to the user has been proposed. For example, Patent Document 1 discloses a configuration in which a user performs input using a pen with respect to an image presented by an HMD as means for receiving input from the user.

特開2005−339267号公報JP 2005-339267 A

特許文献1に示されるHMDでは、ユーザが画像に対してペンを用いて空中において入力する構成である。しかし、空中において画像に対して入力が行われるので、ユーザは入力する対象である画像に対する距離感を把握し難いと考えられる。即ち、ユーザにとっては入力が難しいという問題があった。   The HMD disclosed in Patent Document 1 has a configuration in which a user inputs an image in the air using a pen. However, since the input is performed on the image in the air, it is difficult for the user to grasp the sense of distance with respect to the image to be input. That is, there is a problem that input is difficult for the user.

本発明は、HMDによって提示される画像に対する入力が容易なHMDを提供することを目的とする。   An object of the present invention is to provide an HMD that allows easy input to an image presented by the HMD.

上記従来の課題に鑑みなされた本発明では、実空間に存在する任意の実体物の表面における所定の範囲が、画像に対する入力操作を行う操作面として定義される。そして、操作面における実空間での位置が、画像における画像空間での座標と対応付けられる。そして、実空間での位置に対応付けられた画像空間での座標が、画像に対する入力位置として受け付けられる。   In the present invention made in view of the above-described conventional problems, a predetermined range on the surface of an arbitrary entity existing in real space is defined as an operation surface for performing an input operation on an image. And the position in the real space in an operation surface is matched with the coordinate in the image space in an image. And the coordinate in the image space matched with the position in real space is received as an input position with respect to an image.

上記課題を解決するために、本発明の一側面を反映した第1の課題解決手段は、ユーザの頭部に装着される装着部に保持され、画像をユーザの眼に視認可能に提示する画像提示部と、ユーザの手に保持され、ユーザの手の移動量を検知する移動量検知部と、前記移動量に基づいて、前記移動量検知手段の実空間での位置を決定する位置決定手段と、実空間に存在する任意の実体物の表面における所定の範囲を、前記画像に対する入力操作を行う操作面として定義する定義手段と、前記操作面における実空間での位置を、前記画像における画像空間での座標と対応付ける対応付け手段と、前記移動量検出手段が前記操作面に存在する場合に、前記移動量検出手段の前記実空間での位置に対応付けられた前記画像空間での座標を、前記画像に対する入力座標として受け付ける入力受付手段と、前記入力座標に基づいて、前記画像提示部の動作を制御する画像制御手段とを備える。   In order to solve the above-described problems, a first problem-solving means that reflects one aspect of the present invention is an image that is held by a mounting unit that is mounted on the user's head and presents the image to the user's eyes so as to be visible. A presentation unit, a movement amount detection unit that is held in a user's hand and detects a movement amount of the user's hand, and a position determination unit that determines a position of the movement amount detection unit in real space based on the movement amount Defining means for defining a predetermined range on the surface of an arbitrary entity existing in the real space as an operation surface for performing an input operation on the image; and a position in the real space on the operation surface for an image in the image When the association means for associating with the coordinates in the space and the movement amount detection means exist on the operation surface, the coordinates in the image space associated with the position in the real space of the movement amount detection means are obtained. , Against the image An input accepting means for accepting as input the coordinates, based on the input coordinates, and an image control means for controlling the operation of the image presenting unit.

第1の課題解決手段によれば、実空間に存在する任意の実体物の表面における所定の範囲が、画像に対する入力操作を行う操作面として定義される。そして、その操作面における実空間での位置が、画像における画像空間での座標と対応付けられる。移動量検出手段が操作面に存在する場合に、移動量検出手段の実空間での位置に対応付けられた画像空間での座標が、画像に対する入力座標として受け付けられる。即ち、ユーザは、実空間に存在する任意の実体物の表面を、操作面として利用することができる。画像に対する入力が操作面に対して行われるので、画像に対しての距離感に左右されること無く、画像に対する入力が容易に行われる。   According to the first problem solving means, a predetermined range on the surface of an arbitrary entity existing in the real space is defined as an operation surface for performing an input operation on an image. And the position in the real space in the operation surface is matched with the coordinate in the image space in an image. When the movement amount detection means exists on the operation surface, coordinates in the image space associated with the position of the movement amount detection means in the real space are accepted as input coordinates for the image. That is, the user can use the surface of an arbitrary entity existing in the real space as the operation surface. Since the input to the image is performed on the operation surface, the input to the image is easily performed without being influenced by the sense of distance to the image.

本発明の他の側面を反映した第2の課題解決手段は、第1の課題解決手段に加えて、前記画像提示部は、前記画像提示部の方向を検知する方向検知部を有し、ユーザが外界像と画像とを重畳した状態で視認可能に構成され、前記画像提示部の方向と前記移動量検知手段の実空間での位置とに基づいて、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する判断手段と、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれると前記判断手段が判断した場合、前記画像提示部の方向に基づいて、前記画像提示部によって提示される画像に前記操作面が追随するように、前記操作面の位置を変更する変更手段とをさらに備える。   According to a second problem solving means reflecting another aspect of the present invention, in addition to the first problem solving means, the image presentation unit includes a direction detection unit that detects a direction of the image presentation unit, and a user Is configured to be visible in a state where the external image and the image are superimposed, and based on the direction of the image presentation unit and the position of the movement amount detection unit in real space, the movement amount detection unit Determining means for determining whether or not the movement angle detection means is included in the range of the angle of view of the image presented by the image presentation unit. And determining means for changing the position of the operation surface such that the operation surface follows the image presented by the image presentation unit based on the direction of the image presentation unit.

第2の課題解決手段によれば、移動量検知部が画像提示部によって提示される画像の画角の範囲に含まれる場合、画像提示部によって提示される画像に操作面が追随するように、操作面の位置が変更される。移動量検知部が画像の画角の範囲に含まれる場合とは、ユーザが視認する画像と操作面とが、同一方向に存在する場合である。この場合、ユーザは、例えば画像内に設けられた所定のアイコンなどに対して、移動量検知部による直接入力を試みる。画像に操作面が追随しているので、ユーザが頭を動かすなどの理由で画像の提示位置が変化しても、ユーザは視認する画像に対して、操作面を介して直接入力が可能となる。また、ユーザは画像に対して入力を行うような操作感を得るが、実際に操作を受け付けるのは操作面である。従って、画像に対しての距離感に左右されること無く、画像に対する入力が容易に行われる。   According to the second problem solving means, when the movement amount detection unit is included in the range of the angle of view of the image presented by the image presentation unit, the operation surface follows the image presented by the image presentation unit. The position of the operation surface is changed. The case where the movement amount detection unit is included in the range of the angle of view of the image is a case where the image visually recognized by the user and the operation surface exist in the same direction. In this case, the user tries to directly input, for example, a predetermined icon provided in the image by the movement amount detection unit. Since the operation surface follows the image, even if the presentation position of the image changes due to the user moving his / her head, the user can directly input the image to be viewed via the operation surface. . In addition, the user feels that an operation is performed on an image, but it is the operation surface that actually accepts the operation. Therefore, it is possible to easily input an image without being influenced by a sense of distance to the image.

本発明の他の側面を反映した第3の課題解決手段は、第2の課題解決手段に加えて、前記変更手段は、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記操作面の位置を変更せず、前記画像制御手段は、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記入力座標に対応する識別子を前記画像提示部に提示させる。   The third problem-solving means reflecting another aspect of the present invention is characterized in that, in addition to the second problem-solving means, the changing means is an angle of view of an image in which the movement amount detecting means is presented by the image presenting unit. If the determination means determines that the position is not included in the range, the image control means does not change the position of the operation surface, and the image control means When the determination means determines that the image is not included in the range, the identifier corresponding to the input coordinates is presented to the image presentation unit.

第3の課題解決手段によれば、移動量検知部が画像提示部によって提示される画像の画角の範囲に含まれない場合、操作面の位置は変更されない。移動量検知部が画像の画角の範囲に含まれない場合とは、ユーザが視認する画像の方向と操作面の方向とがずれている場合、換言すれば、視認される画像とは異なる方向に存在する操作面に対してユーザが入力を行う場合である。この場合、ユーザは画像に対して直接入力を行わないので、ユーザが頭を動かすなどの理由で画像の提示位置が変化しても、操作面を移動させる必要が無い。また、入力位置に対応する識別子が提示されるので、ユーザは、画像のどの位置に対して入力を行っているかを容易に把握できる。   According to the third problem solving means, when the movement amount detection unit is not included in the range of the angle of view of the image presented by the image presentation unit, the position of the operation surface is not changed. The case where the movement amount detection unit is not included in the range of the angle of view of the image means that the direction of the image visually recognized by the user is shifted from the direction of the operation surface, in other words, a direction different from the visually recognized image. This is a case where the user inputs to the operation surface existing in the screen. In this case, since the user does not directly input the image, it is not necessary to move the operation surface even if the presentation position of the image changes due to the user moving his / her head. In addition, since the identifier corresponding to the input position is presented, the user can easily grasp which position of the image is input.

本発明の他の側面を反映した第4の課題解決手段は、第3の何れか課題解決手段に加えて、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記操作面の実空間での位置と前記虚像の実空間での位置とが重なる重複領域が存在するか否かを判断し、前記重複領域が存在する場合、前記重複領域の表示様態を変更する操作面表示手段をさらに有する。   According to a fourth problem solving means reflecting another aspect of the present invention, in addition to any one of the third problem solving means, the movement amount detection means falls within the range of the angle of view of the image presented by the image presentation unit. When the determination means determines that the position is not included, it is determined whether or not there is an overlapping area where the position of the operation surface in the real space and the position of the virtual image in the real space exist, and the overlapping area exists In this case, an operation surface display means for changing the display mode of the overlapping area is further provided.

第4の課題解決手段によれば、移動量検知部が画像提示部によって提示される画像の画角の範囲に含まれない場合、重複領域が存在するか否かが判断される。そして、重複領域が存在する場合、重複領域の表示様態が変更される。上記したように、移動量検知部が画像の画角の範囲に含まれない場合とは、視認される画像とは異なる方向に存在する操作面に対してユーザが入力を行う場合である。そして、重複領域が存在する場合とは、例えばユーザが頭を動かすなどして画像の実空間での位置が変化し、操作面の実空間での位置と画像の実空間での位置とが少なくとも一部において重複する場合である。この様な場合、ユーザが操作面の実空間での位置を認識できると便利である。即ち、重複領域の表示様態が変更されることで、操作面の実空間での位置が容易に認識される。   According to the fourth problem solving means, when the movement amount detection unit is not included in the range of the angle of view of the image presented by the image presentation unit, it is determined whether or not an overlapping region exists. When the overlapping area exists, the display mode of the overlapping area is changed. As described above, the case where the movement amount detection unit is not included in the range of the angle of view of the image is a case where the user inputs to the operation surface that exists in a direction different from the visually recognized image. In the case where the overlapping region exists, for example, the position of the image in the real space is changed by moving the head of the user, and the position of the operation surface in the real space and the position of the image in the real space are at least This is a case where some overlap. In such a case, it is convenient if the user can recognize the position of the operation surface in the real space. That is, the position of the operation surface in the real space can be easily recognized by changing the display mode of the overlapping area.

本発明の他の側面を反映した第5の課題解決手段は、第2〜第4の何れか課題解決手段に加えて、前記定義手段は、前記操作面の位置を決定するために、ユーザからの入力を取得する取得部を有し、前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置を、少なくとも3つ用いて、前記操作面を定義する。   According to a fifth problem solving means reflecting another aspect of the present invention, in addition to any one of the second to fourth problem solving means, the definition means may determine whether or not the position of the operation surface is determined by a user. The operation surface is defined using at least three positions in the real space of the movement amount detection unit when an input from the user is acquired by the acquisition unit. .

第5の課題解決手段によれば、取得部によってユーザからの入力が取得されたときの移動量検知部の実空間上の位置を、少なくとも3つ用いて、操作面が定義される。従って、ユーザは、少なくとも3つの実空間上の位置において入力を行うだけで、操作面の定義が可能になる。   According to the fifth problem solving means, the operation surface is defined using at least three positions in the real space of the movement amount detection unit when the acquisition unit acquires an input from the user. Therefore, the user can define the operation surface only by performing input at at least three positions in the real space.

本発明の他の側面を反映した第6の課題解決手段は、第5の課題解決手段に加えて、前記判断手段は、前記定義手段による前記操作面の定義に係る、前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置が、少なくとも1つ決定された後で、前記画像提示部の方向と前記移動量検知手段の実空間での位置とに基づいて、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する。   According to a sixth problem solving means reflecting another aspect of the present invention, in addition to the fifth problem solving means, the determination means is configured by the acquisition unit related to the definition of the operation surface by the definition means from the user. After at least one position in the real space of the movement amount detection unit when the input is acquired is determined, the direction of the image presentation unit and the position of the movement amount detection unit in the real space are determined. Based on this, it is determined whether or not the movement amount detection means is included in the range of the angle of view of the image presented by the image presentation unit.

第6の課題解決手段によれば、定義手段による操作面の定義に係る、取得部によってユーザからの入力が取得されたときの移動量検知部の実空間上の位置が、少なくとも1つ決定された後で、判断手段による判断が行われる。ユーザからの入力を受けた後で判断が行われ、操作面が定義される。従って、ユーザの意図したときに操作面の定義が可能になる。   According to the sixth problem solving means, at least one position in the real space of the movement amount detection unit when the input from the user is acquired by the acquisition unit according to the definition of the operation surface by the definition unit is determined. After that, the determination by the determination means is performed. A determination is made after receiving an input from the user, and an operation surface is defined. Therefore, the operation surface can be defined when the user intends.

本発明によれば、HMDによって提示される画像に対する入力が容易なHMDを得ることができる。   According to the present invention, it is possible to obtain an HMD that allows easy input to an image presented by the HMD.

HMD1の概要を示す図。The figure which shows the outline | summary of HMD1. (A)画像提示部10の平面図、(B)画像提示部10の正面図、(C)画像提示部10の左側面図。(A) The top view of the image presentation part 10, (B) The front view of the image presentation part 10, (C) The left view of the image presentation part 10. HMD1の機能的構成を示すブロック図。The block diagram which shows the functional structure of HMD1. (A)RAM260が一時記憶する内容を示す図、(B)プログラムROM250が記憶する各種処理手段を示す図。(A) The figure which shows the contents which RAM260 temporarily stores, (B) The figure which shows the various processing means which program ROM250 memorizes. CPU230が実行する処理を説明するフローチャート。The flowchart explaining the process which CPU230 performs. (A)直接モードを説明する図、(B)間接モードを説明する図。(A) The figure explaining direct mode, (B) The figure explaining indirect mode. 図5のステップS30にて実行される、操作面定義処理を説明するフローチャート。The flowchart explaining the operation surface definition process performed in step S30 of FIG. (A)画像提示部120の位置を設定するための画像を説明する図、(B)操作面CPの中心位置を設定するための画像を説明する図、(C)操作面CPの左上位置を設定するための画像を説明する図、(D)操作面CPの右上位置を設定するための画像を説明する図、(E)虚像VIの左上の位置を設定するための画像を説明する図、(F)虚像VIの右上の位置を設定するための画像を説明する図。(A) The figure explaining the image for setting the position of the image presentation part 120, (B) The figure explaining the image for setting the center position of the operation surface CP, (C) The upper left position of the operation surface CP. The figure explaining the image for setting, (D) The figure explaining the image for setting the upper right position of the operation surface CP, (E) The figure explaining the image for setting the upper left position of the virtual image VI, (F) The figure explaining the image for setting the upper right position of the virtual image VI. 図5のステップS65にて実行される、操作面表示処理を説明するフローチャート。The flowchart explaining the operation surface display process performed in step S65 of FIG. 間接モードにおいて、重複領域SAが存在する場合の視認状態を説明する図。The figure explaining the visual recognition state when overlap area SA exists in indirect mode. 図5のステップS70にて実行される、操作面変更処理を説明するフローチャート。The flowchart explaining the operation surface change process performed in step S70 of FIG.

本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。上記課題解決手段は以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に説明する各構成において、所定の構成を省略し、または他の構成などに置換してもよい。また、他の構成を含むようにしてもよい。また、以下の説明では、ユーザの頭部に装着される頭部装着部と、頭部装着部に含まれる画像提示部に対して各種の信号を提供する制御ボックスと、を接続して構成されたHMDを例に説明するが、これら各装置を一体の装置として構成することもできる。   Embodiments for implementing the above problem solving means reflecting the present invention will be described below in detail with reference to the drawings. The above-mentioned problem solving means is not limited to the configuration described below, and various configurations can be adopted in the same technical idea. For example, in each configuration described below, a predetermined configuration may be omitted or replaced with another configuration. Moreover, you may make it include another structure. Further, the following description is configured by connecting a head mounting unit mounted on the user's head and a control box that provides various signals to the image presentation unit included in the head mounting unit. The HMD will be described as an example, but these devices can be configured as an integrated device.

[HMD1の概要]
HMD1について、図1を用いて説明する。HMD1は、頭部装着部10と、制御ボックス20と、ペンマウス30とを含む。頭部装着部10に含まれる画像提示部120は、ケーブル50を介して制御ボックス20に接続される。ペンマウス30は、ケーブル51を介して制御ボックス20に接続される。頭部装着部10は、ユーザUSRの頭部に装着される。制御ボックス20は、ユーザUSRの腰などに取り付けられる。HMD1は、実空間に存在する任意の実体物の表面における所定の範囲を、画像提示部120によって提示される画像である虚像VIに対する入力操作を行うための操作面CPとして定義する。本実施形態において、任意の実体物の一例であるテーブルTBLの表面における所定の範囲が、操作面CPとして定義される。即ち、ユーザUSRは、虚像VIを視認した状態で、テーブルTBLの表面に定義された操作面CPに対して、ペンマウス30を用いて入力を行う。
[Overview of HMD1]
The HMD 1 will be described with reference to FIG. The HMD 1 includes a head mounting unit 10, a control box 20, and a pen mouse 30. The image presentation unit 120 included in the head mounting unit 10 is connected to the control box 20 via the cable 50. The pen mouse 30 is connected to the control box 20 via the cable 51. The head mounting unit 10 is mounted on the head of the user USR. The control box 20 is attached to the waist of the user USR. The HMD 1 defines a predetermined range on the surface of an arbitrary entity existing in the real space as an operation surface CP for performing an input operation on the virtual image VI that is an image presented by the image presentation unit 120. In the present embodiment, a predetermined range on the surface of the table TBL, which is an example of an arbitrary entity, is defined as the operation surface CP. That is, the user USR performs input using the pen mouse 30 on the operation surface CP defined on the surface of the table TBL in a state where the virtual image VI is visually recognized.

頭部装着部10について、図2を用いて説明する。頭部装着部10の骨格は、ユーザの頭部に装着される装着部として働く。頭部装着部10の骨格は、テンプル104A,104Bと、ヨロイ106A,106Bと、フロントフレーム108とによって構成される。テンプル104A,104Bの一端には、ユーザUSRの耳に当たるモダン102A,102Bが取り付けられる。テンプル104A,104Bの他端は、蝶番112A,112Bを介してヨロイ106A,106Bに連結される。ヨロイ106A,106Bは、フロントフレーム108の左右両端に連結される。フロントフレーム108の中央には、利用者の鼻に当接する鼻パッド110が設けられる。テンプル104A,104Bは、ヨロイ106A,106Bに形成された蝶番112A,112Bによって、フロントフレーム108に対して折りたたむことができる。頭部装着部10の骨格の構成は、例えば、通常の眼鏡と同様である。頭部装着部10は、ユーザUSRに装着された状態において、モダン102A,102Bと、鼻パッド110と、により利用者の頭部に保持される(図1参照)。なお、図2(B)において、モダン102A,102B及びテンプル104A,104Bの図示は省略される。   The head mounting part 10 is demonstrated using FIG. The skeleton of the head mounting unit 10 serves as a mounting unit mounted on the user's head. The skeleton of the head mounting unit 10 includes temples 104A and 104B, armor 106A and 106B, and a front frame 108. Moderns 102A and 102B that hit the ears of the user USR are attached to one end of the temples 104A and 104B. The other ends of the temples 104A and 104B are connected to the arms 106A and 106B via hinges 112A and 112B. The armatures 106A and 106B are connected to the left and right ends of the front frame 108. A nose pad 110 is provided in the center of the front frame 108 to abut the user's nose. The temples 104A and 104B can be folded with respect to the front frame 108 by hinges 112A and 112B formed on the armatures 106A and 106B. The structure of the skeleton of the head mounting unit 10 is the same as that of normal glasses, for example. The head mounting portion 10 is held on the user's head by the modern 102A, 102B and the nose pad 110 when mounted on the user USR (see FIG. 1). In FIG. 2B, illustration of the moderns 102A and 102B and the temples 104A and 104B is omitted.

画像提示部120は、画像をユーザの眼に視認可能に提示する。画像提示部120は、ヨロイ106A付近に配設された取付部129を介して、頭部装着部10の骨格に保持される。画像提示部120は、頭部装着部10の骨格に取り付けられた状態において、頭部装着部10を装着したユーザUSRの左眼LEと略同一の高さとなる位置に配設される。画像提示部120は、制御ボックス20からケーブル50を介して送信された各種の信号に基づく画像光を、ハーフミラー140に向けて出射する。ハーフミラー140は、画像提示部120から入射された画像光の一部を反射し、ユーザUSRの左眼LEに導く。ハーフミラー140はまた、外界像を表す外界光の一部を透過し、ユーザUSRの左眼LEに導く。即ち、ユーザUSRは、画像光を外界光に重畳した状態で視認する。なお、本実施形態において、画像提示部120は、取得された画像信号に応じた光を2次元方向に走査し、その走査された画像光を利用者の左眼LEに導き網膜上にコンテンツ画像を形成する、周知の網膜走査型のディスプレイを用いて構成される。しかし、画像提示部120は、液晶ディスプレイ、有機EL(Organic Electro―Luminescence)ディスプレイなど、その他の周知の装置を用いて構成することもできる。   The image presentation unit 120 presents an image so as to be visible to the user's eyes. The image presenting unit 120 is held on the skeleton of the head-mounted unit 10 via the attachment unit 129 disposed near the armor 106A. The image presentation unit 120 is disposed at a position that is substantially the same height as the left eye LE of the user USR wearing the head mounting unit 10 when attached to the skeleton of the head mounting unit 10. The image presentation unit 120 emits image light based on various signals transmitted from the control box 20 via the cable 50 toward the half mirror 140. The half mirror 140 reflects a part of the image light incident from the image presentation unit 120 and guides it to the left eye LE of the user USR. The half mirror 140 also transmits a part of the external light representing the external image and guides it to the left eye LE of the user USR. That is, the user USR visually recognizes the image light superimposed on the external light. In the present embodiment, the image presentation unit 120 scans light according to the acquired image signal in a two-dimensional direction, guides the scanned image light to the left eye LE of the user, and displays the content image on the retina. It is constructed using a known retinal scanning display. However, the image presentation unit 120 can also be configured using other well-known devices such as a liquid crystal display and an organic EL (Organic Electro-Luminescence) display.

[HMD1の機能的構成]
図3に示されるように、HMD1は、頭部装着部10と、制御ボックス20と、ペンマウス30とで構成される。なお、これらの構成は、制御ボックス20に含まれる非図示のバッテリーによって駆動される。以下、HMD1を構成する各構成の説明を行う。
[Functional configuration of HMD1]
As shown in FIG. 3, the HMD 1 includes a head mounting unit 10, a control box 20, and a pen mouse 30. These components are driven by a battery (not shown) included in the control box 20. Hereinafter, each structure which comprises HMD1 is demonstrated.

制御ボックス20は、フラッシュROM210と、周辺インターフェース(以下、I/F)220と、CPU230と、ペンマウス用I/F240と、プログラムROM250と、RAM260と、入力ボタン群270とを含む。フラッシュROM250は、画像提示部120によってユーザUSRに提示される、各種のコンテンツデータを記憶する。周辺I/F220は、HMD1とPCなどの外部装置との接続を行う。例えば、周辺I/F220を介してPCから転送された各種コンテンツが、フラッシュROM210に記憶される。CPU230は、プログラムROM250に記憶された各種プログラムを、RAM260上で実行する。CPU230はまた、フラッシュROM210と、周辺I/F220と、ペンマウス用I/F240と、入力ボタン群270との間で各種信号の送受信を行う。ペンマウス用I/F240は、ケーブル51(図1参照)を介して、ペンマウス30との間で各種信号の送受信を行う。プログラムROM250は、CPU230によって実行される各種処理のためのプログラムを記憶する。RAM260は、CPU230で処理される各種プログラムや、CPU230が処理するデータを、そのアドレス空間に一時記憶する。入力ボタン群270は、HMD1を操作するための構成である。ユーザUSRが入力ボタン群270に対して操作を行うことで、入力ボタン群270から操作信号がCPU230に対して送信される。   The control box 20 includes a flash ROM 210, a peripheral interface (hereinafter referred to as I / F) 220, a CPU 230, a pen mouse I / F 240, a program ROM 250, a RAM 260, and an input button group 270. The flash ROM 250 stores various content data presented to the user USR by the image presentation unit 120. The peripheral I / F 220 connects the HMD 1 and an external device such as a PC. For example, various contents transferred from the PC via the peripheral I / F 220 are stored in the flash ROM 210. The CPU 230 executes various programs stored in the program ROM 250 on the RAM 260. The CPU 230 also transmits and receives various signals among the flash ROM 210, the peripheral I / F 220, the pen mouse I / F 240, and the input button group 270. The pen mouse I / F 240 transmits and receives various signals to and from the pen mouse 30 via the cable 51 (see FIG. 1). The program ROM 250 stores programs for various processes executed by the CPU 230. The RAM 260 temporarily stores various programs processed by the CPU 230 and data processed by the CPU 230 in its address space. The input button group 270 is a configuration for operating the HMD 1. When the user USR operates the input button group 270, an operation signal is transmitted from the input button group 270 to the CPU 230.

頭部装着部10は、画像提示部120と、角速度センサ130とを含む。画像提示装置120は、CPU230からの制御信号に従って、画像光をユーザUSRの左眼LEに対して射出する。角速度センサ130は、画像提示部120の方向を検知する方向検知部として機能する。角速度センサ130は、例えばMEMS技術を応用して静電容量の変化を検知する3次元加速度センサによって構成される。角速度センサ130が検知した画像提示部120の方向は、HMD方向信号として制御ボックス20に対して送信される。   The head mounting unit 10 includes an image presentation unit 120 and an angular velocity sensor 130. The image presentation device 120 emits image light to the left eye LE of the user USR in accordance with a control signal from the CPU 230. The angular velocity sensor 130 functions as a direction detection unit that detects the direction of the image presentation unit 120. The angular velocity sensor 130 is configured by a three-dimensional acceleration sensor that detects a change in capacitance by applying, for example, MEMS technology. The direction of the image presentation unit 120 detected by the angular velocity sensor 130 is transmitted to the control box 20 as an HMD direction signal.

ペンマウス30は、3次元加速度センサ310と、第1スイッチ320と、第2スイッチ330と、I/F340とを含む。ペンマウス30はユーザUSRの手に保持されるため、3次元加速度センサ310は、ユーザの手の移動量を検知する移動量検知部として機能する。3次元加速度センサ310によって検知されたユーザの手の移動量は、移動量信号としてI/F340を介して制御ボックス20に対して逐次送信される。第1スイッチ320は、後記するメイン処理を終了する際にユーザUSRによって押下される。第1スイッチ320が押下されることによって生じる終了信号は、I/F340を介して制御ボックス20に対して送信される。第2スイッチ330は、ユーザUSRが各種決定を行う際に押下される。即ち、第2スイッチ330は、ユーザからの入力を取得する取得部として機能する。第2スイッチ330が押下されることによって生じる決定信号は、I/F340を介して制御ボックス20に対して送信される。I/F340は、ケーブル51(図1参照)を介して、制御ボックス20との間で各種信号の送受信を行う。   The pen mouse 30 includes a three-dimensional acceleration sensor 310, a first switch 320, a second switch 330, and an I / F 340. Since the pen mouse 30 is held in the hand of the user USR, the three-dimensional acceleration sensor 310 functions as a movement amount detection unit that detects the movement amount of the user's hand. The movement amount of the user's hand detected by the three-dimensional acceleration sensor 310 is sequentially transmitted to the control box 20 via the I / F 340 as a movement amount signal. The first switch 320 is pressed by the user USR when the main process to be described later is finished. An end signal generated when the first switch 320 is pressed is transmitted to the control box 20 via the I / F 340. The second switch 330 is pressed when the user USR makes various decisions. That is, the second switch 330 functions as an acquisition unit that acquires input from the user. A determination signal generated by pressing the second switch 330 is transmitted to the control box 20 via the I / F 340. The I / F 340 transmits and receives various signals to and from the control box 20 via the cable 51 (see FIG. 1).

図4(A)は、RAM260がそのアドレス空間に一時記憶する、データの内容を説明する図である。RAM420は、ペンマウス位置データ261、虚像位置データ262、操作面位置データ263、実空間―画像変換式データ264、入力座標データ265、HMD方向データ266、アイコン座標データ267及び入力モードフラグ268を少なくとも一時記憶する。ペンマウス位置データ261は、実空間でのペンマウス30の位置を示す。虚像位置データ262は、虚像VIの実空間での位置を示す。操作面位置データ263は、実空間での操作面CPの位置を示す。実空間―画像変換式データ264は、実空間での位置を、虚像VIにおける画像空間での座標に変換するための変換式を示す。入力座標データ265は、ペンマウス30から操作面CPを介して虚像VIに対して行われた入力の、画像空間での座標を示す。HMD方向データ266は、画像提示部120が実空間において向く方向を示す。アイコンデータ267は、虚像VIに含まれる、画像提示部120の動作を制御するためのアイコンVIa(図6参照)の画像空間での座標と、そのアイコンに割り付けられた処理内容とを示す。なお、CPU230がフラッシュROM210に含まれる所定のコンテンツの再生を開始したときに、そのコンテンツに含まれるアイコンの位置を定義する座標及びそのアイコンに割り付けられた処理内容が、アイコンデータ267に一時記憶される。入力モードフラグ268は、後記する図6に示されるように、虚像VIに対する入力が直接モードか間接モードかの何れであるかを示す。   FIG. 4A is a diagram for explaining the contents of data that the RAM 260 temporarily stores in its address space. The RAM 420 includes at least pen mouse position data 261, virtual image position data 262, operation surface position data 263, real space-image conversion formula data 264, input coordinate data 265, HMD direction data 266, icon coordinate data 267, and an input mode flag 268. Memorize temporarily. The pen mouse position data 261 indicates the position of the pen mouse 30 in the real space. The virtual image position data 262 indicates the position of the virtual image VI in the real space. The operation surface position data 263 indicates the position of the operation surface CP in the real space. The real space-image conversion formula data 264 indicates a conversion formula for converting a position in the real space into a coordinate in the image space of the virtual image VI. The input coordinate data 265 indicates the coordinates in the image space of the input made from the pen mouse 30 to the virtual image VI via the operation surface CP. The HMD direction data 266 indicates the direction in which the image presentation unit 120 faces in real space. The icon data 267 indicates the coordinates in the image space of the icon VIa (see FIG. 6) included in the virtual image VI for controlling the operation of the image presentation unit 120, and the processing content assigned to the icon. Note that when the CPU 230 starts reproduction of predetermined content included in the flash ROM 210, the coordinates defining the position of the icon included in the content and the processing content assigned to the icon are temporarily stored in the icon data 267. The The input mode flag 268 indicates whether the input to the virtual image VI is the direct mode or the indirect mode, as shown in FIG.

図4(B)は、プログラムROM250に記憶された各種処理手段の内容を説明する図である。これらの処理手段は、CPU230が、RAM260上で、プログラムROM250に記憶されたこれらの処理手段のためのプログラムを実行することで達成される。プログラムROM250は、位置決定手段251、定義手段252、対応付け手段253、入力受付手段254、画像制御手段255、判断手段256、変更手段257及び操作面表示手段258を少なくとも記憶する。以下、これらの処理手段に関して説明する。   FIG. 4B is a diagram for explaining the contents of various processing means stored in the program ROM 250. These processing means are achieved by the CPU 230 executing a program for these processing means stored in the program ROM 250 on the RAM 260. The program ROM 250 stores at least a position determination unit 251, a definition unit 252, an association unit 253, an input reception unit 254, an image control unit 255, a determination unit 256, a change unit 257, and an operation surface display unit 258. Hereinafter, these processing means will be described.

位置決定手段251は、ペンマウス30の移動量に基づいて、ペンマウス30の実空間での位置を決定する。具体的には、CPU230は、3次元加速度センサ310から送信された移動量信号に基づいて、ペンマウス30の実空間での移動量を決定する。そして、CPU230は、その移動量をペンマウス位置データ261に対して加算することで、ペンマウス30の実空間での位置を決定する。   The position determination unit 251 determines the position of the pen mouse 30 in the real space based on the movement amount of the pen mouse 30. Specifically, the CPU 230 determines the movement amount of the pen mouse 30 in the real space based on the movement amount signal transmitted from the three-dimensional acceleration sensor 310. Then, the CPU 230 adds the movement amount to the pen mouse position data 261 to determine the position of the pen mouse 30 in the real space.

定義手段252は、実空間に存在する任意の実体物の表面における所定の範囲を、画像提示部120によって提示される虚像VIに対する入力操作を行う操作面CPとして定義する。本実施形態においては、図1に示されるように、テーブルTBLの表面における所定の範囲が、操作面CPとして定義される。具体的には、CPU230は、操作面CPを定義するための各種設定画像(図8参照)を画像提示部120に提示させる。そして、CPU230は、第2スイッチ330からの決定信号を受信したときのペンマウス位置261に基づいて、実空間での操作面CPの位置を決定する(詳細は後述する図7参照)。   The defining unit 252 defines a predetermined range on the surface of an arbitrary entity existing in the real space as an operation surface CP for performing an input operation on the virtual image VI presented by the image presentation unit 120. In the present embodiment, as shown in FIG. 1, a predetermined range on the surface of the table TBL is defined as the operation surface CP. Specifically, the CPU 230 causes the image presentation unit 120 to present various setting images (see FIG. 8) for defining the operation surface CP. Then, the CPU 230 determines the position of the operation surface CP in the real space based on the pen mouse position 261 when the determination signal from the second switch 330 is received (refer to FIG. 7 described later for details).

対応付け手段253は、操作面CPにおける実空間での位置を、虚像VIにおける画像空間での座標と対応付ける。具体的には、CPU230は、操作面位置データ263に含まれる操作面CPの実空間での中心位置、左上位置及び右上位置と、虚像VIの画像空間での中心座標、左上座標及び右上座標とを用いて、実空間での位置から画像空間での座標への変換式を計算する。この変換式は、例えば、座標の平行移動、回転及び拡大縮小を含む一次変換を行う行列式である。但し、上記した3箇所以上の座標点を用いて、二次以上の項を含む変換式が用いられても良い。また、一次変換の変換式を計算される際に用いられる座標点は、異なる3箇所以上であればよく、上記の中心、左上、右上の位置には限定されない。CPU230は、この変換式を、実空間―画像変換式データ264として、RAM260に一時記憶する。   The association unit 253 associates the position in the real space on the operation surface CP with the coordinates in the image space in the virtual image VI. Specifically, the CPU 230 includes the center position, the upper left position, and the upper right position in the real space of the operation surface CP included in the operation surface position data 263, the center coordinates, the upper left coordinates, and the upper right coordinates in the image space of the virtual image VI. Is used to calculate a conversion formula from a position in the real space to a coordinate in the image space. This conversion formula is, for example, a determinant that performs a primary conversion including translation, rotation, and enlargement / reduction of coordinates. However, a conversion formula including a quadratic or higher term may be used using the above three or more coordinate points. Moreover, the coordinate point used when calculating the conversion formula of primary conversion should just be three or more different places, and is not limited to said center, an upper left position, and an upper right position. The CPU 230 temporarily stores this conversion formula in the RAM 260 as real space-image conversion formula data 264.

入力受付手段254は、操作面CPに含まれる位置にペンマウス30が存在する場合に、ペンマウス30の実空間での位置に対応付けられた画像空間での座標を、虚像VIに対する入力座標として受け付ける。具体的には、ペンマウス30が操作面CPに含まれる位置に存在する場合、CPU230は、実空間―画像変換式データ264を用いて、ペンマウス位置データ261を、ペンマウス30の実空間での位置に対応付けられた画像空間での座標に変換する。そして、CPU230は、変換された画像空間での座標を、入力座標データ265に一時記憶する。なお、ペンマウス30が操作面CPに含まれる位置に存在するか否かの判断は、ペンマウス位置データ261と操作面位置データ263との比較によって達成される。   When the pen mouse 30 is present at the position included in the operation surface CP, the input receiving unit 254 uses the coordinates in the image space associated with the position of the pen mouse 30 in the real space as the input coordinates for the virtual image VI. Accept. Specifically, when the pen mouse 30 exists at a position included in the operation surface CP, the CPU 230 uses the real space-image conversion formula data 264 to convert the pen mouse position data 261 into the real space of the pen mouse 30. To coordinates in the image space associated with the position of. Then, the CPU 230 temporarily stores the converted coordinates in the image space in the input coordinate data 265. The determination as to whether or not the pen mouse 30 exists at a position included in the operation surface CP is achieved by comparing the pen mouse position data 261 with the operation surface position data 263.

画像制御手段255は、入力座標データ265に基づいて、画像提示部120の動作を制御する。具体的には、CPU230は、入力座標データ265と、アイコンデータ267とを比較する。入力座標データ265に含まれる画像空間での座標が、アイコンVIaの画像空間での座標と一致する場合、CPU230は、アイコンデータ267を参照し、アイコンVIaに割り付けられた画像提示部120の動作を制御するための所定の処理を実行する。画像制御手段255はまた、虚像VIの画角の範囲にペンマウス30が含まれないと判断手段256によって判断された場合、入力座標データ265に対応した識別子を、画像提示部120に提示させる。具体的には、CPU230は、入力モードフラグ268が間接モードの場合、入力座標データ265の座標にカーソルCS(図6(B)参照)を提示するように、画像提示部120の動作を制御する。   The image control unit 255 controls the operation of the image presentation unit 120 based on the input coordinate data 265. Specifically, the CPU 230 compares the input coordinate data 265 with the icon data 267. When the coordinates in the image space included in the input coordinate data 265 match the coordinates in the image space of the icon VIa, the CPU 230 refers to the icon data 267 and performs the operation of the image presentation unit 120 assigned to the icon VIa. A predetermined process for control is executed. The image control unit 255 also causes the image presentation unit 120 to present an identifier corresponding to the input coordinate data 265 when the determination unit 256 determines that the pen mouse 30 is not included in the range of the angle of view of the virtual image VI. Specifically, when the input mode flag 268 is in the indirect mode, the CPU 230 controls the operation of the image presentation unit 120 so as to present the cursor CS (see FIG. 6B) at the coordinates of the input coordinate data 265. .

判断手段256は、角速度センサ130の検出結果である画像提示部の120の方向とペンマウス30の実空間での位置とに基づいて、虚像VIの画角の範囲にペンマウス30が含まれるか否かを判断する。具体的には、CPU230は、HMD方向データ266に基づいて、虚像VIの画角の範囲を決定する。そして、CPU230は、その虚像VIの画角の範囲とペンマウス位置データ261とに基づいて、虚像VIの画角の範囲にペンマウス30が含まれるか否かを判断する。   Whether the determination unit 256 includes the pen mouse 30 in the range of the angle of view of the virtual image VI based on the direction of the image presentation unit 120 as the detection result of the angular velocity sensor 130 and the position of the pen mouse 30 in the real space. Judge whether or not. Specifically, CPU 230 determines the range of the angle of view of virtual image VI based on HMD direction data 266. Then, the CPU 230 determines whether or not the pen mouse 30 is included in the field angle range of the virtual image VI based on the field angle range of the virtual image VI and the pen mouse position data 261.

変更手段257は、虚像VIの画角の範囲にペンマウス30が含まれると判断手段256によって判断された場合、画像提示部120の方向に基づいて、虚像VIに操作面CPが追随するように、操作面CPの位置を変更する。具体的には、CPU230は、入力モードフラグ268が直接モードの場合、HMD方向データ266に基づいて虚像VIの実空間での移動量を決定し、その移動量を操作面位置データ263に加算する。   When the determining unit 256 determines that the pen mouse 30 is included in the range of the angle of view of the virtual image VI, the changing unit 257 causes the operation surface CP to follow the virtual image VI based on the direction of the image presentation unit 120. The position of the operation surface CP is changed. Specifically, when the input mode flag 268 is in the direct mode, the CPU 230 determines a moving amount of the virtual image VI in the real space based on the HMD direction data 266 and adds the moving amount to the operation surface position data 263. .

操作面CPの実空間での位置と虚像VIの実空間での位置とが一致しない間接モードの場合(詳細は後述)、ユーザが操作面CPの実空間での位置を認識できると便利である。そこで、操作面表示手段258は、間接モードにおいて虚像VIの実空間の位置と操作面CPの実空間の位置とが重なる重複領域SAが存在する場合に、重複領域SAにおける操作面CPを虚像VIに表示する(図10参照)。具体的には、CPU230は、虚像位置データ262と操作面位置データ263とを比較して、重複領域SAが存在するか否かを判断する。重複領域SAが存在する場合、CPU230は、虚像VIにおける重複領域SAの表示様態を変更する。一方、操作面CPの実空間での位置と虚像VIの実空間での位置とが一致する直接モードの場合(詳細は後述)、操作面表示手段258は実行されない。   In the indirect mode where the position of the operation surface CP in the real space and the position of the virtual image VI in the real space do not coincide (details will be described later), it is convenient that the user can recognize the position of the operation surface CP in the real space. . Therefore, the operation surface display unit 258 displays the operation surface CP in the overlap region SA in the virtual image VI when there is an overlap region SA where the position of the real space of the virtual image VI and the position of the operation surface CP in the indirect mode overlap. (Refer to FIG. 10). Specifically, the CPU 230 compares the virtual image position data 262 and the operation surface position data 263 to determine whether or not the overlapping area SA exists. When the overlapping area SA exists, the CPU 230 changes the display mode of the overlapping area SA in the virtual image VI. On the other hand, in the direct mode in which the position of the operation surface CP in the real space matches the position of the virtual image VI in the real space (details will be described later), the operation surface display means 258 is not executed.

[HMD1の行う処理]
以下、図5を用いて、HMD1によって行われる一連の処理を説明する。尚、図5に示される処理は、CPU230が所定の信号を受信することをトリガとして開始される。具体的には、例えば、虚像VIが画像提示部120によって提示されている状態において、ユーザUSRが入力ボタン群270に対して操作面CPの定義を開始する旨の操作を行うことによって発生した操作信号を、CPU230が受信したときに図5の処理が開始される。
[Processing performed by HMD1]
Hereinafter, a series of processes performed by the HMD 1 will be described with reference to FIG. Note that the processing shown in FIG. 5 is triggered by the CPU 230 receiving a predetermined signal. Specifically, for example, in a state in which the virtual image VI is presented by the image presentation unit 120, an operation that occurs when the user USR performs an operation to start defining the operation surface CP on the input button group 270. The processing of FIG. 5 is started when the CPU 230 receives the signal.

ステップS10において、CPU230は、位置決定手段251の実行を開始する。具体的には、CPU230は、ペンマウス30の3次元加速度センサ310から送信された移動量信号に基づいて、ペンマウス30の実空間での位置を決定する。CPU230は、最初に移動量信号を受信したときのペンマウス30の実空間での位置を、ペンマウス30の原点位置と設定する。そして、CPU230は、ペンマウス30の原点位置を設定した後で受信した移動量信号に基づいて、ペンマウス30の実空間での移動量を決定する。そして、CPU230は、決定された移動量をペンマウス位置データ261に対して加算することで、ペンマウス30の実空間での位置を決定する。なお、位置決定手段251は、図5に示される一連の処理がCPU230によって行われている間は常に実行される。従って、CPU230は、3次元加速度センサ310から移動量信号を逐次受信し、ペンマウス位置データ261を更新する。位置決定手段251の実行が開始された後、CPU230は、処理をステップS20に移行する。   In step S <b> 10, the CPU 230 starts execution of the position determination unit 251. Specifically, the CPU 230 determines the position of the pen mouse 30 in the real space based on the movement amount signal transmitted from the three-dimensional acceleration sensor 310 of the pen mouse 30. The CPU 230 sets the position of the pen mouse 30 in the real space when the movement amount signal is first received as the origin position of the pen mouse 30. Then, the CPU 230 determines the movement amount of the pen mouse 30 in the real space based on the movement amount signal received after setting the origin position of the pen mouse 30. Then, the CPU 230 determines the position of the pen mouse 30 in the real space by adding the determined movement amount to the pen mouse position data 261. The position determining unit 251 is always executed while the series of processing shown in FIG. Therefore, the CPU 230 sequentially receives the movement amount signal from the three-dimensional acceleration sensor 310 and updates the pen mouse position data 261. After execution of the position determining unit 251 is started, the CPU 230 shifts the processing to step S20.

ステップS20において、CPU230は、頭部装着部10の角速度センサ130からのHMD方向信号の受信を開始する。CPU230は、最初にHMD方向信号を受信したときの画像提示部120の向きを、画像提示部120の初期の向きと設定する。そして、CPU230は、画像提示部120の初期の向きを設定した後で受信したHMD方向信号に基づいて、画像提示部120の移動角度を決定する。そして、CPU230は、決定された移動角度をHMD方向データ266に対して加算することで、画像提示部120の向きを決定する。なお、図5に示される一連の処理がCPU230によって行われている間は、CPU230はS20の処理を常に実行する。従って、CPU230は、角速度センサ130からHMD方向信号を逐次受信し、HMD方向データ266を更新する。角速度センサ130からのHMD方向信号の受信が開始された後、CPU230は、処理をステップS30に移行する。   In step S <b> 20, the CPU 230 starts receiving an HMD direction signal from the angular velocity sensor 130 of the head mounting unit 10. The CPU 230 sets the orientation of the image presentation unit 120 when the HMD direction signal is first received as the initial orientation of the image presentation unit 120. Then, the CPU 230 determines the moving angle of the image presentation unit 120 based on the HMD direction signal received after setting the initial orientation of the image presentation unit 120. Then, the CPU 230 determines the orientation of the image presentation unit 120 by adding the determined movement angle to the HMD direction data 266. Note that while the series of processing illustrated in FIG. 5 is being performed by the CPU 230, the CPU 230 always executes the processing of S20. Therefore, the CPU 230 sequentially receives the HMD direction signal from the angular velocity sensor 130 and updates the HMD direction data 266. After the reception of the HMD direction signal from the angular velocity sensor 130 is started, the CPU 230 shifts the processing to step S30.

ステップS30において、CPU230は、定義手段252を実行する(詳細は、図7を用いて後述)。この処理によって、CPU230は、虚像VIに対する入力操作を行う操作面CPの実空間での位置を定義する。そして、CPU230は、操作面CPの実空間での位置を、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS40に移行する。   In step S30, the CPU 230 executes the definition unit 252 (details will be described later with reference to FIG. 7). By this processing, the CPU 230 defines the position in the real space of the operation surface CP that performs an input operation on the virtual image VI. Then, the CPU 230 temporarily stores the position of the operation surface CP in the real space in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S40.

ステップS40において、CPU230は、入力受付手段254の実行を開始する。具体的には、CPU230は、ペンマウス位置データ261と操作面位置データ263とを比較することで、操作面CPに含まれる位置にペンマウス30が存在するか否かを判断する。操作面CPに含まれる位置にペンマウス30が存在する場合、CPU230は、実空間―画像変換式データ264を用いて、ペンマウス位置データ261を、ペンマウス30の実空間での位置に対応付けられた画像空間での座標に変換する。そして、CPU230は、変換された画像空間での座標を、入力座標データ265としてRAM260に一時記憶する。なお、図5に示される一連の処理がCPU230によって行われている間は、CPU230はS40の処理を常に実行する。従って、CPU230は、ペンマウス30が操作面CP内に存在する場合、入力座標データ265を逐次更新する。一方、ペンマウス30が操作面CP内に存在しない場合は、入力座標データ265の更新は行われない。従って、ペンマウス30が一旦操作面CPから離れると、ペンマウス30が最後に操作面CP内に存在したときの、入力座標データ265が保持される。そして、ペンマウス30が再度操作面CP内に存在する状態になると、入力座標データ265が更新される。CPU230は、入力受付手段254の実行を開始した後、処理をステップS50に移行する。   In step S <b> 40, the CPU 230 starts executing the input receiving unit 254. Specifically, the CPU 230 compares the pen mouse position data 261 with the operation surface position data 263 to determine whether or not the pen mouse 30 exists at a position included in the operation surface CP. When the pen mouse 30 exists at the position included in the operation surface CP, the CPU 230 uses the real space-image conversion formula data 264 to associate the pen mouse position data 261 with the position of the pen mouse 30 in the real space. Convert to coordinates in the specified image space. The CPU 230 temporarily stores the converted coordinates in the image space in the RAM 260 as input coordinate data 265. Note that while the series of processes shown in FIG. 5 is being performed by the CPU 230, the CPU 230 always executes the process of S40. Therefore, the CPU 230 sequentially updates the input coordinate data 265 when the pen mouse 30 exists in the operation surface CP. On the other hand, when the pen mouse 30 does not exist in the operation surface CP, the input coordinate data 265 is not updated. Therefore, once the pen mouse 30 is separated from the operation surface CP, the input coordinate data 265 when the pen mouse 30 is finally in the operation surface CP is held. Then, when the pen mouse 30 again exists in the operation surface CP, the input coordinate data 265 is updated. After starting execution of the input receiving unit 254, the CPU 230 shifts the processing to step S50.

ステップS50において、CPU230は、ペンマウス30を用いて操作面CPに対して行う入力が直接モードか間接モードかを判断する。具体的には、CPU230は、RAM260に一時記憶される入力モードフラグ268が直接モードか間接モードかを判断する。尚、直接モードとは、図6(A)に示されるように、操作面CPの実空間での位置と、虚像VIの実空間での位置とが一致した状態のことである。図6(A)において、テーブルTBLの表面における所定の範囲に定義された操作面CPが、画像提示部120によって提示される虚像VIの画角の範囲に含まれる。換言すれば、ユーザUSRは、虚像VIがテーブルTBLと重畳された状態で、虚像VIを視認する。そのため、ユーザUSRは、あたかも虚像VIがテーブルTBLの表面に提示されているかのように、虚像VIを視認する。従って、直接モードでは、虚像VIに対して直接ペンマウス30を用いて入力を行っているかのような操作感が得られる。また、間接モードとは、図6(B)に示されるように、虚像VIの実空間での位置とが一致していない状態のことである。図6(B)において、操作面CPは、虚像VIの画角の範囲外に存在するテーブルTBLの表面に定義される。そのため、間接モードでは、あたかもテーブルTBLの表面が虚像VIに対する入力デバイスであるかのような操作感が得られる。入力モードフラグ268が直接モードの場合(ステップS50:Y)、CPU230は、処理をステップS70に移行する。一方、入力モードフラグ268が間接モードの場合(ステップS50:N)、CPU230は、処理をステップS60に移行する。   In step S <b> 50, the CPU 230 determines whether the input performed on the operation surface CP using the pen mouse 30 is the direct mode or the indirect mode. Specifically, CPU 230 determines whether input mode flag 268 temporarily stored in RAM 260 is the direct mode or the indirect mode. Note that the direct mode is a state in which the position of the operation surface CP in the real space matches the position of the virtual image VI in the real space, as shown in FIG. In FIG. 6A, the operation surface CP defined in a predetermined range on the surface of the table TBL is included in the range of the angle of view of the virtual image VI presented by the image presentation unit 120. In other words, the user USR visually recognizes the virtual image VI with the virtual image VI superimposed on the table TBL. Therefore, the user USR visually recognizes the virtual image VI as if the virtual image VI is presented on the surface of the table TBL. Therefore, in the direct mode, it is possible to obtain an operational feeling as if the virtual mouse VI is directly input using the pen mouse 30. The indirect mode is a state where the position of the virtual image VI in the real space does not match as shown in FIG. 6B. In FIG. 6B, the operation surface CP is defined on the surface of the table TBL existing outside the range of the angle of view of the virtual image VI. Therefore, in the indirect mode, an operational feeling as if the surface of the table TBL is an input device for the virtual image VI is obtained. When the input mode flag 268 is in the direct mode (step S50: Y), the CPU 230 shifts the processing to step S70. On the other hand, when the input mode flag 268 is in the indirect mode (step S50: N), the CPU 230 shifts the processing to step S60.

ステップS60において、CPU230は、画像制御手段255を実行することで、入力座標データ265に対応した識別子してのカーソルCSを、画像提示部120に提示させる。具体的には、図6(B)に示されるように、CPU230は、入力座標データ265と等しい虚像VIの座標にカーソルCSが提示されるように、制御信号を画像提示部120に対して送信する。ユーザUSRは、カーソルCSを視認することによって、ペンマウス30によって虚像VIに対して行われる入力座標を認識することが可能になる。なお、図6(B)において、カーソルCSとして矢印が用いられる。しかし、入力の座標を認識することが可能であれば、カーソルCSはどのような形状でもよい。CPU230は、入力座標データ265を参照し、カーソルCSの提示位置を逐次更新する。カーソルCSの提示が開始された後、CPU230は、処理をステップS65に移行する。   In step S <b> 60, the CPU 230 causes the image presentation unit 120 to present the cursor CS as an identifier corresponding to the input coordinate data 265 by executing the image control unit 255. Specifically, as illustrated in FIG. 6B, the CPU 230 transmits a control signal to the image presenting unit 120 so that the cursor CS is presented at the coordinates of the virtual image VI equal to the input coordinate data 265. To do. The user USR can recognize the input coordinates performed on the virtual image VI by the pen mouse 30 by visually recognizing the cursor CS. In FIG. 6B, an arrow is used as the cursor CS. However, the cursor CS may have any shape as long as the input coordinates can be recognized. The CPU 230 refers to the input coordinate data 265 and sequentially updates the presentation position of the cursor CS. After the presentation of the cursor CS is started, the CPU 230 shifts the processing to step S65.

ステップS65において、CPU230は、操作面表示手段258を実行する(詳細は、図9を用いて後述)。操作面表示手段258の実行によって、虚像VIの実空間の位置と操作面CPの実空間の位置とが重なる重複領域SAが存在する場合に、重複領域SAにおける操作面CPが虚像VIに表示される。その後、CPU230は、処理をステップS80に移行する。   In step S65, the CPU 230 executes the operation surface display unit 258 (details will be described later with reference to FIG. 9). When there is an overlapping area SA where the real space position of the virtual image VI and the real space position of the operating surface CP overlap by the execution of the operation surface display means 258, the operating surface CP in the overlapping area SA is displayed in the virtual image VI. The Thereafter, the CPU 230 shifts the processing to step S80.

ステップS70において、CPU230は、変更手段257を実行する(詳細は、図11を用いて後述)。変更手段257の実行によって、虚像VIに操作面CPが追随するように、操作面CPの位置が変更される。直接モードでは、虚像VIに対して直接ペンマウス30を用いて入力を行っているかのような操作感が得られる。従って、虚像VIに操作面CPが追随するように操作面CPの位置が変更されることで、ユーザUSRは、操作面CPの位置を気にすることなく、虚像VIに対して直接ペンマウス30を用いて入力を行なえる。その後、CPU230は、処理をステップS80に移行する。   In step S70, the CPU 230 executes the changing unit 257 (details will be described later with reference to FIG. 11). By the execution of the changing unit 257, the position of the operation surface CP is changed so that the operation surface CP follows the virtual image VI. In the direct mode, it is possible to obtain an operational feeling as if an input is performed directly on the virtual image VI using the pen mouse 30. Therefore, by changing the position of the operation surface CP so that the operation surface CP follows the virtual image VI, the user USR directly touches the virtual image VI with respect to the virtual image VI without worrying about the position of the operation surface CP. You can input using. Thereafter, the CPU 230 shifts the processing to step S80.

ステップS80において、CPU230は、操作面CP内に含まれる位置にペンマウス30が存在するか否かを判断する。具体的には、CPU230は、ペンマウス位置データ261と操作面位置データ263とを比較する。比較の結果、ペンマウス30が操作面CPに存在する場合(ステップS80:Y)、CPU230は、処理をステップS90に移行する。一方、ペンマウス30が操作面CPに存在しない場合(ステップS80:N)、CPU230は、処理をステップS120に移行する。   In step S80, the CPU 230 determines whether or not the pen mouse 30 exists at a position included in the operation surface CP. Specifically, the CPU 230 compares the pen mouse position data 261 with the operation surface position data 263. As a result of the comparison, when the pen mouse 30 is present on the operation surface CP (step S80: Y), the CPU 230 shifts the processing to step S90. On the other hand, when the pen mouse 30 does not exist on the operation surface CP (step S80: N), the CPU 230 shifts the processing to step S120.

ステップS90において、CPU230は、ペンマウス30の第2スイッチ330が押されたか否かを判断する。具体的には、CPU230は、第2スイッチ330からの決定信号が受信されたか否かを判断する。第2スイッチ330が押された場合(ステップS90:Y)、CPU230は、処理をステップS100に移行する。一方、第2スイッチ330が押されない場合(ステップS90:N)、CPU230は、処理をステップ120に移行する。   In step S <b> 90, the CPU 230 determines whether or not the second switch 330 of the pen mouse 30 has been pressed. Specifically, CPU 230 determines whether or not a determination signal from second switch 330 has been received. When the second switch 330 has been pressed (step S90: Y), the CPU 230 shifts the process to step S100. On the other hand, when the second switch 330 is not pressed (step S90: N), the CPU 230 shifts the processing to step 120.

ステップS100及びS110において、CPU230は、画像制御手段255を実行する。具体的には、ステップS100において、CPU230は、入力座標データ265と、アイコンデータ267とを比較する。入力座標データ265に含まれる画像空間での座標がアイコンVIaの画像空間での座標と一致する場合(ステップS100:Y)、CPU230は、処理をステップS110に移行する。一方、不一致の場合(ステップS100:N)、CPU230は、処理をステップS120に移行する。ステップS110において、CPU230は、入力座標データ265の位置に一致したアイコンVIaに割り付けられた、画像提示部120の動作を制御するための所定の処理を実行する。この所定の処理は、画像提示部120の動作が制御されるものであれば、どの様な処理であっても良い。所定の処理の一例としては、画像提示部120によって提示されているコンテンツの再生開始、一時停止、再生終了などである。また、所定の処理の他の例として、画像提示部120の電源遮断や虚像VIの提示輝度調整など、コンテンツとは無関係の制御であっても良い。その後、CPU230は、処理をステップS120に移行する。   In steps S100 and S110, the CPU 230 executes the image control means 255. Specifically, in step S100, the CPU 230 compares the input coordinate data 265 with the icon data 267. When the coordinates in the image space included in the input coordinate data 265 match the coordinates in the image space of the icon VIa (step S100: Y), the CPU 230 shifts the process to step S110. On the other hand, if they do not match (step S100: N), the CPU 230 shifts the processing to step S120. In step S <b> 110, the CPU 230 executes a predetermined process for controlling the operation of the image presentation unit 120 assigned to the icon VIa that matches the position of the input coordinate data 265. This predetermined process may be any process as long as the operation of the image presentation unit 120 is controlled. As an example of the predetermined processing, there is a start of reproduction, a pause, an end of reproduction, and the like of the content presented by the image presentation unit 120. Further, as another example of the predetermined processing, control unrelated to the content, such as power-off of the image presentation unit 120 or adjustment of the presentation brightness of the virtual image VI, may be used. Thereafter, the CPU 230 shifts the processing to step S120.

ステップS120において、CPU230は、ペンマウス30の第1スイッチ320が押されたか否かを判断する。具体的には、CPU230は、第1スイッチ320からの終了信号が受信されたか否かを判断する。第1スイッチ320が押された場合(ステップS120:Y)、CPU230は、一連の処理を終了する。一方、第1スイッチ320が押されない場合(ステップS120:N)、CPU230は、処理をステップS40に戻す。   In step S120, the CPU 230 determines whether or not the first switch 320 of the pen mouse 30 has been pressed. Specifically, CPU 230 determines whether or not an end signal from first switch 320 has been received. When the first switch 320 is pressed (step S120: Y), the CPU 230 ends a series of processes. On the other hand, when the first switch 320 is not pressed (step S120: N), the CPU 230 returns the process to step S40.

[定義手段252の処理内容]
以下、図7を用いて、図5のステップS30において、定義手段252がCPU230によって実行される際の処理内容の説明を行う。
[Processing content of defining means 252]
Hereinafter, processing contents when the definition unit 252 is executed by the CPU 230 in step S30 of FIG. 5 will be described with reference to FIG.

ステップS310において、CPU230は、図8(A)に示される、画像提示部位置設定画像を画像提示部120に表示させる。このステップS310によって、ユーザUSRは、ペンマウス30を画像提示部120に接触させた状態で第2スイッチ330を押すことを促される。その後、CPU230は、処理をステップS311に移行する。   In step S310, the CPU 230 causes the image presentation unit 120 to display the image presentation unit position setting image shown in FIG. By this step S310, the user USR is prompted to press the second switch 330 with the pen mouse 30 in contact with the image presentation unit 120. Thereafter, the CPU 230 shifts the processing to step S311.

ステップS311において、CPU230は、図5のステップS90と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS311:Y)、CPU230は、処理をステップS312に移行する。一方、第2スイッチ330が押されない場合(ステップS311:N)、CPU230は、処理を再びS311に戻し、第2スイッチ330が押されるのを待つ。   In step S311, the CPU 230 determines whether or not the second switch 330 of the pen mouse 30 has been pressed, as in step S90 of FIG. When the second switch 330 is pressed (step S311: Y), the CPU 230 shifts the process to step S312. On the other hand, when the second switch 330 is not pressed (step S311: N), the CPU 230 returns the process to S311 again and waits for the second switch 330 to be pressed.

ステップS311において、CPU230は、ステップS311において第2スイッチ330が押されたときのペンマウス位置データ261を、画像提示部120の実空間での位置として、HMD方向データ266に一時記憶する。その後、CPU230は、処理をステップS313に移行する。   In step S311, the CPU 230 temporarily stores the pen mouse position data 261 when the second switch 330 is pressed in step S311 as the position in the real space of the image presentation unit 120 in the HMD direction data 266. Thereafter, the CPU 230 shifts the processing to step S313.

ステップS313において、CPU230は、図8(B)に示される、操作面中心設定画像を画像提示部120に表示させる。このステップS313によって、ユーザUSRは、操作面CPの中心位置を定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS314に移行する。   In step S313, the CPU 230 causes the image presentation unit 120 to display the operation surface center setting image shown in FIG. By this step S313, the user USR is prompted to input using the second switch 330 in order to define the center position of the operation surface CP. Thereafter, the CPU 230 shifts the processing to step S314.

ステップS314において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS314:Y)、CPU230は、処理をステップS315に移行する。一方、第2スイッチ330が押されない場合(ステップS314:N)、CPU230は、処理を再びS314に戻し、第2スイッチ330が押されるのを待つ。   In step S314, the CPU 230 determines whether or not the second switch 330 of the pen mouse 30 has been pressed, as in step S311. When the second switch 330 is pressed (step S314: Y), the CPU 230 shifts the process to step S315. On the other hand, when the second switch 330 is not pressed (step S314: N), the CPU 230 returns the process to S314 again and waits for the second switch 330 to be pressed.

ステップS315において、CPU230は、ステップS314において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での中心位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS316に移行する。   In step S315, the CPU 230 temporarily stores the pen mouse position data 261 when the second switch 330 is pressed in step S314 as the center position in the real space of the operation surface CP in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S316.

ステップS316において、CPU230は、判断手段256を実行する。具体的には、CPU230は、HMD方向データ266に含まれる画像提示部120の実空間での位置と、操作面位置データ263に含まれる操作面CPの実空間での中心位置とを比較することで、画像提示部120と操作面CPとの間の距離を決定する。画像提示部120によって提示される虚像VIの画角は予め決まっているので、CPU230は、画像提示部120と操作面CPとの間の距離と、HMD方向データ266に含まれる画像提示部120の向きとに基づいて、操作面CPの距離における虚像VIの画角の範囲を決定する。換言すれば、虚像VIの実空間での位置が決定される。この虚像VIの実空間での位置と、画像提示部120と操作面CPとの間の距離とは、RAM260の虚像位置データ262に一時記憶される。そして、CPU230は、その画角の範囲とペンマウス位置データ261とを比較することで、ペンマウス30が虚像VIの画角の範囲に含まれるか否かを判断する。ペンマウス30が虚像VIの画角の範囲に含まれる場合(ステップS316:Y)、CPU230は、処理をステップS324に移行する。一方、ペンマウス30が虚像VIの画角の範囲に含まれない場合(ステップS316:N)、CPU230は、処理をステップS317に移行する。   In step S316, the CPU 230 executes the determination unit 256. Specifically, the CPU 230 compares the position in the real space of the image presentation unit 120 included in the HMD direction data 266 with the center position in the real space of the operation surface CP included in the operation surface position data 263. Thus, the distance between the image presentation unit 120 and the operation surface CP is determined. Since the angle of view of the virtual image VI presented by the image presentation unit 120 is determined in advance, the CPU 230 determines the distance between the image presentation unit 120 and the operation surface CP, and the image presentation unit 120 included in the HMD direction data 266. Based on the direction, the range of the angle of view of the virtual image VI at the distance of the operation surface CP is determined. In other words, the position of the virtual image VI in the real space is determined. The position of the virtual image VI in the real space and the distance between the image presentation unit 120 and the operation surface CP are temporarily stored in the virtual image position data 262 of the RAM 260. Then, the CPU 230 compares the field angle range with the pen mouse position data 261 to determine whether or not the pen mouse 30 is included in the field angle range of the virtual image VI. When the pen mouse 30 is included in the field angle range of the virtual image VI (step S316: Y), the CPU 230 shifts the process to step S324. On the other hand, when the pen mouse 30 is not included in the field angle range of the virtual image VI (step S316: N), the CPU 230 shifts the process to step S317.

ステップS317において、CPU230は、RAM260の入力モードフラグ268を間接モードに設定する。その後、CPU230は、処理をステップS318に移行する。   In step S317, the CPU 230 sets the input mode flag 268 of the RAM 260 to the indirect mode. Thereafter, the CPU 230 shifts the processing to step S318.

ステップS318において、CPU230は、図8(C)に示される、操作面左上設定画像を画像提示部120に表示させる。このステップS318によって、ユーザUSRは、操作面CPの左上位置を定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS319に移行する。   In step S318, the CPU 230 causes the image presentation unit 120 to display an operation surface upper left setting image shown in FIG. By this step S318, the user USR is prompted to input using the second switch 330 in order to define the upper left position of the operation surface CP. Thereafter, the CPU 230 shifts the processing to step S319.

ステップS319において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS319:Y)、CPU230は、処理をステップS320に移行する。一方、第2スイッチ330が押されない場合(ステップS319:N)、CPU230は、処理を再びS319に戻し、第2スイッチ330が押されるのを待つ。   In step S319, the CPU 230 determines whether the second switch 330 of the pen mouse 30 has been pressed, as in step S311. When the second switch 330 is pressed (step S319: Y), the CPU 230 shifts the process to step S320. On the other hand, when the second switch 330 is not pressed (step S319: N), the CPU 230 returns the process to S319 again and waits for the second switch 330 to be pressed.

ステップS320において、CPU230は、ステップS319において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での左上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS321に移行する。   In step S320, the CPU 230 temporarily stores the pen mouse position data 261 when the second switch 330 is pressed in step S319 as the upper left position in the real space of the operation surface CP in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S321.

ステップS321において、CPU230は、図8(D)に示される、操作面右上設定画像を画像提示部120に表示させる。このステップS321によって、ユーザUSRは、操作面CPの右上位置を定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS322に移行する。   In step S321, the CPU 230 causes the image presentation unit 120 to display an operation surface upper right setting image shown in FIG. By this step S321, the user USR is prompted to input using the second switch 330 in order to define the upper right position of the operation surface CP. Thereafter, the CPU 230 shifts the processing to step S322.

ステップS322において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS322:Y)、CPU230は、処理をステップS323に移行する。一方、第2スイッチ330が押されない場合(ステップS322:N)、CPU230は、処理を再びS322に戻し、第2スイッチ330が押されるのを待つ。   In step S322, the CPU 230 determines whether or not the second switch 330 of the pen mouse 30 has been pressed, as in step S311. When the second switch 330 is pressed (step S322: Y), the CPU 230 shifts the process to step S323. On the other hand, when the second switch 330 is not pressed (step S322: N), the CPU 230 returns the process to S322 again and waits for the second switch 330 to be pressed.

ステップS323において、CPU230は、ステップS322において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での右上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS331に移行する。   In step S323, the CPU 230 temporarily stores the pen mouse position data 261 when the second switch 330 is pressed in step S322 as the upper right position in the real space of the operation surface CP in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S331.

ここで、ステップS316の判断がYとなった場合における、ステップS324以下の処理を説明する。ステップS324において、CPU230は、RAM260の入力モードフラグ268を直接モードに設定する。その後、CPU230は、処理をステップS325に移行する。   Here, the processing after step S324 when the determination in step S316 is Y will be described. In step S324, the CPU 230 sets the input mode flag 268 of the RAM 260 to the direct mode. Thereafter, the CPU 230 shifts the processing to step S325.

ステップS325において、CPU230は、図8(E)に示される、虚像左上設定画像を画像提示部120に表示させる。このステップS325によって、ユーザUSRは、虚像VIの左上位置を操作面CPの左上位置として定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS326に移行する。   In step S325, CPU 230 causes image presentation unit 120 to display a virtual image upper left setting image shown in FIG. By this step S325, the user USR is prompted to input using the second switch 330 in order to define the upper left position of the virtual image VI as the upper left position of the operation surface CP. Thereafter, the CPU 230 shifts the processing to step S326.

ステップS326において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS326:Y)、CPU230は、処理をステップS327に移行する。一方、第2スイッチ330が押されない場合(ステップS326:N)、CPU230は、処理を再びS326に戻し、第2スイッチ330が押されるのを待つ。   In step S326, the CPU 230 determines whether or not the second switch 330 of the pen mouse 30 has been pressed, as in step S311. When the second switch 330 is pressed (step S326: Y), the CPU 230 shifts the process to step S327. On the other hand, when the second switch 330 is not pressed (step S326: N), the CPU 230 returns the process to S326 again and waits for the second switch 330 to be pressed.

ステップS327において、CPU230は、ステップS326において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での左上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS328に移行する。   In step S327, the CPU 230 temporarily stores the pen mouse position data 261 when the second switch 330 is pressed in step S326 as the upper left position in the real space of the operation surface CP in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S328.

ステップS328において、CPU230は、図8(F)に示される、虚像右上設定画像を画像提示部120に表示させる。このステップS321によって、ユーザUSRは、虚像VIの右上位置を操作面CPの右上位置として定義するために、第2スイッチ330を用いた入力を促される。その後、CPU230は、処理をステップS329に移行する。   In step S328, CPU 230 causes image presentation unit 120 to display the virtual image upper right setting image shown in FIG. By this step S321, the user USR is prompted to input using the second switch 330 in order to define the upper right position of the virtual image VI as the upper right position of the operation surface CP. Thereafter, the CPU 230 shifts the processing to step S329.

ステップS329において、CPU230は、ステップS311と同様に、ペンマウス30の第2スイッチ330が押されたか否かを判断する。第2スイッチ330が押された場合(ステップS329:Y)、CPU230は、処理をステップS330に移行する。一方、第2スイッチ330が押されない場合(ステップS329:N)、CPU230は、処理を再びS329に戻し、第2スイッチ330が押されるのを待つ。   In step S329, the CPU 230 determines whether or not the second switch 330 of the pen mouse 30 has been pressed, as in step S311. When the second switch 330 is pressed (step S329: Y), the CPU 230 shifts the processing to step S330. On the other hand, when the second switch 330 is not pressed (step S329: N), the CPU 230 returns the process to S329 again and waits for the second switch 330 to be pressed.

ステップS330において、CPU230は、ステップS329において第2スイッチ330が押されたときのペンマウス位置データ261を、操作面CPの実空間での右上位置として、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS331に移行する。   In step S330, the CPU 230 temporarily stores the pen mouse position data 261 when the second switch 330 is pressed in step S329 as the upper right position in the real space of the operation surface CP in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S331.

ステップS331において、CPU230は、操作面位置データ263に一時記憶された操作面CPの実空間での中心位置、左上位置及び右上位置に基づいて、操作面CPの実空間での位置を決定する。具体的には、CPU230は、操作面CPを、前記中心位置を中心とし、前記左上位置及び前記右上位置を端とする矩形領域として定義する。このとき、CPU230は、操作面CPを、平面の方程式を用いて定義する。そして、CPU230は、操作面CPの境界を、前記中心位置、前記左上位置及び前記右上位置に基づいて決定する。CPU230は、決定された操作面CPの平面の方程式と、操作面CPの境界とを、操作面位置データ263に一時記憶する。その後、CPU230は、処理をステップS332に移行する。   In step S331, the CPU 230 determines the position of the operation surface CP in the real space based on the center position, the upper left position, and the upper right position of the operation surface CP in the real space temporarily stored in the operation surface position data 263. Specifically, the CPU 230 defines the operation surface CP as a rectangular area with the center position as the center and the upper left position and the upper right position as ends. At this time, the CPU 230 defines the operation surface CP using a plane equation. Then, the CPU 230 determines the boundary of the operation surface CP based on the center position, the upper left position, and the upper right position. The CPU 230 temporarily stores the determined plane equation of the operation surface CP and the boundary of the operation surface CP in the operation surface position data 263. Thereafter, the CPU 230 shifts the processing to step S332.

ステップS332において、CPU230は、対応付け手段253を実行する。具体的には、CPU230は、操作面データ263に含まれる虚像VIの実空間での中心位置、左上位置及び右上位置と、虚像VIの画像空間での中心座標、左上座標及び右上座標とを用いて、実空間での位置から画像空間での座標への変換を行う変換式を計算する。なお、虚像VIの画像空間での中心座標、左上座標及び右上座標は、虚像VIの中心に位置する画素の座標、左上に位置する画素の座標及び右上に位置する画素の座標にそれぞれ相当する。CPU230は、計算した変換式を、RAM260の実空間―画像変換式データ264に一時記憶する。CPU230はさらに、この変換式を計算したときのHMD方向データ264の値を、この変換式に紐付けした状態で、実空間―画像変換式データ264に一時記憶する。その後、CPU230は、定義手段252の実行を終了し、処理を図5のステップS40に戻す。   In step S <b> 332, the CPU 230 executes the association unit 253. Specifically, the CPU 230 uses the center position, the upper left position, and the upper right position in the real space of the virtual image VI included in the operation surface data 263, and the center coordinates, the upper left coordinates, and the upper right coordinates in the image space of the virtual image VI. Thus, a conversion formula for converting the position in the real space to the coordinate in the image space is calculated. Note that the center coordinates, the upper left coordinates, and the upper right coordinates of the virtual image VI in the image space correspond to the coordinates of the pixel located at the center of the virtual image VI, the coordinates of the pixel located at the upper left, and the coordinates of the pixel located at the upper right, respectively. The CPU 230 temporarily stores the calculated conversion formula in the real space-image conversion formula data 264 of the RAM 260. Further, the CPU 230 temporarily stores the value of the HMD direction data 264 when the conversion formula is calculated in the real space-image conversion formula data 264 in a state linked to the conversion formula. Thereafter, the CPU 230 ends the execution of the definition unit 252 and returns the process to step S40 in FIG.

[操作面表示手段258の処理内容]
以下、図9を用いて、図5のステップS65において、操作面表示手段258がCPU230によって実行される際の、操作面変更処理の内容を説明する。
[Processing contents of operation surface display means 258]
Hereinafter, the contents of the operation surface change process when the operation surface display unit 258 is executed by the CPU 230 in step S65 of FIG. 5 will be described with reference to FIG.

ステップS651において、CPU230は、虚像VIの実空間での位置と、操作面CPの実空間での位置とを比較する。具体的には、CPU230は、操作面位置データ263に含まれる操作面CPの実空間での位置と、HMD方向データ266に含まれる画像提示部120の実空間での位置とに基づいて、画像提示部120と操作面CPの境界とを繋ぐ直線の方向を定義する。この直線は、所定の間隔をおいて、操作面CPの境界の全周に対して定義される。そして、CPU230は、この直線の方向と虚像位置データ262に含まれる虚像VIの実空間での位置とに基づいて、この直線と虚像VIとの交点を決定する。交点が存在する場合、図10に示されるように、交点と虚像VIの境界とによって囲まれる領域が、虚像VIの実空間の位置と操作面CPの実空間の位置とが重なる重複領域SAとなる。交点を決定した後、CPU230は、処理をステップS652に移行する。   In step S651, the CPU 230 compares the position of the virtual image VI in the real space with the position of the operation surface CP in the real space. Specifically, based on the position of the operation surface CP included in the operation surface position data 263 in the real space and the position of the image presentation unit 120 included in the HMD direction data 266 in the real space, the CPU 230 The direction of a straight line connecting the presenting unit 120 and the boundary of the operation surface CP is defined. This straight line is defined with respect to the entire circumference of the boundary of the operation surface CP at a predetermined interval. Then, the CPU 230 determines an intersection of the straight line and the virtual image VI based on the direction of the straight line and the position of the virtual image VI included in the virtual image position data 262 in the real space. When an intersection exists, as shown in FIG. 10, the region surrounded by the intersection and the boundary of the virtual image VI is an overlapping region SA where the position of the real space of the virtual image VI and the position of the real space of the operation surface CP overlap. Become. After determining the intersection, the CPU 230 shifts the processing to step S652.

ステップS652において、CPU230は、ステップS651における比較結果に基づいて、重複領域SAが存在するか否かを判断する。この判断は、画像提示部120と操作面CPの境界とを繋ぐ直線と、虚像VIとの交点が存在するか否かを判断することによって達成される。重複領域SAが存在する場合(ステップS652:Y)、CPU230は、処理をステップS653に移行する。一方、重複領域SAが存在しない場合(ステップS652:N)、CPU230は、操作面表示手段258の実行を終了し、処理を図5のステップS80に戻す。   In step S652, the CPU 230 determines whether or not the overlapping area SA exists based on the comparison result in step S651. This determination is achieved by determining whether or not there is an intersection between the straight line connecting the image presentation unit 120 and the boundary of the operation surface CP and the virtual image VI. When the overlapping area SA exists (step S652: Y), the CPU 230 shifts the process to step S653. On the other hand, when the overlapping area SA does not exist (step S652: N), the CPU 230 ends the execution of the operation surface display unit 258, and returns the process to step S80 in FIG.

ステップS653において、CPU230は、虚像VIにおける重複領域SAの位置の色を変更する。この重複領域SAの色の変更は、ユーザUSRが操作面CPを認識可能な様態であれば、どのような様態でも良い。例えば、CPU230は、重複領域SAにおいて、虚像VIの色を反転する処理を行う。あるいは、CPU230は、重複領域SAにおける虚像VIのカラーバランスを変更することによって、重複領域SAに色が付いた様に視認される虚像VIを提示しても良い。この処理によって、図10に示されるように、ユーザは虚像VIにおける重複領域SAを認識することが可能になる。その後、CPU230は、操作面表示手段258の実行を終了し、処理を図5のステップS80に戻す。   In step S653, the CPU 230 changes the color of the position of the overlapping area SA in the virtual image VI. The color of the overlapping area SA can be changed in any manner as long as the user USR can recognize the operation surface CP. For example, the CPU 230 performs a process of inverting the color of the virtual image VI in the overlapping area SA. Alternatively, the CPU 230 may present the virtual image VI that is visually recognized as if the overlapping area SA is colored by changing the color balance of the virtual image VI in the overlapping area SA. By this processing, as shown in FIG. 10, the user can recognize the overlapping area SA in the virtual image VI. Thereafter, the CPU 230 ends the execution of the operation surface display unit 258, and returns the process to step S80 in FIG.

[変更手段257の処理内容]
以下、図11を用いて、図5のステップS70において、変更手段257がCPU230によって実行される際の操作面変更処理の内容を説明する。
[Processing contents of changing means 257]
Hereinafter, the contents of the operation surface changing process when the changing unit 257 is executed by the CPU 230 in step S70 of FIG. 5 will be described with reference to FIG.

ステップS701において、CPU230は、操作面CPの位置が決定されたときの画像提示部120の向きと、現在の画像提示部120の向きとを比較する。具体的には、CPU230は、実空間―画像変換式データ264に含まれる画像提示部120の向きと、HMD方向データ266とを比較する。その後、CPU230は、処理をステップS702に移行する。   In step S701, the CPU 230 compares the orientation of the image presentation unit 120 when the position of the operation surface CP is determined with the current orientation of the image presentation unit 120. Specifically, CPU 230 compares the orientation of image presentation unit 120 included in real space-image conversion formula data 264 with HMD direction data 266. Thereafter, the CPU 230 shifts the processing to step S702.

ステップS702において、CPU230は、ステップS701の比較結果に基づいて、操作面CPの位置が決定されたときの画像提示部120の向きと、現在の画像提示部120の向きとが一致するか否かを判断する。向きが一致する場合(ステップS702:Y)、CPU230は、変更手段257の実行を終了し、処理を図5のステップS80に戻す。一方、向きが一致する場合(ステップS702:N)、CPU230は、処理をステップS703に移行する。   In step S702, based on the comparison result in step S701, the CPU 230 determines whether the orientation of the image presentation unit 120 when the position of the operation surface CP is determined matches the current orientation of the image presentation unit 120. Judging. When the directions match (step S702: Y), the CPU 230 ends the execution of the changing unit 257, and returns the process to step S80 in FIG. On the other hand, when the directions match (step S702: N), the CPU 230 shifts the processing to step S703.

ステップS703において、CPU230は、ステップS701の比較結果に従って、虚像VIの実空間での位置を更新する。具体的には、CPU230は、操作面CPの位置が決定されたときの画像提示部120の向きと、現在の画像提示部120の向きとの差から、画像提示部120の回転量を決定する。そして、CPU230は、その回転量と、虚像位置データ262に含まれる画像提示部120と操作面CPとの間の距離とに基づいて、虚像VIの実空間での位置の移動量を決定する。CPU230は、この位置の移動量を虚像位置データ262に加算することで、虚像VIの実空間での位置を更新する。その後、CPU230は、処理をステップS704に移行する。   In step S703, the CPU 230 updates the position of the virtual image VI in the real space according to the comparison result in step S701. Specifically, CPU 230 determines the amount of rotation of image presentation unit 120 from the difference between the orientation of image presentation unit 120 when the position of operation surface CP is determined and the current orientation of image presentation unit 120. . Then, CPU 230 determines the amount of movement of the position of virtual image VI in the real space based on the amount of rotation and the distance between image presentation unit 120 and operation surface CP included in virtual image position data 262. The CPU 230 updates the position of the virtual image VI in the real space by adding the movement amount of the position to the virtual image position data 262. Thereafter, the CPU 230 shifts the processing to step S704.

ステップS704において、CPU230は、操作面CPの実空間での位置を更新する。具体的には、CPU230は、ステップS703で決定された虚像VIの実空間での位置の移動量を、操作面位置データ263に加算する。直接モードでは、虚像VIの実空間での位置と、操作面CPの位置とが一致している。従って、操作面CPの操作面位置データ263に虚像VIの実空間での位置の移動量を加算することで、操作面CPの実空間での位置は、虚像VIの実空間での位置に一致する。その後、CPU230は、処理をステップS705に移行する。   In step S704, the CPU 230 updates the position of the operation surface CP in the real space. Specifically, CPU 230 adds the movement amount of the position of virtual image VI determined in step S703 in the real space to operation surface position data 263. In the direct mode, the position of the virtual image VI in the real space coincides with the position of the operation surface CP. Therefore, by adding the movement amount of the position of the virtual image VI in the real space to the operation surface position data 263 of the operation surface CP, the position of the operation surface CP in the real space matches the position of the virtual image VI in the real space. To do. Thereafter, the CPU 230 shifts the processing to step S705.

ステップS705において、CPU230は、実空間―画像変換式データ264に含まれる、実空間での位置から画像空間での座標への変換を行う変換式を更新する。具体的には、CPU230は、更新された虚像位置データ262を用いて、対応付け手段253を再度実行する。この処理によって、実空間―画像変換式データ264に含まれる変換式が更新される。CPU230はまた、現在のHMD方向データ264の値を、この変換式に紐付けした状態で、実空間―画像変換式データ264に一時記憶する。即ち、空間―画像変換式データ264に含まれる画像提示部120の向きも更新される。その後、CPU230は、変更手段257の実行を終了し、処理を図5のステップS80に戻す。   In step S <b> 705, the CPU 230 updates the conversion formula for converting the position in the real space to the coordinate in the image space, included in the real space-image conversion formula data 264. Specifically, the CPU 230 executes the association unit 253 again using the updated virtual image position data 262. By this processing, the conversion formula included in the real space-image conversion formula data 264 is updated. The CPU 230 also temporarily stores the current value of the HMD direction data 264 in the real space-image conversion formula data 264 in a state linked to this conversion formula. That is, the orientation of the image presentation unit 120 included in the space-image conversion formula data 264 is also updated. Thereafter, the CPU 230 ends the execution of the changing unit 257 and returns the process to step S80 of FIG.

<変形例>
本発明は、今までに述べた実施形態に限定されることは無く、その趣旨を逸脱しない範囲において種々の変形・変更が可能である。以下にその一例を述べる。
<Modification>
The present invention is not limited to the embodiments described so far, and various modifications and changes can be made without departing from the spirit of the present invention. An example is described below.

前記実施形態において、頭部装着部10の骨格の構成は、例えば、通常の眼鏡と同様である。しかし、頭部装着部10の骨格は、画像提示部を保持した状態でユーザUSRの頭部に装着可能な構成であれば、他の構成であっても良い。例えば、頭部装着部10の骨格は、ヘッドバンドの様に、ユーザの頭に載せられる形状であっても良い。あるいは、頭部装着部10は、骨格を有さなくても良い。この場合、頭部装着部は、画像提示部120と、ユーザUSRが日常的に用いている眼鏡に対して画像提示部120を取り付け可能な取付部などで構成可能である。   In the embodiment, the structure of the skeleton of the head mounting unit 10 is the same as that of normal glasses, for example. However, the skeleton of the head mounting unit 10 may have another configuration as long as it can be mounted on the head of the user USR while holding the image presentation unit. For example, the skeleton of the head mounting unit 10 may have a shape that can be placed on the user's head like a headband. Or the head mounting | wearing part 10 does not need to have a skeleton. In this case, the head-mounted unit can be configured by the image presentation unit 120 and an attachment unit that can attach the image presentation unit 120 to the glasses that the user USR uses on a daily basis.

前記実施形態において、画像提示部120は、ユーザUSRの左目LEに虚像VIを提示するために、頭部装着部10を装着したユーザUSRの左眼LEと略同一の高さとなる位置に配設される。しかし、画像提示部120は、ユーザUSRの右目に対して虚像VIを提示可能な位置に配設されても良い。あるいは、画像提示部120は、ユーザUSRの両眼に虚像VIを提示するために、左右一対設けられても良い。   In the embodiment, the image presentation unit 120 is disposed at a position that is substantially the same height as the left eye LE of the user USR wearing the head mounting unit 10 in order to present the virtual image VI to the left eye LE of the user USR. Is done. However, the image presentation unit 120 may be disposed at a position where the virtual image VI can be presented to the right eye of the user USR. Alternatively, the image presentation unit 120 may be provided as a pair of left and right in order to present the virtual image VI to both eyes of the user USR.

前記実施形態において、ユーザUSRは、ペンマウス30を用いて虚像VIに対する入力を行う。しかし、ユーザUSRの手に保持され、ユーザUSRの手の移動量を検知する構成であれば、ペンマウス30以外であっても差し支えない。例えば、ユーザUSRの指に嵌合する指輪型の入力デバイスに、ペンマウス30が有する機能を組み込んでも差し支えない。あるいは、通常PCなどで用いられるマウスの様な形状が用いられても良い。また、ペンマウス30と制御ボックス20とは、ケーブル51にて接続されなくても良い。この場合、ペンマウス用I/F240及びI/F340は、例えばBluetooth(登録商標)などの無線通信によって構成可能である。さらに、制御ボックス20からペンマウス30へのケーブル51を介した電力供給が不可能になるため、ペンマウス30は、別途バッテリーを備えるのが良い。   In the embodiment, the user USR performs an input on the virtual image VI using the pen mouse 30. However, it may be other than the pen mouse 30 as long as it is held by the user USR's hand and detects the amount of movement of the user USR's hand. For example, the function of the pen mouse 30 may be incorporated into a ring-type input device that fits the finger of the user USR. Or the shape like the mouse normally used with PC etc. may be used. The pen mouse 30 and the control box 20 may not be connected by the cable 51. In this case, the pen mouse I / F 240 and I / F 340 can be configured by wireless communication such as Bluetooth (registered trademark), for example. Furthermore, since it becomes impossible to supply power from the control box 20 to the pen mouse 30 via the cable 51, the pen mouse 30 is preferably provided with a separate battery.

1 HMD
10 頭部装着部
20 コントロールボックス
30 ペンマウス
50,51 ケーブル
102A,102B モダン
104A,104B テンプル
106A,106B ヨロイ
108 フロントフレーム
110 鼻パッド
112A,112B 蝶番
120 画像提示部
129 取付部
130 角速度センサ
140 ハーフミラー
210 フラッシュROM
220 周辺I/F
230 CPU
240 ペンマウス用I/F
250 プログラムROM
260 RAM
270 入力ボタン群
310 3次元加速度センサ
320 第1スイッチ
330 第2スイッチ
340 I/F
CP 操作面
CS カーソル
LE ユーザUSRの左目
SA 重複領域
TBL テーブル
USR ユーザ
VI 虚像
VIa アイコン
1 HMD
DESCRIPTION OF SYMBOLS 10 Head mounting part 20 Control box 30 Pen mouse 50, 51 Cable 102A, 102B Modern 104A, 104B Temple 106A, 106B Yoroi 108 Front frame 110 Nose pad 112A, 112B Hinge 120 Image presentation part 129 Mounting part 130 Angular velocity sensor 140 Half mirror 210 Flash ROM
220 Peripheral I / F
230 CPU
240 Pen mouse I / F
250 Program ROM
260 RAM
270 Input button group 310 Three-dimensional acceleration sensor 320 First switch 330 Second switch 340 I / F
CP Operation surface CS Cursor LE Left eye SA of user USR Overlapping area TBL Table USR User VI Virtual image VIa Icon

Claims (6)

ユーザの頭部に装着される装着部に保持され、画像をユーザの眼に視認可能に提示する画像提示部と、
ユーザの手に保持され、ユーザの手の移動量を検知する移動量検知部と、
前記移動量に基づいて、前記移動量検知手段の実空間での位置を決定する位置決定手段と、
実空間に存在する任意の実体物の表面における所定の範囲を、前記画像に対する入力操作を行う操作面として定義する定義手段と、
前記操作面における実空間での位置を、前記画像における画像空間での座標と対応付ける対応付け手段と、
前記移動量検出手段が前記操作面に存在する場合に、前記移動量検出手段の前記実空間での位置に対応付けられた前記画像空間での座標を、前記画像に対する入力座標として受け付ける入力受付手段と、
前記入力座標に基づいて、前記画像提示部の動作を制御する画像制御手段と、
を備えることを特徴とするヘッドマウントディスプレイ。
An image presentation unit that is held in a mounting unit that is mounted on the user's head and presents the image to the user's eyes so as to be visible;
A movement amount detection unit that is held in the user's hand and detects the movement amount of the user's hand;
Position determining means for determining a position of the movement amount detecting means in real space based on the movement amount;
Defining means for defining a predetermined range on the surface of an arbitrary entity existing in real space as an operation surface for performing an input operation on the image;
Association means for associating a position in the real space on the operation surface with a coordinate in the image space in the image;
Input accepting means for accepting, as input coordinates for the image, coordinates in the image space associated with a position in the real space of the travel amount detecting means when the movement amount detecting means is present on the operation surface. When,
Image control means for controlling the operation of the image presentation unit based on the input coordinates;
A head-mounted display comprising:
前記画像提示部は、
前記画像提示部の方向を検知する方向検知部を有し、
ユーザが外界像と画像とを重畳した状態で視認可能に構成され、
前記画像提示部の方向と前記移動量検知手段の実空間での位置とに基づいて、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する判断手段と、
前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれると前記判断手段が判断した場合、前記画像提示部の方向に基づいて、前記画像提示部によって提示される画像に前記操作面が追随するように、前記操作面の位置を変更する変更手段とをさらに備える、
請求項1に記載のヘッドマウントディスプレイ。
The image presentation unit
A direction detection unit for detecting the direction of the image presentation unit;
It is configured so that the user can visually recognize the external image and the image superimposed,
Based on the direction of the image presentation unit and the position of the movement amount detection unit in real space, whether or not the movement amount detection unit is included in the range of the angle of view of the image presented by the image presentation unit. A judging means for judging;
When the determination unit determines that the movement amount detection unit is included in the range of the angle of view of the image presented by the image presentation unit, the movement amount detection unit is presented by the image presentation unit based on the direction of the image presentation unit. Change means for changing the position of the operation surface so that the operation surface follows the image;
The head mounted display according to claim 1.
前記変更手段は、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記操作面の位置を変更せず、
前記画像制御手段は、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、前記入力座標に対応する識別子を前記画像提示部に提示させる、
請求項2に記載のヘッドマウントディスプレイ。
When the determination unit determines that the movement amount detection unit is not included in the range of the angle of view of the image presented by the image presentation unit, the changing unit does not change the position of the operation surface.
When the determination unit determines that the movement amount detection unit is not included in the range of the angle of view of the image presented by the image presentation unit, the image control unit displays an identifier corresponding to the input coordinates. To present to the department,
The head mounted display according to claim 2.
前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれないと前記判断手段が判断した場合、
前記操作面の実空間での位置と前記虚像の実空間での位置とが重なる重複領域が存在するか否かを判断し、前記重複領域が存在する場合、前記重複領域の表示様態を変更する操作面表示手段をさらに有する、
請求項3に記載のヘッドマウントディスプレイ。
When the determination unit determines that the movement amount detection unit is not included in the range of the angle of view of the image presented by the image presentation unit,
It is determined whether or not there is an overlapping area where the position of the operation surface in the real space and the position of the virtual image in the real space overlap, and if the overlapping area exists, the display mode of the overlapping area is changed. It further has an operation surface display means,
The head mounted display according to claim 3.
前記定義手段は、
前記操作面の位置を決定するために、ユーザからの入力を取得する取得部を有し、
前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置を、少なくとも3つ用いて、前記操作面を定義する、
請求項2〜4の何れかに記載のヘッドマウントディスプレイ。
The definition means includes
In order to determine the position of the operation surface, an acquisition unit that acquires input from a user;
Defining the operation surface using at least three positions in the real space of the movement amount detection unit when an input from a user is acquired by the acquisition unit;
The head mounted display in any one of Claims 2-4.
前記判断手段は、前記定義手段による前記操作面の定義に係る、前記取得部によってユーザからの入力が取得されたときの前記移動量検知部の実空間上の位置が、少なくとも1つ決定された後で、前記画像提示部の方向と前記移動量検知手段の実空間での位置とに基づいて、前記移動量検知手段が前記画像提示部によって提示される画像の画角の範囲に含まれるか否かを判断する、
請求項5に記載のヘッドマウントディスプレイ。
In the determination unit, at least one position in the real space of the movement amount detection unit when the input from the user is acquired by the acquisition unit according to the definition of the operation surface by the definition unit is determined. Later, based on the direction of the image presentation unit and the position of the movement amount detection unit in real space, whether the movement amount detection unit is included in the range of the angle of view of the image presented by the image presentation unit Determine whether or not
The head mounted display according to claim 5.
JP2010045012A 2010-03-02 2010-03-02 Head mounted display Expired - Fee Related JP5428943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010045012A JP5428943B2 (en) 2010-03-02 2010-03-02 Head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010045012A JP5428943B2 (en) 2010-03-02 2010-03-02 Head mounted display

Publications (2)

Publication Number Publication Date
JP2011180867A true JP2011180867A (en) 2011-09-15
JP5428943B2 JP5428943B2 (en) 2014-02-26

Family

ID=44692299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010045012A Expired - Fee Related JP5428943B2 (en) 2010-03-02 2010-03-02 Head mounted display

Country Status (1)

Country Link
JP (1) JP5428943B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013113963A (en) * 2011-11-28 2013-06-10 Seiko Epson Corp Transmission type display device, and operation input method
JP2013134532A (en) * 2011-12-26 2013-07-08 Sony Corp Head-mounted display and information display
WO2014035118A1 (en) * 2012-08-31 2014-03-06 Lg Electronics Inc. Head mounted display and method of controlling digital device using the same
WO2014109430A1 (en) * 2013-01-09 2014-07-17 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
WO2015190650A1 (en) * 2014-06-10 2015-12-17 Lg Electronics Inc. Wearable device and method of controlling therefor
US9223402B2 (en) 2012-08-31 2015-12-29 Lg Electronics Inc. Head mounted display and method of controlling digital device using the same
JP2016148968A (en) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 Head-mounted display device, control system, method for controlling head-mounted display device, and computer program
US9529442B2 (en) 2013-01-09 2016-12-27 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
JP2017004545A (en) * 2016-08-03 2017-01-05 株式会社コロプラ Screen operation system, program and method in conjunction with head-mounted display and controller
US9619021B2 (en) 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
WO2017085974A1 (en) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus
WO2017136125A3 (en) * 2016-02-01 2017-09-14 Microsoft Technology Licensing, Llc Method of object motion tracking with remote device for mixed reality system and mixed reality system
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US10268888B2 (en) 2010-02-28 2019-04-23 Microsoft Technology Licensing, Llc Method and apparatus for biometric data capture
US10539787B2 (en) 2010-02-28 2020-01-21 Microsoft Technology Licensing, Llc Head-worn adaptive display
US10860100B2 (en) 2010-02-28 2020-12-08 Microsoft Technology Licensing, Llc AR glasses with predictive control of external device based on event input
WO2021153961A1 (en) * 2020-01-31 2021-08-05 주식회사 코믹스브이 Image input system using virtual reality and image data generation method using same
WO2022003512A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789377B2 (en) 2017-03-27 2020-11-25 サン電子株式会社 Image display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230354A (en) * 1994-02-21 1995-08-29 Oki Electric Ind Co Ltd Information input device and presentation system using this device
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2004185488A (en) * 2002-12-05 2004-07-02 Canon Inc Coordinate input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230354A (en) * 1994-02-21 1995-08-29 Oki Electric Ind Co Ltd Information input device and presentation system using this device
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2004185488A (en) * 2002-12-05 2004-07-02 Canon Inc Coordinate input device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200401668006; 木戸出正継: 'ウェアラブルコンピュータ 明日の応用を目指して ウェアラブルなカメラ' 映像情報メディア学会誌 第57巻 第3号, 20030301, pp.348-350, (社)映像情報メディア学会 *
JPN6012058299; 木戸出正継: 'ウェアラブルコンピュータ 明日の応用を目指して ウェアラブルなカメラ' 映像情報メディア学会誌 第57巻 第3号, 20030301, pp.348-350, (社)映像情報メディア学会 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860100B2 (en) 2010-02-28 2020-12-08 Microsoft Technology Licensing, Llc AR glasses with predictive control of external device based on event input
US10539787B2 (en) 2010-02-28 2020-01-21 Microsoft Technology Licensing, Llc Head-worn adaptive display
US10268888B2 (en) 2010-02-28 2019-04-23 Microsoft Technology Licensing, Llc Method and apparatus for biometric data capture
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9436275B2 (en) 2011-11-28 2016-09-06 Seiko Epson Corporation Transmissive display apparatus and operation input method
JP2013113963A (en) * 2011-11-28 2013-06-10 Seiko Epson Corp Transmission type display device, and operation input method
JP2013134532A (en) * 2011-12-26 2013-07-08 Sony Corp Head-mounted display and information display
US9223402B2 (en) 2012-08-31 2015-12-29 Lg Electronics Inc. Head mounted display and method of controlling digital device using the same
WO2014035118A1 (en) * 2012-08-31 2014-03-06 Lg Electronics Inc. Head mounted display and method of controlling digital device using the same
WO2014109430A1 (en) * 2013-01-09 2014-07-17 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
US9529442B2 (en) 2013-01-09 2016-12-27 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
US9619021B2 (en) 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
US9495007B2 (en) 2014-06-10 2016-11-15 Lg Electronics Inc. Wearable device and method of controlling therefor
US9261955B2 (en) 2014-06-10 2016-02-16 Lg Electronics Inc. Wearable device and method of controlling therefor
WO2015190650A1 (en) * 2014-06-10 2015-12-17 Lg Electronics Inc. Wearable device and method of controlling therefor
JP2016148968A (en) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 Head-mounted display device, control system, method for controlling head-mounted display device, and computer program
WO2017085974A1 (en) * 2015-11-17 2017-05-26 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus
WO2017136125A3 (en) * 2016-02-01 2017-09-14 Microsoft Technology Licensing, Llc Method of object motion tracking with remote device for mixed reality system and mixed reality system
US10908694B2 (en) 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
JP2017004545A (en) * 2016-08-03 2017-01-05 株式会社コロプラ Screen operation system, program and method in conjunction with head-mounted display and controller
WO2021153961A1 (en) * 2020-01-31 2021-08-05 주식회사 코믹스브이 Image input system using virtual reality and image data generation method using same
WO2022003512A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content

Also Published As

Publication number Publication date
JP5428943B2 (en) 2014-02-26

Similar Documents

Publication Publication Date Title
JP5428943B2 (en) Head mounted display
US10191281B2 (en) Head-mounted display for visually recognizing input
CN103294180B (en) Man-machine interaction control method and electronic terminal
US9146618B2 (en) Unlocking a head mounted device
US9529442B2 (en) Head mounted display providing eye gaze calibration and control method thereof
EP2978218B1 (en) Computer display device mounted on eyeglasses
JP5927867B2 (en) Display system and operation input method
US20160132189A1 (en) Method of controlling the display of images and electronic device adapted to the same
WO2014128752A1 (en) Display control device, display control program, and display control method
JP6399692B2 (en) Head mounted display, image display method and program
US20170115736A1 (en) Photo-Based Unlock Patterns
US20150199111A1 (en) Gui system, display processing device, and input processing device
EP3807744A1 (en) Positioning a virtual reality passthrough region at a known distance
US20180316911A1 (en) Information processing apparatus
JP2016206617A (en) Display system
WO2014128750A1 (en) Input/output device, input/output program, and input/output method
JP6638392B2 (en) Display device, display system, display device control method, and program
CN103713387A (en) Electronic device and acquisition method
JP7055111B2 (en) Mobile devices, programs and methods that can estimate the user&#39;s neck bending state
JP6740613B2 (en) Display device, display device control method, and program
JP2012194626A (en) Display device
JP5610297B2 (en) Head-mounted imaging system, head-mounted imaging device, and image display method
JP6789377B2 (en) Image display system
JP2022100134A (en) Information processing apparatus, information processing system, and program
JP2017111537A (en) Head-mounted display and program for head-mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5428943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees