JP2005165776A - Image processing method and image processor - Google Patents

Image processing method and image processor Download PDF

Info

Publication number
JP2005165776A
JP2005165776A JP2003405033A JP2003405033A JP2005165776A JP 2005165776 A JP2005165776 A JP 2005165776A JP 2003405033 A JP2003405033 A JP 2003405033A JP 2003405033 A JP2003405033 A JP 2003405033A JP 2005165776 A JP2005165776 A JP 2005165776A
Authority
JP
Japan
Prior art keywords
image
orientation
observer
virtual
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003405033A
Other languages
Japanese (ja)
Inventor
Kenji Morita
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003405033A priority Critical patent/JP2005165776A/en
Publication of JP2005165776A publication Critical patent/JP2005165776A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To present an explanation regarding a device which an observer carried so as to be easy to see to the observer. <P>SOLUTION: A video in a virtual space seen from the point of view of the observer 100 who wears an HMD 110 on the head is superimposed on a real space and, in order to present it to a display part which the HMD 110 has, a position posture in the world coordinate system of a controller 120 is obtained. When a virtual object which states the explanation regarding the controller 120 is arranged near the position of the controller 120 and at a position nearer to the position of point of view than the former position, a picture of the virtual object is displayed onto the display part. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、仮想空間の映像を現実空間に重畳させて提示するための技術に関するものである。   The present invention relates to a technique for superimposing and presenting an image of a virtual space on a real space.

複合現実感装置とは、現実空間映像と、ユーザの視点位置、視線方向に応じて生成される仮想空間映像とを合成することにより得られる複合現実空間映像をユーザに提供するものである。複合現実感装置は、現実空間中に仮想物体が実在しているかのように観察者に提示することが可能であり、テーマパーク、アミューズメント施設、各種展示会、博覧会、博物館、水族館、植物園、動物園等への利用が期待されている。   The mixed reality device provides a user with a mixed reality space image obtained by combining a real space image and a virtual space image generated according to the user's viewpoint position and line-of-sight direction. The mixed reality device can be presented to the observer as if a virtual object is actually present in the real space. The theme park, amusement facility, various exhibitions, exhibitions, museums, aquariums, botanical gardens, It is expected to be used in zoos.

例えば特許文献1では観察者の腕に装着した位置方向センサによって腕の位置方向を検出し、その位置方向の変化をインターフェース手段としている。   For example, in Patent Document 1, the position direction of the arm is detected by a position / direction sensor attached to the observer's arm, and the change in the position direction is used as an interface unit.

一方、テレビゲーム装置やバーチャルリアリティ装置などの仮想空間映像装置において、仮想空間とのインターフェースとして、従来ジョイスティックなどの専用コントローラーやマウス、キーボードなどが用いられてきた。複合現実感装置においてもこれらのデバイスを利用するこは可能である。
特開2000−353248号公報
On the other hand, in a virtual space video device such as a video game device and a virtual reality device, a dedicated controller such as a joystick, a mouse, a keyboard, and the like have been used as an interface with the virtual space. These devices can also be used in the mixed reality apparatus.
JP 2000-353248 A

しかし、一般にヘッドマウンドディスプレイを使用する複合現実感装置においては、ジェイスティックなどのデバイスを直接見ることができないため、操作が難しい。またメニューなどを表示するための表示領域も、通常の仮想空間映像装置に比べると限られている。また立体視を行っている場合には、仮想物体および現実物体と三次元的に重なる場所にメニューを配置してしまうと立体感に矛盾が生じて見えにくくなってしまう。   However, in a mixed reality apparatus using a head-mound display, it is difficult to operate since a device such as a jay stick cannot be directly seen. In addition, the display area for displaying menus and the like is limited as compared with a normal virtual space video apparatus. When stereoscopic viewing is performed, if a menu is arranged in a three-dimensionally overlapping place with a virtual object and a real object, the stereoscopic effect becomes inconsistent and is difficult to see.

以上述べてきたように、立体視を難しくさせる事なく、三次元的な矛盾を生じさせず、また視界の妨げを最低限に抑え、分かりやすいメニュー表示を行うことや、それらの容易な操作を実現することが必要とされている。   As described above, stereoscopic viewing is not difficult, does not cause three-dimensional contradiction, minimizes the field of view, and provides easy-to-understand menu display and easy operations. It needs to be realized.

本発明は以上の問題に鑑みてなされたものであり、観察者が携帯する装置に係る説明をより見やすくこの観察者に対して提示する技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for presenting an explanation related to an apparatus carried by an observer to the observer in an easy-to-see manner.

本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理方法であって、
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
That is, in order to superimpose a virtual space image seen from the viewpoint of the observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. An image processing method comprising: a display control step for displaying the image on the display.

本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理方法であって、
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
That is, in order to superimpose a virtual space image seen from the viewpoint of the observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
A display control step of displaying on the display unit an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. Image processing method.

本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、体験者が操作する操作装置からの指示に応じて更新される仮想空間映像と、現実空間映像とを重畳する情報処理方法であって、
現実空間を撮影することにより得られた現実空間映像を取得する現実空間映像取得工程と、
前記撮影された現実空間映像の視点位置および、または視線方向を検出結果を入力する第1の検出結果入力工程と、
前記視点位置および、または視線方向に応じて、仮想空間映像を生成する仮想空間映像生成工程と、
体験者が操作する操作装置の位置および、または方向の検出結果を入力する第二の検出結果入力工程と、
前記操作装置の位置および、または方向に応じて、操作を補助するための仮想画面を生成する仮想画面生成工程と、
前記操作装置を用いた体験者の指示を入力する指示入力工程と、
前記体験者の指示に応じて前記仮想空間映像を更新する手段と、
前記現実空間映像と前記仮想空間映像とを重畳して複合現実空間映像を生成する複合現実空間映像生成工程と
を有することを特徴とする。
That is, an information processing method for superimposing a virtual space image updated in response to an instruction from an operating device operated by an experienced person and a real space image,
A real space image acquisition step of acquiring a real space image obtained by photographing the real space;
A first detection result input step of inputting a detection result of a viewpoint position and / or a line-of-sight direction of the photographed real space image;
A virtual space image generation step of generating a virtual space image according to the viewpoint position and / or the line-of-sight direction;
A second detection result input step for inputting a detection result of the position and / or direction of the operating device operated by the experience person;
A virtual screen generating step for generating a virtual screen for assisting the operation according to the position and / or direction of the operating device;
An instruction input step of inputting an instruction of an experienced person using the operation device;
Means for updating the virtual space image in response to an instruction from the experience person;
And a mixed reality space image generation step of generating a mixed reality space image by superimposing the real space image and the virtual space image.

本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理装置であって、
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする。
That is, in order to superimpose a virtual space image seen from the viewpoint of an observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing apparatus,
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on the data indicating the position and orientation measured by the measurement means, the position and orientation calculation means for obtaining the position and orientation in the world coordinate system of the pointing tool;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. And a display control means for displaying above.

本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理装置であって、
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする。
That is, in order to superimpose a virtual space image seen from the viewpoint of the observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing apparatus,
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on data indicating the position and orientation measured by the measurement means, a position and orientation calculation means for obtaining a position and orientation in the world coordinate system of the pointing tool;
Display control means for displaying, on the display unit, an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. To do.

本発明の構成により、観察者が携帯する装置に係る説明をより見やすくこの観察者に対して提示することができる。   According to the configuration of the present invention, it is possible to present the explanation related to the device carried by the observer more easily to the observer.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
本実施形態に係る画像処理装置は、仮想物体としての魚とコミュニケーションをとる疑似体験を行なうことのできる複合現実感装置である。この複合現実感装置は、複数の観察者に水族館における海底散歩や魚とコミュニケーションを行う疑似体験をさせるためのものである。
[First Embodiment]
The image processing apparatus according to the present embodiment is a mixed reality apparatus capable of performing a pseudo-experience that communicates with a fish as a virtual object. This mixed reality device is intended to allow a plurality of observers to experience a submarine walk in an aquarium or to have a simulated experience of communicating with fish.

図1は本実施形態に係る複合現実感装置(展示装置)の外観図である。   FIG. 1 is an external view of a mixed reality apparatus (exhibit apparatus) according to the present embodiment.

各観察者(100a、100b、100c、100d)は上記疑似体験を行なうために、複合現実空間映像を表示するHMD(ヘッドマウンテッドディスプレイ)(110a、110b、110c、110d)を自身の頭部に装着して舞台装置内に立っている。なお、本装置では同時に体験可能な観察者を4人に制限しているが、これに限定されるものではない。   Each observer (100a, 100b, 100c, 100d) has an HMD (head mounted display) (110a, 110b, 110c, 110d) that displays a mixed reality space image on his / her head in order to perform the pseudo-experience. Wearing and standing in the stage. In this device, the number of observers who can experience at the same time is limited to four, but this is not a limitation.

各観察者(100a、100b、100c、100d)が自身の頭部に装着するHMD110(各観察者に共通であるので、特に説明しない限りは以下、a、b、c、dは付けない)は図2(a)、(b)の外観図に示されるように、左右両眼用の2つのビデオカメラ111a、111bと、左右両眼用の2つの小型表示装置112a、112bと、位置姿勢センサ受信機113(各HMDに共通であるので、特に説明しない限りは以下、a、b、c、dは付けない)とで構成されている。   The HMD 110 that each observer (100a, 100b, 100c, 100d) wears on his / her head (since it is common to each observer, unless otherwise specified, a, b, c, d are not attached below) 2A and 2B, two video cameras 111a and 111b for left and right eyes, two small display devices 112a and 112b for left and right eyes, and a position and orientation sensor The receiver 113 is common to each HMD, and unless otherwise specified, a, b, c, and d are not attached hereinafter.

小型表示装置112a、112bは液晶ディスプレイと光学プリズムによって構成されている。ビデオカメラ111a、111bは夫々観察者の左目、右目の位置から、HMD100を装着した観察者の頭部の向きに応じた現実空間を撮像する。位置姿勢センサ受信機113は、後述する位置姿勢センサ発信機と本体との組み合わせにより、自身の位置姿勢を計測する。   The small display devices 112a and 112b are constituted by a liquid crystal display and an optical prism. The video cameras 111a and 111b image the real space according to the orientation of the head of the observer wearing the HMD 100 from the positions of the left eye and right eye of the observer, respectively. The position and orientation sensor receiver 113 measures its own position and orientation by a combination of a position and orientation sensor transmitter, which will be described later, and the main body.

小型表示装置112a、112bには夫々、ビデオカメラ111a、111bによって取得された現実空間映像と、位置姿勢センサ受信器113による計測値に基づいて生成される「観察者の左目、右目から見える仮想空間の映像」とを合成した複合現実空間映像が表示される。なお、複合現実空間映像は観察者が高い品質の疑似体験を行なうことができるようにするため、立体映像として提供されるのが望ましい。   In the small display devices 112a and 112b, “virtual spaces that can be seen from the left and right eyes of the observer” generated based on the real space images acquired by the video cameras 111a and 111b and the measurement values by the position and orientation sensor receiver 113, respectively. A mixed reality space image synthesized with “the image of the image” is displayed. The mixed reality space image is preferably provided as a stereoscopic image so that the observer can perform a high-quality simulated experience.

再び図1の説明に戻る。130a、130bは夫々位置姿勢センサ発信機、131a、131bは位置姿勢センサ本体である。位置姿勢センサ受信機113a、113b、位置姿勢センサ発信機130aは位置姿勢センサ本体131aに接続されており、位置姿勢センサ受信機113c、113d、位置姿勢センサ発信機130bは位置姿勢センサ本体131bに接続されている。   Returning to the description of FIG. Reference numerals 130a and 130b denote position and orientation sensor transmitters, and 131a and 131b denote position and orientation sensor bodies. The position and orientation sensor receivers 113a and 113b and the position and orientation sensor transmitter 130a are connected to the position and orientation sensor main body 131a, and the position and orientation sensor receivers 113c and 113d and the position and orientation sensor transmitter 130b are connected to the position and orientation sensor main body 131b. Has been.

位置姿勢センサ発信機130a、130bからは磁気が発信されており、位置姿勢センサ受信機113a、113bは位置姿勢センサ発信機130aから発信されている磁気を検知し、位置姿勢センサ受信機113c、113dは位置姿勢センサ発信機130bから発信されている磁気を検知する。   Magnetism is transmitted from the position and orientation sensor transmitters 130a and 130b, and the position and orientation sensor receivers 113a and 113b detect the magnetism transmitted from the position and orientation sensor transmitter 130a, and the position and orientation sensor receivers 113c and 113d. Detects the magnetism transmitted from the position and orientation sensor transmitter 130b.

そして位置姿勢センサ本体131aは位置姿勢センサ受信機113a、113bから入力される磁気受信強度を示す信号を受け、夫々の受信機の位置姿勢を算出する。ここで算出される位置姿勢は、位置姿勢センサ本体131aの位置を原点とし、互いに直交する3軸を夫々x、y、z軸とする座標系(センサ座標系)における位置姿勢である。   The position / orientation sensor main body 131a receives signals indicating the magnetic reception intensity input from the position / orientation sensor receivers 113a and 113b, and calculates the position / orientation of each receiver. The calculated position / orientation is a position / orientation in a coordinate system (sensor coordinate system) in which the position of the position / orientation sensor main body 131a is the origin and three axes orthogonal to each other are x, y, and z axes, respectively.

また位置姿勢センサ本体131bは位置姿勢センサ受信機113c、113dから入力される磁気受信強度を示す信号を受け、夫々の受信機の位置、姿勢を算出する。ここで算出される位置姿勢は、位置姿勢センサ本体131bの位置を原点とし、互いに直交する3軸を夫々x、y、z軸とする座標系(センサ座標系)における位置姿勢である。   The position / orientation sensor main body 131b receives signals indicating the magnetic reception intensity input from the position / orientation sensor receivers 113c and 113d, and calculates the position and orientation of each receiver. The calculated position / orientation is a position / orientation in a coordinate system (sensor coordinate system) in which the position of the position / orientation sensor main body 131b is the origin and three axes orthogonal to each other are x, y, and z axes, respectively.

位置姿勢センサ本体131a、131bにより求められた夫々の受信機の位置姿勢を示すデータは、後述するコンピュータ151に送信される。   Data indicating the position and orientation of each receiver obtained by the position and orientation sensor main bodies 131a and 131b is transmitted to a computer 151 described later.

尚、本実施形態では、1つの位置姿勢センサ発信機、位置姿勢センサ本体でもって最大二人の観察者の位置姿勢を計測しているが、これに限定されるものではなく、1つの位置姿勢センサ発信機、位置姿勢センサ本体でもって4人全ての位置姿勢を計測するようにしても良い。即ち、夫々の位置姿勢センサ受信機は1つの位置姿勢センサ発信機から発せられる磁気を受け、夫々の位置姿勢センサ受信機は1つの位置姿勢センサ本体に磁気受信強度信号を出力し、位置姿勢センサ本体は夫々の位置姿勢センサ受信機の位置姿勢を算出する。   In this embodiment, the position and orientation of a maximum of two observers are measured with one position and orientation sensor transmitter and position and orientation sensor main body, but this is not a limitation, and one position and orientation is measured. The position and orientation of all four people may be measured with the sensor transmitter and the position and orientation sensor main body. That is, each position and orientation sensor receiver receives magnetism generated from one position and orientation sensor transmitter, and each position and orientation sensor receiver outputs a magnetic reception intensity signal to one position and orientation sensor main body. The main body calculates the position and orientation of each position and orientation sensor receiver.

このように、位置姿勢センサ本体、位置姿勢センサ発信機の数や、どの位置姿勢センサ発信機、位置姿勢センサ本体でもってどの位置姿勢センサ受信機の位置姿勢を計測するかの割り当ては特に限定するものではないが、いずれにせよ、位置姿勢センサ本体により求められた夫々の受信機の位置姿勢を示すデータは、夫々がどの受信機の位置姿勢を示すものであるかが識別可能なように、コンピュータ151に送信される。   In this way, the number of position / orientation sensor main bodies and position / orientation sensor transmitters and the assignment of which position / orientation sensor receivers measure the position / orientation of which position / orientation sensor main body and position / orientation sensor main body are particularly limited. In any case, in any case, the data indicating the position and orientation of each receiver obtained by the position and orientation sensor main body can identify which receiver indicates the position and orientation of each receiver. It is transmitted to the computer 151.

また、各観察者(100a、100b、100c、100d)は手にコントローラ120(以下の説明は各コントローラに共通であるので、特に説明しない限りは以下、a、b、c、dは付けない)を持っており、このコントローラ120を用いて観察者は複合現実空間とのインタラクションをはかることができる。図9はこのコントローラ120の外観例を示す図である。   Further, each observer (100a, 100b, 100c, 100d) has a controller 120 in hand (the following description is common to each controller, and unless otherwise specified, a, b, c, d are not attached below). Using this controller 120, the observer can interact with the mixed reality space. FIG. 9 is a view showing an example of the external appearance of the controller 120.

同図に示すように、コントローラ120は、引き金型のトリガ121、十字ボタン122、位置姿勢センサ受信機123によって構成されている。位置姿勢センサ受信機123は位置姿勢センサ本体131に接続されている。図1に示す構成では、コントローラ120a、120bに備わっている位置姿勢センサ発信機は位置姿勢センサ本体131aに接続されており、コントローラ120c、120dに備わっている位置姿勢センサ発信機は位置姿勢センサ本体131bに接続されている。そして位置姿勢センサ受信機123は、HMD110に搭載の位置姿勢センサ発信機と同様、磁気受信強度を示す信号を位置姿勢センサ本体131に出力する。   As shown in the figure, the controller 120 includes a trigger 121, a cross button 122, and a position / orientation sensor receiver 123. The position / orientation sensor receiver 123 is connected to the position / orientation sensor main body 131. In the configuration shown in FIG. 1, the position and orientation sensor transmitters provided in the controllers 120a and 120b are connected to the position and orientation sensor main body 131a, and the position and orientation sensor transmitters provided in the controllers 120c and 120d are the position and orientation sensor main bodies. 131b. The position / orientation sensor receiver 123 outputs a signal indicating the magnetic reception intensity to the position / orientation sensor main body 131, similarly to the position / orientation sensor transmitter mounted on the HMD 110.

位置姿勢センサ本体131は位置姿勢センサ受信機123から入力される磁気受信強度を示す信号を受け、位置姿勢センサ受信機123の位置、姿勢を算出する。ここで算出される位置姿勢は、位置姿勢センサ本体131の位置を原点とし、互いに直交する3軸を夫々x、y、z軸とする座標系(センサ座標系)における位置姿勢である。   The position and orientation sensor main body 131 receives a signal indicating the magnetic reception intensity input from the position and orientation sensor receiver 123 and calculates the position and orientation of the position and orientation sensor receiver 123. The calculated position / orientation is a position / orientation in a coordinate system (sensor coordinate system) in which the position of the position / orientation sensor body 131 is the origin and the three axes orthogonal to each other are the x, y, and z axes, respectively.

位置姿勢センサ本体131により求められた位置姿勢センサ受信機123の位置姿勢を示すデータは、後述するコンピュータ151に送信される。   Data indicating the position and orientation of the position and orientation sensor receiver 123 obtained by the position and orientation sensor main body 131 is transmitted to a computer 151 described later.

本実施形態では位置姿勢センサは米国Polhemus社製FASTRAKや米国Ascension Technology社製Flock of Birdsなどを利用することが可能であるが、これに限定されるものではなく他の市販されている超音波式、光学式位置姿勢センサも利用可能である。   In this embodiment, the position and orientation sensor can use FASTRAK manufactured by US Polhemus, Flock of Birds manufactured by US Ascension Technology, etc., but is not limited to this, and other commercially available ultrasonic sensors An optical position and orientation sensor can also be used.

141a、141b、141c、141dは夫々、観察者100a、100b、100c、100dに提供する複合現実空間の映像を生成する処理を行うコンピュータである。図5は、このコンピュータを含む本実施形態に係る映像装置の基本構成を示すブロック図である。   141a, 141b, 141c, and 141d are computers that perform a process of generating a mixed reality space image provided to the viewers 100a, 100b, 100c, and 100d, respectively. FIG. 5 is a block diagram showing the basic configuration of the video apparatus according to this embodiment including this computer.

本実施形態に係る映像装置は、コンピュータ141(各コンピュータは同じ構成であるとするので、特に説明しない限りは、a、b、c、dは省略する)、HMD110、コントローラ120により構成されている。   The video apparatus according to the present embodiment includes a computer 141 (each computer has the same configuration, and unless otherwise specified, a, b, c, and d are omitted), an HMD 110, and a controller 120. .

映像装置は観察者に対して提示すべき複合現実空間映像を生成し、観察者に提示する為のものであるので、一人の観察者に一台必要となる。従って、観察者の数に応じて、この映像装置を設けるようにすればよい。   Since the video apparatus is for generating a mixed reality space video to be presented to an observer and presenting it to the observer, one image device is required for each observer. Therefore, this video apparatus may be provided according to the number of observers.

引き金型のトリガ121、十字ボタン122は、コンピュータ141のコントローラ入力ポート128に接続されており、引き金型のトリガ121、十字ボタン122を用いて入力した各種の指示信号は、このコントローラ入力ポート128を介してCPU146に通知される。   The trigger-type trigger 121 and the cross button 122 are connected to the controller input port 128 of the computer 141, and various instruction signals input using the trigger-type trigger 121 and the cross button 122 are sent to the controller input port 128. Via the CPU 146.

コンピュータ141は、右目用ビデオキャプチャボード142b、右目用ビデオキャプチャボード142a、CG描画支援機能を有する右目用グラフィックボード144b、左目用グラフィックボード144a、ネットワークインターフェース149、HDD(ハードディスクドライブ)145、CPU146、メモリ147により構成されている。   The computer 141 includes a right-eye video capture board 142b, a right-eye video capture board 142a, a right-eye graphic board 144b having a CG drawing support function, a left-eye graphic board 144a, a network interface 149, an HDD (hard disk drive) 145, a CPU 146, and a memory. 147.

右目用キャプチャーボード142bは、右目用ビデオカメラ111bにより撮像された、観察者の右目に対応する現実空間の映像を信号として受け、これをデータとして後段のメモリ147に出力する。左目用キャプチャーボード142aは、左目用ビデオカメラ111aにより撮像された、観察者の左目に対応する現実空間の映像を信号として受け、これをデータとして後段のメモリ147に出力する。   The right-eye capture board 142b receives a real-space image corresponding to the right eye of the observer, which is captured by the right-eye video camera 111b, and outputs this as data to the subsequent memory 147. The left-eye capture board 142a receives, as a signal, a real-space image corresponding to the left eye of the observer, which is imaged by the left-eye video camera 111a, and outputs this as data to the subsequent memory 147.

また、右目用グラフィックボード144bは、観察者の右目から見える仮想空間の映像を生成し、これを右目用キャプチャーボード142bを介してメモリ147に入力された右目用の現実空間映像上に重畳することで複合現実空間映像を生成し、右目用表示装置112bに出力する。一方、左目用グラフィックボード144aは、観察者の左目から見える仮想空間の映像を生成し、これを左目用キャプチャーボード142aを介してメモリ147に入力された左目用の現実空間映像上に重畳することで複合現実空間映像を生成し、左目用表示装置112aに出力する。   The right-eye graphic board 144b generates a virtual space image that can be seen from the observer's right eye, and superimposes it on the right-eye real space image input to the memory 147 via the right-eye capture board 142b. To generate a mixed reality space image and output it to the right-eye display device 112b. On the other hand, the left-eye graphic board 144a generates an image of the virtual space that can be seen from the left eye of the observer, and superimposes the image on the left-eye real space image input to the memory 147 via the left-eye capture board 142a. To generate a mixed reality space image and output it to the left-eye display device 112a.

これにより、右目用表示装置112b、左目用表示装置112aが夫々、観察者の右目、左目の眼前に位置するようにHMD110を自身の頭部に装着した観察者に、自身の左右の目の位置姿勢に応じた複合現実空間映像を提示することができる。   Accordingly, the right and left eye positions are displayed to the observer who wears the HMD 110 on his / her head so that the right eye display apparatus 112b and the left eye display apparatus 112a are positioned in front of the eyes of the observer's right eye and left eye, respectively. A mixed reality space image corresponding to the posture can be presented.

HDD145は、OS(オペレーティングシステム)や、コンピュータ141が行うものとして後述する処理をCPU146に実行させるためのプログラムやデータ等を保存するものであり、これらは必要に応じてメモリ147に読み出されるものである。   The HDD 145 stores an OS (operating system) and programs, data, and the like for causing the CPU 146 to execute processing described later as what the computer 141 performs, and these are read to the memory 147 as necessary. is there.

CPU146は、コンピュータ141全体の制御を行うと共に、コンピュータ141が行うものとして後述する処理を実行する。   The CPU 146 controls the entire computer 141 and executes processing that will be described later as what the computer 141 performs.

メモリ147は、HDD145からロードされたプログラムやデータを一時的に記憶するためのエリアや、右目用キャプチャーボード142b、左目用キャプチャーボード142aから入力された現実空間映像を一時的に記憶するためのエリア、CPU146が各種の処理を行うために用いるエリアを備える。即ち、処理中のデータの一時記憶や、外部とのデータ送受信のためのデータの一時記憶のためのエリアを備える。   The memory 147 is an area for temporarily storing programs and data loaded from the HDD 145, and an area for temporarily storing real space images input from the right-eye capture board 142b and the left-eye capture board 142a. The CPU 146 includes an area used for performing various processes. That is, an area for temporary storage of data being processed and temporary storage of data for data transmission / reception with the outside is provided.

ネットワークインターフェース149はネットワーク160に接続されており、このネットワークインターフェース149、ネットワーク160を介して、後述するコンピュータ151や他のコンピュータ(自身が141aである場合にはコンピュータ141b、141c、141d)とのデータ送受信を行うことができる。このネットワークインターフェース149には例えばイーサネット(R)が適用可能である。   The network interface 149 is connected to the network 160, and data with a computer 151 and other computers (computers 141b, 141c, and 141d in the case of itself 141a) to be described later via the network interface 149 and the network 160. Can send and receive. For example, Ethernet (R) is applicable to the network interface 149.

ここで、コンピュータ141が複合現実空間映像を生成し、これをHMD110を介して観察者に提供するために、メモリ147にはHDD145からCPU146の実行対象となる複合現実映像生成プログラムがロードされている。   Here, in order for the computer 141 to generate a mixed reality space image and to provide it to the observer via the HMD 110, a mixed reality image generation program to be executed by the CPU 146 is loaded from the HDD 145 into the memory 147. .

複合現実映像生成プログラムは、後述するコンピュータ151から通知される複合現実空間情報に基づいて観察者の右目、左目から見える仮想空間の映像を生成し、夫々をビデオカメラ111b、111aから右目用キャプチャーボード142b、左目用キャプチャーボード142aを介して入力した現実空間の映像上に合成することで、右目用、左目用の複合現実空間映像を生成し、そして生成した右目用、左目用の複合現実空間映像を夫々、右目用グラフィックボード144b、左目用グラフィックボード144aを介して右目用表示装置112b、左目用表示装置112aに出力する処理をCPU146に実行させるためのものである。   The mixed reality video generation program generates a video of a virtual space that can be viewed from the right eye and left eye of the observer based on mixed reality space information notified from the computer 151 described later, and captures the right eye capture board from the video cameras 111b and 111a, respectively. 142b, a composite reality space image for the right eye and the left eye is generated by synthesizing it on the image of the real space input via the capture board 142a for the left eye, and the generated mixed reality space image for the right eye and the left eye is generated. Are to be executed by the CPU 146 to output to the right-eye display device 112b and the left-eye display device 112a via the right-eye graphic board 144b and the left-eye graphic board 144a, respectively.

以上の処理をCPU146に実行させることで、HMD110を頭部に装着した観察者には、現実物体である海底を模した舞台装置内に、仮想物体である水生生物があたかも現実物体として舞台装置内を浮遊しているように見えるようになる。   By causing the CPU 146 to execute the above processing, an observer who wears the HMD 110 on the head has a virtual aquatic life as if it were a real object in the stage device. Appears to be floating.

図6は、コンピュータ151を含む本実施形態に係る映像装置の基本構成、及び周辺機器との関係を示すブロック図である。コンピュータ151は、位置姿勢センサ本体から出力される各位置姿勢センサ受信機の位置姿勢を示すデータの取得、複合現実空間管理、複合現実空間情報の通知、固定された視点における複合現実空間映像の生成、環境音楽再生、効果音再生等の処理を行うためのものである。   FIG. 6 is a block diagram showing the basic configuration of the video apparatus according to this embodiment including the computer 151 and the relationship with peripheral devices. The computer 151 obtains data indicating the position and orientation of each position and orientation sensor receiver output from the position and orientation sensor body, mixed reality space management, notification of mixed reality space information, and generation of mixed reality space video at a fixed viewpoint This is for performing environmental music reproduction, sound effect reproduction, and the like.

コンピュータ151は、キャプチャボード152、グラフィックボード153、シリアルインターフェース154、サウンドボード155、HDD156、CPU157、メモリ158ネットワークインターフェース159により構成されている。   The computer 151 includes a capture board 152, a graphic board 153, a serial interface 154, a sound board 155, an HDD 156, a CPU 157, and a memory 158 network interface 159.

キャプチャボード152には客観視点ビデオカメラ184が接続されている。客観視点ビデオカメラ184は、現実空間中の1点に固定(もしくはその位置姿勢は適宜変更可能)されたものであり、この1点における位置姿勢に応じて見える現実空間の映像を撮像するものである。撮像された現実空間の映像はキャプチャボード152を介してメモリ158に出力される。なお、客観視点ビデオカメラ184の位置姿勢は固定されていようと、適宜変更されようと、常にメモリ158にその位置姿勢を示すデータが記憶されているものとする。   An objective viewpoint video camera 184 is connected to the capture board 152. The objective viewpoint video camera 184 is fixed at one point in the real space (or its position and orientation can be changed as appropriate), and captures an image of the real space that can be seen according to the position and orientation at the one point. is there. The captured real space image is output to the memory 158 via the capture board 152. Note that data indicating the position and orientation is always stored in the memory 158 regardless of whether the position and orientation of the objective viewpoint video camera 184 is fixed or changed as appropriate.

グラフィックボード153には表示装置180が接続されている。表示装置180は、頭部にHMDを装着していない観察者(図1を例に取ると、観察者100a、100b、100c、100d以外の観察者)に対して、客観視点ビデオカメラ184の位置姿勢に応じて見える複合現実空間の映像を提供するものである。よってグラフィックボード153は、コンピュータ141におけるグラフィックボード144b、144aと同様の処理を行い、客観視点ビデオカメラ184の位置姿勢に応じて見える現実空間の映像と仮想空間の映像との合成画像を生成して表示装置180に出力するものである。   A display device 180 is connected to the graphic board 153. The display device 180 positions the objective viewpoint video camera 184 with respect to an observer who is not wearing the HMD on the head (an observer other than the observers 100a, 100b, 100c, and 100d in FIG. 1). It provides images of mixed reality space that can be seen according to posture. Therefore, the graphic board 153 performs the same processing as the graphic boards 144b and 144a in the computer 141, and generates a composite image of the real space video and the virtual space video that can be seen according to the position and orientation of the objective viewpoint video camera 184. This is output to the display device 180.

シリアルインターフェース154には位置姿勢センサ本体131a、131b(同図ではa、bは省略している)が接続されており、位置姿勢センサ本体131から出力される、各位置姿勢センサ受信機のセンサ座標系における位置姿勢を示すデータを受け、これをメモリ158に出力する。   Position / orientation sensor main bodies 131a and 131b (a and b are omitted in the figure) are connected to the serial interface 154, and the sensor coordinates of each position / orientation sensor receiver output from the position / orientation sensor main body 131 are connected. Data indicating the position and orientation in the system is received and output to the memory 158.

サウンドボード155にはスピーカ182が接続されており、後述するサウンドデータに基づいたサウンド信号を生成し、これをD/A変換してスピーカ182に出力するものである。   A speaker 182 is connected to the sound board 155, generates a sound signal based on sound data to be described later, and D / A converts it to output it to the speaker 182.

HDD156にはOSや、コンピュータ151が行うものとして後述する処理をCPU157に実行させるためのプログラムやデータ等を保存するものであり、これらは必要に応じてメモリ158に読み出されるものである。   The HDD 156 stores an OS and programs and data for causing the CPU 157 to execute processing described later as what the computer 151 performs, and these are read into the memory 158 as necessary.

CPU157は、コンピュータ151全体の制御を行うと共に、コンピュータ151が行うものとして後述する処理を実行する。   The CPU 157 controls the entire computer 151 and executes processing described later as what the computer 151 performs.

メモリ158は、HDD156からロードされたプログラムやデータを一時的に記憶するためのエリアや、キャプチャボード152から入力された現実空間映像を一時的に記憶するためのエリア、CPU157が各種の処理を行うために用いるエリアを備える。即ち、処理中のデータの一時記憶や、外部とのデータ送受信のためのデータの一時記憶のためのエリアを備える。   The memory 158 is an area for temporarily storing programs and data loaded from the HDD 156, an area for temporarily storing real space video input from the capture board 152, and the CPU 157 performs various processes. An area used for this purpose is provided. That is, an area for temporary storage of data being processed and temporary storage of data for data transmission / reception with the outside is provided.

ネットワークインターフェース159はネットワーク160に接続されており、このネットワークインターフェース159、ネットワーク160を介して、上述のコンピュータ141(141a、141b、141c、141d)とのデータ送受信を行うことができる。このネットワークインターフェース149には例えばイーサネット(R)が適用可能である。   The network interface 159 is connected to the network 160, and data transmission / reception with the above-described computer 141 (141a, 141b, 141c, 141d) can be performed via the network interface 159 and the network 160. For example, Ethernet (R) is applicable to the network interface 149.

ここで、メモリ158にはHDD156からCPU157の実行対象となるプログラムがロードされている。即ち、固定された視点における複合現実空間映像を生成するための複合現実映像生成プログラム、各位置姿勢センサ受信機の位置姿勢取得、複合現実空間管理、複合現実空間情報の通知を行なうための複合現実空間管理プログラム、環境音楽再生、効果音再生のためのサウンドプログラムである。   Here, a program to be executed by the CPU 157 is loaded from the HDD 156 into the memory 158. That is, a mixed reality video generation program for generating a mixed reality space image at a fixed viewpoint, position and orientation acquisition of each position and orientation sensor receiver, mixed reality space management, mixed reality space notification for performing mixed reality space information notification It is a sound program for space management program, environmental music playback, and sound effect playback.

複合現実映像生成プログラムは、コンピュータ151が保持する客観視点ビデオカメラ184の位置姿勢に応じて見える、後述の複合現実空間情報に応じた仮想空間の映像を生成し、客観視点ビデオカメラ184からキャプチャボード152を介して入力した現実空間の映像上に合成することで複合現実空間映像を生成し、生成した複合現実空間映像をグラフィックボード153を介して表示装置180に出力する処理をCPU156に実行させるためのものである。   The mixed reality video generation program generates a video of a virtual space according to mixed reality space information, which will be described later, which is visible according to the position and orientation of the objective viewpoint video camera 184 held by the computer 151, and captures from the objective viewpoint video camera 184. In order to cause the CPU 156 to execute a process of generating a mixed reality space image by synthesizing it on the image of the real space input via 152 and outputting the generated mixed reality space image to the display device 180 via the graphic board 153. belongs to.

以上の処理をCPU157に実行させることで、HMDを頭部に装着していない観察者に対して、客観視点ビデオカメラ184の位置姿勢から見える舞台装置内に、仮想物体である水生生物があたかも現実物体として舞台装置内を浮遊しているように見えるようになる。   By causing the CPU 157 to execute the above processing, aquatic organisms that are virtual objects appear as if they are real objects in the stage device that can be seen from the position and orientation of the objective viewpoint video camera 184 for an observer who is not wearing the HMD on the head. It appears to be floating in the stage as an object.

複合現実空間管理プログラムは、以下の(1)〜(4)に示す各処理をCPU157に実行させるためのものである。   The mixed reality space management program is for causing the CPU 157 to execute the following processes (1) to (4).

(1) 予め設定されたシナリオに沿って仮想空間内で設定されている時間を進め、仮想空間中の任意の物体の位置姿勢および状態を更新する。   (1) The time set in the virtual space is advanced in accordance with a preset scenario, and the position and orientation and state of an arbitrary object in the virtual space are updated.

(2) 位置方位センサ本体131から、位置姿勢センサ受信機113、123の位置姿勢を取得し、これに基づいて周知の技術により観察者の右目、左目の世界座標系における位置姿勢(第1の位置姿勢)、世界座標系におけるコントローラ120の位置姿勢(第2の位置姿勢)を求める。これは、世界座標系における位置姿勢センサ本体131の位置が既知であれば、センサ座標系における位置姿勢を世界座標系における位置姿勢に変換することは可能である。なお、位置姿勢センサ本体131の世界座標系における位置は、データとしてメモリ158にロードされているものとする。   (2) The position / orientation of the position / orientation sensor receivers 113 and 123 is acquired from the position / orientation sensor main body 131, and based on this, the position / orientation of the observer's right eye and left eye in the world coordinate system (first Position and orientation), and the position and orientation (second position and orientation) of the controller 120 in the world coordinate system. If the position of the position / orientation sensor main body 131 in the world coordinate system is known, the position / orientation in the sensor coordinate system can be converted into a position / orientation in the world coordinate system. It is assumed that the position of the position / orientation sensor body 131 in the world coordinate system is loaded in the memory 158 as data.

(3) (2)で求めた第1の位置姿勢と第2の位置姿勢との関係に基づいて、観察者同士の視線関係の処理や複合現実空間状態の更新処理等を実行する。   (3) Based on the relationship between the first position and orientation determined in (2) and the second position and orientation, processing of the line-of-sight relationship between observers, update processing of the mixed reality space state, and the like are executed.

(4) そして、上記処理によって得られた、複合現実空間に関する情報(複合現実空間情報)のうち一部を、ネットワーク160を介して各コンピュータ141に出力する。厳密には、コンピュータ141上で実行されている複合現実映像生成プログラムに通知する。   (4) Then, a part of the information about the mixed reality space (mixed reality space information) obtained by the above processing is output to each computer 141 via the network 160. Strictly speaking, the mixed reality video generation program running on the computer 141 is notified.

なお本実施形態では、位置姿勢センサ本体131から得られる位置姿勢データが、HMD110a、110b、110c、110dのどのHMDの位置姿勢を示すデータであるかは周知の技術により識別しているものとする。例えば、位置姿勢センサ本体131はコンピュータ151に送信する各位置姿勢データに、各HMDに固有のIDを付加して送信するものとする。   In this embodiment, it is assumed that the position and orientation data obtained from the position and orientation sensor main body 131 is the HMD 110a, 110b, 110c, and 110d that indicates the position and orientation of the HMD by a known technique. . For example, it is assumed that the position / orientation sensor main body 131 transmits each position / orientation data transmitted to the computer 151 with a unique ID added to each HMD.

このように、複数のコンピュータから送信されてくる情報を処理し、処理後の情報を送信元のコンピュータに夫々送信する技術については周知のものであるので、この技術に関する説明は省略する。   As described above, a technique for processing information transmitted from a plurality of computers and transmitting the processed information to a transmission source computer is well known, and a description thereof will be omitted.

また、複合現実空間情報のうち一部は、自身が実行している複合現実映像生成プログラム、及びサウンドプログラムに通知する。サウンドプログラムは、複合現実空間管理プログラムから通知される複合現実空間情報に応じたサウンドデータ(HDD156からメモリ158に予め読み出されているものとする)に基づいて音(音楽や効果音)を再生する。再生された音楽や効果音は舞台装置内の観察者全員が認識できる適当な大きさの音量でスピーカー182より出力される。   In addition, a part of the mixed reality space information is notified to the mixed reality video generation program and the sound program being executed by itself. The sound program reproduces sound (music and sound effects) based on sound data (assumed to be read from the HDD 156 to the memory 158 in advance) according to the mixed reality space information notified from the mixed reality space management program. To do. The reproduced music and sound effects are output from the speaker 182 at an appropriate volume level that can be recognized by all observers in the stage apparatus.

なお、この処理は実際には、CPU157がサウンドプログラムを実行することにより成されるものである。   This process is actually executed by the CPU 157 executing a sound program.

効果音は複合現実空間中でのイベント(例えば仮想物体同士、あるいは現実物体と仮想物体の衝突)、やユーザーインターフェースのために複合現実空間状態変化を観察者に知らせるために用いられる。   The sound effect is used to inform the observer of an event in the mixed reality space (for example, a collision between virtual objects or a collision between the real object and the virtual object) or a mixed reality space state for a user interface.

図3は観察者がいない場合の舞台装置の外観例を示す図である。図4は観察者が居る場合の舞台装置の外観例を示す図である。   FIG. 3 is a diagram showing an example of the appearance of the stage apparatus when there is no observer. FIG. 4 is a diagram showing an example of the appearance of the stage apparatus when there is an observer.

舞台装置では大道具と照明、床によって海底の状況が表現されている。大道具102、103a、103bは岩礁を模した造形物である。大道具104a、104bは海底に沈んだ遺跡を想像させる石柱の造形物である。大道具106は海底における遠景を描いた壁もしくは衝立状の大道具で、舞台装置の大きさを超えて海底がどこまでも続いているかのごとく感じさせるために海中の環境色で塗装されている。大道具108は海底を模した床である。101a、101b、101c、101dは観察者がHMD110を着脱するときに立つ観察者初期位置の取りうる領域、105a、105b、105c、105dは観察者初期方向を示す矢印である。図3では説明のため図示してあるが、実際の舞台装置にはこの領域を示す線や色分けがあるわけではない。   On the stage equipment, the state of the seabed is expressed by tools, lighting, and the floor. The large tools 102, 103a, and 103b are modeling objects that resemble a reef. The large tools 104a and 104b are stone pillars that make you imagine a ruin that sinks to the seabed. The large tool 106 is a wall or screen-like tool depicting a distant view on the sea floor, and is painted in an underwater environmental color to make it feel as if the sea floor continues beyond the size of the stage device. The large tool 108 is a floor imitating the seabed. Reference numerals 101a, 101b, 101c, and 101d denote areas that can be taken by the initial position of the observer standing when the observer attaches / detaches the HMD 110, and reference numerals 105a, 105b, 105c, and 105d denote arrows indicating the initial direction of the observer. Although shown in FIG. 3 for explanation, the actual stage apparatus does not have lines or colors indicating this area.

観察者は疑似体験を行なうとき、まず舞台装置内に進入し、観察者初期位置領域101(各領域101a、101b、101c、101dについて以下の説明は共通であるので、特に断らない限りは、以下、a、b、c、dは省略する。)内の所望の位置に立ち、HMD110を自身の頭部に装着し、コントローラ120を手に保持する。   When the observer performs a pseudo-experience, the viewer first enters the stage apparatus, and the observer initial position area 101 (the following description is common to each of the areas 101a, 101b, 101c, and 101d. , A, b, c, and d are omitted), and the HMD 110 is mounted on its own head and the controller 120 is held in the hand.

ここでHMD110およびコントローラ120はそれぞれの観察者初期位置領域101の側にある大道具(103aもしくは103b)の上部の窪みに置かれている。大道具103はHMD置き台を兼用した造型物となっている。観察者100はHMD置き台103からHMD110を取り出して自身の頭部に装着完了後、観察者初期位置領域101を含む近傍を動き回り、任意の方向を向いたり任意の姿勢をとったりすることが可能である。この領域の範囲はHMD110の配線の長さと位置姿勢センサ131の測定可能範囲に依存する。   Here, the HMD 110 and the controller 120 are placed in a depression at the top of the large tool (103a or 103b) on the side of each observer initial position region 101. The large tool 103 is a molding that also serves as an HMD stand. The observer 100 can take out the HMD 110 from the HMD pedestal 103 and attach it to his / her head. Then, the observer 100 can move around the area including the observer initial position area 101 and can turn in an arbitrary direction or take an arbitrary posture. is there. The range of this area depends on the wiring length of the HMD 110 and the measurable range of the position and orientation sensor 131.

疑似体験を終了したくなったら観察者は観察者初期位置領域101内に戻り、HMD110を外してHMD置き台103の上部において舞台装置から退出する。舞台装置からの入退出は図3の手前側から行なう。手前側は本展示装置の設置場所に依存するが、大抵の場合は通路もしくはある程度人の溜まることの可能な空間とつながっている。後者の場合は疑似体験の順番待ちをする列を作ったり、ディスプレイ180で表示されるビデオカメラ184の視点での複合現実空間映像を楽しむ人のとどまる場所を作ったりすることが可能である。これは多くの来客に展示施設を楽しんでもらう観点から望ましい形態である。   When it is desired to end the pseudo-experience, the observer returns to the observer initial position area 101, removes the HMD 110, and exits the stage apparatus above the HMD table 103. Entry / exit from the stage equipment is performed from the front side of FIG. The front side depends on the installation location of this exhibition device, but in most cases it is connected to a passage or a space where people can accumulate to some extent. In the latter case, it is possible to create a queue for waiting for a simulated experience or create a place where a person who enjoys mixed reality space video viewed from the viewpoint of the video camera 184 displayed on the display 180 stays. This is a desirable form from the viewpoint of having many visitors enjoy the exhibition facility.

観察者初期位置領域101は観察者100がHMD110を着脱する領域であり、観察者初期方向105は観察者100が疑似体験開始の推奨視線方向である。舞台装置内には様々な造型物が設置されているため、馴染みの無いHMDという有線装置を付けて、大胆に動き回る人は少ない。従って大抵は疑似体験中に観察者初期位置領域101内で観察者初期方向105を向いて複合現実空間映像を観察することが最も頻度が高くなると期待できる。   The observer initial position area 101 is an area where the observer 100 attaches and detaches the HMD 110, and the observer initial direction 105 is a recommended line-of-sight direction at which the observer 100 starts pseudo-experience. Since there are various moldings in the stage, few people move around boldly with the unfamiliar HMD cable. Therefore, in most cases, it can be expected that the mixed reality space image is most frequently observed in the observer initial position area 101 in the pseudo-experience while facing the observer initial direction 105.

従って、この観察者初期位置領域101内での任意の位置姿勢に応じた複合現実空間映像の質が高くなるように配慮して舞台装置を組むようにしている。例えば、現実空間映像には待ち行列や展示施設を傍観している来客者が見えないように観察者初期位置領域101、背景用壁106の位置を調整したり、複数の岩礁103が観察者100から異なる距離をもって視界に入るようにして奥行きや立体感を強く感じるようにしたり、他の観察者100が視界に入るようにして、自分の疑似体験を他者と共有していることを意識させたり、他の観察者と自分との間を広く空間を作ってその空間に仮想空間物体である水生生物を表示させることで奥行きを感じさせたり、背景用壁はHMD110で表示されたときに空間が広がっているかのように感じさせる色を選択したり、などである。   Accordingly, the stage apparatus is assembled in consideration of the high quality of the mixed reality space image according to the arbitrary position and orientation in the observer initial position region 101. For example, the positions of the observer initial position area 101 and the background wall 106 are adjusted so that visitors viewing the queue and the exhibition facility cannot be seen in the real space image, or a plurality of reefs 103 are formed by the observer 100. So that you can feel the depth and stereoscopic effect by entering the field of view from different distances, or let other observers 100 enter the field of view and be aware that you are sharing your simulated experience with others. Or by creating a space between other observers and yourself and displaying the aquatic life that is a virtual space object in the space, or when the background wall is displayed on the HMD 110 Select a color that makes you feel as if it is spreading.

観察者は以上説明してきた舞台装置内で複合現実空間映像を鑑賞することで質の高い疑似体験を行なうことができる。   The observer can perform a high-quality simulated experience by viewing the mixed reality space video in the stage apparatus described above.

次に、コンピュータ141、151の夫々が行う処理について説明する。   Next, processing performed by each of the computers 141 and 151 will be described.

図7は、コンピュータ141、151にインストールされている複合現実映像生成プログラムを夫々のコンピュータのCPUが実行することで行う処理のフローチャートである。   FIG. 7 is a flowchart of processing performed by the CPU of each computer executing the mixed reality video generation program installed in the computers 141 and 151.

なお、複合現実映像生成プログラムは並列プログラミングでもって一般的なスレッド技術を用いて作成されており、本プログラムの実行と並行して複合現実空間状態受信スレッド(ステップS710)と映像キャプチャスレッド(ステップS720)が動作している。   Note that the mixed reality video generation program is created using a general thread technique with parallel programming, and in parallel with the execution of this program, the mixed reality space state reception thread (step S710) and the video capture thread (step S720). ) Is working.

ステップS710における複合現実空間状態受信スレッドは、コンピュータ141にインストールされているものと、コンピュータ151にインストールされているものとでは若干動作が異なる。   The operation of the mixed reality space state reception thread in step S710 is slightly different between the one installed in the computer 141 and the one installed in the computer 151.

コンピュータ141にインストールされている複合現実空間状態受信スレッドは、コンピュータ151上で動作している複合現実空間管理プログラムからネットワーク160を介して通知される複合現実空間状態(観察者の右目、左目の位置姿勢、コントローラの位置姿勢、仮想空間中の各仮想物体の位置姿勢、及び状態)を示す情報(複合現実空間情報)を受信して、コンピュータ141上で動作している複合現実映像生成プログラムに通知する。   The mixed reality space state reception thread installed in the computer 141 is a mixed reality space state (positions of the right eye and left eye of the observer) notified from the mixed reality space management program operating on the computer 151 via the network 160. Information (mixed reality space information) indicating the posture, the position and posture of the controller, the position and posture of each virtual object in the virtual space), and notifies the mixed reality video generation program operating on the computer 141 To do.

コンピュータ151にインストールされている複合現実空間状態受信スレッドは、コンピュータ151上で動作している複合現実空間管理プログラムから通知される複合現実空間状態(ビデオカメラ184の位置姿勢、仮想空間中の各仮想物体の位置姿勢、及び状態)を受け、コンピュータ151上で動作している複合現実映像生成プログラムに通知する。   The mixed reality space state reception thread installed in the computer 151 is a mixed reality space state (position and orientation of the video camera 184, each virtual in the virtual space, which is notified from the mixed reality space management program operating on the computer 151. The position / posture and state of the object) are received and notified to the mixed reality video generation program operating on the computer 151.

一方、ステップS720における映像キャプチャスレッドについても、コンピュータ141にインストールされているものと、コンピュータ151にインストールされているものとでは若干動作が異なる。   On the other hand, the operation of the video capture thread in step S720 is slightly different between that installed in the computer 141 and that installed in the computer 151.

コンピュータ141にインストールされている映像キャプチャスレッドは、HMD110からキャプチャーボード142を介して受信した現実空間映像を、コンピュータ141上で動作している複合現実映像生成プログラムに通知する。   The video capture thread installed in the computer 141 notifies the mixed reality video generation program operating on the computer 141 of the real space video received from the HMD 110 via the capture board 142.

コンピュータ151にインストールされている映像キャプチャスレッドは、ビデオカメラ184からキャプチャーボード152を介して受信した現実空間映像を、コンピュータ151上で動作している複合現実映像生成プログラムに通知する。   The video capture thread installed in the computer 151 notifies the real space video received from the video camera 184 via the capture board 152 to the mixed reality video generation program operating on the computer 151.

ステップS701では、複合現実空間状態受信スレッドより得られた複合現実空間状態に基づいて、仮想空間の状態を更新し、ステップS702では、更新した状態に応じた仮想空間映像を生成する。ここで仮想空間の映像とは、例えばCG等で描画される水生生物の映像や、後述するコマンド表示パネルの映像を含むものであって、視点(観察者の右目、左目、もしくはビデオカメラ184)の位置姿勢に応じて見える仮想空間の映像である。生成した仮想空間映像はコンピュータ内のメモリ147,158に一時的に記憶させる。   In step S701, the state of the virtual space is updated based on the mixed reality space state obtained from the mixed reality space state receiving thread. In step S702, a virtual space image corresponding to the updated state is generated. Here, the image of the virtual space includes, for example, an aquatic life image drawn by CG or the like and a command display panel image described later, and a viewpoint (observer's right eye, left eye, or video camera 184). It is the image | video of the virtual space which can be seen according to the position and orientation. The generated virtual space video is temporarily stored in the memories 147 and 158 in the computer.

ステップS703では、映像キャプチャスレッドから得られる現実空間映像のデータに基づいてメモリ147,158上に映像を描画し、ステップS704では、ステップS703で描画した映像上に、ステップS702で生成した仮想空間映像を重畳させることで複合現実空間映像を生成し、これを出力する。出力先は、表示装置180(コンピュータ151で実行されている場合)、もしくはHMD110の表示装置112(コンピュータ141で実行されている場合)である。   In step S703, the video is drawn on the memories 147 and 158 based on the real space video data obtained from the video capture thread. In step S704, the virtual space video generated in step S702 is created on the video drawn in step S703. To generate a mixed reality space image and output it. The output destination is the display device 180 (when executed on the computer 151) or the display device 112 of the HMD 110 (when executed on the computer 141).

以上の処理を、何らかの終了指示がコンピュータ141もしくはコンピュータ151から入力されるまで行う。尚、以上説明した、所望の視点の位置姿勢に応じて見える複合現実空間の映像生成に係る一連の処理は周知の技術でもって行われるものである。しかし、詳しくは後述するが、本実施形態では、単に所望の視点の位置姿勢に応じて見える複合現実空間の映像を生成するのではなく、コントローラ120に係るコマンドを表示するパネルの映像を仮想空間映像に含めるところが従来とは異なる。このパネルの映像の生成については後述する。   The above processing is performed until an end instruction is input from the computer 141 or the computer 151. It should be noted that the series of processing relating to the generation of the video of the mixed reality space that can be seen according to the position and orientation of the desired viewpoint as described above is performed by a known technique. However, as will be described in detail later, in this embodiment, instead of simply generating a mixed reality space image that can be seen according to the position and orientation of a desired viewpoint, an image of a panel that displays a command related to the controller 120 is displayed in a virtual space. The place to include in the video is different from the conventional one. The generation of the video of this panel will be described later.

図8は、コンピュータ151にインストールされている複合現実空間管理プログラムをCPU157が実行することで行う処理のフローチャートである。   FIG. 8 is a flowchart of processing performed by the CPU 157 executing the mixed reality space management program installed in the computer 151.

なお、複合現実空間管理プログラムは並列プログラミングでもって一般的なスレッド技術を用いて作成されており、本プログラムの実行と並行して位置姿勢取得スレッド(ステップS840)が動作している。   Note that the mixed reality space management program is created using a general thread technique with parallel programming, and the position and orientation acquisition thread (step S840) operates in parallel with the execution of this program.

ステップS840における位置姿勢取得スレッドは、位置姿勢センサ本体131と常時通信しており、観察者の右目、左目のセンサ座標系における位置姿勢を示すデータ、コントローラ120のセンサ座標系における位置姿勢を示すデータを取得している。   The position / orientation acquisition thread in step S840 always communicates with the position / orientation sensor main body 131, data indicating the position / orientation in the sensor coordinate system of the observer's right eye and left eye, and data indicating the position / orientation in the sensor coordinate system of the controller 120. Is getting.

ステップS800では、位置姿勢取得スレッドから得られるデータを受け、周知の技術により、各観察者の世界座標系における右目、左目の位置姿勢、世界座標系におけるコントローラ120の位置姿勢を求め、前回求めた位置姿勢のデータを今回求めた位置姿勢のデータに更新する。これによりメモリ158には常に最新の各観察者の右目、左目の世界座標系における位置姿勢を示すデータ、各観察者が保持するコントローラの世界座標系における位置姿勢を示すデータが保持されていることになる。   In step S800, the data obtained from the position / orientation acquisition thread is received, and the position / orientation of the right eye and the left eye of each observer in the world coordinate system and the position / orientation of the controller 120 in the world coordinate system are obtained by a known technique. The position and orientation data is updated to the position and orientation data obtained this time. Thereby, the memory 158 always holds the latest data indicating the position and orientation of the right eye and left eye of each observer in the world coordinate system, and the data indicating the position and orientation of the controller held by each observer in the world coordinate system. become.

なお、位置姿勢取得スレッドにより得られる位置姿勢のデータが、世界座標系における位置姿勢を示すものである場合には、本ステップでは単に、前回位置姿勢取得スレッドから得て保持している位置姿勢データを、今回位置姿勢取得スレッドより得られたデータに更新する処理を行う。   If the position / orientation data obtained by the position / orientation acquisition thread indicates the position / orientation in the world coordinate system, in this step, the position / orientation data simply obtained from the previous position / orientation acquisition thread and held. Is updated to the data obtained from the current position / posture acquisition thread.

次にステップS802で、仮想空間内に設定した時間を更新し、ステップS803では、更新した時間に応じた仮想空間の状態に更新する。例えば更新後の時間に、予め設定したイベントを行うと設定した場合には、このイベントを発生させる。また、イベントの発生が無くても、例えば仮想空間内の各仮想物体の位置や姿勢の更新、後述するコマンド表示パネルの表示位置や表示サイズ等の更新処理を行う。   Next, in step S802, the time set in the virtual space is updated, and in step S803, the state of the virtual space corresponding to the updated time is updated. For example, when it is set to perform a preset event at the time after the update, this event is generated. Even if no event occurs, for example, the position and orientation of each virtual object in the virtual space are updated, and the display position and display size of the command display panel, which will be described later, are updated.

そしてステップS808では、上記処理により求めた「観察者の右目、左目の世界座標系における位置姿勢を示すデータ」、「コントローラの世界座標系における位置姿勢を示すデータ」、「更新後の仮想空間の状態」を複合現実空間情報として、全ての複合現実映像生成プログラム、及びサウンドプログラムに通知する。   In step S808, the “data indicating the position and orientation of the observer's right eye and left eye in the world coordinate system”, “data indicating the position and orientation of the controller in the world coordinate system” obtained by the above processing, "State" is notified to all the mixed reality video generation programs and sound programs as mixed reality space information.

以上の処理を、何らかの終了指示がコンピュータ151から入力されるまで行う。   The above processing is performed until an end instruction is input from the computer 151.

図10は、以上の複合現実空間管理プログラム、複合現実映像生成プログラムを実行することで得られる、複合現実空間映像の一例を示す図である。同図は、ビデオカメラ184,もしくは観察者の右目(もしくは左目)の位置姿勢に応じて見える複合現実空間映像であって、魚の仮想物体の映像200a〜200f、現実物体の大道具102が、表示装置180やHMD110の表示装置112を介してみることができる。   FIG. 10 is a diagram illustrating an example of a mixed reality space image obtained by executing the above mixed reality space management program and mixed reality image generation program. This figure is a mixed reality space image that can be seen in accordance with the position and orientation of the video camera 184 or the observer's right eye (or left eye). The virtual object images 200a to 200f of the fish and the real object tool 102 are displayed. It can be viewed through the device 180 or the display device 112 of the HMD 110.

次にサウンド再生のためのプログラムについて説明する。図12はコンピュータ151にインストールされているサウンドプログラムをCPU157が実行することで行う処理のフローチャートである。   Next, a program for sound reproduction will be described. FIG. 12 is a flowchart of processing performed by the CPU 157 executing a sound program installed in the computer 151.

なお、サウンドプログラムは並列プログラミングでもって一般的なスレッド技術を用いて作成されており、本プログラムの実行と並行して複合現実空間状態受信スレッド(ステップS1610)が動作している。   Note that the sound program is created by parallel programming using a general thread technique, and the mixed reality space state reception thread (step S1610) operates in parallel with the execution of this program.

ステップS1610における複合現実空間状態受信スレッドは、上記ステップS710におけるものと同じものである。即ち、コンピュータ151上で動作している複合現実空間管理プログラムから通知される複合現実空間状態(ビデオカメラ184の位置姿勢、仮想空間中の各仮想物体の位置姿勢、及び状態)を受け、コンピュータ151上で動作しているサウンドプログラムに通知するものである。   The mixed reality space state reception thread in step S1610 is the same as that in step S710. That is, the computer 151 receives a mixed reality space state (position and orientation of the video camera 184, position and orientation of each virtual object in the virtual space) notified from the mixed reality space management program operating on the computer 151. It notifies the sound program running above.

ステップS1601では、複合現実空間状態受信スレッドから得られる情報を参照し、複合現実空間の状態に応じたサウンドデータに基づいた信号をサウンドボード155でもって生成し、スピーカ184にその信号を出力させることで、効果音などの音を再生する処理を行う。この効果音としては、例えば、仮想空間中の仮想物体が動き回る音や、イベントが生じた場合に、そのイベントに応じたサウンドデータに従った音である。これらの音を再生する場合には、これら各イベント、動作に応じたサウンドデータがメモリ158に読み出されている。このほかにも、BGM(バックグラウンドミュージック)等を再生しても良いし、再生すべき音はこれに限定するものではない、
以上の処理を、何らかの終了指示がコンピュータ151から入力されるまで行う。
In step S1601, referring to information obtained from the mixed reality space state reception thread, a signal based on sound data corresponding to the state of the mixed reality space is generated by the sound board 155, and the signal is output to the speaker 184. Then, a process of reproducing sound such as sound effects is performed. This sound effect is, for example, a sound in which a virtual object in the virtual space moves around or a sound according to sound data corresponding to the event when an event occurs. When reproducing these sounds, sound data corresponding to these events and operations is read out to the memory 158. Besides this, BGM (background music) may be played, and the sound to be played is not limited to this.
The above processing is performed until an end instruction is input from the computer 151.

なお、サウンドの再生は、あくまで観察者に複合現実空間への没入間を高めるためのものであるので、必須の処理ではない。   It should be noted that sound reproduction is not an indispensable process because it is only for the purpose of increasing the immersion time in the mixed reality space for the observer.

次に、コマンド表示パネルの表示について説明する。図11はHMD110の表示装置112におけるコマンド表示パネルの表示例を示す図である。1100はHMDの表示装置112の表示画面を示す。即ち、表示画面1100内に複合現実空間の映像が表示される。   Next, display on the command display panel will be described. FIG. 11 is a diagram illustrating a display example of the command display panel in the display device 112 of the HMD 110. Reference numeral 1100 denotes a display screen of the HMD display device 112. That is, an image of the mixed reality space is displayed in the display screen 1100.

900はコマンド表示パネルのフレーム部分の映像であって、このフレームの内部に、十時ボタン122の各方向のボタン毎の機能がボタン画像901〜904として表示されている。即ち、十時ボタン122の12時位置のボタンを押下すると「HIT」の機能、3時位置のボタンを押下すると「RIGHT」の機能、6時位置のボタンを押下すると「SHOCK」の機能、9時位置のボタンを押下すると「LEFT」の機能が実行されることを示している。同図では、12時位置のボタンが押下されて(「HIT」が選択されて)、ボタン画像901の色が反転した状態である。この状態で、例えば十字キー112の9時位置のボタンを押下するとボタン画像903の色が反転し、「LEFT」が選択されている状態の表示に移行する。   Reference numeral 900 denotes an image of the frame portion of the command display panel, and the function of each button of the tenth button 122 in each direction is displayed as button images 901 to 904 inside this frame. That is, pressing the button at the 12 o'clock position of the ten o'clock button 122 functions as “HIT”, pressing the button at 3 o'clock as “RIGHT”, pressing the button at 6 o'clock as “SHOCK”, 9 When the button at the hour position is pressed, the “LEFT” function is executed. In the figure, the button image 901 is in a reversed state when the button at 12 o'clock is pressed (“HIT” is selected). In this state, for example, when the button at the 9 o'clock position of the cross key 112 is pressed, the color of the button image 903 is reversed, and the display shifts to a state in which “LEFT” is selected.

即ちコマンド表示パネル900は、十時ボタン122の操作に係る説明ウィンドの映像である。   That is, the command display panel 900 is an image of an explanation window related to the operation of the ten o'clock button 122.

この映像の表示位置は、表示画面1100内のコントローラ120の位置の移動に応じて移動する。この表示位置の決定処理について説明する。   The display position of the video moves according to the movement of the position of the controller 120 in the display screen 1100. The display position determination process will be described.

先ず、コントローラ120の世界座標系における位置に対して、常に相対的に同じ位置となる位置を予め決めておく。例えばコントローラ120の先端部分から後方5cm、上方5cm(バイアス)の位置とする。この位置は、コントローラ120の世界座標系における位置姿勢は複合現実空間管理プログラムにより得られるので、得られた位置にバイアスを加算する事で得られる。   First, a position that is always relatively the same as the position of the controller 120 in the world coordinate system is determined in advance. For example, the position is 5 cm rearward and 5 cm upward (bias) from the tip of the controller 120. This position can be obtained by adding a bias to the obtained position because the position and orientation of the controller 120 in the world coordinate system is obtained by the mixed reality space management program.

これにより求めた位置とは、コマンド表示パネル900を3次元仮想物体として仮想空間中に配置した場合に、観察者の視点からコマンド表示パネル900の面が見えるように、コントローラ120の位置近傍に配置する場合の配置位置である。また、このバイアスは、コントローラ120の世界座標系における位置の近傍で、且つこの位置よりも観察者の視点に近い位置とするのか好ましい。これにより、常にコントローラ120よりも手前(より観察者の視点位置に近い位置)にコマンド表示パネル900を配置することになる。   The position obtained by this is arranged near the position of the controller 120 so that the surface of the command display panel 900 can be seen from the observer's viewpoint when the command display panel 900 is arranged as a three-dimensional virtual object in the virtual space. It is an arrangement position when doing. In addition, it is preferable that this bias be a position near the position of the controller 120 in the world coordinate system and closer to the observer's viewpoint than this position. Thus, the command display panel 900 is always arranged in front of the controller 120 (a position closer to the observer's viewpoint position).

そして求めた位置を表示画面1100(実際には、3次元仮想空間における物体を表示装置の表示面に表示するために予め設けられた投影面)に投影した位置を求め、この投影した位置に、コマンド表示パネル900の画像を表示する。   Then, the position obtained by projecting the obtained position on the display screen 1100 (actually a projection plane provided in advance for displaying an object in the three-dimensional virtual space on the display surface of the display device) is obtained, and the projected position is The image of the command display panel 900 is displayed.

これにより、表示画面1100にコントローラ120が見えていれば、このコントローラ120と共に、その操作に係る説明の画面(コマンド表示パネル900)を表示させることができる。またこれにより、表示画面1100内でのコントローラ120の映像の移動に応じてこのコマンド表示パネル900の表示位置も移動することになるので、観察者はコントローラ120と共にコマンド表示パネル900をも見ることができ、コントローラ120を見ながら、説明をも見ることができる。   Thus, if the controller 120 is visible on the display screen 1100, an explanation screen (command display panel 900) relating to the operation can be displayed together with the controller 120. This also moves the display position of the command display panel 900 in accordance with the movement of the image of the controller 120 in the display screen 1100, so that the observer can see the command display panel 900 together with the controller 120. You can see the explanation while looking at the controller 120.

また、当然、HMD110の表示装置112にコントローラ120が見えていない場合には、コマンド表示パネル900は表示装置112には表示されない。   Of course, when the controller 120 is not visible on the display device 112 of the HMD 110, the command display panel 900 is not displayed on the display device 112.

尚、このコマンド表示パネル900の映像を半透明の形態で表示すれば、このコマンド表示パネル900の表示によりコントローラ120やその他の仮想物体の映像が完全に見えないということはない。半透明に画像を表示する技術については、周知の技術であるので簡単に説明するが、画像を構成する各画素にα値を設定し、このα値を制御すればよい。また、透明度の制御以外にも再度の制御を行うことにより、同様の効果が得られる。   If the video of the command display panel 900 is displayed in a translucent form, the video of the controller 120 and other virtual objects cannot be completely seen by the display of the command display panel 900. The technique for displaying an image in a translucent manner is a well-known technique and will be described briefly. However, an α value may be set for each pixel constituting the image and the α value may be controlled. In addition to the transparency control, the same effect can be obtained by performing the control again.

又上述の通り、常にコントローラ120よりも手前(より観察者の視点位置に近い位置)にコマンド表示パネル900を配置するので、コントローラ120によってコマンド表示パネル900の表示が隠れたり、奥にあるコマンド表示パネル900を銃の表示に重畳したりして、コマンド表示パネル900とコントローラ120との前後関係が3次元空間的に破綻したりする事は起きない。   In addition, as described above, the command display panel 900 is always arranged in front of the controller 120 (a position closer to the observer's viewpoint), so that the controller 120 hides the display of the command display panel 900 or displays a command in the back. It does not happen that the front-rear relationship between the command display panel 900 and the controller 120 breaks down in a three-dimensional space by superimposing the panel 900 on the gun display.

また常にコントローラ120の近傍にコマンド表示パネル900が表示されるため、ステレオ立体視を行う際の視差に関して、コントローラ120とコマンド表示パネル900が大きな差を生じる事がなく、無理なく容易に立体視を行うことができる。   Further, since the command display panel 900 is always displayed in the vicinity of the controller 120, the controller 120 and the command display panel 900 do not cause a large difference with respect to the parallax at the time of performing stereo stereoscopic viewing. It can be carried out.

なお、コマンド表示パネル900の表示形態は図11に示したものに限定するものではない。   The display form of the command display panel 900 is not limited to that shown in FIG.

又、本実施形態に係る技術の適用対象は、単にコントローラの操作方法をコマンド表示パネルとして提示するだけのものではなく、HMDを装着している観察者が複合現実空間で何らかのインタラクションを行うために用いる(手に保持することに限定されず、携帯するものであればよい)インターフェース(指示具)に係る説明をHMDを介して見たい場合に、HMDを介して見える指示具と共に、この説明を見る場合にも適用可能である。   In addition, the application target of the technology according to the present embodiment is not just to present the operation method of the controller as a command display panel, but for the observer wearing the HMD to perform some interaction in the mixed reality space. If you want to see the description of the interface (indicator) that you use (it is not limited to being held in your hand, as long as you carry it) via the HMD, use this explanation along with the indicator that you can see through the HMD. It is also applicable when viewing.

また、この説明を見せるためのパネルの画像は予め2次元画像としてメモリ147に保持しておき、複合現実空間映像が生成され、この映像における指示具(本実施形態ではコントローラ120)の位置が求まった場合に(コントローラ120の世界座標系における位置は上記処理により求まるので、これを投影面に投影した位置を求めればよい)、その位置近傍に表示するようにしても良いし、本実施形態のように3次元仮想物体として作成しておき、これを仮想空間中に配置してHMDの表示装置の表示画面に画像として表示した場合に、常に同じ大きさとなるように適宜スケーリング(3次元仮想物体が視点位置から遠い場合にはこの3次元仮想物体のサイズを大きくし、逆に3次元仮想物体が視点位置から近い場合にはこの3次元仮想物体のサイズを小さくする)を行うようにしても良い。後者の場合、仮想物体としてのパネルの面(説明が記載された面)が観察者の右目、左目の視線方向(姿勢)を法線ベクトルとする面となるように、この3次元仮想物体は配置される。   Also, the panel image for showing this explanation is stored in advance in the memory 147 as a two-dimensional image, and a mixed reality space image is generated, and the position of the pointing tool (the controller 120 in this embodiment) in this image is obtained. (The position of the controller 120 in the world coordinate system can be obtained by the above processing, and the position obtained by projecting it on the projection plane may be obtained). In this embodiment, the position may be displayed near the position. When a three-dimensional virtual object is created as described above and placed in the virtual space and displayed as an image on the display screen of the HMD display device, the three-dimensional virtual object is appropriately scaled so as to always have the same size (three-dimensional virtual object Is larger from the viewpoint position, the size of the three-dimensional virtual object is increased. Conversely, when the three-dimensional virtual object is closer to the viewpoint position, the three-dimensional virtual object is increased. May be performed to reduce the size of the object). In the latter case, this three-dimensional virtual object is such that the surface of the panel as the virtual object (the surface on which the description is described) is a surface whose normal vector is the viewing direction (posture) of the right eye and left eye of the observer. Be placed.

また、このパネルの画像に表示されるべき説明の文章は適宜リアルタイムに変化させるようにしても良い。   Moreover, you may make it change suitably the text of the description which should be displayed on the image of this panel in real time.

又本実施形態では、複合現実空間として水族館を例に取り説明したが、これに限定されるものではない。   In the present embodiment, an aquarium is taken as an example of the mixed reality space, but the present invention is not limited to this.

又本実施形態ではコントローラ120の位置姿勢を計測しているが、コマンド表示パネルの表示位置を決めるためには最低限コントローラ120の世界座標系における位置が分かればよいので、位置のみを計測するようにしても良い。   In this embodiment, the position and orientation of the controller 120 are measured. However, in order to determine the display position of the command display panel, it is sufficient to know the position of the controller 120 in the world coordinate system at least, so that only the position is measured. Anyway.

また本実施形態において用いたHMDはビデオシースルータイプのものであったが、光学シースルータイプのものを用いても良い。その場合、現実空間の映像撮影は行わないので、現実空間映像と仮想空間映像との合成処理も同然行わない。   The HMD used in this embodiment is a video see-through type, but an optical see-through type may be used. In this case, since the real space video is not shot, the synthesis processing of the real space video and the virtual space video is not performed.

また、本実施形態では現実空間を撮像するカメラは右目用と左目用とを設けたが、これに限定されるものではなく1つであっても良い。この場合、この1つのカメラにより撮像した現実空間の映像は仮想空間の映像を重畳させて右目、左目の両方に提示されることになる。また重畳させる仮想空間の映像は、この1つのカメラの視点から見えるものである。   Further, in the present embodiment, the camera for imaging the real space is provided for the right eye and for the left eye. However, the present invention is not limited to this, and one camera may be used. In this case, the real space image captured by the one camera is presented to both the right eye and the left eye by superimposing the virtual space image. The video of the virtual space to be superimposed is visible from the viewpoint of this one camera.

また本実施形態では、頭部装着型表示装置として用いることが可能な装置はHMDに限定するものではなく、例えば現実空間の映像を撮像するカメラ、表示装置、位置姿勢センサ受信機の夫々を組み合わせて観察者の頭部に装着可能なようにした装置であっても良い。   In this embodiment, the device that can be used as the head-mounted display device is not limited to the HMD. For example, a camera that captures an image of a real space, a display device, and a position and orientation sensor receiver are combined. It is also possible to use a device that can be mounted on the observer's head.

[第2の実施形態]
第1の実施形態ではコンピュータ151が複合現実空間に係る様々な状態を管理しており、その管理結果を逐次、各コンピュータ141に通知していたが、このようなシステム構成に限定されるものではない。即ち、夫々の観察者に対して設けたコンピュータ141が、夫々の観察者に提示する複合現実空間映像を生成するために必要な情報を管理するようにしても良い。
[Second Embodiment]
In the first embodiment, the computer 151 manages various states related to the mixed reality space, and the management results are sequentially notified to each computer 141. However, the present invention is not limited to such a system configuration. Absent. That is, the computer 141 provided for each observer may manage information necessary for generating a mixed reality space image to be presented to each observer.

[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
An object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係る複合現実感装置(展示装置)の外観図である。1 is an external view of a mixed reality apparatus (exhibit apparatus) according to a first embodiment of the present invention. HMD110の外観図である。It is an external view of HMD110. 観察者がいない場合の舞台装置の外観例を示す図である。It is a figure which shows the example of an external appearance of a stage device when there is no observer. 観察者が居る場合の舞台装置の外観例を示す図である。It is a figure which shows the external appearance example of a stage device in case an observer exists. コンピュータ141を含む本発明の第1の実施形態に係る映像装置の基本構成を示すブロック図である。1 is a block diagram showing a basic configuration of a video apparatus according to a first embodiment of the present invention including a computer 141. FIG. コンピュータ151を含む本実施形態に係る映像装置の基本構成、及び周辺機器との関係を示すブロック図である。It is a block diagram which shows the basic composition of the video device concerning this embodiment containing the computer 151, and the relationship with a peripheral device. コンピュータ141、151にインストールされている複合現実映像生成プログラムを夫々のコンピュータのCPUが実行することで行う処理のフローチャートである。It is a flowchart of the process performed when CPU of each computer runs the mixed reality video generation program installed in the computers 141 and 151. コンピュータ151にインストールされている複合現実空間管理プログラムをCPU157が実行することで行う処理のフローチャートである。12 is a flowchart of processing performed by a CPU 157 executing a mixed reality space management program installed in a computer 151. コントローラ120の外観例を示す図である。It is a figure which shows the example of an external appearance of the controller 120. FIG. 複合現実空間管理プログラム、複合現実映像生成プログラムを実行することで得られる、複合現実空間映像の一例を示す図である。It is a figure which shows an example of a mixed reality space image | video obtained by running a mixed reality space management program and a mixed reality image generation program. HMD110の表示装置112におけるコマンド表示パネルの表示例を示す図である。6 is a diagram illustrating a display example of a command display panel on the display device 112 of the HMD 110. FIG. コンピュータ151にインストールされているサウンドプログラムをCPU157が実行することで行う処理のフローチャートである。12 is a flowchart of processing performed by a CPU 157 executing a sound program installed in a computer 151.

Claims (13)

頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理方法であって、
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. An image processing method comprising: a display control step for displaying the image on the display.
前記表示制御工程では、前記仮想物体の画像を前記表示部に所定のサイズでもって表示されるように前記仮想物体のサイズを適宜変更後、前記表示部に表示する前記仮想物体の画像を生成して、前記表示部に表示させることを特徴とする請求項1に記載の画像処理方法。 The display control step generates an image of the virtual object to be displayed on the display unit after appropriately changing the size of the virtual object so that the image of the virtual object is displayed with a predetermined size on the display unit. The image processing method according to claim 1, wherein the image is displayed on the display unit. 前記表示制御工程では、前記指示具の操作方法が記載された仮想物体の画像を表示することを特徴とする請求項1又は2に記載の画像処理方法。 The image processing method according to claim 1, wherein, in the display control step, an image of a virtual object on which an operation method of the pointing tool is described is displayed. 頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理方法であって、
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
A display control step of displaying on the display unit an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. Image processing method.
前記表示制御工程では、前記指示具の操作方法が記載された画像を表示することを特徴とする請求項4に記載の画像処理方法。 The image processing method according to claim 4, wherein in the display control step, an image in which an operation method of the pointing tool is described is displayed. 前記画像は、半透明の形態で表示されることを特徴とする請求項1乃至5の何れか1項に記載の画像処理方法。 The image processing method according to claim 1, wherein the image is displayed in a translucent form. 体験者が操作する操作装置からの指示に応じて更新される仮想空間映像と、現実空間映像とを重畳する情報処理方法であって、
現実空間を撮影することにより得られた現実空間映像を取得する現実空間映像取得工程と、
前記撮影された現実空間映像の視点位置および、または視線方向を検出結果を入力する第1の検出結果入力工程と、
前記視点位置および、または視線方向に応じて、仮想空間映像を生成する仮想空間映像生成工程と、
体験者が操作する操作装置の位置および、または方向の検出結果を入力する第二の検出結果入力工程と、
前記操作装置の位置および、または方向に応じて、操作を補助するための仮想画面を生成する仮想画面生成工程と、
前記操作装置を用いた体験者の指示を入力する指示入力工程と、
前記体験者の指示に応じて前記仮想空間映像を更新する手段と、
前記現実空間映像と前記仮想空間映像とを重畳して複合現実空間映像を生成する複合現実空間映像生成工程と
を有することを特徴とする画像処理方法。
An information processing method for superimposing a virtual space image updated in response to an instruction from an operating device operated by an experienced person and a real space image,
A real space image acquisition step of acquiring a real space image obtained by photographing the real space;
A first detection result input step of inputting a detection result of a viewpoint position and / or a line-of-sight direction of the photographed real space image;
A virtual space image generation step of generating a virtual space image according to the viewpoint position and / or the line-of-sight direction;
A second detection result input step for inputting a detection result of the position and / or direction of the operating device operated by the experience person;
A virtual screen generating step for generating a virtual screen for assisting the operation according to the position and / or direction of the operating device;
An instruction input step of inputting an instruction of an experienced person using the operation device;
Means for updating the virtual space image in response to an instruction from the experience person;
An image processing method comprising: a mixed reality space image generating step of generating a mixed reality space image by superimposing the real space image and the virtual space image.
操作を補助するための仮想画面の大部分が半透明もしくは透明になっている事を特徴とする請求項7に記載の画像処理方法。 The image processing method according to claim 7, wherein most of a virtual screen for assisting an operation is translucent or transparent. 前記仮想画面中のメニューの配置が、前記操作装置の操作部の配置と対応づいていることを特徴とする請求項7または8に記載の画像処理方法。 9. The image processing method according to claim 7, wherein the arrangement of the menu in the virtual screen corresponds to the arrangement of the operation unit of the operation device. コンピュータに請求項1乃至9の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。 A program that causes a computer to execute the image processing method according to claim 1. 請求項10に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 10. 頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理装置であって、
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing device comprising:
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on data indicating the position and orientation measured by the measurement means, a position and orientation calculation means for obtaining a position and orientation in the world coordinate system of the pointing tool;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. An image processing apparatus comprising: display control means for displaying the image on the display.
頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理装置であって、
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing device comprising:
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on data indicating the position and orientation measured by the measurement means, a position and orientation calculation means for obtaining a position and orientation in the world coordinate system of the pointing tool;
Display control means for displaying, on the display unit, an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. An image processing apparatus.
JP2003405033A 2003-12-03 2003-12-03 Image processing method and image processor Withdrawn JP2005165776A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003405033A JP2005165776A (en) 2003-12-03 2003-12-03 Image processing method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003405033A JP2005165776A (en) 2003-12-03 2003-12-03 Image processing method and image processor

Publications (1)

Publication Number Publication Date
JP2005165776A true JP2005165776A (en) 2005-06-23

Family

ID=34727849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003405033A Withdrawn JP2005165776A (en) 2003-12-03 2003-12-03 Image processing method and image processor

Country Status (1)

Country Link
JP (1) JP2005165776A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009646A (en) * 2006-06-28 2008-01-17 Canon Inc Image processor and image processing method
JP2008229000A (en) * 2007-03-20 2008-10-02 Samii Kk Image generator, game machine and program
WO2010113466A1 (en) * 2009-03-31 2010-10-07 日本電気株式会社 System and method for virtual machine management, control device, method and program
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
WO2013090100A1 (en) * 2011-12-12 2013-06-20 John Clavin Connecting head mounted displays to external displays and other communication networks
US8512152B2 (en) 2010-06-11 2013-08-20 Nintendo Co., Ltd. Hand-held game apparatus and housing part of the same
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP2014072576A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
WO2014171200A1 (en) 2013-04-16 2014-10-23 ソニー株式会社 Information processing device and information processing method, display device and display method, and information processing system
WO2014178480A1 (en) * 2013-04-30 2014-11-06 인텔렉추얼디스커버리 주식회사 Head mounted display and method for providing audio signals by using same
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
JP2016110245A (en) * 2014-12-03 2016-06-20 株式会社T.J.Promotion Display system, display method, computer program, computer readable recording medium
JP2016528942A (en) * 2013-06-07 2016-09-23 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for generating augmented virtual reality scenes in a head mounted system with fewer hops
JP6278546B1 (en) * 2017-06-02 2018-02-14 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
US9939911B2 (en) 2004-01-30 2018-04-10 Electronic Scripting Products, Inc. Computer interface for remotely controlled objects and wearable articles with absolute pose detection component
JP2018067060A (en) * 2016-10-17 2018-04-26 俊八 生田 Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model
JP6389305B1 (en) * 2017-07-21 2018-09-12 株式会社コロプラ Information processing method, computer, and program
JP2019023869A (en) * 2018-08-03 2019-02-14 株式会社コロプラ Information processing method, computer, and program
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US11054650B2 (en) 2013-03-26 2021-07-06 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
CN113467731A (en) * 2020-03-30 2021-10-01 精工爱普生株式会社 Display system, information processing apparatus, and display control method for display system
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10191559B2 (en) 2004-01-30 2019-01-29 Electronic Scripting Products, Inc. Computer interface for manipulated objects with an absolute pose detection component
US9939911B2 (en) 2004-01-30 2018-04-10 Electronic Scripting Products, Inc. Computer interface for remotely controlled objects and wearable articles with absolute pose detection component
JP2008009646A (en) * 2006-06-28 2008-01-17 Canon Inc Image processor and image processing method
JP2008229000A (en) * 2007-03-20 2008-10-02 Samii Kk Image generator, game machine and program
US8924968B2 (en) 2009-03-31 2014-12-30 Nec Corporation System and method of managing virtual machine, and control apparatus, method and program
WO2010113466A1 (en) * 2009-03-31 2010-10-07 日本電気株式会社 System and method for virtual machine management, control device, method and program
JPWO2010113466A1 (en) * 2009-03-31 2012-10-04 日本電気株式会社 Virtual machine management system and method, and control apparatus, method and program
JP5382112B2 (en) * 2009-03-31 2014-01-08 日本電気株式会社 Virtual machine management system and method, and control apparatus, method and program
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10764565B2 (en) 2010-03-12 2020-09-01 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US8512152B2 (en) 2010-06-11 2013-08-20 Nintendo Co., Ltd. Hand-held game apparatus and housing part of the same
US8780183B2 (en) 2010-06-11 2014-07-15 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
WO2013090100A1 (en) * 2011-12-12 2013-06-20 John Clavin Connecting head mounted displays to external displays and other communication networks
JP2014072576A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
US11054650B2 (en) 2013-03-26 2021-07-06 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
WO2014171200A1 (en) 2013-04-16 2014-10-23 ソニー株式会社 Information processing device and information processing method, display device and display method, and information processing system
US10269180B2 (en) 2013-04-16 2019-04-23 Sony Corporation Information processing apparatus and information processing method, display apparatus and display method, and information processing system
WO2014178480A1 (en) * 2013-04-30 2014-11-06 인텔렉추얼디스커버리 주식회사 Head mounted display and method for providing audio signals by using same
JP2018069069A (en) * 2013-06-07 2018-05-10 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for generating extended virtual reality scene by less hops in head-mound system
JP2016528942A (en) * 2013-06-07 2016-09-23 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for generating augmented virtual reality scenes in a head mounted system with fewer hops
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device
JP2016110245A (en) * 2014-12-03 2016-06-20 株式会社T.J.Promotion Display system, display method, computer program, computer readable recording medium
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
JP2018067060A (en) * 2016-10-17 2018-04-26 俊八 生田 Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model
JP2018206029A (en) * 2017-06-02 2018-12-27 株式会社コロプラ Information processing method, apparatus, and program for implementing that information processing method in computer
JP6278546B1 (en) * 2017-06-02 2018-02-14 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019021237A (en) * 2017-07-21 2019-02-07 株式会社コロプラ Information processing method, computer, and program
JP6389305B1 (en) * 2017-07-21 2018-09-12 株式会社コロプラ Information processing method, computer, and program
JP2019023869A (en) * 2018-08-03 2019-02-14 株式会社コロプラ Information processing method, computer, and program
CN113467731A (en) * 2020-03-30 2021-10-01 精工爱普生株式会社 Display system, information processing apparatus, and display control method for display system
CN113467731B (en) * 2020-03-30 2023-06-02 精工爱普生株式会社 Display system, information processing apparatus, and display control method of display system

Similar Documents

Publication Publication Date Title
JP2005165776A (en) Image processing method and image processor
JP7007396B2 (en) Techniques for recording augmented reality data
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
US7292240B2 (en) Virtual reality presentation device and information processing method
CN103635891B (en) The world is presented in a large amount of digital remotes simultaneously
JP2002157607A (en) System and method for image generation, and storage medium
CN111108462B (en) Ranging and accessory tracking for head mounted display systems
JP2009123018A (en) Image processor and image processing method
JP6021296B2 (en) Display control program, display control device, display control system, and display control method
JP2012139318A (en) Display control program, display control apparatu, display control system, and display control method
JP2005038008A (en) Image processing method, image processor
JP2012094101A (en) Image processing program, image processing apparatus, image processing system and image processing method
JP2005346468A (en) Image processing method and image processor
JP2023527561A (en) Proper collision of surfaces
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
CN111930223A (en) Movable display for viewing and interacting with computer-generated environments
US10803652B2 (en) Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space
JP2004038470A (en) Augmented reality system and information processing method
JP4724476B2 (en) Information processing method and apparatus
KR101770188B1 (en) Method for providing mixed reality experience space and system thereof
JP2003303356A (en) Exhibition system
JP2023065528A (en) Head-mounted information processing apparatus and head-mounted display system
JP7104539B2 (en) Simulation system and program
JP4689344B2 (en) Information processing method and information processing apparatus
JP2021512402A (en) Multi-viewing virtual reality user interface

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206