JP2005165776A - Image processing method and image processor - Google Patents
Image processing method and image processor Download PDFInfo
- Publication number
- JP2005165776A JP2005165776A JP2003405033A JP2003405033A JP2005165776A JP 2005165776 A JP2005165776 A JP 2005165776A JP 2003405033 A JP2003405033 A JP 2003405033A JP 2003405033 A JP2003405033 A JP 2003405033A JP 2005165776 A JP2005165776 A JP 2005165776A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- observer
- virtual
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、仮想空間の映像を現実空間に重畳させて提示するための技術に関するものである。 The present invention relates to a technique for superimposing and presenting an image of a virtual space on a real space.
複合現実感装置とは、現実空間映像と、ユーザの視点位置、視線方向に応じて生成される仮想空間映像とを合成することにより得られる複合現実空間映像をユーザに提供するものである。複合現実感装置は、現実空間中に仮想物体が実在しているかのように観察者に提示することが可能であり、テーマパーク、アミューズメント施設、各種展示会、博覧会、博物館、水族館、植物園、動物園等への利用が期待されている。 The mixed reality device provides a user with a mixed reality space image obtained by combining a real space image and a virtual space image generated according to the user's viewpoint position and line-of-sight direction. The mixed reality device can be presented to the observer as if a virtual object is actually present in the real space. The theme park, amusement facility, various exhibitions, exhibitions, museums, aquariums, botanical gardens, It is expected to be used in zoos.
例えば特許文献1では観察者の腕に装着した位置方向センサによって腕の位置方向を検出し、その位置方向の変化をインターフェース手段としている。 For example, in Patent Document 1, the position direction of the arm is detected by a position / direction sensor attached to the observer's arm, and the change in the position direction is used as an interface unit.
一方、テレビゲーム装置やバーチャルリアリティ装置などの仮想空間映像装置において、仮想空間とのインターフェースとして、従来ジョイスティックなどの専用コントローラーやマウス、キーボードなどが用いられてきた。複合現実感装置においてもこれらのデバイスを利用するこは可能である。
しかし、一般にヘッドマウンドディスプレイを使用する複合現実感装置においては、ジェイスティックなどのデバイスを直接見ることができないため、操作が難しい。またメニューなどを表示するための表示領域も、通常の仮想空間映像装置に比べると限られている。また立体視を行っている場合には、仮想物体および現実物体と三次元的に重なる場所にメニューを配置してしまうと立体感に矛盾が生じて見えにくくなってしまう。 However, in a mixed reality apparatus using a head-mound display, it is difficult to operate since a device such as a jay stick cannot be directly seen. In addition, the display area for displaying menus and the like is limited as compared with a normal virtual space video apparatus. When stereoscopic viewing is performed, if a menu is arranged in a three-dimensionally overlapping place with a virtual object and a real object, the stereoscopic effect becomes inconsistent and is difficult to see.
以上述べてきたように、立体視を難しくさせる事なく、三次元的な矛盾を生じさせず、また視界の妨げを最低限に抑え、分かりやすいメニュー表示を行うことや、それらの容易な操作を実現することが必要とされている。 As described above, stereoscopic viewing is not difficult, does not cause three-dimensional contradiction, minimizes the field of view, and provides easy-to-understand menu display and easy operations. It needs to be realized.
本発明は以上の問題に鑑みてなされたものであり、観察者が携帯する装置に係る説明をより見やすくこの観察者に対して提示する技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for presenting an explanation related to an apparatus carried by an observer to the observer in an easy-to-see manner.
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理方法であって、
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
That is, in order to superimpose a virtual space image seen from the viewpoint of the observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. An image processing method comprising: a display control step for displaying the image on the display.
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理方法であって、
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。
That is, in order to superimpose a virtual space image seen from the viewpoint of the observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
A display control step of displaying on the display unit an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. Image processing method.
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、体験者が操作する操作装置からの指示に応じて更新される仮想空間映像と、現実空間映像とを重畳する情報処理方法であって、
現実空間を撮影することにより得られた現実空間映像を取得する現実空間映像取得工程と、
前記撮影された現実空間映像の視点位置および、または視線方向を検出結果を入力する第1の検出結果入力工程と、
前記視点位置および、または視線方向に応じて、仮想空間映像を生成する仮想空間映像生成工程と、
体験者が操作する操作装置の位置および、または方向の検出結果を入力する第二の検出結果入力工程と、
前記操作装置の位置および、または方向に応じて、操作を補助するための仮想画面を生成する仮想画面生成工程と、
前記操作装置を用いた体験者の指示を入力する指示入力工程と、
前記体験者の指示に応じて前記仮想空間映像を更新する手段と、
前記現実空間映像と前記仮想空間映像とを重畳して複合現実空間映像を生成する複合現実空間映像生成工程と
を有することを特徴とする。
That is, an information processing method for superimposing a virtual space image updated in response to an instruction from an operating device operated by an experienced person and a real space image,
A real space image acquisition step of acquiring a real space image obtained by photographing the real space;
A first detection result input step of inputting a detection result of a viewpoint position and / or a line-of-sight direction of the photographed real space image;
A virtual space image generation step of generating a virtual space image according to the viewpoint position and / or the line-of-sight direction;
A second detection result input step for inputting a detection result of the position and / or direction of the operating device operated by the experience person;
A virtual screen generating step for generating a virtual screen for assisting the operation according to the position and / or direction of the operating device;
An instruction input step of inputting an instruction of an experienced person using the operation device;
Means for updating the virtual space image in response to an instruction from the experience person;
And a mixed reality space image generation step of generating a mixed reality space image by superimposing the real space image and the virtual space image.
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理装置であって、
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする。
That is, in order to superimpose a virtual space image seen from the viewpoint of an observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing apparatus,
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on the data indicating the position and orientation measured by the measurement means, the position and orientation calculation means for obtaining the position and orientation in the world coordinate system of the pointing tool;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. And a display control means for displaying above.
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、頭部装着型表示装置を自身の頭部に装着している観察者の視点から見える仮想空間の映像を現実空間に重畳させて前記頭部装着型表示装置が有する表示部に提示するための画像処理装置であって、
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする。
That is, in order to superimpose a virtual space image seen from the viewpoint of the observer wearing the head-mounted display device on his / her head on the real space and present it on the display unit of the head-mounted display device. Image processing apparatus,
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on data indicating the position and orientation measured by the measurement means, a position and orientation calculation means for obtaining a position and orientation in the world coordinate system of the pointing tool;
Display control means for displaying, on the display unit, an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. To do.
本発明の構成により、観察者が携帯する装置に係る説明をより見やすくこの観察者に対して提示することができる。 According to the configuration of the present invention, it is possible to present the explanation related to the device carried by the observer more easily to the observer.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[第1の実施形態]
本実施形態に係る画像処理装置は、仮想物体としての魚とコミュニケーションをとる疑似体験を行なうことのできる複合現実感装置である。この複合現実感装置は、複数の観察者に水族館における海底散歩や魚とコミュニケーションを行う疑似体験をさせるためのものである。
[First Embodiment]
The image processing apparatus according to the present embodiment is a mixed reality apparatus capable of performing a pseudo-experience that communicates with a fish as a virtual object. This mixed reality device is intended to allow a plurality of observers to experience a submarine walk in an aquarium or to have a simulated experience of communicating with fish.
図1は本実施形態に係る複合現実感装置(展示装置)の外観図である。 FIG. 1 is an external view of a mixed reality apparatus (exhibit apparatus) according to the present embodiment.
各観察者(100a、100b、100c、100d)は上記疑似体験を行なうために、複合現実空間映像を表示するHMD(ヘッドマウンテッドディスプレイ)(110a、110b、110c、110d)を自身の頭部に装着して舞台装置内に立っている。なお、本装置では同時に体験可能な観察者を4人に制限しているが、これに限定されるものではない。 Each observer (100a, 100b, 100c, 100d) has an HMD (head mounted display) (110a, 110b, 110c, 110d) that displays a mixed reality space image on his / her head in order to perform the pseudo-experience. Wearing and standing in the stage. In this device, the number of observers who can experience at the same time is limited to four, but this is not a limitation.
各観察者(100a、100b、100c、100d)が自身の頭部に装着するHMD110(各観察者に共通であるので、特に説明しない限りは以下、a、b、c、dは付けない)は図2(a)、(b)の外観図に示されるように、左右両眼用の2つのビデオカメラ111a、111bと、左右両眼用の2つの小型表示装置112a、112bと、位置姿勢センサ受信機113(各HMDに共通であるので、特に説明しない限りは以下、a、b、c、dは付けない)とで構成されている。
The
小型表示装置112a、112bは液晶ディスプレイと光学プリズムによって構成されている。ビデオカメラ111a、111bは夫々観察者の左目、右目の位置から、HMD100を装着した観察者の頭部の向きに応じた現実空間を撮像する。位置姿勢センサ受信機113は、後述する位置姿勢センサ発信機と本体との組み合わせにより、自身の位置姿勢を計測する。
The
小型表示装置112a、112bには夫々、ビデオカメラ111a、111bによって取得された現実空間映像と、位置姿勢センサ受信器113による計測値に基づいて生成される「観察者の左目、右目から見える仮想空間の映像」とを合成した複合現実空間映像が表示される。なお、複合現実空間映像は観察者が高い品質の疑似体験を行なうことができるようにするため、立体映像として提供されるのが望ましい。
In the
再び図1の説明に戻る。130a、130bは夫々位置姿勢センサ発信機、131a、131bは位置姿勢センサ本体である。位置姿勢センサ受信機113a、113b、位置姿勢センサ発信機130aは位置姿勢センサ本体131aに接続されており、位置姿勢センサ受信機113c、113d、位置姿勢センサ発信機130bは位置姿勢センサ本体131bに接続されている。
Returning to the description of FIG.
位置姿勢センサ発信機130a、130bからは磁気が発信されており、位置姿勢センサ受信機113a、113bは位置姿勢センサ発信機130aから発信されている磁気を検知し、位置姿勢センサ受信機113c、113dは位置姿勢センサ発信機130bから発信されている磁気を検知する。
Magnetism is transmitted from the position and
そして位置姿勢センサ本体131aは位置姿勢センサ受信機113a、113bから入力される磁気受信強度を示す信号を受け、夫々の受信機の位置姿勢を算出する。ここで算出される位置姿勢は、位置姿勢センサ本体131aの位置を原点とし、互いに直交する3軸を夫々x、y、z軸とする座標系(センサ座標系)における位置姿勢である。
The position / orientation sensor
また位置姿勢センサ本体131bは位置姿勢センサ受信機113c、113dから入力される磁気受信強度を示す信号を受け、夫々の受信機の位置、姿勢を算出する。ここで算出される位置姿勢は、位置姿勢センサ本体131bの位置を原点とし、互いに直交する3軸を夫々x、y、z軸とする座標系(センサ座標系)における位置姿勢である。
The position / orientation sensor
位置姿勢センサ本体131a、131bにより求められた夫々の受信機の位置姿勢を示すデータは、後述するコンピュータ151に送信される。
Data indicating the position and orientation of each receiver obtained by the position and orientation sensor
尚、本実施形態では、1つの位置姿勢センサ発信機、位置姿勢センサ本体でもって最大二人の観察者の位置姿勢を計測しているが、これに限定されるものではなく、1つの位置姿勢センサ発信機、位置姿勢センサ本体でもって4人全ての位置姿勢を計測するようにしても良い。即ち、夫々の位置姿勢センサ受信機は1つの位置姿勢センサ発信機から発せられる磁気を受け、夫々の位置姿勢センサ受信機は1つの位置姿勢センサ本体に磁気受信強度信号を出力し、位置姿勢センサ本体は夫々の位置姿勢センサ受信機の位置姿勢を算出する。 In this embodiment, the position and orientation of a maximum of two observers are measured with one position and orientation sensor transmitter and position and orientation sensor main body, but this is not a limitation, and one position and orientation is measured. The position and orientation of all four people may be measured with the sensor transmitter and the position and orientation sensor main body. That is, each position and orientation sensor receiver receives magnetism generated from one position and orientation sensor transmitter, and each position and orientation sensor receiver outputs a magnetic reception intensity signal to one position and orientation sensor main body. The main body calculates the position and orientation of each position and orientation sensor receiver.
このように、位置姿勢センサ本体、位置姿勢センサ発信機の数や、どの位置姿勢センサ発信機、位置姿勢センサ本体でもってどの位置姿勢センサ受信機の位置姿勢を計測するかの割り当ては特に限定するものではないが、いずれにせよ、位置姿勢センサ本体により求められた夫々の受信機の位置姿勢を示すデータは、夫々がどの受信機の位置姿勢を示すものであるかが識別可能なように、コンピュータ151に送信される。
In this way, the number of position / orientation sensor main bodies and position / orientation sensor transmitters and the assignment of which position / orientation sensor receivers measure the position / orientation of which position / orientation sensor main body and position / orientation sensor main body are particularly limited. In any case, in any case, the data indicating the position and orientation of each receiver obtained by the position and orientation sensor main body can identify which receiver indicates the position and orientation of each receiver. It is transmitted to the
また、各観察者(100a、100b、100c、100d)は手にコントローラ120(以下の説明は各コントローラに共通であるので、特に説明しない限りは以下、a、b、c、dは付けない)を持っており、このコントローラ120を用いて観察者は複合現実空間とのインタラクションをはかることができる。図9はこのコントローラ120の外観例を示す図である。
Further, each observer (100a, 100b, 100c, 100d) has a
同図に示すように、コントローラ120は、引き金型のトリガ121、十字ボタン122、位置姿勢センサ受信機123によって構成されている。位置姿勢センサ受信機123は位置姿勢センサ本体131に接続されている。図1に示す構成では、コントローラ120a、120bに備わっている位置姿勢センサ発信機は位置姿勢センサ本体131aに接続されており、コントローラ120c、120dに備わっている位置姿勢センサ発信機は位置姿勢センサ本体131bに接続されている。そして位置姿勢センサ受信機123は、HMD110に搭載の位置姿勢センサ発信機と同様、磁気受信強度を示す信号を位置姿勢センサ本体131に出力する。
As shown in the figure, the
位置姿勢センサ本体131は位置姿勢センサ受信機123から入力される磁気受信強度を示す信号を受け、位置姿勢センサ受信機123の位置、姿勢を算出する。ここで算出される位置姿勢は、位置姿勢センサ本体131の位置を原点とし、互いに直交する3軸を夫々x、y、z軸とする座標系(センサ座標系)における位置姿勢である。
The position and orientation sensor
位置姿勢センサ本体131により求められた位置姿勢センサ受信機123の位置姿勢を示すデータは、後述するコンピュータ151に送信される。
Data indicating the position and orientation of the position and
本実施形態では位置姿勢センサは米国Polhemus社製FASTRAKや米国Ascension Technology社製Flock of Birdsなどを利用することが可能であるが、これに限定されるものではなく他の市販されている超音波式、光学式位置姿勢センサも利用可能である。 In this embodiment, the position and orientation sensor can use FASTRAK manufactured by US Polhemus, Flock of Birds manufactured by US Ascension Technology, etc., but is not limited to this, and other commercially available ultrasonic sensors An optical position and orientation sensor can also be used.
141a、141b、141c、141dは夫々、観察者100a、100b、100c、100dに提供する複合現実空間の映像を生成する処理を行うコンピュータである。図5は、このコンピュータを含む本実施形態に係る映像装置の基本構成を示すブロック図である。
141a, 141b, 141c, and 141d are computers that perform a process of generating a mixed reality space image provided to the
本実施形態に係る映像装置は、コンピュータ141(各コンピュータは同じ構成であるとするので、特に説明しない限りは、a、b、c、dは省略する)、HMD110、コントローラ120により構成されている。
The video apparatus according to the present embodiment includes a computer 141 (each computer has the same configuration, and unless otherwise specified, a, b, c, and d are omitted), an
映像装置は観察者に対して提示すべき複合現実空間映像を生成し、観察者に提示する為のものであるので、一人の観察者に一台必要となる。従って、観察者の数に応じて、この映像装置を設けるようにすればよい。 Since the video apparatus is for generating a mixed reality space video to be presented to an observer and presenting it to the observer, one image device is required for each observer. Therefore, this video apparatus may be provided according to the number of observers.
引き金型のトリガ121、十字ボタン122は、コンピュータ141のコントローラ入力ポート128に接続されており、引き金型のトリガ121、十字ボタン122を用いて入力した各種の指示信号は、このコントローラ入力ポート128を介してCPU146に通知される。
The trigger-
コンピュータ141は、右目用ビデオキャプチャボード142b、右目用ビデオキャプチャボード142a、CG描画支援機能を有する右目用グラフィックボード144b、左目用グラフィックボード144a、ネットワークインターフェース149、HDD(ハードディスクドライブ)145、CPU146、メモリ147により構成されている。
The
右目用キャプチャーボード142bは、右目用ビデオカメラ111bにより撮像された、観察者の右目に対応する現実空間の映像を信号として受け、これをデータとして後段のメモリ147に出力する。左目用キャプチャーボード142aは、左目用ビデオカメラ111aにより撮像された、観察者の左目に対応する現実空間の映像を信号として受け、これをデータとして後段のメモリ147に出力する。
The right-eye capture board 142b receives a real-space image corresponding to the right eye of the observer, which is captured by the right-
また、右目用グラフィックボード144bは、観察者の右目から見える仮想空間の映像を生成し、これを右目用キャプチャーボード142bを介してメモリ147に入力された右目用の現実空間映像上に重畳することで複合現実空間映像を生成し、右目用表示装置112bに出力する。一方、左目用グラフィックボード144aは、観察者の左目から見える仮想空間の映像を生成し、これを左目用キャプチャーボード142aを介してメモリ147に入力された左目用の現実空間映像上に重畳することで複合現実空間映像を生成し、左目用表示装置112aに出力する。
The right-eye
これにより、右目用表示装置112b、左目用表示装置112aが夫々、観察者の右目、左目の眼前に位置するようにHMD110を自身の頭部に装着した観察者に、自身の左右の目の位置姿勢に応じた複合現実空間映像を提示することができる。
Accordingly, the right and left eye positions are displayed to the observer who wears the
HDD145は、OS(オペレーティングシステム)や、コンピュータ141が行うものとして後述する処理をCPU146に実行させるためのプログラムやデータ等を保存するものであり、これらは必要に応じてメモリ147に読み出されるものである。
The
CPU146は、コンピュータ141全体の制御を行うと共に、コンピュータ141が行うものとして後述する処理を実行する。
The
メモリ147は、HDD145からロードされたプログラムやデータを一時的に記憶するためのエリアや、右目用キャプチャーボード142b、左目用キャプチャーボード142aから入力された現実空間映像を一時的に記憶するためのエリア、CPU146が各種の処理を行うために用いるエリアを備える。即ち、処理中のデータの一時記憶や、外部とのデータ送受信のためのデータの一時記憶のためのエリアを備える。
The memory 147 is an area for temporarily storing programs and data loaded from the
ネットワークインターフェース149はネットワーク160に接続されており、このネットワークインターフェース149、ネットワーク160を介して、後述するコンピュータ151や他のコンピュータ(自身が141aである場合にはコンピュータ141b、141c、141d)とのデータ送受信を行うことができる。このネットワークインターフェース149には例えばイーサネット(R)が適用可能である。
The
ここで、コンピュータ141が複合現実空間映像を生成し、これをHMD110を介して観察者に提供するために、メモリ147にはHDD145からCPU146の実行対象となる複合現実映像生成プログラムがロードされている。
Here, in order for the
複合現実映像生成プログラムは、後述するコンピュータ151から通知される複合現実空間情報に基づいて観察者の右目、左目から見える仮想空間の映像を生成し、夫々をビデオカメラ111b、111aから右目用キャプチャーボード142b、左目用キャプチャーボード142aを介して入力した現実空間の映像上に合成することで、右目用、左目用の複合現実空間映像を生成し、そして生成した右目用、左目用の複合現実空間映像を夫々、右目用グラフィックボード144b、左目用グラフィックボード144aを介して右目用表示装置112b、左目用表示装置112aに出力する処理をCPU146に実行させるためのものである。
The mixed reality video generation program generates a video of a virtual space that can be viewed from the right eye and left eye of the observer based on mixed reality space information notified from the
以上の処理をCPU146に実行させることで、HMD110を頭部に装着した観察者には、現実物体である海底を模した舞台装置内に、仮想物体である水生生物があたかも現実物体として舞台装置内を浮遊しているように見えるようになる。
By causing the
図6は、コンピュータ151を含む本実施形態に係る映像装置の基本構成、及び周辺機器との関係を示すブロック図である。コンピュータ151は、位置姿勢センサ本体から出力される各位置姿勢センサ受信機の位置姿勢を示すデータの取得、複合現実空間管理、複合現実空間情報の通知、固定された視点における複合現実空間映像の生成、環境音楽再生、効果音再生等の処理を行うためのものである。
FIG. 6 is a block diagram showing the basic configuration of the video apparatus according to this embodiment including the
コンピュータ151は、キャプチャボード152、グラフィックボード153、シリアルインターフェース154、サウンドボード155、HDD156、CPU157、メモリ158ネットワークインターフェース159により構成されている。
The
キャプチャボード152には客観視点ビデオカメラ184が接続されている。客観視点ビデオカメラ184は、現実空間中の1点に固定(もしくはその位置姿勢は適宜変更可能)されたものであり、この1点における位置姿勢に応じて見える現実空間の映像を撮像するものである。撮像された現実空間の映像はキャプチャボード152を介してメモリ158に出力される。なお、客観視点ビデオカメラ184の位置姿勢は固定されていようと、適宜変更されようと、常にメモリ158にその位置姿勢を示すデータが記憶されているものとする。
An objective
グラフィックボード153には表示装置180が接続されている。表示装置180は、頭部にHMDを装着していない観察者(図1を例に取ると、観察者100a、100b、100c、100d以外の観察者)に対して、客観視点ビデオカメラ184の位置姿勢に応じて見える複合現実空間の映像を提供するものである。よってグラフィックボード153は、コンピュータ141におけるグラフィックボード144b、144aと同様の処理を行い、客観視点ビデオカメラ184の位置姿勢に応じて見える現実空間の映像と仮想空間の映像との合成画像を生成して表示装置180に出力するものである。
A
シリアルインターフェース154には位置姿勢センサ本体131a、131b(同図ではa、bは省略している)が接続されており、位置姿勢センサ本体131から出力される、各位置姿勢センサ受信機のセンサ座標系における位置姿勢を示すデータを受け、これをメモリ158に出力する。
Position / orientation sensor
サウンドボード155にはスピーカ182が接続されており、後述するサウンドデータに基づいたサウンド信号を生成し、これをD/A変換してスピーカ182に出力するものである。
A
HDD156にはOSや、コンピュータ151が行うものとして後述する処理をCPU157に実行させるためのプログラムやデータ等を保存するものであり、これらは必要に応じてメモリ158に読み出されるものである。
The
CPU157は、コンピュータ151全体の制御を行うと共に、コンピュータ151が行うものとして後述する処理を実行する。
The
メモリ158は、HDD156からロードされたプログラムやデータを一時的に記憶するためのエリアや、キャプチャボード152から入力された現実空間映像を一時的に記憶するためのエリア、CPU157が各種の処理を行うために用いるエリアを備える。即ち、処理中のデータの一時記憶や、外部とのデータ送受信のためのデータの一時記憶のためのエリアを備える。
The memory 158 is an area for temporarily storing programs and data loaded from the
ネットワークインターフェース159はネットワーク160に接続されており、このネットワークインターフェース159、ネットワーク160を介して、上述のコンピュータ141(141a、141b、141c、141d)とのデータ送受信を行うことができる。このネットワークインターフェース149には例えばイーサネット(R)が適用可能である。
The
ここで、メモリ158にはHDD156からCPU157の実行対象となるプログラムがロードされている。即ち、固定された視点における複合現実空間映像を生成するための複合現実映像生成プログラム、各位置姿勢センサ受信機の位置姿勢取得、複合現実空間管理、複合現実空間情報の通知を行なうための複合現実空間管理プログラム、環境音楽再生、効果音再生のためのサウンドプログラムである。
Here, a program to be executed by the
複合現実映像生成プログラムは、コンピュータ151が保持する客観視点ビデオカメラ184の位置姿勢に応じて見える、後述の複合現実空間情報に応じた仮想空間の映像を生成し、客観視点ビデオカメラ184からキャプチャボード152を介して入力した現実空間の映像上に合成することで複合現実空間映像を生成し、生成した複合現実空間映像をグラフィックボード153を介して表示装置180に出力する処理をCPU156に実行させるためのものである。
The mixed reality video generation program generates a video of a virtual space according to mixed reality space information, which will be described later, which is visible according to the position and orientation of the objective
以上の処理をCPU157に実行させることで、HMDを頭部に装着していない観察者に対して、客観視点ビデオカメラ184の位置姿勢から見える舞台装置内に、仮想物体である水生生物があたかも現実物体として舞台装置内を浮遊しているように見えるようになる。
By causing the
複合現実空間管理プログラムは、以下の(1)〜(4)に示す各処理をCPU157に実行させるためのものである。
The mixed reality space management program is for causing the
(1) 予め設定されたシナリオに沿って仮想空間内で設定されている時間を進め、仮想空間中の任意の物体の位置姿勢および状態を更新する。 (1) The time set in the virtual space is advanced in accordance with a preset scenario, and the position and orientation and state of an arbitrary object in the virtual space are updated.
(2) 位置方位センサ本体131から、位置姿勢センサ受信機113、123の位置姿勢を取得し、これに基づいて周知の技術により観察者の右目、左目の世界座標系における位置姿勢(第1の位置姿勢)、世界座標系におけるコントローラ120の位置姿勢(第2の位置姿勢)を求める。これは、世界座標系における位置姿勢センサ本体131の位置が既知であれば、センサ座標系における位置姿勢を世界座標系における位置姿勢に変換することは可能である。なお、位置姿勢センサ本体131の世界座標系における位置は、データとしてメモリ158にロードされているものとする。
(2) The position / orientation of the position /
(3) (2)で求めた第1の位置姿勢と第2の位置姿勢との関係に基づいて、観察者同士の視線関係の処理や複合現実空間状態の更新処理等を実行する。 (3) Based on the relationship between the first position and orientation determined in (2) and the second position and orientation, processing of the line-of-sight relationship between observers, update processing of the mixed reality space state, and the like are executed.
(4) そして、上記処理によって得られた、複合現実空間に関する情報(複合現実空間情報)のうち一部を、ネットワーク160を介して各コンピュータ141に出力する。厳密には、コンピュータ141上で実行されている複合現実映像生成プログラムに通知する。
(4) Then, a part of the information about the mixed reality space (mixed reality space information) obtained by the above processing is output to each
なお本実施形態では、位置姿勢センサ本体131から得られる位置姿勢データが、HMD110a、110b、110c、110dのどのHMDの位置姿勢を示すデータであるかは周知の技術により識別しているものとする。例えば、位置姿勢センサ本体131はコンピュータ151に送信する各位置姿勢データに、各HMDに固有のIDを付加して送信するものとする。
In this embodiment, it is assumed that the position and orientation data obtained from the position and orientation sensor
このように、複数のコンピュータから送信されてくる情報を処理し、処理後の情報を送信元のコンピュータに夫々送信する技術については周知のものであるので、この技術に関する説明は省略する。 As described above, a technique for processing information transmitted from a plurality of computers and transmitting the processed information to a transmission source computer is well known, and a description thereof will be omitted.
また、複合現実空間情報のうち一部は、自身が実行している複合現実映像生成プログラム、及びサウンドプログラムに通知する。サウンドプログラムは、複合現実空間管理プログラムから通知される複合現実空間情報に応じたサウンドデータ(HDD156からメモリ158に予め読み出されているものとする)に基づいて音(音楽や効果音)を再生する。再生された音楽や効果音は舞台装置内の観察者全員が認識できる適当な大きさの音量でスピーカー182より出力される。
In addition, a part of the mixed reality space information is notified to the mixed reality video generation program and the sound program being executed by itself. The sound program reproduces sound (music and sound effects) based on sound data (assumed to be read from the
なお、この処理は実際には、CPU157がサウンドプログラムを実行することにより成されるものである。
This process is actually executed by the
効果音は複合現実空間中でのイベント(例えば仮想物体同士、あるいは現実物体と仮想物体の衝突)、やユーザーインターフェースのために複合現実空間状態変化を観察者に知らせるために用いられる。 The sound effect is used to inform the observer of an event in the mixed reality space (for example, a collision between virtual objects or a collision between the real object and the virtual object) or a mixed reality space state for a user interface.
図3は観察者がいない場合の舞台装置の外観例を示す図である。図4は観察者が居る場合の舞台装置の外観例を示す図である。 FIG. 3 is a diagram showing an example of the appearance of the stage apparatus when there is no observer. FIG. 4 is a diagram showing an example of the appearance of the stage apparatus when there is an observer.
舞台装置では大道具と照明、床によって海底の状況が表現されている。大道具102、103a、103bは岩礁を模した造形物である。大道具104a、104bは海底に沈んだ遺跡を想像させる石柱の造形物である。大道具106は海底における遠景を描いた壁もしくは衝立状の大道具で、舞台装置の大きさを超えて海底がどこまでも続いているかのごとく感じさせるために海中の環境色で塗装されている。大道具108は海底を模した床である。101a、101b、101c、101dは観察者がHMD110を着脱するときに立つ観察者初期位置の取りうる領域、105a、105b、105c、105dは観察者初期方向を示す矢印である。図3では説明のため図示してあるが、実際の舞台装置にはこの領域を示す線や色分けがあるわけではない。
On the stage equipment, the state of the seabed is expressed by tools, lighting, and the floor. The
観察者は疑似体験を行なうとき、まず舞台装置内に進入し、観察者初期位置領域101(各領域101a、101b、101c、101dについて以下の説明は共通であるので、特に断らない限りは、以下、a、b、c、dは省略する。)内の所望の位置に立ち、HMD110を自身の頭部に装着し、コントローラ120を手に保持する。
When the observer performs a pseudo-experience, the viewer first enters the stage apparatus, and the observer initial position area 101 (the following description is common to each of the
ここでHMD110およびコントローラ120はそれぞれの観察者初期位置領域101の側にある大道具(103aもしくは103b)の上部の窪みに置かれている。大道具103はHMD置き台を兼用した造型物となっている。観察者100はHMD置き台103からHMD110を取り出して自身の頭部に装着完了後、観察者初期位置領域101を含む近傍を動き回り、任意の方向を向いたり任意の姿勢をとったりすることが可能である。この領域の範囲はHMD110の配線の長さと位置姿勢センサ131の測定可能範囲に依存する。
Here, the
疑似体験を終了したくなったら観察者は観察者初期位置領域101内に戻り、HMD110を外してHMD置き台103の上部において舞台装置から退出する。舞台装置からの入退出は図3の手前側から行なう。手前側は本展示装置の設置場所に依存するが、大抵の場合は通路もしくはある程度人の溜まることの可能な空間とつながっている。後者の場合は疑似体験の順番待ちをする列を作ったり、ディスプレイ180で表示されるビデオカメラ184の視点での複合現実空間映像を楽しむ人のとどまる場所を作ったりすることが可能である。これは多くの来客に展示施設を楽しんでもらう観点から望ましい形態である。
When it is desired to end the pseudo-experience, the observer returns to the observer initial position area 101, removes the
観察者初期位置領域101は観察者100がHMD110を着脱する領域であり、観察者初期方向105は観察者100が疑似体験開始の推奨視線方向である。舞台装置内には様々な造型物が設置されているため、馴染みの無いHMDという有線装置を付けて、大胆に動き回る人は少ない。従って大抵は疑似体験中に観察者初期位置領域101内で観察者初期方向105を向いて複合現実空間映像を観察することが最も頻度が高くなると期待できる。
The observer initial position area 101 is an area where the observer 100 attaches and detaches the
従って、この観察者初期位置領域101内での任意の位置姿勢に応じた複合現実空間映像の質が高くなるように配慮して舞台装置を組むようにしている。例えば、現実空間映像には待ち行列や展示施設を傍観している来客者が見えないように観察者初期位置領域101、背景用壁106の位置を調整したり、複数の岩礁103が観察者100から異なる距離をもって視界に入るようにして奥行きや立体感を強く感じるようにしたり、他の観察者100が視界に入るようにして、自分の疑似体験を他者と共有していることを意識させたり、他の観察者と自分との間を広く空間を作ってその空間に仮想空間物体である水生生物を表示させることで奥行きを感じさせたり、背景用壁はHMD110で表示されたときに空間が広がっているかのように感じさせる色を選択したり、などである。
Accordingly, the stage apparatus is assembled in consideration of the high quality of the mixed reality space image according to the arbitrary position and orientation in the observer initial position region 101. For example, the positions of the observer initial position area 101 and the
観察者は以上説明してきた舞台装置内で複合現実空間映像を鑑賞することで質の高い疑似体験を行なうことができる。 The observer can perform a high-quality simulated experience by viewing the mixed reality space video in the stage apparatus described above.
次に、コンピュータ141、151の夫々が行う処理について説明する。
Next, processing performed by each of the
図7は、コンピュータ141、151にインストールされている複合現実映像生成プログラムを夫々のコンピュータのCPUが実行することで行う処理のフローチャートである。
FIG. 7 is a flowchart of processing performed by the CPU of each computer executing the mixed reality video generation program installed in the
なお、複合現実映像生成プログラムは並列プログラミングでもって一般的なスレッド技術を用いて作成されており、本プログラムの実行と並行して複合現実空間状態受信スレッド(ステップS710)と映像キャプチャスレッド(ステップS720)が動作している。 Note that the mixed reality video generation program is created using a general thread technique with parallel programming, and in parallel with the execution of this program, the mixed reality space state reception thread (step S710) and the video capture thread (step S720). ) Is working.
ステップS710における複合現実空間状態受信スレッドは、コンピュータ141にインストールされているものと、コンピュータ151にインストールされているものとでは若干動作が異なる。
The operation of the mixed reality space state reception thread in step S710 is slightly different between the one installed in the
コンピュータ141にインストールされている複合現実空間状態受信スレッドは、コンピュータ151上で動作している複合現実空間管理プログラムからネットワーク160を介して通知される複合現実空間状態(観察者の右目、左目の位置姿勢、コントローラの位置姿勢、仮想空間中の各仮想物体の位置姿勢、及び状態)を示す情報(複合現実空間情報)を受信して、コンピュータ141上で動作している複合現実映像生成プログラムに通知する。
The mixed reality space state reception thread installed in the
コンピュータ151にインストールされている複合現実空間状態受信スレッドは、コンピュータ151上で動作している複合現実空間管理プログラムから通知される複合現実空間状態(ビデオカメラ184の位置姿勢、仮想空間中の各仮想物体の位置姿勢、及び状態)を受け、コンピュータ151上で動作している複合現実映像生成プログラムに通知する。
The mixed reality space state reception thread installed in the
一方、ステップS720における映像キャプチャスレッドについても、コンピュータ141にインストールされているものと、コンピュータ151にインストールされているものとでは若干動作が異なる。
On the other hand, the operation of the video capture thread in step S720 is slightly different between that installed in the
コンピュータ141にインストールされている映像キャプチャスレッドは、HMD110からキャプチャーボード142を介して受信した現実空間映像を、コンピュータ141上で動作している複合現実映像生成プログラムに通知する。
The video capture thread installed in the
コンピュータ151にインストールされている映像キャプチャスレッドは、ビデオカメラ184からキャプチャーボード152を介して受信した現実空間映像を、コンピュータ151上で動作している複合現実映像生成プログラムに通知する。
The video capture thread installed in the
ステップS701では、複合現実空間状態受信スレッドより得られた複合現実空間状態に基づいて、仮想空間の状態を更新し、ステップS702では、更新した状態に応じた仮想空間映像を生成する。ここで仮想空間の映像とは、例えばCG等で描画される水生生物の映像や、後述するコマンド表示パネルの映像を含むものであって、視点(観察者の右目、左目、もしくはビデオカメラ184)の位置姿勢に応じて見える仮想空間の映像である。生成した仮想空間映像はコンピュータ内のメモリ147,158に一時的に記憶させる。 In step S701, the state of the virtual space is updated based on the mixed reality space state obtained from the mixed reality space state receiving thread. In step S702, a virtual space image corresponding to the updated state is generated. Here, the image of the virtual space includes, for example, an aquatic life image drawn by CG or the like and a command display panel image described later, and a viewpoint (observer's right eye, left eye, or video camera 184). It is the image | video of the virtual space which can be seen according to the position and orientation. The generated virtual space video is temporarily stored in the memories 147 and 158 in the computer.
ステップS703では、映像キャプチャスレッドから得られる現実空間映像のデータに基づいてメモリ147,158上に映像を描画し、ステップS704では、ステップS703で描画した映像上に、ステップS702で生成した仮想空間映像を重畳させることで複合現実空間映像を生成し、これを出力する。出力先は、表示装置180(コンピュータ151で実行されている場合)、もしくはHMD110の表示装置112(コンピュータ141で実行されている場合)である。 In step S703, the video is drawn on the memories 147 and 158 based on the real space video data obtained from the video capture thread. In step S704, the virtual space video generated in step S702 is created on the video drawn in step S703. To generate a mixed reality space image and output it. The output destination is the display device 180 (when executed on the computer 151) or the display device 112 of the HMD 110 (when executed on the computer 141).
以上の処理を、何らかの終了指示がコンピュータ141もしくはコンピュータ151から入力されるまで行う。尚、以上説明した、所望の視点の位置姿勢に応じて見える複合現実空間の映像生成に係る一連の処理は周知の技術でもって行われるものである。しかし、詳しくは後述するが、本実施形態では、単に所望の視点の位置姿勢に応じて見える複合現実空間の映像を生成するのではなく、コントローラ120に係るコマンドを表示するパネルの映像を仮想空間映像に含めるところが従来とは異なる。このパネルの映像の生成については後述する。
The above processing is performed until an end instruction is input from the
図8は、コンピュータ151にインストールされている複合現実空間管理プログラムをCPU157が実行することで行う処理のフローチャートである。
FIG. 8 is a flowchart of processing performed by the
なお、複合現実空間管理プログラムは並列プログラミングでもって一般的なスレッド技術を用いて作成されており、本プログラムの実行と並行して位置姿勢取得スレッド(ステップS840)が動作している。 Note that the mixed reality space management program is created using a general thread technique with parallel programming, and the position and orientation acquisition thread (step S840) operates in parallel with the execution of this program.
ステップS840における位置姿勢取得スレッドは、位置姿勢センサ本体131と常時通信しており、観察者の右目、左目のセンサ座標系における位置姿勢を示すデータ、コントローラ120のセンサ座標系における位置姿勢を示すデータを取得している。
The position / orientation acquisition thread in step S840 always communicates with the position / orientation sensor
ステップS800では、位置姿勢取得スレッドから得られるデータを受け、周知の技術により、各観察者の世界座標系における右目、左目の位置姿勢、世界座標系におけるコントローラ120の位置姿勢を求め、前回求めた位置姿勢のデータを今回求めた位置姿勢のデータに更新する。これによりメモリ158には常に最新の各観察者の右目、左目の世界座標系における位置姿勢を示すデータ、各観察者が保持するコントローラの世界座標系における位置姿勢を示すデータが保持されていることになる。
In step S800, the data obtained from the position / orientation acquisition thread is received, and the position / orientation of the right eye and the left eye of each observer in the world coordinate system and the position / orientation of the
なお、位置姿勢取得スレッドにより得られる位置姿勢のデータが、世界座標系における位置姿勢を示すものである場合には、本ステップでは単に、前回位置姿勢取得スレッドから得て保持している位置姿勢データを、今回位置姿勢取得スレッドより得られたデータに更新する処理を行う。 If the position / orientation data obtained by the position / orientation acquisition thread indicates the position / orientation in the world coordinate system, in this step, the position / orientation data simply obtained from the previous position / orientation acquisition thread and held. Is updated to the data obtained from the current position / posture acquisition thread.
次にステップS802で、仮想空間内に設定した時間を更新し、ステップS803では、更新した時間に応じた仮想空間の状態に更新する。例えば更新後の時間に、予め設定したイベントを行うと設定した場合には、このイベントを発生させる。また、イベントの発生が無くても、例えば仮想空間内の各仮想物体の位置や姿勢の更新、後述するコマンド表示パネルの表示位置や表示サイズ等の更新処理を行う。 Next, in step S802, the time set in the virtual space is updated, and in step S803, the state of the virtual space corresponding to the updated time is updated. For example, when it is set to perform a preset event at the time after the update, this event is generated. Even if no event occurs, for example, the position and orientation of each virtual object in the virtual space are updated, and the display position and display size of the command display panel, which will be described later, are updated.
そしてステップS808では、上記処理により求めた「観察者の右目、左目の世界座標系における位置姿勢を示すデータ」、「コントローラの世界座標系における位置姿勢を示すデータ」、「更新後の仮想空間の状態」を複合現実空間情報として、全ての複合現実映像生成プログラム、及びサウンドプログラムに通知する。 In step S808, the “data indicating the position and orientation of the observer's right eye and left eye in the world coordinate system”, “data indicating the position and orientation of the controller in the world coordinate system” obtained by the above processing, "State" is notified to all the mixed reality video generation programs and sound programs as mixed reality space information.
以上の処理を、何らかの終了指示がコンピュータ151から入力されるまで行う。
The above processing is performed until an end instruction is input from the
図10は、以上の複合現実空間管理プログラム、複合現実映像生成プログラムを実行することで得られる、複合現実空間映像の一例を示す図である。同図は、ビデオカメラ184,もしくは観察者の右目(もしくは左目)の位置姿勢に応じて見える複合現実空間映像であって、魚の仮想物体の映像200a〜200f、現実物体の大道具102が、表示装置180やHMD110の表示装置112を介してみることができる。
FIG. 10 is a diagram illustrating an example of a mixed reality space image obtained by executing the above mixed reality space management program and mixed reality image generation program. This figure is a mixed reality space image that can be seen in accordance with the position and orientation of the
次にサウンド再生のためのプログラムについて説明する。図12はコンピュータ151にインストールされているサウンドプログラムをCPU157が実行することで行う処理のフローチャートである。
Next, a program for sound reproduction will be described. FIG. 12 is a flowchart of processing performed by the
なお、サウンドプログラムは並列プログラミングでもって一般的なスレッド技術を用いて作成されており、本プログラムの実行と並行して複合現実空間状態受信スレッド(ステップS1610)が動作している。 Note that the sound program is created by parallel programming using a general thread technique, and the mixed reality space state reception thread (step S1610) operates in parallel with the execution of this program.
ステップS1610における複合現実空間状態受信スレッドは、上記ステップS710におけるものと同じものである。即ち、コンピュータ151上で動作している複合現実空間管理プログラムから通知される複合現実空間状態(ビデオカメラ184の位置姿勢、仮想空間中の各仮想物体の位置姿勢、及び状態)を受け、コンピュータ151上で動作しているサウンドプログラムに通知するものである。
The mixed reality space state reception thread in step S1610 is the same as that in step S710. That is, the
ステップS1601では、複合現実空間状態受信スレッドから得られる情報を参照し、複合現実空間の状態に応じたサウンドデータに基づいた信号をサウンドボード155でもって生成し、スピーカ184にその信号を出力させることで、効果音などの音を再生する処理を行う。この効果音としては、例えば、仮想空間中の仮想物体が動き回る音や、イベントが生じた場合に、そのイベントに応じたサウンドデータに従った音である。これらの音を再生する場合には、これら各イベント、動作に応じたサウンドデータがメモリ158に読み出されている。このほかにも、BGM(バックグラウンドミュージック)等を再生しても良いし、再生すべき音はこれに限定するものではない、
以上の処理を、何らかの終了指示がコンピュータ151から入力されるまで行う。
In step S1601, referring to information obtained from the mixed reality space state reception thread, a signal based on sound data corresponding to the state of the mixed reality space is generated by the
The above processing is performed until an end instruction is input from the
なお、サウンドの再生は、あくまで観察者に複合現実空間への没入間を高めるためのものであるので、必須の処理ではない。 It should be noted that sound reproduction is not an indispensable process because it is only for the purpose of increasing the immersion time in the mixed reality space for the observer.
次に、コマンド表示パネルの表示について説明する。図11はHMD110の表示装置112におけるコマンド表示パネルの表示例を示す図である。1100はHMDの表示装置112の表示画面を示す。即ち、表示画面1100内に複合現実空間の映像が表示される。
Next, display on the command display panel will be described. FIG. 11 is a diagram illustrating a display example of the command display panel in the display device 112 of the
900はコマンド表示パネルのフレーム部分の映像であって、このフレームの内部に、十時ボタン122の各方向のボタン毎の機能がボタン画像901〜904として表示されている。即ち、十時ボタン122の12時位置のボタンを押下すると「HIT」の機能、3時位置のボタンを押下すると「RIGHT」の機能、6時位置のボタンを押下すると「SHOCK」の機能、9時位置のボタンを押下すると「LEFT」の機能が実行されることを示している。同図では、12時位置のボタンが押下されて(「HIT」が選択されて)、ボタン画像901の色が反転した状態である。この状態で、例えば十字キー112の9時位置のボタンを押下するとボタン画像903の色が反転し、「LEFT」が選択されている状態の表示に移行する。
即ちコマンド表示パネル900は、十時ボタン122の操作に係る説明ウィンドの映像である。
That is, the
この映像の表示位置は、表示画面1100内のコントローラ120の位置の移動に応じて移動する。この表示位置の決定処理について説明する。
The display position of the video moves according to the movement of the position of the
先ず、コントローラ120の世界座標系における位置に対して、常に相対的に同じ位置となる位置を予め決めておく。例えばコントローラ120の先端部分から後方5cm、上方5cm(バイアス)の位置とする。この位置は、コントローラ120の世界座標系における位置姿勢は複合現実空間管理プログラムにより得られるので、得られた位置にバイアスを加算する事で得られる。
First, a position that is always relatively the same as the position of the
これにより求めた位置とは、コマンド表示パネル900を3次元仮想物体として仮想空間中に配置した場合に、観察者の視点からコマンド表示パネル900の面が見えるように、コントローラ120の位置近傍に配置する場合の配置位置である。また、このバイアスは、コントローラ120の世界座標系における位置の近傍で、且つこの位置よりも観察者の視点に近い位置とするのか好ましい。これにより、常にコントローラ120よりも手前(より観察者の視点位置に近い位置)にコマンド表示パネル900を配置することになる。
The position obtained by this is arranged near the position of the
そして求めた位置を表示画面1100(実際には、3次元仮想空間における物体を表示装置の表示面に表示するために予め設けられた投影面)に投影した位置を求め、この投影した位置に、コマンド表示パネル900の画像を表示する。
Then, the position obtained by projecting the obtained position on the display screen 1100 (actually a projection plane provided in advance for displaying an object in the three-dimensional virtual space on the display surface of the display device) is obtained, and the projected position is The image of the
これにより、表示画面1100にコントローラ120が見えていれば、このコントローラ120と共に、その操作に係る説明の画面(コマンド表示パネル900)を表示させることができる。またこれにより、表示画面1100内でのコントローラ120の映像の移動に応じてこのコマンド表示パネル900の表示位置も移動することになるので、観察者はコントローラ120と共にコマンド表示パネル900をも見ることができ、コントローラ120を見ながら、説明をも見ることができる。
Thus, if the
また、当然、HMD110の表示装置112にコントローラ120が見えていない場合には、コマンド表示パネル900は表示装置112には表示されない。
Of course, when the
尚、このコマンド表示パネル900の映像を半透明の形態で表示すれば、このコマンド表示パネル900の表示によりコントローラ120やその他の仮想物体の映像が完全に見えないということはない。半透明に画像を表示する技術については、周知の技術であるので簡単に説明するが、画像を構成する各画素にα値を設定し、このα値を制御すればよい。また、透明度の制御以外にも再度の制御を行うことにより、同様の効果が得られる。
If the video of the
又上述の通り、常にコントローラ120よりも手前(より観察者の視点位置に近い位置)にコマンド表示パネル900を配置するので、コントローラ120によってコマンド表示パネル900の表示が隠れたり、奥にあるコマンド表示パネル900を銃の表示に重畳したりして、コマンド表示パネル900とコントローラ120との前後関係が3次元空間的に破綻したりする事は起きない。
In addition, as described above, the
また常にコントローラ120の近傍にコマンド表示パネル900が表示されるため、ステレオ立体視を行う際の視差に関して、コントローラ120とコマンド表示パネル900が大きな差を生じる事がなく、無理なく容易に立体視を行うことができる。
Further, since the
なお、コマンド表示パネル900の表示形態は図11に示したものに限定するものではない。
The display form of the
又、本実施形態に係る技術の適用対象は、単にコントローラの操作方法をコマンド表示パネルとして提示するだけのものではなく、HMDを装着している観察者が複合現実空間で何らかのインタラクションを行うために用いる(手に保持することに限定されず、携帯するものであればよい)インターフェース(指示具)に係る説明をHMDを介して見たい場合に、HMDを介して見える指示具と共に、この説明を見る場合にも適用可能である。 In addition, the application target of the technology according to the present embodiment is not just to present the operation method of the controller as a command display panel, but for the observer wearing the HMD to perform some interaction in the mixed reality space. If you want to see the description of the interface (indicator) that you use (it is not limited to being held in your hand, as long as you carry it) via the HMD, use this explanation along with the indicator that you can see through the HMD. It is also applicable when viewing.
また、この説明を見せるためのパネルの画像は予め2次元画像としてメモリ147に保持しておき、複合現実空間映像が生成され、この映像における指示具(本実施形態ではコントローラ120)の位置が求まった場合に(コントローラ120の世界座標系における位置は上記処理により求まるので、これを投影面に投影した位置を求めればよい)、その位置近傍に表示するようにしても良いし、本実施形態のように3次元仮想物体として作成しておき、これを仮想空間中に配置してHMDの表示装置の表示画面に画像として表示した場合に、常に同じ大きさとなるように適宜スケーリング(3次元仮想物体が視点位置から遠い場合にはこの3次元仮想物体のサイズを大きくし、逆に3次元仮想物体が視点位置から近い場合にはこの3次元仮想物体のサイズを小さくする)を行うようにしても良い。後者の場合、仮想物体としてのパネルの面(説明が記載された面)が観察者の右目、左目の視線方向(姿勢)を法線ベクトルとする面となるように、この3次元仮想物体は配置される。
Also, the panel image for showing this explanation is stored in advance in the memory 147 as a two-dimensional image, and a mixed reality space image is generated, and the position of the pointing tool (the
また、このパネルの画像に表示されるべき説明の文章は適宜リアルタイムに変化させるようにしても良い。 Moreover, you may make it change suitably the text of the description which should be displayed on the image of this panel in real time.
又本実施形態では、複合現実空間として水族館を例に取り説明したが、これに限定されるものではない。 In the present embodiment, an aquarium is taken as an example of the mixed reality space, but the present invention is not limited to this.
又本実施形態ではコントローラ120の位置姿勢を計測しているが、コマンド表示パネルの表示位置を決めるためには最低限コントローラ120の世界座標系における位置が分かればよいので、位置のみを計測するようにしても良い。
In this embodiment, the position and orientation of the
また本実施形態において用いたHMDはビデオシースルータイプのものであったが、光学シースルータイプのものを用いても良い。その場合、現実空間の映像撮影は行わないので、現実空間映像と仮想空間映像との合成処理も同然行わない。 The HMD used in this embodiment is a video see-through type, but an optical see-through type may be used. In this case, since the real space video is not shot, the synthesis processing of the real space video and the virtual space video is not performed.
また、本実施形態では現実空間を撮像するカメラは右目用と左目用とを設けたが、これに限定されるものではなく1つであっても良い。この場合、この1つのカメラにより撮像した現実空間の映像は仮想空間の映像を重畳させて右目、左目の両方に提示されることになる。また重畳させる仮想空間の映像は、この1つのカメラの視点から見えるものである。 Further, in the present embodiment, the camera for imaging the real space is provided for the right eye and for the left eye. However, the present invention is not limited to this, and one camera may be used. In this case, the real space image captured by the one camera is presented to both the right eye and the left eye by superimposing the virtual space image. The video of the virtual space to be superimposed is visible from the viewpoint of this one camera.
また本実施形態では、頭部装着型表示装置として用いることが可能な装置はHMDに限定するものではなく、例えば現実空間の映像を撮像するカメラ、表示装置、位置姿勢センサ受信機の夫々を組み合わせて観察者の頭部に装着可能なようにした装置であっても良い。 In this embodiment, the device that can be used as the head-mounted display device is not limited to the HMD. For example, a camera that captures an image of a real space, a display device, and a position and orientation sensor receiver are combined. It is also possible to use a device that can be mounted on the observer's head.
[第2の実施形態]
第1の実施形態ではコンピュータ151が複合現実空間に係る様々な状態を管理しており、その管理結果を逐次、各コンピュータ141に通知していたが、このようなシステム構成に限定されるものではない。即ち、夫々の観察者に対して設けたコンピュータ141が、夫々の観察者に提示する複合現実空間映像を生成するために必要な情報を管理するようにしても良い。
[Second Embodiment]
In the first embodiment, the
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
An object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (13)
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。 An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. An image processing method comprising: a display control step for displaying the image on the display.
前記観察者が保持している指示具の位置姿勢を計測する装置から得られるデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算工程と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御工程と
を備えることを特徴とする画像処理方法。 An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing method,
A position and orientation calculation step for obtaining a position and orientation in the world coordinate system of the indicator based on data obtained from a device that measures the position and orientation of the indicator held by the observer;
A display control step of displaying on the display unit an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. Image processing method.
現実空間を撮影することにより得られた現実空間映像を取得する現実空間映像取得工程と、
前記撮影された現実空間映像の視点位置および、または視線方向を検出結果を入力する第1の検出結果入力工程と、
前記視点位置および、または視線方向に応じて、仮想空間映像を生成する仮想空間映像生成工程と、
体験者が操作する操作装置の位置および、または方向の検出結果を入力する第二の検出結果入力工程と、
前記操作装置の位置および、または方向に応じて、操作を補助するための仮想画面を生成する仮想画面生成工程と、
前記操作装置を用いた体験者の指示を入力する指示入力工程と、
前記体験者の指示に応じて前記仮想空間映像を更新する手段と、
前記現実空間映像と前記仮想空間映像とを重畳して複合現実空間映像を生成する複合現実空間映像生成工程と
を有することを特徴とする画像処理方法。 An information processing method for superimposing a virtual space image updated in response to an instruction from an operating device operated by an experienced person and a real space image,
A real space image acquisition step of acquiring a real space image obtained by photographing the real space;
A first detection result input step of inputting a detection result of a viewpoint position and / or a line-of-sight direction of the photographed real space image;
A virtual space image generation step of generating a virtual space image according to the viewpoint position and / or the line-of-sight direction;
A second detection result input step for inputting a detection result of the position and / or direction of the operating device operated by the experience person;
A virtual screen generating step for generating a virtual screen for assisting the operation according to the position and / or direction of the operating device;
An instruction input step of inputting an instruction of an experienced person using the operation device;
Means for updating the virtual space image in response to an instruction from the experience person;
An image processing method comprising: a mixed reality space image generating step of generating a mixed reality space image by superimposing the real space image and the virtual space image.
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記指示具の位置近傍、且つ前記指示具の位置よりも前記視点の位置に近い位置に前記指示具に係る説明が記載された仮想物体を配置した場合に、当該仮想物体の画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。 An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing device comprising:
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on data indicating the position and orientation measured by the measurement means, a position and orientation calculation means for obtaining a position and orientation in the world coordinate system of the pointing tool;
When a virtual object in which the description of the pointing tool is described is arranged near the position of the pointing tool and closer to the viewpoint than the position of the pointing tool, an image of the virtual object is displayed on the display unit. An image processing apparatus comprising: display control means for displaying the image on the display.
前記観察者が保持している指示具の位置姿勢を計測する計測手段と、
前記計測手段により計測された位置姿勢を示すデータに基づいて、前記指示具の世界座標系における位置姿勢を求める位置姿勢計算手段と、
前記重畳処理後に、前記表示部の表示画面上における前記指示具の表示位置近傍に前記指示具に係る説明が記載された画像を前記表示部上に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。 An image for superimposing on the real space a video of a virtual space seen from the viewpoint of an observer wearing the head-mounted display device on his / her head and presenting it on the display unit of the head-mounted display device A processing device comprising:
Measuring means for measuring the position and orientation of the pointing tool held by the observer;
Based on data indicating the position and orientation measured by the measurement means, a position and orientation calculation means for obtaining a position and orientation in the world coordinate system of the pointing tool;
Display control means for displaying, on the display unit, an image in which the description of the pointing tool is described in the vicinity of the display position of the pointing tool on the display screen of the display unit after the superimposing process. An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003405033A JP2005165776A (en) | 2003-12-03 | 2003-12-03 | Image processing method and image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003405033A JP2005165776A (en) | 2003-12-03 | 2003-12-03 | Image processing method and image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005165776A true JP2005165776A (en) | 2005-06-23 |
Family
ID=34727849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003405033A Withdrawn JP2005165776A (en) | 2003-12-03 | 2003-12-03 | Image processing method and image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005165776A (en) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009646A (en) * | 2006-06-28 | 2008-01-17 | Canon Inc | Image processor and image processing method |
JP2008229000A (en) * | 2007-03-20 | 2008-10-02 | Samii Kk | Image generator, game machine and program |
WO2010113466A1 (en) * | 2009-03-31 | 2010-10-07 | 日本電気株式会社 | System and method for virtual machine management, control device, method and program |
US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
WO2013090100A1 (en) * | 2011-12-12 | 2013-06-20 | John Clavin | Connecting head mounted displays to external displays and other communication networks |
US8512152B2 (en) | 2010-06-11 | 2013-08-20 | Nintendo Co., Ltd. | Hand-held game apparatus and housing part of the same |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
JP2014072576A (en) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | Display device and control method |
US8780183B2 (en) | 2010-06-11 | 2014-07-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
WO2014171200A1 (en) | 2013-04-16 | 2014-10-23 | ソニー株式会社 | Information processing device and information processing method, display device and display method, and information processing system |
WO2014178480A1 (en) * | 2013-04-30 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | Head mounted display and method for providing audio signals by using same |
US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2015232783A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and image creating device |
US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
JP2016110245A (en) * | 2014-12-03 | 2016-06-20 | 株式会社T.J.Promotion | Display system, display method, computer program, computer readable recording medium |
JP2016528942A (en) * | 2013-06-07 | 2016-09-23 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | System and method for generating augmented virtual reality scenes in a head mounted system with fewer hops |
JP6278546B1 (en) * | 2017-06-02 | 2018-02-14 | 株式会社コロプラ | Information processing method, apparatus, and program for causing computer to execute information processing method |
US9939911B2 (en) | 2004-01-30 | 2018-04-10 | Electronic Scripting Products, Inc. | Computer interface for remotely controlled objects and wearable articles with absolute pose detection component |
JP2018067060A (en) * | 2016-10-17 | 2018-04-26 | 俊八 生田 | Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model |
JP6389305B1 (en) * | 2017-07-21 | 2018-09-12 | 株式会社コロプラ | Information processing method, computer, and program |
JP2019023869A (en) * | 2018-08-03 | 2019-02-14 | 株式会社コロプラ | Information processing method, computer, and program |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US11054650B2 (en) | 2013-03-26 | 2021-07-06 | Seiko Epson Corporation | Head-mounted display device, control method of head-mounted display device, and display system |
CN113467731A (en) * | 2020-03-30 | 2021-10-01 | 精工爱普生株式会社 | Display system, information processing apparatus, and display control method for display system |
US11577159B2 (en) | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
-
2003
- 2003-12-03 JP JP2003405033A patent/JP2005165776A/en not_active Withdrawn
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10191559B2 (en) | 2004-01-30 | 2019-01-29 | Electronic Scripting Products, Inc. | Computer interface for manipulated objects with an absolute pose detection component |
US9939911B2 (en) | 2004-01-30 | 2018-04-10 | Electronic Scripting Products, Inc. | Computer interface for remotely controlled objects and wearable articles with absolute pose detection component |
JP2008009646A (en) * | 2006-06-28 | 2008-01-17 | Canon Inc | Image processor and image processing method |
JP2008229000A (en) * | 2007-03-20 | 2008-10-02 | Samii Kk | Image generator, game machine and program |
US8924968B2 (en) | 2009-03-31 | 2014-12-30 | Nec Corporation | System and method of managing virtual machine, and control apparatus, method and program |
WO2010113466A1 (en) * | 2009-03-31 | 2010-10-07 | 日本電気株式会社 | System and method for virtual machine management, control device, method and program |
JPWO2010113466A1 (en) * | 2009-03-31 | 2012-10-04 | 日本電気株式会社 | Virtual machine management system and method, and control apparatus, method and program |
JP5382112B2 (en) * | 2009-03-31 | 2014-01-08 | 日本電気株式会社 | Virtual machine management system and method, and control apparatus, method and program |
US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US10764565B2 (en) | 2010-03-12 | 2020-09-01 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US10015473B2 (en) | 2010-06-11 | 2018-07-03 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
US8512152B2 (en) | 2010-06-11 | 2013-08-20 | Nintendo Co., Ltd. | Hand-held game apparatus and housing part of the same |
US8780183B2 (en) | 2010-06-11 | 2014-07-15 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
WO2013090100A1 (en) * | 2011-12-12 | 2013-06-20 | John Clavin | Connecting head mounted displays to external displays and other communication networks |
JP2014072576A (en) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | Display device and control method |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
US11054650B2 (en) | 2013-03-26 | 2021-07-06 | Seiko Epson Corporation | Head-mounted display device, control method of head-mounted display device, and display system |
WO2014171200A1 (en) | 2013-04-16 | 2014-10-23 | ソニー株式会社 | Information processing device and information processing method, display device and display method, and information processing system |
US10269180B2 (en) | 2013-04-16 | 2019-04-23 | Sony Corporation | Information processing apparatus and information processing method, display apparatus and display method, and information processing system |
WO2014178480A1 (en) * | 2013-04-30 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | Head mounted display and method for providing audio signals by using same |
JP2018069069A (en) * | 2013-06-07 | 2018-05-10 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | System and method for generating extended virtual reality scene by less hops in head-mound system |
JP2016528942A (en) * | 2013-06-07 | 2016-09-23 | ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | System and method for generating augmented virtual reality scenes in a head mounted system with fewer hops |
JP2015232783A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and image creating device |
JP2016110245A (en) * | 2014-12-03 | 2016-06-20 | 株式会社T.J.Promotion | Display system, display method, computer program, computer readable recording medium |
US11577159B2 (en) | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
JP2018067060A (en) * | 2016-10-17 | 2018-04-26 | 俊八 生田 | Stereoscopic composite-reality sense providing program for virtual three-dimensional (3d) model |
JP2018206029A (en) * | 2017-06-02 | 2018-12-27 | 株式会社コロプラ | Information processing method, apparatus, and program for implementing that information processing method in computer |
JP6278546B1 (en) * | 2017-06-02 | 2018-02-14 | 株式会社コロプラ | Information processing method, apparatus, and program for causing computer to execute information processing method |
JP2019021237A (en) * | 2017-07-21 | 2019-02-07 | 株式会社コロプラ | Information processing method, computer, and program |
JP6389305B1 (en) * | 2017-07-21 | 2018-09-12 | 株式会社コロプラ | Information processing method, computer, and program |
JP2019023869A (en) * | 2018-08-03 | 2019-02-14 | 株式会社コロプラ | Information processing method, computer, and program |
CN113467731A (en) * | 2020-03-30 | 2021-10-01 | 精工爱普生株式会社 | Display system, information processing apparatus, and display control method for display system |
CN113467731B (en) * | 2020-03-30 | 2023-06-02 | 精工爱普生株式会社 | Display system, information processing apparatus, and display control method of display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005165776A (en) | Image processing method and image processor | |
JP7007396B2 (en) | Techniques for recording augmented reality data | |
JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
US7292240B2 (en) | Virtual reality presentation device and information processing method | |
CN103635891B (en) | The world is presented in a large amount of digital remotes simultaneously | |
JP2002157607A (en) | System and method for image generation, and storage medium | |
CN111108462B (en) | Ranging and accessory tracking for head mounted display systems | |
JP2009123018A (en) | Image processor and image processing method | |
JP6021296B2 (en) | Display control program, display control device, display control system, and display control method | |
JP2012139318A (en) | Display control program, display control apparatu, display control system, and display control method | |
JP2005038008A (en) | Image processing method, image processor | |
JP2012094101A (en) | Image processing program, image processing apparatus, image processing system and image processing method | |
JP2005346468A (en) | Image processing method and image processor | |
JP2023527561A (en) | Proper collision of surfaces | |
WO2018113759A1 (en) | Detection system and detection method based on positioning system and ar/mr | |
CN111930223A (en) | Movable display for viewing and interacting with computer-generated environments | |
US10803652B2 (en) | Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space | |
JP2004038470A (en) | Augmented reality system and information processing method | |
JP4724476B2 (en) | Information processing method and apparatus | |
KR101770188B1 (en) | Method for providing mixed reality experience space and system thereof | |
JP2003303356A (en) | Exhibition system | |
JP2023065528A (en) | Head-mounted information processing apparatus and head-mounted display system | |
JP7104539B2 (en) | Simulation system and program | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2021512402A (en) | Multi-viewing virtual reality user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070206 |