JP2006107437A - Information processing method and apparatus - Google Patents
Information processing method and apparatus Download PDFInfo
- Publication number
- JP2006107437A JP2006107437A JP2005177964A JP2005177964A JP2006107437A JP 2006107437 A JP2006107437 A JP 2006107437A JP 2005177964 A JP2005177964 A JP 2005177964A JP 2005177964 A JP2005177964 A JP 2005177964A JP 2006107437 A JP2006107437 A JP 2006107437A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- virtual world
- information processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報処理方法及び装置に関し、特に、現実世界に仮想画像を合成した画像をユーザに提示する情報処理装置及び方法に関する。 The present invention relates to an information processing method and apparatus, and more particularly, to an information processing apparatus and method for presenting a user with an image obtained by synthesizing a virtual image in the real world.
バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元CG(コンピュータグラフィックス)をユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また、近年現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augmented Reality,拡張現実感)システムや特許文献1に記載されているようなMR(Mixed Reality,複合現実感)システムと呼ばれている。 A virtual reality (VR) system is a system that makes a virtual space feel as if it is real by presenting a computer with three-dimensional CG (computer graphics) created by a computer. In recent years, a technology for presenting information that does not exist in the real world to the user by synthesizing 3D CG with real-world images has also been developed, such as AR (Augmented Reality) system and patent literature. 1 is called an MR (Mixed Reality) system.
MRシステムでは、現実の物体に三次元CGを重ねて見ることが可能であり、現実物体に仮想物体を重畳することで、ユーザが自由に仮想物体を操ることができるシステムが提案されている(例えば、特許文献1を参照)。
通常、MRシステムにおいては現実画像よりもCGを画面の前面に表示するために、ユーザの視点からは自らの手元や足元がCGによって隠されてしまうことがあった。例えば、バーチャル建造物の屋内を体験するMRシステムでは、ユーザがバーチャル建造物の屋内に移動した場合は、ユーザの周りが全てバーチャルの床や壁で覆われてしまう。従って、このようなシステムにおいては、ユーザの手元がCGで隠れてしまい、何かを操作するときに不便を感じる。 Usually, in the MR system, since the CG is displayed in front of the screen rather than the actual image, the user's hand and feet may be hidden by the CG from the user's viewpoint. For example, in an MR system for experiencing the inside of a virtual building, when the user moves into the virtual building, the entire area around the user is covered with a virtual floor or wall. Therefore, in such a system, the user's hand is hidden by the CG, and inconvenience is felt when operating something.
また、ユーザの足元が隠されてしまうと、ユーザは、不安感を感じてしまう。 Moreover, if a user's step is hidden, a user will feel anxiety.
本発明は、この点に鑑みてなされたものであり、ユーザの足元がCGによって隠されてしまうことにより体験者であるユーザが不安感を感じることを抑制することを目的とする。 This invention is made | formed in view of this point, and it aims at suppressing that the user who is an experience person feels anxiety because a user's step is hidden by CG.
また、MRの特徴を生かし、ユーザの足元の現実空間を見ることが出来るようにすることを目的とする。 It is another object of the present invention to make it possible to see the real space at the user's feet by utilizing the features of MR.
上記目的を達成するために、本発明の情報処理方法は、仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理方法であって、ユーザの位置姿勢を取得する取得工程と、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成工程とを有し、前記生成工程は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする。 In order to achieve the above object, an information processing method of the present invention is an information processing method for generating an image of a virtual world and presenting to the user an image in which the image of the virtual world is synthesized in a real space. An acquisition step of acquiring the position and orientation of the user, and a generation step of generating an image of the virtual world according to the position and orientation of the user from the position and orientation of the user and the CG data of the virtual world, The virtual world image is generated so that a real space image is displayed at the user's foot.
また、本発明の情報処理装置は、仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置であって、ユーザの位置姿勢を取得する取得手段と、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成手段とを有し、前記生成手段は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする。 The information processing apparatus according to the present invention is an information processing apparatus that generates a virtual world image and presents to the user an image obtained by synthesizing the virtual world image in real space, and acquires the position and orientation of the user. Obtaining means; and generating means for generating a virtual world image corresponding to the position and orientation of the user from the user's position and orientation and CG data of the virtual world; and The virtual world image is generated so that a real space image is displayed.
本発明によれば、ユーザの足元の現実世界の画像が表示されることにより、ユーザの足元の現実世界の画像が見えないというユーザの不安感をなくすことができる。 According to the present invention, since the real world image at the user's foot is displayed, the user's anxiety that the real world image at the user's foot cannot be seen can be eliminated.
以下、本発明の一実施の形態を、図面を用いて詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(実施の形態1)
本実施の形態では、バーチャル建造物の屋内を体験可能であるMRシステムについて説明する。
(Embodiment 1)
In the present embodiment, an MR system capable of experiencing the inside of a virtual building will be described.
まず、システムの構成全体を説明する。 First, the entire system configuration will be described.
図1は、本実施の形態のシステム構成を表した図である。図1において、システム制御部101は、本システム全体をコントロールするユニットであり、画像入力部102、画像合成部103、画像出力部104、カメラ位置姿勢計測部105、仮想世界生成部106を備えている。
FIG. 1 is a diagram showing the system configuration of the present embodiment. In FIG. 1, a
ビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)132は、カメラ133、画像出力部134、画像入力部135、画像表示部136を備えている。カメラ133は、ユーザの右眼と左眼のそれぞれに対応するように2台設置されている。また、画像表示部126は、ユーザの右眼用と左眼用の表示部を備えている。
The video see-through head mounted display (HMD) 132 includes a
次に、上述の構成の本システムのデータの流れについて説明する。 Next, the data flow of the system configured as described above will be described.
ユーザの頭部に装着されたHMD132のカメラ133は、ユーザの右眼及び左眼から見えるそれぞれの現実空間を画像として撮像する。画像出力部134は、カメラ133により撮像された現実空間の画像をシステム制御部101の画像入力部102に送信する。
The
カメラ位置姿勢計測部105は、例えば、不図示の磁気式位置姿勢センサーの利用やカメラ133からの入力画像によるカメラ位置姿勢の推定等によりカメラ133の位置(即ち、ユーザの位置)と、カメラの姿勢(即ち、ユーザの姿勢(視線方向))を計測する。仮想世界生成部106は、カメラ位置姿勢計測部105により計測された位置姿勢情報および予め保持されているシーングラフに基づき、カメラ133の位置姿勢から見た三次元CG画像を生成する。
The camera position /
ここで、シーングラフとは仮想空間の構造を示すものであり、例えば、CGオブジェクト間の位置関係、幾何情報などを定義するものである。本実施の形態では、ユーザが体験する仮想世界を定義するオブジェクトに加えて、足元に現実空間画像を表示するために透明床オブジェクトが記述されている。 Here, the scene graph indicates the structure of the virtual space, and defines, for example, the positional relationship between CG objects, geometric information, and the like. In the present embodiment, a transparent floor object is described in order to display a real space image at the foot in addition to the object defining the virtual world experienced by the user.
画像合成部103は、画像入力部102により受信した現実空間の画像と、仮想世界生成部106により生成された仮想空間画像(三次元CG画像)を合成することにより複合現実空間画像を生成し、画像出力部104に送信する。画像出力部104は、画像合成部103により合成された複合現実空間画像をHMD132の画像入力部135に送信する。画像入力部135は、画像出力部104より送信された複合現実空間画像を受信する。画像表示部136は、画像入力部105により受信した複合現実空間画像を、右眼用と左眼用の表示部にそれぞれ表示する。その複合現実空間画像を、ユーザが観察することができる。
The
このようなシステムによれば、HMDを装着したユーザの位置姿勢に応じた複合現実空間画像を表示することができる。したがって、ユーザは、MR空間を自由に体験することができる。 According to such a system, a mixed reality space image corresponding to the position and orientation of the user wearing the HMD can be displayed. Therefore, the user can freely experience the MR space.
図2に、本実施の形態で用いるシーングラフのツリー構造を示す。 FIG. 2 shows a tree structure of a scene graph used in this embodiment.
本実施の形態は、バーチャル建造物を体験可能なMRシステムであるので、バーチャル建造物に関するオブジェクトを示す仮想世界のシーン202、およびCGの床を透過させ現実空間画像を表示するためのオブジェクトである透過床201を有する。
Since this embodiment is an MR system capable of experiencing a virtual building, it is an object for displaying a real space image through a
仮想世界のシーン202は、床、壁、屋根などのバーチャル建造物の屋内に関するオブジェクト203〜205と外観等に関するオブジェクトを示すその他オブジェクト206が含まれる。よって、ユーザがバーチャル建造物の屋内に入った場合は、壁や屋根だけでなく、ユーザの足元にも床のCGが存在することになる。
The
透明床201のオブジェクトは、その属性が透明のオブジェクトであり、仮想世界のシーン202より先に検索されるパス上に存在する。オブジェクトの平面の大きさは、ユーザの足元において、仮想世界の画像を透過させ現実世界を表示させたいサイズが設定されている。そして、オブジェクトの平面の高さは、シーンの床と同一の厚さかもしくは多少厚い程度の厚さが設定されている。
The object of the
例えば、床203のオブジェクトの厚さが10mmのときに、半径1mの円の領域について現実画像を表示させたい場合は、透明床201のオブジェクトとして高さ12mmで半径1mの円柱を設定する。
For example, when the thickness of the object on the
このようなシーングラフを有することにより、床203よりも透明床が優先的に描画される。よって、画像合成部103において、現実画像と透明画像を合成することになり、結果的に、透明床201の領域に現実画像が表示されるようになる。
By having such a scene graph, the transparent floor is preferentially drawn over the
また、透明オブジェクトは、カメラ133の水平移動(即ち、ユーザの移動)に追従する。カメラ位置姿勢計測部105から出力された位置情報に基づき、透明オブジェクトの水平位置を設定し、高さ(垂直位置)は仮想世界の床面と同一平面上の高さを設定する。このように、仮想世界の床面と同一平面上にして、水平位置だけカメラ133の水平移動に追従させることができ、常に透明オブジェクトがユーザの鉛直下方部に配置されることになり、ユーザの足元において現実空間を透過させることができる。仮想世界の床面の高さが変化するときは、透明オブジェクトの高さも連動して変化する。これによって、床面の高さを変化させるようなアプリケーションにおいても、常に仮想の床面が透過される。
The transparent object follows the horizontal movement of the camera 133 (that is, the movement of the user). Based on the position information output from the camera position /
透明オブジェクトは仮想床面に位置する床面と同程度の厚みしかないので、透明オブジェクトの鉛直上方向にある仮想物体を透過させて見えなくさせることはない。 Since the transparent object has only the same thickness as the floor surface located on the virtual floor surface, the transparent object in the vertically upward direction of the transparent object is not transmitted and is not invisible.
なお、グラフィックライブラリによっては自動的に透明オブジェクトの順序を入れ替えて、透明オブジェクトの先にあるオブジェクトを表示しようとするものがある。このようなグラフィックライブラリの場合には順序を入れ替えずにそのまま合成表示するモードを選択するようにする。 Note that some graphic libraries automatically change the order of transparent objects and try to display objects ahead of the transparent objects. In the case of such a graphic library, the mode for combining and displaying the image as it is without changing the order is selected.
ここで、本実施の形態のMRシステムを体験する空間について、説明する。図3は、本実施の形態のMRシステムを体験することができる空間を示す図である。 Here, a space for experiencing the MR system of the present embodiment will be described. FIG. 3 is a diagram showing a space where the MR system of the present embodiment can be experienced.
図3における空間は、現実世界の床、壁、及び、天井により囲われており、領域301にバーチャル建物が表示される。ユーザが領域301の外側に位置するとき(例えば、302で示す位置)は、バーチャル建造物の外観を見ることができ、領域301の内側に位置するとき(例えば、303で示す位置)は、バーチャル建造物の内部を見ることができる。
The space in FIG. 3 is surrounded by a floor, wall, and ceiling in the real world, and a virtual building is displayed in an
次に、本実施の形態の処理を図4に示すフローチャートに従って、説明する。 Next, the processing of this embodiment will be described according to the flowchart shown in FIG.
まず、ステップS100において、カメラ位置姿勢計測部105が、カメラ133の位置姿勢(即ち、ユーザの位置及び姿勢)を計測する。
First, in step S100, the camera position and
次に、ステップS110において、仮想世界生成部106は、計測された位置姿勢に基づき、バーチャル建造物内である否かを判断する。建造物内であると判断した場合、仮想世界生成部106は、透明オブジェクトと建造物の内部のオブジェクトに基づき、仮想空間画像を生成する(ステップS120)。また、建造物でないと判断した場合、仮想世界生成部106は、建造物の外部のオブジェクトに基づき、仮想空間画像を生成する(ステップS130)。 Next, in step S <b> 110, the virtual world generation unit 106 determines whether or not it is in a virtual building based on the measured position and orientation. When it is determined that the object is inside the building, the virtual world generation unit 106 generates a virtual space image based on the transparent object and the object inside the building (step S120). If it is determined that the object is not a building, the virtual world generation unit 106 generates a virtual space image based on an object outside the building (step S130).
次に、画像合成部103は、ステップS120又はステップS130において生成された仮想空間画像と、画像入力部102により受信した現実空間の画像とを合成する(ステップS140)。画像出力部104は、合成された画像をHMD132に出力する(ステップS150)。そして、HMD132において、画像表示部136の右眼用と左眼用のそれぞれの表示部に画像が表示される(ステップS160)。
Next, the
ここで、図3、図5〜図8を用いて、本実施の形態における表示結果およびその効果を説明する。 Here, the display result and the effect in this Embodiment are demonstrated using FIG. 3, FIG. 5-FIG.
まず、従来のMRシステムすなわち透明オブジェクトを配置しない場合を説明する。 First, a conventional MR system, that is, a case where a transparent object is not arranged will be described.
図3の301は、現実世界におけるバーチャル建造物が表示される床の領域を表している。図5は、現実世界の床の領域301に仮想世界の床が重畳され、さらにそこにユーザが立っている様子を表している。この状態からユーザがHMDを通して鉛直下方向を見ると、従来は、図6のように床のCGしか見えなくなってしまう。これは床のCGが現実空間の画像を覆い隠してしまうためである。このように、足元がCGによって隠されてしまうと体験者は不安感を感じることになる。
次に、本実施の形態のMRシステム、すなわち透明オブジェクトを配置した場合を説明する。本実施の形態では、透明オブジェクトを仮想世界の床と同一平面上に配置している。よって、ユーザの鉛直下方部には円柱の透明オブジェクトが置かれ、現実世界の画像が透過して見える。図7は、現実世界の床に仮想世界の床および透明オブジェクト501を重畳し、さらにそこにユーザが立っている様子を表している。この状態でユーザがHMDを通して鉛直下方向を見ると、図8のように透明オブジェクトの形状だけユーザの足を含む現実空間が透過して見える。したがって、足元がCGによって隠されてしまうことにより体験者が不安感を感じることを抑制することができる。
Next, an MR system according to the present embodiment, that is, a case where a transparent object is arranged will be described. In the present embodiment, the transparent object is arranged on the same plane as the floor of the virtual world. Therefore, a cylindrical transparent object is placed in the vertically lower part of the user, and the real world image appears to be transparent. FIG. 7 shows a state in which the virtual world floor and the
また、この現実世界の画像領域であれば手元も確認することができるので、手元での操作を現実世界の画像を確認しながら行うことができる。よって、CGによって手元が隠れてしまう場合に比べて、手元での操作を簡単に行うことができる。 In addition, since the hand can be confirmed in the real-world image area, the operation at hand can be performed while confirming the real-world image. Therefore, compared with the case where the hand is hidden by CG, the operation at hand can be easily performed.
ここで、足元とは、上述の如くユーザの位置を中心とする所定範囲を指すが、次に述べるようにユーザの位置からユーザの進行方向の所定範囲又は、ユーザの位置から所定の距離だけ離れた所定の範囲を示すものである。 Here, the foot refers to a predetermined range centered on the user's position as described above. As described below, the foot is a predetermined range in the user's traveling direction or a predetermined distance from the user's position as described below. The predetermined range is shown.
(他の実施の形態−透明オブジェクトの変形例)
上記実施の形態では、透明オブジェクトとして円柱を用いているが、直方体などの他の形状を用いても構わない。
(Other Embodiments—Modification of Transparent Object)
In the above embodiment, a cylinder is used as the transparent object, but other shapes such as a rectangular parallelepiped may be used.
また、ユーザの移動速度に応じて透明オブジェクトが変形するようにしても良い。例えば、透明オブジェクトの形状として図9に示すような楕円柱を用いる(楕円柱を、上から見た状態を示す)。その楕円柱の長径の方向とユーザの進行方向を一致させ(図に示す矢印の方向がユーザの進行方向と一致する)、ユーザの進行方向の指標となるようにする。そして長径/短径は移動速度に比例して変化させ、ユーザに現在の移動速度を伝える指標とする。 The transparent object may be deformed according to the moving speed of the user. For example, an elliptical cylinder as shown in FIG. 9 is used as the shape of the transparent object (the elliptical cylinder is seen from above). The direction of the major axis of the elliptical cylinder and the direction of travel of the user are matched (the direction of the arrow shown in the figure matches the direction of travel of the user) so that it becomes an indicator of the direction of travel of the user. The major axis / minor axis is changed in proportion to the moving speed, and is used as an index for transmitting the current moving speed to the user.
また、楕円柱の長径の方向とユーザの視線方向を一致させる(図に示す矢印の方向がユーザの視線方向と一致する)ようにしてもよい。 Further, the direction of the major axis of the elliptic cylinder and the direction of the user's line of sight may be matched (the direction of the arrow shown in the figure matches the direction of the user's line of sight).
ここで、図中の破線の円は、ユーザの位置を示している。このように、楕円柱の中心位置から進行方向、または、視線方向へずらすようにしても良い。 Here, the broken-line circle in the figure indicates the position of the user. In this way, it may be shifted from the center position of the elliptical column in the traveling direction or the line-of-sight direction.
更に、円柱、楕円柱の他に、図10、図11に示す形状の透明オブジェクトを用いても良い(両図とも、上から見た状態を示す)。 Furthermore, a transparent object having the shape shown in FIGS. 10 and 11 may be used in addition to the cylindrical and elliptical cylinders (both figures show a state viewed from above).
図10における形状は、ユーザの位置から見て進行方向(又は、視線方向)が拡がっている形状の図形である。このような形状にすることにより、確実に足元を確認することができる。 The shape in FIG. 10 is a figure having a shape in which the traveling direction (or line-of-sight direction) is widened when viewed from the user's position. By using such a shape, it is possible to confirm the foot securely.
図11における形状は、ドーナッツ状の透明オブジェクトであり、ユーザの位置そのものは、仮想の床が描画されるが、その周囲のドーナツ状の範囲は、現実世界の床が描画されることになる。透明オブジェクトをドーナツ形状とすることにより、ユーザの位置の画像を確認することができると共に、ユーザの不安を解消することができる。 The shape in FIG. 11 is a donut-shaped transparent object, and a virtual floor is drawn in the user's position itself, but the real-world floor is drawn in the surrounding donut-shaped range. By making the transparent object into a donut shape, the user's position image can be confirmed and the user's anxiety can be resolved.
また、バーチャル建造物の屋内を体験可能であるMRシステムではなく、他の仮想世界を体験するMRシステムでも構わない。体験者の足元にCGが重畳されるものであれば構わない。 Further, an MR system for experiencing another virtual world may be used instead of the MR system capable of experiencing the inside of a virtual building. It does not matter as long as CG is superimposed on the feet of the experience person.
また、透過床の配置位置は、仮想世界の床と大略同一平面上に配置されれば構わない。つまり、カメラの位置姿勢情報および仮想世界の床の配置情報に基づき、動的に設定されれば構わない。例えば、多少、透過床の配置位置が仮想世界の床よりも視点位置に近い位置に設定されても構わない。 Further, the transmission floor may be arranged on substantially the same plane as the floor of the virtual world. In other words, it may be set dynamically based on the position and orientation information of the camera and the floor arrangement information of the virtual world. For example, the arrangement position of the transparent floor may be set to a position closer to the viewpoint position than the floor of the virtual world.
また、透明オブジェクトの境界においてαブレンディングを制御することにより、透明オブジェクトと床オブジェクトの境界がぼけるような処理を追加しても構わない。 Further, by controlling the α blending at the boundary between the transparent objects, a process for blurring the boundary between the transparent object and the floor object may be added.
また、前述した実施例の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能(例えば、画像合成部103および仮想世界生成部106の機能)を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
Further, the functions of the above-described embodiment (for example, the
この場合、前記ソフトウエアのプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。 In this case, the program code of the software itself realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, a memory storing the program code The medium constitutes the present invention.
かかるプログラムコードを格納する記憶媒体としては例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。 As a storage medium for storing the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施例の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。 Further, by executing the program code supplied by the computer, not only the functions of the above-described embodiments are realized, but also the OS (operating system) in which the program code is running on the computer, or other application software, etc. Needless to say, the program code is also included in the embodiment of the present invention even when the functions of the above-described embodiments are realized in cooperation with the embodiment.
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。 Further, the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, and then the CPU provided in the function expansion board or function storage unit based on the instruction of the program code However, it is needless to say that the present invention also includes a case where the function of the above-described embodiment is realized by performing part or all of the actual processing.
101 システム制御部
102 画像入力部
103 画像合成部
104 画像出力部
105 カメラ位置姿勢計測部
106 仮想世界生成部
132 HMD
133 カメラ
134 画像出力部
135 画像入力部
136 画像表示部
DESCRIPTION OF
Claims (10)
ユーザの位置姿勢を取得する取得工程と、
前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成工程とを有し、
前記生成工程は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする情報処理方法。 An information processing method for generating an image of a virtual world and presenting an image obtained by synthesizing the image of the virtual world in a real space to a user,
An acquisition step of acquiring the position and orientation of the user;
Generating a virtual world image corresponding to the user's position and orientation from the user's position and orientation and virtual world CG data;
The information processing method characterized in that the generation step generates an image of the virtual world so that a real space image is displayed at a step of the user.
前記透明オブジェクトの位置を、前記位置姿勢に応じて設定する設定工程とを有し、
前記設定工程により設定された前記透明オブジェクトが前記仮想世界の画像を透明にすることで現実空間画像が表示されることを特徴とする請求項1に記載の情報処理方法。 The CG data of the virtual world includes a transparent object for drawing at the user's feet,
A setting step of setting the position of the transparent object according to the position and orientation;
The information processing method according to claim 1, wherein a real space image is displayed when the transparent object set in the setting step makes the image of the virtual world transparent.
前記仮想世界のCGデータは床オブジェクトを含み、
前記設定工程は、前記透明オブジェクトの位置姿勢を前記床オブジェクトと大略同一平面上に位置するように設定することを特徴とする請求項2に記載の情報処理方法。 The virtual world is inside a virtual building;
The virtual world CG data includes a floor object;
The information processing method according to claim 2, wherein the setting step sets the position and orientation of the transparent object so as to be positioned substantially on the same plane as the floor object.
前記生成工程は、前記判断工程により所定の領域内にユーザの位置がある場合、ユーザの足元に対して現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする請求項1に記載の情報処理方法。 A determination step of determining whether the user's position is within a predetermined area;
The generating step generates an image of the virtual world so that a real space image is displayed on a user's foot when the position of the user is within a predetermined area in the determining step. Item 6. The information processing method according to Item 1.
ユーザの位置姿勢を取得する取得手段と、
前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成手段とを有し、
前記生成手段は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする情報処理装置。 An information processing apparatus that generates an image of a virtual world and presents an image obtained by combining the virtual world image in a real space to a user,
Acquisition means for acquiring the position and orientation of the user;
Generating means for generating a virtual world image according to the position and orientation of the user from the user's position and orientation and virtual world CG data;
The information processing apparatus is characterized in that the generation means generates the image of the virtual world so that a real space image is displayed at a step of the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005177964A JP4724476B2 (en) | 2004-09-07 | 2005-06-17 | Information processing method and apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004259626 | 2004-09-07 | ||
JP2004259626 | 2004-09-07 | ||
JP2005177964A JP4724476B2 (en) | 2004-09-07 | 2005-06-17 | Information processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006107437A true JP2006107437A (en) | 2006-04-20 |
JP4724476B2 JP4724476B2 (en) | 2011-07-13 |
Family
ID=36377043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005177964A Active JP4724476B2 (en) | 2004-09-07 | 2005-06-17 | Information processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4724476B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211251A (en) * | 2008-03-03 | 2009-09-17 | Dainippon Printing Co Ltd | Expanded reality-sense display device |
JP2010026905A (en) * | 2008-07-23 | 2010-02-04 | Sammy Corp | Image generation device, game machine and program |
JP2015064868A (en) * | 2013-08-29 | 2015-04-09 | キヤノンマーケティングジャパン株式会社 | Information processing system and processing method and program therefor |
WO2016158080A1 (en) * | 2015-03-30 | 2016-10-06 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and program |
JPWO2015111283A1 (en) * | 2014-01-23 | 2017-03-23 | ソニー株式会社 | Image display device and image display method |
US11151775B2 (en) | 2019-12-06 | 2021-10-19 | Toyota Jidosha Kabushiki Kaisha | Image processing apparatus, display system, computer readable recoring medium, and image processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269593A (en) * | 2001-03-13 | 2002-09-20 | Canon Inc | Image processing device and method, and storage medium |
JP2004038470A (en) * | 2002-07-02 | 2004-02-05 | Canon Inc | Augmented reality system and information processing method |
JP2004234253A (en) * | 2003-01-29 | 2004-08-19 | Canon Inc | Method for presenting composite sense of reality |
-
2005
- 2005-06-17 JP JP2005177964A patent/JP4724476B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002269593A (en) * | 2001-03-13 | 2002-09-20 | Canon Inc | Image processing device and method, and storage medium |
JP2004038470A (en) * | 2002-07-02 | 2004-02-05 | Canon Inc | Augmented reality system and information processing method |
JP2004234253A (en) * | 2003-01-29 | 2004-08-19 | Canon Inc | Method for presenting composite sense of reality |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009211251A (en) * | 2008-03-03 | 2009-09-17 | Dainippon Printing Co Ltd | Expanded reality-sense display device |
JP2010026905A (en) * | 2008-07-23 | 2010-02-04 | Sammy Corp | Image generation device, game machine and program |
JP2015064868A (en) * | 2013-08-29 | 2015-04-09 | キヤノンマーケティングジャパン株式会社 | Information processing system and processing method and program therefor |
JPWO2015111283A1 (en) * | 2014-01-23 | 2017-03-23 | ソニー株式会社 | Image display device and image display method |
WO2016158080A1 (en) * | 2015-03-30 | 2016-10-06 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and program |
US11151775B2 (en) | 2019-12-06 | 2021-10-19 | Toyota Jidosha Kabushiki Kaisha | Image processing apparatus, display system, computer readable recoring medium, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4724476B2 (en) | 2011-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20060050070A1 (en) | Information processing apparatus and method for presenting image combined with virtual image | |
US10861244B2 (en) | Technique for recording augmented reality data | |
US8139087B2 (en) | Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program | |
US7292240B2 (en) | Virtual reality presentation device and information processing method | |
US11865448B2 (en) | Information processing apparatus and user guide presentation method | |
US11277603B2 (en) | Head-mountable display system | |
US20130113701A1 (en) | Image generation device | |
CN111602100A (en) | Method, device and system for providing alternative reality environment | |
JP2007042055A (en) | Image processing method and image processor | |
JP2005165776A (en) | Image processing method and image processor | |
JP4724476B2 (en) | Information processing method and apparatus | |
JP2006285609A (en) | Image processing method, image processor | |
JP2005174021A (en) | Method and device for presenting information | |
JP2018094189A (en) | Display control device and program | |
JP2022121443A (en) | Information processing apparatus, user guide presentation method, and head mounted display | |
US10506211B2 (en) | Recording medium, image generation apparatus, and image generation method | |
JP2012105200A (en) | Three-dimensional content display device and three-dimensional content display method | |
JP7325833B2 (en) | Game program, game processing method, and game device | |
JP7319686B2 (en) | Game program, game processing method, and game device | |
US20240078767A1 (en) | Information processing apparatus and information processing method | |
WO2021153413A1 (en) | Information processing device, information processing system, and information processing method | |
JP2004013309A (en) | Information processing method and apparatus for presenting augmented reality | |
JP2017033312A (en) | Video construction device, pseudo visual sensation experience system and video construction program | |
JP2005165973A (en) | Image processing method and image processing device | |
CN112189340A (en) | 3DAR content creation device, 3DAR content reproduction device, and 3DAR content creation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080530 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101005 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110405 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110411 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140415 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4724476 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |