JP2006107437A - Information processing method and apparatus - Google Patents

Information processing method and apparatus Download PDF

Info

Publication number
JP2006107437A
JP2006107437A JP2005177964A JP2005177964A JP2006107437A JP 2006107437 A JP2006107437 A JP 2006107437A JP 2005177964 A JP2005177964 A JP 2005177964A JP 2005177964 A JP2005177964 A JP 2005177964A JP 2006107437 A JP2006107437 A JP 2006107437A
Authority
JP
Japan
Prior art keywords
user
image
virtual world
information processing
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005177964A
Other languages
Japanese (ja)
Other versions
JP4724476B2 (en
Inventor
Taichi Matsui
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005177964A priority Critical patent/JP4724476B2/en
Publication of JP2006107437A publication Critical patent/JP2006107437A/en
Application granted granted Critical
Publication of JP4724476B2 publication Critical patent/JP4724476B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing method and apparatus for preventing a user from feeling anxiety caused by the user's feet being invisible because of computer graphics. <P>SOLUTION: When generating a virtual world image and presenting an image generated by combining a real space image with the generated virtual world image to the user, the position/posture of the user is acquired (step S100). When the user is inside a virtual structure, both an object inside the structure and a transparent object are generated (step S120), and the generated objects are combined with the real space image (step S140). By displaying the composite image (step S160), the real image is displayed for the user's feet. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、情報処理方法及び装置に関し、特に、現実世界に仮想画像を合成した画像をユーザに提示する情報処理装置及び方法に関する。   The present invention relates to an information processing method and apparatus, and more particularly, to an information processing apparatus and method for presenting a user with an image obtained by synthesizing a virtual image in the real world.

バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元CG(コンピュータグラフィックス)をユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また、近年現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augmented Reality,拡張現実感)システムや特許文献1に記載されているようなMR(Mixed Reality,複合現実感)システムと呼ばれている。   A virtual reality (VR) system is a system that makes a virtual space feel as if it is real by presenting a computer with three-dimensional CG (computer graphics) created by a computer. In recent years, a technology for presenting information that does not exist in the real world to the user by synthesizing 3D CG with real-world images has also been developed, such as AR (Augmented Reality) system and patent literature. 1 is called an MR (Mixed Reality) system.

MRシステムでは、現実の物体に三次元CGを重ねて見ることが可能であり、現実物体に仮想物体を重畳することで、ユーザが自由に仮想物体を操ることができるシステムが提案されている(例えば、特許文献1を参照)。
特開平11−136706号公報
In the MR system, it is possible to see a 3D CG superimposed on a real object, and a system is proposed in which a user can freely manipulate a virtual object by superimposing a virtual object on the real object ( For example, see Patent Document 1).
Japanese Patent Laid-Open No. 11-136706

通常、MRシステムにおいては現実画像よりもCGを画面の前面に表示するために、ユーザの視点からは自らの手元や足元がCGによって隠されてしまうことがあった。例えば、バーチャル建造物の屋内を体験するMRシステムでは、ユーザがバーチャル建造物の屋内に移動した場合は、ユーザの周りが全てバーチャルの床や壁で覆われてしまう。従って、このようなシステムにおいては、ユーザの手元がCGで隠れてしまい、何かを操作するときに不便を感じる。   Usually, in the MR system, since the CG is displayed in front of the screen rather than the actual image, the user's hand and feet may be hidden by the CG from the user's viewpoint. For example, in an MR system for experiencing the inside of a virtual building, when the user moves into the virtual building, the entire area around the user is covered with a virtual floor or wall. Therefore, in such a system, the user's hand is hidden by the CG, and inconvenience is felt when operating something.

また、ユーザの足元が隠されてしまうと、ユーザは、不安感を感じてしまう。   Moreover, if a user's step is hidden, a user will feel anxiety.

本発明は、この点に鑑みてなされたものであり、ユーザの足元がCGによって隠されてしまうことにより体験者であるユーザが不安感を感じることを抑制することを目的とする。   This invention is made | formed in view of this point, and it aims at suppressing that the user who is an experience person feels anxiety because a user's step is hidden by CG.

また、MRの特徴を生かし、ユーザの足元の現実空間を見ることが出来るようにすることを目的とする。   It is another object of the present invention to make it possible to see the real space at the user's feet by utilizing the features of MR.

上記目的を達成するために、本発明の情報処理方法は、仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理方法であって、ユーザの位置姿勢を取得する取得工程と、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成工程とを有し、前記生成工程は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする。   In order to achieve the above object, an information processing method of the present invention is an information processing method for generating an image of a virtual world and presenting to the user an image in which the image of the virtual world is synthesized in a real space. An acquisition step of acquiring the position and orientation of the user, and a generation step of generating an image of the virtual world according to the position and orientation of the user from the position and orientation of the user and the CG data of the virtual world, The virtual world image is generated so that a real space image is displayed at the user's foot.

また、本発明の情報処理装置は、仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置であって、ユーザの位置姿勢を取得する取得手段と、前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成手段とを有し、前記生成手段は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする。   The information processing apparatus according to the present invention is an information processing apparatus that generates a virtual world image and presents to the user an image obtained by synthesizing the virtual world image in real space, and acquires the position and orientation of the user. Obtaining means; and generating means for generating a virtual world image corresponding to the position and orientation of the user from the user's position and orientation and CG data of the virtual world; and The virtual world image is generated so that a real space image is displayed.

本発明によれば、ユーザの足元の現実世界の画像が表示されることにより、ユーザの足元の現実世界の画像が見えないというユーザの不安感をなくすことができる。   According to the present invention, since the real world image at the user's foot is displayed, the user's anxiety that the real world image at the user's foot cannot be seen can be eliminated.

以下、本発明の一実施の形態を、図面を用いて詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
本実施の形態では、バーチャル建造物の屋内を体験可能であるMRシステムについて説明する。
(Embodiment 1)
In the present embodiment, an MR system capable of experiencing the inside of a virtual building will be described.

まず、システムの構成全体を説明する。   First, the entire system configuration will be described.

図1は、本実施の形態のシステム構成を表した図である。図1において、システム制御部101は、本システム全体をコントロールするユニットであり、画像入力部102、画像合成部103、画像出力部104、カメラ位置姿勢計測部105、仮想世界生成部106を備えている。   FIG. 1 is a diagram showing the system configuration of the present embodiment. In FIG. 1, a system control unit 101 is a unit that controls the entire system, and includes an image input unit 102, an image composition unit 103, an image output unit 104, a camera position and orientation measurement unit 105, and a virtual world generation unit 106. Yes.

ビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)132は、カメラ133、画像出力部134、画像入力部135、画像表示部136を備えている。カメラ133は、ユーザの右眼と左眼のそれぞれに対応するように2台設置されている。また、画像表示部126は、ユーザの右眼用と左眼用の表示部を備えている。   The video see-through head mounted display (HMD) 132 includes a camera 133, an image output unit 134, an image input unit 135, and an image display unit 136. Two cameras 133 are installed so as to correspond to the right eye and the left eye of the user, respectively. The image display unit 126 includes a display unit for the right eye and the left eye of the user.

次に、上述の構成の本システムのデータの流れについて説明する。   Next, the data flow of the system configured as described above will be described.

ユーザの頭部に装着されたHMD132のカメラ133は、ユーザの右眼及び左眼から見えるそれぞれの現実空間を画像として撮像する。画像出力部134は、カメラ133により撮像された現実空間の画像をシステム制御部101の画像入力部102に送信する。   The camera 133 of the HMD 132 mounted on the user's head captures each real space that can be seen from the user's right eye and left eye as an image. The image output unit 134 transmits the real space image captured by the camera 133 to the image input unit 102 of the system control unit 101.

カメラ位置姿勢計測部105は、例えば、不図示の磁気式位置姿勢センサーの利用やカメラ133からの入力画像によるカメラ位置姿勢の推定等によりカメラ133の位置(即ち、ユーザの位置)と、カメラの姿勢(即ち、ユーザの姿勢(視線方向))を計測する。仮想世界生成部106は、カメラ位置姿勢計測部105により計測された位置姿勢情報および予め保持されているシーングラフに基づき、カメラ133の位置姿勢から見た三次元CG画像を生成する。   The camera position / orientation measurement unit 105 uses, for example, a magnetic position / orientation sensor (not shown) or estimates a camera position / orientation based on an input image from the camera 133. The posture (that is, the posture of the user (gaze direction)) is measured. The virtual world generation unit 106 generates a three-dimensional CG image viewed from the position and orientation of the camera 133 based on the position and orientation information measured by the camera position and orientation measurement unit 105 and a scene graph held in advance.

ここで、シーングラフとは仮想空間の構造を示すものであり、例えば、CGオブジェクト間の位置関係、幾何情報などを定義するものである。本実施の形態では、ユーザが体験する仮想世界を定義するオブジェクトに加えて、足元に現実空間画像を表示するために透明床オブジェクトが記述されている。   Here, the scene graph indicates the structure of the virtual space, and defines, for example, the positional relationship between CG objects, geometric information, and the like. In the present embodiment, a transparent floor object is described in order to display a real space image at the foot in addition to the object defining the virtual world experienced by the user.

画像合成部103は、画像入力部102により受信した現実空間の画像と、仮想世界生成部106により生成された仮想空間画像(三次元CG画像)を合成することにより複合現実空間画像を生成し、画像出力部104に送信する。画像出力部104は、画像合成部103により合成された複合現実空間画像をHMD132の画像入力部135に送信する。画像入力部135は、画像出力部104より送信された複合現実空間画像を受信する。画像表示部136は、画像入力部105により受信した複合現実空間画像を、右眼用と左眼用の表示部にそれぞれ表示する。その複合現実空間画像を、ユーザが観察することができる。   The image composition unit 103 generates a mixed reality space image by combining the real space image received by the image input unit 102 and the virtual space image (three-dimensional CG image) generated by the virtual world generation unit 106, The image is transmitted to the image output unit 104. The image output unit 104 transmits the mixed reality space image synthesized by the image synthesis unit 103 to the image input unit 135 of the HMD 132. The image input unit 135 receives the mixed reality space image transmitted from the image output unit 104. The image display unit 136 displays the mixed reality space image received by the image input unit 105 on the right-eye display unit and the left-eye display unit, respectively. The mixed reality space image can be observed by the user.

このようなシステムによれば、HMDを装着したユーザの位置姿勢に応じた複合現実空間画像を表示することができる。したがって、ユーザは、MR空間を自由に体験することができる。   According to such a system, a mixed reality space image corresponding to the position and orientation of the user wearing the HMD can be displayed. Therefore, the user can freely experience the MR space.

図2に、本実施の形態で用いるシーングラフのツリー構造を示す。   FIG. 2 shows a tree structure of a scene graph used in this embodiment.

本実施の形態は、バーチャル建造物を体験可能なMRシステムであるので、バーチャル建造物に関するオブジェクトを示す仮想世界のシーン202、およびCGの床を透過させ現実空間画像を表示するためのオブジェクトである透過床201を有する。   Since this embodiment is an MR system capable of experiencing a virtual building, it is an object for displaying a real space image through a virtual world scene 202 showing objects related to the virtual building and the CG floor. It has a permeable bed 201.

仮想世界のシーン202は、床、壁、屋根などのバーチャル建造物の屋内に関するオブジェクト203〜205と外観等に関するオブジェクトを示すその他オブジェクト206が含まれる。よって、ユーザがバーチャル建造物の屋内に入った場合は、壁や屋根だけでなく、ユーザの足元にも床のCGが存在することになる。   The virtual world scene 202 includes objects 203 to 205 related to the interior of the virtual building such as a floor, a wall, and a roof, and other objects 206 indicating objects related to the appearance and the like. Therefore, when the user enters the virtual building indoors, not only the wall and roof, but also the floor CG exists at the user's feet.

透明床201のオブジェクトは、その属性が透明のオブジェクトであり、仮想世界のシーン202より先に検索されるパス上に存在する。オブジェクトの平面の大きさは、ユーザの足元において、仮想世界の画像を透過させ現実世界を表示させたいサイズが設定されている。そして、オブジェクトの平面の高さは、シーンの床と同一の厚さかもしくは多少厚い程度の厚さが設定されている。   The object of the transparent floor 201 is an object whose attribute is transparent, and exists on a path searched before the scene 202 of the virtual world. The size of the plane of the object is set so that the virtual world image is transmitted and the real world is displayed at the user's feet. The height of the plane of the object is set to the same thickness as the floor of the scene or a thickness that is somewhat thick.

例えば、床203のオブジェクトの厚さが10mmのときに、半径1mの円の領域について現実画像を表示させたい場合は、透明床201のオブジェクトとして高さ12mmで半径1mの円柱を設定する。   For example, when the thickness of the object on the floor 203 is 10 mm and a real image is to be displayed for a circular area having a radius of 1 m, a cylinder having a height of 12 mm and a radius of 1 m is set as the object of the transparent floor 201.

このようなシーングラフを有することにより、床203よりも透明床が優先的に描画される。よって、画像合成部103において、現実画像と透明画像を合成することになり、結果的に、透明床201の領域に現実画像が表示されるようになる。   By having such a scene graph, the transparent floor is preferentially drawn over the floor 203. Therefore, the image composition unit 103 composes the real image and the transparent image, and as a result, the real image is displayed in the area of the transparent floor 201.

また、透明オブジェクトは、カメラ133の水平移動(即ち、ユーザの移動)に追従する。カメラ位置姿勢計測部105から出力された位置情報に基づき、透明オブジェクトの水平位置を設定し、高さ(垂直位置)は仮想世界の床面と同一平面上の高さを設定する。このように、仮想世界の床面と同一平面上にして、水平位置だけカメラ133の水平移動に追従させることができ、常に透明オブジェクトがユーザの鉛直下方部に配置されることになり、ユーザの足元において現実空間を透過させることができる。仮想世界の床面の高さが変化するときは、透明オブジェクトの高さも連動して変化する。これによって、床面の高さを変化させるようなアプリケーションにおいても、常に仮想の床面が透過される。   The transparent object follows the horizontal movement of the camera 133 (that is, the movement of the user). Based on the position information output from the camera position / orientation measurement unit 105, the horizontal position of the transparent object is set, and the height (vertical position) is set to the same level as the floor of the virtual world. In this way, it is possible to follow the horizontal movement of the camera 133 by the horizontal position on the same plane as the floor of the virtual world, and the transparent object is always arranged in the vertical lower part of the user. The real space can be transmitted at the foot. When the height of the floor of the virtual world changes, the height of the transparent object also changes. Thus, the virtual floor surface is always transmitted even in an application that changes the height of the floor surface.

透明オブジェクトは仮想床面に位置する床面と同程度の厚みしかないので、透明オブジェクトの鉛直上方向にある仮想物体を透過させて見えなくさせることはない。   Since the transparent object has only the same thickness as the floor surface located on the virtual floor surface, the transparent object in the vertically upward direction of the transparent object is not transmitted and is not invisible.

なお、グラフィックライブラリによっては自動的に透明オブジェクトの順序を入れ替えて、透明オブジェクトの先にあるオブジェクトを表示しようとするものがある。このようなグラフィックライブラリの場合には順序を入れ替えずにそのまま合成表示するモードを選択するようにする。   Note that some graphic libraries automatically change the order of transparent objects and try to display objects ahead of the transparent objects. In the case of such a graphic library, the mode for combining and displaying the image as it is without changing the order is selected.

ここで、本実施の形態のMRシステムを体験する空間について、説明する。図3は、本実施の形態のMRシステムを体験することができる空間を示す図である。   Here, a space for experiencing the MR system of the present embodiment will be described. FIG. 3 is a diagram showing a space where the MR system of the present embodiment can be experienced.

図3における空間は、現実世界の床、壁、及び、天井により囲われており、領域301にバーチャル建物が表示される。ユーザが領域301の外側に位置するとき(例えば、302で示す位置)は、バーチャル建造物の外観を見ることができ、領域301の内側に位置するとき(例えば、303で示す位置)は、バーチャル建造物の内部を見ることができる。   The space in FIG. 3 is surrounded by a floor, wall, and ceiling in the real world, and a virtual building is displayed in an area 301. When the user is located outside the area 301 (for example, the position indicated by 302), the appearance of the virtual building can be seen. When the user is located inside the area 301 (for example, the position indicated by 303), the virtual building is viewed. You can see the inside of the building.

次に、本実施の形態の処理を図4に示すフローチャートに従って、説明する。   Next, the processing of this embodiment will be described according to the flowchart shown in FIG.

まず、ステップS100において、カメラ位置姿勢計測部105が、カメラ133の位置姿勢(即ち、ユーザの位置及び姿勢)を計測する。   First, in step S100, the camera position and orientation measurement unit 105 measures the position and orientation of the camera 133 (that is, the position and orientation of the user).

次に、ステップS110において、仮想世界生成部106は、計測された位置姿勢に基づき、バーチャル建造物内である否かを判断する。建造物内であると判断した場合、仮想世界生成部106は、透明オブジェクトと建造物の内部のオブジェクトに基づき、仮想空間画像を生成する(ステップS120)。また、建造物でないと判断した場合、仮想世界生成部106は、建造物の外部のオブジェクトに基づき、仮想空間画像を生成する(ステップS130)。   Next, in step S <b> 110, the virtual world generation unit 106 determines whether or not it is in a virtual building based on the measured position and orientation. When it is determined that the object is inside the building, the virtual world generation unit 106 generates a virtual space image based on the transparent object and the object inside the building (step S120). If it is determined that the object is not a building, the virtual world generation unit 106 generates a virtual space image based on an object outside the building (step S130).

次に、画像合成部103は、ステップS120又はステップS130において生成された仮想空間画像と、画像入力部102により受信した現実空間の画像とを合成する(ステップS140)。画像出力部104は、合成された画像をHMD132に出力する(ステップS150)。そして、HMD132において、画像表示部136の右眼用と左眼用のそれぞれの表示部に画像が表示される(ステップS160)。   Next, the image composition unit 103 synthesizes the virtual space image generated in step S120 or step S130 and the real space image received by the image input unit 102 (step S140). The image output unit 104 outputs the synthesized image to the HMD 132 (step S150). Then, in the HMD 132, images are displayed on the display units for the right eye and the left eye of the image display unit 136 (step S160).

ここで、図3、図5〜図8を用いて、本実施の形態における表示結果およびその効果を説明する。   Here, the display result and the effect in this Embodiment are demonstrated using FIG. 3, FIG. 5-FIG.

まず、従来のMRシステムすなわち透明オブジェクトを配置しない場合を説明する。   First, a conventional MR system, that is, a case where a transparent object is not arranged will be described.

図3の301は、現実世界におけるバーチャル建造物が表示される床の領域を表している。図5は、現実世界の床の領域301に仮想世界の床が重畳され、さらにそこにユーザが立っている様子を表している。この状態からユーザがHMDを通して鉛直下方向を見ると、従来は、図6のように床のCGしか見えなくなってしまう。これは床のCGが現実空間の画像を覆い隠してしまうためである。このように、足元がCGによって隠されてしまうと体験者は不安感を感じることになる。   Reference numeral 301 in FIG. 3 represents a floor area where a virtual building in the real world is displayed. FIG. 5 shows a state where a virtual world floor is superimposed on a real world floor area 301 and a user stands there. When the user looks vertically downward through the HMD from this state, conventionally, only the CG on the floor can be seen as shown in FIG. This is because the CG on the floor covers and hides the image in the real space. As described above, if the feet are hidden by the CG, the experience person feels anxiety.

次に、本実施の形態のMRシステム、すなわち透明オブジェクトを配置した場合を説明する。本実施の形態では、透明オブジェクトを仮想世界の床と同一平面上に配置している。よって、ユーザの鉛直下方部には円柱の透明オブジェクトが置かれ、現実世界の画像が透過して見える。図7は、現実世界の床に仮想世界の床および透明オブジェクト501を重畳し、さらにそこにユーザが立っている様子を表している。この状態でユーザがHMDを通して鉛直下方向を見ると、図8のように透明オブジェクトの形状だけユーザの足を含む現実空間が透過して見える。したがって、足元がCGによって隠されてしまうことにより体験者が不安感を感じることを抑制することができる。   Next, an MR system according to the present embodiment, that is, a case where a transparent object is arranged will be described. In the present embodiment, the transparent object is arranged on the same plane as the floor of the virtual world. Therefore, a cylindrical transparent object is placed in the vertically lower part of the user, and the real world image appears to be transparent. FIG. 7 shows a state in which the virtual world floor and the transparent object 501 are superimposed on the real world floor, and the user stands there. When the user looks vertically downward through the HMD in this state, the real space including the user's feet is seen through only the shape of the transparent object as shown in FIG. Therefore, it can be suppressed that the experience person feels anxiety because his / her feet are hidden by CG.

また、この現実世界の画像領域であれば手元も確認することができるので、手元での操作を現実世界の画像を確認しながら行うことができる。よって、CGによって手元が隠れてしまう場合に比べて、手元での操作を簡単に行うことができる。   In addition, since the hand can be confirmed in the real-world image area, the operation at hand can be performed while confirming the real-world image. Therefore, compared with the case where the hand is hidden by CG, the operation at hand can be easily performed.

ここで、足元とは、上述の如くユーザの位置を中心とする所定範囲を指すが、次に述べるようにユーザの位置からユーザの進行方向の所定範囲又は、ユーザの位置から所定の距離だけ離れた所定の範囲を示すものである。   Here, the foot refers to a predetermined range centered on the user's position as described above. As described below, the foot is a predetermined range in the user's traveling direction or a predetermined distance from the user's position as described below. The predetermined range is shown.

(他の実施の形態−透明オブジェクトの変形例)
上記実施の形態では、透明オブジェクトとして円柱を用いているが、直方体などの他の形状を用いても構わない。
(Other Embodiments—Modification of Transparent Object)
In the above embodiment, a cylinder is used as the transparent object, but other shapes such as a rectangular parallelepiped may be used.

また、ユーザの移動速度に応じて透明オブジェクトが変形するようにしても良い。例えば、透明オブジェクトの形状として図9に示すような楕円柱を用いる(楕円柱を、上から見た状態を示す)。その楕円柱の長径の方向とユーザの進行方向を一致させ(図に示す矢印の方向がユーザの進行方向と一致する)、ユーザの進行方向の指標となるようにする。そして長径/短径は移動速度に比例して変化させ、ユーザに現在の移動速度を伝える指標とする。   The transparent object may be deformed according to the moving speed of the user. For example, an elliptical cylinder as shown in FIG. 9 is used as the shape of the transparent object (the elliptical cylinder is seen from above). The direction of the major axis of the elliptical cylinder and the direction of travel of the user are matched (the direction of the arrow shown in the figure matches the direction of travel of the user) so that it becomes an indicator of the direction of travel of the user. The major axis / minor axis is changed in proportion to the moving speed, and is used as an index for transmitting the current moving speed to the user.

また、楕円柱の長径の方向とユーザの視線方向を一致させる(図に示す矢印の方向がユーザの視線方向と一致する)ようにしてもよい。   Further, the direction of the major axis of the elliptic cylinder and the direction of the user's line of sight may be matched (the direction of the arrow shown in the figure matches the direction of the user's line of sight).

ここで、図中の破線の円は、ユーザの位置を示している。このように、楕円柱の中心位置から進行方向、または、視線方向へずらすようにしても良い。   Here, the broken-line circle in the figure indicates the position of the user. In this way, it may be shifted from the center position of the elliptical column in the traveling direction or the line-of-sight direction.

更に、円柱、楕円柱の他に、図10、図11に示す形状の透明オブジェクトを用いても良い(両図とも、上から見た状態を示す)。   Furthermore, a transparent object having the shape shown in FIGS. 10 and 11 may be used in addition to the cylindrical and elliptical cylinders (both figures show a state viewed from above).

図10における形状は、ユーザの位置から見て進行方向(又は、視線方向)が拡がっている形状の図形である。このような形状にすることにより、確実に足元を確認することができる。   The shape in FIG. 10 is a figure having a shape in which the traveling direction (or line-of-sight direction) is widened when viewed from the user's position. By using such a shape, it is possible to confirm the foot securely.

図11における形状は、ドーナッツ状の透明オブジェクトであり、ユーザの位置そのものは、仮想の床が描画されるが、その周囲のドーナツ状の範囲は、現実世界の床が描画されることになる。透明オブジェクトをドーナツ形状とすることにより、ユーザの位置の画像を確認することができると共に、ユーザの不安を解消することができる。   The shape in FIG. 11 is a donut-shaped transparent object, and a virtual floor is drawn in the user's position itself, but the real-world floor is drawn in the surrounding donut-shaped range. By making the transparent object into a donut shape, the user's position image can be confirmed and the user's anxiety can be resolved.

また、バーチャル建造物の屋内を体験可能であるMRシステムではなく、他の仮想世界を体験するMRシステムでも構わない。体験者の足元にCGが重畳されるものであれば構わない。   Further, an MR system for experiencing another virtual world may be used instead of the MR system capable of experiencing the inside of a virtual building. It does not matter as long as CG is superimposed on the feet of the experience person.

また、透過床の配置位置は、仮想世界の床と大略同一平面上に配置されれば構わない。つまり、カメラの位置姿勢情報および仮想世界の床の配置情報に基づき、動的に設定されれば構わない。例えば、多少、透過床の配置位置が仮想世界の床よりも視点位置に近い位置に設定されても構わない。   Further, the transmission floor may be arranged on substantially the same plane as the floor of the virtual world. In other words, it may be set dynamically based on the position and orientation information of the camera and the floor arrangement information of the virtual world. For example, the arrangement position of the transparent floor may be set to a position closer to the viewpoint position than the floor of the virtual world.

また、透明オブジェクトの境界においてαブレンディングを制御することにより、透明オブジェクトと床オブジェクトの境界がぼけるような処理を追加しても構わない。   Further, by controlling the α blending at the boundary between the transparent objects, a process for blurring the boundary between the transparent object and the floor object may be added.

また、前述した実施例の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能(例えば、画像合成部103および仮想世界生成部106の機能)を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。   Further, the functions of the above-described embodiment (for example, the image composition unit 103 and the computer) are connected to an apparatus or a computer in the system connected to the various devices so as to operate the various devices so as to realize the functions of the above-described embodiments. Implemented by supplying software program code for realizing the functions of the virtual world generation unit 106 and operating the various devices according to the stored program in the system or apparatus computer (CPU or MPU) Are also included in the scope of the present invention.

この場合、前記ソフトウエアのプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。   In this case, the program code of the software itself realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, a memory storing the program code The medium constitutes the present invention.

かかるプログラムコードを格納する記憶媒体としては例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。   As a storage medium for storing the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施例の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。   Further, by executing the program code supplied by the computer, not only the functions of the above-described embodiments are realized, but also the OS (operating system) in which the program code is running on the computer, or other application software, etc. Needless to say, the program code is also included in the embodiment of the present invention even when the functions of the above-described embodiments are realized in cooperation with the embodiment.

更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。   Further, the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, and then the CPU provided in the function expansion board or function storage unit based on the instruction of the program code However, it is needless to say that the present invention also includes a case where the function of the above-described embodiment is realized by performing part or all of the actual processing.

実施の形態のシステムの構成を示した図である。It is a figure showing composition of a system of an embodiment. 実施の形態における仮想世界のシーングラフを表した図である。It is a figure showing the scene graph of the virtual world in embodiment. 実施の形態におけるMRシステムを体験することができる空間を表した図である。It is a figure showing the space which can experience MR system in an embodiment. 実施の形態の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of embodiment. 複合現実空間上にユーザが立っている様子を表した図である。It is a figure showing a mode that the user is standing on mixed reality space. 複合現実空間上のユーザが鉛直下方部を見たときの図である。It is a figure when the user on mixed reality space looks at the perpendicular lower part. 透明オブジェクトを配置した複合現実空間上にユーザが立っている様子を表した図である。It is a figure showing a mode that the user has stood on the mixed reality space which has arrange | positioned the transparent object. 透明オブジェクトを配置した複合現実空間上のユーザが鉛直下方部を見た図である。It is the figure on the mixed reality space which has arrange | positioned the transparent object which looked at the vertically downward part. 透明オブジェクトの他の形状を示す図である。It is a figure which shows the other shape of a transparent object. 透明オブジェクトの他の形状を示す図である。It is a figure which shows the other shape of a transparent object. 透明オブジェクトの他の形状を示す図である。It is a figure which shows the other shape of a transparent object.

符号の説明Explanation of symbols

101 システム制御部
102 画像入力部
103 画像合成部
104 画像出力部
105 カメラ位置姿勢計測部
106 仮想世界生成部
132 HMD
133 カメラ
134 画像出力部
135 画像入力部
136 画像表示部
DESCRIPTION OF SYMBOLS 101 System control part 102 Image input part 103 Image composition part 104 Image output part 105 Camera position and orientation measurement part 106 Virtual world generation part 132 HMD
133 Camera 134 Image output unit 135 Image input unit 136 Image display unit

Claims (10)

仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理方法であって、
ユーザの位置姿勢を取得する取得工程と、
前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成工程とを有し、
前記生成工程は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする情報処理方法。
An information processing method for generating an image of a virtual world and presenting an image obtained by synthesizing the image of the virtual world in a real space to a user,
An acquisition step of acquiring the position and orientation of the user;
Generating a virtual world image corresponding to the user's position and orientation from the user's position and orientation and virtual world CG data;
The information processing method characterized in that the generation step generates an image of the virtual world so that a real space image is displayed at a step of the user.
前記仮想世界のCGデータには、ユーザの足元に描画するための透明オブジェクトが含まれ、
前記透明オブジェクトの位置を、前記位置姿勢に応じて設定する設定工程とを有し、
前記設定工程により設定された前記透明オブジェクトが前記仮想世界の画像を透明にすることで現実空間画像が表示されることを特徴とする請求項1に記載の情報処理方法。
The CG data of the virtual world includes a transparent object for drawing at the user's feet,
A setting step of setting the position of the transparent object according to the position and orientation;
The information processing method according to claim 1, wherein a real space image is displayed when the transparent object set in the setting step makes the image of the virtual world transparent.
前記仮想世界はバーチャル建造物の屋内であり、
前記仮想世界のCGデータは床オブジェクトを含み、
前記設定工程は、前記透明オブジェクトの位置姿勢を前記床オブジェクトと大略同一平面上に位置するように設定することを特徴とする請求項2に記載の情報処理方法。
The virtual world is inside a virtual building;
The virtual world CG data includes a floor object;
The information processing method according to claim 2, wherein the setting step sets the position and orientation of the transparent object so as to be positioned substantially on the same plane as the floor object.
前記設定工程は、前記床オブジェクトの鉛直方向の位置に応じて、透明オブジェクトの鉛直方向の位置を設定することを特徴とする請求項2に記載の情報処理方法。   The information processing method according to claim 2, wherein the setting step sets a vertical position of the transparent object in accordance with a vertical position of the floor object. ユーザの水平方向の移動に応じて、透明オブジェクトを水平移動させることにより、常にユーザの鉛直下方向に前記透明オブジェクトを配置することを特徴とする請求項2に記載の情報処理方法。   The information processing method according to claim 2, wherein the transparent object is always arranged in a vertically downward direction of the user by horizontally moving the transparent object in accordance with the movement of the user in the horizontal direction. ユーザの位置の移動に応じて、前記透明オブジェクトの大きさが変化することを特徴とする請求項2に記載の情報処理方法。   The information processing method according to claim 2, wherein the size of the transparent object changes according to movement of a user's position. ユーザの位置に応じて、ユーザの位置の前方と後方とで前記透明オブジェクトの大きさが異なることを特徴とする請求項2に記載の情報処理方法。   The information processing method according to claim 2, wherein the size of the transparent object is different between a front position and a rear position of the user position according to the position of the user. ユーザの位置が所定の領域内であるか否かを判断する判断工程を更に有し、
前記生成工程は、前記判断工程により所定の領域内にユーザの位置がある場合、ユーザの足元に対して現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする請求項1に記載の情報処理方法。
A determination step of determining whether the user's position is within a predetermined area;
The generating step generates an image of the virtual world so that a real space image is displayed on a user's foot when the position of the user is within a predetermined area in the determining step. Item 6. The information processing method according to Item 1.
請求項1乃至8のいずれか1項に記載の情報処理方法をコンピュータにて実現するためのプログラム。   The program for implement | achieving the information processing method of any one of Claim 1 thru | or 8 with a computer. 仮想世界の画像を生成し、現実空間に前記仮想世界の画像が合成された画像をユーザに提示する情報処理装置であって、
ユーザの位置姿勢を取得する取得手段と、
前記ユーザの位置姿勢と仮想世界のCGデータから、前記ユーザの位置姿勢に応じた仮想世界の画像を生成する生成手段とを有し、
前記生成手段は、前記ユーザの足元に対しては現実空間画像が表示されるように前記仮想世界の画像を生成することを特徴とする情報処理装置。
An information processing apparatus that generates an image of a virtual world and presents an image obtained by combining the virtual world image in a real space to a user,
Acquisition means for acquiring the position and orientation of the user;
Generating means for generating a virtual world image according to the position and orientation of the user from the user's position and orientation and virtual world CG data;
The information processing apparatus is characterized in that the generation means generates the image of the virtual world so that a real space image is displayed at a step of the user.
JP2005177964A 2004-09-07 2005-06-17 Information processing method and apparatus Active JP4724476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005177964A JP4724476B2 (en) 2004-09-07 2005-06-17 Information processing method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004259626 2004-09-07
JP2004259626 2004-09-07
JP2005177964A JP4724476B2 (en) 2004-09-07 2005-06-17 Information processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2006107437A true JP2006107437A (en) 2006-04-20
JP4724476B2 JP4724476B2 (en) 2011-07-13

Family

ID=36377043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005177964A Active JP4724476B2 (en) 2004-09-07 2005-06-17 Information processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4724476B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211251A (en) * 2008-03-03 2009-09-17 Dainippon Printing Co Ltd Expanded reality-sense display device
JP2010026905A (en) * 2008-07-23 2010-02-04 Sammy Corp Image generation device, game machine and program
JP2015064868A (en) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 Information processing system and processing method and program therefor
WO2016158080A1 (en) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JPWO2015111283A1 (en) * 2014-01-23 2017-03-23 ソニー株式会社 Image display device and image display method
US11151775B2 (en) 2019-12-06 2021-10-19 Toyota Jidosha Kabushiki Kaisha Image processing apparatus, display system, computer readable recoring medium, and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269593A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing device and method, and storage medium
JP2004038470A (en) * 2002-07-02 2004-02-05 Canon Inc Augmented reality system and information processing method
JP2004234253A (en) * 2003-01-29 2004-08-19 Canon Inc Method for presenting composite sense of reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269593A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing device and method, and storage medium
JP2004038470A (en) * 2002-07-02 2004-02-05 Canon Inc Augmented reality system and information processing method
JP2004234253A (en) * 2003-01-29 2004-08-19 Canon Inc Method for presenting composite sense of reality

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211251A (en) * 2008-03-03 2009-09-17 Dainippon Printing Co Ltd Expanded reality-sense display device
JP2010026905A (en) * 2008-07-23 2010-02-04 Sammy Corp Image generation device, game machine and program
JP2015064868A (en) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 Information processing system and processing method and program therefor
JPWO2015111283A1 (en) * 2014-01-23 2017-03-23 ソニー株式会社 Image display device and image display method
WO2016158080A1 (en) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US11151775B2 (en) 2019-12-06 2021-10-19 Toyota Jidosha Kabushiki Kaisha Image processing apparatus, display system, computer readable recoring medium, and image processing method

Also Published As

Publication number Publication date
JP4724476B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
US20060050070A1 (en) Information processing apparatus and method for presenting image combined with virtual image
US10861244B2 (en) Technique for recording augmented reality data
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
US7292240B2 (en) Virtual reality presentation device and information processing method
US11865448B2 (en) Information processing apparatus and user guide presentation method
US11277603B2 (en) Head-mountable display system
US20130113701A1 (en) Image generation device
CN111602100A (en) Method, device and system for providing alternative reality environment
JP2007042055A (en) Image processing method and image processor
JP2005165776A (en) Image processing method and image processor
JP4724476B2 (en) Information processing method and apparatus
JP2006285609A (en) Image processing method, image processor
JP2005174021A (en) Method and device for presenting information
JP2018094189A (en) Display control device and program
JP2022121443A (en) Information processing apparatus, user guide presentation method, and head mounted display
US10506211B2 (en) Recording medium, image generation apparatus, and image generation method
JP2012105200A (en) Three-dimensional content display device and three-dimensional content display method
JP7325833B2 (en) Game program, game processing method, and game device
JP7319686B2 (en) Game program, game processing method, and game device
US20240078767A1 (en) Information processing apparatus and information processing method
WO2021153413A1 (en) Information processing device, information processing system, and information processing method
JP2004013309A (en) Information processing method and apparatus for presenting augmented reality
JP2017033312A (en) Video construction device, pseudo visual sensation experience system and video construction program
JP2005165973A (en) Image processing method and image processing device
CN112189340A (en) 3DAR content creation device, 3DAR content reproduction device, and 3DAR content creation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080530

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4724476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150