JP2006268351A - Image processing method, and image processor - Google Patents
Image processing method, and image processor Download PDFInfo
- Publication number
- JP2006268351A JP2006268351A JP2005084510A JP2005084510A JP2006268351A JP 2006268351 A JP2006268351 A JP 2006268351A JP 2005084510 A JP2005084510 A JP 2005084510A JP 2005084510 A JP2005084510 A JP 2005084510A JP 2006268351 A JP2006268351 A JP 2006268351A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- orientation
- interface
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、仮想空間の画像を生成するための技術に関するものである。 The present invention relates to a technique for generating an image of a virtual space.
バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元CGをユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また近年、現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augumented Reality, 拡張現実感)システムやMR(Mixed Reality, 複合現実感)システムと呼ばれている。 A virtual reality (VR) system is a system that makes a virtual space feel as if it is real by presenting a computer with a three-dimensional CG created by a computer. In recent years, technology that presents users with information that does not exist in the real world by synthesizing 3D CG with real-world images has been developed, such as AR (Augumented Reality) systems and MR ( It is called a mixed reality system.
MRシステムでは、現実の物体に三次元CGを重ねることが可能である。り、例えば、特許文献1に示されるシステムでは、現実物体に仮想物体を重畳することで、ユーザが自由に仮想物体を操ることができるようになっている。 In the MR system, it is possible to superimpose 3D CG on a real object. For example, in the system disclosed in Patent Document 1, a virtual object is superimposed on a real object so that the user can freely manipulate the virtual object.
以降、仮想物体の操作の補助具となる現実物体を「仮想物体移動インターフェイス」と呼ぶ。 Hereinafter, a real object serving as an auxiliary tool for operating a virtual object is referred to as a “virtual object movement interface”.
特許文献1では仮想物体移動インターフェイスから他の仮想物体移動インターフェイスへの仮想物体の移動を実現している。
しかしながら、今までのシステムでは仮想物体を一つの仮想物体移動インターフェイスから他の仮想物体移動インターフェイスに受け渡すだけで、両者が結合し、一つの仮想物体移動インターフェイスに変移することはなかった。両者が別々の位置姿勢認識方法を有していた場合、両者が一体となるのはとても有効であると考えられる。 However, in conventional systems, only a virtual object is transferred from one virtual object movement interface to another virtual object movement interface, and both are combined and do not change to one virtual object movement interface. When both have separate position and orientation recognition methods, it is considered that it is very effective to integrate the two.
本発明は以上の問題に鑑みて成されたものであり、仮想物体の位置姿勢を操作するためのインターフェースが複数存在し、インターフェースの位置姿勢に仮想物体を配置する場合に、一部若しくは全部のインターフェースを一体化させて、1つのインターフェースとして仮想物体の位置姿勢を操作するためのインターフェースとするための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and there are a plurality of interfaces for operating the position and orientation of a virtual object, and when a virtual object is arranged at the position and orientation of the interface, some or all of the interfaces are provided. An object of the present invention is to provide a technique for integrating an interface into an interface for operating the position and orientation of a virtual object as one interface.
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。 即ち、観察者の視点の位置姿勢を取得する第1の取得工程と、
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得工程と、
前記第2の取得工程で取得したそれぞれの位置姿勢に仮想物体を配置する配置工程と、
前記配置工程で仮想物体が配置された仮想空間を、前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement. That is, a first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
An arrangement step of arranging a virtual object at each position and orientation acquired in the second acquisition step;
A generation step of generating an image that is visible when the virtual space in which the virtual object is arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An output step of outputting the image generated in the generation step to the outside.
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 即ち、観察者の視点の位置姿勢を取得する第1の取得手段と、
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得手段と、
前記第2の取得手段が取得したそれぞれの位置姿勢に仮想物体を配置する配置手段と、
前記配置手段によって仮想物体が配置された仮想空間を、前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, first acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
Arrangement means for arranging a virtual object at each position and orientation acquired by the second acquisition means;
Generating means for generating an image that is visible when the virtual space in which the virtual object is arranged by the arranging means is viewed from a viewpoint having the position and orientation acquired by the first acquiring means;
Output means for outputting the image generated by the generating means to the outside.
本発明の構成により、仮想物体の位置姿勢を操作するためのインターフェースが複数存在し、インターフェースの位置姿勢に仮想物体を配置する場合に、一部若しくは全部のインターフェースを一体化させて、1つのインターフェースとして仮想物体の位置姿勢を操作するためのインターフェースとすることができる。 According to the configuration of the present invention, when there are a plurality of interfaces for manipulating the position and orientation of the virtual object, and a virtual object is arranged at the position and orientation of the interface, a part of or all of the interfaces are integrated into one interface. As an interface for operating the position and orientation of the virtual object.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
図1は、本実施形態に係るシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、コンピュータ101、ビデオシースルー型HMD(以下、単にHMDと呼称する)132、トランスミッタ142、磁気式仮想物体移動インターフェース(以下、第1のインターフェースと呼称する)140、マーカ式仮想物体移動インターフェース(以下、第2のインターフェースと呼称する)141により構成されている。
FIG. 1 is a block diagram showing a functional configuration of a system according to the present embodiment. As shown in the figure, the system according to this embodiment includes a
先ず、HMD132について説明する。HMD132は同図に示す如く、画像入力部135、画像表示部136、カメラ133、画像出力部134、観察者視点位置姿勢計測部105により構成されている。
First, the HMD 132 will be described. As shown in the figure, the
画像入力部135は、コンピュータ101から送出された画像信号を受け、これを画像表示部136に出力するものである。画像表示部136は、HMD132を頭部に装着した観察者の眼前に位置するように、HMD132に取り付けられたものであり、画像入力部135から受けた画像信号に従った画像を表示する。これにより、観察者はコンピュータ101から送出された画像信号に従った画像を眼前に観察することができる。
The
カメラ133は、現実空間の動画像を撮像するものであり、撮像した各フレームの画像信号は順次画像出力部134によってコンピュータ101に送出される。
The
観察者視点位置姿勢計測部105は磁気式の位置姿勢センサである。現実空間中には磁界の発生源としてのトランスミッタ142が所定の位置に配置されており、磁界を発生している。よって、観察者視点位置姿勢計測部105は、自身の位置姿勢に応じた磁気の変化を検知し、検知結果を信号としてコンピュータ101に送出する。この検知結果は、センサ座標系(トランスミッタ142の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における観察者視点位置姿勢計測部105の位置姿勢を示すものである。
The observer viewpoint position and
第1のインターフェース140は、観察者が手に保持してその位置や姿勢を自在に操作可能なものであると共に、上記観察者視点位置姿勢計測部105と同様に、自身の位置姿勢に応じた磁気の変化を検知し、検知した結果を示す信号をコンピュータ101に送出する位置姿勢センサとして機能するものである。この検知結果は、センサ座標系における第1のインターフェース140の位置姿勢を示すものである。
The
第2のインターフェース141は、観察者が手に保持してその位置や姿勢を自在に操作可能なものであると共に、その表面にはこの第2のインターフェース141の位置姿勢を計測するために用いられるマーカが記されている。また、この第2のインターフェース141には、第1のインターフェース140と一体化するための構造が付加されている。第1のインターフェース140、第2のインターフェース141について詳しくは後述する。
The
次に、コンピュータ101について説明する。コンピュータ101は同図に示す如く、画像出力部104、画像合成部103、CG生成部106、画像入力部102、仮想物体移動インターフェース位置姿勢計測部109により構成されている。
Next, the
画像入力部102は、HMD132の画像出力部134から順次送出される各フレームの画像信号をデータとして受け、これを画像合成部103に出力する。
The
仮想物体移動インターフェース位置姿勢計測部109は、第1のインターフェース140から受けた信号を「センサ座標系おける第1のインターフェース140の位置姿勢(視点の位置姿勢)を示すデータ」として得る。
The virtual object movement interface position /
また、仮想物体移動インターフェース位置姿勢計測部109は、画像入力部102から入力される現実空間の画像中に第2のインターフェース141に記されているマーカが写っている場合には、このマーカを検出する事で、第2のインターフェース141のセンサ座標系における位置姿勢を求める。
In addition, the virtual object movement interface position /
そして仮想物体移動インターフェース位置姿勢計測部109は、求めた第1のインターフェース140のセンサ座標系における位置姿勢、第2のインターフェース141のセンサ座標系における位置姿勢をCG生成部106に出力する。
Then, the virtual object movement interface position /
また、仮想物体移動インターフェース位置姿勢計測部109には観察者視点位置姿勢計測部105から「センサ座標系における観察者視点位置姿勢計測部105の位置姿勢を示すデータ」が入力されるので、このデータに、予め計測しておいたカメラ133と観察者視点位置姿勢計測部105との位置姿勢関係を示すバイアス値を加えることで、センサ座標系おけるカメラ133の位置姿勢(視点の位置姿勢)を得る。
Further, since the virtual object movement interface position /
CG生成部106は先ず、仮想物体移動インターフェース位置姿勢計測部109から受けた「第1のインターフェース140の位置姿勢」に第1の仮想物体を配置すると共に、仮想物体移動インターフェース位置姿勢計測部109から受けた「第2のインターフェース141の位置姿勢」に第2の仮想物体を配置する。
First, the
そして、それぞれの仮想物体を配置した仮想空間を、仮想物体移動インターフェース位置姿勢計測部109から得た「センサ座標系における視点の位置姿勢を示すデータ」が示す位置姿勢の視点から見た場合に見える画像(仮想空間の画像)を生成する。なお、所定の位置姿勢に仮想物体を配置した仮想空間を所定の位置姿勢を有する視点から見た場合に見える画像を生成するための処理については周知の技術であるので、これに関する説明は省略する。
The virtual space in which each virtual object is arranged is seen when viewed from the viewpoint of the position and orientation indicated by the “data indicating the position and orientation of the viewpoint in the sensor coordinate system” obtained from the virtual object movement interface position and
画像合成部103は、CG生成部106が生成した仮想空間の画像を画像入力部102から得た現実空間上に重畳させ、複合現実空間の画像を生成する。そして画像出力部134は、画像合成部103が生成した複合現実空間画像をHMD132の画像入力部102に出力する。画像入力部102は、受けた複合現実空間画像を画像表示部136に出力するので、画像表示部136には観察者の視点の位置姿勢に応じた複合現実空間の画像が表示される。
The
これにより観察者は、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に見ることができる。また、この複合現実空間画像は、第1のインターフェース140の位置姿勢に第1の仮想物体が配置され、第2のインターフェース141の位置姿勢に第2の仮想物体が配置されたものとなっている。
Thereby, the observer can see the image of the mixed reality space according to the position and orientation of his / her viewpoint in front of the eyes. In addition, the mixed reality space image is obtained by arranging the first virtual object at the position and orientation of the
図9は、上記機能構成を有するコンピュータ101のハードウェア構成を示すブロック図である。
FIG. 9 is a block diagram showing a hardware configuration of the
901はCPUで、RAM902やROM903に格納されているプログラムやデータを用いてコンピュータ101全体の制御を行うと共に、コンピュータ101が行う後述の各処理を実行する。
902はRAMで、外部記憶装置906からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F907,908を介して外部から受信したデータを一時的に記憶するためのエリア、そして、CPU901が各処理を実行する際に用いるワークエリア等、各種のエリアを提供することができる。
903はROMで、本コンピュータ101の設定データやブートプログラムなどを格納する。
904は操作部で、キーボードやマウスなどにより構成されており、本コンピュータ101の操作者が操作することで、各種の指示をCPU901に対して入力することができる。
An
905は表示部で、CRTや液晶画面などにより構成されており、CPU901による処理結果を画像や文字などでもって表示することができる。
A
906は外部記憶装置で、ハードディスクドライブ装置などに代表される大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)や、コンピュータ101が行う後述の各処理をCPU901に実行させるためのプログラムやデータが保存されており、これらはCPU901による制御に従ってRAM902にロードされ、CPU901による処理対象となる。
907はI/Fで、HMD132を本コンピュータ101に接続するためのインターフェースとして機能するものであり、このI/F907を介して本コンピュータ101はHMD132とのデータ通信を行うことができる。
908はI/Fで、第1のインターフェース140を本コンピュータ101に接続するためのインターフェースとして機能するものであり、このI/F907を介して本コンピュータ101は第1のインターフェース140とのデータ通信を行うことができる。
909は上述の各部を繋ぐバスである。
図2は、第1のインターフェース140の構成を示す図である。同図に示す如く、第1のインターフェース140は、自身の位置姿勢に応じた磁気の変化を検知する為の位置姿勢センサ203と、それをそれより少し大きい直方体で被せた本体とで構成されている。図3は、この位置姿勢センサ203の位置姿勢に第1の仮想物体301を配置した場合の様子を示す図である。同図では、第1の仮想物体301の中心位置が位置姿勢センサ203の計測した位置姿勢(第1のインターフェース140の位置姿勢)に配置されている。
FIG. 2 is a diagram illustrating a configuration of the
図4は、第2のインターフェース141の外観を示す図である。同図に示す如く、第2のインターフェース141には、第2のインターフェース141を一意に識別すると共に、第2のインターフェース141の位置姿勢を計測するために用いられるマーカ403が記されている。コンピュータ101はこのマーカを検出することで、この第2のインターフェース141のセンサ座標系における位置姿勢を求めることができ、求めた位置姿勢に第2の仮想物体を配置する。なお、マーカの形状やサイズ等は、マーカとして機能するのであれば、同図のようなものに限定するものではない。
FIG. 4 is a diagram illustrating an appearance of the
また、第2のインターフェース141には、第1のインターフェース140と一体化するためのアタッチメント402a、402bが備わっており、この2枚のアタッチメント402a、402b間に第1のインターフェース140を配置させることで、図6に示す如く、第1のインターフェース140と第2のインターフェース141とを一体化させることができる。図6は、第1のインターフェース140と第2のインターフェース141とを一体化させた様子を示す図である。よって、第2のインターフェース141を手に持ってその位置や姿勢を変化させると、それと一体化している第1のインターフェース140の位置や姿勢もそれに連動して位置や姿勢が変化する。
In addition, the
また、第1のインターフェース140の位置姿勢には第1の仮想物体が配置され、第2のインターフェース141の位置姿勢には第2の仮想物体が配置されるので、第1のインターフェース140と第2のインターフェース141とを一体化させることで、結果として第1の仮想物体と第2の仮想物体とを一体化させることができ、その結果、第2のインターフェース141を手に持ってその位置姿勢を変化させることで、第2の仮想物体はもちろんのこと、第1の仮想物体の位置姿勢もそれに連動して変化させることができる。
In addition, since the first virtual object is arranged at the position and orientation of the
図8は、第1の仮想物体と第2の仮想物体とが一体化した様子を示す図で、801が第2の仮想物体に相当する。同図に示す如く、第1の仮想物体301と第2の仮想物体801とは互いの中心位置を略一致させている。そのために、観察者は図7に示す如く、アタッチメント402a、402bの間に第1のインターフェース140を配置し、第1の仮想物体301の中心位置が第2の仮想物体801の中心位置に一致するように同図矢印で示す方向に沿って第1のインターフェース140を移動させる。図7は、それぞれの仮想物体の中心位置を略一致させるべく、第1のインターフェース140の移動について示した図である。
FIG. 8 is a diagram illustrating a state in which the first virtual object and the second virtual object are integrated, and 801 corresponds to the second virtual object. As shown in the figure, the first
ここで、第1の仮想物体301の中心位置と第2の仮想物体801の中心位置とを完全に一致させることは容易ではない。そこで、第1の仮想物体301の中心位置が第2の仮想物体801の中心位置に所定距離以内に近づいた場合には、第1の仮想物体301の中心位置が第2の仮想物体801の中心位置に略一致するような位置姿勢に第1の仮想物体301を移動させる。これにより、観察者は大まかな操作により、第1の仮想物体301の中心位置を第2の仮想物体801の中心位置に略一致させることができる。
Here, it is not easy to completely match the center position of the first
なお、上記「所定距離」は仮想物体間のどの部分を差すのかについては特に限定するものではないし、それぞれが所定の距離以内に近づいた場合に、一方の仮想物体の位置姿勢をどのように変更するのかについても特に限定するものではなく、その用途に応じて適宜決めればよい。 Note that the “predetermined distance” is not particularly limited as to which part between the virtual objects is to be inserted, and how the position and orientation of one virtual object is changed when each approaches within a predetermined distance. There is no particular limitation on whether or not to do so, and it may be determined as appropriate according to the use.
図5は、1フレーム分の複合現実空間の画像を生成してHMD132が有する画像表示部136に出力するための一連の処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU901に実行させるためのプログラムやデータは外部記憶装置906に保存されており、これらはCPU901による制御に従って適宜RAM902にロードされ、CPU901がこれを用いて処理を実行することで、コンピュータ101は同図のフローチャートに従った処理を行うことになる。
FIG. 5 is a flowchart of a series of processes for generating an image of the mixed reality space for one frame and outputting it to the
先ず、観察者視点位置姿勢計測部105から、「センサ座標系における観察者視点位置姿勢計測部105の位置姿勢を示す信号」がコンピュータ101に入力されるので、CPU901はこれをデータとしてRAM902に取得し、取得したこのデータに上記バイアス値を加えることで、「センサ座標系における観察者の視点の位置姿勢を示すデータ」を取得する(ステップS501)。
First, since a signal indicating the position and orientation of the observer viewpoint position /
また、カメラ133からは現実空間の動画像を構成する各フレームが順次入力されるので、CPU901はこれらを順次RAM902に取得する(ステップS502)。なお、取得したフレームの一部は外部記憶装置906に保存するようにしても良い。
Further, since each frame constituting the moving image in the real space is sequentially input from the
また、第1のインターフェース140、第2のインターフェース141から、それぞれのセンサ座標系における位置姿勢を示す信号が入力されるので、CPU901はこれをデータとしてRAM902に取得する(ステップS503)。
In addition, since signals indicating the position and orientation in the respective sensor coordinate systems are input from the
なお、ステップS501,S502,S503におけるそれぞれの処理は独立に行われるものであるので、ステップS501,S502,S503の各ステップにおける処理はこの順に実行されることには限定しない。 In addition, since each process in step S501, S502, S503 is performed independently, it does not limit that the process in each step of step S501, S502, S503 is performed in this order.
次に、CPU901は、第1のインターフェース140の位置姿勢に第1の仮想物体を配置すると共に、第2のインターフェース141の位置姿勢に第2の仮想物体を配置する(ステップS504)。
Next, the
そして次に、CPU901は、第1のインターフェース140の位置と第2のインターフェース141の位置との間の距離、即ち、第1の仮想物体の中心位置と第2の仮想物体の中心位置との間の距離を計算し、計算した結果が所定距離以内であるのか否かを判断する(ステップS505)。その結果、所定距離以内である場合には処理をステップS506に進め、第1の仮想物体を予め定めた位置姿勢(図8の場合には、第1の仮想物体の中心位置が第2の仮想物体の中心位置と略一致するような、第1の仮想物体の位置姿勢)に再配置する(ステップS506)。
Next, the
そして再配置後、もしくは第1の仮想物体の中心位置と第2の仮想物体の中心位置との間の距離が所定距離以上である場合には処理をステップS507に進め、ステップS501で取得した位置姿勢の視点から見える仮想空間(上記第1の仮想物体、第2の仮想物体が配置された仮想空間)の画像を生成する(ステップS507)。そして、生成した仮想空間の画像をステップS502で取得した現実空間の画像上に重畳(合成)させることで、RAM902上に複合現実空間の画像を生成する(ステップS508)。そして生成した複合現実空間画像の画像をI/F907を介してHMD132の画像表示部136に出力する(ステップS509)。
Then, after the rearrangement, or when the distance between the center position of the first virtual object and the center position of the second virtual object is equal to or greater than the predetermined distance, the process proceeds to step S507, and the position acquired in step S501. An image of a virtual space (a virtual space in which the first virtual object and the second virtual object are arranged) that can be seen from the viewpoint of the posture is generated (step S507). Then, the mixed virtual space image is generated on the
そして、図5のフローチャートに従った処理を複数回繰り返して行うことで、観察者の眼前には、自身の視点の位置姿勢に応じた複合現実空間画像が動画像として表示されることになる。 Then, by repeating the process according to the flowchart of FIG. 5 a plurality of times, a mixed reality space image corresponding to the position and orientation of its own viewpoint is displayed as a moving image in front of the observer's eyes.
なお、本実施形態では、第1のインターフェース140の位置姿勢は磁気センサにより得、第2のインターフェース141の位置姿勢はマーカにより得ていたが、それぞれのインターフェースの位置姿勢の取得方法については特に限定するものではない。
In this embodiment, the position / orientation of the
また、本実施形態では、第2のインターフェース141に、第1のインターフェース140と一体化できるような構造(2枚のアタッチメント)を備えたが、1つのインターフェースに、その他の1以上のインターフェースのうち1以上と一体化できるような構造を加えるのであれば、このような構造に限定するものではない。
In the present embodiment, the
また、本実施形態では、HMD132はビデオシースルー型のものを用いたが、光学シースルー型のものを用いても良いことはいうまでもない。
In the present embodiment, the video see-through type is used for the
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (6)
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得工程と、
前記第2の取得工程で取得したそれぞれの位置姿勢に仮想物体を配置する配置工程と、
前記配置工程で仮想物体が配置された仮想空間を、前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする画像処理方法。 A first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
An arrangement step of arranging a virtual object at each position and orientation acquired in the second acquisition step;
A generation step of generating an image that is visible when the virtual space in which the virtual object is arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An image processing method comprising: an output step of outputting the image generated in the generation step to the outside.
前記出力工程では、前記生成工程で生成した画像を前記第3の取得工程で取得した画像上に重畳させて外部に出力することを特徴とする請求項1に記載の画像処理方法。 And a third acquisition step of acquiring an image of the real space visible from the viewpoint,
The image processing method according to claim 1, wherein in the output step, the image generated in the generation step is superimposed on the image acquired in the third acquisition step and output to the outside.
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得手段と、
前記第2の取得手段が取得したそれぞれの位置姿勢に仮想物体を配置する配置手段と、
前記配置手段によって仮想物体が配置された仮想空間を、前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする画像処理装置。 First acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
Arrangement means for arranging a virtual object at each position and orientation acquired by the second acquisition means;
Generating means for generating an image that is visible when the virtual space in which the virtual object is arranged by the arranging means is viewed from a viewpoint having the position and orientation acquired by the first acquiring means;
An image processing apparatus comprising: output means for outputting the image generated by the generating means to the outside.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005084510A JP2006268351A (en) | 2005-03-23 | 2005-03-23 | Image processing method, and image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005084510A JP2006268351A (en) | 2005-03-23 | 2005-03-23 | Image processing method, and image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006268351A true JP2006268351A (en) | 2006-10-05 |
Family
ID=37204278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005084510A Withdrawn JP2006268351A (en) | 2005-03-23 | 2005-03-23 | Image processing method, and image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006268351A (en) |
-
2005
- 2005-03-23 JP JP2005084510A patent/JP2006268351A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4533087B2 (en) | Image processing method and image processing apparatus | |
JP4262011B2 (en) | Image presentation method and apparatus | |
JP4933406B2 (en) | Image processing apparatus and image processing method | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
JP4667111B2 (en) | Image processing apparatus and image processing method | |
US9684169B2 (en) | Image processing apparatus and image processing method for viewpoint determination | |
JP4757115B2 (en) | Image processing apparatus and image processing method | |
JP4677281B2 (en) | Image processing method and image processing apparatus | |
US8994729B2 (en) | Method for simulating operation of object and apparatus for the same | |
JP2009025918A (en) | Image processor and image processing method | |
JP2008210276A (en) | Method and device for generating three-dimensional model information | |
US20070252833A1 (en) | Information processing method and information processing apparatus | |
JP2012053631A (en) | Information processor and information processing method | |
JP2007004713A (en) | Image processing method and image processor | |
JP2007004714A (en) | Information processing method and information processing unit | |
JP2008146497A (en) | Image processor and image processing method | |
JP2006252468A (en) | Image processing method and image processing system | |
JP2009087161A (en) | Image processor and image processing method | |
JP2006126936A (en) | Image processing method and image processing device | |
JP2005339377A (en) | Image processing method and image processor | |
JP2009048237A (en) | Image processor, and image processing method | |
JP2005107972A (en) | Mixed reality presentation method and mixed reality presentation system | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2006085375A (en) | Image processing method and image processor | |
JP4217661B2 (en) | Image processing method and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |