JP2006268351A - Image processing method, and image processor - Google Patents

Image processing method, and image processor Download PDF

Info

Publication number
JP2006268351A
JP2006268351A JP2005084510A JP2005084510A JP2006268351A JP 2006268351 A JP2006268351 A JP 2006268351A JP 2005084510 A JP2005084510 A JP 2005084510A JP 2005084510 A JP2005084510 A JP 2005084510A JP 2006268351 A JP2006268351 A JP 2006268351A
Authority
JP
Japan
Prior art keywords
virtual object
orientation
interface
image
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005084510A
Other languages
Japanese (ja)
Inventor
Taichi Matsui
太一 松井
Takeshi Kuroki
剛 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005084510A priority Critical patent/JP2006268351A/en
Publication of JP2006268351A publication Critical patent/JP2006268351A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for integrating a part or all of interfaces into a single interface for manipulating the position and posture of virtual objects when there are a plurality of interfaces for manipulating the position and posture of the virtual objects and the virtual objects are arranged in the position and posture of the interfaces. <P>SOLUTION: A virtual object is arranged in the position and posture of each of a first interface and a second interface with a structure allowing integration with the first interface (S504), an image obtained by viewing a virtual space with the virtual objects arranged therein from a viewer angle is generated (S507), and the generated image is outputted to the outside (S509). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、仮想空間の画像を生成するための技術に関するものである。   The present invention relates to a technique for generating an image of a virtual space.

バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元CGをユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また近年、現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augumented Reality, 拡張現実感)システムやMR(Mixed Reality, 複合現実感)システムと呼ばれている。   A virtual reality (VR) system is a system that makes a virtual space feel as if it is real by presenting a computer with a three-dimensional CG created by a computer. In recent years, technology that presents users with information that does not exist in the real world by synthesizing 3D CG with real-world images has been developed, such as AR (Augumented Reality) systems and MR ( It is called a mixed reality system.

MRシステムでは、現実の物体に三次元CGを重ねることが可能である。り、例えば、特許文献1に示されるシステムでは、現実物体に仮想物体を重畳することで、ユーザが自由に仮想物体を操ることができるようになっている。   In the MR system, it is possible to superimpose 3D CG on a real object. For example, in the system disclosed in Patent Document 1, a virtual object is superimposed on a real object so that the user can freely manipulate the virtual object.

以降、仮想物体の操作の補助具となる現実物体を「仮想物体移動インターフェイス」と呼ぶ。   Hereinafter, a real object serving as an auxiliary tool for operating a virtual object is referred to as a “virtual object movement interface”.

特許文献1では仮想物体移動インターフェイスから他の仮想物体移動インターフェイスへの仮想物体の移動を実現している。
特開2003−242527号公報
In Patent Document 1, the movement of a virtual object from a virtual object movement interface to another virtual object movement interface is realized.
JP 2003-242527 A

しかしながら、今までのシステムでは仮想物体を一つの仮想物体移動インターフェイスから他の仮想物体移動インターフェイスに受け渡すだけで、両者が結合し、一つの仮想物体移動インターフェイスに変移することはなかった。両者が別々の位置姿勢認識方法を有していた場合、両者が一体となるのはとても有効であると考えられる。   However, in conventional systems, only a virtual object is transferred from one virtual object movement interface to another virtual object movement interface, and both are combined and do not change to one virtual object movement interface. When both have separate position and orientation recognition methods, it is considered that it is very effective to integrate the two.

本発明は以上の問題に鑑みて成されたものであり、仮想物体の位置姿勢を操作するためのインターフェースが複数存在し、インターフェースの位置姿勢に仮想物体を配置する場合に、一部若しくは全部のインターフェースを一体化させて、1つのインターフェースとして仮想物体の位置姿勢を操作するためのインターフェースとするための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and there are a plurality of interfaces for operating the position and orientation of a virtual object, and when a virtual object is arranged at the position and orientation of the interface, some or all of the interfaces are provided. An object of the present invention is to provide a technique for integrating an interface into an interface for operating the position and orientation of a virtual object as one interface.

本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。 即ち、観察者の視点の位置姿勢を取得する第1の取得工程と、
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得工程と、
前記第2の取得工程で取得したそれぞれの位置姿勢に仮想物体を配置する配置工程と、
前記配置工程で仮想物体が配置された仮想空間を、前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement. That is, a first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
An arrangement step of arranging a virtual object at each position and orientation acquired in the second acquisition step;
A generation step of generating an image that is visible when the virtual space in which the virtual object is arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An output step of outputting the image generated in the generation step to the outside.

本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 即ち、観察者の視点の位置姿勢を取得する第1の取得手段と、
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得手段と、
前記第2の取得手段が取得したそれぞれの位置姿勢に仮想物体を配置する配置手段と、
前記配置手段によって仮想物体が配置された仮想空間を、前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, first acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
Arrangement means for arranging a virtual object at each position and orientation acquired by the second acquisition means;
Generating means for generating an image that is visible when the virtual space in which the virtual object is arranged by the arranging means is viewed from a viewpoint having the position and orientation acquired by the first acquiring means;
Output means for outputting the image generated by the generating means to the outside.

本発明の構成により、仮想物体の位置姿勢を操作するためのインターフェースが複数存在し、インターフェースの位置姿勢に仮想物体を配置する場合に、一部若しくは全部のインターフェースを一体化させて、1つのインターフェースとして仮想物体の位置姿勢を操作するためのインターフェースとすることができる。   According to the configuration of the present invention, when there are a plurality of interfaces for manipulating the position and orientation of the virtual object, and a virtual object is arranged at the position and orientation of the interface, a part of or all of the interfaces are integrated into one interface. As an interface for operating the position and orientation of the virtual object.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

図1は、本実施形態に係るシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、コンピュータ101、ビデオシースルー型HMD(以下、単にHMDと呼称する)132、トランスミッタ142、磁気式仮想物体移動インターフェース(以下、第1のインターフェースと呼称する)140、マーカ式仮想物体移動インターフェース(以下、第2のインターフェースと呼称する)141により構成されている。   FIG. 1 is a block diagram showing a functional configuration of a system according to the present embodiment. As shown in the figure, the system according to this embodiment includes a computer 101, a video see-through HMD (hereinafter simply referred to as HMD) 132, a transmitter 142, a magnetic virtual object movement interface (hereinafter referred to as a first interface). 140), a marker type virtual object movement interface (hereinafter referred to as a second interface) 141.

先ず、HMD132について説明する。HMD132は同図に示す如く、画像入力部135、画像表示部136、カメラ133、画像出力部134、観察者視点位置姿勢計測部105により構成されている。   First, the HMD 132 will be described. As shown in the figure, the HMD 132 includes an image input unit 135, an image display unit 136, a camera 133, an image output unit 134, and an observer viewpoint position / orientation measurement unit 105.

画像入力部135は、コンピュータ101から送出された画像信号を受け、これを画像表示部136に出力するものである。画像表示部136は、HMD132を頭部に装着した観察者の眼前に位置するように、HMD132に取り付けられたものであり、画像入力部135から受けた画像信号に従った画像を表示する。これにより、観察者はコンピュータ101から送出された画像信号に従った画像を眼前に観察することができる。   The image input unit 135 receives the image signal sent from the computer 101 and outputs it to the image display unit 136. The image display unit 136 is attached to the HMD 132 so as to be positioned in front of the observer wearing the HMD 132 on the head, and displays an image according to the image signal received from the image input unit 135. Thereby, the observer can observe the image according to the image signal sent from the computer 101 in front of the eyes.

カメラ133は、現実空間の動画像を撮像するものであり、撮像した各フレームの画像信号は順次画像出力部134によってコンピュータ101に送出される。   The camera 133 captures a moving image in the real space, and the captured image signal of each frame is sequentially transmitted to the computer 101 by the image output unit 134.

観察者視点位置姿勢計測部105は磁気式の位置姿勢センサである。現実空間中には磁界の発生源としてのトランスミッタ142が所定の位置に配置されており、磁界を発生している。よって、観察者視点位置姿勢計測部105は、自身の位置姿勢に応じた磁気の変化を検知し、検知結果を信号としてコンピュータ101に送出する。この検知結果は、センサ座標系(トランスミッタ142の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における観察者視点位置姿勢計測部105の位置姿勢を示すものである。   The observer viewpoint position and orientation measurement unit 105 is a magnetic position and orientation sensor. In the real space, a transmitter 142 as a magnetic field generation source is disposed at a predetermined position, and generates a magnetic field. Therefore, the observer viewpoint position / orientation measurement unit 105 detects a change in magnetism according to its own position and orientation, and sends the detection result to the computer 101 as a signal. This detection result is obtained by the observer viewpoint position / orientation measurement unit 105 in the sensor coordinate system (a coordinate system in which the position of the transmitter 142 is the origin and three axes orthogonal to each other are the x axis, the y axis, and the z axis). It shows the position and orientation.

第1のインターフェース140は、観察者が手に保持してその位置や姿勢を自在に操作可能なものであると共に、上記観察者視点位置姿勢計測部105と同様に、自身の位置姿勢に応じた磁気の変化を検知し、検知した結果を示す信号をコンピュータ101に送出する位置姿勢センサとして機能するものである。この検知結果は、センサ座標系における第1のインターフェース140の位置姿勢を示すものである。   The first interface 140 is one that can be operated by the observer while holding it in his / her hand, and, similar to the observer viewpoint position / orientation measurement unit 105, according to his / her position / orientation. It functions as a position and orientation sensor that detects a change in magnetism and sends a signal indicating the detection result to the computer 101. This detection result indicates the position and orientation of the first interface 140 in the sensor coordinate system.

第2のインターフェース141は、観察者が手に保持してその位置や姿勢を自在に操作可能なものであると共に、その表面にはこの第2のインターフェース141の位置姿勢を計測するために用いられるマーカが記されている。また、この第2のインターフェース141には、第1のインターフェース140と一体化するための構造が付加されている。第1のインターフェース140、第2のインターフェース141について詳しくは後述する。   The second interface 141 is one that can be operated by the observer while holding it in his / her hand, and is used for measuring the position and orientation of the second interface 141 on the surface thereof. Markers are marked. Further, a structure for integrating with the first interface 140 is added to the second interface 141. Details of the first interface 140 and the second interface 141 will be described later.

次に、コンピュータ101について説明する。コンピュータ101は同図に示す如く、画像出力部104、画像合成部103、CG生成部106、画像入力部102、仮想物体移動インターフェース位置姿勢計測部109により構成されている。   Next, the computer 101 will be described. As shown in FIG. 1, the computer 101 includes an image output unit 104, an image composition unit 103, a CG generation unit 106, an image input unit 102, and a virtual object movement interface position / orientation measurement unit 109.

画像入力部102は、HMD132の画像出力部134から順次送出される各フレームの画像信号をデータとして受け、これを画像合成部103に出力する。   The image input unit 102 receives the image signal of each frame sequentially sent from the image output unit 134 of the HMD 132 as data, and outputs this to the image composition unit 103.

仮想物体移動インターフェース位置姿勢計測部109は、第1のインターフェース140から受けた信号を「センサ座標系おける第1のインターフェース140の位置姿勢(視点の位置姿勢)を示すデータ」として得る。   The virtual object movement interface position / orientation measuring unit 109 obtains the signal received from the first interface 140 as “data indicating the position / orientation (viewpoint position / orientation) of the first interface 140 in the sensor coordinate system”.

また、仮想物体移動インターフェース位置姿勢計測部109は、画像入力部102から入力される現実空間の画像中に第2のインターフェース141に記されているマーカが写っている場合には、このマーカを検出する事で、第2のインターフェース141のセンサ座標系における位置姿勢を求める。   In addition, the virtual object movement interface position / orientation measurement unit 109 detects this marker when the marker described in the second interface 141 is reflected in the real space image input from the image input unit 102. By doing so, the position and orientation of the second interface 141 in the sensor coordinate system is obtained.

そして仮想物体移動インターフェース位置姿勢計測部109は、求めた第1のインターフェース140のセンサ座標系における位置姿勢、第2のインターフェース141のセンサ座標系における位置姿勢をCG生成部106に出力する。   Then, the virtual object movement interface position / orientation measurement unit 109 outputs the obtained position / orientation of the first interface 140 in the sensor coordinate system and the position / orientation of the second interface 141 in the sensor coordinate system to the CG generation unit 106.

また、仮想物体移動インターフェース位置姿勢計測部109には観察者視点位置姿勢計測部105から「センサ座標系における観察者視点位置姿勢計測部105の位置姿勢を示すデータ」が入力されるので、このデータに、予め計測しておいたカメラ133と観察者視点位置姿勢計測部105との位置姿勢関係を示すバイアス値を加えることで、センサ座標系おけるカメラ133の位置姿勢(視点の位置姿勢)を得る。   Further, since the virtual object movement interface position / orientation measuring unit 109 receives “data indicating the position and orientation of the observer viewpoint position / orientation measuring unit 105 in the sensor coordinate system” from the observer viewpoint position / orientation measuring unit 105, this data In addition, a bias value indicating the position and orientation relationship between the camera 133 and the observer viewpoint position and orientation measurement unit 105 that has been measured in advance is added to obtain the position and orientation of the camera 133 (viewpoint position and orientation) in the sensor coordinate system. .

CG生成部106は先ず、仮想物体移動インターフェース位置姿勢計測部109から受けた「第1のインターフェース140の位置姿勢」に第1の仮想物体を配置すると共に、仮想物体移動インターフェース位置姿勢計測部109から受けた「第2のインターフェース141の位置姿勢」に第2の仮想物体を配置する。   First, the CG generation unit 106 arranges the first virtual object at the “position and orientation of the first interface 140” received from the virtual object movement interface position and orientation measurement unit 109, and from the virtual object movement interface position and orientation measurement unit 109. The second virtual object is placed in the received “position and orientation of the second interface 141”.

そして、それぞれの仮想物体を配置した仮想空間を、仮想物体移動インターフェース位置姿勢計測部109から得た「センサ座標系における視点の位置姿勢を示すデータ」が示す位置姿勢の視点から見た場合に見える画像(仮想空間の画像)を生成する。なお、所定の位置姿勢に仮想物体を配置した仮想空間を所定の位置姿勢を有する視点から見た場合に見える画像を生成するための処理については周知の技術であるので、これに関する説明は省略する。   The virtual space in which each virtual object is arranged is seen when viewed from the viewpoint of the position and orientation indicated by the “data indicating the position and orientation of the viewpoint in the sensor coordinate system” obtained from the virtual object movement interface position and orientation measurement unit 109. An image (virtual space image) is generated. Note that processing for generating an image that is visible when a virtual space in which a virtual object is arranged at a predetermined position and orientation is viewed from a viewpoint having the predetermined position and orientation is a well-known technique, and thus description thereof is omitted. .

画像合成部103は、CG生成部106が生成した仮想空間の画像を画像入力部102から得た現実空間上に重畳させ、複合現実空間の画像を生成する。そして画像出力部134は、画像合成部103が生成した複合現実空間画像をHMD132の画像入力部102に出力する。画像入力部102は、受けた複合現実空間画像を画像表示部136に出力するので、画像表示部136には観察者の視点の位置姿勢に応じた複合現実空間の画像が表示される。   The image composition unit 103 superimposes the virtual space image generated by the CG generation unit 106 on the real space obtained from the image input unit 102 to generate an image of the mixed reality space. Then, the image output unit 134 outputs the mixed reality space image generated by the image composition unit 103 to the image input unit 102 of the HMD 132. Since the image input unit 102 outputs the received mixed reality space image to the image display unit 136, the image display unit 136 displays an image of the mixed reality space according to the position and orientation of the viewpoint of the observer.

これにより観察者は、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に見ることができる。また、この複合現実空間画像は、第1のインターフェース140の位置姿勢に第1の仮想物体が配置され、第2のインターフェース141の位置姿勢に第2の仮想物体が配置されたものとなっている。   Thereby, the observer can see the image of the mixed reality space according to the position and orientation of his / her viewpoint in front of the eyes. In addition, the mixed reality space image is obtained by arranging the first virtual object at the position and orientation of the first interface 140 and arranging the second virtual object at the position and orientation of the second interface 141. .

図9は、上記機能構成を有するコンピュータ101のハードウェア構成を示すブロック図である。   FIG. 9 is a block diagram showing a hardware configuration of the computer 101 having the above functional configuration.

901はCPUで、RAM902やROM903に格納されているプログラムやデータを用いてコンピュータ101全体の制御を行うと共に、コンピュータ101が行う後述の各処理を実行する。   Reference numeral 901 denotes a CPU that controls the entire computer 101 using programs and data stored in the RAM 902 and the ROM 903 and executes each process described below performed by the computer 101.

902はRAMで、外部記憶装置906からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F907,908を介して外部から受信したデータを一時的に記憶するためのエリア、そして、CPU901が各処理を実行する際に用いるワークエリア等、各種のエリアを提供することができる。   Reference numeral 902 denotes a RAM, an area for temporarily storing programs and data loaded from the external storage device 906, an area for temporarily storing data received from the outside via the I / Fs 907 and 908, and Various areas such as a work area used when the CPU 901 executes each process can be provided.

903はROMで、本コンピュータ101の設定データやブートプログラムなどを格納する。   Reference numeral 903 denotes a ROM that stores setting data, a boot program, and the like of the computer 101.

904は操作部で、キーボードやマウスなどにより構成されており、本コンピュータ101の操作者が操作することで、各種の指示をCPU901に対して入力することができる。   An operation unit 904 includes a keyboard and a mouse, and various instructions can be input to the CPU 901 by an operator of the computer 101.

905は表示部で、CRTや液晶画面などにより構成されており、CPU901による処理結果を画像や文字などでもって表示することができる。   A display unit 905 includes a CRT, a liquid crystal screen, and the like, and can display a processing result by the CPU 901 with an image, text, or the like.

906は外部記憶装置で、ハードディスクドライブ装置などに代表される大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)や、コンピュータ101が行う後述の各処理をCPU901に実行させるためのプログラムやデータが保存されており、これらはCPU901による制御に従ってRAM902にロードされ、CPU901による処理対象となる。   Reference numeral 906 denotes an external storage device that functions as a large-capacity information storage device typified by a hard disk drive device and the like for causing the CPU 901 to execute an OS (operating system) and each process described later performed by the computer 101. Are stored in the RAM 902 under the control of the CPU 901 and are processed by the CPU 901.

907はI/Fで、HMD132を本コンピュータ101に接続するためのインターフェースとして機能するものであり、このI/F907を介して本コンピュータ101はHMD132とのデータ通信を行うことができる。   Reference numeral 907 denotes an I / F that functions as an interface for connecting the HMD 132 to the computer 101, and the computer 101 can perform data communication with the HMD 132 via the I / F 907.

908はI/Fで、第1のインターフェース140を本コンピュータ101に接続するためのインターフェースとして機能するものであり、このI/F907を介して本コンピュータ101は第1のインターフェース140とのデータ通信を行うことができる。   Reference numeral 908 denotes an I / F that functions as an interface for connecting the first interface 140 to the computer 101, and the computer 101 performs data communication with the first interface 140 via the I / F 907. It can be carried out.

909は上述の各部を繋ぐバスである。   Reference numeral 909 denotes a bus connecting the above-described units.

図2は、第1のインターフェース140の構成を示す図である。同図に示す如く、第1のインターフェース140は、自身の位置姿勢に応じた磁気の変化を検知する為の位置姿勢センサ203と、それをそれより少し大きい直方体で被せた本体とで構成されている。図3は、この位置姿勢センサ203の位置姿勢に第1の仮想物体301を配置した場合の様子を示す図である。同図では、第1の仮想物体301の中心位置が位置姿勢センサ203の計測した位置姿勢(第1のインターフェース140の位置姿勢)に配置されている。   FIG. 2 is a diagram illustrating a configuration of the first interface 140. As shown in the figure, the first interface 140 includes a position / orientation sensor 203 for detecting a change in magnetism according to its own position and orientation, and a main body covered with a rectangular parallelepiped slightly larger than that. Yes. FIG. 3 is a diagram illustrating a state in which the first virtual object 301 is disposed at the position and orientation of the position and orientation sensor 203. In the drawing, the center position of the first virtual object 301 is arranged at the position and orientation measured by the position and orientation sensor 203 (position and orientation of the first interface 140).

図4は、第2のインターフェース141の外観を示す図である。同図に示す如く、第2のインターフェース141には、第2のインターフェース141を一意に識別すると共に、第2のインターフェース141の位置姿勢を計測するために用いられるマーカ403が記されている。コンピュータ101はこのマーカを検出することで、この第2のインターフェース141のセンサ座標系における位置姿勢を求めることができ、求めた位置姿勢に第2の仮想物体を配置する。なお、マーカの形状やサイズ等は、マーカとして機能するのであれば、同図のようなものに限定するものではない。   FIG. 4 is a diagram illustrating an appearance of the second interface 141. As shown in the figure, the second interface 141 has a marker 403 that uniquely identifies the second interface 141 and is used to measure the position and orientation of the second interface 141. The computer 101 can detect the position and orientation in the sensor coordinate system of the second interface 141 by detecting this marker, and arranges the second virtual object at the obtained position and orientation. Note that the shape and size of the marker are not limited to those shown in the figure as long as they function as markers.

また、第2のインターフェース141には、第1のインターフェース140と一体化するためのアタッチメント402a、402bが備わっており、この2枚のアタッチメント402a、402b間に第1のインターフェース140を配置させることで、図6に示す如く、第1のインターフェース140と第2のインターフェース141とを一体化させることができる。図6は、第1のインターフェース140と第2のインターフェース141とを一体化させた様子を示す図である。よって、第2のインターフェース141を手に持ってその位置や姿勢を変化させると、それと一体化している第1のインターフェース140の位置や姿勢もそれに連動して位置や姿勢が変化する。   In addition, the second interface 141 includes attachments 402a and 402b for integrating with the first interface 140, and the first interface 140 is arranged between the two attachments 402a and 402b. As shown in FIG. 6, the first interface 140 and the second interface 141 can be integrated. FIG. 6 is a diagram illustrating a state in which the first interface 140 and the second interface 141 are integrated. Therefore, when the second interface 141 is held in the hand and the position and posture thereof are changed, the position and posture of the first interface 140 integrated with the second interface 141 are also changed accordingly.

また、第1のインターフェース140の位置姿勢には第1の仮想物体が配置され、第2のインターフェース141の位置姿勢には第2の仮想物体が配置されるので、第1のインターフェース140と第2のインターフェース141とを一体化させることで、結果として第1の仮想物体と第2の仮想物体とを一体化させることができ、その結果、第2のインターフェース141を手に持ってその位置姿勢を変化させることで、第2の仮想物体はもちろんのこと、第1の仮想物体の位置姿勢もそれに連動して変化させることができる。   In addition, since the first virtual object is arranged at the position and orientation of the first interface 140 and the second virtual object is arranged at the position and orientation of the second interface 141, the first interface 140 and the second interface As a result, the first virtual object and the second virtual object can be integrated, and as a result, the second interface 141 is held in the hand and the position and orientation of the second virtual object can be integrated. By changing it, not only the second virtual object but also the position and orientation of the first virtual object can be changed in conjunction with it.

図8は、第1の仮想物体と第2の仮想物体とが一体化した様子を示す図で、801が第2の仮想物体に相当する。同図に示す如く、第1の仮想物体301と第2の仮想物体801とは互いの中心位置を略一致させている。そのために、観察者は図7に示す如く、アタッチメント402a、402bの間に第1のインターフェース140を配置し、第1の仮想物体301の中心位置が第2の仮想物体801の中心位置に一致するように同図矢印で示す方向に沿って第1のインターフェース140を移動させる。図7は、それぞれの仮想物体の中心位置を略一致させるべく、第1のインターフェース140の移動について示した図である。   FIG. 8 is a diagram illustrating a state in which the first virtual object and the second virtual object are integrated, and 801 corresponds to the second virtual object. As shown in the figure, the first virtual object 301 and the second virtual object 801 have substantially the same center position. Therefore, as shown in FIG. 7, the observer places the first interface 140 between the attachments 402 a and 402 b, and the center position of the first virtual object 301 matches the center position of the second virtual object 801. In this way, the first interface 140 is moved along the direction indicated by the arrow in FIG. FIG. 7 is a diagram illustrating movement of the first interface 140 so that the center positions of the respective virtual objects substantially coincide with each other.

ここで、第1の仮想物体301の中心位置と第2の仮想物体801の中心位置とを完全に一致させることは容易ではない。そこで、第1の仮想物体301の中心位置が第2の仮想物体801の中心位置に所定距離以内に近づいた場合には、第1の仮想物体301の中心位置が第2の仮想物体801の中心位置に略一致するような位置姿勢に第1の仮想物体301を移動させる。これにより、観察者は大まかな操作により、第1の仮想物体301の中心位置を第2の仮想物体801の中心位置に略一致させることができる。   Here, it is not easy to completely match the center position of the first virtual object 301 with the center position of the second virtual object 801. Therefore, when the center position of the first virtual object 301 approaches the center position of the second virtual object 801 within a predetermined distance, the center position of the first virtual object 301 is the center of the second virtual object 801. The first virtual object 301 is moved to a position and orientation that substantially matches the position. Thereby, the observer can substantially match the center position of the first virtual object 301 with the center position of the second virtual object 801 by a rough operation.

なお、上記「所定距離」は仮想物体間のどの部分を差すのかについては特に限定するものではないし、それぞれが所定の距離以内に近づいた場合に、一方の仮想物体の位置姿勢をどのように変更するのかについても特に限定するものではなく、その用途に応じて適宜決めればよい。   Note that the “predetermined distance” is not particularly limited as to which part between the virtual objects is to be inserted, and how the position and orientation of one virtual object is changed when each approaches within a predetermined distance. There is no particular limitation on whether or not to do so, and it may be determined as appropriate according to the use.

図5は、1フレーム分の複合現実空間の画像を生成してHMD132が有する画像表示部136に出力するための一連の処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU901に実行させるためのプログラムやデータは外部記憶装置906に保存されており、これらはCPU901による制御に従って適宜RAM902にロードされ、CPU901がこれを用いて処理を実行することで、コンピュータ101は同図のフローチャートに従った処理を行うことになる。   FIG. 5 is a flowchart of a series of processes for generating an image of the mixed reality space for one frame and outputting it to the image display unit 136 of the HMD 132. Note that programs and data for causing the CPU 901 to execute the processing according to the flowchart of FIG. 9 are stored in the external storage device 906, and these are loaded into the RAM 902 as appropriate under the control of the CPU 901, and the CPU 901 uses this processing. By executing the above, the computer 101 performs processing according to the flowchart of FIG.

先ず、観察者視点位置姿勢計測部105から、「センサ座標系における観察者視点位置姿勢計測部105の位置姿勢を示す信号」がコンピュータ101に入力されるので、CPU901はこれをデータとしてRAM902に取得し、取得したこのデータに上記バイアス値を加えることで、「センサ座標系における観察者の視点の位置姿勢を示すデータ」を取得する(ステップS501)。   First, since a signal indicating the position and orientation of the observer viewpoint position / orientation measurement unit 105 in the sensor coordinate system is input to the computer 101 from the observer viewpoint position / orientation measurement unit 105, the CPU 901 acquires this as data in the RAM 902. Then, by adding the bias value to the acquired data, “data indicating the position and orientation of the observer's viewpoint in the sensor coordinate system” is acquired (step S501).

また、カメラ133からは現実空間の動画像を構成する各フレームが順次入力されるので、CPU901はこれらを順次RAM902に取得する(ステップS502)。なお、取得したフレームの一部は外部記憶装置906に保存するようにしても良い。   Further, since each frame constituting the moving image in the real space is sequentially input from the camera 133, the CPU 901 sequentially acquires these in the RAM 902 (step S502). A part of the acquired frame may be stored in the external storage device 906.

また、第1のインターフェース140、第2のインターフェース141から、それぞれのセンサ座標系における位置姿勢を示す信号が入力されるので、CPU901はこれをデータとしてRAM902に取得する(ステップS503)。   In addition, since signals indicating the position and orientation in the respective sensor coordinate systems are input from the first interface 140 and the second interface 141, the CPU 901 acquires these as data in the RAM 902 (step S503).

なお、ステップS501,S502,S503におけるそれぞれの処理は独立に行われるものであるので、ステップS501,S502,S503の各ステップにおける処理はこの順に実行されることには限定しない。   In addition, since each process in step S501, S502, S503 is performed independently, it does not limit that the process in each step of step S501, S502, S503 is performed in this order.

次に、CPU901は、第1のインターフェース140の位置姿勢に第1の仮想物体を配置すると共に、第2のインターフェース141の位置姿勢に第2の仮想物体を配置する(ステップS504)。   Next, the CPU 901 arranges the first virtual object at the position and orientation of the first interface 140, and arranges the second virtual object at the position and orientation of the second interface 141 (step S504).

そして次に、CPU901は、第1のインターフェース140の位置と第2のインターフェース141の位置との間の距離、即ち、第1の仮想物体の中心位置と第2の仮想物体の中心位置との間の距離を計算し、計算した結果が所定距離以内であるのか否かを判断する(ステップS505)。その結果、所定距離以内である場合には処理をステップS506に進め、第1の仮想物体を予め定めた位置姿勢(図8の場合には、第1の仮想物体の中心位置が第2の仮想物体の中心位置と略一致するような、第1の仮想物体の位置姿勢)に再配置する(ステップS506)。   Next, the CPU 901 determines the distance between the position of the first interface 140 and the position of the second interface 141, that is, between the center position of the first virtual object and the center position of the second virtual object. Is calculated, and it is determined whether or not the calculated result is within a predetermined distance (step S505). As a result, if the distance is within the predetermined distance, the process proceeds to step S506, and the first virtual object is set in a predetermined position and orientation (in the case of FIG. 8, the center position of the first virtual object is the second virtual object). Rearrangement is performed at a position and orientation of the first virtual object that substantially matches the center position of the object (step S506).

そして再配置後、もしくは第1の仮想物体の中心位置と第2の仮想物体の中心位置との間の距離が所定距離以上である場合には処理をステップS507に進め、ステップS501で取得した位置姿勢の視点から見える仮想空間(上記第1の仮想物体、第2の仮想物体が配置された仮想空間)の画像を生成する(ステップS507)。そして、生成した仮想空間の画像をステップS502で取得した現実空間の画像上に重畳(合成)させることで、RAM902上に複合現実空間の画像を生成する(ステップS508)。そして生成した複合現実空間画像の画像をI/F907を介してHMD132の画像表示部136に出力する(ステップS509)。   Then, after the rearrangement, or when the distance between the center position of the first virtual object and the center position of the second virtual object is equal to or greater than the predetermined distance, the process proceeds to step S507, and the position acquired in step S501. An image of a virtual space (a virtual space in which the first virtual object and the second virtual object are arranged) that can be seen from the viewpoint of the posture is generated (step S507). Then, the mixed virtual space image is generated on the RAM 902 by superimposing (combining) the generated virtual space image on the real space image acquired in step S502 (step S508). Then, the generated mixed reality space image is output to the image display unit 136 of the HMD 132 via the I / F 907 (step S509).

そして、図5のフローチャートに従った処理を複数回繰り返して行うことで、観察者の眼前には、自身の視点の位置姿勢に応じた複合現実空間画像が動画像として表示されることになる。   Then, by repeating the process according to the flowchart of FIG. 5 a plurality of times, a mixed reality space image corresponding to the position and orientation of its own viewpoint is displayed as a moving image in front of the observer's eyes.

なお、本実施形態では、第1のインターフェース140の位置姿勢は磁気センサにより得、第2のインターフェース141の位置姿勢はマーカにより得ていたが、それぞれのインターフェースの位置姿勢の取得方法については特に限定するものではない。   In this embodiment, the position / orientation of the first interface 140 is obtained by a magnetic sensor, and the position / orientation of the second interface 141 is obtained by a marker. However, the acquisition method of the position / orientation of each interface is particularly limited. Not what you want.

また、本実施形態では、第2のインターフェース141に、第1のインターフェース140と一体化できるような構造(2枚のアタッチメント)を備えたが、1つのインターフェースに、その他の1以上のインターフェースのうち1以上と一体化できるような構造を加えるのであれば、このような構造に限定するものではない。   In the present embodiment, the second interface 141 has a structure (two attachments) that can be integrated with the first interface 140. However, one interface includes one or more other interfaces. If a structure that can be integrated with one or more is added, the structure is not limited to such a structure.

また、本実施形態では、HMD132はビデオシースルー型のものを用いたが、光学シースルー型のものを用いても良いことはいうまでもない。   In the present embodiment, the video see-through type is used for the HMD 132, but it goes without saying that an optical see-through type may be used.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の実施形態に係るシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the system which concerns on embodiment of this invention. 第1のインターフェース140の構成を示す図である。2 is a diagram illustrating a configuration of a first interface 140. FIG. 位置姿勢センサ203の位置姿勢に第1の仮想物体301を配置した場合の様子を示す図である。FIG. 6 is a diagram illustrating a state when a first virtual object 301 is arranged at a position and orientation of a position and orientation sensor 203. 第2のインターフェース141の外観を示す図である。FIG. 3 is a diagram illustrating an appearance of a second interface 141. 1フレーム分の複合現実空間の画像を生成してHMD132が有する画像表示部136に出力するための一連の処理のフローチャートである。It is a flowchart of a series of processes for generating an image of the mixed reality space for one frame and outputting it to the image display unit 136 of the HMD 132. 第1のインターフェース140と第2のインターフェース141とを一体化させた様子を示す図である。It is a figure which shows a mode that the 1st interface 140 and the 2nd interface 141 were integrated. それぞれの仮想物体の中心位置を略一致させるべく、第1のインターフェース140の移動について示した図である。It is the figure shown about the movement of the 1st interface 140 in order to make the center position of each virtual object substantially correspond. 第1の仮想物体と第2の仮想物体とが一体化した様子を示す図である。It is a figure which shows a mode that the 1st virtual object and the 2nd virtual object were integrated. コンピュータ101のハードウェア構成を示すブロック図である。2 is a block diagram illustrating a hardware configuration of a computer 101. FIG.

Claims (6)

観察者の視点の位置姿勢を取得する第1の取得工程と、
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得工程と、
前記第2の取得工程で取得したそれぞれの位置姿勢に仮想物体を配置する配置工程と、
前記配置工程で仮想物体が配置された仮想空間を、前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする画像処理方法。
A first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
An arrangement step of arranging a virtual object at each position and orientation acquired in the second acquisition step;
A generation step of generating an image that is visible when the virtual space in which the virtual object is arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An image processing method comprising: an output step of outputting the image generated in the generation step to the outside.
更に、前記視点から見える現実空間の画像を取得する第3の取得工程を備え、
前記出力工程では、前記生成工程で生成した画像を前記第3の取得工程で取得した画像上に重畳させて外部に出力することを特徴とする請求項1に記載の画像処理方法。
And a third acquisition step of acquiring an image of the real space visible from the viewpoint,
The image processing method according to claim 1, wherein in the output step, the image generated in the generation step is superimposed on the image acquired in the third acquisition step and output to the outside.
前記配置工程では、前記1以上の仮想物体操作インターフェースのうちの第2の仮想物体操作インターフェースの位置姿勢に配置された第2の仮想物体と、前記第1の仮想物体インターフェースの位置姿勢に配置された第1の仮想物体とが所定の距離以内に位置している場合には、前記第2の仮想物体を所定の位置姿勢に移動させることを特徴とする請求項1又は2に記載の画像処理方法。   In the arrangement step, the second virtual object arranged at the position and orientation of the second virtual object operation interface among the one or more virtual object operation interfaces and the position and orientation of the first virtual object interface are arranged. 3. The image processing according to claim 1, wherein the second virtual object is moved to a predetermined position and orientation when the first virtual object is located within a predetermined distance. 4. Method. 観察者の視点の位置姿勢を取得する第1の取得手段と、
1以上の仮想物体操作インターフェース、及び当該1以上の仮想物体操作インターフェースと一体化可能な構造を有する第1の仮想物体操作インターフェースのそれぞれの位置姿勢を取得する第2の取得手段と、
前記第2の取得手段が取得したそれぞれの位置姿勢に仮想物体を配置する配置手段と、
前記配置手段によって仮想物体が配置された仮想空間を、前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする画像処理装置。
First acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of each of the one or more virtual object operation interfaces and the first virtual object operation interface having a structure that can be integrated with the one or more virtual object operation interfaces;
Arrangement means for arranging a virtual object at each position and orientation acquired by the second acquisition means;
Generating means for generating an image that is visible when the virtual space in which the virtual object is arranged by the arranging means is viewed from a viewpoint having the position and orientation acquired by the first acquiring means;
An image processing apparatus comprising: output means for outputting the image generated by the generating means to the outside.
コンピュータに請求項1乃至3の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 1 to 3. 請求項5に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 5.
JP2005084510A 2005-03-23 2005-03-23 Image processing method, and image processor Withdrawn JP2006268351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005084510A JP2006268351A (en) 2005-03-23 2005-03-23 Image processing method, and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005084510A JP2006268351A (en) 2005-03-23 2005-03-23 Image processing method, and image processor

Publications (1)

Publication Number Publication Date
JP2006268351A true JP2006268351A (en) 2006-10-05

Family

ID=37204278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005084510A Withdrawn JP2006268351A (en) 2005-03-23 2005-03-23 Image processing method, and image processor

Country Status (1)

Country Link
JP (1) JP2006268351A (en)

Similar Documents

Publication Publication Date Title
JP4533087B2 (en) Image processing method and image processing apparatus
JP4262011B2 (en) Image presentation method and apparatus
JP4933406B2 (en) Image processing apparatus and image processing method
JP4227561B2 (en) Image processing method and image processing apparatus
JP4667111B2 (en) Image processing apparatus and image processing method
US9684169B2 (en) Image processing apparatus and image processing method for viewpoint determination
JP4757115B2 (en) Image processing apparatus and image processing method
JP4677281B2 (en) Image processing method and image processing apparatus
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
JP2009025918A (en) Image processor and image processing method
JP2008210276A (en) Method and device for generating three-dimensional model information
US20070252833A1 (en) Information processing method and information processing apparatus
JP2012053631A (en) Information processor and information processing method
JP2007004713A (en) Image processing method and image processor
JP2007004714A (en) Information processing method and information processing unit
JP2008146497A (en) Image processor and image processing method
JP2006252468A (en) Image processing method and image processing system
JP2009087161A (en) Image processor and image processing method
JP2006126936A (en) Image processing method and image processing device
JP2005339377A (en) Image processing method and image processor
JP2009048237A (en) Image processor, and image processing method
JP2005107972A (en) Mixed reality presentation method and mixed reality presentation system
JP4689344B2 (en) Information processing method and information processing apparatus
JP2006085375A (en) Image processing method and image processor
JP4217661B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603