JP2006252468A - Image processing method and image processing system - Google Patents

Image processing method and image processing system Download PDF

Info

Publication number
JP2006252468A
JP2006252468A JP2005071733A JP2005071733A JP2006252468A JP 2006252468 A JP2006252468 A JP 2006252468A JP 2005071733 A JP2005071733 A JP 2005071733A JP 2005071733 A JP2005071733 A JP 2005071733A JP 2006252468 A JP2006252468 A JP 2006252468A
Authority
JP
Japan
Prior art keywords
orientation
observer
coordinate system
viewpoint
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005071733A
Other languages
Japanese (ja)
Inventor
Yasuhiro Okuno
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005071733A priority Critical patent/JP2006252468A/en
Publication of JP2006252468A publication Critical patent/JP2006252468A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique capable of disposing a virtual object providing information to an observer in a suitable position and attitude observed from a point of view of the observer. <P>SOLUTION: The image processing method comprises the steps of: converting the desired position and attitude in a coordinates system formed by an axis directed from the original point to a position of an indicating tool and two axes intersected with this axis at the original point when a position of the point of view is used as an original point to the position attitude in a world coordinate system (S205); disposing an information providing virtual object in the converted position attitude (S206); generating an image obtained by viewing a virtual space including the disposed virtual object from the point of view (S207); and outputting the generated image to the outside (S208). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、仮想空間中に仮想物体を配置するための技術に関するものである。   The present invention relates to a technique for arranging a virtual object in a virtual space.

従来より、仮想現実感(VR : Virtual Reality)提示装置が存在する。仮想現実感提示装置とは、たとえば、頭部装着型ディスプレイ(HMD: Head Mounted Display)のような映像表示装置と、観察者の視点の位置姿勢を検出するための位置姿勢検出手段(たとえば位置姿勢センサ)と、CG映像生成手段とを備えている。   Conventionally, there is a virtual reality (VR) presentation device. The virtual reality presentation device is, for example, a video display device such as a head mounted display (HMD) and a position and orientation detection means (for example, a position and orientation) for detecting the position and orientation of the observer's viewpoint Sensor) and CG video generation means.

位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを観察者が装着するHMDに取り付ることによって観察者頭部の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Pitch, Yaw, Roll)をリアルタイムに検出する装置である。   As the position / orientation detection means, a magnetic position / orientation sensor or the like is used, and the position / orientation value of the observer's head is detected by attaching this to an HMD worn by the observer. A magnetic position / orientation sensor detects the relative position / orientation between a magnetic generator (transmitter) and a magnetic sensor (receiver), such as the FASTRAK product from the US company Polhemus. It is done. This is a device that detects the three-dimensional position (X, Y, Z) and posture (Pitch, Yaw, Roll) of a sensor in real time in a specific region.

CG映像生成手段は、三次元モデリングされたCGを現実空間と同じスケールの仮想空間に配置し、その仮想空間を位置姿勢検出手段によって検出された観察者視線位置姿勢からレンダリングするものである。   The CG video generation means places the CG modeled three-dimensionally in a virtual space of the same scale as the real space, and renders the virtual space from the observer's line-of-sight position / posture detected by the position / posture detection means.

このようにして生成されたCG映像を映像表示装置(HMDなど)に表示することにより、観察者はあたかも仮想のCG空間の中に没入しているような感覚を得ることができる。   By displaying the CG video generated in this way on a video display device (such as an HMD), the observer can feel as if they are immersed in a virtual CG space.

また、上記のような位置姿勢センサを新たに設け、仮想空間内のCGオブジェクトの位置姿勢を入力するために用いることもできる。たとえば、位置姿勢センサを移動・回転させることで仮想空間内のCGオブジェクトを移動・回転させることや、手に位置姿勢センサを装着して仮想オブジェクトの操作入力に用いることで、仮想空間において仮想物体と人間の動作とのインタラクションを実現することも従来から行われている。
特開平11−136706号公報
Further, a position / orientation sensor as described above can be newly provided and used to input the position and orientation of the CG object in the virtual space. For example, by moving / rotating the position / orientation sensor to move / rotate the CG object in the virtual space, or by attaching the position / orientation sensor to the hand and using it for operation input of the virtual object, It has also been conventionally performed to realize an interaction between a human and a human action.
Japanese Patent Laid-Open No. 11-136706

従来のシステムでは、
たとえばメニューや情報掲示板のような、情報表示オブジェクトを仮想3次元空間内に配置して表示する際、次に示すような方法が取られており、それぞれには課題があった。
In conventional systems,
For example, when an information display object such as a menu or an information bulletin board is arranged and displayed in a virtual three-dimensional space, the following methods are used, each of which has a problem.

1) 図3に示すように、情報表示オブジェクト302をHMD108の位置姿勢を基準とする座標系内で固定的な位置に配置する。頭部(HMD108)をどのように移動・回転させても、HMD108が有する画面上に表示される情報表示オブジェクトの見え方は変化しないことになる。情報オブジェクトは画面の一部に常に見えるように仮想空間中に配置されるので、観察者は常に情報を確認できる。   1) As shown in FIG. 3, the information display object 302 is arranged at a fixed position in a coordinate system based on the position and orientation of the HMD 108. No matter how the head (HMD 108) is moved or rotated, the appearance of the information display object displayed on the screen of the HMD 108 does not change. Since the information object is arranged in the virtual space so that it is always visible on a part of the screen, the observer can always confirm the information.

この場合、情報オブジェクトを画面の一部に常に見えるようにするために、視界視野の一部が情報表示オブジェクトによって常に遮られるという問題があった。   In this case, there is a problem that a part of the visual field is always blocked by the information display object so that the information object can always be seen on a part of the screen.


2) 情報表示オブジェクトを仮想3次元空間内の特定の位置姿勢に配置する。図4に示すように、情報表示オブジェクト302は世界座標系での特定の位置に固定されている。この場合は1)の場合と異なり、情報表示オブジェクトが配置された場所を向くと初めて情報表示オブジェクトを確認することができるため、観察者は常に情報表示オブジェクトによって視野が遮られるということはない。

2) An information display object is placed at a specific position and orientation in the virtual three-dimensional space. As shown in FIG. 4, the information display object 302 is fixed at a specific position in the world coordinate system. In this case, unlike the case of 1), since the information display object can be confirmed for the first time when facing the place where the information display object is arranged, the observer is not always obstructed by the information display object.

ただし、情報を見るために観察者は特定の位置まで移動する必要があるという問題や、仮想3次元空間内で情報提示場所(情報表示オブジェクトの配置位置)を探さなければいけないという問題があった。また、情報表示オブジェクトが配置された位置に観察対象のCGオブジェクトを移動させようとした場合、両者の表示が重なってしまい、観察しづらいという問題があった。   However, there is a problem that the observer needs to move to a specific position in order to view the information, and there is a problem that the information presentation location (arrangement position of the information display object) must be searched in the virtual three-dimensional space. . In addition, when an attempt is made to move the CG object to be observed to the position where the information display object is arranged, there is a problem in that both displays overlap and it is difficult to observe.


3) 情報表示オブジェクトを観察対象のオブジェクトからの相対的な位置姿勢に配置する。図5に示すように、情報表示オブジェクト302はCGオブジェクトの位置姿勢を基準とした座標系での特定の位置に配置される。これは、観察対象オブジェクトと情報オブジェクトを同時に観察しやすく、観察対象オブジェクトを別の位置に動かせば情報表示オブジェクトも追随するので都合がよい場合がある。

3) The information display object is arranged at a relative position and orientation from the object to be observed. As shown in FIG. 5, the information display object 302 is arranged at a specific position in the coordinate system based on the position and orientation of the CG object. This is convenient because it is easy to observe the observation target object and the information object at the same time, and the information display object follows if the observation target object is moved to another position.

しかし、一方で、情報表示オブジェクト302が常に観察対象CGオブジェクト303のそばにあるので観察のさまたげになりやすいという問題があり、必要なときだけ情報を見たいという要求に応えることができなかった。また、観察対象CGオブジェクト303を回転させるなどすれば情報表示オブジェクト302は観察対象CGオブジェクト303を中心に回転するため、期せずして視野に入ってしまったり、情報表示オブジェクトが動いてしまって情報が観察しづらくなることがあるという問題があった。   However, on the other hand, since the information display object 302 is always near the observation target CG object 303, there is a problem that it is easy to obstruct observation, and it is impossible to meet a request to view information only when necessary. Further, if the observation target CG object 303 is rotated, the information display object 302 rotates around the observation target CG object 303, so that the information display object enters the field of view unexpectedly or the information display object moves. There was a problem that information could be difficult to observe.


4) 情報表示オブジェクトを観察者の頭部位置を基点とした特定の相対方位・距離に表示する。HMDの位置姿勢を順とした座標系内の特定の位置に固定するのではなく、観察者頭部の姿勢によらずに、観察者頭部の位置から見た特定の方位・距離に配置するというものである。図6に示すように、HMD108を同図上部に示す位置姿勢から同図下部に示す位置姿勢に変化させた場合、情報表示オブジェクト302は図示したように変化する。1)の場合では情報表示オブジェクト302はHMD座標系に固定されていたため、観察者が頭部を回転すると情報表示オブジェクトの位置も変化するが、この場合ではHMDの姿勢が変化しても情報表示オブジェクトの位置には影響せず、HMDの位置変化のみが影響する。この場合の利点は、情報表示オブジェクトは観察者の頭部位置に付随してくるために2)の方法に比べて情報表示オブジェクトの位置が発見されやすいということであり、観察者は特定の方向を向くことで情報表示オブジェクトをたやすく発見し確認することが可能である。また観察対象オブジェクトとは無関係なので3)のように観察対象オブジェクトを回転させたときに情報表示オブジェクトが移動することもない。

4) An information display object is displayed in a specific relative azimuth / distance based on the observer's head position. Rather than being fixed at a specific position in the coordinate system in the order of the position and orientation of the HMD, it is arranged at a specific orientation / distance seen from the position of the observer's head, regardless of the posture of the observer's head. That's it. As shown in FIG. 6, when the HMD 108 is changed from the position and orientation shown in the upper part of the figure to the position and orientation shown in the lower part of the figure, the information display object 302 changes as shown. In the case of 1), since the information display object 302 is fixed to the HMD coordinate system, the position of the information display object changes when the observer rotates the head. In this case, the information display object is displayed even if the attitude of the HMD changes. It does not affect the position of the object, but only changes in the position of the HMD. The advantage in this case is that the information display object is associated with the position of the head of the observer, so that the position of the information display object can be easily found compared to the method 2). It is possible to easily find and check the information display object by facing the screen. Further, since it is unrelated to the observation target object, the information display object does not move when the observation target object is rotated as in 3).

ただし、この場合でも、情報表示オブジェクトが表示される方位は固定であるため、情報表示オブジェクトが置かれた方向に観察対象オブジェクトが移動した場合には、両者は重なってしまうという問題がある。   However, even in this case, since the direction in which the information display object is displayed is fixed, there is a problem in that when the observation target object moves in the direction in which the information display object is placed, the two overlap.

本発明は以上の問題に鑑みてなされたものであり、観察者に対して情報を提供する仮想物体を観察者の視点から見て好適な位置姿勢に配置する為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for arranging a virtual object that provides information to an observer in a suitable position and orientation when viewed from the viewpoint of the observer. And

本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、観察者の視点の位置姿勢を取得する第1の取得工程と、
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得工程と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換工程と、
前記変換工程で得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置工程と、
前記配置工程で配置した仮想物体を含む仮想空間を前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする。
That is, a first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of the pointing tool held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. A conversion step for converting the position and orientation in the system;
An arrangement step of arranging a virtual object that provides information to the observer in a position and orientation in the world coordinate system obtained in the conversion step;
A generation step of generating an image that is visible when the virtual space including the virtual object arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An output step of outputting the image generated in the generation step to the outside.

本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、観察者の視点の位置姿勢を取得する第1の取得手段と、
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得手段と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換手段と、
前記変換手段によって得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間を前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする。
That is, first acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of the pointing tool that is held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. Conversion means for converting the position and orientation in the system;
Arranging means for arranging a virtual object that provides information to the observer at a position and orientation in the world coordinate system obtained by the converting means;
Generating means for generating an image that is visible when the virtual space including the virtual object placed by the placing means is viewed from a viewpoint having the position and orientation obtained by the first obtaining means;
Output means for outputting the image generated by the generating means to the outside.

本発明の構成により、観察者に対して情報を提供する仮想物体を観察者の視点から見て好適な位置姿勢に配置することができる。   According to the configuration of the present invention, a virtual object that provides information to an observer can be arranged in a suitable position and orientation as viewed from the observer's viewpoint.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
<システムの構成について>
図1は本実施形態に係るシステムのハードウェア構成を示す図である。同図に示す如く、本実施形態に係るシステムは、CPU101、HMD108、位置姿勢センサ104,105、センサコントローラ(CTL)103、メモリ106,107により構成されている。
[First Embodiment]
<System configuration>
FIG. 1 is a diagram illustrating a hardware configuration of a system according to the present embodiment. As shown in the figure, the system according to this embodiment includes a CPU 101, an HMD 108, position and orientation sensors 104 and 105, a sensor controller (CTL) 103, and memories 106 and 107.

また、メモリ106には以下説明する各種の処理をCPU101に実行させるためのプログラムが格納されており、メモリ107にはCPU101が各種の処理を実行する際に用いるデータが格納されている。メモリ106,107が格納しているそれぞれの情報については後述する。   The memory 106 stores a program for causing the CPU 101 to execute various processes described below, and the memory 107 stores data used when the CPU 101 executes various processes. Each information stored in the memories 106 and 107 will be described later.

HMD108は周知の通り観察者が頭部に装着することで、その眼前に画像が表示されるように表示画面が取り付けられたもので、本実施形態では光学シースルー型のものを用いる。よって、この表示画面は、透過して現実空間が見えると共に、以下説明する処理で生成された仮想空間の画像を表示することができる。よって、観察者がこの表示画面を見ることで、現実空間を仮想空間の画像が重畳された状態で観察することができる。光学シースルー型のHMDについては周知のものであるので、これ以上の説明は省略する。   As is well known, the HMD 108 has a display screen attached so that an image is displayed in front of the eye when an observer wears it on the head. In this embodiment, an optical see-through type is used. Therefore, this display screen allows the real space to be seen through, and can display an image of the virtual space generated by the processing described below. Therefore, the observer can observe the real space with the image of the virtual space superimposed on the display screen. Since the optical see-through type HMD is well known, further explanation is omitted.

また、このHMD108には位置姿勢センサ104が取り付けられている。位置姿勢センサ104は本実施形態では磁気センサであるとする。よって、現実空間中の所定の位置には磁界の発生源が設置されている。発生源からは磁界が発生され、位置姿勢センサ104は自身の位置姿勢に応じた磁気の変化を検知する。検知した結果を示す信号はセンサコントローラ103に出力する。センサコントローラ103は受けた信号に基づいて「センサ座標系(上記発生源の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における位置姿勢センサ104の位置姿勢を示すデータ」を生成し、メモリ107に出力する。   A position / orientation sensor 104 is attached to the HMD 108. The position and orientation sensor 104 is assumed to be a magnetic sensor in this embodiment. Therefore, a magnetic field generation source is installed at a predetermined position in the real space. A magnetic field is generated from the generation source, and the position / orientation sensor 104 detects a change in magnetism corresponding to its own position / orientation. A signal indicating the detected result is output to the sensor controller 103. Based on the received signal, the sensor controller 103 “position and orientation in the sensor coordinate system (coordinate system in which the origin position is the origin and the three axes orthogonal to each other at the origin are the x, y, and z axes, respectively). Data indicating the position and orientation of the sensor 104 ”is generated and output to the memory 107.

位置姿勢センサ105は位置姿勢センサ104と同様のもので、自身の位置姿勢に応じた磁気の変化を検知する。検知した結果を示す信号はセンサコントローラ103に出力する。センサコントローラ103は受けた信号に基づいて「センサ座標系における位置姿勢センサ105の位置姿勢を示すデータ」を生成し、メモリ107に出力する。   The position / orientation sensor 105 is the same as the position / orientation sensor 104 and detects a change in magnetism corresponding to its own position and orientation. A signal indicating the detected result is output to the sensor controller 103. The sensor controller 103 generates “data indicating the position and orientation of the position and orientation sensor 105 in the sensor coordinate system” based on the received signal, and outputs the data to the memory 107.

ここで、位置姿勢センサ105は観察者が手に保持し、その位置や姿勢を自在に変更することができる指示具として用いられる。また、この位置姿勢センサ105には仮想物体(操作対象仮想物体)が配置される。従って観察者が位置姿勢センサ105の位置や姿勢を変更すると、それに連動して操作対象仮想物体の位置や姿勢も変更される。   Here, the position / orientation sensor 105 is used as an indicator that can be held by the observer and can be freely changed in position and orientation. In addition, a virtual object (operation target virtual object) is arranged on the position and orientation sensor 105. Therefore, when the observer changes the position and orientation of the position / orientation sensor 105, the position and orientation of the operation target virtual object are also changed in conjunction therewith.

<仮想空間の画像生成処理について>
次に、上記構成を有するシステムによって仮想空間の画像を生成して、HMD108に出力するまでの一連の処理について説明する。
<About virtual space image generation processing>
Next, a series of processing until a virtual space image is generated by the system having the above configuration and output to the HMD 108 will be described.

本実施形態では仮想空間中には操作対象仮想物体以外に、観察者に対して提供する各種の情報が記載された仮想物体(情報提供仮想物体)を配置する。以下ではこの情報提供仮想物体の配置位置姿勢を制御する処理について詳細に説明する。なお、この情報提供仮想物体は、例えば2次元平面上に様々なメニューが記載されていたり、システム状況が適宜表示されたりするようなものであったり、或いはその形状自体でもって情報を観察者に提示するような仮想物体であるが、その情報提供の形態については特に限定するものではない。また、仮想空間中にはこれ以外の仮想物体を配置するようにしても良い。   In this embodiment, in addition to the operation target virtual object, a virtual object (information providing virtual object) in which various types of information provided to the observer are described is arranged in the virtual space. Hereinafter, processing for controlling the arrangement position and orientation of the information providing virtual object will be described in detail. The information providing virtual object is, for example, a menu on which various menus are described on a two-dimensional plane, a system status is displayed as appropriate, or information on its shape itself to the observer. Although it is a virtual object to be presented, the information provision form is not particularly limited. In addition, other virtual objects may be arranged in the virtual space.

図2は、1フレーム分の仮想空間の画像を生成してHMD108に出力するための処理のフローチャートである。なお、CPU101は、メモリ107に格納されているそれぞれのデータを適宜用いて、メモリ106に格納されているそれぞれのプログラムを適宜実行することで、同図のフローチャートに従った処理を実行することができる。   FIG. 2 is a flowchart of processing for generating a virtual space image for one frame and outputting it to the HMD 108. Note that the CPU 101 can execute processing according to the flowchart of FIG. 5 by appropriately executing each program stored in the memory 106 using each data stored in the memory 107 as appropriate. it can.

先ず、HMD108に取り付けられた位置姿勢センサ104は自身の位置姿勢に応じた磁気の変化を検知するので、検知した結果を示す信号をセンサコントローラ103に出力する。センサコントローラ103はこの信号に基づいて「センサ座標系における位置姿勢センサ104の位置姿勢を示すデータ」を生成し、メモリ107に入力する。   First, since the position / orientation sensor 104 attached to the HMD 108 detects a change in magnetism according to its own position and orientation, it outputs a signal indicating the detected result to the sensor controller 103. Based on this signal, the sensor controller 103 generates “data indicating the position and orientation of the position and orientation sensor 104 in the sensor coordinate system” and inputs the data to the memory 107.

CPU101はこのデータを受けると、位置姿勢検出プログラム111を実行し、観察者の視点の位置姿勢を求める処理を行う(ステップS201)。   Upon receiving this data, the CPU 101 executes the position / orientation detection program 111 and performs processing for obtaining the position / orientation of the viewpoint of the observer (step S201).

ここで「視点」とは、CGを描画する仮想カメラの視体積を表す錐台の頂点を置く位置(右目、左目の何れかでも良いし、両方であっても良い)のことであり、HMDの表示面から焦点距離だけ手前に置かれ、装着時にその位置に観察者の目が位置することが期待される位置である。予めこの視点と位置姿勢センサ104との位置姿勢関係は測定しておき、その測定結果をデータ(バイアスデータ)としてメモリ107に格納しておく。そしてセンサコントローラ103から「センサ座標系における位置姿勢センサ104の位置姿勢を示すデータ」を受けると、このデータに上記バイアスデータを加えることで、「センサ座標系における視点の位置姿勢」を求めることができる。   Here, the “viewpoint” is the position where the apex of the frustum representing the visual volume of the virtual camera that draws the CG is placed (either the right eye or the left eye, or both), and the HMD This is a position that is placed in front of the display surface by a focal length and is expected to have the viewer's eyes located at that position when worn. The position and orientation relationship between the viewpoint and the position and orientation sensor 104 is measured in advance, and the measurement result is stored in the memory 107 as data (bias data). When “data indicating the position and orientation of the position and orientation sensor 104 in the sensor coordinate system” is received from the sensor controller 103, the “position and orientation of the viewpoint in the sensor coordinate system” can be obtained by adding the bias data to this data. it can.

更に、世界座標系(現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系であり、仮想空間と現実空間とで共有している)における磁界発生源の位置姿勢を予め測定しておき、これをデータ(第2のバイアスデータ)としてメモリ107に格納しておけば、「センサ座標系における視点の位置姿勢」を示すデータに第2のバイアスデータを加えることで、「世界座標系における視点の位置姿勢」を求めることができる。   Furthermore, the world coordinate system (a coordinate system with one point in the real space as the origin and three axes orthogonal to each other at the origin, the x axis, the y axis, and the z axis, is shared between the virtual space and the real space. If the position and orientation of the magnetic field generation source is measured in advance and stored in the memory 107 as data (second bias data), data indicating “the position and orientation of the viewpoint in the sensor coordinate system” is stored. By adding the second bias data to “the position and orientation of the viewpoint in the world coordinate system”, it can be obtained.

なお、「視点」の定義、及び視点の世界座標系における位置姿勢を求める方法についてはこれに限定するものではない。   Note that the definition of the “viewpoint” and the method for obtaining the position and orientation of the viewpoint in the world coordinate system are not limited thereto.

そして求めた「視点の世界座標系における位置姿勢」を示すデータをデータ121としてメモリ107に格納する。   Then, the obtained data indicating the “position and orientation of the viewpoint in the world coordinate system” is stored in the memory 107 as data 121.

一方、位置姿勢センサ105は自身の位置姿勢に応じた磁気の変化を検知するので、検知した結果を示す信号をセンサコントローラ103に出力する。センサコントローラ103はこの信号に基づいて「センサ座標系における位置姿勢センサ105の位置姿勢を示すデータ」を生成し、メモリ107に入力する。   On the other hand, the position / orientation sensor 105 detects a change in magnetism according to its own position / orientation, and therefore outputs a signal indicating the detected result to the sensor controller 103. Based on this signal, the sensor controller 103 generates “data indicating the position and orientation of the position and orientation sensor 105 in the sensor coordinate system” and inputs the data to the memory 107.

CPU101はこのデータを受けると、位置姿勢検出プログラム111を実行し、このデータに上記第2のバイアスデータを加えて「世界座標系における位置姿勢センサ105の位置姿勢を示すデータ」を得、これをデータ122としてメモリ107に格納する(ステップS202)。そして次に、CG生成プログラム112を実行し、CGデータ123から操作対象仮想物体の描画データを読み出して操作対象仮想物体を生成し、これをデータ122が示す位置姿勢に配置する(ステップS203)。   Upon receiving this data, the CPU 101 executes the position / orientation detection program 111 and adds the second bias data to this data to obtain “data indicating the position / orientation of the position / orientation sensor 105 in the world coordinate system”. The data 122 is stored in the memory 107 (step S202). Next, the CG generation program 112 is executed to read the drawing data of the operation target virtual object from the CG data 123 to generate the operation target virtual object, which is arranged at the position and orientation indicated by the data 122 (step S203).

ここでCGデータ123とは、仮想物体毎の描画データから構成されており、描画データは、例えば仮想物体がポリゴンでもって構成されている場合には、仮想物体(操作対象仮想物体、情報提供仮想物体は除く)の配置位置姿勢データ、仮想物体を構成するポリゴンを構成する各頂点の座標データ、ポリゴンの法線ベクトルデータ、ポリゴンカラーデータ、また、この仮想物体にテクスチャマッピングを行う場合には、テクスチャのデータ等から構成されている。   Here, the CG data 123 is composed of drawing data for each virtual object. For example, when the virtual object is composed of polygons, the drawing data is a virtual object (operation target virtual object, information provision virtual). (Excluding the object)) arrangement position and orientation data, coordinate data of each vertex constituting the polygon constituting the virtual object, polygon normal vector data, polygon color data, and when performing texture mapping on this virtual object, It consists of texture data.

これにより、位置姿勢センサ105の世界座標系における位置姿勢に操作対象仮想物体を配置することができる。   Thereby, the operation target virtual object can be arranged at the position and orientation in the world coordinate system of the position and orientation sensor 105.

次に、CPU101は観察座標算出プログラム113を実行し、以下説明する観察座標系と世界座標系との間で座標値変換を行うための変換行列を求める(ステップS204)。観察座標系とは、視点の位置を原点とした場合に、この原点から操作対象仮想物体の位置に向かう軸(第1の軸)と、原点で第1の軸と互いに直交する2軸(第2の軸、第3の軸)とで構成される座標系であり、例えば第1の軸はz軸、第2,3の軸はそれぞれx軸、y軸とすることができる。   Next, the CPU 101 executes the observation coordinate calculation program 113 and obtains a conversion matrix for performing coordinate value conversion between the observation coordinate system and the world coordinate system described below (step S204). The observation coordinate system is an axis (first axis) from the origin to the position of the virtual object to be operated when the viewpoint position is the origin, and two axes (first axes) orthogonal to the first axis at the origin. 2 axis, third axis), for example, the first axis can be the z axis, and the second and third axes can be the x axis and the y axis, respectively.

ここで観察座標系について更に詳しく説明する。   Here, the observation coordinate system will be described in more detail.

図7(a)は視点座標系、図7(b)は観察座標系を示す図である。視点座標系は図7(a)に示す如く、視点の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。同図では視線方向の軸をz軸、原点から頭上方向への軸をy軸、z軸とy軸に視点位置で直交する軸をx軸としている。   FIG. 7A shows a viewpoint coordinate system, and FIG. 7B shows an observation coordinate system. As shown in FIG. 7A, the viewpoint coordinate system is a coordinate system in which the position of the viewpoint is the origin, and three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis. In the figure, the axis in the line-of-sight direction is the z axis, the axis from the origin to the overhead direction is the y axis, and the axis orthogonal to the z axis and the y axis at the viewpoint position is the x axis.

一方、観察座標系は図7(b)に示す如く、視点の位置を原点とした場合に、この原点から操作対象仮想物体の位置に向かう第1の軸と、原点で第1の軸と直交する第2の軸、第3の軸とで構成される座標系である。同図では第1の軸をz軸としている。x軸、y軸については様々な決定方法が考えられるが、例えば、x軸は、z軸と直交し、且つ世界座標系におけるxz平面(水平面)と平行な軸とし、y軸は、x軸、z軸と視点位置で直交し、且つ世界座標系における上向きを示すような方向に向けた軸とする。   On the other hand, as shown in FIG. 7B, the observation coordinate system has a first axis that is directed from the origin to the position of the virtual object to be operated, and the origin is orthogonal to the first axis when the position of the viewpoint is the origin. This is a coordinate system composed of a second axis and a third axis. In the figure, the first axis is the z-axis. Various determination methods can be considered for the x-axis and the y-axis. For example, the x-axis is orthogonal to the z-axis and is parallel to the xz plane (horizontal plane) in the world coordinate system, and the y-axis is the x-axis. , An axis that is orthogonal to the z-axis at the viewpoint position and that faces in a direction that indicates upward in the world coordinate system.

なお、観察座標系のx軸の設定については他にも考えられ、例えば観察座標系のy軸を視点座標系におけるzy平面で見たときに、視点座標系のy軸に一致させるように設定すれば、観察座標系の上向き(Y軸向き)が観察者にとって常に上向きに一致するようにすることも可能である。また、観察座標系におけるx軸を、視点座標系における水平面(XZ平面)と平行にすることも可能である。   Note that there are other possible settings for the x-axis of the observation coordinate system. For example, when the y-axis of the observation coordinate system is viewed on the zy plane in the viewpoint coordinate system, it is set to match the y-axis of the viewpoint coordinate system. In this case, it is possible to make the upward direction of the observation coordinate system (the Y-axis direction) always coincide with the upward direction for the observer. It is also possible to make the x axis in the observation coordinate system parallel to the horizontal plane (XZ plane) in the viewpoint coordinate system.

以上のような観察座標系を定義すると、世界座標系と観察座標系との間の変換行列を周知の技術でもって求めることができる。即ち求めた変換行列は、世界座標系における座標値を観察座標系における座標値に変換できるし、逆に観察座標系における座標値を世界座標系における座標値に変換することもできる。なお、求めた変換行列のデータはデータ124としてメモリ107に格納する。   If the observation coordinate system as described above is defined, a transformation matrix between the world coordinate system and the observation coordinate system can be obtained by a known technique. That is, the obtained conversion matrix can convert the coordinate value in the world coordinate system into the coordinate value in the observation coordinate system, and conversely, the coordinate value in the observation coordinate system can be converted into the coordinate value in the world coordinate system. The obtained transformation matrix data is stored in the memory 107 as data 124.

図2に戻って、次に、CPU101は情報表示位置姿勢設定プログラム114を実行し、情報提供仮想物体の世界座標系における配置位置姿勢を求める(ステップS205)。本実施形態では、本フローチャートに従った処理の前段で、上記観察座標系における情報提供仮想物体の所望の配置位置姿勢を決定し、決定した位置姿勢を示すデータをデータ125としてメモリ107に格納している。よって世界座標系における情報提供仮想物体の配置位置姿勢Qは、データ125が示す位置姿勢をベクトルP、データ124が示す変換行列をMとすると、以下の式
Q=M・P
を計算することで求めることができる。求めた「世界座標系における情報提供仮想物体の配置位置姿勢」を示すデータはデータ126としてメモリ107に格納される。
Returning to FIG. 2, next, the CPU 101 executes the information display position / orientation setting program 114 to obtain the arrangement position / orientation of the information providing virtual object in the world coordinate system (step S205). In the present embodiment, a desired arrangement position / posture of the information providing virtual object in the observation coordinate system is determined before the processing according to the flowchart, and data indicating the determined position / posture is stored in the memory 107 as data 125. ing. Accordingly, the arrangement position / posture Q of the information providing virtual object in the world coordinate system is expressed by the following formula: Q = M · P, where the position / posture indicated by the data 125 is a vector P and the transformation matrix indicated by the data 124 is M.
Can be obtained by calculating. The obtained data indicating the “location position and orientation of the information providing virtual object in the world coordinate system” is stored in the memory 107 as data 126.

なお、本実施形態では、観察座標系における情報提供仮想物体の配置位置姿勢を予め決定しておいたが、これに限定するものではなく、各フレームの仮想空間画像を生成する毎に、好適な位置姿勢を計算するようにしても良い。例えば、情報提供仮想物体が文字列が記載された仮想物体である場合には、この記載面が観察者側に向くように情報提供仮想物体の配置姿勢を適宜変更するようにしても良い。   In this embodiment, the arrangement position and orientation of the information providing virtual object in the observation coordinate system are determined in advance. However, the present invention is not limited to this, and each time a virtual space image of each frame is generated, a suitable position is provided. The position and orientation may be calculated. For example, when the information provision virtual object is a virtual object in which a character string is described, the arrangement posture of the information provision virtual object may be appropriately changed so that the description surface faces the viewer.

また、情報提供仮想物体を常に世界座標系において正立するような姿勢に配置するようにしても良い。即ち、情報提供仮想物体の上向きが世界座標系における上向きと略一致するように情報提供仮想物体を配置する。   In addition, the information providing virtual object may be arranged in an attitude that always stands upright in the world coordinate system. In other words, the information providing virtual object is arranged so that the upward direction of the information providing virtual object substantially coincides with the upward direction in the world coordinate system.

いずれの場合も、情報提供仮想物体の世界座標系における配置位置が決定した後に、更に情報提供仮想物体が所望の姿勢になるように回転させれば良い。   In any case, after the arrangement position of the information provision virtual object in the world coordinate system is determined, the information provision virtual object may be further rotated so as to have a desired posture.

図2に戻って、次に、CPU101は、CG生成プログラム112を実行して、CGデータ123から情報提供仮想物体の描画データを読み出して情報提供仮想物体を生成し、これをデータ126が示す位置姿勢に配置する(ステップS206)。   Returning to FIG. 2, next, the CPU 101 executes the CG generation program 112, reads the drawing data of the information providing virtual object from the CG data 123 to generate the information providing virtual object, and this is the position indicated by the data 126. It arrange | positions to a attitude | position (step S206).

次にCPU101は、CG生成プログラム112を実行して、上記操作対象仮想物体、情報提供仮想物体を含む仮想物体群が配置された仮想空間を、上記データ121が示す「世界座標系における視点の位置姿勢」を有する視点から見た場合に見える画像(仮想空間の画像)を生成し(ステップS207)、生成した画像をHMD108に送出する(ステップS208)。   Next, the CPU 101 executes the CG generation program 112 to display a virtual space in which a virtual object group including the operation target virtual object and the information providing virtual object is arranged as “a viewpoint position in the world coordinate system”. An image (a virtual space image) seen when viewed from a viewpoint having “attitude” is generated (step S207), and the generated image is sent to the HMD 108 (step S208).

以上の処理により、1フレーム分の仮想空間画像を生成し、HMD108に送出することができるので、この処理を各フレームについて行うことで、HMD108が有する表示画面には連続した各フレームの仮想空間の画像が表示される。   With the above processing, a virtual space image for one frame can be generated and sent to the HMD 108. By performing this processing for each frame, the display screen of the HMD 108 has a virtual space of each continuous frame. An image is displayed.

なお、HMD108がステレオ表示可能な場合には、ステップS201では右目、左目のそれぞれの位置姿勢を取得し、ステップS204では右目、左目の何れかの目を視点として観察座標系を求め、ステップS207では、右目、左目のそれぞれから見える仮想空間の画像を生成する。   If the HMD 108 can display in stereo, the position and orientation of each of the right eye and left eye are acquired in step S201, the observation coordinate system is obtained with either the right eye or the left eye as the viewpoint in step S204, and in step S207. The image of the virtual space seen from each of the right eye and the left eye is generated.

以上の説明により、本実施形態によって、視点や操作対象仮想物体を回転させても情報提供仮想物体の配置位置は変化しない。   As described above, according to the present embodiment, the arrangement position of the information providing virtual object does not change even if the viewpoint or the operation target virtual object is rotated.

また、操作対象仮想物体以外の仮想物体を観察する際には、情報提供仮想物体を観察者の視野外に配置する事ができる。   Further, when observing a virtual object other than the operation target virtual object, the information providing virtual object can be arranged outside the observer's field of view.

また、視点と操作対象仮想物体と情報提供仮想物体との位置関係は一定であるために、観察者の視野にない情報提供仮想物体を発見することが容易となる。   In addition, since the positional relationship among the viewpoint, the operation target virtual object, and the information providing virtual object is constant, it is easy to find an information providing virtual object that is not in the observer's field of view.

[第2の実施形態]
第1の実施形態ではセンサとして全て磁気センサを用いて位置姿勢を計測しているが、センサとしてはこれ以外にも考えられ、例えば超音波センサ、光学式センサなど、その他のセンサを用いるようにしても良い。
[Second Embodiment]
In the first embodiment, the position and orientation are measured using all magnetic sensors as the sensors. However, other sensors may be used, and other sensors such as ultrasonic sensors and optical sensors may be used. May be.

また、視点の位置姿勢を求める手段についてはセンサを用いることに限定するものではなく、例えば、HMD108に新たにカメラを付加し、現実空間中にマーカを配置し、この配置位置、及びマーカをカメラでもって撮像した画像上における座標位置を用いてHMD108の位置姿勢を取得する方法を用いるようにしても良い。よって、視点の位置姿勢が得られるのであれば、センサを用いることには限定しない。   The means for obtaining the position and orientation of the viewpoint is not limited to using a sensor. For example, a new camera is added to the HMD 108 and a marker is arranged in the real space. Therefore, a method of acquiring the position and orientation of the HMD 108 using the coordinate position on the captured image may be used. Therefore, as long as the position and orientation of the viewpoint can be obtained, the use of the sensor is not limited.

また、第1の実施形態ではHMD108には光学シースルー型のものを用いているが、ビデオシースルー型のものを用いるようにしても良い。   In the first embodiment, the optical see-through type is used for the HMD 108, but a video see-through type may be used.

また、第1の実施形態では、位置姿勢センサ105は1つのみとしたが、複数設けるようにし、それぞれの位置姿勢センサ105に操作対象仮想物体を配置するようにしても良い。   In the first embodiment, only one position / orientation sensor 105 is provided. However, a plurality of position / orientation sensors 105 may be provided and an operation target virtual object may be arranged in each position / orientation sensor 105.

また、第1の実施形態では、位置姿勢センサ105に操作対象仮想物体を配置しているが、この配置は必須なものではない。   Further, in the first embodiment, the operation target virtual object is arranged in the position / orientation sensor 105, but this arrangement is not essential.

[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
An object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係るシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the system which concerns on the 1st Embodiment of this invention. 1フレーム分の仮想空間の画像を生成してHMD108に出力するための処理のフローチャートである。10 is a flowchart of processing for generating an image of a virtual space for one frame and outputting the image to the HMD. 情報表示オブジェクトの従来の配置例を示す図である。It is a figure which shows the example of the conventional arrangement | positioning of an information display object. 情報表示オブジェクトの従来の配置例を示す図である。It is a figure which shows the example of the conventional arrangement | positioning of an information display object. 情報表示オブジェクトの従来の配置例を示す図である。It is a figure which shows the example of the conventional arrangement | positioning of an information display object. 情報表示オブジェクトの従来の配置例を示す図である。It is a figure which shows the example of the conventional arrangement | positioning of an information display object. (a)は視点座標系、(b)は観察座標系を示す図である。(A) is a view coordinate system, (b) is a diagram showing an observation coordinate system.

Claims (6)

観察者の視点の位置姿勢を取得する第1の取得工程と、
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得工程と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換工程と、
前記変換工程で得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置工程と、
前記配置工程で配置した仮想物体を含む仮想空間を前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする画像処理方法。
A first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of the pointing tool held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. A conversion step for converting the position and orientation in the system;
An arrangement step of arranging a virtual object that provides information to the observer in a position and orientation in the world coordinate system obtained in the conversion step;
A generation step of generating an image that is visible when the virtual space including the virtual object arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An image processing method comprising: an output step of outputting the image generated in the generation step to the outside.
更に、前記第2の取得工程で取得した位置姿勢に前記観察者による操作対象の仮想物体を配置する工程を備えることを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, further comprising a step of arranging a virtual object to be operated by the observer at the position and orientation acquired in the second acquisition step. 更に、前記視点から見える現実空間の画像を取得する第3の取得工程を備え、
前記出力工程では前記生成工程で生成した画像を前記第3の取得工程で取得した画像上に重畳させてから外部に出力することを特徴とする請求項1又は2に記載の画像処理方法。
And a third acquisition step of acquiring an image of the real space visible from the viewpoint,
3. The image processing method according to claim 1, wherein in the output step, the image generated in the generation step is superimposed on the image acquired in the third acquisition step and then output to the outside.
観察者の視点の位置姿勢を取得する第1の取得手段と、
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得手段と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換手段と、
前記変換手段によって得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間を前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする画像処理装置。
First acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of the pointing tool that is held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. Conversion means for converting the position and orientation in the system;
Arranging means for arranging a virtual object that provides information to the observer at a position and orientation in the world coordinate system obtained by the converting means;
Generating means for generating an image that is visible when the virtual space including the virtual object placed by the placing means is viewed from a viewpoint having the position and orientation obtained by the first obtaining means;
An image processing apparatus comprising: output means for outputting the image generated by the generating means to the outside.
コンピュータに請求項1乃至3の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 1 to 3. 請求項5に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 5.
JP2005071733A 2005-03-14 2005-03-14 Image processing method and image processing system Withdrawn JP2006252468A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005071733A JP2006252468A (en) 2005-03-14 2005-03-14 Image processing method and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005071733A JP2006252468A (en) 2005-03-14 2005-03-14 Image processing method and image processing system

Publications (1)

Publication Number Publication Date
JP2006252468A true JP2006252468A (en) 2006-09-21

Family

ID=37092864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005071733A Withdrawn JP2006252468A (en) 2005-03-14 2005-03-14 Image processing method and image processing system

Country Status (1)

Country Link
JP (1) JP2006252468A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034429A (en) * 2009-08-04 2011-02-17 Kddi Corp Display method and display system
JPWO2015170483A1 (en) * 2014-05-09 2017-04-20 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018120521A (en) * 2017-01-27 2018-08-02 株式会社コロプラ Method for providing virtual space, program for causing computer to execute the method and information processing apparatus for executing program
KR20190084803A (en) * 2018-01-09 2019-07-17 한국과학기술원 Furniture design apparatus displaying personalized guide information
WO2020157955A1 (en) * 2019-02-01 2020-08-06 マクセル株式会社 Virtual object display device and virtual object display method
JP2020533721A (en) * 2017-09-06 2020-11-19 エクス・ワイ・ジィー リアリティ リミテッドXyz Reality Limited Display of virtual image of building information model
WO2021095537A1 (en) * 2019-11-12 2021-05-20 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7011746B1 (en) 2021-05-31 2022-01-27 株式会社バーチャルキャスト Content distribution system, content distribution method, and content distribution program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034429A (en) * 2009-08-04 2011-02-17 Kddi Corp Display method and display system
JPWO2015170483A1 (en) * 2014-05-09 2017-04-20 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018120521A (en) * 2017-01-27 2018-08-02 株式会社コロプラ Method for providing virtual space, program for causing computer to execute the method and information processing apparatus for executing program
JP2020533721A (en) * 2017-09-06 2020-11-19 エクス・ワイ・ジィー リアリティ リミテッドXyz Reality Limited Display of virtual image of building information model
KR20190084803A (en) * 2018-01-09 2019-07-17 한국과학기술원 Furniture design apparatus displaying personalized guide information
KR102092374B1 (en) 2018-01-09 2020-03-23 한국과학기술원 Furniture design apparatus displaying personalized guide information
WO2020157955A1 (en) * 2019-02-01 2020-08-06 マクセル株式会社 Virtual object display device and virtual object display method
JPWO2020157955A1 (en) * 2019-02-01 2021-10-21 マクセル株式会社 Virtual object display device and virtual object display method
JP7274510B2 (en) 2019-02-01 2023-05-16 マクセル株式会社 VIRTUAL OBJECT DISPLAY DEVICE AND VIRTUAL OBJECT DISPLAY METHOD
US11960635B2 (en) 2019-02-01 2024-04-16 Maxell, Ltd. Virtual object display device and virtual object display method
WO2021095537A1 (en) * 2019-11-12 2021-05-20 ソニーグループ株式会社 Information processing device, information processing method, and program
US11954269B2 (en) 2019-11-12 2024-04-09 Sony Group Corporation Information processing apparatus, information processing method, and program for generating location data
JP7011746B1 (en) 2021-05-31 2022-01-27 株式会社バーチャルキャスト Content distribution system, content distribution method, and content distribution program
JP2022183943A (en) * 2021-05-31 2022-12-13 株式会社バーチャルキャスト Content distribution system, content distribution method and content distribution program

Similar Documents

Publication Publication Date Title
Daponte et al. State of the art and future developments of the Augmented Reality for measurement applications
JP4262011B2 (en) Image presentation method and apparatus
KR100953931B1 (en) System for constructing mixed reality and Method thereof
JP4933406B2 (en) Image processing apparatus and image processing method
CN100356300C (en) Virtual reality presentation device and information processing method
JP5472056B2 (en) Display system, display processing apparatus, display method, and display program
JP5709440B2 (en) Information processing apparatus and information processing method
TW201911133A (en) Controller tracking for multiple degrees of freedom
JP2006252468A (en) Image processing method and image processing system
JP2005346468A (en) Image processing method and image processor
JP2006302034A (en) Image processing method and image processor
JP7182976B2 (en) Information processing device, information processing method, and program
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
JP2008293357A (en) Information processing method and information processor
JP2007004713A (en) Image processing method and image processor
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2004265222A (en) Interface method, system, and program
CN109716396A (en) Information processing equipment, information processing method and program
US20190243461A1 (en) Cable movable region display device, cable movable region display method, and cable movable region display program
JP2009087161A (en) Image processor and image processing method
JP3848092B2 (en) Image processing apparatus and method, and program
JP4689344B2 (en) Information processing method and information processing apparatus
JP2006215750A (en) Image processing method, image processor
JP2005251118A (en) Method and device for image processing

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603