JP2006252468A - Image processing method and image processing system - Google Patents
Image processing method and image processing system Download PDFInfo
- Publication number
- JP2006252468A JP2006252468A JP2005071733A JP2005071733A JP2006252468A JP 2006252468 A JP2006252468 A JP 2006252468A JP 2005071733 A JP2005071733 A JP 2005071733A JP 2005071733 A JP2005071733 A JP 2005071733A JP 2006252468 A JP2006252468 A JP 2006252468A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- observer
- coordinate system
- viewpoint
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、仮想空間中に仮想物体を配置するための技術に関するものである。 The present invention relates to a technique for arranging a virtual object in a virtual space.
従来より、仮想現実感(VR : Virtual Reality)提示装置が存在する。仮想現実感提示装置とは、たとえば、頭部装着型ディスプレイ(HMD: Head Mounted Display)のような映像表示装置と、観察者の視点の位置姿勢を検出するための位置姿勢検出手段(たとえば位置姿勢センサ)と、CG映像生成手段とを備えている。 Conventionally, there is a virtual reality (VR) presentation device. The virtual reality presentation device is, for example, a video display device such as a head mounted display (HMD) and a position and orientation detection means (for example, a position and orientation) for detecting the position and orientation of the observer's viewpoint Sensor) and CG video generation means.
位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを観察者が装着するHMDに取り付ることによって観察者頭部の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Pitch, Yaw, Roll)をリアルタイムに検出する装置である。 As the position / orientation detection means, a magnetic position / orientation sensor or the like is used, and the position / orientation value of the observer's head is detected by attaching this to an HMD worn by the observer. A magnetic position / orientation sensor detects the relative position / orientation between a magnetic generator (transmitter) and a magnetic sensor (receiver), such as the FASTRAK product from the US company Polhemus. It is done. This is a device that detects the three-dimensional position (X, Y, Z) and posture (Pitch, Yaw, Roll) of a sensor in real time in a specific region.
CG映像生成手段は、三次元モデリングされたCGを現実空間と同じスケールの仮想空間に配置し、その仮想空間を位置姿勢検出手段によって検出された観察者視線位置姿勢からレンダリングするものである。 The CG video generation means places the CG modeled three-dimensionally in a virtual space of the same scale as the real space, and renders the virtual space from the observer's line-of-sight position / posture detected by the position / posture detection means.
このようにして生成されたCG映像を映像表示装置(HMDなど)に表示することにより、観察者はあたかも仮想のCG空間の中に没入しているような感覚を得ることができる。 By displaying the CG video generated in this way on a video display device (such as an HMD), the observer can feel as if they are immersed in a virtual CG space.
また、上記のような位置姿勢センサを新たに設け、仮想空間内のCGオブジェクトの位置姿勢を入力するために用いることもできる。たとえば、位置姿勢センサを移動・回転させることで仮想空間内のCGオブジェクトを移動・回転させることや、手に位置姿勢センサを装着して仮想オブジェクトの操作入力に用いることで、仮想空間において仮想物体と人間の動作とのインタラクションを実現することも従来から行われている。
従来のシステムでは、
たとえばメニューや情報掲示板のような、情報表示オブジェクトを仮想3次元空間内に配置して表示する際、次に示すような方法が取られており、それぞれには課題があった。
In conventional systems,
For example, when an information display object such as a menu or an information bulletin board is arranged and displayed in a virtual three-dimensional space, the following methods are used, each of which has a problem.
1) 図3に示すように、情報表示オブジェクト302をHMD108の位置姿勢を基準とする座標系内で固定的な位置に配置する。頭部(HMD108)をどのように移動・回転させても、HMD108が有する画面上に表示される情報表示オブジェクトの見え方は変化しないことになる。情報オブジェクトは画面の一部に常に見えるように仮想空間中に配置されるので、観察者は常に情報を確認できる。
1) As shown in FIG. 3, the
この場合、情報オブジェクトを画面の一部に常に見えるようにするために、視界視野の一部が情報表示オブジェクトによって常に遮られるという問題があった。 In this case, there is a problem that a part of the visual field is always blocked by the information display object so that the information object can always be seen on a part of the screen.
2) 情報表示オブジェクトを仮想3次元空間内の特定の位置姿勢に配置する。図4に示すように、情報表示オブジェクト302は世界座標系での特定の位置に固定されている。この場合は1)の場合と異なり、情報表示オブジェクトが配置された場所を向くと初めて情報表示オブジェクトを確認することができるため、観察者は常に情報表示オブジェクトによって視野が遮られるということはない。
2) An information display object is placed at a specific position and orientation in the virtual three-dimensional space. As shown in FIG. 4, the
ただし、情報を見るために観察者は特定の位置まで移動する必要があるという問題や、仮想3次元空間内で情報提示場所(情報表示オブジェクトの配置位置)を探さなければいけないという問題があった。また、情報表示オブジェクトが配置された位置に観察対象のCGオブジェクトを移動させようとした場合、両者の表示が重なってしまい、観察しづらいという問題があった。 However, there is a problem that the observer needs to move to a specific position in order to view the information, and there is a problem that the information presentation location (arrangement position of the information display object) must be searched in the virtual three-dimensional space. . In addition, when an attempt is made to move the CG object to be observed to the position where the information display object is arranged, there is a problem in that both displays overlap and it is difficult to observe.
3) 情報表示オブジェクトを観察対象のオブジェクトからの相対的な位置姿勢に配置する。図5に示すように、情報表示オブジェクト302はCGオブジェクトの位置姿勢を基準とした座標系での特定の位置に配置される。これは、観察対象オブジェクトと情報オブジェクトを同時に観察しやすく、観察対象オブジェクトを別の位置に動かせば情報表示オブジェクトも追随するので都合がよい場合がある。
3) The information display object is arranged at a relative position and orientation from the object to be observed. As shown in FIG. 5, the
しかし、一方で、情報表示オブジェクト302が常に観察対象CGオブジェクト303のそばにあるので観察のさまたげになりやすいという問題があり、必要なときだけ情報を見たいという要求に応えることができなかった。また、観察対象CGオブジェクト303を回転させるなどすれば情報表示オブジェクト302は観察対象CGオブジェクト303を中心に回転するため、期せずして視野に入ってしまったり、情報表示オブジェクトが動いてしまって情報が観察しづらくなることがあるという問題があった。
However, on the other hand, since the
4) 情報表示オブジェクトを観察者の頭部位置を基点とした特定の相対方位・距離に表示する。HMDの位置姿勢を順とした座標系内の特定の位置に固定するのではなく、観察者頭部の姿勢によらずに、観察者頭部の位置から見た特定の方位・距離に配置するというものである。図6に示すように、HMD108を同図上部に示す位置姿勢から同図下部に示す位置姿勢に変化させた場合、情報表示オブジェクト302は図示したように変化する。1)の場合では情報表示オブジェクト302はHMD座標系に固定されていたため、観察者が頭部を回転すると情報表示オブジェクトの位置も変化するが、この場合ではHMDの姿勢が変化しても情報表示オブジェクトの位置には影響せず、HMDの位置変化のみが影響する。この場合の利点は、情報表示オブジェクトは観察者の頭部位置に付随してくるために2)の方法に比べて情報表示オブジェクトの位置が発見されやすいということであり、観察者は特定の方向を向くことで情報表示オブジェクトをたやすく発見し確認することが可能である。また観察対象オブジェクトとは無関係なので3)のように観察対象オブジェクトを回転させたときに情報表示オブジェクトが移動することもない。
4) An information display object is displayed in a specific relative azimuth / distance based on the observer's head position. Rather than being fixed at a specific position in the coordinate system in the order of the position and orientation of the HMD, it is arranged at a specific orientation / distance seen from the position of the observer's head, regardless of the posture of the observer's head. That's it. As shown in FIG. 6, when the
ただし、この場合でも、情報表示オブジェクトが表示される方位は固定であるため、情報表示オブジェクトが置かれた方向に観察対象オブジェクトが移動した場合には、両者は重なってしまうという問題がある。 However, even in this case, since the direction in which the information display object is displayed is fixed, there is a problem in that when the observation target object moves in the direction in which the information display object is placed, the two overlap.
本発明は以上の問題に鑑みてなされたものであり、観察者に対して情報を提供する仮想物体を観察者の視点から見て好適な位置姿勢に配置する為の技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for arranging a virtual object that provides information to an observer in a suitable position and orientation when viewed from the viewpoint of the observer. And
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.
即ち、観察者の視点の位置姿勢を取得する第1の取得工程と、
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得工程と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換工程と、
前記変換工程で得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置工程と、
前記配置工程で配置した仮想物体を含む仮想空間を前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする。
That is, a first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of the pointing tool held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. A conversion step for converting the position and orientation in the system;
An arrangement step of arranging a virtual object that provides information to the observer in a position and orientation in the world coordinate system obtained in the conversion step;
A generation step of generating an image that is visible when the virtual space including the virtual object arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An output step of outputting the image generated in the generation step to the outside.
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、観察者の視点の位置姿勢を取得する第1の取得手段と、
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得手段と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換手段と、
前記変換手段によって得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間を前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする。
That is, first acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of the pointing tool that is held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. Conversion means for converting the position and orientation in the system;
Arranging means for arranging a virtual object that provides information to the observer at a position and orientation in the world coordinate system obtained by the converting means;
Generating means for generating an image that is visible when the virtual space including the virtual object placed by the placing means is viewed from a viewpoint having the position and orientation obtained by the first obtaining means;
Output means for outputting the image generated by the generating means to the outside.
本発明の構成により、観察者に対して情報を提供する仮想物体を観察者の視点から見て好適な位置姿勢に配置することができる。 According to the configuration of the present invention, a virtual object that provides information to an observer can be arranged in a suitable position and orientation as viewed from the observer's viewpoint.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[第1の実施形態]
<システムの構成について>
図1は本実施形態に係るシステムのハードウェア構成を示す図である。同図に示す如く、本実施形態に係るシステムは、CPU101、HMD108、位置姿勢センサ104,105、センサコントローラ(CTL)103、メモリ106,107により構成されている。
[First Embodiment]
<System configuration>
FIG. 1 is a diagram illustrating a hardware configuration of a system according to the present embodiment. As shown in the figure, the system according to this embodiment includes a
また、メモリ106には以下説明する各種の処理をCPU101に実行させるためのプログラムが格納されており、メモリ107にはCPU101が各種の処理を実行する際に用いるデータが格納されている。メモリ106,107が格納しているそれぞれの情報については後述する。
The
HMD108は周知の通り観察者が頭部に装着することで、その眼前に画像が表示されるように表示画面が取り付けられたもので、本実施形態では光学シースルー型のものを用いる。よって、この表示画面は、透過して現実空間が見えると共に、以下説明する処理で生成された仮想空間の画像を表示することができる。よって、観察者がこの表示画面を見ることで、現実空間を仮想空間の画像が重畳された状態で観察することができる。光学シースルー型のHMDについては周知のものであるので、これ以上の説明は省略する。
As is well known, the
また、このHMD108には位置姿勢センサ104が取り付けられている。位置姿勢センサ104は本実施形態では磁気センサであるとする。よって、現実空間中の所定の位置には磁界の発生源が設置されている。発生源からは磁界が発生され、位置姿勢センサ104は自身の位置姿勢に応じた磁気の変化を検知する。検知した結果を示す信号はセンサコントローラ103に出力する。センサコントローラ103は受けた信号に基づいて「センサ座標系(上記発生源の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における位置姿勢センサ104の位置姿勢を示すデータ」を生成し、メモリ107に出力する。
A position /
位置姿勢センサ105は位置姿勢センサ104と同様のもので、自身の位置姿勢に応じた磁気の変化を検知する。検知した結果を示す信号はセンサコントローラ103に出力する。センサコントローラ103は受けた信号に基づいて「センサ座標系における位置姿勢センサ105の位置姿勢を示すデータ」を生成し、メモリ107に出力する。
The position /
ここで、位置姿勢センサ105は観察者が手に保持し、その位置や姿勢を自在に変更することができる指示具として用いられる。また、この位置姿勢センサ105には仮想物体(操作対象仮想物体)が配置される。従って観察者が位置姿勢センサ105の位置や姿勢を変更すると、それに連動して操作対象仮想物体の位置や姿勢も変更される。
Here, the position /
<仮想空間の画像生成処理について>
次に、上記構成を有するシステムによって仮想空間の画像を生成して、HMD108に出力するまでの一連の処理について説明する。
<About virtual space image generation processing>
Next, a series of processing until a virtual space image is generated by the system having the above configuration and output to the
本実施形態では仮想空間中には操作対象仮想物体以外に、観察者に対して提供する各種の情報が記載された仮想物体(情報提供仮想物体)を配置する。以下ではこの情報提供仮想物体の配置位置姿勢を制御する処理について詳細に説明する。なお、この情報提供仮想物体は、例えば2次元平面上に様々なメニューが記載されていたり、システム状況が適宜表示されたりするようなものであったり、或いはその形状自体でもって情報を観察者に提示するような仮想物体であるが、その情報提供の形態については特に限定するものではない。また、仮想空間中にはこれ以外の仮想物体を配置するようにしても良い。 In this embodiment, in addition to the operation target virtual object, a virtual object (information providing virtual object) in which various types of information provided to the observer are described is arranged in the virtual space. Hereinafter, processing for controlling the arrangement position and orientation of the information providing virtual object will be described in detail. The information providing virtual object is, for example, a menu on which various menus are described on a two-dimensional plane, a system status is displayed as appropriate, or information on its shape itself to the observer. Although it is a virtual object to be presented, the information provision form is not particularly limited. In addition, other virtual objects may be arranged in the virtual space.
図2は、1フレーム分の仮想空間の画像を生成してHMD108に出力するための処理のフローチャートである。なお、CPU101は、メモリ107に格納されているそれぞれのデータを適宜用いて、メモリ106に格納されているそれぞれのプログラムを適宜実行することで、同図のフローチャートに従った処理を実行することができる。
FIG. 2 is a flowchart of processing for generating a virtual space image for one frame and outputting it to the
先ず、HMD108に取り付けられた位置姿勢センサ104は自身の位置姿勢に応じた磁気の変化を検知するので、検知した結果を示す信号をセンサコントローラ103に出力する。センサコントローラ103はこの信号に基づいて「センサ座標系における位置姿勢センサ104の位置姿勢を示すデータ」を生成し、メモリ107に入力する。
First, since the position /
CPU101はこのデータを受けると、位置姿勢検出プログラム111を実行し、観察者の視点の位置姿勢を求める処理を行う(ステップS201)。
Upon receiving this data, the
ここで「視点」とは、CGを描画する仮想カメラの視体積を表す錐台の頂点を置く位置(右目、左目の何れかでも良いし、両方であっても良い)のことであり、HMDの表示面から焦点距離だけ手前に置かれ、装着時にその位置に観察者の目が位置することが期待される位置である。予めこの視点と位置姿勢センサ104との位置姿勢関係は測定しておき、その測定結果をデータ(バイアスデータ)としてメモリ107に格納しておく。そしてセンサコントローラ103から「センサ座標系における位置姿勢センサ104の位置姿勢を示すデータ」を受けると、このデータに上記バイアスデータを加えることで、「センサ座標系における視点の位置姿勢」を求めることができる。
Here, the “viewpoint” is the position where the apex of the frustum representing the visual volume of the virtual camera that draws the CG is placed (either the right eye or the left eye, or both), and the HMD This is a position that is placed in front of the display surface by a focal length and is expected to have the viewer's eyes located at that position when worn. The position and orientation relationship between the viewpoint and the position and
更に、世界座標系(現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系であり、仮想空間と現実空間とで共有している)における磁界発生源の位置姿勢を予め測定しておき、これをデータ(第2のバイアスデータ)としてメモリ107に格納しておけば、「センサ座標系における視点の位置姿勢」を示すデータに第2のバイアスデータを加えることで、「世界座標系における視点の位置姿勢」を求めることができる。
Furthermore, the world coordinate system (a coordinate system with one point in the real space as the origin and three axes orthogonal to each other at the origin, the x axis, the y axis, and the z axis, is shared between the virtual space and the real space. If the position and orientation of the magnetic field generation source is measured in advance and stored in the
なお、「視点」の定義、及び視点の世界座標系における位置姿勢を求める方法についてはこれに限定するものではない。 Note that the definition of the “viewpoint” and the method for obtaining the position and orientation of the viewpoint in the world coordinate system are not limited thereto.
そして求めた「視点の世界座標系における位置姿勢」を示すデータをデータ121としてメモリ107に格納する。
Then, the obtained data indicating the “position and orientation of the viewpoint in the world coordinate system” is stored in the
一方、位置姿勢センサ105は自身の位置姿勢に応じた磁気の変化を検知するので、検知した結果を示す信号をセンサコントローラ103に出力する。センサコントローラ103はこの信号に基づいて「センサ座標系における位置姿勢センサ105の位置姿勢を示すデータ」を生成し、メモリ107に入力する。
On the other hand, the position /
CPU101はこのデータを受けると、位置姿勢検出プログラム111を実行し、このデータに上記第2のバイアスデータを加えて「世界座標系における位置姿勢センサ105の位置姿勢を示すデータ」を得、これをデータ122としてメモリ107に格納する(ステップS202)。そして次に、CG生成プログラム112を実行し、CGデータ123から操作対象仮想物体の描画データを読み出して操作対象仮想物体を生成し、これをデータ122が示す位置姿勢に配置する(ステップS203)。
Upon receiving this data, the
ここでCGデータ123とは、仮想物体毎の描画データから構成されており、描画データは、例えば仮想物体がポリゴンでもって構成されている場合には、仮想物体(操作対象仮想物体、情報提供仮想物体は除く)の配置位置姿勢データ、仮想物体を構成するポリゴンを構成する各頂点の座標データ、ポリゴンの法線ベクトルデータ、ポリゴンカラーデータ、また、この仮想物体にテクスチャマッピングを行う場合には、テクスチャのデータ等から構成されている。
Here, the
これにより、位置姿勢センサ105の世界座標系における位置姿勢に操作対象仮想物体を配置することができる。
Thereby, the operation target virtual object can be arranged at the position and orientation in the world coordinate system of the position and
次に、CPU101は観察座標算出プログラム113を実行し、以下説明する観察座標系と世界座標系との間で座標値変換を行うための変換行列を求める(ステップS204)。観察座標系とは、視点の位置を原点とした場合に、この原点から操作対象仮想物体の位置に向かう軸(第1の軸)と、原点で第1の軸と互いに直交する2軸(第2の軸、第3の軸)とで構成される座標系であり、例えば第1の軸はz軸、第2,3の軸はそれぞれx軸、y軸とすることができる。
Next, the
ここで観察座標系について更に詳しく説明する。 Here, the observation coordinate system will be described in more detail.
図7(a)は視点座標系、図7(b)は観察座標系を示す図である。視点座標系は図7(a)に示す如く、視点の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。同図では視線方向の軸をz軸、原点から頭上方向への軸をy軸、z軸とy軸に視点位置で直交する軸をx軸としている。 FIG. 7A shows a viewpoint coordinate system, and FIG. 7B shows an observation coordinate system. As shown in FIG. 7A, the viewpoint coordinate system is a coordinate system in which the position of the viewpoint is the origin, and three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis. In the figure, the axis in the line-of-sight direction is the z axis, the axis from the origin to the overhead direction is the y axis, and the axis orthogonal to the z axis and the y axis at the viewpoint position is the x axis.
一方、観察座標系は図7(b)に示す如く、視点の位置を原点とした場合に、この原点から操作対象仮想物体の位置に向かう第1の軸と、原点で第1の軸と直交する第2の軸、第3の軸とで構成される座標系である。同図では第1の軸をz軸としている。x軸、y軸については様々な決定方法が考えられるが、例えば、x軸は、z軸と直交し、且つ世界座標系におけるxz平面(水平面)と平行な軸とし、y軸は、x軸、z軸と視点位置で直交し、且つ世界座標系における上向きを示すような方向に向けた軸とする。 On the other hand, as shown in FIG. 7B, the observation coordinate system has a first axis that is directed from the origin to the position of the virtual object to be operated, and the origin is orthogonal to the first axis when the position of the viewpoint is the origin. This is a coordinate system composed of a second axis and a third axis. In the figure, the first axis is the z-axis. Various determination methods can be considered for the x-axis and the y-axis. For example, the x-axis is orthogonal to the z-axis and is parallel to the xz plane (horizontal plane) in the world coordinate system, and the y-axis is the x-axis. , An axis that is orthogonal to the z-axis at the viewpoint position and that faces in a direction that indicates upward in the world coordinate system.
なお、観察座標系のx軸の設定については他にも考えられ、例えば観察座標系のy軸を視点座標系におけるzy平面で見たときに、視点座標系のy軸に一致させるように設定すれば、観察座標系の上向き(Y軸向き)が観察者にとって常に上向きに一致するようにすることも可能である。また、観察座標系におけるx軸を、視点座標系における水平面(XZ平面)と平行にすることも可能である。 Note that there are other possible settings for the x-axis of the observation coordinate system. For example, when the y-axis of the observation coordinate system is viewed on the zy plane in the viewpoint coordinate system, it is set to match the y-axis of the viewpoint coordinate system. In this case, it is possible to make the upward direction of the observation coordinate system (the Y-axis direction) always coincide with the upward direction for the observer. It is also possible to make the x axis in the observation coordinate system parallel to the horizontal plane (XZ plane) in the viewpoint coordinate system.
以上のような観察座標系を定義すると、世界座標系と観察座標系との間の変換行列を周知の技術でもって求めることができる。即ち求めた変換行列は、世界座標系における座標値を観察座標系における座標値に変換できるし、逆に観察座標系における座標値を世界座標系における座標値に変換することもできる。なお、求めた変換行列のデータはデータ124としてメモリ107に格納する。
If the observation coordinate system as described above is defined, a transformation matrix between the world coordinate system and the observation coordinate system can be obtained by a known technique. That is, the obtained conversion matrix can convert the coordinate value in the world coordinate system into the coordinate value in the observation coordinate system, and conversely, the coordinate value in the observation coordinate system can be converted into the coordinate value in the world coordinate system. The obtained transformation matrix data is stored in the
図2に戻って、次に、CPU101は情報表示位置姿勢設定プログラム114を実行し、情報提供仮想物体の世界座標系における配置位置姿勢を求める(ステップS205)。本実施形態では、本フローチャートに従った処理の前段で、上記観察座標系における情報提供仮想物体の所望の配置位置姿勢を決定し、決定した位置姿勢を示すデータをデータ125としてメモリ107に格納している。よって世界座標系における情報提供仮想物体の配置位置姿勢Qは、データ125が示す位置姿勢をベクトルP、データ124が示す変換行列をMとすると、以下の式
Q=M・P
を計算することで求めることができる。求めた「世界座標系における情報提供仮想物体の配置位置姿勢」を示すデータはデータ126としてメモリ107に格納される。
Returning to FIG. 2, next, the
Can be obtained by calculating. The obtained data indicating the “location position and orientation of the information providing virtual object in the world coordinate system” is stored in the
なお、本実施形態では、観察座標系における情報提供仮想物体の配置位置姿勢を予め決定しておいたが、これに限定するものではなく、各フレームの仮想空間画像を生成する毎に、好適な位置姿勢を計算するようにしても良い。例えば、情報提供仮想物体が文字列が記載された仮想物体である場合には、この記載面が観察者側に向くように情報提供仮想物体の配置姿勢を適宜変更するようにしても良い。 In this embodiment, the arrangement position and orientation of the information providing virtual object in the observation coordinate system are determined in advance. However, the present invention is not limited to this, and each time a virtual space image of each frame is generated, a suitable position is provided. The position and orientation may be calculated. For example, when the information provision virtual object is a virtual object in which a character string is described, the arrangement posture of the information provision virtual object may be appropriately changed so that the description surface faces the viewer.
また、情報提供仮想物体を常に世界座標系において正立するような姿勢に配置するようにしても良い。即ち、情報提供仮想物体の上向きが世界座標系における上向きと略一致するように情報提供仮想物体を配置する。 In addition, the information providing virtual object may be arranged in an attitude that always stands upright in the world coordinate system. In other words, the information providing virtual object is arranged so that the upward direction of the information providing virtual object substantially coincides with the upward direction in the world coordinate system.
いずれの場合も、情報提供仮想物体の世界座標系における配置位置が決定した後に、更に情報提供仮想物体が所望の姿勢になるように回転させれば良い。 In any case, after the arrangement position of the information provision virtual object in the world coordinate system is determined, the information provision virtual object may be further rotated so as to have a desired posture.
図2に戻って、次に、CPU101は、CG生成プログラム112を実行して、CGデータ123から情報提供仮想物体の描画データを読み出して情報提供仮想物体を生成し、これをデータ126が示す位置姿勢に配置する(ステップS206)。
Returning to FIG. 2, next, the
次にCPU101は、CG生成プログラム112を実行して、上記操作対象仮想物体、情報提供仮想物体を含む仮想物体群が配置された仮想空間を、上記データ121が示す「世界座標系における視点の位置姿勢」を有する視点から見た場合に見える画像(仮想空間の画像)を生成し(ステップS207)、生成した画像をHMD108に送出する(ステップS208)。
Next, the
以上の処理により、1フレーム分の仮想空間画像を生成し、HMD108に送出することができるので、この処理を各フレームについて行うことで、HMD108が有する表示画面には連続した各フレームの仮想空間の画像が表示される。
With the above processing, a virtual space image for one frame can be generated and sent to the
なお、HMD108がステレオ表示可能な場合には、ステップS201では右目、左目のそれぞれの位置姿勢を取得し、ステップS204では右目、左目の何れかの目を視点として観察座標系を求め、ステップS207では、右目、左目のそれぞれから見える仮想空間の画像を生成する。
If the
以上の説明により、本実施形態によって、視点や操作対象仮想物体を回転させても情報提供仮想物体の配置位置は変化しない。 As described above, according to the present embodiment, the arrangement position of the information providing virtual object does not change even if the viewpoint or the operation target virtual object is rotated.
また、操作対象仮想物体以外の仮想物体を観察する際には、情報提供仮想物体を観察者の視野外に配置する事ができる。 Further, when observing a virtual object other than the operation target virtual object, the information providing virtual object can be arranged outside the observer's field of view.
また、視点と操作対象仮想物体と情報提供仮想物体との位置関係は一定であるために、観察者の視野にない情報提供仮想物体を発見することが容易となる。 In addition, since the positional relationship among the viewpoint, the operation target virtual object, and the information providing virtual object is constant, it is easy to find an information providing virtual object that is not in the observer's field of view.
[第2の実施形態]
第1の実施形態ではセンサとして全て磁気センサを用いて位置姿勢を計測しているが、センサとしてはこれ以外にも考えられ、例えば超音波センサ、光学式センサなど、その他のセンサを用いるようにしても良い。
[Second Embodiment]
In the first embodiment, the position and orientation are measured using all magnetic sensors as the sensors. However, other sensors may be used, and other sensors such as ultrasonic sensors and optical sensors may be used. May be.
また、視点の位置姿勢を求める手段についてはセンサを用いることに限定するものではなく、例えば、HMD108に新たにカメラを付加し、現実空間中にマーカを配置し、この配置位置、及びマーカをカメラでもって撮像した画像上における座標位置を用いてHMD108の位置姿勢を取得する方法を用いるようにしても良い。よって、視点の位置姿勢が得られるのであれば、センサを用いることには限定しない。
The means for obtaining the position and orientation of the viewpoint is not limited to using a sensor. For example, a new camera is added to the
また、第1の実施形態ではHMD108には光学シースルー型のものを用いているが、ビデオシースルー型のものを用いるようにしても良い。
In the first embodiment, the optical see-through type is used for the
また、第1の実施形態では、位置姿勢センサ105は1つのみとしたが、複数設けるようにし、それぞれの位置姿勢センサ105に操作対象仮想物体を配置するようにしても良い。
In the first embodiment, only one position /
また、第1の実施形態では、位置姿勢センサ105に操作対象仮想物体を配置しているが、この配置は必須なものではない。
Further, in the first embodiment, the operation target virtual object is arranged in the position /
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
An object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (6)
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得工程と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換工程と、
前記変換工程で得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置工程と、
前記配置工程で配置した仮想物体を含む仮想空間を前記第1の取得工程で取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成工程と、
前記生成工程で生成した画像を外部に出力する出力工程と
を備えることを特徴とする画像処理方法。 A first acquisition step of acquiring the position and orientation of the observer's viewpoint;
A second acquisition step of acquiring the position and orientation of the pointing tool held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. A conversion step for converting the position and orientation in the system;
An arrangement step of arranging a virtual object that provides information to the observer in a position and orientation in the world coordinate system obtained in the conversion step;
A generation step of generating an image that is visible when the virtual space including the virtual object arranged in the arrangement step is viewed from a viewpoint having the position and orientation acquired in the first acquisition step;
An image processing method comprising: an output step of outputting the image generated in the generation step to the outside.
前記出力工程では前記生成工程で生成した画像を前記第3の取得工程で取得した画像上に重畳させてから外部に出力することを特徴とする請求項1又は2に記載の画像処理方法。 And a third acquisition step of acquiring an image of the real space visible from the viewpoint,
3. The image processing method according to claim 1, wherein in the output step, the image generated in the generation step is superimposed on the image acquired in the third acquisition step and then output to the outside.
前記観察者が手に保持して操作する指示具の位置姿勢を取得する第2の取得手段と、
前記視点の位置を原点とした場合に、当該原点から前記指示具の位置に向かう軸と、当該原点で当該軸と交差する2軸とで構成される座標系内における所望の位置姿勢を世界座標系における位置姿勢に変換する変換手段と、
前記変換手段によって得られた世界座標系における位置姿勢に、前記観察者に対して情報を提供する仮想物体を配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間を前記第1の取得手段が取得した位置姿勢を有する視点から見た場合に見える画像を生成する生成手段と、
前記生成手段が生成した画像を外部に出力する出力手段と
を備えることを特徴とする画像処理装置。 First acquisition means for acquiring the position and orientation of the viewpoint of the observer;
Second acquisition means for acquiring the position and orientation of the pointing tool that is held and operated by the observer;
When the position of the viewpoint is the origin, a desired position and orientation in a coordinate system composed of an axis from the origin to the position of the pointing tool and two axes that intersect the axis at the origin are represented as world coordinates. Conversion means for converting the position and orientation in the system;
Arranging means for arranging a virtual object that provides information to the observer at a position and orientation in the world coordinate system obtained by the converting means;
Generating means for generating an image that is visible when the virtual space including the virtual object placed by the placing means is viewed from a viewpoint having the position and orientation obtained by the first obtaining means;
An image processing apparatus comprising: output means for outputting the image generated by the generating means to the outside.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005071733A JP2006252468A (en) | 2005-03-14 | 2005-03-14 | Image processing method and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005071733A JP2006252468A (en) | 2005-03-14 | 2005-03-14 | Image processing method and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006252468A true JP2006252468A (en) | 2006-09-21 |
Family
ID=37092864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005071733A Withdrawn JP2006252468A (en) | 2005-03-14 | 2005-03-14 | Image processing method and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006252468A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034429A (en) * | 2009-08-04 | 2011-02-17 | Kddi Corp | Display method and display system |
JPWO2015170483A1 (en) * | 2014-05-09 | 2017-04-20 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2018120521A (en) * | 2017-01-27 | 2018-08-02 | 株式会社コロプラ | Method for providing virtual space, program for causing computer to execute the method and information processing apparatus for executing program |
KR20190084803A (en) * | 2018-01-09 | 2019-07-17 | 한국과학기술원 | Furniture design apparatus displaying personalized guide information |
WO2020157955A1 (en) * | 2019-02-01 | 2020-08-06 | マクセル株式会社 | Virtual object display device and virtual object display method |
JP2020533721A (en) * | 2017-09-06 | 2020-11-19 | エクス・ワイ・ジィー リアリティ リミテッドXyz Reality Limited | Display of virtual image of building information model |
WO2021095537A1 (en) * | 2019-11-12 | 2021-05-20 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7011746B1 (en) | 2021-05-31 | 2022-01-27 | 株式会社バーチャルキャスト | Content distribution system, content distribution method, and content distribution program |
-
2005
- 2005-03-14 JP JP2005071733A patent/JP2006252468A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034429A (en) * | 2009-08-04 | 2011-02-17 | Kddi Corp | Display method and display system |
JPWO2015170483A1 (en) * | 2014-05-09 | 2017-04-20 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2018120521A (en) * | 2017-01-27 | 2018-08-02 | 株式会社コロプラ | Method for providing virtual space, program for causing computer to execute the method and information processing apparatus for executing program |
JP2020533721A (en) * | 2017-09-06 | 2020-11-19 | エクス・ワイ・ジィー リアリティ リミテッドXyz Reality Limited | Display of virtual image of building information model |
KR20190084803A (en) * | 2018-01-09 | 2019-07-17 | 한국과학기술원 | Furniture design apparatus displaying personalized guide information |
KR102092374B1 (en) | 2018-01-09 | 2020-03-23 | 한국과학기술원 | Furniture design apparatus displaying personalized guide information |
WO2020157955A1 (en) * | 2019-02-01 | 2020-08-06 | マクセル株式会社 | Virtual object display device and virtual object display method |
JPWO2020157955A1 (en) * | 2019-02-01 | 2021-10-21 | マクセル株式会社 | Virtual object display device and virtual object display method |
JP7274510B2 (en) | 2019-02-01 | 2023-05-16 | マクセル株式会社 | VIRTUAL OBJECT DISPLAY DEVICE AND VIRTUAL OBJECT DISPLAY METHOD |
US11960635B2 (en) | 2019-02-01 | 2024-04-16 | Maxell, Ltd. | Virtual object display device and virtual object display method |
WO2021095537A1 (en) * | 2019-11-12 | 2021-05-20 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
US11954269B2 (en) | 2019-11-12 | 2024-04-09 | Sony Group Corporation | Information processing apparatus, information processing method, and program for generating location data |
JP7011746B1 (en) | 2021-05-31 | 2022-01-27 | 株式会社バーチャルキャスト | Content distribution system, content distribution method, and content distribution program |
JP2022183943A (en) * | 2021-05-31 | 2022-12-13 | 株式会社バーチャルキャスト | Content distribution system, content distribution method and content distribution program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Daponte et al. | State of the art and future developments of the Augmented Reality for measurement applications | |
JP4262011B2 (en) | Image presentation method and apparatus | |
KR100953931B1 (en) | System for constructing mixed reality and Method thereof | |
JP4933406B2 (en) | Image processing apparatus and image processing method | |
CN100356300C (en) | Virtual reality presentation device and information processing method | |
JP5472056B2 (en) | Display system, display processing apparatus, display method, and display program | |
JP5709440B2 (en) | Information processing apparatus and information processing method | |
TW201911133A (en) | Controller tracking for multiple degrees of freedom | |
JP2006252468A (en) | Image processing method and image processing system | |
JP2005346468A (en) | Image processing method and image processor | |
JP2006302034A (en) | Image processing method and image processor | |
JP7182976B2 (en) | Information processing device, information processing method, and program | |
WO2018113759A1 (en) | Detection system and detection method based on positioning system and ar/mr | |
JP2008293357A (en) | Information processing method and information processor | |
JP2007004713A (en) | Image processing method and image processor | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
JP2004265222A (en) | Interface method, system, and program | |
CN109716396A (en) | Information processing equipment, information processing method and program | |
US20190243461A1 (en) | Cable movable region display device, cable movable region display method, and cable movable region display program | |
JP2009087161A (en) | Image processor and image processing method | |
JP3848092B2 (en) | Image processing apparatus and method, and program | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2006215750A (en) | Image processing method, image processor | |
JP2005251118A (en) | Method and device for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |