JP2004013309A - Information processing method and apparatus for presenting augmented reality - Google Patents

Information processing method and apparatus for presenting augmented reality Download PDF

Info

Publication number
JP2004013309A
JP2004013309A JP2002162986A JP2002162986A JP2004013309A JP 2004013309 A JP2004013309 A JP 2004013309A JP 2002162986 A JP2002162986 A JP 2002162986A JP 2002162986 A JP2002162986 A JP 2002162986A JP 2004013309 A JP2004013309 A JP 2004013309A
Authority
JP
Japan
Prior art keywords
image
sensor
computer graphics
sensors
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002162986A
Other languages
Japanese (ja)
Inventor
Yasuhiro Okuno
奥野 泰弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002162986A priority Critical patent/JP2004013309A/en
Publication of JP2004013309A publication Critical patent/JP2004013309A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To superpose intended CG at all times regardless of the kinds of sensors mounted by making it possible to select suitable CG according to the positional relationship of sensors, and avoiding unexpected, unnatural CG superposition due to errors in mounting the sensors. <P>SOLUTION: A plurality of sensors are installed in different positions. After the sensors are installed, the sensors are matched against computer graphics according to the output values of the plurality of sensors. Based on this matching, computer graphics matching the sensors are synthesized in the positions corresponding to the output values obtained from the plurality of sensors. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
実画像に対して、センサの出力値に応じた位置にコンピュータグラフィックスを合成するものに関する。
【0002】
【従来の技術】
従来より、現実世界の映像と、三次元モデリングされたCGによる映像を重畳して表示し、あたかも現実の世界中にCG(コンピュータグラフィックス)で描かれた物体(仮想物体)が存在しているかのように見せることができるような複合現実感提示装置が存在する。これは、現実の映像を撮影するための現実映像撮影手段(たとえばビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者を合成して表示することのできる映像表示手段(たとえばHMD(ヘッドマウントディスプレイ)またはモニタ)からなる装置である。ここで、現実映像撮影手段の視線の位置が変わった場合であってもCGと現実映像との位置関係が正しくなるようになっており、現実映像撮影手段(ビデオカメラ)の視線位置・視線方向を検出するための、視線位置姿勢検出手段(たとえば位置姿勢センサ)を備えている。CG映像生成手段は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置、視線方向から観察されたものとしてCGをレンダリングする。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置・視線方向から観察した場合でも、現実空間の中に正しくCGで生成された映像が置かれているような映像を表示ことができる。
【0003】
また、CGを出現させたい場所にもさらなる位置姿勢検出装置を取り付け、そこから得られた位置にCGを出現させることも行われている。たとえば手に位置姿勢検出装置(位置姿勢センサ)を取り付け、そのセンサの位置にCGを生成することによって、あたかも手の上に常にCGが乗っているように(手をどのように動かしても手の上にCGが乗っているように)表示して見せることが可能になる。
【0004】
現実空間の映像を撮影する現実映像撮影手段は、たとえばビデオカメラであり、カメラの視線方向にある映像を撮影し、メモリ中にキャプチャする手段である。
【0005】
現実空間の映像とCGとを合成して表示する映像表示装置としては、たとえばHMD(ヘッドマウントディスプレイ)が用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、その方向を向いたときのCGの描画も行えるため、観察者の没入感を高めることができる。
【0006】
位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Roll,Pitch,Yaw)をリアルタイムに検出する装置である。
【0007】
上記の構成により、観察者はHMDを通じて、現実映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成し、これを現実映像に重畳して表示する。
【0008】
また、観察者を複数設けることも可能である。現実空間を撮影するビデオカメラと表示装置(HMDなど)、位置姿勢センサを観察者数だけ用意し、それぞれの観察者の視点から現実空間の撮影とCGの生成を行い、合成して、それぞれの観察者に表示すればよい。
【0009】
【発明が解決しようとする課題】
従来のシステムでは、センサの位置にCGを重畳するといった場合に、CGは事前にセンサのIDと対応づけされ、あるセンサの位置には決まった種類のCGを重畳していた。たとえば、プレイヤの手にグローブのCGを、足にブーツのCGを重畳したい場合、手には手のCGに対応した位置センサを、足には足のCGに対応した位置センサを正しく装着する必要があった。仮に両者を取り違えて装着すると、手にブーツのCGが重畳され、足にはグローブのCGが重畳されてしまっていた。
【0010】
また、右手に装着した場合と左手に装着した場合で異なる種類のCGを重畳したいといった場合には右手用と左手用と2つのセンサを用意する必要があった。
【0011】
本発明は上述の問題点に鑑みてなされたものであり、本願請求項1の発明は、センサの位置関係に応じて好適なCGを選択することができ、センサの装着間違いによる予期せぬ不自然なCG重畳を避け、どのセンサを装着しても常に意図通りのCGを重畳することができるようにすることを目的とする。
【0012】
本願請求項5の発明は、センサの位置関係に応じて、重畳するCGを動的に変化させることが可能にすることを目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために本発明は以下の構成を有することを特徴とする。
【0014】
請求項1記載の発明は、実画像に対して、センサの出力値に応じた位置にコンピュータグラフィックスを合成する情報処理方法であって、複数のセンサを異なる部位に設置し、前記センサを設置した後に、前記複数のセンサの出力値から各センサとコンピュータグラフィックスの対応付けを行い、前記対応付けに基づき、前記複数のセンサのそれぞれから得られる出力値に応じた位置に、各センサに対応するコンピュータグラフィックスを合成することを特徴とする。
【0015】
請求項5記載の発明は、コンピュータグラフィックス画像を生成するCG映像生成手段と、現実世界の映像を撮影する現実映像撮影手段と、前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示手段とを有する複合現実感提示装置において、コンピュータグラフィックス画像を重畳する位置を検知するための位置センサと、前記位置センサから得られる位置に重畳すべきコンピュータグラフィックスの種類を動的に判断するCG選択手段とを有することを特徴とする。
【0016】
【発明の実施の形態】
以下、本特許の実施形態について、図を用いて説明する。
【0017】
本実施形態では、プレイヤは頭部と手と足に位置姿勢センサを装着し、手と足のセンサを装着した位置にCGを重畳して複合現実感を提示するシステムである。ここでは一例として手にはグローブのCGを、足にはブーツのCGを重畳するとする。なお、頭部の位置センサはHMDに取り付けられたビデオカメラの視線方向を検知するために用いられるものである。
【0018】
図1は、本実施形態を説明する構成図である。CPU101、メモリ103、104、位置姿勢センサ105(a)、105(b)、105(c)、105(d)、105(e)、HMD106(a)、ビデオカメラ107(a)が、計算機バス102に接続されている。メモリ103と104は同じ物である。センサはセンサ本体105(a)に複数のセンサ105(b)、105(c)、105(d)、105(e)が取り付けられており、105(a)が計算機バス102に接続され、105(b)、105(c)、105(d)、105(e)はセンサ本体105(a)に取り付けられている。センサ105(b)はHMD106にとりつけられ、ビデオカメラ107の視線位置姿勢を検出するために用いられるのと同時にプレイヤの頭部の位置姿勢の検出に用いられる。センサ105(c)はプレイヤの手に装着し、手にCGを重畳するために手の位置姿勢を検出する用途に用いられる。位置センサ105(d)はプレイヤの足部に装着され、足にCGを重畳するために足の位置姿勢を検出する用途に用いられる。ここで、位置センサにはそれぞれIDをつけておく。ここでは105(b)のIDを1、105(c)のIDを2、105(d)のIDを3としておく。
【0019】
なお、システムは複数のプレイヤを有することとしても良い。また、ここではプレイヤ1人に対してセンサは3つ(プレイヤの頭部と手と足に装着)としたが、必要なだけいくらあっても問題はない。
【0020】
また、メモリ104中にはCGモデルデータ125も格納されている。これはCG映像生成手段111によってレンダリングされるべきCGのデータであり、この例ではグローブのCGとブーツのCGがそれぞれ格納されている。
【0021】
図2は、全体の処理の流れを説明するためのフローチャートである。
【0022】
はじめに、ステップS201で、CG位置姿勢検出手段113により、センサを任意の部位に設置後に各センサの位置姿勢を検出し、メモリ104中のCG位置姿勢122に格納する。本実施形態ではCGを重畳するのは位置センサ105(c)(ID=2)および105(d)(ID=3)であるので、この2つのセンサの位置姿勢を検出し記録する。CG位置姿勢検出手段113は、従来から用いられている技術(磁気センサなど)を用いて視線の位置(XYZ)と姿勢(Roll,Pitch,Yaw)を検出するものである。
【0023】
次に、ステップS202で、CG選択手段115により、それぞれのセンサに好適なCGを選択する。CG選択手段115の詳細については後述する。このステップによって、センサIDとそれに対応するべきCGの組み合わせが、メモリ104中のCG対応表124に格納される。
【0024】
次に、ステップS203で、視線位置姿勢検出手段112により、ビデオカメラ107の位置と姿勢をメモリ104中の視線位置姿勢121に書き込む。視線位置姿勢検出手段112は、従来から用いられている技術(磁気センサなど)を用いて視線の位置(XYZ)と姿勢(Roll,Pitch,Yaw)を検出するものである。ここでは位置センサ105(b)(ID=1)を用いて検出する。
【0025】
次に、ステップS204で、現実映像撮影手段110は、現実空間の映像をメモリ104中の映像メモリ121に書き込む。現実映像撮影手段110は、ビデオカメラ107によって撮影された映像をキャプチャし、メモリ104中の映像メモリ120に書き込むものである。
【0026】
ステップS205では変数Nを1に初期化する。変数NはCG用の位置姿勢センサの数を数えるためのものである。本実施形態ではCG用のセンサは図1におけるセンサ105(c)と105(d)の2つである。
【0027】
ステップS206では、CG位置姿勢検出手段113によって第N番目のCGを表示するべき場所に装着された位置センサの位置姿勢を検出し、メモリ104中のCG位置姿勢122に格納する。
【0028】
ステップS207では、CG対応表124に応じてそのセンサのIDに対応付けられたCGを、CGモデルデータ123よりCGを選び、これを前ステップS206で検出された位置と姿勢に応じて適当な位置と姿勢に操作する。
【0029】
次に、ステップS208では変数Nがひとつカウントアップされ、次の、ステップS209でNがCGの数(この実施形態では2)を超えたかどうかが判定される。このようにしてすべてのCG用の位置センサに対してCGの位置姿勢が操作される。
【0030】
すべてのCGに対して操作が終了したら、ステップS210で、CG映像生成手段111により、CGを映像メモリ120に書き込む。CGは、CG位置姿勢122が示す位置姿勢に置かれたものを視線位置姿勢121の視線から観察したようにレンダリングされる。映像メモリ120には、すでにステップS203において現実映像撮影手段110によって現実空間の映像が書き込まれており、CG映像はこの上に重ねて描画されることになる。
【0031】
次に、ステップS211で、映像表示手段114によって、映像メモリ120に書き込まれた映像をHMD106に表示する。映像表示手段114は映像メモリをHMDのフレームメモリに書き込み、実際の表示を行わせるものである。
【0032】
ステップS212では全体の処理を終了するかどうかを判定し、終了しない場合は再びステップS203にもどって処理を繰り返す。処理を繰り返すことによってビデオカメラ107から次々と映像をキャプチャし、これにCG映像を重ね書きし、表示するというサイクルを連続して行うことになる。
【0033】
次に、ステップS202のCG選択手段115について説明する。
【0034】
図3は、CG選択手段115を説明するフローチャートである。
【0035】
本実施形態では、CG重畳用の2つのセンサ、105(c)(ID=2)と105(d)(ID=3)の位置の高さを比較して選択基準とする。
【0036】
ステップS301では、前述したステップS201でメモリ104中のCG位置姿勢122に格納されたセンサ位置のデータをもとに、ID=2のセンサとID=3のセンサの高さを比較する。もしID=2のセンサがID=3のセンサよりも高い位置にあればステップS302に進みID=2のセンサにグローブのCGを対応付け、ID=3のセンサにはブーツのCGを対応付ける。もしID=3のセンサがID=2のセンサよりも高い位置にあればステップS303に進みID=3のセンサにグローブのCGを対応付け、ID=2のセンサにグローブのCGを対応付ける。この対応付けはメモリ104中のCG対応表124として格納しておく。
【0037】
このとき、両センサ間の上下の関係だけでなく左右の関係をもちいることも可能である。また、センサ105(b)から得られる視線位置の情報を元に、それ以外のセンサが頭の左右どちらかに装着されているのかによってCGを対応付けることも可能である。たとえば、右手にセンサを装着した場合は頭部より右にあることから右手に装着したと検知できる。
【0038】
図4は、本実施形態の効果を説明するための図である。図4(A)は、センサを装着しているプレイヤの図である。図4(B)は、図4(A)のプレイヤにCGを重畳した様子を示している。図4(C)は、センサを手と足で取り違えて装着したプレイヤの図である。図4(D)は、本実施形態を用いなかった場合にCGがどのように重畳されるかを示している。図4(E)は、本実施形態を用いた場合に、上記(C)のケースでCGがどのようにリプレイスされて重畳されるかを示している。もちろん、本実施形態を用いた場合でも、図4(A)のようにセンサを装着してもCGは図4(E)のように重畳される。
【0039】
以上の構成によって、センサの位置関係に応じて好適なCGを選択することができ、センサの装着間違いによる予期せぬ不自然なCG重畳を避け、どのセンサを装着しても常に意図通りのCGを重畳することができる。
【0040】
つまり、センサを予め決められた部位に装着する必要がなくなり、センサ装着にかかるユーザの負荷を軽減することができる。また、センサの付け間違いによる、図4(D)のようなCGと実画像のミスマッチを防ぐことができる。
【0041】
(変形例)
図2におけるステップS212からの分岐先を、ステップS203ではなくS201に戻るようにすれば、プレイ中、常にCGの選択がやり直されることになる。このようにすることにより、装着したセンサを入れ替えずに、プレイ中に重畳するCGを変更することが可能となる。つまり、センサの位置関係に応じて、重畳するCGを動的に変化させることが可能である。
【0042】
例えば、ひとつのセンサを右手に装着した場合と左手に装着しなおした場合とで動的にCGの種類を切り替えることが可能となる。
【0043】
(他の実施形態)
前述した実施の形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
【0044】
この場合、前記ソフトウエアのプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
【0045】
かかるプログラムコードを格納する記憶媒体としては例えばフロッピー(R)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
【0046】
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0047】
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。
【0048】
【発明の効果】
本願請求項1の発明によれば、センサの位置関係に応じて好適なCGを選択することができ、センサの装着間違いによる予期せぬ不自然なCG重畳を避け、どのセンサを装着しても常に意図通りのCGを重畳することができる。
【0049】
本願請求項5の発明は、センサの位置関係に応じて、重畳するCGを動的に変化させることが可能にすることができる。
【図面の簡単な説明】
【図1】実施形態のシステム構成図。
【図2】実施形態の処理のフローチャート。
【図3】CG選択手段のフローチャート。
【図4】本実施形態の効果を説明するための説明図。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for combining computer graphics with a position corresponding to an output value of a sensor with respect to an actual image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a real-world image and a three-dimensionally modeled CG image have been superimposed and displayed, and an object (virtual object) drawn by CG (computer graphics) exists in the real world. There is a mixed reality presenting apparatus that can make it look like this. This is achieved by combining a real image photographing means (for example, a video camera) for photographing a real image, and a CG image generating means for producing a CG image as viewed from the position where the real image is being photographed. It is an apparatus comprising video display means (for example, an HMD (head-mounted display) or a monitor) that can be displayed. Here, even if the position of the line of sight of the real image photographing means changes, the positional relationship between the CG and the real image becomes correct, and the line of sight and the line of sight of the real image photographing means (video camera). Is provided with gaze position / posture detection means (for example, a position / posture sensor) for detecting the position. The CG image generation means places the CG modeled in three dimensions in a virtual space of the same scale as the real space, and renders the CG as viewed from the gaze position and gaze direction detected by the gaze position / posture detection means. When the CG image generated in this way and the real image are superimposed, as a result, even if the real image photographing means observes from any gaze position and gaze direction, the image generated by the CG correctly in the real space is obtained. Can be displayed.
[0003]
Further, an additional position and orientation detection device is attached to a place where a CG is desired to appear, and the CG is caused to appear at a position obtained therefrom. For example, a position / posture detection device (position / posture sensor) is attached to a hand, and a CG is generated at the position of the sensor, so that the CG is always on the hand (no matter how the hand is moved, (As if a CG is on top of the camera).
[0004]
The real image photographing means for photographing a picture in the real space is, for example, a video camera, and is a means for photographing a picture in a line of sight of the camera and capturing it in a memory.
[0005]
For example, an HMD (Head Mount Display) is used as an image display device that synthesizes and displays an image of a real space and CG. By using an HMD instead of a normal monitor and further mounting the video camera in the direction of the line of sight of the HMD, an image in the direction in which the observer is facing can be displayed on the HMD, and when facing in that direction CG can also be drawn, so that the immersion feeling of the observer can be enhanced.
[0006]
As the position and orientation detection means, a magnetic position and orientation sensor or the like is used. By attaching this to the video camera (or the HMD to which the video camera is attached), the position and orientation values of the line of sight of the video camera can be obtained. To detect. The magnetic position / posture sensor detects a relative position / posture between a magnetic generator (transmitter) and a magnetic sensor (receiver), and includes a product FASTRAK manufactured by Polhemus, USA. Can be This is a device that detects the three-dimensional position (X, Y, Z) and posture (Roll, Pitch, Yaw) of the sensor in a specific area in real time.
[0007]
With the above configuration, the observer can observe the world in which the real video and the CG video are superimposed through the HMD. When the observer looks around, the real image capturing device (video camera) provided on the HMD captures a real image, and the gaze position / posture detecting means (position / posture sensor) provided on the HMD provides position gaze of the video camera. The direction is detected, and the CG image generation means generates a CG image viewed from the line-of-sight position / posture in response to the direction, and displays the CG image superimposed on the real image.
[0008]
It is also possible to provide a plurality of observers. A video camera, a display device (such as an HMD) for capturing the real space, and a position and orientation sensor are prepared for the number of observers, and the real space is photographed and a CG is generated from each observer's viewpoint, and synthesized, and each is combined. It may be displayed to the observer.
[0009]
[Problems to be solved by the invention]
In the conventional system, when CG is superimposed on the position of a sensor, the CG is associated with the ID of the sensor in advance, and a certain type of CG is superimposed on the position of a certain sensor. For example, when it is desired to superimpose the glove CG on the player's hand and the boot CG on the foot, it is necessary to correctly mount a position sensor corresponding to the hand CG on the hand and a position sensor corresponding to the foot CG on the foot. was there. If they were worn by mistake, the CG of the boot was superimposed on the hand and the CG of the glove was superimposed on the foot.
[0010]
In addition, when different types of CGs are to be superimposed when mounted on the right hand and when mounted on the left hand, it is necessary to prepare two sensors for the right hand and the left hand.
[0011]
The present invention has been made in view of the above-mentioned problems, and the invention of claim 1 of the present application can select a suitable CG according to the positional relationship of the sensor, and can prevent unexpected CG due to incorrect mounting of the sensor. It is an object of the present invention to avoid natural CG superimposition and to always superimpose CG as intended regardless of which sensor is attached.
[0012]
It is an object of the invention of claim 5 of the present application to enable the CG to be superimposed to be dynamically changed according to the positional relationship of the sensors.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following configuration.
[0014]
The invention according to claim 1 is an information processing method for synthesizing computer graphics at a position corresponding to an output value of a sensor with respect to an actual image, wherein a plurality of sensors are installed in different parts, and the sensors are installed. After that, each sensor and computer graphics are associated with each other from the output values of the plurality of sensors, and based on the association, a position corresponding to each output value obtained from each of the plurality of sensors is associated with each sensor. Computer graphics to be synthesized.
[0015]
According to a fifth aspect of the present invention, there is provided a computer graphics image generating means for generating a computer graphics image, a real video image capturing means for capturing a real world video, and a display device which combines the computer graphics image and the captured image. In a mixed reality presentation device having video display means for displaying, a position sensor for detecting a position where a computer graphics image is superimposed, and a type of computer graphics to be superimposed on a position obtained from the position sensor are moved. And a CG selecting means for making a judgment.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0017]
In the present embodiment, the player wears position and orientation sensors on the head, hands, and feet, and superimposes CG on the position where the sensors on the hands and feet are worn to present mixed reality. Here, as an example, it is assumed that the CG of the glove is superimposed on the hand and the CG of the boot is superimposed on the foot. The head position sensor is used to detect the direction of the line of sight of a video camera attached to the HMD.
[0018]
FIG. 1 is a configuration diagram illustrating the present embodiment. CPU 101, memories 103 and 104, position and orientation sensors 105 (a), 105 (b), 105 (c), 105 (d), 105 (e), HMD 106 (a), video camera 107 (a) 102. The memories 103 and 104 are the same. A plurality of sensors 105 (b), 105 (c), 105 (d), 105 (e) are attached to a sensor body 105 (a), and 105 (a) is connected to the computer bus 102, (B), 105 (c), 105 (d) and 105 (e) are attached to the sensor body 105 (a). The sensor 105 (b) is attached to the HMD 106, and is used for detecting the position and orientation of the line of sight of the video camera 107 and also for detecting the position and orientation of the player's head. The sensor 105 (c) is attached to the player's hand and is used for detecting the position and orientation of the hand to superimpose CG on the hand. The position sensor 105 (d) is mounted on the foot of the player, and is used for detecting the position and orientation of the foot to superimpose CG on the foot. Here, an ID is assigned to each position sensor. Here, the ID of 105 (b) is 1, the ID of 105 (c) is 2, and the ID of 105 (d) is 3.
[0019]
Note that the system may include a plurality of players. Also, here, three sensors are provided for one player (attached to the player's head, hands, and feet), but there is no problem as long as necessary.
[0020]
The memory 104 also stores CG model data 125. This is the CG data to be rendered by the CG image generating means 111. In this example, the CG of the glove and the CG of the boot are stored.
[0021]
FIG. 2 is a flowchart for explaining the flow of the entire process.
[0022]
First, in step S201, the CG position / posture detection unit 113 detects the position / posture of each sensor after installing the sensor at an arbitrary part, and stores the position / posture of the CG position / posture 122 in the memory 104. In this embodiment, since the position sensors 105 (c) (ID = 2) and 105 (d) (ID = 3) superimpose CG, the position and orientation of these two sensors are detected and recorded. The CG position / posture detection means 113 detects the position (XYZ) and posture (Roll, Pitch, Yaw) of the line of sight using a conventionally used technology (such as a magnetic sensor).
[0023]
Next, in step S202, a CG suitable for each sensor is selected by the CG selecting means 115. Details of the CG selection means 115 will be described later. By this step, the combination of the sensor ID and the CG corresponding to the sensor ID is stored in the CG correspondence table 124 in the memory 104.
[0024]
Next, in step S203, the gaze position / posture detection unit 112 writes the position and posture of the video camera 107 into the gaze position / posture 121 in the memory 104. The line-of-sight position / posture detecting means 112 detects the position (XYZ) and posture (Roll, Pitch, Yaw) of the line of sight by using a conventionally used technology (such as a magnetic sensor). Here, detection is performed using the position sensor 105 (b) (ID = 1).
[0025]
Next, in step S204, the real image photographing means 110 writes the image of the real space into the image memory 121 in the memory 104. The real image capturing means 110 captures an image captured by the video camera 107 and writes the captured image into the image memory 120 in the memory 104.
[0026]
In step S205, the variable N is initialized to 1. The variable N is for counting the number of position and orientation sensors for CG. In the present embodiment, two sensors for CG are the sensors 105 (c) and 105 (d) in FIG.
[0027]
In step S206, the CG position / posture detecting unit 113 detects the position / posture of the position sensor attached to the place where the N-th CG should be displayed, and stores it in the CG position / posture 122 in the memory 104.
[0028]
In step S207, a CG associated with the ID of the sensor is selected from the CG model data 123 according to the CG correspondence table 124, and the CG is set to an appropriate position according to the position and orientation detected in the previous step S206. And the posture.
[0029]
Next, in step S208, the variable N is counted up by one, and in the next step S209, it is determined whether N has exceeded the number of CGs (2 in this embodiment). In this way, the position and orientation of the CG are operated for all the CG position sensors.
[0030]
When the operation has been completed for all CGs, the CG image generation unit 111 writes the CGs into the image memory 120 in step S210. The CG is rendered as if the object placed in the position and orientation indicated by the CG position and orientation 122 was observed from the line of sight of the line of sight position and orientation 121. The image of the real space has already been written in the image memory 120 by the actual image photographing means 110 in step S203, and the CG image is drawn over this.
[0031]
Next, in step S211, the video written in the video memory 120 is displayed on the HMD 106 by the video display unit 114. The video display means 114 writes the video memory into the frame memory of the HMD, and performs actual display.
[0032]
In step S212, it is determined whether or not to end the entire process. If not, the process returns to step S203 and repeats the process. By repeating the processing, a video is sequentially captured from the video camera 107, a CG video is overwritten on the video, and a cycle of displaying the video is continuously performed.
[0033]
Next, the CG selection unit 115 in step S202 will be described.
[0034]
FIG. 3 is a flowchart illustrating the CG selection unit 115.
[0035]
In this embodiment, the heights of the positions of the two sensors for CG superimposition, 105 (c) (ID = 2) and 105 (d) (ID = 3), are used as selection criteria.
[0036]
In step S301, the heights of the sensor with ID = 2 and the sensor with ID = 3 are compared based on the sensor position data stored in the CG position / posture 122 in the memory 104 in step S201 described above. If the sensor with ID = 2 is at a higher position than the sensor with ID = 3, the process proceeds to step S302, and the CG of the glove is associated with the sensor of ID = 2, and the CG of boots is associated with the sensor with ID = 3. If the sensor with ID = 3 is at a higher position than the sensor with ID = 2, the process proceeds to step S303, where the sensor with ID = 3 is associated with the CG of the glove, and the sensor with ID = 2 is associated with the CG of the glove. This association is stored as a CG correspondence table 124 in the memory 104.
[0037]
At this time, it is possible to use not only the up-down relationship between the two sensors but also the left-right relationship. Further, based on the information on the gaze position obtained from the sensor 105 (b), it is also possible to associate the CG depending on whether the other sensor is mounted on the left or right of the head. For example, when the sensor is attached to the right hand, it can be detected that the sensor is attached to the right hand because the sensor is located to the right of the head.
[0038]
FIG. 4 is a diagram for explaining the effect of the present embodiment. FIG. 4A is a diagram of a player wearing the sensor. FIG. 4B shows a state in which CG is superimposed on the player shown in FIG. FIG. 4C is a view of a player who has worn the sensor by hand and foot. FIG. 4D shows how CG is superimposed when the present embodiment is not used. FIG. 4E shows how the CG is replaced and superimposed in the case of the above (C) when the present embodiment is used. Of course, even when the present embodiment is used, the CG is superimposed as shown in FIG. 4E even when the sensor is mounted as shown in FIG.
[0039]
With the above configuration, it is possible to select a suitable CG according to the positional relationship of the sensors, avoid unexpected and unnatural CG superimposition due to a wrong mounting of the sensor, and always perform the CG as intended regardless of which sensor is mounted. Can be superimposed.
[0040]
That is, it is not necessary to mount the sensor on a predetermined portion, and the load on the user for mounting the sensor can be reduced. Further, it is possible to prevent a mismatch between the CG and the actual image as shown in FIG.
[0041]
(Modification)
If the branch destination from step S212 in FIG. 2 is returned to step S201 instead of step S203, the CG selection is always redone during play. By doing so, it is possible to change the CG to be superimposed during play without replacing the mounted sensor. That is, it is possible to dynamically change the CG to be superimposed according to the positional relationship of the sensors.
[0042]
For example, it is possible to dynamically switch the type of CG between a case where one sensor is mounted on the right hand and a case where the sensor is mounted again on the left hand.
[0043]
(Other embodiments)
A software program for realizing the functions of the above-described embodiment is provided to an apparatus or a computer in the system connected to the various devices so as to operate the various devices so as to realize the functions of the above-described embodiment. The present invention also includes a system in which a computer (CPU or MPU) of the system or apparatus is operated by supplying the code and operating the various devices according to a stored program.
[0044]
In this case, the program code itself of the software realizes the function of the above-described embodiment, and the program code itself and a unit for supplying the program code to the computer, for example, the program code is stored. The storage medium constitutes the present invention.
[0045]
As a storage medium for storing such a program code, for example, a floppy (R) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, nonvolatile memory card, ROM or the like can be used.
[0046]
When the computer executes the supplied program code, not only the functions of the above-described embodiments are realized, but also the OS (Operating System) in which the program code runs on the computer, or other application software. It goes without saying that such a program code is also included in the embodiment of the present invention when the functions of the above-described embodiment are realized in cooperation with the above.
[0047]
Further, after the supplied program code is stored in a memory provided in a function expansion board of a computer or a function expansion unit connected to the computer, a CPU or the like provided in the function expansion board or the function storage unit based on the instruction of the program code. It is needless to say that the present invention includes a case in which the functions of the above-described embodiments are implemented by performing part or all of the actual processing.
[0048]
【The invention's effect】
According to the invention of claim 1 of the present application, it is possible to select a suitable CG according to the positional relationship of the sensors, avoid unexpected and unnatural CG superposition due to mounting errors of the sensors, and use any sensor. CG can be always superimposed as intended.
[0049]
According to the invention of claim 5 of the present application, it is possible to dynamically change the CG to be superimposed according to the positional relationship of the sensors.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of an embodiment.
FIG. 2 is a flowchart of a process according to the embodiment.
FIG. 3 is a flowchart of a CG selection unit.
FIG. 4 is an explanatory diagram for explaining effects of the embodiment.

Claims (7)

実画像に対して、センサの出力値に応じた位置にコンピュータグラフィックスを合成する情報処理方法であって、
複数のセンサを異なる部位に設置し、
前記センサを設置した後に、前記複数のセンサの出力値から各センサとコンピュータグラフィックスの対応付けを行い、
前記対応付けに基づき、前記複数のセンサのそれぞれから得られる出力値に応じた位置に、各センサに対応するコンピュータグラフィックスを合成することを特徴とする情報処理方法。
An information processing method for synthesizing computer graphics at a position corresponding to an output value of a sensor with respect to an actual image,
Install multiple sensors at different locations,
After installing the sensor, perform the correspondence between each sensor and computer graphics from the output values of the plurality of sensors,
An information processing method, comprising: compositing computer graphics corresponding to each sensor at a position corresponding to an output value obtained from each of the plurality of sensors based on the association.
前記対応付けは、前記複数のセンサの出力値の上下または左右の区別に基づき行われることを特徴とする請求項1記載の情報処理方法。2. The information processing method according to claim 1, wherein the association is performed based on a distinction between upper and lower or left and right output values of the plurality of sensors. 前記対応付けは、プレイ開始時に行うことを特徴とする請求項1記載の情報処理方法。2. The information processing method according to claim 1, wherein the association is performed at the start of a play. 請求項1乃至請求項3のいずれかに記載の情報処理方法を実現するためのプログラム。A program for realizing the information processing method according to claim 1. コンピュータグラフィックス画像を生成するCG映像生成手段と、
現実世界の映像を撮影する現実映像撮影手段と、
前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示手段とを有する複合現実感提示装置において、
コンピュータグラフィックス画像を重畳する位置を検知するための位置センサと、
前記位置センサから得られる位置に重畳すべきコンピュータグラフィックスの種類を動的に判断するCG選択手段とを有することを特徴とする複合現実感提示装置。
CG image generating means for generating a computer graphics image;
A real image shooting means for shooting images of the real world,
In a mixed reality presentation device having video display means for combining the computer graphics image and the captured image and displaying the combined image on a display device,
A position sensor for detecting a position at which the computer graphics image is superimposed,
CG selecting means for dynamically determining the type of computer graphics to be superimposed on the position obtained from the position sensor.
コンピュータグラフィックス画像を生成するCG映像生成工程と、
現実世界の映像を撮影する現実映像撮影工程と、
前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示工程とを有する情報処理方法において、
コンピュータグラフィックス画像を重畳する位置を検知するための位置センサからの出力値を入力する入力工程と、
前記位置センサからの出力値に対応する位置に重畳すべきコンピュータグラフィックスの種類を動的に判断するCG選択工程とを有することを特徴とする情報処理方法。
A CG image generating step of generating a computer graphics image;
A real video shooting process for shooting real world video,
A video display step of combining the computer graphics image and the photographed image and displaying the combined image on a display device,
An input step of inputting an output value from a position sensor for detecting a position where a computer graphics image is superimposed,
A CG selecting step of dynamically determining a type of computer graphics to be superimposed on a position corresponding to an output value from the position sensor.
前記CG選択工程は、プレイ中常に判断していることを特徴とする情報処理方法。An information processing method according to claim 1, wherein said CG selection step is always making a determination during play.
JP2002162986A 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality Withdrawn JP2004013309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002162986A JP2004013309A (en) 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002162986A JP2004013309A (en) 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality

Publications (1)

Publication Number Publication Date
JP2004013309A true JP2004013309A (en) 2004-01-15

Family

ID=30431576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002162986A Withdrawn JP2004013309A (en) 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality

Country Status (1)

Country Link
JP (1) JP2004013309A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device
JP2007304973A (en) * 2006-05-12 2007-11-22 Mhi Environment Engineering Co Ltd Simulation device and simulation method
JP2015115848A (en) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 Head-mounted type display device and method for controlling head-mounted type display device
JP2018064836A (en) * 2016-10-20 2018-04-26 株式会社Bbq Virtual game device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device
JP2007304973A (en) * 2006-05-12 2007-11-22 Mhi Environment Engineering Co Ltd Simulation device and simulation method
JP2015115848A (en) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 Head-mounted type display device and method for controlling head-mounted type display device
JP2018064836A (en) * 2016-10-20 2018-04-26 株式会社Bbq Virtual game device

Similar Documents

Publication Publication Date Title
JP4933406B2 (en) Image processing apparatus and image processing method
KR102517876B1 (en) Technique for recording augmented reality data
JP4227561B2 (en) Image processing method and image processing apparatus
JP4950834B2 (en) Image processing apparatus and image processing method
US7292240B2 (en) Virtual reality presentation device and information processing method
Uchiyama et al. MR Platform: A basic body on which mixed reality applications are built
US20020075286A1 (en) Image generating system and method and storage medium
US20060050070A1 (en) Information processing apparatus and method for presenting image combined with virtual image
US20020036649A1 (en) Apparatus and method for furnishing augmented-reality graphic using panoramic image with supporting multiuser
JP2002157606A (en) Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP2009025918A (en) Image processor and image processing method
JP2005107970A (en) Image display device and method
JP2005107971A (en) Augmented reality space image generation method and augmented reality system
JP2005165776A (en) Image processing method and image processor
JP2005108108A (en) Operating device and method for three-dimensional cg and calibration device for position/attitude sensor
JP2006285609A (en) Image processing method, image processor
JP2005339377A (en) Image processing method and image processor
JP2006012042A (en) Image generating method and device
JP4724476B2 (en) Information processing method and apparatus
JP2004013309A (en) Information processing method and apparatus for presenting augmented reality
JP2004355131A (en) Method and device for generating composite reality feeling image
JP4217661B2 (en) Image processing method and image processing apparatus
JP2002269593A (en) Image processing device and method, and storage medium
JP2004258123A (en) Method and unit for display control
JP2005251118A (en) Method and device for image processing

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906