JP2004013310A - Information processing method and apparatus for presenting augmented reality - Google Patents

Information processing method and apparatus for presenting augmented reality Download PDF

Info

Publication number
JP2004013310A
JP2004013310A JP2002162987A JP2002162987A JP2004013310A JP 2004013310 A JP2004013310 A JP 2004013310A JP 2002162987 A JP2002162987 A JP 2002162987A JP 2002162987 A JP2002162987 A JP 2002162987A JP 2004013310 A JP2004013310 A JP 2004013310A
Authority
JP
Japan
Prior art keywords
image
player
processing method
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002162987A
Other languages
Japanese (ja)
Inventor
Yasuhiro Okuno
奥野 泰弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002162987A priority Critical patent/JP2004013310A/en
Publication of JP2004013310A publication Critical patent/JP2004013310A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To create CG images in sizes matching players' physiques. <P>SOLUTION: An apparatus for presenting augmented reality includes a computer graphics image creating means for creating CG images; a real image taking means for taking images of the real world; an image display means for synthesizing the CG images with the real images and displaying the results in a display device; a physique sensing means for sensing the players' physiques; and a CG size setting means for setting the size of the CG images created by the CG image creating means, according to the players' physiques data sensed by the physique sensing means. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、現実画像に生成したコンピュータグラフィックス画像を合成するものに関する。
【0002】
【従来の技術】
従来より、現実世界の映像と、三次元モデリングされたCG(コンピュータグラフィックス画像)による映像を重畳して表示し、あたかも現実の世界中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができるような複合現実感提示装置が存在する。これは、現実の映像を撮影するための現実映像撮影手段(たとえばビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者を合成して表示することのできる映像表示手段(たとえばHMD(ヘッドマウントディスプレイ)またはモニタ)からなる装置である。ここで、現実映像撮影手段の視線の位置が変わった場合であってもCGと現実映像との位置関係が正しくなるようになっており、現実映像撮影手段(ビデオカメラ)の視線位置・視線方向を検出するための、視線位置姿勢検出手段(たとえば位置姿勢センサ)を備えている。CG映像生成手段は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置、視線方向から観察されたものとしてCGをレンダリングする。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置・視線方向から観察した場合でも、現実空間の中に正しくCGで生成された映像が置かれているような映像を表示ことができる。
【0003】
また、CGを出現させたい場所にもさらなる位置姿勢検出装置を取り付け、そこから得られた位置にCGを出現させることも行われている。たとえば手に位置姿勢検出装置(位置姿勢センサ)を取り付け、そのセンサの位置にCGを生成することによって、あたかも手の上に常にCGが乗っているように(手をどのように動かしても手の上にCGが乗っているように)表示して見せることが可能になる。
【0004】
現実空間の映像を撮影する現実映像撮影手段は、たとえばビデオカメラであり、カメラの視線方向にある映像を撮影し、メモリ中にキャプチャする手段である。
【0005】
現実空間の映像とCGとを合成して表示する映像表示装置としては、たとえばHMD(ヘッドマウントディスプレイ)が用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、その方向を向いたときのCGの描画も行えるため、観察者の没入感を高めることができる。
【0006】
位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Roll,Pitch,Yaw)をリアルタイムに検出する装置である。
【0007】
上記の構成により、観察者はHMDを通じて、現実映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成し、これを現実映像に重畳して表示する。
【0008】
また、観察者を複数設けることも可能である。現実空間を撮影するビデオカメラと表示装置(HMDなど)、位置姿勢センサを観察者数だけ用意し、それぞれの観察者の視点から現実空間の撮影とCGの生成を行い、合成して、それぞれの観察者に表示すればよい。
【0009】
【発明が解決しようとしている課題】
従来のシステムでは、プレイヤの体にCGを重畳するといった場合に、プレイヤの体型にかかわらず同じサイズのCGを重畳していた。このため、プレイヤの体型から著しくかけ離れたサイズのCGが重畳されてしまい、見た目が不恰好になったり、操作が不自然になってしまうといった問題があった。
【0010】
たとえば、頭部にヘルメット型のCGを重畳して、あたかもヘルメットをかぶっているかのように見せる複合現実感システムの場合、プレイヤの身長が想定した身長よりも極端に低い場合に(たとえば子供がプレイヤである場合に)見た目が不恰好になるという問題がある。
【0011】
また、たとえば、手の上に手のひらサイズの水面が乗っているかのように見せる複合現実感システムの場合、プレイヤの手のひらが想定した大きさよりも小さい場合には、重畳したCGの水面がプレイヤの手を大きくはみ出てしまうといった問題があった。
【0012】
本発明はこれらの課題を解決し、プレイヤの体型に適したサイズでCG画像を生成できるようにすること目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本願請求項1記載の発明は、現実画像に生成したコンピュータグラフィックス画像を重畳する情報処理方法であって、プレイヤの体型情報を入力し、前記体型情報に応じてコンピュータグラフィックス画像のサイズを設定し、前記設定されたサイズに基づき、前記コンピュータグラフィック画像を生成し、前記生成されたコンピュータグラフィック画像を現実画像に重畳することを特徴とする。
【0014】
本願請求項6記載の発明は、コンピュータグラフィックス画像を生成するCG映像生成手段と、現実世界の映像を撮影する現実映像撮影手段と、前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示手段と、プレイヤの体型を検知する体型検知手段と、前記体型検知手段によって検知されたプレイヤの体型データに応じて、前記CG映像生成手段が生成するコンピュータグラフィック画像のサイズを設定するCGサイズ設定手段とを備えることを特徴とする。
【0015】
【発明の実施の形態】
(実施形態1)
以下、本特許の実施形態について、図を用いて説明する。
【0016】
本実施形態は、2人のプレイヤを有するシステムであり、それぞれのプレイヤは頭部と手に位置姿勢センサを装着し、それぞれのセンサを装着した位置にCGを重畳して複合現実感を提示するシステムである。ここでは一例として頭部にはヘルメットのCGを重畳し、手にはグローブのCGを重畳するとする。
【0017】
図1は、本実施形態を説明する構成図である。CPU101、メモリ103、104、位置姿勢センサ105(a)、105(b)、105(c)、105(d)、105(e)、HMD106(a)、ビデオカメラ107(a)が、計算機バス102に接続されている。メモリ103と104は同じ物である。センサはセンサ本体105(a)に複数のセンサ105(b)、105(c)、105(d)、105(e)が取り付けられており、105(a)が計算機バス102に接続され、105(b)、105(c)、105(d)、105(e)はセンサ本体105(a)に取り付けられている。センサ105(b)はHMD106にとりつけられ、ビデオカメラ107の視線位置姿勢を検出するために用いられるのと同時に第1のプレイヤの頭部の位置姿勢の検出に用いられる。センサ105(c)は第1のプレイヤの手に装着し、手の上にCGを重畳するために手の位置姿勢を検出する用途に用いられる。位置センサ105(d)は第2のプレイヤの頭部に装着され、105(e)は第2のプレイヤの手に装着するものとする。なお、第2のプレイヤもHMDを有して複合現実空間を観察できるとしても良いがここでは省略する。また、ここではセンサは4つ(2人のプレイヤの頭部と手に装着)としたが、必要なだけいくらあっても問題はない。
【0018】
また、メモリ104中にはCGモデルデータ125も格納されている。これはCG映像生成手段111によってレンダリングされるCGのデータであり、この例ではヘルメットのCGとグローブのCGがそれぞれ格納されている。それぞれのCGのサイズはCGモデリングを行った時点で想定した体型にあわせて作られている。想定した体型のデータとして、想定体型データ126がメモリ104中に格納されている。以下の例では体型として身長を利用するので、本実施形態では想定体型データとして想定身長が格納されているとする。
【0019】
図2は、全体の処理の流れを説明するためのフローチャートである。
【0020】
はじめに、ステップS201で、体型検知手段114により、それぞれのプレイヤの体型を検出し、メモリ104中の体型データ124に格納する。本実施形態では、プレイヤのおおよその身長を検出して体型データとする。体型検知手段114は、各プレイヤの頭部に装着された位置姿勢センサ105(b)および105(d)からの出力値を用いて、各プレイヤの身長を求める。
【0021】
本実施形態では、ステップS201においてプレイヤに所定のポーズをとってもらい、その際の位置姿勢センサ105(b)または105(d)の出力値から高さ成分を求め、その高さ成分を体型データとして用いる。
【0022】
なお、定型検知手段としてそれぞれのプレイヤの手に装着した位置センサを用い、手で体をさわってもらうことでその位置を測定することによりプレイヤの振幅データを検出し体型データとして用いることも可能である。また、身長データと振幅データの組を体型データとして用いても構わない。また、より簡便には必要な数値をマニュアルで入力するという方法も可能である。
【0023】
次に、ステップS202で、CGサイズ設定手段115により、それぞれのCGのサイズ(倍率)を計算してメモリ104中のCGサイズ123に格納する。CGサイズ123中には、CGそれぞれについてのCGサイズが格納されるものとする。本実施形態では表示するCGは2人のプレイやそれぞれのヘルメットとグローブのCGであるので、4つの値が格納される。
【0024】
CGサイズ設定手段は、前述の体型検知手段114によって記録された体型データを元にCGの倍率を計算する。
【0025】
例えば、それぞれのプレイヤの身長を、CGモデルデータ作成時の想定体型データ126の数値で割り算することでCGの倍率とする。すなわち、プレイヤの身長が想定身長の半分であった場合には倍率を0.5とする。厳密には頭の大きさや手の大きさは単純に身長に比例するわけではないので、その場合は適当な関数を用いて設定する。
【0026】
本実施形態では、より高精度のサイズ設定を行うために、ヘルメット、グローブという2種類のCGのそれぞれに対して異なる関数を用い、プレイヤの身長および想定身長から各プレイヤの各CGに対するサイズを設定する。
【0027】
なお、より正確にCGをフィットさせたい場合は、体型検出手段114においてより詳細な体型データを検出しておけばよい。また、もしも体型にフィットさせる必要がないCGであれば、そのCGの倍率には常に1.0を格納するようにすればよい。
【0028】
このようにすることにより、プレイヤおよびCGの種類に対応したサイズを適切に設定することができる。
【0029】
次に、ステップS203で、視線位置姿勢検出手段112により、ビデオカメラ107の位置と姿勢をメモリ104中の視線位置姿勢121に書き込む。視線位置姿勢検出手段112は、従来から用いられている技術(磁気センサなど)を用いて視線の位置(XYZ)と姿勢(Roll,Pitch,Yaw)を検出するものである。
【0030】
次に、ステップS204で、現実映像撮影手段110は、現実空間の映像をメモリ104中の映像メモリ121に書き込む。現実映像撮影手段110は、ビデオカメラ107によって撮影された映像をキャプチャし、メモリ104中の映像メモリ120に書き込むものである。
【0031】
ステップS205では変数Nを1に初期化する。変数NはCG用の位置姿勢センサの数を数えるためのものである。本実施形態ではCG用のセンサは図1におけるセンサ105(b)、105(c)、105(d)と105(e)の4つである。なお、位置センサ105(b)はHMDに取り付けられたビデオカメラ107の視線位置姿勢を検出するために用いられるセンサでもあるが、HMDを装着した第1のプレイヤの頭部にCGを重畳するためのCG位置検出用センサとしても用いられるものである。
【0032】
ステップS206では、CG位置姿勢検出手段113によって第N番目のCGを表示するべき位置姿勢を検出し、メモリ104中のCG位置姿勢122に格納する。CG位置姿勢検出手段113は先述した視線位置姿勢検出手段112と同様のものである。
【0033】
ステップS207では、CG映像生成手段111によって、メモリ104中の映像メモリ121に第N番目のセンサに対応するCG映像をCGモデルデータ125から選んで描き込む。すなわち、1番目(105(b))、3番目(105(d))のセンサはそれぞれのプレイヤの頭部に装着されているのでヘルメットのCGを、2番目(105(c))、4番目(105(e))のセンサはそれぞれのプレイヤの手に装着されているのでグローブのCGを、といった具合である。さらに、このとき、CG映像生成手段は、メモリ104中のCGサイズ123のN番目のデータ(N番目のCGのために計算されたCGサイズ)をもとにCGを拡大・縮小して描きこむ。なお、CG映像生成手段111は、視線位置姿勢122とCG位置姿勢123にもとづいてCGを映像メモリ120に書き込む(重ね描きする)ものである。CGは、CG位置姿勢123が示す位置姿勢に置かれたものを視線位置姿勢121の視線から観察したようにレンダリングされる。映像メモリ120には、すでにステップS203において現実映像撮影手段110によって現実空間の映像が書き込まれており、CG映像はこの上に重ねて描画されることになる。
【0034】
次に、ステップS208では変数Nがひとつカウントアップされ、次の、ステップS209でNがCGの数(この実施形態では4)を超えたかどうかが判定される。このようにしてすべてのCG用の位置センサに対してCGがあらかじめ計算されたCGサイズ(倍率)に基づいて拡大・縮小され、描画される。
【0035】
次に、ステップS210では、映像表示手段118によって、映像メモリ120に書き込まれた映像をHMD106に表示する。映像表示手段118は映像メモリをHMDのフレームメモリに書き込み、実際の表示を行わせるものである。
【0036】
ステップS211では全体の処理を終了するかどうかを判定し、終了しない場合は再びステップS206にもどって処理を繰り返す。処理を繰り返すことによってビデオカメラ107から次々と映像をキャプチャし、これにCG映像を重ね書きし、表示するというサイクルを連続して行うことになる。
【0037】
以上で全体の処理の流れの説明を終了する。
【0038】
図3は、本実施形態の効果を説明するための図である。図3(A)は、センサを装着しているプレイヤの図である。図3(B)は、本発明を用いずにCGデータをモデリングされたサイズ通りに重畳した場合、想定した身長どおりのプレイヤと想定身長の半分の身長のプレイヤがどのように表示されるかを示している。図3(C)は、本発明を用いた場合に、上記(B)のケースでCGがどのようにリサイズされて重畳されるかを示している。
【0039】
以上の構成によって、プレイヤの体型にフィットするようにそれぞれ拡大・縮小したCGを現実映像に重ねあわせることが可能になる。さらに、CGの種類ごとに独立に調整を行うことができるのでより高精度な複合現実感を提供することができる。
【0040】
(他の実施形態)
前述した実施の形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
【0041】
この場合、前記ソフトウエアのプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
【0042】
かかるプログラムコードを格納する記憶媒体としては例えばフロッピー(R)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
【0043】
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0044】
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。
【0045】
【発明の効果】
本発明によれば、プレイヤの体型に応じたサイズのコンピュータグラフィック画像を重畳するができ、自然な複合現実感を提示することができる。
【図面の簡単な説明】
【図1】実施形態のシステム構成図。
【図2】実施形態の処理のフローチャート。
【図3】本実施形態の効果を説明するための説明図。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for synthesizing a computer graphics image generated on a real image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an image of a real world and an image of a three-dimensionally modeled CG (computer graphics image) are superimposed and displayed, and as if an object (virtual object) drawn by the CG exists in the real world. There is a mixed reality presentation device that can make it look as if it were a creature. This is achieved by combining a real image photographing means (for example, a video camera) for photographing a real image, and a CG image generating means for producing a CG image as viewed from the position where the real image is being photographed. It is an apparatus comprising video display means (for example, an HMD (head-mounted display) or a monitor) that can be displayed. Here, even if the position of the line of sight of the real image photographing means changes, the positional relationship between the CG and the real image becomes correct, and the line of sight and the line of sight of the real image photographing means (video camera). Is provided with gaze position / posture detection means (for example, a position / posture sensor) for detecting the position. The CG image generation means places the CG modeled in three dimensions in a virtual space of the same scale as the real space, and renders the CG as viewed from the gaze position and gaze direction detected by the gaze position / posture detection means. When the CG image generated in this way and the real image are superimposed, as a result, even if the real image photographing means observes from any gaze position and gaze direction, the image generated by the CG correctly in the real space is obtained. Can be displayed.
[0003]
Further, an additional position and orientation detection device is attached to a place where a CG is desired to appear, and the CG is caused to appear at a position obtained therefrom. For example, a position / posture detection device (position / posture sensor) is attached to a hand, and a CG is generated at the position of the sensor, so that the CG is always on the hand (no matter how the hand is moved, (As if a CG is on top of the camera).
[0004]
The real image photographing means for photographing a picture in the real space is, for example, a video camera, and is a means for photographing a picture in a line of sight of the camera and capturing it in a memory.
[0005]
For example, an HMD (Head Mount Display) is used as an image display device that synthesizes and displays an image of a real space and CG. By using an HMD instead of a normal monitor and further mounting the video camera in the direction of the line of sight of the HMD, an image in the direction in which the observer is facing can be displayed on the HMD, and when facing in that direction CG can also be drawn, so that the immersion feeling of the observer can be enhanced.
[0006]
As the position and orientation detection means, a magnetic position and orientation sensor or the like is used. By attaching this to the video camera (or the HMD to which the video camera is attached), the position and orientation values of the line of sight of the video camera can be obtained. To detect. The magnetic position / posture sensor detects a relative position / posture between a magnetic generator (transmitter) and a magnetic sensor (receiver), and includes a product FASTRAK manufactured by Polhemus, USA. Can be This is a device that detects the three-dimensional position (X, Y, Z) and posture (Roll, Pitch, Yaw) of the sensor in a specific area in real time.
[0007]
With the above configuration, the observer can observe the world in which the real video and the CG video are superimposed through the HMD. When the observer looks around, the real image capturing device (video camera) provided on the HMD captures a real image, and the gaze position / posture detecting means (position / posture sensor) provided on the HMD provides position gaze of the video camera. The direction is detected, and the CG image generation means generates a CG image viewed from the line-of-sight position / posture in response to the direction, and displays the CG image superimposed on the real image.
[0008]
It is also possible to provide a plurality of observers. A video camera, a display device (such as an HMD) for capturing the real space, and a position and orientation sensor are prepared for the number of observers, and the real space is photographed and a CG is generated from each observer's viewpoint, and synthesized, and each is combined. It may be displayed to the observer.
[0009]
[Problems to be solved by the invention]
In a conventional system, when CG is superimposed on a player's body, CG of the same size is superimposed regardless of the player's body type. For this reason, there is a problem that a CG having a size significantly different from the player's body shape is superimposed, resulting in an unnatural appearance and an unnatural operation.
[0010]
For example, in a mixed reality system in which a helmet-type CG is superimposed on a head to make it appear as if a helmet is worn, when the height of a player is extremely lower than an assumed height (for example, when a child There is a problem that the appearance becomes ugly.
[0011]
Also, for example, in a mixed reality system in which a palm-sized water surface appears to be on a hand, if the player's palm is smaller than an assumed size, the superimposed CG water surface is There is a problem such that it protrudes greatly.
[0012]
An object of the present invention is to solve these problems and to generate a CG image in a size suitable for a player's body shape.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 of the present application is an information processing method for superimposing a generated computer graphics image on a real image, comprising inputting body type information of a player and responding to the body type information. The size of a computer graphics image is set, the computer graphic image is generated based on the set size, and the generated computer graphic image is superimposed on a real image.
[0014]
According to a sixth aspect of the present invention, there is provided a CG image generating means for generating a computer graphics image, a real image shooting means for shooting a real world image, and a display device for synthesizing the computer graphics image and the shot image. A computer graphic image generated by the CG image generating means according to the player's body data detected by the body detecting means. And a CG size setting unit that performs the setting.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0016]
The present embodiment is a system having two players. Each player wears a position and orientation sensor on the head and hand, and presents mixed reality by superimposing CG on the position where each sensor is mounted. System. Here, as an example, it is assumed that the CG of the helmet is superimposed on the head and the CG of the glove is superimposed on the hand.
[0017]
FIG. 1 is a configuration diagram illustrating the present embodiment. CPU 101, memories 103 and 104, position and orientation sensors 105 (a), 105 (b), 105 (c), 105 (d), 105 (e), HMD 106 (a), video camera 107 (a) 102. The memories 103 and 104 are the same. A plurality of sensors 105 (b), 105 (c), 105 (d), 105 (e) are attached to a sensor body 105 (a), and 105 (a) is connected to the computer bus 102, (B), 105 (c), 105 (d) and 105 (e) are attached to the sensor body 105 (a). The sensor 105 (b) is attached to the HMD 106, and is used to detect the position and orientation of the line of sight of the video camera 107 and also to detect the position and orientation of the head of the first player. The sensor 105 (c) is attached to the hand of the first player, and is used for detecting the position and orientation of the hand to superimpose the CG on the hand. The position sensor 105 (d) is mounted on the head of the second player, and 105 (e) is mounted on the hand of the second player. Note that the second player may have the HMD and be able to observe the mixed reality space, but the description is omitted here. Also, here, the number of sensors is four (attached to the heads and hands of the two players), but there is no problem as long as necessary.
[0018]
The memory 104 also stores CG model data 125. This is the CG data rendered by the CG image generating means 111. In this example, the CG of the helmet and the CG of the glove are stored. The size of each CG is made according to the assumed body shape at the time of performing the CG modeling. As the assumed body data, assumed body data 126 is stored in the memory 104. In the following example, the height is used as the body type. Therefore, in this embodiment, it is assumed that the assumed height is stored as the assumed body type data.
[0019]
FIG. 2 is a flowchart for explaining the flow of the entire process.
[0020]
First, in step S 201, the body type of each player is detected by the body type detecting unit 114 and stored in the body type data 124 in the memory 104. In the present embodiment, the approximate height of the player is detected and used as body data. The body type detection means 114 obtains the height of each player using the output values from the position and orientation sensors 105 (b) and 105 (d) mounted on the head of each player.
[0021]
In the present embodiment, in step S201, the player has a predetermined pose, a height component is obtained from the output value of the position and orientation sensor 105 (b) or 105 (d) at that time, and the height component is used as body data. Used.
[0022]
In addition, it is also possible to use a position sensor attached to each player's hand as a standard detection means, detect the player's amplitude data by measuring the position by having the user touch the body with his hand, and use it as body data. is there. Further, a set of height data and amplitude data may be used as body data. A more convenient method is to manually input the necessary numerical values.
[0023]
Next, in step S202, the CG size setting unit 115 calculates the size (magnification) of each CG and stores it in the CG size 123 in the memory 104. It is assumed that the CG size 123 stores the CG size of each CG. In the present embodiment, the CGs to be displayed are the CGs of two players or helmets and gloves of each player, so four values are stored.
[0024]
The CG size setting unit calculates the CG magnification based on the body type data recorded by the body type detection unit 114 described above.
[0025]
For example, the height of each player is divided by the numerical value of the assumed body data 126 at the time of creating the CG model data, thereby obtaining the CG magnification. That is, when the height of the player is half of the assumed height, the magnification is set to 0.5. Strictly speaking, the size of the head and the size of the hand are not simply proportional to the height, so in that case, they are set using an appropriate function.
[0026]
In this embodiment, in order to set the size with higher precision, different functions are used for each of the two types of CGs, that is, the helmet and the glove, and the size for each CG of each player is set from the height and the assumed height of the player. I do.
[0027]
In order to fit the CG more accurately, the body type detection means 114 may detect more detailed body type data. If the CG does not need to be fitted to the body shape, 1.0 may always be stored as the magnification of the CG.
[0028]
By doing so, it is possible to appropriately set the size corresponding to the type of the player and the CG.
[0029]
Next, in step S203, the gaze position / posture detection unit 112 writes the position and posture of the video camera 107 into the gaze position / posture 121 in the memory 104. The line-of-sight position / posture detecting means 112 detects the position (XYZ) and posture (Roll, Pitch, Yaw) of the line of sight by using a conventionally used technology (such as a magnetic sensor).
[0030]
Next, in step S204, the real image photographing means 110 writes the image of the real space into the image memory 121 in the memory 104. The real image capturing means 110 captures an image captured by the video camera 107 and writes the captured image into the image memory 120 in the memory 104.
[0031]
In step S205, the variable N is initialized to 1. The variable N is for counting the number of position and orientation sensors for CG. In the present embodiment, there are four sensors for CG, namely, the sensors 105 (b), 105 (c), 105 (d) and 105 (e) in FIG. Note that the position sensor 105 (b) is also a sensor used to detect the line-of-sight position and orientation of the video camera 107 attached to the HMD. However, since the position sensor 105 (b) superimposes CG on the head of the first player wearing the HMD. This is also used as a CG position detection sensor.
[0032]
In step S206, the CG position / posture detecting means 113 detects the position / posture at which the N-th CG should be displayed, and stores it in the CG position / posture 122 in the memory 104. The CG position / posture detecting means 113 is the same as the above-mentioned gaze position / posture detecting means 112.
[0033]
In step S207, the CG image generation unit 111 selects and draws the CG image corresponding to the Nth sensor from the CG model data 125 in the image memory 121 in the memory 104. That is, since the first (105 (b)) and third (105 (d)) sensors are mounted on the heads of the respective players, the CG of the helmet is changed to the second (105 (c)) and the fourth (105 (c)). Since the sensor of (105 (e)) is attached to each player's hand, the CG of the glove is used. Further, at this time, the CG image generating means draws the CG by enlarging or reducing the CG based on the N-th data of the CG size 123 in the memory 104 (the CG size calculated for the N-th CG). . The CG image generating means 111 writes (overdraws) the CG in the image memory 120 based on the line-of-sight position / posture 122 and the CG position / posture 123. The CG is rendered as if the object placed in the position and orientation indicated by the CG position and orientation 123 was observed from the line of sight position and orientation 121. The image of the real space has already been written in the image memory 120 by the actual image photographing means 110 in step S203, and the CG image is drawn over this.
[0034]
Next, in step S208, the variable N is counted up by one, and in the next step S209, it is determined whether N has exceeded the number of CGs (4 in this embodiment). In this way, the CG is enlarged / reduced for all the CG position sensors based on the CG size (magnification) calculated in advance and drawn.
[0035]
Next, in step S210, the video written in the video memory 120 is displayed on the HMD 106 by the video display means 118. The image display means 118 writes the image memory to the frame memory of the HMD, and performs actual display.
[0036]
In step S211, it is determined whether to end the entire process. If not, the process returns to step S206 and repeats the process. By repeating the processing, a video is sequentially captured from the video camera 107, a CG video is overwritten on the video, and a cycle of displaying the video is continuously performed.
[0037]
This is the end of the description of the overall processing flow.
[0038]
FIG. 3 is a diagram for explaining the effect of the present embodiment. FIG. 3A is a diagram of the player wearing the sensor. FIG. 3 (B) shows how, when CG data is superimposed according to a modeled size without using the present invention, a player having an assumed height and a player having a half height of an assumed height are displayed. Is shown. FIG. 3C shows how the CG is resized and superimposed in the case of the above (B) when the present invention is used.
[0039]
With the above configuration, it is possible to superimpose the CGs, which have been respectively enlarged and reduced so as to fit the body shape of the player, on the real video. Furthermore, since the adjustment can be performed independently for each type of CG, a more accurate mixed reality can be provided.
[0040]
(Other embodiments)
A software program for realizing the functions of the above-described embodiment is provided to an apparatus or a computer in the system connected to the various devices so as to operate the various devices so as to realize the functions of the above-described embodiment. The present invention also includes a system in which a computer (CPU or MPU) of the system or apparatus is operated by supplying the code and operating the various devices according to a stored program.
[0041]
In this case, the program code itself of the software realizes the function of the above-described embodiment, and the program code itself and a unit for supplying the program code to the computer, for example, the program code is stored. The storage medium constitutes the present invention.
[0042]
As a storage medium for storing such a program code, for example, a floppy (R) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, nonvolatile memory card, ROM or the like can be used.
[0043]
When the computer executes the supplied program code, not only the functions of the above-described embodiments are realized, but also the OS (Operating System) in which the program code runs on the computer, or other application software. It goes without saying that such a program code is also included in the embodiment of the present invention when the functions of the above-described embodiment are realized in cooperation with the above.
[0044]
Further, after the supplied program code is stored in a memory provided in a function expansion board of a computer or a function expansion unit connected to the computer, a CPU or the like provided in the function expansion board or the function storage unit based on the instruction of the program code. It is needless to say that the present invention includes a case in which the functions of the above-described embodiments are implemented by performing part or all of the actual processing.
[0045]
【The invention's effect】
According to the present invention, it is possible to superimpose a computer graphic image having a size corresponding to the player's body type, and to present a natural mixed reality.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of an embodiment.
FIG. 2 is a flowchart of a process according to the embodiment.
FIG. 3 is an explanatory diagram for explaining effects of the embodiment.

Claims (8)

現実画像に生成したコンピュータグラフィックス画像を重畳する情報処理方法であって、
プレイヤの体型情報を入力し、
前記体型情報に応じてコンピュータグラフィックス画像のサイズを設定し、
前記設定されたサイズに基づき、前記コンピュータグラフィック画像を生成し、
前記生成されたコンピュータグラフィック画像を現実画像に重畳することを特徴とする情報処理方法。
An information processing method for superimposing a generated computer graphics image on a real image,
Enter the body type information of the player,
Set the size of the computer graphics image according to the body information,
Generating the computer graphic image based on the set size,
An information processing method comprising superimposing the generated computer graphic image on a real image.
前記プレイヤの視点情報を検出するためのセンサの出力値を入力し、
前記視点情報に基づき前記コンピュータグラフィック画像を生成する情報処理方法であり、
前記センサを用いて前記プレイヤの体型情報を取得することを特徴とする請求項1記載の情報処理方法。
Inputting an output value of a sensor for detecting viewpoint information of the player,
An information processing method for generating the computer graphic image based on the viewpoint information,
The information processing method according to claim 1, wherein the body type information of the player is obtained using the sensor.
前記現実画像に複数の種類のコンピュータグラフィックス画像を合成可能な情報処理方法であって、
コンピュータグラフィックス画像の種類に応じた条件を用いて、前記体型情報からサイズを設定することを特徴とする請求項1記載の情報処理方法。
An information processing method capable of synthesizing a plurality of types of computer graphics images with the real image,
2. The information processing method according to claim 1, wherein a size is set from the body type information using a condition according to a type of the computer graphics image.
前記プレイヤに装着された位置センサで検出された位置情報を入力し、
前記位置情報で示される位置に前記生成したコンピュータグラフィックスを合成する情報処理方法であって、
前記プレイヤに装着された位置センサを用いて前記プレイヤの体型情報を入力することを特徴とする請求項1記載の情報処理方法。
Inputting position information detected by a position sensor attached to the player,
An information processing method for synthesizing the generated computer graphics at a position indicated by the position information,
The information processing method according to claim 1, wherein the body type information of the player is input using a position sensor mounted on the player.
請求項1乃至4のいずれかに記載の情報処理方法を実現するためのプログラム。A program for realizing the information processing method according to claim 1. コンピュータグラフィックス画像を生成するCG映像生成手段と、
現実世界の映像を撮影する現実映像撮影手段と、
前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示手段と、
プレイヤの体型を検知する体型検知手段と、
前記体型検知手段によって検知されたプレイヤの体型データに応じて、前記CG映像生成手段が生成するコンピュータグラフィック画像のサイズを設定するCGサイズ設定手段とを備えることを特徴とする複合現実感提示装置。
CG image generating means for generating a computer graphics image;
A real image shooting means for shooting images of the real world,
Video display means for combining the computer graphics image and the captured image and displaying the combined image on a display device,
Body shape detection means for detecting the body shape of the player;
A mixed reality presentation apparatus comprising: a CG size setting unit configured to set a size of a computer graphic image generated by the CG image generation unit in accordance with a player's body data detected by the body type detection unit.
前記体型検知手段は、プレイヤの頭部に装着した位置センサから得られる情報を用いることを特徴とする請求項6記載の複合現実感提示装置。The mixed reality presentation apparatus according to claim 6, wherein the body type detection unit uses information obtained from a position sensor mounted on a player's head. 体型検知手段は、プレイヤの手に装着した位置センサを用いて得られる該プレイヤの身幅データを用いることを特徴とする請求項6記載の複合現実感提示装置。7. The mixed reality presentation device according to claim 6, wherein the body type detecting means uses body width data of the player obtained by using a position sensor worn on a player's hand.
JP2002162987A 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality Withdrawn JP2004013310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002162987A JP2004013310A (en) 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002162987A JP2004013310A (en) 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality

Publications (1)

Publication Number Publication Date
JP2004013310A true JP2004013310A (en) 2004-01-15

Family

ID=30431577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002162987A Withdrawn JP2004013310A (en) 2002-06-04 2002-06-04 Information processing method and apparatus for presenting augmented reality

Country Status (1)

Country Link
JP (1) JP2004013310A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318095A (en) * 2005-05-11 2006-11-24 Canon Inc Image processing method and image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318095A (en) * 2005-05-11 2006-11-24 Canon Inc Image processing method and image processor
JP4677281B2 (en) * 2005-05-11 2011-04-27 キヤノン株式会社 Image processing method and image processing apparatus

Similar Documents

Publication Publication Date Title
JP4933406B2 (en) Image processing apparatus and image processing method
US10444502B1 (en) Method and apparatus for multiple user self-relative tracking for augmented reality systems using magnetic tracking
JP4950834B2 (en) Image processing apparatus and image processing method
JP4227561B2 (en) Image processing method and image processing apparatus
JP4401727B2 (en) Image display apparatus and method
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP4533087B2 (en) Image processing method and image processing apparatus
US7292240B2 (en) Virtual reality presentation device and information processing method
KR20230048457A (en) Technique for recording augmented reality data
JP2002157606A (en) Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP2005038008A (en) Image processing method, image processor
JP2009025918A (en) Image processor and image processing method
JP2005165776A (en) Image processing method and image processor
JP2006285609A (en) Image processing method, image processor
JP2006252468A (en) Image processing method and image processing system
JP2009087161A (en) Image processor and image processing method
JP2005339377A (en) Image processing method and image processor
JP7262973B2 (en) Information processing device, information processing method and program
JP2023065528A (en) Head-mounted information processing apparatus and head-mounted display system
JP2004355131A (en) Method and device for generating composite reality feeling image
JP4217661B2 (en) Image processing method and image processing apparatus
JP2005251118A (en) Method and device for image processing
JP2004013310A (en) Information processing method and apparatus for presenting augmented reality
JP2004013309A (en) Information processing method and apparatus for presenting augmented reality
JP2005128877A (en) Complex sense of reality providing system and method, information processing device and method, and computer program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906