JP2004013310A - Information processing method and apparatus for presenting augmented reality - Google Patents
Information processing method and apparatus for presenting augmented reality Download PDFInfo
- Publication number
- JP2004013310A JP2004013310A JP2002162987A JP2002162987A JP2004013310A JP 2004013310 A JP2004013310 A JP 2004013310A JP 2002162987 A JP2002162987 A JP 2002162987A JP 2002162987 A JP2002162987 A JP 2002162987A JP 2004013310 A JP2004013310 A JP 2004013310A
- Authority
- JP
- Japan
- Prior art keywords
- image
- player
- processing method
- information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、現実画像に生成したコンピュータグラフィックス画像を合成するものに関する。
【0002】
【従来の技術】
従来より、現実世界の映像と、三次元モデリングされたCG(コンピュータグラフィックス画像)による映像を重畳して表示し、あたかも現実の世界中にCGで描かれた物体(仮想物体)が存在しているかのように見せることができるような複合現実感提示装置が存在する。これは、現実の映像を撮影するための現実映像撮影手段(たとえばビデオカメラ)と、現実の映像を撮影している位置から見たようにCG映像を作り出すCG映像生成手段と、両者を合成して表示することのできる映像表示手段(たとえばHMD(ヘッドマウントディスプレイ)またはモニタ)からなる装置である。ここで、現実映像撮影手段の視線の位置が変わった場合であってもCGと現実映像との位置関係が正しくなるようになっており、現実映像撮影手段(ビデオカメラ)の視線位置・視線方向を検出するための、視線位置姿勢検出手段(たとえば位置姿勢センサ)を備えている。CG映像生成手段は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間に置き、視線位置姿勢検出手段によって検出された視線位置、視線方向から観察されたものとしてCGをレンダリングする。このようにして生成されたCG映像と現実の映像とを重畳すると、結果として、現実映像撮影手段がどの視線位置・視線方向から観察した場合でも、現実空間の中に正しくCGで生成された映像が置かれているような映像を表示ことができる。
【0003】
また、CGを出現させたい場所にもさらなる位置姿勢検出装置を取り付け、そこから得られた位置にCGを出現させることも行われている。たとえば手に位置姿勢検出装置(位置姿勢センサ)を取り付け、そのセンサの位置にCGを生成することによって、あたかも手の上に常にCGが乗っているように(手をどのように動かしても手の上にCGが乗っているように)表示して見せることが可能になる。
【0004】
現実空間の映像を撮影する現実映像撮影手段は、たとえばビデオカメラであり、カメラの視線方向にある映像を撮影し、メモリ中にキャプチャする手段である。
【0005】
現実空間の映像とCGとを合成して表示する映像表示装置としては、たとえばHMD(ヘッドマウントディスプレイ)が用いられる。通常のモニタでなくHMDを用いて、さらに上記ビデオカメラをHMDの視線方向に装着することで、観察者が向いている方向の映像をHMDに映し出すことができ、かつ、その方向を向いたときのCGの描画も行えるため、観察者の没入感を高めることができる。
【0006】
位置姿勢検出手段としては磁気方式による位置姿勢センサなどが用いられ、これを上記ビデオカメラ(またはビデオカメラが取り付けられているHMD)に取り付ることによって、ビデオカメラの視線の位置姿勢の値を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国ポヒマス(Polhemus)社の製品FASTRAKなどがあげられる。これは特定の領域内で、センサの3次元位置(X,Y,Z)と姿勢(Roll,Pitch,Yaw)をリアルタイムに検出する装置である。
【0007】
上記の構成により、観察者はHMDを通じて、現実映像とCG映像が重畳された世界を観察することができるようになる。観察者が周囲を見回すと、HMDに備え付けられた現実映像撮影装置(ビデオカメラ)が現実の映像を撮影し、HMDに備え付けられた視線位置姿勢検出手段(位置姿勢センサ)がビデオカメラの位置視線方向を検出し、これに応じてCG映像生成手段がその視線位置・姿勢から見たCG映像を生成し、これを現実映像に重畳して表示する。
【0008】
また、観察者を複数設けることも可能である。現実空間を撮影するビデオカメラと表示装置(HMDなど)、位置姿勢センサを観察者数だけ用意し、それぞれの観察者の視点から現実空間の撮影とCGの生成を行い、合成して、それぞれの観察者に表示すればよい。
【0009】
【発明が解決しようとしている課題】
従来のシステムでは、プレイヤの体にCGを重畳するといった場合に、プレイヤの体型にかかわらず同じサイズのCGを重畳していた。このため、プレイヤの体型から著しくかけ離れたサイズのCGが重畳されてしまい、見た目が不恰好になったり、操作が不自然になってしまうといった問題があった。
【0010】
たとえば、頭部にヘルメット型のCGを重畳して、あたかもヘルメットをかぶっているかのように見せる複合現実感システムの場合、プレイヤの身長が想定した身長よりも極端に低い場合に(たとえば子供がプレイヤである場合に)見た目が不恰好になるという問題がある。
【0011】
また、たとえば、手の上に手のひらサイズの水面が乗っているかのように見せる複合現実感システムの場合、プレイヤの手のひらが想定した大きさよりも小さい場合には、重畳したCGの水面がプレイヤの手を大きくはみ出てしまうといった問題があった。
【0012】
本発明はこれらの課題を解決し、プレイヤの体型に適したサイズでCG画像を生成できるようにすること目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本願請求項1記載の発明は、現実画像に生成したコンピュータグラフィックス画像を重畳する情報処理方法であって、プレイヤの体型情報を入力し、前記体型情報に応じてコンピュータグラフィックス画像のサイズを設定し、前記設定されたサイズに基づき、前記コンピュータグラフィック画像を生成し、前記生成されたコンピュータグラフィック画像を現実画像に重畳することを特徴とする。
【0014】
本願請求項6記載の発明は、コンピュータグラフィックス画像を生成するCG映像生成手段と、現実世界の映像を撮影する現実映像撮影手段と、前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示手段と、プレイヤの体型を検知する体型検知手段と、前記体型検知手段によって検知されたプレイヤの体型データに応じて、前記CG映像生成手段が生成するコンピュータグラフィック画像のサイズを設定するCGサイズ設定手段とを備えることを特徴とする。
【0015】
【発明の実施の形態】
(実施形態1)
以下、本特許の実施形態について、図を用いて説明する。
【0016】
本実施形態は、2人のプレイヤを有するシステムであり、それぞれのプレイヤは頭部と手に位置姿勢センサを装着し、それぞれのセンサを装着した位置にCGを重畳して複合現実感を提示するシステムである。ここでは一例として頭部にはヘルメットのCGを重畳し、手にはグローブのCGを重畳するとする。
【0017】
図1は、本実施形態を説明する構成図である。CPU101、メモリ103、104、位置姿勢センサ105(a)、105(b)、105(c)、105(d)、105(e)、HMD106(a)、ビデオカメラ107(a)が、計算機バス102に接続されている。メモリ103と104は同じ物である。センサはセンサ本体105(a)に複数のセンサ105(b)、105(c)、105(d)、105(e)が取り付けられており、105(a)が計算機バス102に接続され、105(b)、105(c)、105(d)、105(e)はセンサ本体105(a)に取り付けられている。センサ105(b)はHMD106にとりつけられ、ビデオカメラ107の視線位置姿勢を検出するために用いられるのと同時に第1のプレイヤの頭部の位置姿勢の検出に用いられる。センサ105(c)は第1のプレイヤの手に装着し、手の上にCGを重畳するために手の位置姿勢を検出する用途に用いられる。位置センサ105(d)は第2のプレイヤの頭部に装着され、105(e)は第2のプレイヤの手に装着するものとする。なお、第2のプレイヤもHMDを有して複合現実空間を観察できるとしても良いがここでは省略する。また、ここではセンサは4つ(2人のプレイヤの頭部と手に装着)としたが、必要なだけいくらあっても問題はない。
【0018】
また、メモリ104中にはCGモデルデータ125も格納されている。これはCG映像生成手段111によってレンダリングされるCGのデータであり、この例ではヘルメットのCGとグローブのCGがそれぞれ格納されている。それぞれのCGのサイズはCGモデリングを行った時点で想定した体型にあわせて作られている。想定した体型のデータとして、想定体型データ126がメモリ104中に格納されている。以下の例では体型として身長を利用するので、本実施形態では想定体型データとして想定身長が格納されているとする。
【0019】
図2は、全体の処理の流れを説明するためのフローチャートである。
【0020】
はじめに、ステップS201で、体型検知手段114により、それぞれのプレイヤの体型を検出し、メモリ104中の体型データ124に格納する。本実施形態では、プレイヤのおおよその身長を検出して体型データとする。体型検知手段114は、各プレイヤの頭部に装着された位置姿勢センサ105(b)および105(d)からの出力値を用いて、各プレイヤの身長を求める。
【0021】
本実施形態では、ステップS201においてプレイヤに所定のポーズをとってもらい、その際の位置姿勢センサ105(b)または105(d)の出力値から高さ成分を求め、その高さ成分を体型データとして用いる。
【0022】
なお、定型検知手段としてそれぞれのプレイヤの手に装着した位置センサを用い、手で体をさわってもらうことでその位置を測定することによりプレイヤの振幅データを検出し体型データとして用いることも可能である。また、身長データと振幅データの組を体型データとして用いても構わない。また、より簡便には必要な数値をマニュアルで入力するという方法も可能である。
【0023】
次に、ステップS202で、CGサイズ設定手段115により、それぞれのCGのサイズ(倍率)を計算してメモリ104中のCGサイズ123に格納する。CGサイズ123中には、CGそれぞれについてのCGサイズが格納されるものとする。本実施形態では表示するCGは2人のプレイやそれぞれのヘルメットとグローブのCGであるので、4つの値が格納される。
【0024】
CGサイズ設定手段は、前述の体型検知手段114によって記録された体型データを元にCGの倍率を計算する。
【0025】
例えば、それぞれのプレイヤの身長を、CGモデルデータ作成時の想定体型データ126の数値で割り算することでCGの倍率とする。すなわち、プレイヤの身長が想定身長の半分であった場合には倍率を0.5とする。厳密には頭の大きさや手の大きさは単純に身長に比例するわけではないので、その場合は適当な関数を用いて設定する。
【0026】
本実施形態では、より高精度のサイズ設定を行うために、ヘルメット、グローブという2種類のCGのそれぞれに対して異なる関数を用い、プレイヤの身長および想定身長から各プレイヤの各CGに対するサイズを設定する。
【0027】
なお、より正確にCGをフィットさせたい場合は、体型検出手段114においてより詳細な体型データを検出しておけばよい。また、もしも体型にフィットさせる必要がないCGであれば、そのCGの倍率には常に1.0を格納するようにすればよい。
【0028】
このようにすることにより、プレイヤおよびCGの種類に対応したサイズを適切に設定することができる。
【0029】
次に、ステップS203で、視線位置姿勢検出手段112により、ビデオカメラ107の位置と姿勢をメモリ104中の視線位置姿勢121に書き込む。視線位置姿勢検出手段112は、従来から用いられている技術(磁気センサなど)を用いて視線の位置(XYZ)と姿勢(Roll,Pitch,Yaw)を検出するものである。
【0030】
次に、ステップS204で、現実映像撮影手段110は、現実空間の映像をメモリ104中の映像メモリ121に書き込む。現実映像撮影手段110は、ビデオカメラ107によって撮影された映像をキャプチャし、メモリ104中の映像メモリ120に書き込むものである。
【0031】
ステップS205では変数Nを1に初期化する。変数NはCG用の位置姿勢センサの数を数えるためのものである。本実施形態ではCG用のセンサは図1におけるセンサ105(b)、105(c)、105(d)と105(e)の4つである。なお、位置センサ105(b)はHMDに取り付けられたビデオカメラ107の視線位置姿勢を検出するために用いられるセンサでもあるが、HMDを装着した第1のプレイヤの頭部にCGを重畳するためのCG位置検出用センサとしても用いられるものである。
【0032】
ステップS206では、CG位置姿勢検出手段113によって第N番目のCGを表示するべき位置姿勢を検出し、メモリ104中のCG位置姿勢122に格納する。CG位置姿勢検出手段113は先述した視線位置姿勢検出手段112と同様のものである。
【0033】
ステップS207では、CG映像生成手段111によって、メモリ104中の映像メモリ121に第N番目のセンサに対応するCG映像をCGモデルデータ125から選んで描き込む。すなわち、1番目(105(b))、3番目(105(d))のセンサはそれぞれのプレイヤの頭部に装着されているのでヘルメットのCGを、2番目(105(c))、4番目(105(e))のセンサはそれぞれのプレイヤの手に装着されているのでグローブのCGを、といった具合である。さらに、このとき、CG映像生成手段は、メモリ104中のCGサイズ123のN番目のデータ(N番目のCGのために計算されたCGサイズ)をもとにCGを拡大・縮小して描きこむ。なお、CG映像生成手段111は、視線位置姿勢122とCG位置姿勢123にもとづいてCGを映像メモリ120に書き込む(重ね描きする)ものである。CGは、CG位置姿勢123が示す位置姿勢に置かれたものを視線位置姿勢121の視線から観察したようにレンダリングされる。映像メモリ120には、すでにステップS203において現実映像撮影手段110によって現実空間の映像が書き込まれており、CG映像はこの上に重ねて描画されることになる。
【0034】
次に、ステップS208では変数Nがひとつカウントアップされ、次の、ステップS209でNがCGの数(この実施形態では4)を超えたかどうかが判定される。このようにしてすべてのCG用の位置センサに対してCGがあらかじめ計算されたCGサイズ(倍率)に基づいて拡大・縮小され、描画される。
【0035】
次に、ステップS210では、映像表示手段118によって、映像メモリ120に書き込まれた映像をHMD106に表示する。映像表示手段118は映像メモリをHMDのフレームメモリに書き込み、実際の表示を行わせるものである。
【0036】
ステップS211では全体の処理を終了するかどうかを判定し、終了しない場合は再びステップS206にもどって処理を繰り返す。処理を繰り返すことによってビデオカメラ107から次々と映像をキャプチャし、これにCG映像を重ね書きし、表示するというサイクルを連続して行うことになる。
【0037】
以上で全体の処理の流れの説明を終了する。
【0038】
図3は、本実施形態の効果を説明するための図である。図3(A)は、センサを装着しているプレイヤの図である。図3(B)は、本発明を用いずにCGデータをモデリングされたサイズ通りに重畳した場合、想定した身長どおりのプレイヤと想定身長の半分の身長のプレイヤがどのように表示されるかを示している。図3(C)は、本発明を用いた場合に、上記(B)のケースでCGがどのようにリサイズされて重畳されるかを示している。
【0039】
以上の構成によって、プレイヤの体型にフィットするようにそれぞれ拡大・縮小したCGを現実映像に重ねあわせることが可能になる。さらに、CGの種類ごとに独立に調整を行うことができるのでより高精度な複合現実感を提供することができる。
【0040】
(他の実施形態)
前述した実施の形態の機能を実現する様に各種のデバイスを動作させる様に該各種デバイスと接続された装置あるいはシステム内のコンピュータに、前記実施の形態の機能を実現するためのソフトウエアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)を格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも本発明の範疇に含まれる。
【0041】
この場合、前記ソフトウエアのプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記憶媒体は本発明を構成する。
【0042】
かかるプログラムコードを格納する記憶媒体としては例えばフロッピー(R)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることが出来る。
【0043】
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0044】
更に供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれることは言うまでもない。
【0045】
【発明の効果】
本発明によれば、プレイヤの体型に応じたサイズのコンピュータグラフィック画像を重畳するができ、自然な複合現実感を提示することができる。
【図面の簡単な説明】
【図1】実施形態のシステム構成図。
【図2】実施形態の処理のフローチャート。
【図3】本実施形態の効果を説明するための説明図。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for synthesizing a computer graphics image generated on a real image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an image of a real world and an image of a three-dimensionally modeled CG (computer graphics image) are superimposed and displayed, and as if an object (virtual object) drawn by the CG exists in the real world. There is a mixed reality presentation device that can make it look as if it were a creature. This is achieved by combining a real image photographing means (for example, a video camera) for photographing a real image, and a CG image generating means for producing a CG image as viewed from the position where the real image is being photographed. It is an apparatus comprising video display means (for example, an HMD (head-mounted display) or a monitor) that can be displayed. Here, even if the position of the line of sight of the real image photographing means changes, the positional relationship between the CG and the real image becomes correct, and the line of sight and the line of sight of the real image photographing means (video camera). Is provided with gaze position / posture detection means (for example, a position / posture sensor) for detecting the position. The CG image generation means places the CG modeled in three dimensions in a virtual space of the same scale as the real space, and renders the CG as viewed from the gaze position and gaze direction detected by the gaze position / posture detection means. When the CG image generated in this way and the real image are superimposed, as a result, even if the real image photographing means observes from any gaze position and gaze direction, the image generated by the CG correctly in the real space is obtained. Can be displayed.
[0003]
Further, an additional position and orientation detection device is attached to a place where a CG is desired to appear, and the CG is caused to appear at a position obtained therefrom. For example, a position / posture detection device (position / posture sensor) is attached to a hand, and a CG is generated at the position of the sensor, so that the CG is always on the hand (no matter how the hand is moved, (As if a CG is on top of the camera).
[0004]
The real image photographing means for photographing a picture in the real space is, for example, a video camera, and is a means for photographing a picture in a line of sight of the camera and capturing it in a memory.
[0005]
For example, an HMD (Head Mount Display) is used as an image display device that synthesizes and displays an image of a real space and CG. By using an HMD instead of a normal monitor and further mounting the video camera in the direction of the line of sight of the HMD, an image in the direction in which the observer is facing can be displayed on the HMD, and when facing in that direction CG can also be drawn, so that the immersion feeling of the observer can be enhanced.
[0006]
As the position and orientation detection means, a magnetic position and orientation sensor or the like is used. By attaching this to the video camera (or the HMD to which the video camera is attached), the position and orientation values of the line of sight of the video camera can be obtained. To detect. The magnetic position / posture sensor detects a relative position / posture between a magnetic generator (transmitter) and a magnetic sensor (receiver), and includes a product FASTRAK manufactured by Polhemus, USA. Can be This is a device that detects the three-dimensional position (X, Y, Z) and posture (Roll, Pitch, Yaw) of the sensor in a specific area in real time.
[0007]
With the above configuration, the observer can observe the world in which the real video and the CG video are superimposed through the HMD. When the observer looks around, the real image capturing device (video camera) provided on the HMD captures a real image, and the gaze position / posture detecting means (position / posture sensor) provided on the HMD provides position gaze of the video camera. The direction is detected, and the CG image generation means generates a CG image viewed from the line-of-sight position / posture in response to the direction, and displays the CG image superimposed on the real image.
[0008]
It is also possible to provide a plurality of observers. A video camera, a display device (such as an HMD) for capturing the real space, and a position and orientation sensor are prepared for the number of observers, and the real space is photographed and a CG is generated from each observer's viewpoint, and synthesized, and each is combined. It may be displayed to the observer.
[0009]
[Problems to be solved by the invention]
In a conventional system, when CG is superimposed on a player's body, CG of the same size is superimposed regardless of the player's body type. For this reason, there is a problem that a CG having a size significantly different from the player's body shape is superimposed, resulting in an unnatural appearance and an unnatural operation.
[0010]
For example, in a mixed reality system in which a helmet-type CG is superimposed on a head to make it appear as if a helmet is worn, when the height of a player is extremely lower than an assumed height (for example, when a child There is a problem that the appearance becomes ugly.
[0011]
Also, for example, in a mixed reality system in which a palm-sized water surface appears to be on a hand, if the player's palm is smaller than an assumed size, the superimposed CG water surface is There is a problem such that it protrudes greatly.
[0012]
An object of the present invention is to solve these problems and to generate a CG image in a size suitable for a player's body shape.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to
[0014]
According to a sixth aspect of the present invention, there is provided a CG image generating means for generating a computer graphics image, a real image shooting means for shooting a real world image, and a display device for synthesizing the computer graphics image and the shot image. A computer graphic image generated by the CG image generating means according to the player's body data detected by the body detecting means. And a CG size setting unit that performs the setting.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0016]
The present embodiment is a system having two players. Each player wears a position and orientation sensor on the head and hand, and presents mixed reality by superimposing CG on the position where each sensor is mounted. System. Here, as an example, it is assumed that the CG of the helmet is superimposed on the head and the CG of the glove is superimposed on the hand.
[0017]
FIG. 1 is a configuration diagram illustrating the present embodiment.
[0018]
The memory 104 also stores
[0019]
FIG. 2 is a flowchart for explaining the flow of the entire process.
[0020]
First, in step S 201, the body type of each player is detected by the body
[0021]
In the present embodiment, in step S201, the player has a predetermined pose, a height component is obtained from the output value of the position and orientation sensor 105 (b) or 105 (d) at that time, and the height component is used as body data. Used.
[0022]
In addition, it is also possible to use a position sensor attached to each player's hand as a standard detection means, detect the player's amplitude data by measuring the position by having the user touch the body with his hand, and use it as body data. is there. Further, a set of height data and amplitude data may be used as body data. A more convenient method is to manually input the necessary numerical values.
[0023]
Next, in step S202, the CG
[0024]
The CG size setting unit calculates the CG magnification based on the body type data recorded by the body
[0025]
For example, the height of each player is divided by the numerical value of the assumed
[0026]
In this embodiment, in order to set the size with higher precision, different functions are used for each of the two types of CGs, that is, the helmet and the glove, and the size for each CG of each player is set from the height and the assumed height of the player. I do.
[0027]
In order to fit the CG more accurately, the body type detection means 114 may detect more detailed body type data. If the CG does not need to be fitted to the body shape, 1.0 may always be stored as the magnification of the CG.
[0028]
By doing so, it is possible to appropriately set the size corresponding to the type of the player and the CG.
[0029]
Next, in step S203, the gaze position / posture detection unit 112 writes the position and posture of the video camera 107 into the gaze position /
[0030]
Next, in step S204, the real image photographing means 110 writes the image of the real space into the
[0031]
In step S205, the variable N is initialized to 1. The variable N is for counting the number of position and orientation sensors for CG. In the present embodiment, there are four sensors for CG, namely, the sensors 105 (b), 105 (c), 105 (d) and 105 (e) in FIG. Note that the position sensor 105 (b) is also a sensor used to detect the line-of-sight position and orientation of the video camera 107 attached to the HMD. However, since the position sensor 105 (b) superimposes CG on the head of the first player wearing the HMD. This is also used as a CG position detection sensor.
[0032]
In step S206, the CG position /
[0033]
In step S207, the CG image generation unit 111 selects and draws the CG image corresponding to the Nth sensor from the
[0034]
Next, in step S208, the variable N is counted up by one, and in the next step S209, it is determined whether N has exceeded the number of CGs (4 in this embodiment). In this way, the CG is enlarged / reduced for all the CG position sensors based on the CG size (magnification) calculated in advance and drawn.
[0035]
Next, in step S210, the video written in the
[0036]
In step S211, it is determined whether to end the entire process. If not, the process returns to step S206 and repeats the process. By repeating the processing, a video is sequentially captured from the video camera 107, a CG video is overwritten on the video, and a cycle of displaying the video is continuously performed.
[0037]
This is the end of the description of the overall processing flow.
[0038]
FIG. 3 is a diagram for explaining the effect of the present embodiment. FIG. 3A is a diagram of the player wearing the sensor. FIG. 3 (B) shows how, when CG data is superimposed according to a modeled size without using the present invention, a player having an assumed height and a player having a half height of an assumed height are displayed. Is shown. FIG. 3C shows how the CG is resized and superimposed in the case of the above (B) when the present invention is used.
[0039]
With the above configuration, it is possible to superimpose the CGs, which have been respectively enlarged and reduced so as to fit the body shape of the player, on the real video. Furthermore, since the adjustment can be performed independently for each type of CG, a more accurate mixed reality can be provided.
[0040]
(Other embodiments)
A software program for realizing the functions of the above-described embodiment is provided to an apparatus or a computer in the system connected to the various devices so as to operate the various devices so as to realize the functions of the above-described embodiment. The present invention also includes a system in which a computer (CPU or MPU) of the system or apparatus is operated by supplying the code and operating the various devices according to a stored program.
[0041]
In this case, the program code itself of the software realizes the function of the above-described embodiment, and the program code itself and a unit for supplying the program code to the computer, for example, the program code is stored. The storage medium constitutes the present invention.
[0042]
As a storage medium for storing such a program code, for example, a floppy (R) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, nonvolatile memory card, ROM or the like can be used.
[0043]
When the computer executes the supplied program code, not only the functions of the above-described embodiments are realized, but also the OS (Operating System) in which the program code runs on the computer, or other application software. It goes without saying that such a program code is also included in the embodiment of the present invention when the functions of the above-described embodiment are realized in cooperation with the above.
[0044]
Further, after the supplied program code is stored in a memory provided in a function expansion board of a computer or a function expansion unit connected to the computer, a CPU or the like provided in the function expansion board or the function storage unit based on the instruction of the program code. It is needless to say that the present invention includes a case in which the functions of the above-described embodiments are implemented by performing part or all of the actual processing.
[0045]
【The invention's effect】
According to the present invention, it is possible to superimpose a computer graphic image having a size corresponding to the player's body type, and to present a natural mixed reality.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of an embodiment.
FIG. 2 is a flowchart of a process according to the embodiment.
FIG. 3 is an explanatory diagram for explaining effects of the embodiment.
Claims (8)
プレイヤの体型情報を入力し、
前記体型情報に応じてコンピュータグラフィックス画像のサイズを設定し、
前記設定されたサイズに基づき、前記コンピュータグラフィック画像を生成し、
前記生成されたコンピュータグラフィック画像を現実画像に重畳することを特徴とする情報処理方法。An information processing method for superimposing a generated computer graphics image on a real image,
Enter the body type information of the player,
Set the size of the computer graphics image according to the body information,
Generating the computer graphic image based on the set size,
An information processing method comprising superimposing the generated computer graphic image on a real image.
前記視点情報に基づき前記コンピュータグラフィック画像を生成する情報処理方法であり、
前記センサを用いて前記プレイヤの体型情報を取得することを特徴とする請求項1記載の情報処理方法。Inputting an output value of a sensor for detecting viewpoint information of the player,
An information processing method for generating the computer graphic image based on the viewpoint information,
The information processing method according to claim 1, wherein the body type information of the player is obtained using the sensor.
コンピュータグラフィックス画像の種類に応じた条件を用いて、前記体型情報からサイズを設定することを特徴とする請求項1記載の情報処理方法。An information processing method capable of synthesizing a plurality of types of computer graphics images with the real image,
2. The information processing method according to claim 1, wherein a size is set from the body type information using a condition according to a type of the computer graphics image.
前記位置情報で示される位置に前記生成したコンピュータグラフィックスを合成する情報処理方法であって、
前記プレイヤに装着された位置センサを用いて前記プレイヤの体型情報を入力することを特徴とする請求項1記載の情報処理方法。Inputting position information detected by a position sensor attached to the player,
An information processing method for synthesizing the generated computer graphics at a position indicated by the position information,
The information processing method according to claim 1, wherein the body type information of the player is input using a position sensor mounted on the player.
現実世界の映像を撮影する現実映像撮影手段と、
前記コンピュータグラフィックス画像と前記撮影画像を合成して表示装置に表示する映像表示手段と、
プレイヤの体型を検知する体型検知手段と、
前記体型検知手段によって検知されたプレイヤの体型データに応じて、前記CG映像生成手段が生成するコンピュータグラフィック画像のサイズを設定するCGサイズ設定手段とを備えることを特徴とする複合現実感提示装置。CG image generating means for generating a computer graphics image;
A real image shooting means for shooting images of the real world,
Video display means for combining the computer graphics image and the captured image and displaying the combined image on a display device,
Body shape detection means for detecting the body shape of the player;
A mixed reality presentation apparatus comprising: a CG size setting unit configured to set a size of a computer graphic image generated by the CG image generation unit in accordance with a player's body data detected by the body type detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162987A JP2004013310A (en) | 2002-06-04 | 2002-06-04 | Information processing method and apparatus for presenting augmented reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162987A JP2004013310A (en) | 2002-06-04 | 2002-06-04 | Information processing method and apparatus for presenting augmented reality |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004013310A true JP2004013310A (en) | 2004-01-15 |
Family
ID=30431577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002162987A Withdrawn JP2004013310A (en) | 2002-06-04 | 2002-06-04 | Information processing method and apparatus for presenting augmented reality |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004013310A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318095A (en) * | 2005-05-11 | 2006-11-24 | Canon Inc | Image processing method and image processor |
-
2002
- 2002-06-04 JP JP2002162987A patent/JP2004013310A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318095A (en) * | 2005-05-11 | 2006-11-24 | Canon Inc | Image processing method and image processor |
JP4677281B2 (en) * | 2005-05-11 | 2011-04-27 | キヤノン株式会社 | Image processing method and image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4933406B2 (en) | Image processing apparatus and image processing method | |
US10444502B1 (en) | Method and apparatus for multiple user self-relative tracking for augmented reality systems using magnetic tracking | |
JP4950834B2 (en) | Image processing apparatus and image processing method | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
JP4401727B2 (en) | Image display apparatus and method | |
JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
JP4533087B2 (en) | Image processing method and image processing apparatus | |
US7292240B2 (en) | Virtual reality presentation device and information processing method | |
KR20230048457A (en) | Technique for recording augmented reality data | |
JP2002157606A (en) | Image display controller, composite reality presentation system, image display control method, and medium providing processing program | |
JP2005038008A (en) | Image processing method, image processor | |
JP2009025918A (en) | Image processor and image processing method | |
JP2005165776A (en) | Image processing method and image processor | |
JP2006285609A (en) | Image processing method, image processor | |
JP2006252468A (en) | Image processing method and image processing system | |
JP2009087161A (en) | Image processor and image processing method | |
JP2005339377A (en) | Image processing method and image processor | |
JP7262973B2 (en) | Information processing device, information processing method and program | |
JP2023065528A (en) | Head-mounted information processing apparatus and head-mounted display system | |
JP2004355131A (en) | Method and device for generating composite reality feeling image | |
JP4217661B2 (en) | Image processing method and image processing apparatus | |
JP2005251118A (en) | Method and device for image processing | |
JP2004013310A (en) | Information processing method and apparatus for presenting augmented reality | |
JP2004013309A (en) | Information processing method and apparatus for presenting augmented reality | |
JP2005128877A (en) | Complex sense of reality providing system and method, information processing device and method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050906 |