JP4103204B2 - 臨場感生成システム - Google Patents

臨場感生成システム Download PDF

Info

Publication number
JP4103204B2
JP4103204B2 JP29328298A JP29328298A JP4103204B2 JP 4103204 B2 JP4103204 B2 JP 4103204B2 JP 29328298 A JP29328298 A JP 29328298A JP 29328298 A JP29328298 A JP 29328298A JP 4103204 B2 JP4103204 B2 JP 4103204B2
Authority
JP
Japan
Prior art keywords
data
user
time
image
shaking table
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29328298A
Other languages
English (en)
Other versions
JP2000123193A (ja
Inventor
剛 皆川
晴夫 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP29328298A priority Critical patent/JP4103204B2/ja
Publication of JP2000123193A publication Critical patent/JP2000123193A/ja
Application granted granted Critical
Publication of JP4103204B2 publication Critical patent/JP4103204B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像表示装置あるいは音響装置と、動揺台と、を備える臨場感生成システムに関する。また、本発明は、前記臨場感生成システムにおいて使用する画像データを生成する方法に関する。また、本発明は、前記臨場感生成システムにおいて使用する音響データを生成する方法に関する。
【0002】
【従来の技術】
本発明に関連の深い公知技術としては、特開平7−253751号公報に記載の体感映像装置、特開平8−131659号公報に記載の疑似現実感発生装置、および、特開平9−138637号公報に記載の模擬視界装置がある。
【0003】
特開平7−253751号公報に記載の体感映像装置は、動揺台とビデオプロジェクタとを具備して、臨場感を生成する装置であり、撮影時のビデオカメラの姿勢に基づいて、前記動揺台および前記ビデオプロジェクタの位置や姿勢を制御することを特徴とする装置である。
【0004】
特開平8−131659号公報に記載の疑似現実感発生装置は、動揺台、プロジェクタおよびスピーカを具備して、臨場感を生成する装置である。該装置では、動揺台がユーザの操作に相応した疑似体験を与えるための運動を行うことにより臨場感を生成することが基本的な考え方となっている。動揺台の運動範囲が限られている場合、ユーザの操作に相応した疑似体験を与えるためには、必ずしも動揺台の運動だけでは十分ではないが、映像および音響を補助的に用いて、実際以上の運動をしているかの如くユーザに錯覚を与えることにより、動揺台が十分な運動範囲を持つ場合と同様の臨場感をユーザに提供することが、該装置の特徴となっている。例えば、「動揺台が右に大きく動く」ような状況は、「動揺台を右に動かす」ことと「画像および音像を動揺台の動きの不足分だけ左に動かす」ことによって代替する。
【0005】
特開平9−138637号公報に記載の模擬視界装置は、現実世界におけるユーザの視点データ(視点位置および姿勢に関するデータ)を追従し、それを仮想世界におけるユーザの視点データ(視点位置および姿勢に関するデータ)に反映させ、現実世界におけるユーザの視点データが反映された仮想世界におけるユーザの視点データに基づいて画像を生成し、生成した画像をユーザに提供するという装置である。
【0006】
また、該模擬視界装置に類似の装置として、現実世界におけるユーザの視点データを追従し、該現実世界におけるユーザの視点データおよび仮想世界におけるユーザの視点データに基づいて画像を生成し、生成した画像をユーザに提供するという装置も存在する。
【0007】
また、コンピューターグラフィックス(以下「CG」と記述する)を用いて時系列画像データを生成する技術として、仮想世界の3次元モデルを生成し、該仮想世界中にモデル化されたカメラを挿入し、各時刻毎に該カメラによって撮影される画像を計算し生成する、という方法がある。
【0008】
【発明が解決しようとする課題】
動揺台の運動データ(位置・姿勢・速度等のデータ)の生成方法としては、仮想世界におけるユーザの視点位置等の動き(CGによる技術ではカメラの動きに対応する)に忠実に生成する方法、加速度に重きを置いて生成する方法、等が考えられる。例えば、「高速で走っている車に乗って長く急な左カーブを曲がり続ける」ことをユーザに体感させたい場合には、「路面についているであろう左下がりの横傾斜に忠実に動揺台を左下がりとする」というように運動パラメタを生成することもできるし、「遠心力をユーザに体感させるために動揺台を右下がりにして重力を利用する」というように運動パラメタを生成することもできる。従って、コンテンツ制作者の観点からすれば、状況によって適した方法を用いて自由に動揺台の運動パラメタを生成することができるのが理想である。
【0009】
また、ユーザの観点からすれば、提供される映像および音像は、ユーザの視点位置・姿勢で見た時に正しく見える映像、ユーザの聴点位置・姿勢で聴いた時に正しく聴こえる音像であることが理想である。これは、例えば、画像表示装置が複数スクリーンを備えている場合に、ユーザの視点位置・姿勢で見た時に正しく見える映像でない映像を表示した場合には、スクリーンの境界付近で画像が不自然に歪む、例えば、直線が曲がって見える、などの現象として理解することができる。
【0010】
また、同様にユーザの観点からすれば、提供される映像および音像は、可能な限り高品質であることが望ましい。
【0011】
以上のような観点で考えた場合、公知の技術には、以下のような課題がある。
【0012】
まず、特開平7−253751号公報に記載の体感映像装置に関しては、ユーザの視点位置・姿勢で見た時に正しく見える映像を表示するためには、ビデオプロジェクタは少なくともユーザの視点と略一致する位置(動揺台の座席付近)から映像を投写することが必要であるが、そのようなことは一般に不可能である。また、シフトレンズなどの特殊な光学系を用いて撮影および投写することで、該問題を回避する場合にも、ビデオプロジェクタがスクリーンに対して相対的に動く場合には、ユーザの視点位置・姿勢で見た場合に正しい映像となるように、映像を投写することは不可能である。
【0013】
また、例えば、複数のスクリーンと複数のプロジェクタとを用いて動揺台を取り囲むような映像供給を行おうとした場合、該複数のプロジェクタの相対位置が変化しないように固定し、該複数のプロジェクタのすべてを動揺台に同期させて動揺させることは、容易に実施できることではない。
【0014】
また、動揺台の運動パラメタの生成に関しても、基本的にビデオカメラの運動を修飾するだけのものであり、動揺台の運動パラメタ生成に関するコンテンツ制作者側の自由が制限されてしまっている。
【0015】
次に、特開平8−131659号公報に記載の疑似現実感発生装置であるが、画像データの生成や音響データの生成を、仮想世界におけるユーザの運動と、動揺台の運動パラメタに基づいて行っているものの、これは、動揺台の運動だけでは十分な臨場感をユーザに提供できない場合に、その不足分を補うことを目的として行っているものであり、現実世界におけるユーザの視点位置・姿勢および聴点位置・姿勢を考慮した上で行っているものではない。従って、例えば、動揺台の運動だけで十分な臨場感をユーザに提供できる場合には、動揺台の動きと映像および音像は連動しない。また、例えば、動揺台を右に傾けたい、しかし、動揺台の運動範囲の制約から十分に傾けることができない、という場合には、表示画面内の1点を中心として映像を左に傾ける処理を行うことになるが、実際は動揺台を右に傾けた段階で視点位置も(例えば)右方向にずれてしまうため、表示画面内の映像を回転するだけでは、ユーザの視点位置・姿勢で見た時に正しく見える映像とはならない。
【0016】
次に、特開平9−138637号公報に記載の模擬視界装置に関しては、例えば、動揺台の運動を加速度に重きを置いて生成する場合に、現実世界におけるユーザの視点データの変更に基づいて仮想世界におけるユーザの視点データを変更することは、不都合である。すなわち、動揺台の運動に起因する、現実世界におけるユーザの視点データの変更は、本来、仮想世界におけるユーザの視点データとは独立なものであり、例えば、「左から右へ強風が吹いている」ことを表現するために動揺台を右に傾け、それに伴って現実世界におけるユーザの視点位置が変わったとしても、仮想世界におけるユーザの視点位置は変更すべきではない。
【0017】
この点に関して、現実世界におけるユーザの視点データを追従し、該現実世界におけるユーザの視点データおよび仮想世界におけるユーザの視点データに基づいて画像を生成し、生成した画像をユーザに提供するという装置は、本発明に最も類似するものである。しかし、該装置は、各時刻毎にユーザの視点データの検出を行い、該検出された視点データに基づいて、各時刻毎に画像の生成を行っているため、生成できる画像の品質に限界があるという問題がある。例えば、複雑な3次元モデルによる仮想世界データから、レイトレーシングや高度なシェーディング技術等を用いて、ユーザに提示する高品質な2次元画像を生成することは、十分な時間をかければもちろん可能であるが、これを、該装置において、各時刻毎に生成してユーザに提供することは、非常に困難であると言える。また、各時刻毎にユーザの視点データを追従するために、ユーザは頭部等に追従用の機器を装着するのが通例であるが、ユーザによってはこれを煩わしく感じ、臨場感が損なわれるという問題もある。
【0018】
以上の課題に対する1つの解決策は、例えば、ユーザにヘッドマウントディスプレイ(以下、HMD、と表記する)を用いて映像を提供し、ヘッドホンを用いて音響を提供することである。この方法では、動揺台の動きによって映像および音響の提供手段とユーザとの相対位置・姿勢が変化しないため、動揺台の動きを考慮せずに、再生するための画像データおよび音響データを適切に生成することができる。しかし、この方法では、ユーザがHMDあるいはヘッドホンを装着する必要がある、動揺台が複数ユーザ用であった場合に人数分のHMDあるいはヘッドホンを用意する必要がある、視覚や聴覚がHMDあるいはヘッドホンにより塞がれてしまうため動揺台が複数ユーザ用であった場合に同乗したユーザ間の連体感が薄れる、等の問題がある。
【0019】
そこで本発明は、臨場感生成システムにおいて、動揺台の運動が、画像表示装置(スクリーン、プロジェクタ等)・音響装置(スピーカ等)とユーザとの間の相対位置・姿勢に影響を及ぼすような場合においても、前記のような問題が生じないような、画像データ生成方法、あるいは、音響データ生成方法、を提供することを目的とする。
【0020】
また、CGを用いて時系列画像データを生成する技術に関しては、一般的に、ユーザがカメラの内部パラメタ(焦点距離、画角、光軸と画像投影面との関係、等)およびカメラの外部パラメタ(仮想世界におけるカメラの位置・姿勢、等)を設定できるようになっているが、カメラの外部パラメタに関しては各時刻毎に自由に設定できるものの、カメラの内部パラメタに関しては、カメラ毎に固定された設定値であり各時刻毎に設定することができないか、ズームイン・ズームアウト等の効果を出すために焦点距離あるいは画角といったごく限られたパラメタに限り各時刻毎に設定することが許されているか、であった。
【0021】
ところが、現実世界におけるユーザの視点位置および姿勢は各時刻毎に変化し、それに伴ってスクリーンとの相対的な位置および姿勢も変化するため、ユーザの視点位置・姿勢で見た時に正しく見える映像を生成するためのカメラの内部パラメタは、各時刻毎に変化する必要がある。したがって、公知の技術によって、ユーザの視点位置・姿勢で見た時に正しく見えるような、時系列画像データを生成することは不可能である。これは、時系列画像データの生成に限ったものではなく、時系列音響データの生成についても同様のことが言える。
【0022】
そこで本発明は、前記の目的に加え、ユーザの視点位置・姿勢で見た時に正しく見えるような時系列画像データを生成する方法を提供すること、および、ユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような時系列音響データを生成する方法を提供すること、を目的とする。
【0023】
なお、以下では、ユーザの視点データ(視点位置および姿勢に関するデータ)およびユーザの聴点データ(聴点位置および姿勢に関するデータ)を合わせて、ユーザの視聴点データと書くことにする。
【0024】
【課題を解決するための手段】
本発明は、前記の課題を解決すべく為されたものであり、以下の特徴を持つものである。
【0025】
本発明の1つの特徴は、先ず、動揺台の運動データを生成し、次に、生成した動揺台の運動データを用いて、現実世界におけるユーザの視聴点データを考慮した画像データおよび音響データを生成するようにしたことにある。
【0026】
本発明の別の特徴は、カメラおよびマイクの内部パラメタを時系列データとして用意し、時系列画像データおよび時系列音響データの生成において、各時刻毎にカメラ・マイクの内部パラメタを設定する処理を具備するようにしたことにある。
【0027】
本発明の別の特徴は、仮想世界のデータを、ユーザが変更し得るデータ(動的仮想世界データ)と、ユーザが変更できないデータ(静的仮想世界データ)とに分類し、その上で、先ず、動揺台の時系列運動データを生成し、次に、生成した動揺台の時系列運動データを用いて、現実世界におけるユーザの時系列視聴点データ(あるいはそれに相当するデータ)を生成し、前記静的仮想世界データについては、前記現実世界におけるユーザの時系列視聴点データを考慮した上で時系列画像データおよび時系列音響データを生成し、前記動的仮想世界データについては、各時刻毎にユーザコマンドによる更新を行った上で、各時刻毎に前記現実世界におけるユーザの時系列視聴点データのうち適切な時刻のデータを考慮して画像データおよび音響データを生成し、該画像データおよび音響データと、先に生成した時系列画像データおよび時系列音響データのうち適切な時刻のデータとを、各時刻毎に合成してユーザに提示するようにしたことにある。
【0028】
また、さらに、前記生成した時系列データの各々を記憶媒体に記憶しておき、同一コンテンツを繰り返し再生する場合に、ユーザコマンドにより変更される部分だけを繰り返し生成するだけで済むようにしたことにある。
【0029】
本発明の別の特徴は、生成する画像データを3次元画像データとしたこと、あるいは、生成する音響データを3次元音響データとしたこと、にある。
【0030】
【発明の実施の形態】
以下、図1〜図3を用いて,本発明の第1の実施の形態による画像データ生成方法および音響データ生成方法について詳細に説明する。本実施の形態は、各時刻毎に、動揺台の運動データ、画像データおよび音響データを生成するものである。本実施の形態は、ユーザが仮想世界のデータに作用を及ぼし変更を施すことが各時刻毎に可能であり、また、ユーザが仮想世界におけるユーザの視聴点データに作用を及ぼし変更を施すことが各時刻毎に可能であるようなシステムに用いる場合に、好適な形態である。
【0031】
図1は、本発明の第1の実施の形態によるデータ生成処理のフローチャートである。該フローチャートは、仮想世界のデータと、動揺台の設計データと、動揺台及び画像表示装置及び音響装置の配置データと、があらかじめ与えられている場合に、ユーザに提示するための画像データおよび音響データ(以下、これらの2種類のデータを特に区別する必要がない場合には、「画像音響データ」と記す)を生成する処理について記述したものである。
【0032】
ユーザに提示する画像音響データの生成処理が開始されると、まず、ステップ101において、仮想世界におけるユーザの視聴点データを生成し、次に、ステップ102において、動揺台の運動データを生成する。以上の処理は、公知の技術とまったく同様に実施することができる。
【0033】
次に、ステップ103において、ステップ102で生成した動揺台の運動データと、動揺台の設計データとに基づいて、現実世界におけるユーザの視聴点データを生成する。該処理については、図3において詳細を説明する。
【0034】
最後に、ステップ104において、仮想世界のデータと、動揺台及び画像表示装置及び音響装置の配置データと、ステップ101で生成した仮想世界におけるユーザの視聴点データと、ステップ103で生成した現実世界におけるユーザの視聴点データと、に基づいて画像データおよび音響データを生成する。該処理については、公知の技術とまったく同様に(例えば透視変換を行うことにより)実施することができる。すなわち、公知の技術においては、ユーザの現実世界における視点データおよび聴点データとして理想視点データおよび理想聴点データを仮想的に定め、該理想視点データおよび該理想聴点データに基づいて画像音響データの生成処理を行っていたものを、前記理想視点データおよび前記理想聴点データの代わりに、ステップ103で生成した、現実世界におけるユーザの視点データおよび聴点データを使用して、画像音響データの生成処理を行うようにすればよい。
【0035】
図2は、本発明の第1の実施の形態によるデータ生成処理の処理イメージを示す概念図である。
【0036】
図2(a)および図2(c)は、臨場感生成システムの正面図である。これらの図において、符号2011はスクリーンを、符号2021は動揺台を、符号2031は動揺台に座っているユーザを表している。
【0037】
図2(a)は動揺台の初期状態を表しており、図2(c)は「左から強風が吹いてきた」ことを体感させるために動揺台を右に傾けた様子を表したものである。図2(a)の状態においてスクリーン2011に表示される画像が図2(b)における画像2013であった時、本発明の実施によれば、図2(c)の状態においてスクリーン2011に表示される画像は、図2(d)における画像2014のようになる。
【0038】
これは、本発明が、次のような考えに基づくものであるためである。
【0039】
図2(b)において、ユーザに提示される画像2013には、木2043および岩2053が表現されていた。図2(c)において、「左から強風が吹いてきた」ことを体感させるために動揺台を右に傾けて風圧を表現し、その動揺台の運動の影響で、現実世界におけるユーザの視点位置は右にずれ姿勢は右に傾いたが、仮想世界におけるユーザの視点位置や姿勢は変化していないはずである。そこで、この状態における画像は、右にずれ右に傾いた現実世界におけるユーザの視点データに基づいて生成する。これにより、画像2013中では中央にまっすぐ立っていた木2043は、画像2014において右にずれ右に傾くことになるが、ユーザ2031からスクリーン2011に投影されたこれらの画像を見た場合、木2043は図2(a)においても図2(c)においてもユーザの正面にまっすぐに見えることになる。これは、仮想世界におけるユーザの視点位置や姿勢が変化していないことを反映した結果となっており、動揺台の運動によって、ユーザが体感する仮想世界の状態が乱されないことを意味している。
【0040】
図3は、本発明の第1の実施の形態によるデータ生成処理において、動揺台の運動データから現実世界におけるユーザの視聴点データを求める方法を説明するための図である。
【0041】
図3(a)は、動揺台302に人間モデル301が腰かけている状態である。この状態を、動揺台の設計データを用いて、図3(b)のようにモデル化する。
【0042】
図3(b)は、動揺台のある1状態を示したものである。ここでは仮にこれを状態1とする。
【0043】
図3(b)において、OWはワールド座標系の原点、ORは動揺台に付随する座標系(以下、動揺台座標系)の原点、XRおよびYRおよびZRは動揺台座標系の互いに直交する座標軸、VPは動揺台座標系におけるユーザの特徴点位置、b0はORのワールド座標系における位置ベクトル、である。
【0044】
ここで、ユーザの特徴点位置とは、正しい画像音響データを生成するために、図3(a)のモデルと動揺台の設計データから算出するものであり、例えば、視聴点位置を求めるための、ユーザの左右の目の位置、左右の耳の位置、あるいは、視聴点の姿勢を求めるための、頭頂部の位置、頭の重心位置、鼻の位置、等がある。
【0045】
今、VPの動揺台座標系における位置ベクトルがvpで表され、VPのワールド座標系における位置ベクトルが「b0+M×vp」で表されているとする。ここで、「M×vp」は、ワールド座標系と動揺台座標系との違い(軸の方向やスケール因子など)を補正するための3次元行列Mと、VPの動揺台座標系における位置ベクトルvpの積を表す。行列Mは、例えば、動揺台座標系がワールド座標系を平行移動したものである場合には、単位行列、すなわち恒等写像を表す行列となる。
【0046】
図3(c)は、動揺台の状態1とは別の1状態を示したものである。ここでは仮にこれを状態2とする。
【0047】
状態2は、状態1から、動揺台座標系の原点ORがワールド座標系においてb1だけ平行移動し、さらに、動揺台座標系においてORを中心として3次元の回転行列Qで表される回転を行った状態であるとする。
【0048】
このとき、VPのワールド座標における位置ベクトルは、「b0+b1+M×Q×vp」のように求めることができる。ここで、「M×Q×vp」は、行列Mと行列Qと位置ベクトルvpの積を表し、vpにまず回転変換Qを施し、続いてワールド座標系と動揺台座標系との違いを補正するための変換Mを施したことを意味する。ここで、行列Mおよびベクトルvpは、図3(b)における行列M・ベクトルvpと同一のものである。
【0049】
以上の方法でユーザの特徴点位置を必要なだけ求めることにより、現実世界におけるユーザの視点データを求めることができる。仮想世界における視点データは既に求められているため、このようにして求めた現実世界におけるユーザの視点データと、スクリーンの位置・姿勢・形状等のデータとに基づいて、仮想世界における画像面位置・姿勢・形状を定めることができ、ユーザにとって正しく見えるような画像データを生成することができる。これは、音響データについても同様である。
【0050】
以上、本発明の第1の実施の形態によれば、各時刻毎に画像音響データを生成する場合に、動揺台の運動データに基づいて現実世界におけるユーザの視聴点データを算出し、仮想世界のデータと、動揺台及び画像表示装置及び音響装置の配置データと、仮想世界におけるユーザの視聴点データと、現実世界におけるユーザの視聴点データと、に基づいてユーザに提示する画像音響データを生成しているため、ユーザにとって違和感のない画像データおよび音響データを提供することができる。
【0051】
また、各時刻毎に画像音響データを生成する場合に、動揺台の運動データに基づいて現実世界におけるユーザの視聴点データを算出するため、ユーザの頭部等に追従用の機器を装着することなしに、現実世界におけるユーザの視聴点データを求めることができ、ユーザに煩わしさを感じさせずに、かつ、ユーザにとって正しい画像音響データをユーザに提供することができる。
【0052】
また、一般に、動揺台の設計データと動揺台の運動データとに基づいて現実世界におけるユーザの視聴点データを算出することは、現実世界におけるユーザの視聴点データをユーザの頭部等に装着した追従用の機器を用いて算出することに比べ、非常に容易であり、また、ノイズに強い。したがって、より高精度の視聴点データを、より短い時間で算出できることになり、そのため、より高品質の画像音響データを、より高速に生成し、ユーザに提供できるという効果がある。
【0053】
また、動揺台が複数ユーザ用のものであり、各々のユーザの視聴点データを用いて各々のユーザに対応する画像音響データを生成する場合にも、図3の説明における位置ベクトルvpおよび必要となる特徴点の数を増やすだけで、本実施例に述べた方法とまったく同様の方法により画像音響データを生成することができる。
【0054】
以下、本発明の第2の実施の形態による画像データ生成方法および音響データ生成方法について詳細に説明する。該実施の形態は、動揺台の時系列運動データおよび時系列画像データおよび時系列音響データを生成するものであり、ユーザからの作用がなく、あらかじめ生成した前記各種時系列データを再生することによりユーザに臨場感を与えるようなシステムに用いる場合に、好適な形態である。
【0055】
動揺台の時系列運動データおよび時系列画像データおよび時系列音響データを生成する方法としては、図1のステップ101からステップ104までの処理を各時刻のデータ生成の度に繰り返す方法と、図1のステップ101からステップ104までの各々の処理において時系列データを生成する方法とが考えられる。
【0056】
前者の方法は前記第1の実施の形態において既に説明したため、本実施例においては、後者の方法、すなわち、図1のステップ101からステップ104までの各々の処理において時系列データを生成する方法、について説明する。
【0057】
なお、「背景にテクスチャAを使って画像を生成していたが、使用するテクスチャをテクスチャBに変更したい」ような場合に、前者の方法では最初から画像データの生成をやり直さなくてはならないが、後者の方法ではステップ104における時系列データの生成のみをやり直すだけで済むという利点があるため、後者の方法を用いることは、コンテンツの更新を頻繁に行う場合に特に有効である。
【0058】
以下、図1の各々のステップにおいて時系列データを生成する方法について説明するが、ステップ101およびステップ102およびステップ103に相当する処理に関しては、単純に、すべての時刻について繰り返し計算を行えばよいため、ここでは、ステップ104に相当する処理、すなわち、仮想世界における時系列視聴点データおよび現実世界における時系列視聴点データが与えられた時に時系列画像データおよび時系列音響データを生成する方法について、図4〜図6を用いて詳細に説明する。
【0059】
以下、図4および図5を用いて,本発明の第2の実施の形態による時系列画像データ生成方法について詳細に説明する。
【0060】
図4は、本発明の第2の実施の形態による時系列画像データ生成処理のフローチャートであり、図5は公知の技術における時系列画像データ生成処理のフローチャートである。
【0061】
まず、図5を用いて、公知の技術における時系列画像データ生成処理のフローチャートについて説明する。
【0062】
公知の技術では、時系列画像生成処理が開始されると、仮想世界のデータを読み込み(ステップ600)、カメラの外部パラメタ(仮想世界における位置および姿勢に関するパラメタ)を読み込み(ステップ601)、カメラの内部パラメタ(焦点距離、画角、フィルム形状、光軸とフィルム位置・姿勢との関係、等)を読み込み(ステップ602)、該カメラの内部パラメタの設定処理を行う(ステップ603)。ここで、カメラの外部パラメタは、各時刻毎に各カメラ毎に定義されているものであり、カメラの内部パラメタは、各カメラ毎に定義されているものである。
【0063】
ステップ603におけるカメラの内部パラメタ設定処理の終了以後は、以下で説明するような、各時刻毎の処理となる。まず、ステップ604においてカメラの外部パラメタの設定処理を行い、次に、ステップ605において、ステップ600において読み込んでおいた仮想世界のデータと、ステップ603およびステップ604において設定した、カメラの内部パラメタおよびカメラの外部パラメタと、に基づいて、該時刻における画像を生成する。
【0064】
ステップ606において、すべての時刻について画像の生成が終了したか否かを判定し、「すべての時刻について画像の生成が終了した」と判定された場合には時系列画像の生成処理を終了し、「画像の生成が終了していない時刻がある」と判定された場合には、時刻を1進めた上で、再びステップ604からの画像生成処理を繰り返す。
【0065】
以上が、公知の技術による時系列画像データ生成処理の処理フローである。「発明が解決しようとする課題」の項でも説明したとおり、現実世界におけるユーザの視点位置・姿勢は各時刻毎に変化し、それに伴ってスクリーンとの相対的な位置・姿勢も変化するため、ユーザの視点位置・姿勢で見た時に正しく見える映像を生成するためのカメラの内部パラメタは、各時刻毎に設定する必要がある。そこで、カメラの内部パラメタの設定処理を、各時刻毎に行うようにしたものが、図4に示す、本発明の第2の実施の形態による時系列画像データ生成処理である。
【0066】
図4のフローチャートにおいて、時系列画像生成処理が開始されると、仮想世界のデータを読み込み(ステップ500)、カメラの外部パラメタを読み込み(ステップ501)、カメラの内部パラメタを読み込む(ステップ502)。ここで、カメラの内部パラメタおよびカメラの外部パラメタは、各時刻毎に各カメラ毎に定義されているものである。
【0067】
各データおよび各パラメタの読み込み後は、以下で説明するような、各時刻毎の処理となる。まず、ステップ503においてカメラの外部パラメタの設定処理を行い、次に、ステップ504においてカメラの内部パラメタの設定処理を行い、続いて、ステップ505において、ステップ500において読み込んでおいた仮想世界のデータと、ステップ503およびステップ504において設定した、カメラの外部パラメタおよびカメラの内部パラメタと、に基づいて、該時刻における画像を生成する。
【0068】
ステップ506において、すべての時刻について画像の生成が終了したか否かを判定し、「すべての時刻について画像の生成が終了した」と判定された場合には時系列画像の生成処理を終了し、「画像の生成が終了していない時刻がある」と判定された場合には、時刻を1進めた上で、再びステップ503からの画像生成処理を繰り返す。
【0069】
以上が、本発明による時系列画像データ生成処理の処理フローである。各時刻毎にカメラの内部パラメタを適切な値に設定しなおすことにより、現実世界におけるユーザの視点位置等の変化を反映した、ユーザにとって正しく見える時系列画像を生成することができる。
【0070】
なお、各時刻におけるカメラの内部パラメタは、図1のステップ103に相当する処理によって求められる現実世界におけるユーザの視点データと、スクリーンの位置・姿勢・形状等の配置パラメタとを用いて、公知の技術により容易に生成できるものである。すなわち、現実世界における視点とスクリーンとの間の相対関係と、仮想世界における視点とフィルム面との間の相対関係が、ある相似比を介して同一の関係であることを考慮した上で生成すればよい。
【0071】
次に、図6を用いて,本発明の第2の実施の形態による時系列音響データ生成方法について詳細に説明する。
【0072】
視覚の場合ほど明確ではないが、ユーザは、聴覚においても、聴こえてくる音のボリューム、左右の耳に音が到達する時刻のずれ、後ろから来る音と前から来る音との聴こえ方の違い(同じ音量の音源が同じ距離にあっても後ろから来る方が小さく聴こえる)等によって、音源の位置の変化や音源の方向を認識するため、現実世界におけるユーザの聴点位置・姿勢とスピーカとの相対位置・相対姿勢を考慮して音響データを生成することは、非常に重要である。
【0073】
図6は、本発明の第2の実施の形態による時系列音響データ生成処理のフローチャートであり、現実世界におけるユーザの聴点位置・姿勢と、スピーカとの相対位置・相対姿勢を考慮して音響データの生成を行う場合の処理について記述したものである。
【0074】
図6のフローチャートにおいて、時系列音響データ生成処理が開始されると、仮想世界のデータを読み込み(ステップ540)、マイクの外部パラメタ(仮想世界における位置および姿勢に関するパラメタ)を読み込み(ステップ541)、マイクの内部パラメタ(指向性、聴点位置・姿勢とマイク位置・姿勢との関係、等)を読み込む(ステップ542)。ここで、マイクの内部パラメタおよびマイクの外部パラメタは、各時刻毎に各マイク毎に定義されているものである。
【0075】
各データおよび各パラメタの読み込み後は、以下で説明するような、各時刻毎の処理となる。まず、ステップ543においてマイクの外部パラメタの設定処理を行い、次に、ステップ544においてマイクの内部パラメタの設定処理を行い、続いて、ステップ545において、ステップ540において読み込んでおいた仮想世界のデータと、ステップ543およびステップ544において設定した、マイクの外部パラメタおよびマイクの内部パラメタと、に基づいて、該時刻における音響データを生成する。
【0076】
ステップ546において、すべての時刻について音響データの生成が終了したか否かを判定し、「すべての時刻について音響データの生成が終了した」と判定された場合には時系列音響データの生成処理を終了し、「音響データの生成が終了していない時刻がある」と判定された場合には、時刻を1進めた上で、再びステップ543からの音響データ生成処理を繰り返す。
【0077】
以上が、本発明による時系列音響データ生成処理の処理フローである。各時刻毎にマイクの内部パラメタを設定しなおすことにより、現実世界におけるユーザの聴点データの変化を反映した、ユーザにとって正しく聴こえる時系列音響データを生成することができる。
【0078】
なお、各時刻におけるマイクの内部パラメタは、図1のステップ103に相当する処理によって求められる現実世界におけるユーザの聴点データと、スピーカの位置・姿勢・音響特性等の配置パラメタとを用いて、公知の技術により容易に生成できるものである。
【0079】
以上、本発明の第2の実施の形態によれば、ユーザからの作用がない場合に、あらかじめ、すべての時刻における、仮想世界におけるユーザの視聴点データ、動揺台の運動データ、現実世界におけるユーザの視聴点データ、を生成しておくことができ、さらに、仮想世界のデータと、動揺台及び画像表示装置及び音響装置の配置データと、仮想世界におけるユーザの視聴点データと、現実世界におけるユーザの視聴点データと、に基づいて、あらかじめ、すべての時刻における画像音響データを生成しておくことができる。したがって、すべての画像音響データを、十分な時間をかけて生成することができるため、ユーザの視聴点データの算出と該データに基づく画像音響データの生成とをリアルタイムに行う場合に比べ、はるかに高品質な画像音響データをユーザに提供することができる。また、もちろん、ユーザに提供する画像音響データは、ユーザの視点位置・姿勢で見た時に正しく見えるような画像データ、ユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような音響データ、となっている。
【0080】
なお、動揺台が複数ユーザ用のものであり、各々のユーザの視聴点データを用いて各々のユーザに対応する時系列画像データあるいは時系列音響データを生成する場合にも、本実施形態により時系列画像データあるいは時系列音響データが生成できることは、言うまでもない。
【0081】
以下、図7を用いて,本発明の第3の実施の形態による画像データ生成方法および音響データ生成方法について詳細に説明する。本実施の形態は、動揺台の時系列運動データ、時系列画像データおよび時系列音響データを生成し、なおかつ、各時刻毎に画像データおよび音響データを生成するものである。本実施の形態は、ユーザが仮想世界のデータに作用を及ぼし変更を施すことが各時刻毎に可能であるが、ユーザが仮想世界におけるユーザの視聴点データに作用を及ぼし変更を施すことは不可能であるようなシステムに用いる場合に、好適な形態である。
【0082】
例えば、「モノレールに乗っているユーザに敵キャラクタが襲いかかってくるため、それをミサイルで撃ち落とす」ようなコンテンツの場合には、本実施形態を用いるのがよい。この場合、ユーザが仮想世界のデータに及ぼす作用および仮想世界データに施される変更としては、「ミサイルを発射する」「ミサイルを敵キャラクタに命中させる」「敵キャラクタが爆発する」「敵キャラクタがいなくなる」等が挙げられる。ユーザがミサイルをいつどこに向けて発射するかを、コンテンツ制作側があらかじめ知ることはできないため、このようなコンテンツにおいては、画像音響データのすべてをあらかじめ生成しておくことは不可能である。しかし、遥か遠くに見える景色などは、ユーザがミサイルをいつどこに向けて発射するかに依存せず生成しておくことができるため、このようなデータに関しては、あらかじめ十分な時間をかけて高品質なデータを生成しておくことが望ましい。
【0083】
図7に示すフローチャートは、仮想世界のデータと、動揺台の設計データと、動揺台及び画像表示装置及び音響装置の配置データと、があらかじめ与えられている場合に、ユーザに提示するための動揺台の運動データおよび画像音響データを生成する処理、および生成した各々のデータをユーザに提示する処理、について記述したものである。なお、仮想世界のデータは、あらかじめ、ユーザのコマンドによって変化し得る動的仮想世界データと、ユーザのコマンドによって変化することのない静的仮想世界データと、に分類しておくものとする。
【0084】
図7において、各種データを生成しユーザに提示する処理が開始されると、まず、本発明の第2の実施の形態で説明したのと同様に、ステップ401において仮想世界におけるユーザの時系列視聴点データを生成し、ステップ402において動揺台の時系列運動データを生成し、ステップ403において現実世界におけるユーザの時系列視聴点データを生成する。
【0085】
次に、ステップ404において、静的仮想世界データと、動揺台及び画像表示装置及び音響装置の配置データと、ステップ401で生成した、仮想世界におけるユーザの時系列視聴点データと、ステップ403で生成した、現実世界におけるユーザの時系列視聴点データと、に基づいて、静的仮想世界に関する時系列画像データおよび時系列音響データを生成する。これは、基にするデータを静的仮想世界データに限定することを除けば、先に説明した第2の実施の形態と同様の処理によって実施することができる。
【0086】
以上の処理は、あらかじめ、十分な時間を使って行っておくことのできる処理である。以下、ステップ405からステップ411に記述されている処理は、各時刻毎に行う処理である。
【0087】
続いて、ステップ405において、ユーザからのコマンド入力の有無を判定する。コマンド入力があった場合にはステップ406へ、コマンド入力がない場合にはステップ407へ、それぞれ処理を進める。
【0088】
ユーザからのコマンド入力があった場合には、ステップ406において該コマンドの解析を行い、解析結果を、ステップ407の動的仮想世界データの更新時に反映させる。
【0089】
ステップ407の、動的仮想世界データ更新処理では、前時刻の動的仮想世界データに、必要に応じてユーザコマンドの影響を反映させ、動的仮想世界データの更新処理を行う。ここで、動的仮想世界データが変更されるのは、現時刻におけるステップ406で入力されたユーザコマンドの影響だけではなく、前の時刻から継続して行われている動的仮想世界データの変更の影響も考慮することに注意する。
【0090】
例えば、ユーザからミサイル発射コマンドが入力された場合に、それがミサイル発射コマンドであると認識し、ミサイル発射コマンド入力フラグを立てる。以上が、ステップ406における処理である。このとき、ステップ407における処理は、以下のようになる。まず、ミサイル発射コマンド入力フラグが立てられていた場合には発射されたミサイルを仮想世界に加える処理を行い、ミサイル発射コマンド入力フラグを元に戻す。また、現時刻より前の段階で既に発射され動的仮想世界中を飛んでいたミサイルが存在する場合には、該ミサイルの位置・向き・速度等のデータに基づいて、該ミサイルの現時刻における位置・向き・速度等のデータを算出し、データの更新処理を行う。また、各ミサイルの敵キャラクタとの衝突判定を行い、いずれかのミサイルが敵キャラクタに当たっていた場合には敵キャラクタを消滅させ代わりに爆煙を発生させる。
【0091】
以上のようにして、ステップ407で更新された動的仮想世界データに関して、ステップ408において動的仮想世界データと、動揺台及び画像表示装置及び音響装置の配置データと、ステップ401で生成した仮想世界におけるユーザの視聴点データと、ステップ403で生成した現実世界におけるユーザの視聴点データと、に基づいて、動的仮想世界に関する画像データおよび音響データを生成する。これは、基にするデータを動的仮想世界データに限定することを除けば、ステップ104と同様の処理によって実施することができる。
【0092】
次に、ステップ404において生成された静的仮想世界に関する時系列画像データ・時系列音響データのうち現時刻に対応する部分のデータと、ステップ408において生成された動的仮想世界に関する画像データ・音響データとを、ステップ409において合成する。これは、例えば、静的仮想世界に関する画像データに動的仮想世界に関する画像データの必要な部分を上描きする等の方法によって実施することもできるし、さらに、仮想世界のデータが仮想世界の3次元幾何情報データを具備しているような場合には、該3次元幾何情報データを使用して隠面消去等の技術を用いた方法によって実施してもよい。音響データに関しても同様で、静的仮想世界に関する音響データと動的仮想世界に関する音響データとを適当なバランスでミキシングするような方法で実施してもよいし、さらに、例えば、「動的仮想世界に関する爆発音を強調するために動的仮想世界に関する爆発音がある場合には他の音を弱めにしてミキシングする」等、個々の音源毎の微調節まで含めた方法によって実施してもよい。
【0093】
次に、ステップ410のデータ提示処理において、ステップ409において生成した画像データおよび音響データをユーザに提示し、ステップ402で生成した動揺台の時系列運動データの現時刻に対応する部分のデータを用いて動揺台の制御を行う。
【0094】
最後に、ステップ411において、再生処理を終了するか否かを判定する。「終了」と判定された場合には、各種データを生成しユーザに提示する処理全体が終了したことになる。終了していない場合には、時刻を1だけ進めて再びステップ405以降の処理を繰り返す。終了するか否かの判定は、例えば、時系列データを生成したすべての時刻についてデータの再生が終了したか、ユーザコマンドによって終了要求があったか、ユーザコマンドにより動的仮想世界データを更新した結果ゲームオーバーと判定されたか、のいずれかに該当する場合は終了、それ以外は終了しない、のように判定すればよい。
【0095】
なお、ステップ401〜ステップ404において生成されたデータを、記憶媒体に記憶しておき、該記憶されたデータを用いて、ステップ405以降の処理を行うようにしてもよい。この場合、ステップ401〜ステップ404の処理を1度だけ行っておけば、ステップ405以降の処理を繰り返し行うことができるため、アミューズメントパーク等で同一のコンテンツを繰り返し実施する場合に有効である。
【0096】
以上、本発明の第3の実施の形態によれば、ユーザの視点位置・姿勢で見た時に正しく見えるような画像データおよびユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような音響データをユーザに提示することができ、また、ユーザのコマンドを反映した仮想世界をユーザに体感させることができる。さらに、前記ユーザに提供する画像データおよび音響データのうちの一部を、あらかじめ十分な時間をかけて生成した高品質なデータとすることができる。
【0097】
また、仮想世界のデータのうち、静的仮想世界データに関する部分については、あらかじめ画像データの生成および音響データの生成を行っておくため、ステップ409における画像音響合成処理の内容によっては、すべてを動的仮想世界データとして扱う場合に比べ、仮想世界全体に対する画像データおよび音響データのリアルタイム生成時の負荷を低減することができる。
【0098】
なお、以上の3種類の実施の形態において、生成する画像データおよび音響データは、3次元画像データおよび3次元音響データであってもよく、また、生成するデータが3次元画像データ・3次元音響データである場合、本発明の実施による効果はなお一層顕著である。ここで、3次元画像データ・3次元音響データとは、ユーザが該画像音響データを3次元的に知覚することができるようなデータであり、例えば、3次元画像データの例では、液晶シャッタ眼鏡を用いて時分割により右目用画像と左目用画像を交互に表示する場合の、右目用の時系列画像と左目用の時系列画像とが交互に並んだ時系列画像データを挙げることができる。
【0099】
以下、図8を用いて,本発明の第4の実施の形態による臨場感生成システムについて詳細に説明する。本実施の形態は、あらかじめ生成した時系列データを再生することによってユーザに臨場感を与えることを目的とするシステムの、一実施例である。
【0100】
図8は、本発明の第4の実施の形態による臨場感生成システムのシステム構成を示すシステムブロック図である。
【0101】
図8において、データベース710は、第2の実施形態による本発明の実施によって生成された、時系列画像データ701、時系列音響データ702、動揺台の時系列運動データ703を記憶しているものであり、画像表示装置707は、各時刻毎に、前記時系列画像データ701の適切な時刻の画像データを再生し、音響装置708は、各時刻毎に、前記時系列音響データ702の適切な時刻の音響データを再生し、動揺台制御手段705は、各時刻毎に、前記時系列動揺台運動データ703の適切な時刻の運動データに基づいて動揺台706を制御する。ここで、画像データの再生あるいは音響データの再生あるいは動揺台の制御に用いるデータ、および、画像データの再生、および、音響データの再生、および、動揺台の制御を行うタイミングは、同期手段704を用いて同期を取るものである。
【0102】
同期の取り方としては、ハードウェア的に同期信号を入力する方法、あるいは、個々の装置で時計を具備し、あらかじめ該時計の時刻合わせをしておく方法、あるいは、各々の時刻毎に同期手段704から該時刻に対応する再生命令信号を送信する方法、等の公知の技術を用いることができる。
【0103】
以上、本発明の第4の実施の形態によれば、動揺台に乗ったユーザに対し、動揺台の運動により加速度等を体感させるとともに、ユーザの視点位置・姿勢で見た時に正しく見えるような画像データおよびユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような音響データをユーザに提示することができる。
【0104】
以下、図9を用いて,本発明の第5の実施の形態による臨場感生成システムについて詳細に説明する。本実施の形態は、ユーザコマンドを入力するための手段を備え、動揺台の運動と、ユーザコマンドを反映して生成した画像データ・音響データとを、同期を取ってユーザに提示することにより、ユーザに臨場感を与えることを目的とするシステムの、一実施例である。
【0105】
図9は、本発明の第5の実施の形態による臨場感生成システムのシステム構成を示すシステムブロック図である。
【0106】
図9において、データベース807は、第3の実施形態による本発明の実施によって生成された、静的仮想世界データに関する時系列画像データ808、静的仮想世界データに関する時系列音響データ809、時系列動揺台運動データ810、現実世界におけるユーザの視聴点データ813、仮想世界におけるユーザの視聴点データ814、および、動的仮想世界データ811、動揺台等の配置データ812、を記憶しているものである。ここで、動揺台等の配置データ812は、動揺台およびスクリーンおよびスピーカの位置・姿勢、スクリーン形状やスピーカの音響特性データなどを含むものである。
【0107】
コマンド解析手段804は、動的仮想世界更新プログラム805を備え、各時刻毎に、コマンド入力手段806から入力されるユーザのコマンドを解析し、必要に応じて、動的仮想世界更新プログラム805によって動的仮想世界データ811を更新する。ただし、ユーザコマンドによって変更可能な部分は、動的仮想世界に関する部分だけであり、仮想世界におけるユーザの視聴点データを変更することはできないものとする。すなわち、コマンド解析手段804においては、本発明の第3の実施形態におけるステップ405およびステップ406およびステップ407に相当する処理を行う。
【0108】
画像表示装置818は、動的仮想世界の画像生成プログラム819、および、画像合成プログラム820を備え、各時刻毎に、動的仮想世界の画像生成プログラム819を用いて動的仮想世界データ811に関する画像データを生成し、該生成した画像データと、時系列画像データ808の適切な時刻の画像データとを、画像合成プログラム820で合成し、ユーザに提示する。すなわち、本発明の第3の実施形態におけるステップ408およびステップ409およびステップ410に相当する処理を行う。
【0109】
音響装置821は、動的仮想世界の音響生成プログラム822、および、音響合成プログラム823を備え、各時刻毎に、動的仮想世界の音響生成プログラム822を用いて動的仮想世界データ811に関する音響データを生成し、該生成した音響データと、時系列音響データ809の適切な時刻の音響データとを、音響合成プログラム823で合成し、ユーザに提示する。すなわち、本発明の第3の実施形態におけるステップ408およびステップ409およびステップ410に相当する処理を行う。
【0110】
動揺台制御手段802は、各時刻毎に、時系列動揺台運動データ810の適切な時刻の運動データに基づいて動揺台803を制御する。すなわち、本発明の第3の実施形態におけるステップ410に相当する処理を行う。
【0111】
ここで、画像データの生成・合成あるいは音響データの生成・合成あるいは動揺台の制御に用いるデータ、および、コマンド入力、および、画像データの生成および提示、および、音響データの生成および提示、および、動揺台の制御を行うタイミングは、同期手段801を用いて同期を取るものである。同期を取るための方法としては、前記第4の実施の形態と同様、公知の技術を用いることができる。
【0112】
再生を終了するか否かの判定(本発明の第3の実施形態におけるステップ411に相当する処理)は、例えば、同期手段801を用いて行い、終了と判定した段階で、画像表示装置818および音響装置821および動揺台制御手段802およびコマンド解析手段804に、終了通知信号を送信し、各々の装置における処理を終了すればよい。また、これは、例えば、コマンド入力手段806から入力されたユーザコマンドを反映させるようにすることもできる。
【0113】
なお、コマンド入力手段806としては、キーボード、マウス、マイク、ジョイスティック、押ボタン等、任意の入力デバイスを用いることができる。また、ユーザを撮影できる場所にカメラを設置し、モーションキャプチャ技術等を用いて、ユーザの身振りによりコマンド入力を行うようにしてもよい。
【0114】
以上、本発明の第5の実施の形態によれば、動揺台に乗ったユーザに対し、ユーザがコマンド入力によって仮想世界の状態を変化させる場合にも、動揺台の運動により加速度等を体感させるとともに、ユーザのコマンドによって変化した仮想世界の状態に基づいた、ユーザの視点位置・姿勢で見た時に正しく見えるような画像データおよびユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような音響データをユーザに提示することができる。
【0115】
以下、図10を用いて,本発明の第6の実施の形態による臨場感生成システムについて詳細に説明する。本実施の形態は、ユーザコマンドを入力するための手段を備え、ユーザコマンドを反映して生成した、動揺台の運動データ、画像データ、音響データ、を同期を取ってユーザに提示することにより、ユーザに臨場感を与えることを目的とするシステムの、一実施例である。
【0116】
図10は、本発明の第6の実施の形態による臨場感生成システムのシステム構成を示すシステムブロック図である。
【0117】
図10において、データベース901には、あらかじめ、仮想世界のデータ902と、動揺台等の配置データ904を記憶しておく。ここで、動揺台等の配置データ904は、動揺台およびスクリーンおよびスピーカの位置・姿勢、スクリーン形状やスピーカの音響特性データなどを含むものである。
【0118】
コマンド解析手段907は、仮想世界におけるユーザの視聴点データ生成プログラム908と、現実世界におけるユーザの視聴点データ生成プログラム909と、仮想世界データ更新プログラム910と、画像音響データ生成プログラム911と、動揺台の運動データ生成プログラム912と、を備えるものである。コマンド解析手段907は、各時刻毎に、コマンド入力手段913から入力されるユーザコマンドに基づいて、仮想世界のデータ902を更新し、各プログラムを用いて、本発明の第1の実施形態と同様の方法により、該時刻における動揺台の運動データ903と、該時刻における画像データ905と、該時刻における音響データ906と、を生成し、生成したデータをデータベース901に書き込む。なお、仮想世界データ更新プログラム910は、仮想世界におけるユーザの視聴点データの変更をも許すものである。
【0119】
画像表示装置914は、各時刻毎に、データベース901から画像データ905を読み込み、ユーザに提示する。また、音響装置915は、各時刻毎に、データベース901から音響データ906を読み込み、ユーザに提示する。さらに、動揺台制御手段917は、各時刻毎に、データベース901から動揺台の運動データ903を読み込み、該データに基づいて動揺台918を制御する。
【0120】
ここで、コマンドの入力および解析、および、画像データの生成および提示、および、音響データの生成および提示、および、動揺台の運動データの生成、および、動揺台の制御を行うタイミングは、同期手段916を用いて同期を取るものである。同期を取るための方法としては、前記第4の実施の形態と同様、公知の技術を用いることができる。
【0121】
以上、本発明の第6の実施の形態によれば、動揺台に乗ったユーザに対し、ユーザがコマンド入力によって仮想世界におけるユーザの視聴点データをも変更できる場合にも、ユーザのコマンドに基づいた動揺台の運動により加速度等を体感させるとともに、ユーザのコマンドによって変化した仮想世界の状態に基づいた、ユーザの視点位置・姿勢で見た時に正しく見えるような画像データ、および、ユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような音響データ、をユーザに提示することができる。
【0122】
以上、本発明を発明の実施の形態に基づき具体的に説明したが、本発明はここで説明した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更し得ることは言うまでもない。
【0123】
例えば、前記実施例において各種プログラムによってソフトウェア的に実現していた個所を、ハードウェアによって実現するように変更することもできる。
【0124】
また、前記実施例においては、各時刻毎に、仮想世界のデータと、仮想世界におけるユーザの視聴点データと、現実世界におけるユーザの視聴点データと、動揺台等の配置データと、を用いて画像音響データの生成を行っていたが、画像音響データの生成方法は、これに限るものではない。すなわち、本発明の主旨としては、動揺台の運動データによって変化する、現実世界におけるユーザの視聴点データに基づいた、画像音響データの生成ができればよく、各時刻毎に陽に現実世界におけるユーザの視点データを求める必要はない。画像データおよび音響データの生成方法は、例えば、動揺台の運動データから、直接、仮想世界における画像面の位置・姿勢・形状等を定めるような、変換パラメタを求めるような方法としてもよい。前記実施形態で説明した方法から該方法への移行は、簡単な行列・ベクトル計算によって実現することができる。例えば、図3の例であれば、簡単のために現実世界におけるワールド座標系と仮想世界におけるワールド座標系とが一致しており、動揺台座標系が該ワールド座標系を平行移動したものであるとすると、図3(b)の状態から図3(c)の状態への移行時には、「現実世界においてスクリーンが固定されており、動揺台座標系が、平行移動ベクトルb1で表される平行移動を行い、ORを中心として回転行列Qで表される回転を行った」ことを「仮想世界において視点データが固定されており、画像面が、ORを中心として回転行列T(=Qの逆行列)で表される回転を行い、平行移動ベクトル(−b1)で表される平行移動を行った」と焼き直して考えればよい。なお、前記実施形態は本発明の主旨を直観的に分かりやすく説明するための例であり、各時刻における計算の手間を考慮した場合、前記実施形態で説明した方法に比べ、該直接変換パラメタを求める方法を適用するのが望ましい。
【0125】
また、前記実施例において現実世界におけるユーザの視聴点位置を定める際に使用した人間モデルを、複数の体型(例えば大人用、中人用、子供用の3種類)について用意し、各々のモデルに対して現実世界におけるユーザの視聴点データを生成して、画像音響データの生成時あるいは再生時に、適切なものに切り替えながら画像音響データの生成あるいは再生を行うようにしてもよい。
【0126】
【発明の効果】
以上に述べたように、本発明によれば、あらかじめ生成した時系列画像データ・時系列音響データをユーザに提示する場合、各時刻毎に生成した画像データ・音響データをユーザに提示する場合、あらかじめ生成した時系列画像データ・時系列音響データと各時刻毎に生成した画像データ・音響データとを合成してユーザに提示する場合、のいずれの場合においても、ユーザの視点位置・姿勢で見た時に正しく見えるような画像データ、および、ユーザの聴点位置・姿勢で聴いた時に正しく聴こえるような音響データ、をユーザに提示することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態によるデータ生成処理のフローチャートである。
【図2】本発明の第1の実施の形態によるデータ生成処理の処理イメージを示す概念図である。
【図3】本発明の第1の実施の形態によるデータ生成処理において、動揺台の運動データから現実世界におけるユーザの視点データを求める方法を説明するための図である。
【図4】本発明の第2の実施の形態による時系列画像データ生成処理のフローチャートである。
【図5】公知の技術における時系列画像データ生成処理のフローチャートである。
【図6】本発明の第2の実施の形態による時系列音響データ生成処理のフローチャートである。
【図7】本発明の第3の実施の形態によるデータ生成処理のフローチャートである。
【図8】本発明の第4の実施の形態による臨場感生成システムのシステム構成を示すシステムブロック図である。
【図9】本発明の第5の実施の形態による臨場感生成システムのシステム構成を示すシステムブロック図である。
【図10】本発明の第6の実施の形態による臨場感生成システムのシステム構成を示すシステムブロック図である。
【符号の説明】
2011……スクリーン、2021……動揺台、2031……ユーザ、2013、2014……表示用画像、2043、2044……表示用画像中で木を表す部分、2053、2054……表示用画像中で石を表す部分、301……人間モデル、302……動揺台。

Claims (3)

  1. 画像表示装置と、動揺台と、視点データ生成部と、画像データ生成部とを備え、
    前記視点データ生成部は、前記動揺台の運動データと前記動揺台の設計値とに基づいて現実世界における前記動揺台上のユーザの視点位置を含む視点データを生成し、
    前記画像データ生成部は、前記視点データと前記画像表示装置の配置に関する設計値と仮想世界データとに基づいて画像データを生成し、
    さらに、前記運動データと前記視点位置とを関係付ける人間モデルを複数備え、
    前記画像表示装置は、前記画像データ生成部が前記複数の人間モデルのうちの一に基づいて生成した画像を表示すること
    を特徴とする臨場感生成システム。
  2. 画像表示装置と動揺台と画像データ生成部を備え、
    前記画像データ生成部は、前記動揺台の運動データと前記動揺台の設計値とに基づいて決定される現実世界における前記動揺台上のユーザの視点位置において正しく観賞できるように、前記動揺台の運動データと前記動揺台の設計値と前記画像表示装置の配置に関する設計値と仮想世界データとに基づいて画像データを生成し、
    さらに、前記運動データと前記視点位置とを関係付ける人間モデルを複数備え、
    前記画像表示装置は、前記画像データ生成部が前記複数の人間モデルのうちの一に基づいて生成した画像を表示すること、
    を特徴とする臨場感生成システム。
  3. 前記画像データは3次元画像データであること、
    を特徴とする、請求項1乃至2のうちの一に記載の臨場感生成システム。
JP29328298A 1998-10-15 1998-10-15 臨場感生成システム Expired - Fee Related JP4103204B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29328298A JP4103204B2 (ja) 1998-10-15 1998-10-15 臨場感生成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29328298A JP4103204B2 (ja) 1998-10-15 1998-10-15 臨場感生成システム

Publications (2)

Publication Number Publication Date
JP2000123193A JP2000123193A (ja) 2000-04-28
JP4103204B2 true JP4103204B2 (ja) 2008-06-18

Family

ID=17792822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29328298A Expired - Fee Related JP4103204B2 (ja) 1998-10-15 1998-10-15 臨場感生成システム

Country Status (1)

Country Link
JP (1) JP4103204B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836355A (ja) * 1994-07-22 1996-02-06 Namco Ltd 疑似3次元画像生成方法及び装置
CN1171649C (zh) * 1996-05-02 2004-10-20 世雅企业股份有限公司 游戏装置及其处理方法
JP3890575B2 (ja) * 1996-07-01 2007-03-07 株式会社セガ 画像処理装置、画像処理方法及びゲーム装置並びに遊戯装置

Also Published As

Publication number Publication date
JP2000123193A (ja) 2000-04-28

Similar Documents

Publication Publication Date Title
US11863845B2 (en) Geometry matching in virtual reality and augmented reality
US10924817B2 (en) Cinematic mastering for virtual reality and augmented reality
US10657727B2 (en) Production and packaging of entertainment data for virtual reality
JP6785282B2 (ja) アバタによる生放送方法及び装置
JP6959943B2 (ja) 3d音声ポジショニングを用いて仮想現実又は拡張現実のプレゼンテーションを生成するための方法及び装置
JPH11161814A (ja) 画像生成装置、シミュレーション装置及び情報記憶媒体
JP2019175323A (ja) シミュレーションシステム及びプログラム
US11770252B2 (en) System and method for generating a pepper's ghost artifice in a virtual three-dimensional environment
JP5842371B2 (ja) ビデオゲーム装置およびビデオゲーム制御方法
JP2020107251A (ja) 画像生成システム及びプログラム
JPH0950540A (ja) 画像生成方法
JP7104539B2 (ja) シミュレーションシステム及びプログラム
JP4103204B2 (ja) 臨場感生成システム
JPH1039743A (ja) 運動機能調整装置
JP2023059137A (ja) 画像合成装置、画像合成方法、及びプログラム
JP7161200B2 (ja) カラオケ演出システム
JP3747042B2 (ja) 画像処理装置及び画像処理方法
JP3538228B2 (ja) 画像合成装置
JP2016166928A (ja) 演出装置、演出方法、プログラム、ならびにアミューズメントシステム
JP2020174329A (ja) 情報処理装置、表示方法およびコンピュータプログラム
JP2001314648A (ja) ゲーム装置および情報記憶媒体
US20200302761A1 (en) Indicator modes
JPH11133987A (ja) 振り付け動画表示に特徴を有するカラオケ装置
WO2022107294A1 (ja) Vr映像空間生成システム
JP2022146839A (ja) 画像を3次元的に表示するための方法、プログラムおよびシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050314

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050314

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees