JP4048558B2 - 表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 - Google Patents

表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 Download PDF

Info

Publication number
JP4048558B2
JP4048558B2 JP2002154628A JP2002154628A JP4048558B2 JP 4048558 B2 JP4048558 B2 JP 4048558B2 JP 2002154628 A JP2002154628 A JP 2002154628A JP 2002154628 A JP2002154628 A JP 2002154628A JP 4048558 B2 JP4048558 B2 JP 4048558B2
Authority
JP
Japan
Prior art keywords
data
gravity
shaking
center
centroid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002154628A
Other languages
English (en)
Other versions
JP2003345324A (ja
Inventor
哲二郎 近藤
健司 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002154628A priority Critical patent/JP4048558B2/ja
Publication of JP2003345324A publication Critical patent/JP2003345324A/ja
Application granted granted Critical
Publication of JP4048558B2 publication Critical patent/JP4048558B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体に関し、特に、臨場感のある動揺感覚を、ユーザに感じさせることができるようにする表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体に関する。
【0002】
【従来の技術】
従来の画像表示装置においては、画像が表示されるとともに、音声が出力されるだけであり、例えば、カーチェイスを行っているシーンにおいて、ユーザが、そのカーチェイスを行っている自動車に乗っているかのような動揺感覚を享受することは困難であった。
【0003】
そこで、最近では、動揺感覚を、ユーザに感じさせることができるようにする画像表示装置が提案されている。
【0004】
図1は、そのような画像表示装置の一例の構成を示している。
【0005】
画像動揺情報データベース1は、後述するスクリーン15に表示される画像データ(動画像データ)と、同じく後述するモーションベース5を駆動して、その上部に固定された椅子7を動揺させるための動揺データとを多重化した画像動揺情報を記憶している。
【0006】
画像/動揺デコード部2は、画像動揺情報データベース1に記憶された画像動揺情報を読み出し、画像データと動揺データにデコードする。さらに、画像/動揺デコード部2は、動揺データを、動揺制御部3に供給するとともに、画像データを、表示制御部4に供給する。
【0007】
動揺制御部3は、画像/動揺デコード部2から供給される動揺データにしたがい、モーションベース5を制御する。
【0008】
モーションベース5は、動揺制御部3の制御にしたがって駆動することにより、そのモーションベース5の上部に固定された椅子7を動揺させる。即ち、モーションベース5は、複数のアーム6を有しており、そのアーム6の一旦は床面に、他端は椅子7に、それぞれ固定されている。さらに、アーム6は、図示せぬアクチュエータを内蔵し、動揺制御部3からの制御にしたがい、そのアクチュエータを駆動する。アーム6は、アクチュエータが駆動されることにより伸縮し、これにより、その他端に固定されている椅子7を、前後、左右、上下、ロール、ピッチ、ヨーの6軸の各方向に動揺させる。
【0009】
一方、表示制御部4は、画像/動揺デコード部2から供給される画像データに必要な処理を施し、ドーム11の内側に設置されたプロジェクタ12に供給することにより、ドーム11の内壁に形成されたスクリーン15に、対応する画像を表示させる。
【0010】
即ち、ドーム11は、例えば、内部が空洞の球形をしており、その下部には、ユーザの上半身が、ドーム11の内部に入る程度の大きさの穴が設けられている。また、ドーム11の内部には、その上部に、プロジェクタ12が、下方向に光を発する状態で取り付けられており、さらに、そのプロジェクタ12の光の出射方向には、平面ミラー13が設けられている。従って、プロジェクタ12が出射した光は、平面ミラー13において、ドーム11内部の上部方向に反射される。
【0011】
さらに、ドーム11の内部には、その上部に、平面ミラー13で反射された光を、ドーム11の内壁に反射するように、球面ミラー14が設けられている。従って、平面ミラー13で反射された光は、球面ミラー14でさらに反射され、これにより、ドーム11の内壁に向かって出射される。
【0012】
ドーム11の内壁には、スクリーン15が形成されており、球面ミラー14で反射された光は、スクリーン15で拡散反射され、これにより、対応する画像が表示される。
【0013】
ドーム11は、例えば、図示せぬ天井や、画像表示装置の固定部分に固定されており、ユーザが、モーションベース5に固定された椅子7に腰掛けたときに、その頭部が、球形のドーム11の中心にほぼ位置するように設置されている。
【0014】
ここで、ドーム11によれば、ユーザが、その下部に設けられた穴に、上半身を入れた状態において、ユーザの周囲の全方向に画像が表示されるが、このような画像を表示する手段としてのドーム11は、没入型の画像表示装置と呼ばれる。
【0015】
以上のように構成される画像表示装置では、映像動揺情報データベース1に記憶された画像動揺情報が、画像/動揺デコード部2を介することにより、画像データと動揺データにデコードされ、それぞれが、表示制御部4と動揺制御部3に供給される。
【0016】
表示制御部4は、画像/動揺デコード部2から供給される画像データにしたがって、プロジェクタ12を駆動し、これにより、プロジェクタ12は、画像データに対応する光を発する。プロジェクタ12が発する光は、平面ミラー13で反射され、球面ミラー14に入射する。球面ミラー14は、平面ミラー13からの光を、スクリーン15に向けて反射し、スクリーン15では、球面ミラー14からの反射光が拡散されることで、画像が表示される。
【0017】
ここで、画像動揺情報データベース1に記憶されている画像動揺情報に含まれる画像データは、その光軸の周囲の全方向が撮影可能なカメラである全方位カメラによって撮影された全方位画像データとなっている。プロジェクタ12では、この全方位画像データに対応する光が発せられ、これにより、スクリーン15には、全方位カメラで撮像を行った周囲360度の風景の画像が表示されるようになっている。
【0018】
なお、画像/動揺デコード部2は、スクリーン15に全方位カメラで撮像された周囲360度の風景の画像が表示されるようにするために、必要に応じて、全方位画像データを幾何変換する。
【0019】
この幾何変換の方法や、球形のドーム11の内壁に設けられたスクリーン15に全方位カメラで撮像された周囲360度の風景の画像を表示させる方法については、例えば、凸面境を用いた空面没入型ディスプレイ:Ensphered Vision(日本バーチャルリアリティ学会論文誌Vol.4 No.3 1999などに開示されている。
【0020】
一方、動揺制御部3は、画像/動揺デコード部2から供給される動揺データにしたがって、モーションベース5を駆動する。このように、モーションベース5が駆動することにより、そのモーションベース5に固定されている椅子7が、前後、左右、上下、ロール、ピッチ、ヨーの各方向に動揺し、さらに、その椅子7に腰掛けているユーザも動揺する。
【0021】
従って、ユーザは、画像を視聴しながら、動揺感覚を享受することができる。
【0022】
【発明が解決しようとする課題】
図1の画像表示装置によれば、例えば、カーチェイスを行っているシーンの画像を表示しながら、椅子7を動揺させることで、ユーザが、そのカーチェイスを行っている自動車に乗っているかのような動揺感覚を与えることができる。
【0023】
しかしながら、この場合、椅子7を動揺させることによって、その椅子7に腰掛けているユーザ自身を、実際に動揺させることから、ユーザの頭部の位置が安定せず、ユーザが、その不安定な頭部に気をとられる結果、臨場感が薄れることになる。
【0024】
さらに、図1の画像表示装置では、椅子7に腰掛けるユーザを動揺させることから、ユーザの視点と、ドーム11内部のスクリーン15との位置関係が変動する。従って、ユーザに臨場感を与える動揺感覚を享受させるには、そのような変動する位置関係を考慮して、スクリーン15に画像を表示する必要があるが、ユーザの頭部の位置の変動には個人差があり、そのような個人差のある頭部の位置変動を考慮して、スクリーン15に画像を表示するのは困難である。
【0025】
本発明は、このような状況に鑑みてなされたものであり、容易に、臨場感のある動揺感覚を、ユーザに感じさせることができるようにするものである。
【0026】
【課題を解決するための手段】
本発明の表示制御装置は、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データにしたがい、表示手段に表示される画像に同期して、表示手段を動揺させる動揺手段を制御する動揺制御手段を備え、動揺制御手段がしたがう動揺データは、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求め、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答情報に基づいて求めることにより得られたものであることを特徴とする。
【0027】
本発明の表示制御方法は、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データにしたがい、表示手段に表示される画像に同期して、表示手段を動揺させる動揺手段を制御する動揺制御ステップを含み、動揺制御ステップがしたがう動揺データは、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求め、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答情報に基づいて求めることにより得られたものであることを特徴とする。
【0028】
本発明の第1のプログラムは、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データにしたがい、表示手段に表示される画像に同期して、表示手段を動揺させる動揺手段を制御する動揺制御ステップを含み、動揺制御ステップがしたがう動揺データは、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求め、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答情報に基づいて求めることにより得られたものである表示制御処理を、コンピュータに行わせることを特徴とする。
【0029】
本発明の第1の記録媒体は、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データにしたがい、表示手段に表示される画像に同期して、表示手段を動揺させる動揺手段を制御する動揺制御ステップを含み、動揺制御ステップがしたがう動揺データは、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求め、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答情報に基づいて求めることにより得られたものである表示制御処理を、コンピュータに行わせるプログラムが記録されていることを特徴とする。
【0030】
本発明のデータ処理装置は、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを用い、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを求める動揺データ演算手段と、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成手段とを備え、動揺データ演算手段は、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答情報に基づき、現実重心データを用いて求めることを特徴とする。
【0031】
本発明のデータ処理方法は、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを用い、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを求める動揺データ演算ステップと、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成ステップとを含み、動揺データ演算ステップは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答生成ステップにより求められた重心対動揺応答情報に基づき、現実重心データを用いて求めることを特徴とする。
【0032】
本発明の第2のプログラムは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを用い、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを求める動揺データ演算ステップと、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成ステップとを含み、動揺データ演算ステップは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答生成ステップにより求められた重心対動揺応答情報に基づき、現実重心データを用いて求める処理を、コンピュータに実行させることを特徴とする。
【0033】
本発明の第2の記録媒体は、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを用い、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを求める動揺データ演算ステップと、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成ステップとを含み、動揺データ演算ステップは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答生成ステップにより求められた重心対動揺応答情報に基づき、現実重心データを用いて求める処理を、コンピュータに実行させるプログラムが記録されていることを特徴とする。
【0034】
本発明の表示制御装置および表示制御方法、並びに第1のプログラムおよび第1の記録媒体に記録されたプログラムにおいては、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データにしたがい、表示手段に表示される画像に同期して、表示手段を動揺させる動揺手段が制御される。また、動揺手段の制御に用いる動揺データは、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報を求め、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データを、重心対動揺応答情報に基づいて求めることにより得られたものである。
【0035】
本発明のデータ処理装置およびデータ処理方法、並びに第2のプログラムおよび第2の記録媒体に記録されたプログラムにおいては、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを用い、ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データが求められる。即ち、表示手段を、学習用の動揺データにしたがって動揺させたときのユーザの重心の移動パターンを表す学習用の重心データと、学習用の動揺データとから、表示手段の動揺とユーザの重心移動との関係である重心対動揺応答情報が求められ、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる動揺データが、重心対動揺応答情報に基づき、現実重心データを用いて求められる。
【0036】
【発明の実施の形態】
図2は、本発明を適用した画像表示装置の一実施の形態の構成例を示している。なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0037】
図1の画像表示装置においては、モーションベース5に椅子7が固定され、モーションベース5が駆動されることにより、椅子7が動揺するようになっていたが、図2の実施の形態では、モーションベース25にドーム11が固定され、モーションベース25が駆動されることにより、ドーム11が動揺するようになっている。即ち、図2の実施の形態では、椅子7は動揺しないように固定され、ドーム11が、モーションベース25によって動揺されるようになっている。
【0038】
画像動揺情報データベース21は、図1の画像動揺情報データベース1における場合と同様の画像動揺情報を記憶している。
【0039】
但し、画像動揺情報データベース21に記憶されている画像動揺情報における動揺データは、図1における場合のように、椅子7が固定されたモーションベース5を動揺させるものではなく、ドーム11が固定されたモーションベース25を動揺させるものとなっている。
【0040】
また、画像動揺情報データベース21に記憶されている画像動揺情報においては、画像データ(動画像データ)の各フレームと、そのフレームにおいてドーム11を動揺させるための動揺データとが対応付けられている。具体的には、例えば、動揺データには、その動揺データにしたがってドーム11を動揺させるときにスクリーン15に表示される画像データのフレームのタイムコードが付されている。
【0041】
動揺制御部23は、図1の動揺制御部3と同様に、画像/動揺デコード部2から供給される動揺データにしたがい、モーションベース25を制御する。但し、動揺制御部23は、動揺データに付されているタイムコードを参照し、いまスクリーン15に表示されているフレームのタイムコードと一致するタイムコードが付されている動揺データにしたがい、モーションベース25を制御するようになっている。これにより、モーションベース25に固定されているドーム11は、その内部のスクリーン15に表示される画像に同期して動揺するようになっている。
【0042】
モーションベース25は、動揺制御部23の制御にしたがって駆動することにより、そのモーションベース5の下部に固定されたドーム11を動揺させる。即ち、モーションベース25は、図1のモーションベース5と同様に、複数のアーム26を有しており、そのアーム26の一旦は天井等に、他端はドーム11の上部に、それぞれ固定されている。さらに、アーム26は、図示せぬアクチュエータを内蔵し、動揺制御部23からの制御にしたがい、そのアクチュエータを駆動する。アーム26は、アクチュエータが駆動されることにより伸縮し、これにより、その他端に固定されているドーム11を、前後、左右、上下、ロール、ピッチ、ヨーの6軸の各方向に動揺させる。
【0043】
次に、図3のフローチャートを参照して、図2の画像表示装置の処理について説明する。
【0044】
画像/動揺デコード部2は、ステップS1において、1フレーム分の画像動揺情報を、画像動揺情報データベース21から読み出すことにより、その画像動揺情報を受信し、ステップS2に進む。ステップS2では、画像/動揺デコード部2は、ステップS1で受信した画像動揺情報を、画像データと動揺データにデコードし、画像データを表示制御部4に供給するとともに、動揺データを動揺制御部23に供給して、ステップS3に進む。
【0045】
ステップS3では、画像データがスクリーン15に表示されるとともに、その表示された画像データに同期して、ドーム11が動揺される。
【0046】
即ち、ステップS3では、表示制御部4が、画像/動揺デコード部2からの画像データにしたがい、プロジェクタ12を駆動することにより、プロジェクタ12は、その画像データに対応する光を出射する。プロジェクタ12が出射する光は、平面ミラー13と球面ミラー14で順次反射され、ドーム11内部のスクリーン15に入射し、そのスクリーン15で拡散反射される。これにより、スクリーン15には、対応する画像が表示される。
【0047】
さらに、ステップS3では、動揺制御部23が、画像/動揺デコード部2からの動揺データ、即ち、スクリーン15に表示された画像のタイムコードと同一のタイムコードが付加された動揺データにしたがい、モーションベース25を駆動する。これにより、そのモーションベース25に固定されているドーム11が、その内部のスクリーン15に表示された画像に同期して、前後、左右、上下、ロール、ピッチ、ヨーの各方向に動揺する。
【0048】
その後、ステップS4に進み、画像/動揺デコード部2が、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されているかどうかを判定する。ステップS4において、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されていると判定された場合、ステップS1に戻り、画像/動揺デコード部2は、その、次のフレームについての画像動揺情報を、画像動揺情報データベース21から読み出し、以下、同様の処理を繰り返す。
【0049】
また、ステップS4において、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されていないと判定された場合、処理を終了する。
【0050】
以上のように、ドーム11が動揺するので、容易に、臨場感のある動揺感覚を、ユーザに感じさせることが可能となる。
【0051】
即ち、図2の画像表示装置では、ドーム11のみが動揺し、ユーザが腰掛ける椅子7は動揺しないため、ユーザの頭部は動かず、その結果、ユーザの頭部が動くことにより、臨場感が損なわれることを防止することができる。
【0052】
また、図2の画像表示装置では、ドーム11を動揺させることから、ユーザが腰掛ける椅子7を動揺させる図1の画像表示装置に比較して、モーションベース25その他の、ドーム11を動揺させるための機構を簡素化することが可能となる。即ち、図1の画像表示装置では、ユーザが腰掛ける椅子7を動揺させることから、この画像表示装置を利用する多数のユーザの体格等を考慮して、モーションベース5その他の椅子7を動揺させるための機構を設計、製造する必要がある。これに対して、図2の画像表示装置によれば、ドーム11を動揺させることから、ドーム11を動揺させるための機構を設計、製造するにあたって、画像表示装置を利用するユーザの体格等を考慮する必要がない。
【0053】
さらに、図1の画像表示装置では、椅子7を動揺させることから、ユーザの頭部、ひいてはユーザの視点が変動し、視点とスクリーン15との位置関係も変動する。そして、椅子7を動揺させることによる、ユーザの視点の変動には、個人差があることから、仮に、ユーザの視点とスクリーン15との位置関係をモデル化しても、そのモデルのパラメータの推定は容易ではない。これに対して、図1の画像表示装置では、ユーザの視点は変動しないから、ユーザの視点とスクリーン15との位置関係のモデルのパラメータの推定は比較的容易となる。
【0054】
また、動揺データは、後述するように、ドーム11を動揺させることで、現実世界であらかじめ記録されたのと動揺の重心移動をユーザに生じさせるものであり、従って、図2の画像表示装置によれば、画像が表示されるドーム11を動揺させることによって、いわば視覚的に、ユーザに動揺感覚を与えることができる。
【0055】
さらに、図1の画像表示装置では、ユーザを動揺させるために、ユーザを支える椅子7を動揺させることから、椅子7が必須となる。即ち、図1の画像表示装置において、例えば、椅子7を設けずに、ユーザが立っている足場(床面)を動揺させるとすれば、ユーザは倒れないように、脚を踏ん張る必要があり、ユーザが、そのようなことを意識する結果、臨場感はさらに薄れることになる。また、ユーザが立っている足場を動揺させることは、安全性の面からも好ましくない。このため、図1の画像表示装置では、ユーザを支える椅子7が必須となる。従って、図1の画像処理装置によれば、多人数のユーザが、画像を視聴するためには、そのユーザの数以上の椅子7が必要であり、さらに、そのような多数の椅子7に腰掛けたユーザ全員を覆うことができる大きさのドーム11も必要となるため、広範な設置スペースが必要となる。
【0056】
これに対して、図2の画像表示装置では、椅子7が動揺しないことから、椅子7を設けずに構成しても、ユーザの臨場感は損なわれず、安全性の問題も生じない。さらに、図2の画像表示装置によれば、椅子7を設けずに、起立した状態のユーザに画像を視聴させることとすれば、その起立した状態のユーザを覆うことができるドーム11が必要となるだけであり、従って、比較的狭い設置スペースにおいても、多人数のユーザに、画像を視聴させることが可能となる。
【0057】
さらに、図2の画像表示装置によれば、椅子7を設けずに済むことから、例えば、部屋をドーム11として、床を、透明な強化ガラス等で構成し、その床面を介して、天井や壁に、画像に対応する光を照射することにより、その天井や壁に、画像を表示することが可能となる。
【0058】
次に、図4は、図2の画像動揺情報データベース21に記憶させる画像動揺情報を生成するデータ処理を行うデータ処理装置の一実施の形態の構成例を示している。
【0059】
現実重心データベース31は、現実世界であらかじめ記録されたユーザの重心移動を表す重心データ(以下、適宜、現実重心データという)を記憶している。対画像重心データベース32は、現実世界で記録された画像を、ドーム11を動揺させずに、スクリーン15に表示した場合のユーザの重心移動を表す重心データ(以下、適宜、対画像重心データという)を記憶している。
【0060】
学習用動揺データベース33は、ドーム11を規則的または不規則に動揺させる、後述する重心対動揺応答情報を生成する学習用にあらかじめ用意された動揺データ(以下、適宜、学習用動揺データという)を記憶している。学習用重心データベース34は、実際に、学習用動揺データにしたがって、ドーム11を動揺させたときのユーザの重心の移動パターンを表す重心データ(以下、適宜、学習用重心データという)を記憶している。
【0061】
画像データベース35は、現実世界において、現実重心データとともに記録(撮影)された画像データを記憶している。
【0062】
重心対動揺応答生成部36は、学習用動揺データベース33から学習用動揺データを読み出すとともに、学習用重心データベース34から学習用重心データを読み出し、その学習用動揺データと学習用重心データを用いて、ドーム11の動揺と、ユーザの重心移動との関係を表す重心対動揺応答情報を求め(生成し)、動揺データ演算部38に供給する。
【0063】
動揺算出用重心データ演算部37は、現実重心データベース31から現実重心データを読み出すとともに、対画像重心データベース32から対画像重心データを読み出し、その現実重心データと対画像重心データを用いて、現実重心データから、ユーザがドーム11のスクリーン15に表示された画像を視聴することによってのみ生じる重心移動の影響を除去した重心データ(以下、適宜、動揺算出用重心データという)を求め、動揺データ演算部38に供給する。
【0064】
動揺データ演算部38は、動揺算出用重心データ演算部37から供給される動揺算出用重心データを受信し、その動揺算出用重心データを用い、重心対動揺応答生成部36から供給される重心対動揺応答情報に基づいて、現実世界で記録されたユーザの重心移動から、ユーザがドーム11のスクリーン15に表示される画像を視聴することによってのみ生じる重心移動の影響を除去した重心移動を生じさせる動揺データを求め、エンコーダ39に供給する。
【0065】
ここで、図2の画像表示装置において、ドーム11は、動揺データ演算部38によって求められる動揺データにしたがって動揺する。
【0066】
ユーザは、このようにして動揺するドーム11によって、その重心を移動させる他、ドーム11のスクリーン15に表示される画像を視聴することによっても重心を移動させる。即ち、ユーザは、ドーム11の動揺と、スクリーン15に表示される画像の視聴によって、その重心を移動することとなるが、これにより、現実世界であらかじめ記録されたユーザの重心移動と同様の重心移動が生じることとなる。
【0067】
エンコーダ39は、画像データベース35から、現実世界において現実重心データとともに記録された画像データを読み出し、その画像データと、動揺データ演算部38から供給される動揺データとを対応付けることにより、画像動揺情報を生成して出力する。ここで、このようにしてエンコーダ39が出力する画像動揺情報が、図2の画像動揺情報データベース21に記憶されている。
【0068】
なお、現実重心データベース31には、画像データベース35に記憶された画像データとともに記録された現実重心データが、その現実重心データが計測されたときに撮影された画像データのタイムコードを付加する形で記憶されている。この現実重心データに付加されたタイムコードは、動揺算出用重心データ演算部37および動揺データ演算部38を経由し、動揺データ演算部38が出力する動揺データに付加されるようになっており、エンコーダ39は、動揺データを、それに付加されたタイムコードと同一のタイムコードのフレームの画像データと対応付けることで、画像動揺情報を生成するようになっている。
【0069】
次に、図5を参照して、図4の現実重心データベース31に記憶させる現実重心データと、画像データベース35に記憶させる画像データの取得方法について説明する。
【0070】
なお、ここでは、例えば、画像データとして、自動車が走行しているシーンを撮影するものとする。
【0071】
この場合、図5に示すように、シーンの撮影に使用する自動車における、運転者の視覚に映る風景を撮影することのできる位置に、全方位カメラ51を取り付けるとともに、運転席に、平衡機能計55を取り付け、実際に、運転者に、自動車を運転してもらう。
【0072】
全方位カメラ51は、球面ミラー51、およびレンズ中心の位置が球面ミラー51の焦点の位置に一致するように配置されたビデオカメラ52で構成される。全方位カメラ51では、球面ミラー51において、周囲からの光が、ビデオカメラ52のレンズ中心の方向に反射され、これにより、ビデオカメラ52において、周囲の風景、即ち、自動車の運転者が、現実世界において実際に見ている周囲の風景が撮像される。
【0073】
ビデオカメラ52で撮影された、周囲の風景の画像データは、画像記憶部54に供給されて記憶される。また、ビデオカメラ52は、画像記憶部54に出力している画像データの各フレームのタイムコードを、その画像データの出力タイミングに同期して、重心記憶部56に出力する。
【0074】
一方、平衡機能計55は、運転席に座った運転者の重心の位置を順次計測し、その位置を表す、所定の2次元座標系における座標(X,Y)を、重心データとして出力する。即ち、自動車が走行することによって、運転者が動揺するが、その動揺は、運転者の重心の位置の変化として現れるので、その重心の位置の座標が、平衡機能計55で計測される。ここで、図6に、平衡機能計55が時系列に出力する重心位置の軌跡の例を示す。
【0075】
なお、ここでは、平衡機能計55によって、重心の位置を計測するようにしたが、重心位置は、その他、例えば、床反力計等によって計測するようにすることも可能である。
【0076】
平衡機能計55が出力する重心データは、重心記憶部56に供給される。重心記憶部56は、平衡機能計55が順次出力する重心データに、その重心データが出力されるタイミングでビデオカメラ53が出力するタイムコードを付加して記憶する。これにより、重心記憶部56では、現実世界における自動車の周囲の画像データのフレームと、そのフレームの画像データが撮影されたときの運転者の重心位置とが、タイムコードを介して対応付けられる形で、重心データが記憶される。
【0077】
なお、ビデオカメラ53で撮像される画像データのフレームの出力タイミング(フレーム周期)と、平衡機能計55の重心データの出力タイミング(同期)とが一致している場合には、ある1時刻における重心データには、1フレームのタイムコードが付加されることになるが、ビデオカメラ53で撮像される画像データのフレームの出力タイミングが、平衡機能計55の重心データの出力タイミングより速い場合は、ある1時刻における重心データに、複数フレームのタイムコードが付加され、ビデオカメラ53で撮像される画像データのフレームの出力タイミングが、平衡機能計55の重心データの出力タイミングより遅い場合は、複数時刻における重心データそれぞれに、同一フレームのタイムコードが付加されることになる。
【0078】
ここでは、説明を簡単にするために、ビデオカメラ53で撮像される画像データのフレームの出力タイミングと、平衡機能計55の重心データの出力タイミングとが一致しているものとする。
【0079】
上述のようにして、画像記憶部54に記憶された画像データが、図4の画像データベース35に記憶されており、また、重心記憶部56に記憶された重心データが、現実重心データとして、図4の現実重心データベース31に記憶されている。
【0080】
次に、図7を参照して、図4の対画像重心データベース32に記憶させる対画像重心データと、学習用重心データベース34に記憶させる学習用重心データの取得方法について説明する。
【0081】
対画像重心データと学習用重心データの取得は、例えば、図7に示すような、データ取得装置を用いて行われる。
【0082】
ここで、図7のデータ取得装置は、図2の画像表示装置を利用したものとなっている。即ち、図7のデータ取得装置は、図2の画像表示装置における画像/動揺デコード部2および画像動揺情報データベース21を削除し、学習用画像データベース61、学習用動揺データベース62、平衡機能計63、および学習用重心データベース64を追加することによって構成されている。
【0083】
まず、対画像重心データの取得方法について説明する。
【0084】
対画像重心データは、図4で説明したように、現実世界で記録された画像を、ドーム11を動揺させずに、スクリーン15に表示した場合のユーザの重心移動を表す重心データである。このため、対画像重心データの取得は、スクリーン15に、図4の画像データベース35に記憶された画像データを表示し、ユーザ(被験者)が、その画像データを視聴することのみによって、どのような重心移動を行うかを計測することによって行われる。
【0085】
即ち、図7の学習用画像データベース61には、図5で説明したようにして撮影された画像データ(図4の画像データベース35に記憶される画像データ)が記憶されており、表示制御部4は、その画像データを読み出し、プロジェクタ12を制御することで、図2で説明した場合と動揺にして、ドーム11内部のスクリーン15に画像を表示させる。
【0086】
そして、スクリーン15に表示された画像を、椅子7に腰掛けたユーザ(被験者)に視聴させ、その重心データを計測する。即ち、図7のデータ取得装置においては、椅子7に、図5の平衡機能計55と同様の平衡機能計63が設けられている。平衡機能計63は、椅子7に腰掛けて、スクリーン15に表示された画像を視聴しているユーザについて、重心データを計測し、学習用重心データベース64に供給して記憶させる。
【0087】
従って、この場合、学習用重心データベース64には、スクリーン15に表示された画像をユーザが視聴することによってのみ生じたユーザの重心移動を表す重心データが記憶されるが、図4の対画像重心データベース32には、このようにして学習用重心データベース64に記憶された重心データが、対画像重心データとして記憶される。
【0088】
次に、学習用重心データの取得方法について説明する。
【0089】
学習用重心データは、図4で説明したように、ある学習用動揺データにしたがって、ドーム11を動揺させたときのユーザの重心の移動パターンを表す重心データである。
【0090】
そこで、図7のデータ取得装置において、学習用動揺データベース62には、図4の学習用動揺データベース33に記憶された学習用動揺データと同一のもの、即ち、ドーム11を規則的または不規則に動揺させる学習用動揺データが記憶されている。
【0091】
動揺制御部23は、学習用動揺データベース62に記憶された学習用動揺データを読み出し、その学習用動揺データにしたがって、モーションベース25を制御することにより、ドーム11を動揺させる。
【0092】
一方、表示制御部4は、所定パターンの画像データをプロジェクタ12に出力し、これにより、ドーム11内部のスクリーン15に、その画像データを表示させる。なお、この場合、スクリーン15に表示される所定パターンの画像データとしては、例えば、静止画などの、その視聴によってユーザの重心位置が変動しないものが用いられる。
【0093】
この場合、椅子7に腰掛けたユーザ(被験者)は、学習用動揺データにしたがって動揺するドーム11内部のスクリーン15に表示された画像を視聴することとなるが、そのときのユーザの重心データが、平衡機能計63によって計測される。そして、平衡機能計63によって計測された重心データは、学習用重心データベース64に供給されて記憶される。
【0094】
従って、この場合、学習用重心データベース64には、学習用動揺データにしたがって動揺するドーム11内部のスクリーン15に表示された画像をユーザが視聴することによって生じたユーザの重心移動を表す重心データが記憶されるが、図4の学習用重心データベース34には、このようにして学習用重心データベース64に記憶された重心データが、学習用重心データとして記憶される。
【0095】
なお、現実重心データ、対画像重心データ、または学習用重心データは、1人のユーザ(被験者)について求める他、多数のユーザ(被験者)について求め、その平均値などを、図4の現実重心データベース31、対画像重心データベース32、または学習用重心データベース34に、それぞれ記憶させるようにすることが可能である。
【0096】
次に、図8のフローチャートを参照して、図4のデータ処理装置が行う、画像動揺情報を生成する処理について説明する。
【0097】
まず最初に、ステップS11において、重心対動揺応答生成部36は、学習用動揺データベース33から時系列の学習用動揺データを読み出すとともに、学習用重心データベース34から時系列の学習用重心データを読み出し、その学習用動揺データと学習用重心データを用いて、ドーム11の動揺と、ユーザの重心移動との関係を表す重心対動揺応答情報を求め(生成し)、動揺データ演算部38に供給する。
【0098】
そして、ステップS12に進み、動揺算出用重心データ演算部37は、現実重心データベース31から時系列の現実重心データを読み出すとともに、対画像重心データベース32から時系列の対画像重心データを読み出し、ステップS13に進む。ステップS13では、動揺算出用重心データ演算部37は、現実重心データと対画像重心データを用いて、現実重心データから、ユーザがドーム11のスクリーン15に表示された画像を視聴することによってのみ生じる重心移動の影響を除去した重心データである動揺算出用重心データを求める。
【0099】
即ち、ステップS13では、動揺算出用重心データ演算部37は、例えば、時系列の現実重心データの各時刻のサンプル値から、時系列の対画像重心データの対応する時刻のサンプル値を減算することにより、時系列の動揺算出用重心データを求める。そして、動揺算出用重心データ演算部37は、その動揺算出用重心データを、動揺データ演算部38に供給して、ステップS14に進む。
【0100】
ステップS14では、動揺データ演算部38は、動揺算出用重心データ演算部37から供給される時系列の動揺算出用重心データを用い、重心対動揺応答生成部36から供給される重心対動揺応答情報に基づいて、時系列の動揺データを求め、エンコーダ39に供給して、ステップS15に進む。
【0101】
ステップS15では、エンコーダ39が、画像データベース35から、現実重心データとともに記録された画像データを読み出し、その画像データの各フレームと、動揺データ演算部39から供給される時系列の動揺データの、各フレームに対応する時刻のサンプル値とを対応付けることにより、画像動揺情報を作成し、その画像動揺情報を出力して、処理を終了する。
【0102】
なお、図4のデータ処理装置は(後述する図19および図20のデータ処理装置についても同様)、対画像重心データベース32および動揺算出用重心データ演算部37を設けずに構成することも可能である。この場合、現実重心データベース31に記憶された現実重心データが、動揺算出用重心データとして、そのまま動揺データ演算部38に供給され、動揺データ演算部38では、その現実重心データを用いて、動揺データが求められる。
【0103】
次に、図9は、図4の重心対動揺応答生成部36の第1の構成例を示している。
【0104】
図9の実施の形態では、重心対動揺応答生成部36は、動揺対重心応答関数推定部71と、重心対動揺応答関数演算部72から構成されている。
【0105】
動揺対重心応答関数推定部71は、学習用動揺データベース33から供給される時系列の学習用動揺データと、学習用重心データベース34から供給される時系列の学習用重心データに対して、所定の変換を施し、学習用動揺データと学習用重心データとを対応付ける関数を求める。
【0106】
即ち、動揺対重心応答関数推定部71は、例えば、図10Aに示すように、時系列の学習用動揺データf(t)を周波数分析することにより、各周波数ごとのゲインを表す周波数軸上のデータであるパワースペクトルF(ω)に変換するとともに、図10Bに示すように、時系列の学習用重心データg(t)を周波数分析することにより、パワースペクトルG(ω)に変換する。ここで、時間軸上のデータである学習用動揺データや学習用重心データを、周波数軸上のデータに変換する方法としては、例えば、FFT(Fast Fourier Transform)などがある。
【0107】
なお、tは時刻を表し、ωは角周波数を表す。また、ここでは、パワースペクトルF(ω)およびG(ω)は、例えば、なんらかの関数によって近似することができるものとする。
【0108】
さらに、動揺対重心応答関数推定部71は、例えば、学習用動揺データf(t)を入力とするとともに、学習用重心データg(t)を出力とする線形システムを想定し、その線形システムの伝達関数H(ω)を求める。
【0109】
即ち、学習用動揺データf(t)を入力とするとともに、学習用重心データg(t)を出力とする、伝達関数がH(ω)の線形システムを想定した場合、学習用重心データg(t)のパワースペクトルG(ω)は、学習用動揺データf(t)のパワースペクトルF(ω)を用いて、次式により求めることができる。
【0110】
【数1】
Figure 0004048558
Figure 0004048558
【0111】
式(1)から、線形システムの伝達関数H(ω)は、次式により求めることができる。
【0112】
【数2】
Figure 0004048558
Figure 0004048558
【0113】
動揺対重心応答関数推定部71は、式(2)によって伝達関数H(ω)を求めると、その伝達関数H(ω)を、重心対動揺応答関数演算部72に供給する。
【0114】
なお、動揺対重心応答関数推定部71では、FFTの他、例えば、ラプラス変換などを行うようにすることが可能である。また、動揺対重心応答関数推定部71では、FFTなどの直交変換の他、学習用動揺データf(t)や学習用重心データg(t)から、特徴量を抽出し、その特徴量どうしを対応付ける関数を求めるようにすることも可能である。
【0115】
重心対動揺応答関数演算部72は、動揺対重心応答関数推定部71から供給される伝達関数H(ω)の逆関数H-1(ω)を求める。即ち、式(1)から、学習用動揺データf(t)のパワースペクトルF(ω)は、学習用重心データg(t)のパワースペクトルG(ω)を用いて、次式により求めることができる。
【0116】
【数3】
Figure 0004048558
Figure 0004048558
【0117】
従って、伝達関数H(ω)の逆関数H-1(ω)を用いて、式(3)を演算することにより、学習用重心データg(t)のパワースペクトルG(ω)を、学習用動揺データf(t)のパワースペクトルF(ω)に変換することができることになる。このことは、伝達関数H(ω)の逆関数H-1(ω)によって、ある重心データを、その重心データが表す重心移動をユーザに生じさせるドーム11の動揺を表す動揺データに変換することができることを意味する。
【0118】
重心対動揺応答関数演算部72は、伝達関数H(ω)の逆関数H-1(ω)を求めると、さらに、その逆関数H-1(ω)のインパルス応答h(t)を求め、重心対動揺応答情報として、動揺データ演算部38に供給する。
【0119】
次に、図11のフローチャートを参照して、図9の重心対動揺応答生成部36の処理について説明する。
【0120】
まず最初に、ステップS21において、動揺対重心応答関数推定部71は、学習用動揺データベース33から供給される時系列の学習用動揺データと、学習用重心データベース34から供給される時系列の学習用重心データを、例えば、FFTすることにより、周波数軸上のデータであるパワースペクトルF(ω)とG(ω)に、それぞれ変換し、ステップS22に進む。ステップS22では、動揺対重心応答関数推定部71は、パワースペクトルF(ω)とG(ω)を用いて、学習用動揺データf(t)を入力とするとともに、学習用重心データg(t)を出力とする線形システムの伝達関数H(ω)を、式(2)により求め、重心対動揺応答関数演算部72に供給して、ステップS23に進む。
【0121】
ステップS23では、重心対動揺応答関数演算部72は、動揺対重心応答関数推定部71から供給される伝達関数H(ω)の逆関数H-1(ω)を求め、ステップS24に進む。ステップS24では、重心対動揺応答関数演算部72は、伝達関数H(ω)の逆関数H-1(ω)のインパルス応答h(t)を求め、重心対動揺応答情報として、動揺データ演算部38に供給し、処理を終了する。
【0122】
ここで、周波数軸上での乗算は、時間軸上での畳み込み積分に該当する。従って、以上のようなインパルス応答h(t)が、重心対動揺応答情報として、動揺データ演算部38に供給される場合、動揺データ演算部38では、動揺算出用重心データ演算部37から供給される時系列の動揺算出用重心データと、重心対動揺応答関数演算部72から供給されるインパルス応答h(t)との畳み込み積分が計算され、その畳み込み積分の結果が、動揺データとして出力される。
【0123】
なお、上述の場合は、式(2)の伝達関数H(ω)を求め、さらに、その逆関数H-1(ω)を求めるようにしたが、伝達関数H(ω)の逆関数H-1(ω)は、式(2)から、F(ω)/G(ω)を計算することにより、伝達関数H(ω)を計算することなく求めることが可能である。
【0124】
次に、図12は、図4の重心対動揺応答生成部36の第2の構成例を示している。
【0125】
図12の実施の形態では、重心対動揺応答生成部36は、LUT(Look Up Table)生成部81と、類似パターン統合部82とから構成されている。
【0126】
LUT生成部81は、学習用動揺データベース33から時系列の学習用動揺データを読み出すとともに、学習用重心データベース34から時系列の学習用重心データを読み出し、その学習用動揺データと学習用重心データとを対応付けるLUTを生成して、類似パターン統合部82に供給する。
【0127】
即ち、例えば、LUT生成部81は、時系列の学習用動揺データの各時刻のサンプル値を中心として連続する所定数のサンプル値の系列を1フレーム(画像データのフレームとは異なる)として、時系列の学習用動揺データから、各時刻について、1フレームの学習用動揺データを切り出す。さらに、LUT生成部81は、時間軸上において、各フレームの学習用動揺データに対応する学習用重心データの連続するサンプル値の例を、やはり、1フレームの学習用重心データとして、時系列の学習用重心データから切り出す。そして、LUT生成部81は、各フレームの学習用重心データをインデックス(見出し)とし、対応するフレームの学習用動揺データを登録したLUTを生成する。
【0128】
ここで、LUT生成部81が生成するLUTは、学習用重心データと学習用動揺データとをフレーム単位で対応付ける多数の欄で構成されることとなるが、この各欄を、以下、適宜、エントリという。
【0129】
類似パターン統合部82は、LUT生成部81から供給されるLUTのエントリのうち、類似する学習用重心データおよび学習用動揺データが登録されているエントリどうしを、1つのエントリに統合する。
【0130】
即ち、類似パターン統合部82は、例えば、LUTのエントリを、順次、注目エントリとし、その注目エントリの学習用重心データまたは学習用動揺データとそれぞれ類似するパターンの学習用重心データまたは学習用動揺データが登録されているエントリを検出する。
【0131】
ここで、注目エントリの学習用重心データと、他のエントリの学習用重心データのパターンが類似するかどうかは、例えば、注目エントリの学習用重心データの各サンプル値と、他のエントリの学習用重心データの対応するサンプル値との差分絶対値和(以下、適宜、フレーム間距離という)を計算し、その差分絶対値和が所定の閾値より小さいかどうかによって判断することができる。即ち、フレーム間距離が所定の閾値より小さい場合には、注目エントリの学習用重心データと、他のエントリの学習用重心データのパターンが類似すると判断される。注目エントリの学習用動揺データと、他のエントリの学習用動揺データのパターンが類似するかどうかの判断も、同様にして行うことが可能である。
【0132】
類似パターン統合部82は、注目エントリの学習用重心データのパターンと類似する学習用重心データが登録され、かつ、注目エントリの学習用動揺データのパターンと類似する学習用動揺データが登録されている他のエントリすべてを検出すると、注目エントリと、その検出されたエントリ(以下、適宜、検出エントリという)すべてとを、1つのエントリに統合する。
【0133】
具体的には、類似パターン統合部82は、単に、検出エントリすべてをLUTから削除し、注目エントリと検出エントリのすべてを、注目エントリに統合する。また、類似パターン統合部82は、例えば、注目エントリの学習用重心データの各サンプル値と、検出エントリすべての学習用重心データの対応するサンプル値の平均値を計算するとともに、注目エントリの学習用動揺データの各サンプル値と、検出エントリすべての学習用動揺データの対応するサンプル値の平均値を計算し、その学習用重心データの平均値と、学習用動揺データの平均値を、注目エントリに上書きする。さらに、類似パターン統合部82は、検出エントリすべてを、LUTから削除し、これにより、注目エントリと検出エントリのすべてを、注目エントリに統合する。
【0134】
類似パターン統合部82は、上述したようにして、LUTのエントリを統合していき、例えば、学習用動揺データおよび学習用重心データが類似するエントリがなくなると、その時点で得られているLUTを、重心対動揺応答情報として、動揺データ演算部38に供給する。
【0135】
次に、図13のフローチャートを参照して、図12の重心対動揺応答生成部36の処理について説明する。
【0136】
まず最初に、ステップS31において、LUT生成部81は、学習用動揺データベース33から時系列の学習用動揺データを読み出すとともに、学習用重心データベース34から時系列の学習用重心データを読み出し、その学習用動揺データと学習用重心データとを対応付けるLUTを生成して、類似パターン統合部82に供給する。
【0137】
そして、ステップS32に進み、類似パターン統合部82は、LUTの任意のエントリを注目エントリとし、その注目エントリと、学習用動揺データおよび学習用重心データが類似する他のエントリがあるかどうかを判定し、あると判定した場合、ステップS33に進む。
【0138】
ステップS33では、類似パターン統合部82は、ステップS32で注目エントリと類似すると判定された他のエントリのすべてを検出し、ステップS34に進み、注目エントリと、検出されたエントリのすべてを統合する。そして、ステップS32に戻り、以下、動揺の処理が繰り返される。
【0139】
一方、ステップS32において、LUTの任意のエントリである注目エントリと、学習用動揺データおよび学習用重心データが類似する他のエントリがないと判定された場合、即ち、LUTにおいて、学習用動揺データおよび学習用重心データが類似しているエントリどうしが存在しない場合、類似パターン統合部82は、その時点で得られているLUTを、重心対動揺応答情報として、動揺データ演算部38に供給し、処理を終了する。
【0140】
以上のようなLUTが、重心対動揺応答情報として、動揺データ演算部38に供給される場合、動揺データ演算部38は、動揺算出用重心データ演算部37から供給される時系列の動揺算出用重心データから、LUTに登録されている学習用重心データのフレームと同一のサンプル数の動揺算出用重心データを、1フレームの動揺算出用重心データとして順次切り出す。そして、動揺データ演算部38では、LUTにおいて、各フレームの動揺算出用重心データとのフレーム間距離が最も短い重心データが登録されているエントリが検出され、そのエントリに登録されている動揺データが出力される。
【0141】
なお、上述の場合は、類似パターン統合部82において、LUT生成部81が生成したLUTのエントリを統合するようにしたが、LUT生成部81が生成したLUTは、統合せずに、そのまま、重心対動揺応答情報として、動揺データ演算部38に供給することが可能である。即ち、図12において、重心対動揺応答生成部36は、類似パターン統合部82を設けずに、LUT生成部81だけで構成することが可能である。
【0142】
次に、図4の動揺データ演算部38では、重心対動揺応答生成部36から供給される重心対動揺応答情報に基づいて、動揺算出用重心データ演算部38から供給される動揺算出用重心データから、動揺データが求められる。このことは、動揺算出用重心データが、重心対動揺応答情報に基づいて、動揺データに変換されるということができるが、このようなデータの変換には、本件出願人が先に提案しているクラス分類適応処理を利用することができる。
【0143】
クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、データが、その性質に基づいてクラス分けされ、各クラスごとに適応処理が施される。
【0144】
ここで、適応処理について、重心データを、動揺データに変換する場合を例に説明する。
【0145】
適応処理では、例えば、重心データのサンプル値と、所定のタップ係数との線形結合により、重心データが、動揺データに変換される。
【0146】
具体的には、例えば、いま、動揺データを教師データとするとともに、その動揺データによってドーム11を動揺させたときに生じるユーザの重心移動を表す重心データを生徒データとして、動揺データのサンプル値yの予測値E[y]を、重心データの幾つかのサンプル値x1,x2,・・・の集合と、所定のタップ係数w1,w2,・・・の線形結合により規定される線形1次結合モデルにより求めることを考える。この場合、予測値E[y]は、次式で表すことができる。
【0147】
【数4】
Figure 0004048558
Figure 0004048558
【0148】
式(4)を一般化するために、タップ係数wjの集合でなる行列W、生徒データxijの集合でなる行列X、および予測値E[yj]の集合でなる行列Y’を、次式のように定義する。
【0149】
【数5】
Figure 0004048558
Figure 0004048558
【0150】
この場合、次のような観測方程式が成立する。
【0151】
【数6】
Figure 0004048558
Figure 0004048558
【0152】
ここで、行列Xの成分xijは、i件目の生徒データの集合(i件目の教師データyiの予測に用いる生徒データの集合)の中のj番目の生徒データを意味し、行列Wの成分wjは、生徒データの集合の中のj番目の生徒データとの積が演算されるタップ係数を表す。また、yiは、i件目の教師データを表し、従って、E[yi]は、i件目の教師データの予測値を表す。なお、式(4)の左辺におけるyは、行列Yの成分yiのサフィックスiを省略したものであり、また、式(4)の右辺におけるx1,x2,・・・も、行列Xの成分xijのサフィックスiを省略したものである。
【0153】
式(6)の観測方程式に最小自乗法を適用して、動揺データのサンプル値yに近い予測値E[y]を求めることを考える。そこで、まず、教師データとなる動揺データの真のサンプル値yの集合でなる行列Y、および動揺データのサンプル値yに対する予測値E[y]の残差eの集合でなる行列Eを、次式で定義する。
【0154】
【数7】
Figure 0004048558
Figure 0004048558
【0155】
この場合、式(6)から、次のような残差方程式が成立する。
【0156】
【数8】
Figure 0004048558
Figure 0004048558
【0157】
最小自乗法では、動揺データのサンプル値yに近い予測値E[y]を求めるためのタップ係数wjを評価する尺度として、例えば、次式で表される自乗誤差が採用される。
【0158】
【数9】
Figure 0004048558
Figure 0004048558
【0159】
動揺データのサンプル値yに近い予測値E[y]を求めるためのタップ係数wjは、式(9)の、統計的誤差としての自乗誤差を最小にすることで求めることができる。
【0160】
従って、式(9)の自乗誤差をタップ係数wjで微分したものが0になる場合、即ち、次式を満たすタップ係数wjが、動揺データのサンプル値yに近い予測値E[y]を求めるため最適値ということになる。
【0161】
【数10】
Figure 0004048558
Figure 0004048558
【0162】
そこで、まず、式(8)を、タップ係数wjで微分することにより、次式が成立する。
【0163】
【数11】
Figure 0004048558
Figure 0004048558
【0164】
式(10)および(11)より、式(12)が得られる。
【0165】
【数12】
Figure 0004048558
Figure 0004048558
【0166】
さらに、式(8)の残差方程式における生徒データxij、タップ係数wj、教師データyi、および残差(誤差)eiの関係を考慮すると、式(12)から、次のような正規方程式を得ることができる。
【0167】
【数13】
Figure 0004048558
Figure 0004048558
【0168】
なお、いま、ベクトルWを、式(5)で示したように定義するとともに、行列(共分散行列)Aおよびベクトルvを、次式で定義する。
【0169】
【数14】
Figure 0004048558
Figure 0004048558
【0170】
この場合、式(13)に示した正規方程式は、次式で表される。
【0171】
【数15】
Figure 0004048558
Figure 0004048558
【0172】
式(15)と等価な式(13)における各正規方程式は、生徒データxijおよび教師データyiのセットを、ある程度の数だけ用意することで、求めるべきタップ係数wjの数Jと同じ数だけたてることができ、従って、式(15)を、ベクトルWについて解くことで(但し、式(15)を解くには、式(15)における行列Aが正則である必要がある)、最適なタップ係数wjを求めることができる。なお、式(15)を解くにあたっては、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることが可能である。
【0173】
以上のように、生徒データと教師データを用いて、最適なタップ係数wjを求める学習をしておき、さらに、そのタップ係数wjを用い、式(4)により、教師データyに近い予測値E[y]を求めるのが適応処理である。
【0174】
なお、上述の場合には、教師データyの予測式として、式(4)の線形一次式を用いるようにしたが、教師データyの予測式としては、その他、2次以上の高次の式を採用することが可能である。
【0175】
次に、図14は、上述のようなクラス分類適応処理を利用して、動揺算出用重心データを動揺データに変換する、図4の動揺データ演算部38の構成例を示している。
【0176】
バッファ91には、動揺算出用重心データ37から、時系列の動揺算出用重心データが供給され、バッファ91は、そこに供給される動揺算出用重心データを一時記憶する。
【0177】
予測タップ抽出部92は、後述する積和演算部96において求めようとする、動揺データの各サンプルを、順次、注目サンプルとし、さらに、その注目サンプルを予測するのに用いる動揺算出用重心データのサンプルを、バッファ91から抽出し、予測タップとする。
【0178】
即ち、予測タップ抽出部92は、例えば、注目サンプルの時刻(サンプル点)に対して近い時刻の動揺算出用重心データの幾つかのサンプル(のサンプル値)を、予測タップとして、バッファ91から読み出す。
【0179】
そして、予測タップ抽出部92は、注目サンプルについて、予測タップを得ると、その注目サンプルについての予測タップを、積和演算部96に供給する。
【0180】
クラスタップ抽出部93は、注目サンプルを、幾つかのクラスのうちのいずれかに分類するためのクラス分類に用いる動揺算出用重心データのサンプルを、バッファ91から抽出し、クラスタップとする。
【0181】
なお、ここでは、説明を簡単にするために、例えば、予測タップ抽出部92で得られる予測タップと、クラスタップ抽出部93で得られるクラスタップとは、同一のタップ構造を有するものとする。但し、予測タップとクラスタップとは、独立(別)のタップ構造を有するものとすることが可能である。
【0182】
クラスタップ抽出部93において得られる、注目サンプルについてのクラスタップは、クラス分類部94に供給される。クラス分類部94は、クラスタップ抽出部93からのクラスタップに基づき、注目サンプルをクラス分類し、その結果得られるクラスに対応するクラスコードを出力する。
【0183】
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。
【0184】
ADRCを用いる方法では、クラスタップを構成するサンプル値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目サンプルのクラスが決定される。
【0185】
なお、KビットADRCにおいては、例えば、クラスタップを構成するサンプル値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成するサンプルがKビットに再量子化される。即ち、クラスタップを構成する各サンプル値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各サンプル値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各サンプル値は、最小値MINが減算された後に、最大値MAXと最小値MINとの平均値で除算され、これにより、各サンプル値が1ビットとされる(2値化される)。そして、その1ビットのサンプル値を所定の順番で並べたビット列が、ADRCコードとして出力される。
【0186】
なお、クラス分類部94には、例えば、クラスタップを構成するサンプル値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能であるが、この場合、クラスタップが、N個のサンプルで構成され、各サンプルに、Kビットが割り当てられているとすると、クラス分類部94が出力するクラスコードの場合の数は、(2NK通りとなり、サンプルのビット数Kに指数的に比例した膨大な数となる。
【0187】
従って、クラス分類部94においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮してから、クラス分類を行うのが好ましい。
【0188】
クラス分類部94が出力するクラスコードは、係数記憶部95に、アドレスとして与えられる。
【0189】
係数記憶部95は、後述する図17の重心対動揺応答生成部36から供給される重心対動揺応答情報としてのタップ係数を記憶し、クラス分類部94が出力するクラスコードに対応するアドレスに記憶されているタップ係数を、積和演算部96に出力する。
【0190】
積和演算部96は、予測タップ抽出部92が出力する予測タップと、係数記憶部95が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、式(4)に示した線形予測演算(積和演算)を行い、その演算結果を、注目サンプルとなっている動揺データのサンプル値として出力する。
【0191】
なお、重心データは、ここでは、所定の2次元座標系における、重心の位置の座標であるから、重心データの1サンプルは、例えば、図15Aに示すように、その2次元座標系のX座標とY座標からなる。
【0192】
また、動揺データは、ドーム11を動揺させるためのデータであり、本実施の形態では、ドーム11は、前後、左右、上下、ロール、ピッチ、ヨーの6軸の各方向に動揺させることが可能であるから、動揺データの1サンプルは、例えば、図15Bに示すように、その6軸の各方向への動揺を表す6つの動揺成分からなる。
【0193】
図14の動揺データ演算部38では、動揺データの各サンプルを構成する6つの動揺成分が、それぞれについて、独立に予測タップとクラスタップが構成されて求められる。従って、係数記憶部95には、6つの動揺成分それぞれについてのタップ係数が記憶されており、後述する図17の重心対動揺応答生成部36では、6つの動揺成分それぞれについて、独立に、重心対動揺応答情報としてのタップ係数が求められる。
【0194】
さらに、予測タップやクラスタップとしては、重心データのX座標またはY座標のうちのいずれか一方だけを採用することも可能であるし、X座標とY座標の両方を採用することも可能である。また、予測タップやクラスタップとして、重心データのX座標とY座標の両方を採用する場合には、予測タップやクラスタップとして採用するX座標とY座標は、同一時刻のものであっても良いし、異なる時刻のものであっても良い。
【0195】
ここで、以下においては、説明を簡単にするため、重心データおよび動揺データの各成分については、特に必要がない限り、言及しない。
【0196】
次に、図16のフローチャートを参照して、図14の動揺データ演算部38が行う、動揺算出用重心データを動揺データに変換する処理としてのクラス分類適応処理について説明する。
【0197】
バッファ91には、動揺算出用重心データ演算部37(図4)が出力する時系列の動揺算出用重心データが記憶される。
【0198】
そして、動揺データ演算部38では、ステップS41において、予測タップ抽出部92が、時系列の動揺データのサンプルのうち、まだ求められていない、時間的に最も先行するサンプルを、注目サンプルとして選択し、ステップS42に進む。
【0199】
ステップS42では、予測タップ抽出部92が、注目サンプルについての予測タップとする動揺算出用重心データのサンプルを、バッファ91から抽出し、積和演算部96に供給する。さらに、ステップS42では、クラスタップ抽出部93が、注目サンプルについてのクラスタップとする動揺算出用重心データのサンプルを、バッファ91から抽出し、クラス分類部94に供給する。
【0200】
そして、ステップS43に進み、クラス分類部94は、クラスタップ抽出部93からのクラスタップに基づき、注目サンプルをクラス分類し、その結果得られるクラスに対応するクラスコードを、係数記憶部95に出力して、ステップS44に進む。
【0201】
ステップS44では、係数記憶部95は、クラス分類部94が出力するクラスコードに対応するアドレスに記憶されているタップ係数を、積和演算部96に出力し、これにより、積和演算部96は、注目サンプルを求めるのに用いるタップ係数を取得する。
【0202】
その後、ステップS45に進み、積和演算部96は、予測タップ抽出部92が出力する予測タップと、係数記憶部95から取得したタップ係数とを用いて、式(4)に示した線形予測演算(積和演算)を行い、その演算結果を、注目サンプルとなっている動揺データのサンプル値として、エンコーダ39(図4)に出力して、ステップS46に進む。
【0203】
ステップS46では、予測タップ抽出部92は、時系列の動揺データのすべてのサンプルが求められたかどうかを判定する。ステップS46において、時系列の動揺データのすべてのサンプルが、まだ求められていないと判定された場合、ステップS41に戻り、以下、同様の処理が繰り返される。
【0204】
また、ステップS46において、時系列の動揺データのすべてのサンプルが求められたと判定された場合、処理を終了する。
【0205】
次に、図17は、図4の動揺データ演算部38が図14に示したように構成される場合の、図4の重心対動揺応答生成部36の構成例を示している。
【0206】
図17の重心対動揺応答生成部36は、図14の動揺データ演算部38で用いられるタップ係数を学習する学習装置として構成されている。
【0207】
即ち、教師データメモリ101には、学習用動揺データベース33(図4)に記憶された時系列の学習用動揺データが、教師データとして供給され、教師データメモリ101は、その教師データとしての学習用動揺データを記憶する。
【0208】
生徒データメモリ102には、学習用重心データベース34から、学習用重心データが、生徒データとして供給され、生徒データメモリ102は、その生徒データとしての学習用重心データを記憶する。
【0209】
予測タップ抽出部103は、教師データメモリ101に記憶された教師データとしての学習用動揺データを、時系列順に、順次、注目サンプルとし、さらに、その注目サンプルを予測するのに用いる生徒データとしての学習用重心データを、生徒データメモリ102から抽出し、これにより、図14の予測タップ抽出部92が構成する予測タップと同一のタップ構造の予測タップを構成する。そして、予測タップ抽出部103は、注目サンプルについて得られた予測タップを、正規方程式加算部106に供給する。
【0210】
クラスタップ抽出部104は、注目サンプルのクラス分類に用いる生徒データを、生徒データメモリ102から抽出し、これにより、図14のクラスタップ抽出部93における場合と同一構造のクラスタップを構成して、クラス分類部105に供給する。
【0211】
クラス分類部105は、クラスタップ抽出部104から供給される、注目サンプルについてのクラスタップを用い、図14のクラス分類部94と同一のクラス分類を行い、注目サンプルのクラスを表すクラスコードを、正規方程式加算部106に供給する。
【0212】
正規方程式加算部106は、教師データメモリ101から、注目サンプルとなっている教師データを読み出し、予測タップ抽出部103からの予測タップを構成する生徒データ、および注目サンプルとしての教師データを対象とした足し込みを、クラス分類部105から供給されるクラスごとに行う。
【0213】
即ち、正規方程式加算部106は、クラス分類部105から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)を用い、式(14)の行列Aにおける各コンポーネントとなっている、生徒データどうしの乗算(xinim)と、サメーション(Σ)に相当する演算を行う。
【0214】
さらに、正規方程式加算部106は、やはり、クラス分類部105から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)および注目サンプル(教師データ)を用い、式(14)のベクトルvにおける各コンポーネントとなっている、生徒データと教師データの乗算(xini)と、サメーション(Σ)に相当する演算を行う。
【0215】
正規方程式加算部106は、以上の足し込みを、教師データメモリ101に記憶された教師データすべてを注目サンプルとして行い、これにより、各クラスについて、式(15)に示した正規方程式をたて、タップ係数決定部107に供給する。
【0216】
タップ係数決定部107は、正規方程式加算部106においてクラスごとに生成された正規方程式を解くことにより、クラスごとに、タップ係数を求め、重心対動揺応答情報として、動揺データ演算部38に供給する。
【0217】
次に、図18のフローチャートを参照して、図4の重心対動揺応答生成部36が図17に示したように構成される場合の処理について説明する。
【0218】
ステップS51では、教師データメモリ101が、学習用動揺データベース33(図4)から供給される時系列の学習用動揺データを、教師データとして記憶するとともに、生徒データメモリ102が、学習用重心データベース34から供給される学習用重心データを、生徒データとして記憶し、ステップS52に進む。
【0219】
ステップS52では、予測タップ抽出部103は、教師データメモリ101に記憶された教師データとしての学習用動揺データのサンプルのうち、まだ注目サンプルとしていない、時間的に最も先行するサンプルを、注目サンプルとして選択し、ステップS53に進む。
【0220】
ステップS53では、予測タップ抽出部103が、注目サンプルについての予測タップとする、生徒データとしての学習用重心データを、生徒データメモリ102から抽出し、正規方程式加算部106に供給するとともに、クラスタップ抽出部104が、注目サンプルについてのクラスタップとする、生徒データとしての学習用重心データを、生徒データメモリ102から抽出し、クラス分類部105に供給する。
【0221】
そして、ステップS54に進み、クラス分類部105は、クラスタップ抽出部104から供給される、注目サンプルについてのクラスタップを用いてクラス分類を行い、その結果得られる、注目サンプルのクラスを表すクラスコードを、正規方程式加算部106に供給して、ステップS55に進む。
【0222】
ステップS55では、正規方程式加算部106が、教師データメモリ101から、注目サンプルとなっている教師データを読み出し、予測タップ抽出部103からの予測タップを構成する生徒データ、および注目サンプルとしての教師データを対象とした、上述したような足し込みを、クラス分類部105から供給されるクラスについて行う。
【0223】
そして、ステップS56に進み、予測タップ抽出部103は、教師データメモリ101に記憶された教師データとしての学習用動揺データのすべてのサンプルを、注目サンプルとしたかどうかを判定する。ステップS56において、教師データメモリ101に記憶された学習用動揺データのすべてのサンプルを、まだ、注目サンプルとしていないと判定された場合、ステップS52に戻り、以下、同様の処理を繰り返す。
【0224】
また、ステップS56において、教師データメモリ101に記憶された学習用動揺データのすべてのサンプルを、注目サンプルとしたと判定された場合、ステップS57に進み、正規方程式加算部106は、上述の足し込みを行うことにより得られる、各クラスについての、式(15)に示した正規方程式を、タップ係数決定部107に供給する。さらに、ステップS57では、タップ係数決定部107が、正規方程式加算部106からのクラスごとの正規方程式を解くことにより、クラスごとのタップ係数を求め、ステップS58に進む。
【0225】
ステップS58では、タップ係数決定部58が、ステップS57で求められたクラスごとのタップ係数を、動揺データ演算部38(図4)に供給し、その係数記憶部95(図14)に記憶させ、処理を終了する。
【0226】
なお、図14乃至図18の実施の形態では、注目サンプルについてクラスタップを構成し、そのクラスタップをクラス分類することにより得られるクラスごとに、処理を行うようにしたが、クラス分類は行わないようにすることが可能である。ここで、クラス分類を行わないということは、クラス分類を行う場合において、クラスが1つのみであるということと等価である。
【0227】
また、図9乃至図13の実施の形態では、図14乃至図18の実施の形態における場合のように、クラスごとに処理を行うようにはしなかったが、図9乃至図13の実施の形態においても、クラスごとに処理を行うようにすることが可能である。
【0228】
即ち、図19は、図9の構成による処理を、クラスごとに行うこととした場合のデータ処理装置の構成例を示している。
【0229】
図19のデータ処理装置は、動揺データ演算部38が、図14のクラスタップ抽出部93およびクラス分類部94を新たに設けて構成されているとともに、重心対動揺応答生成部36が、図17のクラスタップ抽出部104およびクラス分類部105を新たに設けて構成されている他は、図9における場合と同様に構成されている。
【0230】
図19のデータ処理装置では、重心対動揺応答生成部36において、クラスタップ抽出部104が、学習用重心データを用いてクラスタップを構成し、クラス分類部105が、そのクラスタップを用いてクラス分類を行う。そして、動揺対重心応答関数推定部71が、クラス分類部105のクラス分類により得られるクラスごとに、式(2)の伝達関数H(ω)を求め、重心対動揺応答関数演算部72が、クラスごとの伝達関数H(ω)の逆関数H-1(ω)を求めて、動揺データ演算部38に供給する。
【0231】
動揺データ演算部38では、クラスタップ抽出部93が、動揺算出用重心データを用いてクラスタップを構成し、クラス分類部94が、そのクラスタップを用いてクラス分類を行う。そして、動揺データ演算部38は、クラス分類部94のクラス分類により得られるクラスの逆関数H-1(ω)に基づき、動揺算出用重心データを用いて、動揺データを演算する。
【0232】
次に、図20は、図12の構成による処理を、クラスごとに行うこととした場合のデータ処理装置の構成例を示している。
【0233】
図20のデータ処理装置も、図19における場合と同様に、動揺データ演算部38が、図14のクラスタップ抽出部93およびクラス分類部94を新たに設けて構成されているとともに、重心対動揺応答生成部36が、図17のクラスタップ抽出部104およびクラス分類部105を新たに設けて構成されている他は、図12における場合と同様に構成されている。
【0234】
図20のデータ処理装置では、重心対動揺応答生成部36において、クラスタップ抽出部104が、学習用重心データを用いてクラスタップを構成し、クラス分類部105が、そのクラスタップを用いてクラス分類を行う。そして、LUT生成部81が、クラス分類部105のクラス分類により得られるクラスごとに、LUTを求め、類似パターン統合部82が、クラスごとのLUTそれぞれを、独立に統合し、動揺データ演算部38に供給する。
【0235】
動揺データ演算部38では、クラスタップ抽出部93が、動揺算出用重心データを用いてクラスタップを構成し、クラス分類部94が、そのクラスタップを用いてクラス分類を行う。そして、動揺データ演算部38は、クラス分類部94のクラス分類により得られるクラスのLUTに基づき、動揺算出用重心データを、動揺データに変換する。
【0236】
ところで、図2の画像表示装置において、図4のデータ処理装置で得られた画像動揺情報を用いて、スクリーン15に画像を表示するとともに、ドーム11を動揺させた場合に、ユーザの重心移動を表す重心データが、現実重心データと完全に一致すれば、理論的には、ユーザは、現実世界で享受することのできる動揺感覚と同一の動揺感覚を享受することになる。
【0237】
しかしながら、図2の画像表示装置において、スクリーン15に画像を表示するとともに、ドーム11を動揺させた場合に、ユーザの重心移動を表す重心データが、現実重心データと完全に一致するとは限らない。
【0238】
即ち、図4のデータ処理装置では、図2の画像表示装置でスクリーン15に画像を表示するとともに、ドーム11を動揺させた場合のユーザの重心データを、現実重心データに近いものとする動揺データが生成されるが、現実重心データに完全に一致する動揺データが生成されるとは限らない。
【0239】
従って、図4のデータ処理装置で生成された動揺データによれば、図2の画像表示装置によって、現実世界で享受することのできる動揺感覚に近い動揺感覚を、ユーザに享受させることができるが、現実世界で享受することのできる動揺感覚に、より近い動揺感覚を、ユーザに享受させることができるのが望ましい。
【0240】
そこで、図21は、現実世界の動揺感覚に、より近い動揺感覚をユーザに享受させるようにした画像表示装置の一実施の形態の構成例を示している。なお、図中、図2における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図21の画像表示装置は、平衡機能計111、更新用重心データベース112、現実重心データベース113、および動揺データ更新部114が新たに設けられている他は、図2における場合と基本的に同様に構成されている。
【0241】
平衡機能計111は、図5の平衡機能計55と同様のもので、椅子7に設置されており、その椅子7に腰掛けたユーザの重心移動を表す重心データを計測して、更新用重心データベース112に供給する。更新用重心データベース112は、平衡機能計111から供給される時系列の重心データを記憶する。
【0242】
ここで、更新用重心データベース112に記憶された重心データは、後述するように、画像動揺情報データベース21に記憶された画像情報動揺情報における動揺データの更新に用いられるので、以下、適宜、更新用重心データという。
【0243】
現実重心データベース113は、図4の現実重心データベース31に記憶されたのと同一の時系列の現実重心データを記憶している。
【0244】
動揺データ更新部114は、更新用重心データベース112に記憶された更新用重心データと、現実重心データベース113に記憶された現実重心データとを比較し、その比較結果に基づいて、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを評価し、さらに、その評価結果に基づいて、動揺データを更新する。
【0245】
次に、図22のフローチャートを参照して、図21の画像表示装置の処理について説明する。
【0246】
ステップS61乃至S63では、図3のステップS1乃至S3における場合とそれぞれ同様の処理が行われ、これにより、スクリーン15には、画像動揺様情報データベース21に記憶された画像動揺情報における画像データが表示されるとともに、ドーム11が、画像動揺情報における動揺データにしたがって動揺する。
【0247】
そして、ステップS64に進み、平衡機能計111は、ステップS61乃至S63において、画像動揺情報データベース21に記憶された画像動揺情報を用いて、スクリーン15に画像を表示するとともに、ドーム11を動揺させた場合の、ユーザの重心移動を表す重心データを計測する。さらに、ステップS64では、平衡機能計111で計測された重心データが、更新用重心データとして、更新用重心データベース112に供給されて記憶され、ステップS65に進む。
【0248】
ステップS65では、図1のステップS4における場合と動揺に、画像/動揺デコード部2が、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されているかどうかを判定する。ステップS65おいて、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されていると判定された場合、ステップS61に戻り、以下、同様の処理が繰り返される。
【0249】
また、ステップS65において、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されていないと判定された場合、即ち、画像動揺情報データベース21に記憶された画像動揺情報のすべてについて、スクリーン15に画像を表示するとともに、ドーム11を動揺させたときの、ユーザの重心移動を表す重心データとしての更新用重心データが、更新用重心データベース112に記憶された場合、ステップS66に進み、動揺データ更新部114は、更新用重心データベース112に記憶された更新用重心データと、現実重心データベース113に記憶された現実重心データとを比較し、その比較結果に基づいて、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを評価する。
【0250】
そして、ステップS67に進み、動揺データ更新部114は、画像動揺情報データベース21に記憶された画像動揺情報における動揺データの評価結果が、所定の評価基準を満たすかどうかを判定する。
【0251】
ステップS67において、動揺データの評価結果が、所定の評価基準を満たさないと判定された場合、即ち、例えば、画像動揺情報データベース21に記憶された画像動揺情報における動揺データによってドーム11を動揺させたときに得られるユーザの時系列の更新用重心データが、現実重心データベース113に記憶された時系列の現実重心データにほぼ一致しているとは言えず、現実世界で享受することのできる動揺感覚に、非常に近い動揺感覚を、ユーザが享受しているとは言えない場合、ステップS68に進み、動揺データ更新部114は、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを更新し、さらに更新用重心データベース112の記憶内容をクリアする。
【0252】
そして、ステップS61に戻り、画像動揺情報データベース21に記憶された、最初のフレームについての画像動揺情報から、同様の処理が繰り返される。
【0253】
また、ステップS67において、動揺データの評価結果が、所定の評価基準を満たすと判定された場合、即ち、例えば、画像動揺情報データベース21に記憶された画像動揺情報における動揺データによってドーム11を動揺させたときに得られるユーザの時系列の更新用重心データが、現実重心データベース113に記憶された時系列の現実重心データにほぼ一致しており、現実世界で享受することのできる動揺感覚に、非常に近い動揺感覚を、ユーザが享受していると言える場合、処理を終了する。
【0254】
次に、図23は、図21の動揺データ更新部114の構成例を示している。
【0255】
ベクトル化部121は、更新用重心データベース112から時系列の更新用重心データを読み出すとともに、現実重心データベース113から現実重心データを読み出し、その更新用重心データのサンプルそれぞれと、現実重心データのサンプルそれぞれをベクトル化する。即ち、上述したように、重心データの各サンプルは、X座標とY座標を有するが、ベクトル化部121は、更新用重心データの各サンプル、および現実重心データの各サンプルを、X座標とY座標をコンポーネントとするベクトルとする。そして、ベクトル化部121は、更新用重心データの各サンプルのベクトル、および現実重心データの各サンプルのベクトルを、ノルム演算部122に供給する。
【0256】
なお、ここでは、ベクトル化部121において、重心データの1サンプルについて、1つのベクトルを構成するようにしたが、ベクトル化部121では、その他、例えば、重心データの複数サンプルについて、その複数サンプルのX座標およびY座標をコンポーネントとするベクトルを構成するようにすることも可能である。
【0257】
ノルム演算部122は、ベクトル化部121から供給される、更新用重心データの各サンプルのベクトルと、現実重心データの対応する時刻のサンプルのベクトルとのノルム(距離)を計算し、さらに、そのノルムの総和(全時刻についての総和)を求め、その総和値を、画像動揺情報データベース21に記憶された画像動揺情報における動揺データの評価値として、評価部123に供給する。
【0258】
ここで、この場合、評価値が小さいほど、画像動揺情報データベース21に記憶された画像動揺情報における動揺データによってドーム11を動揺させたときに得られるユーザの時系列の更新用重心データと、現実重心データベース113に記憶された時系列の現実重心データとの一致性が高いことを表す。
【0259】
評価部123は、ノルム演算部122から供給される動揺データの評価値を評価する。即ち、評価部123は、ノルム演算部122から供給される動揺データの評価値を、所定の閾値と比較することで、その評価を行う。そして、評価部123は、その評価結果に基づいて、更新部124に、画像動揺情報データベース21に記憶された画像動揺情報における動揺データの更新を指示する。
【0260】
更新部124は、評価部123からの指示にしたがい、基準データ記憶部125に記憶された基準データを用いて、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを更新する。
【0261】
基準データ記憶部125は、画像動揺情報データベース21に最初に記憶された画像動揺情報、即ち、図4のデータ処理装置が生成した画像動揺情報における動揺データを、その更新のための基準となる基準データとして記憶している。
【0262】
以上のように構成される動揺データ更新部114では、図22のステップS66乃至S68において、図24のフローチャートに示す処理が行われる。
【0263】
即ち、図24のフローチャートは、図23の動揺データ更新部114が行う、図22のステップS66乃至S68の処理の詳細を示している。
【0264】
なお、図24において、ステップS71およびS72の処理が、図22のステップS66の処理に、ステップS73,S74、およびS77の処理が、図22のステップS67の処理に、ステップS75およびS76の処理が、図22のステップS68の処理に、それぞれ対応している。
【0265】
図22のステップS65において、画像動揺情報データベース21に、次のフレームについての画像動揺情報が記憶されていないと判定されると、図24のステップS71に進み、ベクトル化部121は、更新用重心データベース112から更新用重心データを読み出すとともに、現実重心データベース113から現実重心データを読み出し、その更新用重心データのサンプルそれぞれと、現実重心データのサンプルそれぞれをベクトル化する。さらに、ステップS71では、ベクトル化部121は、更新用重心データの各サンプルのベクトル、および現実重心データの各サンプルのベクトルを、ノルム演算部122に供給し、ステップS72に進む。
【0266】
ステップS72では、ノルム演算部122は、ベクトル化部121から供給される、更新用重心データの各サンプルのベクトルと、現実重心データの対応する時刻のサンプルのベクトルとのノルムを計算し、さらに、そのノルムの総和を求め、その総和値を、動揺データの評価値として、評価部123に供給して、ステップS73に進む。
【0267】
ステップS73では、評価部123が、更新部124に対して、画像動揺情報データベース21に記憶された画像動揺情報における動揺データの更新を指示した回数(以下、適宜、更新回数という)が、所定の閾値であるε1回より大である(または以上である)かどうかを判定する。
【0268】
即ち、評価部123は、更新回数を、その内蔵するメモリ(図示せず)に記憶しており、更新部124に対して動揺データの更新を指示するごとに、その更新回数を1ずつインクリメントするようになっており、ステップS73では、その更新回数がε1回より大であるかどうかが判定される。
【0269】
ステップS73において、更新回数がε1回より大でないと判定された場合、ステップS74に進み、評価部123は、動揺データの評価値(ここでは、ノルムの総和)が、所定の閾値ε2未満である(または以下である)かどうかを判定する。
【0270】
ステップS74において、動揺データの評価値が、所定の閾値ε2未満でないと判定された場合、即ち、画像動揺情報データベース21に記憶された画像動揺情報における動揺データによってドーム11を動揺させたときに得られるユーザの時系列の更新用重心データと、現実重心データベース113に記憶された時系列の現実重心データとの一致性が非常に高いとはいえない場合、評価部123は、更新部124に対して、動揺データの更新を指示し、ステップS75に進む。
【0271】
ステップS75では、更新部124は、基準データ記憶部125に記憶された基準データに基づき、新たな動揺データを生成する。
【0272】
即ち、基準データである動揺データの各サンプルは、ここでは、上述したように、前後、左右、上下、ロール、ピッチ、ヨーの6軸の各方向の動揺成分を有するから、その6つの動揺成分をコンポーネントとするベクトルとみなすことができる。そこで、更新部124は、例えば、図25に示すように、基準データである動揺データのサンプルのベクトルが、そのベクトル空間で指示する点(図25において×印で示す)から所定の距離rにある、所定間隔の点(図25において○印で示す)を指示するベクトルで表されるサンプルのうちの1つを選択し、元のサンプルを、その選択したサンプルに置き換えることで、新たな時系列の動揺データを生成する。なお、動揺データの各サンプルは、6つの動揺成分を有するから、そのベクトル空間は、6次元空間となるが、6次元空間は、図示することが困難であるため、図25には、3次元のベクトル空間を示してある。
【0273】
ここで、基準データである動揺データは、時系列のデータ(サンプル)であるから、多数のサンプルを有する。従って、新たな動揺データの生成方法としては、例えば、基準データの1サンプルだけを、図25で説明したように置き換える方法や、動揺データの複数サンプルを、一度に、図25で説明したように置き換える方法がある。但し、いずれの方法を採用するにしても、新たな時系列の動揺データが、以前に基準データから生成された時系列の動揺データと一致しないように、サンプルの置き換えを行う必要がある。
【0274】
また、上述の場合には、更新部124において、基準データである動揺データの1サンプルを、1つのベクトルとみなすこととしたが、その他、更新部124では、例えば、複数サンプルを、その各サンプルの6つの動揺成分をコンポーネントとする1つのベクトルとみなして、図25で説明したように、新たな動揺データを生成するようにすることも可能である。
【0275】
更新部124は、ステップS75において新たな動揺データを生成すると、ステップS76に進み、その新たな動揺データによって、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを書き換え、これにより、動揺データを更新し、図22のステップS61に戻る。
【0276】
また、ステップS74において、動揺データの評価値が、所定の閾値ε2未満であると判定された場合、即ち、画像動揺情報データベース21に記憶された画像動揺情報における動揺データによってドーム11を動揺させたときに得られるユーザの時系列の更新用重心データと、現実重心データベース113に記憶された時系列の現実重心データとの一致性が非常に高い場合、処理を終了する。
【0277】
一方、ステップS73において、更新回数がε1回より大であると判定された場合、即ち、動揺データを、ε1回更新した場合、ステップS77に進み、評価部123は、いままでの動揺データの更新によって、最小の評価値(ノルムの総和)が得られたときの動揺データによって、画像動揺情報データベース21に記憶された画像動揺情報における動揺データの書き換えを行うように、更新部124に対して指示をする。さらに、ステップS77では、更新部124は、評価部123の指示にしたがい、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを書き換え、処理を終了する。
【0278】
以上のように、画像動揺情報データベース21に記憶された画像動揺情報における動揺データによってドーム11を動揺させたときに得られるユーザの時系列の更新用重心データと、現実重心データベース113に記憶された時系列の現実重心データとの一致性を高くするように、画像動揺情報における動揺データを更新することにより、現実世界で享受することのできる動揺感覚に、より近い動揺感覚を、ユーザに享受させることが可能となる。
【0279】
なお、図24の実施の形態では、更新回数がε1を越えるか、または評価値が閾値ε2未満となった場合に、動揺データの更新を終了するようにしたが、動揺データの更新は、図25で説明したようにして得られる新たな時系列の動揺データの全パターンについて行い、その中の、評価値を最小にする動揺データによって、画像動揺情報データベース21に記憶された画像動揺情報における動揺データを、最終的に更新するようにすることも可能である。
【0280】
また、本実施の形態では、図21の画像表示装置を、現実世界で享受することのできる動揺感覚に、より近い動揺感覚を、ユーザに享受させることが可能な装置として説明したが、図21の画像表示装置は、現実世界で享受することのできる動揺感覚に、より近い動揺感覚を、ユーザに享受させることができるように、動揺データを更新する(チューニングする)装置であるということもできる。
【0281】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0282】
そこで、図26は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0283】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク205やROM203に予め記録しておくことができる。
【0284】
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体211に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体211は、いわゆるパッケージソフトウエアとして提供することができる。
【0285】
なお、プログラムは、上述したようなリムーバブル記録媒体211からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部208で受信し、内蔵するハードディスク205にインストールすることができる。
【0286】
コンピュータは、CPU(Central Processing Unit)202を内蔵している。CPU202には、バス201を介して、入出力インタフェース210が接続されており、CPU202は、入出力インタフェース210を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部207が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、また、CPU202は、ハードディスク205に格納されているプログラム、衛星若しくはネットワークから転送され、通信部208で受信されてハードディスク205にインストールされたプログラム、またはドライブ209に装着されたリムーバブル記録媒体211から読み出されてハードディスク205にインストールされたプログラムを、RAM(Random Access Memory)204にロードして実行する。これにより、CPU202は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフェース210を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部206から出力、あるいは、通信部208から送信、さらには、ハードディスク205に記録等させる。
【0287】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0288】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0289】
なお、図2の画像表示装置は、例えば、ゲーム機、さらには、遠隔にある自動車から送られてくる画像をスクリーン15に表示しながら、その自動車を遠隔操作する装置などに適用することが可能である。
【0290】
また、図9の実施の形態では、学習用動揺データf(t)を入力とするとともに、学習用重心データg(t)を出力とする線形システムを想定して、その線形システムの伝達関数の逆関数H-1(ω)を、重心対動揺応答情報として求めたが、その他、例えば、線形システムではなく、非線形システムを想定して、その非線形システムの伝達関数の逆関数を、重心対動揺応答情報として推定するようにしても良い。
【0291】
さらに、重心対動揺応答生成部36は、例えば、ニューラルネットワークを用いて構成し、学習用動揺データと学習用重心データを対応付ける重心対動揺応答情報としての、ニューラルネットワークのパラメータを求めるようにすることも可能である。
【0292】
また、本実施の形態では、平衡機能計や床反力計などを用いて重心データを計測するようにしたが、重心データとしては、その他、例えば、複数の圧力センサをアレイ状に配置し、各圧力センサの出力から得られる平面の圧力分布を採用することも可能である。
【0293】
さらに、本実施の形態では、画像動揺情報を、あらかじめ、画像動揺情報記憶部21に記憶させておくようにしたが、画像動揺情報は、例えば、テレビジョン放送信号により放送し、図2の画像表示装置では、そのテレビジョン放送信号としての画像動揺情報を受信して処理を行うようにすることが可能である。
【0294】
また、図2の画像表示装置は、図4のデータ処理装置の一部構成を含めて構成し、遠隔地で記録された現実世界の画像と動揺を、ユーザにリアルタイムで提供するようにすることが可能である。
【0295】
即ち、図27は、そのような画像表示装置の一実施の形態の構成例を示している。なお、図中、図2における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図27の画像表示装置は、画像動揺情報データベース21に代えて、図4の動揺データ演算部38およびエンコーダ39が設けられている他は、図2の画像表示装置と基本的に動揺に構成されている。
【0296】
図27の画像表示装置では、例えば、遠隔地などで記録されて順次送信されてくる現実重心データと画像データが受信され、現実重心データは動揺データ演算部38に、画像データはエンコーダ39に、それぞれ供給される。
【0297】
動揺データ演算部38は、現実重心データから、その現実重心データに対応する重心移動を生じさせるドーム11の動揺パターンを表す動揺データを演算する。
【0298】
即ち、図27の実施の形態では、動揺データ演算部38が、図4のデータ処理装置の重心対動揺応答生成部36においてあらかじめ求められた重心対動揺応答情報を記憶しており、その重心対動揺応答情報に基づき、遠隔地から順次送信されてくる現実重心データを、動揺データに変換する。
【0299】
そして、動揺データ演算部38は、現実重心データから求めた動揺データをエンコーダ39に供給する。エンコーダ39は、動揺データ演算部38からの動揺データと、遠隔地から順次送信されてくる画像データとを対応付けることにより、画像動揺情報とし、画像/動揺デコード部2に供給される。
【0300】
以降は、図2における場合と動揺の処理が行われ、これにより、ユーザは、遠隔地で記録された画像と動揺を、リアルタイムで享受することができる。
【0301】
【発明の効果】
以上の如く、本発明によれば、容易に、臨場感のある動揺感覚を、ユーザに感じさせることが可能となる。
【図面の簡単な説明】
【図1】従来の画像表示装置の一例の構成を示す図である。
【図2】本発明を適用した画像表示装置の第1実施の形態の構成例を示す図である。
【図3】画像表示装置の処理を説明するフローチャートである。
【図4】本発明を適用したデータ処理装置の一実施の形態の構成例を示すブロック図である。
【図5】現実重心データおよび画像データの取得方法を説明する図である。
【図6】平衡機能計55が時系列に出力する重心位置の座標によって描かれる重心位置の軌跡の例を示す図である。
【図7】対画像重心データと学習用重心データの取得方法を説明する図である。
【図8】データ処理装置の処理を説明するフローチャートである。
【図9】重心対動揺応答生成部36の第1の構成例を示すブロック図である。
【図10】動揺対重心応答関数推定部71の処理を説明する図である。
【図11】重心対動揺応答生成部36の処理を説明するフローチャートである。
【図12】重心対動揺応答生成部36の第2の構成例を示すブロック図である。
【図13】重心対動揺応答生成部36の処理を説明するフローチャートである。
【図14】動揺データ演算部38の構成例を示すブロック図である。
【図15】予測タップおよびクラスタップの構成方法を説明する図である。
【図16】動揺データ演算部38の処理を説明するフローチャートである。
【図17】重心対動揺応答生成部36の第3の構成例を示すブロック図である。
【図18】重心対動揺応答生成部36の処理を説明するフローチャートである。
【図19】重心対動揺応答生成部36の第4の構成例を示すブロック図である。
【図20】重心対動揺応答生成部36の第5の構成例を示すブロック図である。
【図21】本発明を適用した画像表示装置の第2実施の形態の構成例を示す図である。
【図22】画像表示装置の処理を説明するフローチャートである。
【図23】動揺データ更新部114の構成例を示すブロック図である。
【図24】動揺データ更新部114の処理の詳細を説明するフローチャートである。
【図25】新たな動揺データの生成方法を説明する図である。
【図26】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【図27】本発明を適用した画像表示装置の第3実施の形態の構成例を示す図である。
【符号の説明】
2 画像/動揺デコード部, 4 表示制御部, 7 椅子, 11 ドーム, 12 スクリーン, 13 平面ミラー, 14 球面ミラー, 21 画像動揺情報データベース, 23 動揺制御部, 25 モーションベース, 26 アーム, 31 現実重心データベース, 32 対画像重心データベース, 33 学習用動揺データベース, 34 学習用重心データベース, 35 画像データベース, 36 重心対動揺応答生成部, 37 動揺算出用重心データ演算部, 38 動揺データ演算部, 39 エンコーダ, 51 全方位カメラ, 52 球面ミラー, 53 ビデオカメラ, 54 画像記憶部, 55 平衡機能計, 56 重心記憶部, 61 学習用画像データベース, 62 学習用動揺データベース, 63 平衡機能計, 64 学習用重心データベース, 71 動揺対重心応答関数推定部, 72 重心対動揺応答関数演算部, 81 LUT生成部, 82 類似パターン統合部, 91 バッファ, 92 予測タップ抽出部, 93 クラスタップ抽出部, 94 クラス分類部, 95 係数記憶部, 96 積和演算部, 101 教師データメモリ, 102 生徒データメモリ, 103 予測タップ抽出部, 104 クラスタップ抽出部, 105 クラス分類部, 106 正規方程式加算部,107 タップ係数決定部, 111 平衡機能計, 112 交信用重心データベース, 113 現実重心データベース, 114 動揺データ更新部,121 ベクトル化部, 122 ノルム演算部, 123 評価部, 124 更新部, 125 基準データ記憶部, 201 バス, 202 CPU,203 ROM, 204 RAM, 205 ハードディスク, 206 出力部, 207 入力部, 208 通信部, 209 ドライブ, 210 入出力インタフェース, 211 リムーバブル記録媒体

Claims (23)

  1. 画像の表示を制御する表示制御装置において、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に前記画像を表示する表示手段を動揺させるための動揺データを受信する動揺データ受信手段と、
    前記動揺データにしたがい、前記表示手段に表示される前記画像に同期して、前記表示手段を動揺させる動揺手段を制御する動揺制御手段と
    を備え
    前記動揺制御手段がしたがう前記動揺データは、
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求め、
    現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づいて求める
    ことにより得られたものである
    ことを特徴とする表示制御装置。
  2. 前記動揺制御手段がしたがう前記動揺データは、
    現実世界で記録されたユーザの重心位置の変化である重心移動から、ユーザが前記画像を視聴することによってのみ生じる重心移動の影響を除去した重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づいて求める
    ことにより得られたものである
    ことを特徴とする請求項に記載の表示制御装置。
  3. 前記重心対動揺応答情報は、前記学習用の重心データと学習用の動揺データから求められた、前記重心データと動揺データとを対応付ける伝達関数である
    ことを特徴とする請求項に記載の表示制御装置。
  4. 前記重心対動揺応答情報は、前記学習用の重心データと学習用の動揺データから求められた、前記重心データと動揺データとを対応付けるルックアップテーブルである
    ことを特徴とする請求項に記載の表示制御装置。
  5. 前記重心対動揺応答情報は、前記学習用の重心データと学習用の動揺データから求められた、前記重心データから前記動揺データを求める所定の演算式の係数である
    ことを特徴とする請求項に記載の表示制御装置。
  6. 前記重心対動揺応答情報は、
    前記学習用の重心データを、前記係数の学習の生徒である生徒データとするとともに、前記学習用の動揺データを、前記係数の学習の教師である教師データとして、
    前記教師データを予測するための予測タップを、前記生徒データから構成し、
    前記予測タップと前記係数とを用いて、前記所定の演算式によって求められる前記教師データの予測値の予測誤差を統計的に最小にする前記係数を求める
    ことにより得られる前記係数である
    ことを特徴とする請求項に記載の表示制御装置。
  7. 前記動揺制御手段がしたがう前記動揺データは、
    前記学習用の重心データを用いたクラス分けにより、所定のクラスごとの前記重心対動揺応答情報を求め、
    現実世界で記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、そのユーザの重心移動を表す重心データを用いたクラス分けにより得られるクラスの前記重心対動揺応答情報に基づいて求める
    ことにより得られたものである
    ことを特徴とする請求項に記載の表示制御装置。
  8. 前記動揺データを記憶する動揺データ記憶手段と、
    前記動揺データ記憶手段に記憶された前記動揺データを更新する動揺データ更新手段と
    をさらに備え、
    前記動揺データ受信手段は、前記動揺データ記憶手段に記憶された前記動揺データを読み出すことにより、その動揺データを受信する
    ことを特徴とする請求項1に記載の表示制御装置。
  9. 前記表示手段を、前記動揺データ記憶手段に記憶された動揺データにしたがって動揺させたときの前記ユーザの重心を計測し、その重心の移動パターンを表す重心データを出力する重心計測手段をさらに備え、
    前記動揺データ更新手段は、前記重心計測手段から出力される前記重心データと、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動とを比較することにより、前記動揺データを更新する
    ことを特徴とする請求項に記載の表示制御装置。
  10. 前記表示手段および動揺手段をさらに備える
    ことを特徴とする請求項1に記載の表示制御装置。
  11. 画像の表示を制御する表示制御方法において、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に前記画像を表示する表示手段を動揺させるための動揺データを受信する動揺データ受信ステップと、
    前記動揺データ受信ステップにより受信された前記動揺データにしたがい、前記表示手段に表示される前記画像に同期して、前記表示手段を動揺させる動揺手段を制御する動揺制御ステップと
    含み、
    前記動揺制御ステップがしたがう前記動揺データは、
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求め、
    現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づいて求める
    ことにより得られたものである
    ことを特徴とする表示制御方法。
  12. 画像の表示を制御する表示制御処理を、コンピュータに行わせるプログラムにおいて、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に前記画像を表示する表示手段を動揺させるための動揺データを受信する動揺データ受信ステップと、
    前記動揺データ受信ステップにより受信された前記動揺データにしたがい、前記表示手段に表示される前記画像に同期して、前記表示手段を動揺させる動揺手段を制御する動揺制御ステップと
    含み、
    前記動揺制御ステップがしたがう前記動揺データは、
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求め、
    現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づいて求める
    ことにより得られたものである
    表示制御処理を、コンピュータに行わせることを特徴とするプログラム。
  13. 画像の表示を制御する表示制御処理を、コンピュータに行わせるプログラムが記録されている記録媒体において、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に前記画像を表示する表示手段を動揺させるための動揺データを受信する動揺データ受信ステップと、
    前記動揺データ受信ステップにより受信された前記動揺データにしたがい、前記表示手段に表示される前記画像に同期して、前記表示手段を動揺させる動揺手段を制御する動揺制御ステップと
    含み、
    前記動揺制御ステップがしたがう前記動揺データは、
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求め、
    現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づいて求める
    ことにより得られたものである
    表示制御処理を、コンピュータに行わせるプログラムが記録されている
    ことを特徴とする記録媒体。
  14. 現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを受信する現実重心データ受信手段と、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを、前記現実重心データを用いて求める動揺データ演算手段と
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成手段と
    を備え、
    前記動揺データ演算手段は、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づき、前記現実重心データを用いて求める
    ことを特徴とするデータ処理装置。
  15. 現実世界で記録されたユーザの重心位置の変化である重心移動から、ユーザが前記画像を視聴することによってのみ生じる重心移動の影響を除去する除去手段をさらに備え、
    前記動揺データ演算手段は、現実世界で記録されたユーザの重心位置の変化である重心移動から、ユーザが前記画像を視聴することによってのみ生じる重心移動の影響を除去した重心移動を生じさせる前記動揺データを、前記重心対動揺応答情報に基づいて求める
    ことを特徴とする請求項14に記載のデータ処理装置。
  16. 前記重心対動揺応答生成手段は、前記学習用の重心データと学習用の動揺データから、前記重心データと動揺データとを対応付ける伝達関数を、前記重心対動揺応答情報として求める
    ことを特徴とする請求項14に記載のデータ処理装置。
  17. 前記重心対動揺応答生成手段は、前記学習用の重心データと学習用の動揺データから、前記重心データと動揺データとを対応付けるルックアップテーブルを、前記重心対動揺応答情報として求める
    ことを特徴とする請求項14に記載のデータ処理装置。
  18. 前記重心対動揺応答生成手段は、前記学習用の重心データと学習用の動揺データから、前記重心データから前記動揺データを求める所定の演算式の係数を、前記重心対動揺応答情報として求める
    ことを特徴とする請求項14に記載のデータ処理装置。
  19. 前記重心対動揺応答生成手段は、
    前記学習用の重心データを、前記係数の学習の生徒である生徒データとするとともに、前記学習用の動揺データを、前記係数の学習の教師である教師データとして、
    前記教師データを予測するための予測タップを、前記生徒データから構成し、
    前記予測タップと前記係数とを用いて、前記所定の演算式によって求められる前記教師データの予測値の予測誤差を統計的に最小にする前記係数を、前記重心対動揺応答情報として求める
    ことを特徴とする請求項18に記載のデータ処理装置。
  20. 前記重心対動揺応答生成手段は、前記学習用の重心データを用いたクラス分けにより、所定のクラスごとに、前記重心対動揺応答情報を求め、
    前記動揺データ演算手段は、現実世界で記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、そのユーザの重心移動を表す重心データを用いたクラス分けにより得られるクラスの前記重心対動揺応答情報に基づいて求める
    ことを特徴とする請求項14に記載のデータ処理装置。
  21. 現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを受信する現実重心データ受信ステップと、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを、前記現実重心データ受信ステップにより受信された前記現実重心データを用いて求める動揺データ演算ステップと
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成ステップと
    を含み、
    前記動揺データ演算ステップは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答生成ステップにより求められた前記重心対動揺応答情報に基づき、前記現実重心データを用いて求める
    ことを特徴とするデータ処理方法。
  22. コンピュータに実行させるプログラムにおいて、
    現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを受信する現実重心データ受信ステップと、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを、前記現実重心データ受信ステップにより受信された前記現実重心データを用いて求める動揺データ演算ステップと
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成ステップと
    を含み、
    前記動揺データ演算ステップは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答生成ステップにより求められた前記重心対動揺応答情報に基づき、前記現実重心データを用いて求める
    処理を、コンピュータに実行させることを特徴とするプログラム。
  23. コンピュータに実行させるプログラムが記録されている記録媒体において、
    現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を表す重心データである現実重心データを受信する現実重心データ受信ステップと、
    ユーザの周囲を覆う形状の表示手段であって、その内壁に画像を表示する表示手段を動揺させるための動揺データを、前記現実重心データ受信ステップにより受信された前記現実重心データを用いて求める動揺データ演算ステップと
    前記表示手段を、学習用の動揺データにしたがって動揺させたときの前記ユーザの重心の移動パターンを表す学習用の重心データと、前記学習用の動揺データとから、前記表示手段の動揺と前記ユーザの重心移動との関係である重心対動揺応答情報を求める重心対動揺応答生成ステップと
    を含み、
    前記動揺データ演算ステップは、現実世界であらかじめ記録されたユーザの重心位置の変化である重心移動を生じさせる前記動揺データを、前記重心対動揺応答生成ステップにより求められた前記重心対動揺応答情報に基づき、前記現実重心データを用いて求める
    処理を、コンピュータに実行させるプログラムが記録されている
    ことを特徴とする記録媒体。
JP2002154628A 2002-05-28 2002-05-28 表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 Expired - Fee Related JP4048558B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002154628A JP4048558B2 (ja) 2002-05-28 2002-05-28 表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002154628A JP4048558B2 (ja) 2002-05-28 2002-05-28 表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP2003345324A JP2003345324A (ja) 2003-12-03
JP4048558B2 true JP4048558B2 (ja) 2008-02-20

Family

ID=29771382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002154628A Expired - Fee Related JP4048558B2 (ja) 2002-05-28 2002-05-28 表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体

Country Status (1)

Country Link
JP (1) JP4048558B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103760919A (zh) * 2014-01-23 2014-04-30 中国电影器材有限责任公司 用于影院的动感座椅的控制方法
CN108369366A (zh) * 2015-12-16 2018-08-03 索尼公司 图像显示装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224207A (ja) * 2009-03-24 2010-10-07 Olympus Corp 視覚刺激付与装置、及び生体情報計測システム
JP2013116773A (ja) * 2011-12-01 2013-06-13 Shimizu Corp タワークレーンの遠隔操作システム
JP2017126178A (ja) * 2016-01-13 2017-07-20 株式会社東海理化電機製作所 慣性駆動制御装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103760919A (zh) * 2014-01-23 2014-04-30 中国电影器材有限责任公司 用于影院的动感座椅的控制方法
CN103760919B (zh) * 2014-01-23 2016-09-07 中国电影器材有限责任公司 用于影院的动感座椅的控制方法
CN108369366A (zh) * 2015-12-16 2018-08-03 索尼公司 图像显示装置

Also Published As

Publication number Publication date
JP2003345324A (ja) 2003-12-03

Similar Documents

Publication Publication Date Title
US11669152B2 (en) Massive simultaneous remote digital presence world
US11845008B2 (en) Building virtual reality (VR) gaming environments using real-world virtual reality maps
JP6792039B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
Winkler et al. Questsim: Human motion tracking from sparse sensors with simulated avatars
JP2021534491A (ja) クロスリアリティシステム
JP2021082310A (ja) 拡張現実および仮想現実のためのシステムおよび方法
CN111597976A (zh) 一种基于rgbd相机的多人三维姿态估计方法
JP2018528509A (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
CN108629830A (zh) 一种三维环境信息显示方法及设备
JP4048558B2 (ja) 表示制御装置および表示制御方法、データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP2021039625A (ja) 物体数推定装置、物体数推定方法、および物体数推定プログラム
CN112242002A (zh) 基于深度学习的物体识别和全景漫游方法
KR20010043525A (ko) 화상 제공 장치 및 그 제공방법, 화상 처리 장치 및 그처리방법, 및 기억 매체
KR101907794B1 (ko) 360도 영상 전송 장치 및 방법
JP2005025762A (ja) デジタル画像のコーディング装置、コーディングシステム、およびコーディング方法
US11107364B2 (en) Method to enhance first-person-view experience
Zhao et al. Human motion reconstruction from monocular images using genetic algorithms
CN110782478A (zh) 运动合成装置和运动合成方法
WO2023189104A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN117389338B (zh) 无人机的多视角交互方法、装置及存储介质
WO2024131479A1 (zh) 虚拟环境的显示方法、装置、可穿戴电子设备及存储介质
JP4243931B2 (ja) 画像処理装置および画像処理方法、並びにプログラムおよび記録媒体
WO2024098163A1 (en) Neural hash grid based multi-sensor simulation
CN118138834A (zh) 一种视频生成方法和相关装置
CA2444492A1 (en) Processing system for interactive, personal and idiosyncratic control of images and devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071118

R151 Written notification of patent or utility model registration

Ref document number: 4048558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131207

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees