JPH07306955A - 三次元イリュージョンを生み出す方法およびシステム - Google Patents

三次元イリュージョンを生み出す方法およびシステム

Info

Publication number
JPH07306955A
JPH07306955A JP5155908A JP15590893A JPH07306955A JP H07306955 A JPH07306955 A JP H07306955A JP 5155908 A JP5155908 A JP 5155908A JP 15590893 A JP15590893 A JP 15590893A JP H07306955 A JPH07306955 A JP H07306955A
Authority
JP
Japan
Prior art keywords
image
virtual
images
observer
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5155908A
Other languages
English (en)
Inventor
Marshall M Monroe
マクローリー モンロー マーシャル
William G Redmann
ジー. レッドマン ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Walt Disney Co
Original Assignee
Walt Disney Co
Walt Disney Productions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Walt Disney Co, Walt Disney Productions Ltd filed Critical Walt Disney Co
Publication of JPH07306955A publication Critical patent/JPH07306955A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Abstract

(57)【要約】 【構成】 複数の視点位置の各々において、シーンの映
像が、その位置に対して正確な3次元透視図中に示さ
れ、また観察者が表示装置に対して移動することにより
表示された対象物の「後ろ」および「周り」を見ること
が出来る移動パララックスと共に示される。映像は、現
実世界に物理的に存在するスクリーンまたは他の面に、
またはデータによって表され、第2仮想空間中に「存在
する」仮想スクリーンまたは面に表示され得る。さら
に、映像は表示装置に対して観察者の視点が移動するに
つれてその移動に合わせて、リアルタイムで生み出さ
れ、表示され得る。または所望であれば、移動する視点
に合わせて後でリアルタイムで表示するために予め生み
出しておくことも出来る。 【効果】 広大な、歪みのない3次元空間のイリュージ
ョンを生み出すことが出来る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、コンピューター生成さ
れた2次元映像を表示することにより、大画面の3次元
イリュージョンを生み出す方法およびシステムに関す
る。
【0002】
【従来の技術】多くの遊園地には、観察者または「客」
が移動する乗物に座り、薄暗い(または「光制御され
た」)建物内の幻想的な魔法の世界に運ばれる類の、い
わゆる「ダークライド」がある。そのような乗物の例と
しては、客がトラック上を走る車に座り、吸血鬼または
他のキャラクターが住む土牢、続いて地上から甦る幽霊
のいる墓場といった様々なヴィスタを描写したセットを
抜けて移動するファンハウスがある。ダークライドは、
異なるセットを互いに連続的に融和するように慎重に統
合させることにより全体的に見て客に別世界に連れて来
られたようなイリュージョンを与えることを目的として
いる。
【0003】そのようなセットで3次元のイリュージョ
ンを生み出す際には、ダークライドは従来より、典型的
には、所望の情景を描く熟練職人による公知である種々
の劇場効果に依存してきた。3次元のイリュージョンを
生み出すためにとられる、そのような効果とは、あるシ
ーンが3次元であると人が認知するための1つ以上の手
掛かりを与えることを主としている。これらの認知上の
手掛かりとしては少なくとも以下のものが挙げられる:
(1)両眼用イリュージョン(両目間の距離を利用して
異なる映像を左目と右目それぞれに見せる);(2)移
動パララックス(2つの対象物が観察者との距離によっ
ては、互いに相関しながら動いているようにみえる);
(3)縮小(対象物が観察者との距離が遠のくにつれ短
縮するように見える);(4)空気遠近法(遠い対象物
ほどコントラストを失い、対象物と観察者との間に煙霧
がかかったようになる);(5)照明効果(反射効果
等);(6)陰影の形成(陰影の投射および形成);
(7)表面を重複させて隠す(前にある対象物は後ろに
ある対象物を妨げる、または覆い隠す);(8)遠近法
および収束法;および(9)視野の焦点長/深度(焦点
効果)。これらの認知上の手掛かりが映像中に多く含ま
れるほど、その手掛かりが正確に示されている限り、映
像は3次元であるとの認識(またはイリュージョン)が
より強く与えられる。
【0004】3次元のイリュージョンを生み出すために
以前よりダークライドにおいて用いられてきた劇場効果
の一例は強制的遠近法である。この技術は、奥行きのあ
る3次元空間を感じさせるために用いられる縮小法、そ
して時には空気遠近法(巧妙な修飾法または霧によっ
て)に依っている。強制的遠近法のセットでは、観察者
からの距離が増すほどモデルのスケールは縮小してい
く。例えば、小道がライドトラックから10フィート離
れた地点に原寸法で設けられ、トラックから20フィー
ト離れた地点では3分の1の寸法に縮小するかもしれな
い。そのような比率においての収束点は、乗物に乗って
いる客の視点からは、セットが100フィートを超える
奥行きを有している印象を与える。
【0005】セット設計者は強制遠近法セットにおける
多くの問題を有している。第1の問題は、これらのセッ
トが用いられるライドは壁が接近しておりまた空間が狭
いため圧迫感があり、不可能ではないにしても、大スケ
ールでのヴィスタの構築を困難にしている。別の問題
は、強制遠近法セットを用いることにより、奥行きの深
いイリュージョンを生み出すために本来なら必要とされ
る空間が削減され得るが、一方ではセットが忠実に3次
元世界をその空間に付与し得るのは一地点に対してだけ
であるという点である。しかし、セットを通過する客は
多くの地点からセットを見るうえ、しかもそのどの地点
もがその忠実な3次元世界を見れる一地点ではないかも
しれない。よって、強制遠近セットを通過する移動中の
客が映像中に移動パララックスを経験するが、それらの
映像は歪まれて認識されてしまう。
【0006】強制遠近セットのさらなる問題点は、セッ
トにおけるアニメーションの使用は、対象物が強制遠近
法によるイリュージョンと矛盾することなくセットの中
に入ったり、またはセットの外に出ることが出来ないと
いう制限を受ける点にある。なぜなら動く対象物のスケ
ールは典型的には変化しないからである。さらに、特殊
効果を製作するためにセットの1つ1つを精巧に爆発さ
せたり破壊させたりすることは、経費、または効果の再
利用が不可能であるといった理由のため実行不可能であ
る。
【0007】これらの問題点のいくつかを解決するた
め、「舞台裏」で大スケールのヴィスタを製作し、アニ
メーションを投影し、精巧な(破壊的ですらある)特殊
効果を行って、フィルムまたはビデオに録画する。その
後、そのフィルムまたはビデオを客が乗物で通過する時
にセット内のスクリーンに投影し得る。遠くの壁に雲お
よびライティングを設けること、対象物が遠くへ消えて
いくこと、幽霊が空に跳んでいくことが、投影技術によ
り達成され得る効果例である。物理的セット全体が雄大
なヴィスタをスクリーンに投影することで代替され得
る。
【0008】しかし、説得性のある3次元イリュージョ
ンを生み出し、それを維持することが所望である場合の
プロジェクションには、セット上の問題がある。第1の
問題はスクリーンに普通に投影すると2次元であると認
識される2次元映像しか得られないという点である。な
ぜなら、ビデオおよびフィルムでイメージを生じさせる
ための標準システムにおいては、各シーンを表示された
映像を見る観察者の視点と必ずしも一致していないカメ
ラ視点から各シーンを撮影しているからである。得られ
たビデオまたはフィルムは観察者に正しい認識のための
手掛かりを、とりわけ遠近法および移動パララックスの
手掛かりを与えず、その結果映像は2次元の平面的なも
のとして認識される。これにより現実世界のセットまた
はヴィスタ中の、物理的プロップを、そのプロップまた
はセットの投影された映像の中にリアルに溶け込ませる
こと、または一部とすることは非常に困難となる。普通
のプロジェクションは、これらの理由により、典型的に
は遠くの景色を映しだす場合のみ許容し得ることであ
る。
【0009】視点調節に関わるこの問題を解決するため
に従来より模索されてきた方法は、乗物および乗客がシ
ーンが映し出される映写スクリーンに対して移動する際
と、実質的に同一の速度で、同一の通路に沿って、かつ
そのシーンに対して同一の距離で移動するドリーまたは
他の乗物に据え付けたカメラでシーンを録画する方法で
ある。カメラがシーンに近づき、通過し、遠ざかるにつ
れ、カメラはフィルムまたはカメラの映像平面を中心に
してシーンを「追いかける」ように回転する。再生時
は、客の乗った乗物が、シーンを録画した時の各瞬間に
おけるカメラとほぼ同様にスクリーンに対するように、
乗物がスクリーンを通過する際の動きと同調させて静止
スクリーンにシーンを投影する。このように、客はシフ
トする客の視点とほぼ同様に絶えずシフトする視点から
撮られたシーンを見ることになる。その結果、表示され
た映像中に移動パララックスのイリュージョンが生み出
され、客は現実世界におけるように対象物の「周り」お
よび「背景」を見ることが出来る。
【0010】前述の従来技術の同時移動パララックス技
術により、とりわけ立体鏡映像と組み合わせることによ
り、映像の2次元プロジェクションに3次元の趣を付与
することが出来る一方で、映像の録画および引き続いて
の再生はキーストーン歪曲を生じせしめる。遠近法が不
正確に行われると、この歪曲は3次元のイリュージョン
を損なわせる。
【0011】従来の移動パララックス技術に関わる別の
問題点は、移動パララックスによる3次元のイリュージ
ョンは、シーンを録画した時のカメラと同じ軌跡を同調
してたどる客にしか適切に認知され得ないという点にあ
る。投影されたシーンを見る時の客の位置がそのシーン
を録画する時のカメラの位置と合っていなければ、自然
な3次元イリュージョンは得られない。
【0012】これらの制限により、プロジェクションシ
ーンの前で所定の軌跡をたどることなく客が自由に歩行
または移動出来る状況下では、同調移動パララックスプ
ロジェクションは効果的な3次元イリュージョンを生み
出さない。
【0013】2次元の表面に映像を表示(スクリーンに
投影するなど)して、3次元イリュージョンを製作する
別の公知の方法は立体鏡映像に依存している。この方法
では左目と右目に別々の映像が示される。別々の映像
は、客が適切な光学フィルターを通して映像を見る時、
ある映像は適切とされる目の方でしかとらえられず、客
の脳で「融合され」または溶け合わされるように録画お
よび表示される。これは人の目と目の間が離れているこ
とを利用して、表示された映像に3次元イリュージョン
を製作するものである。電子的に閉じられたレンズ、偏
光レンズ、色つきフィルター、ホログラフィー光学素子
または他の素子を有するメガネが通常映像をフィルター
にかけ、効果を生み出すために用いられる。
【0014】しかし、従来の立体鏡表示装置もまた問題
がある。立体鏡映像表示装置だけでは、表示された映像
中に正確な移動パララックス、および認知上の手掛かり
を、表示装置に対して移動する観察者に与えられない。
よって、立体鏡表示装置のみで表された3次元イリュー
ジョンは完全でない。
【0015】
【発明が解決しようとする課題】前述のように、映像を
観る客が表示装置に対して任意の、または所定の方法で
場所を移動しても、その客が奥行きのある3次元の自
然、かつ歪みのないイリュージョンを認知し得るように
2次元映像を面に表示する方法およびシステムが所望さ
れる。
【0016】さらに、現実世界のプロップと溶けあって
見える映像中の対象物を含む映像を、映像にまで伸張す
るプロップのイリュージョンを示すために(またはその
逆)対象物およびプロップが互いの中へ次元的に伸張す
るように、表示するような方法およびシステムが所望さ
れる。
【0017】さらに移動パララックスおよび両眼用映像
を認知する手掛かりを観察者に与えるために、面に遠近
法によった映像を立体鏡的に表示するような方法および
システムが所望される。
【0018】本発明の目的は、規定の軌跡に沿って移動
する乗物に乗っている一人以上の客に対して、2次元映
像を表示することにより、静的または動的対象物で満た
され得る、広大な、歪みのない3次元空間のイリュージ
ョンを生み出すことである。本発明の別の目的は、表示
されたシーンを見る客が規定または所定の軌跡に沿って
移動する必要なく、また特殊な観察装置を身につけるこ
となく、3次元のイリュージョンを生み出すことであ
る。
【0019】本発明のさらなる目的は表示装置および対
象物に対して客が場所を移動する際に表示された映像が
現実世界の対象物と溶けあって見えるように、お互いに
次元的に伸張するような、3次元イリュージョンを生み
出すことである。
【0020】本発明のさらなる別の目的は、移動パララ
ックスおよび両眼用映像を含めた3次元を認知する手掛
かりを観察者に与える、立体鏡映像を表示するような3
次元イリュージョンを生み出すことである。
【0021】
【課題を解決するための手段】1つの局面に従えば、本
発明の方法は、少なくとも1つの仮想対象物を含む第1
仮想空間の複数の映像を連続的に表示する方法である。
対象物は3次元の対象物データにより表され、第1仮想
空間中の位置に配置される。映像は、第2空間中に表示
面の位置を有する表示面上に、第2空間中の複数の視点
から見る観察者に対して表示される。視点のそれぞれ
は、複数の映像の内の異なる1つに対応しており、かつ
表示面の位置に対して異なる位置を有するものである。
また、その方法は、第1および第2空間の関係を、1つ
の空間中の位置が他方の空間中に対応する位置を有する
ように規定するステップ;複数の映像のそれぞれに対し
て、プロジェクションの中心点に対する変換を通して対
象物データを変換することにより対象物の映像データを
作成するステップであって、プロジェクションの中心点
に対して、対象物の少なくとも一部分は第1視界の範囲
をそれぞれ定め、プロジェクションの中心点は第1空間
中の位置であって、映像に対応した第2空間における視
点の位置に対応する位置と実質的に一致する位置に配置
されるステップ;映像データを基にして複数の映像を生
成するステップ;および対象物の少なくとも一部分にお
けるそれぞれの映像が、映像に対応した視点に対する第
2視界の範囲をそれぞれ定めるように、第2空間中の表
示面上に複数の映像を表示するステップを包含する。変
換は、複数の映像のそれぞれに対して、第1および第2
視界のそれぞれが実質的に同一となるように選択され
る。
【0022】好適な実施態様では、上記変換ステップ
は、第1視界内に含まれる対象物上の点を、プロジェク
ションの中心点に向かって、第1視界の範囲を定める視
界面上に投影するステップ;および第1および第2視界
のそれぞれが実質的に同一となるように、視界面の位置
を選択するステップを包含する。
【0023】好適な実施態様では、上記方法は、映像の
それぞれに対して、第2空間に位置する表示面と実質的
に平行となるように、第1空間中に視界面を配置するス
テップをさらに包含する。
【0024】好適な実施態様では、上記表示面が実質的
に平坦であり、視界面が視界平面である。
【0025】好適な実施態様では、上記表示面が湾曲し
ており、上記視界面が視界平面であり、上記方法は、表
示面の湾曲面に接している第2空間中の平面に対応する
第1空間中に位置する平面と実質的に平行になるように
第1空間中の視界平面を配するステップをさらに包含す
る。
【0026】好適な実施態様では、上記映像は、第2座
標システム中の位置から表示面上への物理的なプロジェ
クションにより表示され、その位置は、表示面の実質的
中心点と交差する線であって、表示面に対して実質的に
垂直である線と同軸上にある。
【0027】好適な実施態様では、上記映像は、第2座
標システム中の位置から表示面上への光学的なプロジェ
クションにより表示され、その位置は、表示面の実質的
中心点と交差する線であって、表示面に対して実質的に
垂直である線の軸からそれた位置にあり、軸からそれた
プロジェクションは投影された映像中に歪曲を生じさ
せ、上記変換ステップは、プロジェクションの中心点に
向かって、第1視界内に含まれる対象物上の点を、第1
視界の範囲を定める視界面上に投影するステップ;およ
び第1および第2視界が実質的に同一となるように、歪
曲を補正するために視界面の位置を選択するステップを
包含する。
【0028】好適な実施態様では、上記の映像データ作
成ステップ、生成ステップ、および表示ステップが、観
察者が表示面に対してある視点位置から別の視点位置に
移動するとリアルタイムで行われる。
【0029】好適な実施態様では、上記表示面に対する
複数の視点位置が予め決められている。
【0030】好適な実施態様では、観察者が表示面に対
して所定の軌跡に沿って移動し、複数の視点位置が所定
の軌跡上にある。または、観察者が表示面に対して任意
の軌跡に沿って移動し、複数の視点位置のそれぞれが任
意の位置にある。または、観察者が表示面に対して所定
の軌跡に沿って少なくとも第2の観察者と共に移動し、
複数の視点位置のそれぞれが観察者の集団付近にある。
【0031】好適な実施態様では、第2空間が現実世界
中の空間であり、表示面が現実世界に物理的に存在する
セットの少なくとも一部分を形成し、表示面およびセッ
トが複数の視点のそれぞれから観察者によって集団で見
られるように配置される。また上記方法は、セット内の
対象物の現実世界での所望の位置に対応する第1空間中
の位置に対象物を配置するステップをさらに包含し、そ
れにより、対象物の表示された映像が、観察者がある視
点位置から別の視点位置に移動するにつれて、対象物が
現実世界内の所望の位置に、3次元的に物理的に存在し
ているといるイリュージョンを観察者に与える。
【0032】好適な実施態様では、現実世界のセットは
現実世界中の位置に物理的に存在するプロップの一部分
を含み、対象物はプロップの仮想部分を表す。また上記
方法は、プロップの仮想部分の表示された映像およびプ
ロップの現実世界部分の姿が単一の密着したプロップで
あると見えるように、第1空間中のプロップの仮想部分
を現実世界プロップの一部分の現実世界における位置に
対応する位置に対する位置に配置するステップをさらに
包含し、それにより、観察者がある視点位置から別の視
点位置に移動するにつれて、プロップの仮想部分の表示
された映像およびプロップの現実の部分は共通の遠近法
による消滅点に向かって視覚的に遠のくように、また互
いに単一の密着したプロップに一致する移動パララック
スを示しているように観察者には見える。
【0033】好適な実施態様では、プロップの現実世界
の部分が仮想プロップの映像と適合するように実質的に
表示面に対して配置される。
【0034】好適な実施態様では、プロップの現実世界
の部分が表示面から離れて配置される。
【0035】好適な実施態様では、上記方法は、対象物
を、表示面の前にある第2空間中の位置に対応する位置
であって、少なくとも部分的に複数の視点の第2視界内
の第1空間中の位置に配置するステップをさらに包含す
る。
【0036】好適な実施態様では、上記方法は、仮想対
象物を、仮想表示面の後ろにある第2仮想空間中の位置
に対応する第1空間中の位置に配置するステップをさら
に包含する。
【0037】好適な実施態様では、上記方法は、対象物
の少なくとも一部分が表示面の後ろにある第2空間中の
位置に対応する第1空間中の位置にくるように、かつ、
対象物の別の部分が表示面の前にある、第2空間中の位
置に対応する第1空間中の位置であって、複数の視点の
第2視界内の位置にくるように、対象物を第1空間中に
配置するステップをさらに包含する。
【0038】好適な実施態様では、上記複数の視点位置
が第1の複数の視点位置であり、対応映像が第1対応映
像である。また上記方法は、第2複数の視点位置を決定
するステップであって、第2複数の視点位置のそれぞれ
は第1複数の視点位置のそれぞれに対応し、かつ、眼間
オフセットの距離だけ対応する第1視点位置から離れて
いる、ステップ;表示面に対象物の第2複数の映像を与
えるために、再び作成、生成、および表示ステップを第
2複数の視点位置のそれぞれに対して行うステップをさ
らに包含する。また観察者に同時に第2映像および対応
する第1映像を認識させるために、第2複数の映像のそ
れぞれを表示する表示ステップが第1複数の映像のうち
対応する映像を表示する表示ステップと十分に密接した
時間帯で行われる。
【0039】好適な実施態様では、上記方法は、第1複
数の映像のそれぞれを第1視点に位置する観察者の第1
の目に実質的に見せ、第2複数の映像のそれぞれを第2
視点に位置する観察者の第2の目のみに実質的に見せる
ステップをさらに包含し、それにより、複数の視点位置
にいる観察者は、表示された対象物の両眼用映像を見
る。
【0040】好適な実施態様では、上記方法は、第2空
間中の観察者の位置を決定するステップ;および観察者
が複数の視点位置のうち実質的に異なる位置にいると決
定されると、視点位置に対応する対象物の映像を応答的
に表示するステップをさらに包含する。
【0041】好適な実施態様では、観察者は映像装置の
視界内を移動する。また上記方法は、映像装置が見る第
1および第2映像を、第1および第2の瞬間それぞれに
おいて記憶するステップであって、映像のそれぞれは、
第1および第2の符号化された輝度値を有する明確な映
像ロケーションに各第1および第2複数の画素を含む、
ステップ;輝度値が第1および第2映像間で変化した能
動画素である少なくとも1つの画素の映像ロケーション
を同定するために、第1および第2映像の一方の画素輝
度値を、第1および第2映像の他方の対応する画素輝度
値と比較するステップ;および複数の視点位置の異なる
位置を決定するために、少なくとも1つの能動画素の映
像ロケーションを基にして移動する観察者の位置を計算
するステップをさらに包含する。
【0042】好適な実施態様では、上記映像装置の視界
は、複数の探知領域を含む。また上記方法は、移動する
対象物が複数の探知領域の異なる領域にある時を決定す
るステップをさらに包含する。
【0043】好適な実施態様では、上記方法は、記録媒
介上に生成映像を記録するステップをさらに包含し、そ
の表示ステップは記録された生成映像を再生することに
より行われる。
【0044】好適な実施態様では、上記記録媒介はビデ
オディスクおよびビデオテープの少なくとも1つであ
る。
【0045】好適な実施態様では、上記複数の映像のそ
れぞれが、観察者が映像に対応する視点位置に実質的に
いると決定された時にリアルタイムで表示される。
【0046】好適な実施態様では、観察者が少なくとも
第2の観察者と共に表示面に対して移動し、複数の視点
位置のそれぞれが、第2空間内の観察者の集団付近にあ
る。
【0047】好適な実施態様では、観察者および第2の
観察者が1つの乗物に乗って移動し、複数の視点位置の
それぞれが乗物付近にある。
【0048】好適な実施態様では、第1および第2空間
の関係は、1対1(1:1)にスケールされた関係であ
る。または、第1および第2空間の関係は、1対1
(1:1)以外にスケールされた関係である。
【0049】好適な実施態様では、上記表示面が少なく
とも表示スクリーンの一部分を包含する。または、表示
面が表示スクリーンの全てを実質的に包含する。
【0050】好適な実施態様では、上記表示面が静止し
ており、観察者が静止表示面に対して第1空間中を移動
することにより、複数の視点が生じる。
【0051】好適な実施態様では、上記方法は、規定、
作成、生成、および表示ステップを別の第1仮想空間お
よび別の表示面に対して繰り返すステップをさらに包含
し、それにより、第1仮想空間の複数の映像が、複数の
視点位置において観察者に見られるように複数の表示面
上に表示される。
【0052】好適な実施態様では、複数の映像が観察者
に同時に見られるように表示される。または、複数の映
像が観察者に連続的に見られるように表示される。
【0053】好適な実施態様では、第1仮想空間が異な
る3次元データからモデル化される。または、第1仮想
空間が同一の3次元データからモデル化される。
【0054】別の局面に従えば、本発明の方法は、少な
くとも1つの仮想対象物を含む第1仮想空間の複数の映
像を連続的に表示する方法である。対象物は3次元対象
物データにより表され、第1仮想空間中の位置に配置さ
れる。映像は仮想表示面上に表示され、仮想表示面は第
2仮想空間中に仮想表示面位置を有しており、第2仮想
空間中の複数の視点から観察者が仮想表示面を見てお
り、複数の視点のそれぞれは表示面の位置に対して複数
の映像のうち異なる1つに対応している。またその方法
は、第1および第2仮想空間の関係を、1つの空間にお
ける位置が他方の空間において対応する位置を有するよ
うに規定するステップ;複数の映像のそれぞれに対し
て、プロジェクションの中心点に対する変換を通して対
象物データを変換することにより対象物の映像データを
作成するステップであって、プロジェクションの中心点
に対して対象物の少なくとも一部分は第1視界の範囲を
それぞれ定め、プロジェクションの中心点は第1空間中
の位置であって、映像に対応した第2仮想空間における
視点の位置に対応する位置と実質的に一致する位置に配
置される、ステップ;複数の映像のそれぞれに対する映
像データを、複数の2次元の映像テクスチャーのそれぞ
れを表わすテクスチャーデータとして記憶するステッ
プ:複数の映像テクスチャーのそれぞれを仮想表示面を
形成する面上に写像することにより、複数の異なる映像
のそれぞれを観察者に対して表示するステップであっ
て、仮想面上にテクスチャー写像された対象物の少なく
とも一部分の各映像が対応する視点に対して第2視界の
範囲を定めるように、観察者の視点が映像に対応する視
点位置の付近にある時に映像のそれぞれはテクスチャー
により表示される、ステップを包含する。変換は、複数
のテクスチャー写像された映像のそれぞれに対して、第
1および第2視界が実質的に同一となるように選択され
る。
【0055】好適な実施態様では、上記テクスチャーが
仮想空間の一部分上に写像される。好適な実施態様で
は、上記方法は、規定、作成、記憶、および表示ステッ
プを別の第1仮想空間および別の仮想表示面に対して繰
り返すステップをさらに包含し、それにより、第1仮想
空間の複数の映像が複数の視点位置にいる観察者に見ら
れるように同時に表示される。
【0056】好適な実施態様では、第1仮想空間中の仮
想対象物が、第2仮想空間を描写する際に用いられる技
術とは異なる描写技術により描写される。
【0057】好適な実施態様では、観察者が第2仮想空
間中のある視点位置から別の視点位置に移動するにつれ
て、表示ステップがリアルタイムで行われる。
【0058】好適な実施態様では、複数の視点位置が予
め決められている。
【0059】好適な実施態様では、複数の所定の視点が
所定の軌跡に沿っている。
【0060】好適な実施態様では、仮想表示面が第2仮
想空間中の位置で静止しており、観察者の視点が第2仮
想空間の異なる位置間を移動することにより複数の視点
が生じる。
【0061】好適な実施態様では、観察者の視点が第2
仮想空間中の位置で静止しており、仮想の表示面が第2
仮想空間の対応する複数の位置間を移動することにより
複数の視点が生じる。
【0062】好適な実施態様では、上記方法は、第1仮
想空間中の仮想対象物を仮想表示面の前にある第2仮想
空間中の位置に対応する位置に配置するステップをさら
に包含する。
【0063】好適な実施態様では、上記方法は、第1仮
想空間中の仮想対象物を仮想表示面の後ろにある第2仮
想空間中の位置に対応する位置に配置するステップを包
含する。
【0064】好適な実施態様では、上記方法は、仮想対
象物の一部分が仮想表示面の後ろにある第2仮想空間中
の位置に対応する第1仮想空間の位置にくるように、ま
た、仮想対象物の別の部分が仮想表示面の前にある第2
仮想空間中の位置に対応する第1仮想空間中の位置にく
るように、仮想対象物を配置するステップをさらに包含
する。
【0065】好適な実施態様では、第1および第2仮想
空間の関係は、1対1(1:1)にスケールされた関係
である。または、第1および第2仮想空間の関係は1対
1(1:1)以外にスケールされた関係である。
【0066】さらに別の局面に従えば、本発明のシステ
ムは、少なくとも1つの仮想対象物を含む第1仮想空間
の複数の映像を連続的に表示する。対象物は3次元対象
物データにより表され、第1仮想空間中の位置に配置さ
れる。映像は表示面上に表示され、表示面は第2空間中
に表示面位置を有しており、第2空間中の複数の視点か
ら観察者が表示面を見ており、複数の視点のそれぞれは
表示面の位置に対して複数の映像の内の異なる1つに対
応する。またそのシステムは、第1および第2空間の関
係を、1つの空間における位置が他方の空間において対
応する位置を有するように規定する手段;複数の映像の
それぞれに対して、プロジェクションの中心点に対する
変換を通して対象物データを変換することにより対象物
の映像データを作成する手段であって、プロジェクショ
ンの中心点に対して対象物の少なくとも一部分が第1視
界の範囲をそれぞれ定め、プロジェクションの中心点は
第1空間中の位置であって、映像に対応した第2空間に
おける視点の位置に対応する位置と実質的に一致する位
置に配置される、手段;映像データを基にして複数の映
像を生成する手段;および対象物の少なくとも一部分に
おけるそれぞれの映像が、映像に対応した視点に対する
第2視界の範囲をそれぞれ定めるように、第2空間中の
表示面上に複数の映像を表示する手段を備えている。ま
た変換は、複数の映像のそれぞれに対して、第1および
第2視界のそれぞれが実質的に同一となるように選択さ
れる。
【0067】好適な実施態様では、上記作成手段は、第
1視界に含まれる対象物上の点を、プロジェクションの
中心点に向かって、視界平面上に投影する手段であっ
て、視界平面は第1視界の範囲を定め、第1および第2
視界が実質的に同一となるように配置される、手段をさ
らに備えている。
【0068】好適な実施態様では、映像それぞれに対し
て、第1空間中の視界面が、第2空間に位置する表示面
と実質的に平行となるように配置されている。
【0069】好適な実施態様では、上記表示面が実質的
に平坦であり、上記視界面が視界平面である。
【0070】好適な実施態様では、上記表示面が湾曲し
ており、上記視界面が視界平面であり、視界平面が、表
示面の湾曲面に接している第2空間の平面に対応する第
1空間中に位置する平面と実質的に平行になるように、
第1空間中に配置されている。
【0071】好適な実施態様では、上記表示手段が各映
像を表わす光を第2座標システム中の位置から表示面に
投射するプロジェクターを含み、その位置は、表示面の
実質的中心点と交差する線であって、表示面に対して実
質的に垂直である線と同軸上にある。
【0072】好適な実施態様では、上記表示手段が各映
像を表わす光を第2座標システム中の位置から表示面に
投射するプロジェクターを含み、その位置は、表示面の
実質的中心点と交差する線であって、表示面に対して実
質的に垂直である線の軸からそれた位置にあり、軸から
それたプロジェクションは投影された映像中に歪曲を生
じさせる。また上記作成手段は、プロジェクションの中
心点に向かって、第1視界内に含まれる対象物上の点
を、視界面に投影する手段であって、視界面は第1視界
の範囲を定め、かつ、第1および第2視界が実質的に同
一となるように歪曲を補正する位置に配置される、手段
を備えている。
【0073】好適な実施態様では、上記の映像データ作
成手段、生成手段および表示手段が、観察者が表示面に
対してある視点位置から別の視点位置に移動するにつれ
てリアルタイムで機能を発揮するように作動させられ
る。
【0074】好適な実施態様では、上記表示面に対する
複数の視点位置が予め決められている。
【0075】好適な実施態様では、観察者が表示面に対
して所定の軌跡に沿って移動し、複数の視点位置のそれ
ぞれが所定の軌跡上にある。または、観察者が表示面に
対して任意の軌跡に沿って移動し、複数の視点位置のそ
れぞれが任意の位置にある。好適な実施態様では、観察
者が少なくとも第2の観察者と共に表示面に対して所定
の軌跡に沿って移動し、複数の視点位置のそれぞれが観
察者の集団付近にある。
【0076】好適な実施態様では、第2空間が現実世界
中の空間であり、表示面が現実世界に物理的に存在する
セットの少なくとも一部分であり、表示面およびセット
が複数の視点のそれぞれから観察者が集団で見れるよう
に配置される。また上記システムは、セット内の対象物
の現実世界での所望の位置に対応する第1空間中の位置
に対象物を配置する手段をさらに備えており、それによ
り、対象物の表示された映像が、観察者がある視点位置
から別の視点位置に移動するにつれて、対象物が現実世
界内の所望の位置に、3次元中に物理的に存在している
というイリュージョンを観察者に与える。
【0077】好適な実施態様では、現実世界のセットは
現実世界中の位置に物理的に存在するプロップの一部分
を含み、対象物はプロップの仮想部分を表す。また上記
システムは、プロップの仮想部分の表示された映像およ
びプロップの現実世界部分の姿が単一の密着したプロッ
プであると見えるように、第1空間中のプロップの仮想
部分を現実世界プロップ部分の現実世界における位置に
対応する位置に対する位置に配置する手段をさらに備え
ており、それにより、観察者がある視点位置から別の視
点位置に移動すると、プロップの仮想部分の表示された
映像およびプロップの現実の部分は共通の遠近法による
消滅点に向かって遠のくように、また互いに単一の密着
したプロップに一致する移動パララックスを示している
ように観察者には見える。
【0078】好適な実施態様では、プロップの現実世界
の部分が仮想プロップの映像と適合するように実質的に
表示面に対して配置される。
【0079】好適な実施態様では、プロップの現実世界
の部分が表示面から離れて配置される。
【0080】好適な実施態様では、上記システムは、対
象物を、表示面の前にある第2空間中の位置に対応する
位置であって、少なくとも部分的に複数の視点の第2視
界内にある第1空間中の位置に配置する手段をさらに備
えている。
【0081】好適な実施態様では、上記システムは、仮
想対象物を、仮想表示面の後ろにある第2仮想空間中の
位置に対応する、第1仮想空間中の位置に配置する手段
をさらに備えている。
【0082】好適な実施態様では、上記システムは、対
象物の少なくとも一部分が表示面の後ろにある第2空間
中の位置に対応する第1空間の位置にくるように、ま
た、対象物の別の部分が表示面の前にある第2空間中の
位置に対応する位置であって、複数の視点の第2視界内
にある第1空間中の位置にくるように、対象物を第1空
間中に配置する手段をさらに備えている。
【0083】好適な実施態様では、上記複数の視点位置
が第1複数の視点位置であり、上記対応映像が第1対応
映像である。また上記システムは、第2複数の視点位置
を決定する手段であって、第2複数の視点位置のそれぞ
れは第1複数の視点位置のそれぞれに対応し、かつ、眼
間オフセットの距離だけ対応する第1視点位置から離れ
ている、手段; 表示面に対象物の第2複数の映像を与
えるために、再び作成、生成、および表示手段を第2複
数の視点位置のそれぞれに対して行う手段を備えてい
る。また観察者に同時に第2映像および対応する第1映
像を認識させるために、各第2複数の映像を表示する表
示手段が第1複数の映像のうち対応する映像を表示する
表示手段と十分に密接した時間帯で行われる。
【0084】好適な実施態様では、第1複数の視点位
置、および第2複数の視点位置のうち対応する視点位置
それぞれが一組の視点位置を構成する。また上記システ
ムは、第1複数の映像を第1視点に位置する観察者の第
1の目のみに、また第2複数の映像を第2視点に位置す
る観察者の第2の目のみに実質的に見せる光学手段をさ
らに備えており、それにより、観察者は複数の一組ずつ
の視点位置のそれぞれにおいて、対象物の両眼用映像を
見る。
【0085】好適な実施態様では、上記光学手段が観察
者が掛ける眼鏡である。
【0086】好適な実施態様では、上記システムは、第
2空間における観察者の位置を決定する手段をさらに備
えており、上記表示手段は、観察者が複数の視点位置の
うち実質的に異なる位置にいると決定されると、視点位
置における対象物の映像を表示するように機能する。
【0087】好適な実施態様では、観察者は映像装置の
視界内を移動する。また上記システムは、映像装置が見
る第1および第2映像を、第1および第2の瞬間それぞ
れにおいて記憶する手段であって、映像それぞれは、第
1および第2の各第1および第2の符号化された輝度値
を有する明確な映像ロケーションに各第1および第2複
数の画素を含む、手段;輝度値が第1および第2映像間
で変化する能動画素である少なくとも1つの画素の映像
ロケーションを同定するために、第1および第2映像の
一方の画素輝度値を、第1および第2映像の他方に対す
る画素輝度値と比較する手段;および複数の視点位置の
異なる位置を決定するために、少なくとも1つの能動画
素の映像ロケーションを基にして移動する観察者の位置
を計算する手段をさらに備えている。
【0088】好適な実施態様では、上記映像装置の視界
は、複数の探知領域を含む。また上記システムは、移動
する対象物が複数の探知領域の異なる領域にある時を決
定する手段をさらに備えている。
【0089】好適な実施態様では、上記異なる位置が観
察者の既知の速度および軌跡を基にして観察者の位置を
計算することにより決定される。
【0090】好適な実施態様では、上記決定手段は第2
空間中の既知の位置にある少なくとも1つの位置センサ
を含む。
【0091】好適な実施態様では、上記システムは、記
録媒介上に生成映像を記録する手段をさらに備えてい
る。また上記表示手段は記録された生成映像を再生す
る。
【0092】好適な実施態様では、上記記録媒介はビデ
オディスクおよびビデオテープの少なくとも1つであ
る。
【0093】好適な実施態様では、映像のそれぞれが、
観察者が映像に対応する視点位置に実質的にいると決定
された時にリアルタイムで表示される。
【0094】好適な実施態様では、観察者が少なくとも
第2の観察者と共に表示面に対して移動し、複数の視点
位置のそれぞれが、第2空間内の観察者の集団付近にあ
る。好適な実施態様では、観察者および第2の観察者が
1つの乗物に乗って移動し、複数の視点位置のそれぞれ
が乗物付近にある。
【0095】好適な実施態様では、第1および第2空間
の関係は1対1(1:1)にスケールされた関係であ
る。または、第1および第2空間の関係は1対1(1:
1)以外にスケールされた関係である。
【0096】好適な実施態様では、上記表示面が少なく
とも表示スクリーンの一部分を含む。または、上記表示
面が表示スクリーンの全てを実質的に含む。
【0097】好適な実施態様では、上記表示面が静止し
ており、観察者が静止表示面に対して第1空間中を移動
することにより、複数の視点が生じる。
【0098】好適な実施態様では、上記システムは、規
定、作成、生成、および表示手段を別の第1仮想空間お
よび別の表示面に対して繰り返す手段、をさらに備えて
おり、それにより、第1仮想空間の複数の映像が、複数
の視点位置において観察者に見られるように複数の表示
面上に表示される。
【0099】好適な実施態様では、上記複数の映像は観
察者に同時に見られるように表示される。または、上記
複数の映像は観察者に連続的に見られるように表示され
る。好適な実施態様では、上記第1仮想空間が異なる3
次元データからモデル化される。または、上記第1仮想
空間が同一の3次元データからモデル化される。
【0100】さらに別の局面に従えば、本発明のシステ
ムは、少なくとも1つの仮想対象物を含む第1仮想空間
の複数の映像を連続的に表示する。対象物は3次元対象
物データにより表され、第1仮想空間中の位置に配置さ
れる。映像は仮想表示面上に表示され、仮想表示面は第
2仮想空間中に仮想表示面位置を有し、第2仮想空間中
の複数の視点から観察者が仮想表示面を見る。視点のそ
れぞれは複数の異なる映像の1つに対応しており、表示
面の位置に対して異なる位置を有している。またそのシ
ステムは、第1および第2仮想空間の関係を、1つの空
間における位置が他方の空間において対応する位置を有
するように規定する手段;複数の映像のそれぞれに対し
て、プロジェクションの中心点に対する変換を通して対
象物データを変換することにより対象物の映像データを
作成する手段であって、プロジェクションの中心点に対
して対象物の少なくとも一部分が第1視界の範囲を定
め、プロジェクションの中心点は第1仮想空間中の位置
であって、映像に対応する第2仮想空間中の視点の位置
に対応する位置と実質的に一致する位置に配置される、
手段;複数の映像のそれぞれに対する映像データを、複
数の2次元の映像テクスチャーのそれぞれを表わすテク
スチャーデータとして記憶する手段;複数の映像テクス
チャーのそれぞれを仮想表示を形成する面上に写像する
ことにより、複数の異なる映像のそれぞれを観察者に対
して表示する手段であって、仮想面上にテクスチャー写
像された対象物の少なくとも一部分の各映像が対応する
視点に対して第2視界の範囲を定めるように、各映像は
観察者の視点が映像に対応する視点位置の付近にある時
にそれぞれのテクスチャーにより表示される、手段をさ
らに備えている。変換は、複数のテクスチャー写像され
た映像のそれぞれに対して、第1および第2視界が実質
的に同一となるように選択される。
【0101】好適な実施態様では、上記テクスチャーが
仮想空間の一部分上に写像される。
【0102】好適な実施態様では、上記システムは、規
定、作成、記憶、および表示手段を別の第1仮想空間お
よび別の仮想表示面に対して繰り返す手段をさらに備え
ており、それにより、第1仮想空間の複数の映像が複数
の視点位置にいる観察者に見られるように同時に表示さ
れる。
【0103】好適な実施態様では、上記第1仮想空間中
の仮想対象物が、第2仮想空間を描写する際に用いられ
る技術とは異なる描写技術により描写される。
【0104】好適な実施態様では、観察者が第2仮想空
間中のある視点位置から別の視点位置に移動するにつれ
て、表示手段がリアルタイムでその機能を発揮する。
【0105】好適な実施態様では、上記複数の視点位置
が予め決められている。
【0106】好適な実施態様では、上記複数の所定の視
点が所定の軌跡に沿っている。
【0107】好適な実施態様では、上記仮想表示面が第
2仮想空間中の位置で静止しており、観察者の視点が第
2仮想空間の異なる位置間を移動することにより複数の
視点が生じる。または、上記観察者の視点が第2仮想空
間中の位置で静止しており、仮想の表示面が第2仮想空
間の対応する複数の位置間を移動することにより複数の
視点が生じる。
【0108】好適な実施態様では、上記システムは、第
1仮想空間中の仮想対象物を仮想表示面の前にある第2
仮想空間中の位置に対応する位置に配置する手段をさら
に備えている。
【0109】好適な実施態様では、上記システムは、第
1仮想空間中の仮想対象物を仮想表示面の後ろにある第
2仮想空間中の位置に対応する位置に配置する手段をさ
らに備えている。
【0110】好適な実施態様では、上記システムは、仮
想対象物の一部分が仮想表示空間面の後ろにある第2仮
想空間中の位置に対応する第1仮想空間の位置にくるよ
うに、また、仮想対象物の別の部分が仮想表示面の前に
ある、第2仮想空間中の位置に対応する第1仮想空間中
の位置にくるように、仮想対象物を配置する手段をさら
に備えている。
【0111】好適な実施態様では、第1および第2仮想
空間の規定された関係は、1対1(1:1)にスケール
された関係である。または、第1および第2仮想空間の
規定された関係は、1対1(1:1)以外にスケールさ
れた関係である。
【0112】さらに別の局面に従えば、本発明の方法
は、少なくとも1つの仮想対象物を含む第1仮想空間の
複数の映像を連続的に表示する。対象物は3次元対象物
データにより表され、第1仮想空間中の位置に配置され
る。映像は表示面上に表示され、表示面は第2空間中に
表示面位置を有し、第2空間中の複数の視点から観察者
が表示面を見る。視点のそれぞれは複数の映像の内の異
なる1つに対応しており、表示面の位置に対して異なる
位置を有している。第1および第2空間は、1つの空間
における位置が他方の空間において対応する位置を有す
るように関係が規定されている。また上記方法は、複数
の視点位置の異なる位置を決定するために、第2空間中
の観察者の位置を決定するステップ;異なる視点位置と
決定された視点位置のそれぞれに対して、プロジェクシ
ョンの中心点に対する変換を通して対象物データを変換
することにより対象物の映像データを作成するステップ
であって、プロジェクションの中心点に対して、対象物
の少なくとも一部分が第1視界それぞれの範囲を定め、
プロジェクションの中心点は第1空間中の位置であっ
て、映像に対応した第2空間における視点の位置に対応
する位置と実質的に一致する位置に配置される、ステッ
プ;映像データを基にして複数の映像を生成するステッ
プであって、複数の映像のそれぞれは決定された異なる
視点位置の1つに対応している、ステップ;および観察
者が映像に対応する視点位置に実質的にいると決定され
た時、第2空間中の表示面上に複数の映像のそれぞれを
表示するステップであって、それにより対象物の少なく
とも一部分における各映像が、決定された視点位置に対
して第2視界の範囲をそれぞれ定める、ステップを包含
している。変換は、複数の映像のそれぞれに対して、第
1および第2視界のそれぞれが実質的に同一となるよう
に選択される。
【0113】好適な実施態様では、上記決定、作成、生
成、および表示ステップが、観察者がある視点位置から
別の視点位置に移動するにつれてリアルタイムで行われ
る。好適な実施態様では、観察者は映像装置の視界中を
移動する。また上記決定ステップは、第1映像内の明確
なロケーションに第1複数画素として映像装置が見る第
1映像を記憶するステップであって、複数の画素は第1
の符号化された輝度値を有するステップ;第2映像内の
明確なロケーションに第2複数画素として映像装置が見
る第2映像を記憶するステップであって、複数の画素は
第2の符号化された輝度値を有するステップ;輝度値が
第1および第2映像間で変化した能動画素である少なく
とも1つの画素の映像ロケーションを同定するために、
第1および第2映像の一方の画素輝度値を、第1および
第2映像の他方の画素輝度値と比較するステップ;およ
び少なくとも1つの能動画素の映像ロケーションを基に
して移動する観察者の位置を計算するステップを包含す
る。
【0114】好適な実施態様では、上記映像装置の視界
は複数の探知領域を含む。また上記方法は、移動する対
象物が複数の探知領域の異なる領域にある時を決定する
ステップをさらに包含する。
【0115】好適な実施態様では、観察者の2次元にお
ける位置が計算される。
【0116】好適な実施態様では、観察者は第2ビデオ
映像装置の視界内を移動する。また上記決定ステップ
は、第2映像装置が見る第3映像を、第3映像内の明確
なロケーションに第3の複数画素として記憶するステッ
プであって、第3の複数画素は第3の符号化された輝度
値を有するステップ;第2映像装置が連続して見る第4
映像を第4の複数画素として、第3映像の画素ロケーシ
ョンに対応する第4映像中の明確なロケーションに記憶
するステップであって、第4の複数の画素は第4の符号
化された輝度値を有するステップ;少なくとも1つの画
素を輝度値が第3および第4映像間で変化した能動画素
として同定するために、第3および第4の映像の一方の
画素輝度値を、第3および第4の映像の他方の画素輝度
値と比較するステップ;および第1および第2映像に対
応した少なくとも1つの能動画素および第3および第4
映像に対応した少なくとも1つの能動画素のロケーショ
ンを基にして移動する観察者の3次元における位置を計
算するステップをさらに包含する。
【0117】好適な実施態様では、観察者は映像装置の
視界内を移動する。また上記決定ステップは、視界を表
わす一組ずつの第1および第2複数の映像それぞれを生
成するステップであって、第1および第2映像は第1お
よび第2の瞬間における視界をそれぞれ表すステップ;
第1映像を特徴付ける画素の輝度を示すデータを記憶す
るステップであって、画素は映像内の異なるロケーショ
ンにあるステップ;輝度値が第1および第2映像間で変
化した少なくとも1つの能動画素の映像ロケーションを
同定するために、第1および第2映像の一方の画素輝度
値を、第1および第2映像の他方の画素輝度値と比較す
るステップ;および少なくとも1つの能動画素の映像ロ
ケーションを基にして移動する観察者の位置を計算する
ステップを包含し、それにより、観察者が移動するにつ
れて観察者の視点位置の異なる位置をリアルタイムで決
定するために、連続した一組の第1および第2映像に対
する観察者の複数の位置を計算する。
【0118】好適な実施態様では、上記映像装置の視界
は、複数の探知領域を含む。また上記方法は、移動する
対象物が複数の探知領域の異なる領域にある時を決定す
るステップをさらに包含する。
【0119】好適な実施態様では、観察者の2次元にお
ける位置を計算する。
【0120】好適な実施態様では、観察者が第2映像装
置の第2視界内を移動する。また上記決定ステップは、
実質的に第1および第2の瞬間における第2視界を表わ
す一組ずつの第3および第4の複数の映像それぞれを繰
り返し生成するステップ;第3の映像を特徴付ける画素
の輝度を示すデータを記憶するステップであって、画素
は映像内の異なるロケーションにあるステップ;輝度値
が第3および第4映像間で変化した少なくとも1つの能
動画素の映像ロケーションを同定するために、第3映像
を特徴付ける画素の輝度を示すデータと、第4映像を特
徴付けるロケーションにある画素の輝度を示すデータと
を比較するステップ;および第1および第2映像に対応
した少なくとも1つの能動画素および第3および第4映
像に対応した少なくとも1つの能動画素の映像ロケーシ
ョンを基にして観察者の3次元における位置を計算する
ステップをさらに包含しており、それにより、観察者が
移動するにつれて3次元における観察者の視点位置の異
なる位置をリアルタイムで決定するために、連続した一
組の第1および第2映像、およびそれに対応した連続し
た一組の第3および第4映像に対する観察者の複数の3
次元における位置を計算する。
【0121】さらに別の局面に従えば、本発明のシステ
ムは、少なくとも1つの仮想対象物を含む第1仮想空間
の複数の映像を連続的に表示する。対象物は3次元対象
物データにより表され、第1仮想空間中の位置に配置さ
れる。映像は表示面上に表示され、表示面は第2空間中
に表示面位置を有しており、第2空間中の複数の視点か
ら観察者が表示面を見る。視点のそれぞれは複数の異な
る映像の1つに対応しており、表示面の位置に対して異
なる位置を有している。第1および第2空間は、1つの
空間における位置が他方の空間において対応する位置を
有するように関係が規定されている。また上記システム
は、複数の視点位置の異なる位置を決定するために、第
2空間中の観察者の位置を決定する手段;異なる視点位
置と決定された視点位置のそれぞれに対して、プロジェ
クションの中心点に対する変換を通して対象物データを
変換することにより対象物の映像データを作成する手段
であって、プロジェクションの中心点に対して対象物の
少なくとも一部分が第1視界それぞれの範囲を定め、プ
ロジェクションの中心点は第1空間中の位置であって、
映像に対応した第2仮想空間における視点の位置に対応
する位置と実質的に一致する位置に配置される、手段;
複数の映像を、映像データを基にして生成する手段であ
って、複数の映像のそれぞれは決定された異なる視点位
置のそれぞれに対応している、手段;および観察者が映
像に対応する視点位置に実質的にいると決定された時、
第2空間中の表示面上に複数の映像それぞれを表示する
手段であって、それにより対象物の少なくとも一部分に
おける映像のそれぞれが、決定された視点位置に対する
第2視界の範囲をそれぞれ定めるステップを包含してい
る。変換は、複数の映像のそれぞれに対して、第1およ
び第2視界のそれぞれが実質的に同一となるように選択
される。
【0122】好適な実施態様では、観察者がある視点位
置から別の視点位置に移動するにつれて、各手段がリア
ルタイムでその機能を発揮する。
【0123】好適な実施態様では、観察者は映像装置の
視界中を移動する。前記決定手段は、第1映像中の明確
なロケーションに第1複数画素として映像装置が見る第
1映像を記憶する手段であって、複数の画素は第1の符
号化された輝度値を有する手段;第2映像中の明確なロ
ケーションに第2複数画素として映像装置が見る第2映
像を記憶する手段であって、複数の画素は第2の符号化
された輝度値を有する手段;輝度値が第1および第2映
像間で変化した能動画素である少なくとも1つの画素の
映像ロケーションを同定するために、第1および第2映
像の一方の画素輝度値を、第1および第2映像の他方の
画素輝度値と比較する手段;および少なくとも1つの能
動画素の映像ロケーションを基にして移動する観察者の
位置を計算する手段をさらに備えている。
【0124】好適な実施態様では、前記映像装置の視界
は、複数の探知領域を含む。また上記システムは、移動
する対象物が複数の探知領域の異なる領域にある時を決
定する手段をさらに備えている。
【0125】好適な実施態様では、観察者の2次元にお
ける位置が計算される。
【0126】好適な実施態様では、観察者は第2ビデオ
映像装置の視界内を移動する。前記決定手段は、第3映
像中の明確なロケーションに第3複数画素として第2映
像装置が見る第3映像を記憶する手段であって、第3複
数画素は第3の符号化された輝度値を有する手段;第3
映像の画素位置に対応する第4映像中の明確なロケーシ
ョンに第4複数画素として第2映像装置が連続して見る
第4映像を記憶する手段であって、第4複数の画素は第
4の符号化された輝度値を有する手段;少なくとも1つ
の画素を輝度値が第3および第4映像間で変化する能動
画素と同定するために、第3および第4の映像の一方に
対する画素輝度値を、第3および第4の映像の他方に対
する画素輝度値と比較する手段;および第1および第2
映像に対応した少なくとも1つの能動画素および第3お
よび第4映像に対応した少なくとも1つの能動画素の映
像ロケーションを基にして移動する観察者の3次元にお
ける位置を計算する手段をさらに備えている。
【0127】好適な実施態様では、観察者は映像装置の
視界内を移動する。前記決定手段は、視界を表わす一組
ずつの第1および第2複数の映像それぞれを繰り返し生
成する手段であって、第1および第2映像は第1および
第2の瞬間における視界をそれぞれ表す手段;第1映像
を特徴付ける画素の輝度を示すデータを記憶する手段で
あって、画素は映像内の異なるロケーションにある手
段;輝度値が第1および第2映像間で変化した少なくと
も1つの能動画素の映像ロケーションを同定するため
に、第1および第2映像の一方に対する画素輝度値を、
第1および第2映像の他方に対する画素輝度値と比較す
る手段;および少なくとも1つの能動画素の映像ロケー
ションを基にして移動する観察者の位置を計算する手段
を備えており、それにより、観察者が移動するにつれて
観察者の視点位置の異なる位置をリアルタイムで決定す
るために、連続した一組の第1および第2映像に対する
観察者の複数の位置を計算する。
【0128】好適な実施態様では、前記映像装置の視界
は複数の探知領域を含む。また上記システムは、移動す
る対象物が複数の探知領域の異なる領域にある時を決定
する手段をさらに備えている。
【0129】好適な実施態様では、観察者の2次元にお
ける位置を計算する。
【0130】好適な実施態様では、観察者は第2映像装
置の第2視界内を移動する。また上記決定手段は、実質
的に第1および第2の瞬間における第2視界を表わす一
組ずつの第3および第4の複数の映像のそれぞれを繰り
返し生成する手段;第3の映像を特徴付ける画素の輝度
を示すデータを記憶する手段であって、画素は映像内の
異なるロケーションにある手段;輝度値が第3および第
4映像間で変化した少なくとも1つの能動画素の映像ロ
ケーションを同定するために、第3映像を特徴付ける画
素の輝度を示すデータと、第4映像を特徴付ける対応す
る位置にある画素の輝度を示すデータとを比較する手
段;および第1および第2映像に対応した少なくとも1
つの能動画素および第3および第4映像に対応した少な
くとも1つの能動画素の映像ロケーションを基にして観
察者の3次元における位置を計算する手段を備えてお
り、それにより、観察者が移動するにつれて3次元にお
ける観察者の視点位置の異なる位置をリアルタイムで決
定するために、連続した一組の第1および第2映像、お
よびそれに対応した連続した一組の第3および第4映像
に対する観察者の複数の3次元の位置を計算する。
【0131】
【作用】本発明は、上述の目的および他の目的を達成す
るために、表示面の位置に対して異なる地点間を移動す
る観察者にとって歪みがなく自然な3次元と映る仮想世
界のシーンの複数の映像を生み出し、表示面上に表示す
る方法およびシステムを開示する。本発明の1つの局面
によれば、仮想の環境または空間を、その空間に含まれ
る静的または動的な仮想対象物をも含めて3次元的に描
写することを含有するデータベースは、コンピューター
(また「対象物」または「仮想世界」)座標システムに
よるコンピューターグラフィックシステムにより維持さ
れる。仮想世界が、座標システムにより、観察者の視点
が位置する「現実世界」のまたは他の座標システムとの
関係で規定され、結果、観察者の視点の位置、および現
実世界または他の空間における表示装置の位置が仮想空
間において対応する位置を有することになる(またその
逆の場合も同様である)。
【0132】表示するために生み出された映像のそれぞ
れは、観察者の複数の視点のうち異なる1つの視点と結
びついている。各映像は、対象物を規定する3次元デー
タを、プロジェクションの中心点に対して、映像データ
に変換することにより生み出される。なお、そのプロジ
ェクションの中心点に対して、対象物の少なくとも一部
分が第1視界の範囲をそれぞれ定め、またそのプロジェ
クションの中心点は現実世界または他の空間の視点の位
置に対応する位置と実質的に一致する仮想空間の位置に
ある。これらの映像データを基にして、対象物の少なく
とも一部分の各対応する映像が、その映像に対応する視
点への第2視界の範囲それぞれを定めるように、映像が
生成され、表示面上に表示される。変換は、複数の映像
のそれぞれに対して、各第1および第2視界のそれぞれ
が実質的に同一となるように、選択される。映像は、観
察者の視点が表示装置に対してある場所から別の場所へ
移動するにつれてリアルタイムで本発明により生成およ
び表示され得る。あるいは、映像は、(観察者の視点の
位置が予測可能であるか、あるいは所定のものであるな
ら)事前に生成され得、後にリアルタイムで再生するま
で保存され得る。
【0133】観察者の視点の位置を決定するには実質的
にはどのような手段をも用いられ得る。しかし、本発明
の別の局面に従えば、特に有利な方法は、移動する観察
者を含めた空間を映し出すビデオカメラのような映像装
置を用いることである。映像装置でとらえた画素を基に
した映像の連続フィールドは、1つの映像から次の映像
に至るまでにその値が変化する画素の映像内におけるロ
ケーションを同定するために、互いに減じられたもので
ある。これらのロケーションは、2または3次元におけ
る観察者の位置を示すデータに変換される。
【0134】本発明のさらに別の局面に従えば、本発明
によって生成された仮想対象物の映像が現実世界の表示
面上に表示される必要はない。代わりに、生成された映
像は、仮想面(多角形のような)上に写像された連続し
た2次元のテクスチャーに変換され得る。その仮想面
は、「仮想現実」のコンピューターグラフィックシステ
ムによって合成され、第2の仮想世界内の位置に配置さ
れる。観察者の視点は、現実の表示面を見る現実世界の
視点でなく、仮想面を見る第2の仮想世界のコンピュー
ターによって確立、または決定される視点である。特定
の視点に対応する第1の仮想空間中の対象物の映像に対
するテクスチャーは、観察者の視点が実質的にその位置
にあると判定された時に、仮想面上に表示される。
【0135】
【実施例】図1は従来のコンピューターグラフィックシ
ステム(図1(a))、およびそのシステムにおいて典
型的に用いられる方法(図1(b)−(e))を示して
おり、そのシステムは3次元仮想世界データベース中で
モデル化された対象物の映像を、ビデオモニターまたは
頭に取り付ける表示装置(HMD)のような2次元の表
示装置に表示するために描写する一連の変換を行うもの
である。図1(b)−(e)に示された変換方法は、コ
ンピューター合成された世界(「仮想世界」または「仮
想空間」とも呼ばれる)に3次元の対象物を描写および
操縦するための従来の「仮想現実(バーチャルリアリテ
ィ)」システムにおいて用いられてきた方法である。
【0136】とりわけ、図1(a)はCRTまたは他の
表示装置に表示する映像を描写するためにデータ上で変
換を行う従来の映像生成コンピューター100の一部分
を示す簡潔化したブロックダイヤグラムである。コンピ
ューター100のブロックダイヤグラムはとりわけ、カ
リフォルニア州マウンテンビューのシリコングラフィッ
クス社製造のIRIS-4D Indigoワークステーションを示し
ているが、他の公知の映像生成コンピューターを用いて
もよい。
【0137】図1(a)において、コンピューター10
0はディスク駆動または他の記録装置120から3次元
空間中の点、表面、または対象物を特定する3次元対象
物データ105を受理する。コンピューター100は、
データモデルおよび映像変換(またはこれら2つの変換
の連結)を行うハードウエアおよび/またはソフトウエ
ア130、およびプロジェクション変換を行うハードウ
エアおよび/またはソフトウエア140を包含し、理論
上の2次元の映像面に写像して映し出される対象物を表
わすデータを(以下に示すように)生成する。次にこれ
らのデータはハードウエアおよび/またはソフトウエア
145により、2次元の表示装置150(図1(a)で
はTVモニターとして示されるが、実際はHMDまたは
他の適切な表示装置でもよい)上で観察者に対して表示
するための画素を基にした映像に変換される。図1
(a)の場合、データベースはモデル化され、コンピュ
ーターグラフィックシステムが表示装置150に、立方
体160を表示する。
【0138】従来多くのソフトウエアパッケージが商業
的に入手可能であり、図1(a)の立方体160のよう
な映像をモデル化し、描写するためのシステム100の
ようなコンピューターをプログラムするために用いられ
てきた。そのようなソフトウエアの一例は、シリコング
ラフィックス社が発表した、IRIS Indigoワークステー
ションに用いられる、グラフィックスおよびユーティリ
ティルーチンのブラフィックスライブラリーTMである。
グラフィックプログラマーは、そのようなソフトウエア
により、多角形、線、メッシュおよび他の従来技術を用
いて、実質的に色または陰影をもたせ、実質的にどのよ
うな大きさにも変化させ、実質的に規定されたどの位置
においても静止させ、または実質的にどのような速度で
も、実質的にどのような軌跡に沿ってでも1つの地点か
ら別の地点へ回転または移動させ得るように立方体16
0をモデル化出来る。当然、当業者なら別の対象物、ま
たは多くの対象物を、立方体160の代わりに、または
立方体160に加えてモデル化および描写し得ることを
理解する。
【0139】立方体160のような3次元対象物を表示
する際には、対象物を互いに、また観察者に対応させて
移動し、回転させ、スケールし得ることが有用であるだ
けでなく、仮想世界での対象物に対する観察者の視点、
視界、および向きを変更し得ることもまた有用である。
図1(b)−1(e)は、どのように従来のコンピュー
ターグラフィックシステムがこれを達成し、またどのよ
うに、得た映像を、モデル、ビュー、およびプロジェク
ション変換を用いて表示させるかを簡潔に示したもので
ある。
【0140】仮想立方体160を規定するデータには、
モデル化された世界または空間中における立方体の頂点
または他の点Pを、3点(XA、YA、ZA)で示される
図1(b)の位置に配置する情報が含まれている。これ
らの座標は、図1(b)に示すように、右周りのデカル
ト座標のコンピューターまたは原点(0、0、0)を有
する「仮想世界」座標システム115の原点に対して規
定される。典型的にはコンピューターグラフィックシス
テムが座標を特定するために用い得る最大数によって制
限を受ける以外は座標(XA、YA、ZA)のサイズは何
ら制限を受けない。
【0141】モデル変換は描写される対象物を翻訳、ス
ケール、および回転させるために用いられる。例えば、
図1(c)において、立方体160が図1(b)の第1
の位置(図1(c)において破線で示される)から第2
の位置(図1(c)において実線で示される)に移動
し、点Pの座標が(XB、YB、ZB)になると仮定す
る。立方体160の再配置は、(XB、YB、ZB)の点
に移動させるために(XA、YA、ZA)の点を規定する
データを変換し、同様に立方体160の他の点全てを規
定するデータを変換することにより行われ、その結果立
方体がその世界座標システムにおける新しい位置に描か
れ得る。
【0142】立方体160が図1(c)の新しい位置に
あると仮定するなら、ビュー変換が立方体の座標を、図
1(d)に示すように、所望の視点EPに原点(0、
0、0)を有する新しい「視点座標システム」170に
写像するために用いられる。なおその「視点座標システ
ム」170は原点に対応する立方体の座標を特定する。
これは、コンピュータースクリーン上での3次元透視図
における対象物を見ることは、スクリーンの形をした仮
説上のガラス面を通して対象物を見ることと同じである
ことによっている。光線を視点からガラス面を抜けて対
象物上の点まで描くなら、光線が通り抜けるガラス面上
の点は、コンピューターがその点を描くコンピューター
スクリーン上の位置に相当する。このことが対象物上の
全ての点に対して行われ、正確な着色および陰影がそれ
ぞれの点で行われるなら(隠れている表面が移動してい
ることを考慮して)、ガラス面、またはコンピューター
スクリーンに見られる対象物とモデル化された対象物と
は区別出来なくなる。図1(d)における視点EPの位
置が移動すると、対象物の異なる透視図が得られる。
【0143】図1(e)は視点EPを起点として、仮説
上のガラス面を通り抜ける全ての光線群が無限に広がる
4面のピラミッド(一般に129で示される)を規定す
ることを示している。なお、「視点」または「プロジェ
クションの中心点」と呼ばれる、そのピラミッドの頂点
は視点EPにある。ただし、ビデオスクリーンは従来方
形であるため便宜上4面で示しているに過ぎない。実際
ピラミッドはそれ以外の面数および形状を有するように
規定し得る。ピラミッドの内部に位置する仮想対象物は
どの部分も(別の対象物に視界を妨げられない限り)潜
在的には見ることが出来る。ピラミッドの外にある対象
物は、これら外側の対象物の視界がピラミッドの側面に
より規定される4つの平面(「クリッピング平面」とも
呼ばれる)によりクリップされるため、見ることが出来
ない。これらのクリッピング平面の3面が底部クリッピ
ング平面170A、右方クリッピング平面170B、お
よび左方クリッピング平面170Cとして図1(e)に
おいて同定される(上部クリッピング平面は数に入れな
い)。
【0144】よってピラミッドは視点から立方体のある
仮想空間の視界を規定する。本明細書で用いられる用語
「視界」とは、それの頂点として視点またはプロジェク
ションの中心点を有し、その視点から広がる軸により規
定される方向性を有する立体角(solid angle)のセグ
メントを指す。2つの視界が同一または実質的に同一で
ある立体角を包含するなら、それらは同一であるか、ま
たは実質的に同一であるものとして規定され、また、特
定の空間または座標システムに対しては、同一または実
質的に同一である方向性を有する。
【0145】従来のコンピューターグラフィックシステ
ムもまた2つの付加的クリッピング面を用いている。こ
れらは「遠方クリッピング平面」131、および「近方
クリッピング平面」125として図1(e)に示され
る。近方クリッピング平面より視点に近い視界内にある
か、または遠方クリッピング平面より視点から遠くにあ
る対象物はいずれも見ることが出来ない。図1(e)の
ピラミッドにおいては、上部、底部、側方、近方、およ
び遠方のクリッピング面はより集まって視界内に含まれ
る「錐台」を規定し、これにより視点から仮想世界の見
える範囲を限定している。
【0146】表示される映像は、視点に向かう視界内に
含まれる3次元対象物上の点を2次元のプロジェクショ
ンまたは視界面上に、数学に即したプロジェクションに
より、写像するプロジェクション変換によって図1
(e)に規定される。そのような視界面を視界平面12
6として図1(e)に示す(平面として示されている
が、視界面126が平面である必要はない)。図1
(e)において、必ずしもそうである必要はないが、視
界平面126は近方クリッピング平面125の後ろに示
されている。あるいは、視界平面126は近方クリッピ
ング平面125に、またはその他の側面に配置すること
も可能で、用いられる特定のシステムによる制約を被
る。GLソフトウエアライブラリーを実行するためのI
RISコンピューターのようなシステムは、視界および
近方クリッピング平面をデフォルト時に一致するように
規定する。そのようなシステムでは、近方クリッピング
平面を配置することは視界平面を配置することを意味す
る。
【0147】先行技術における仮想現実コンピューター
グラフィックスシステムにおいては、従来、視界平面の
位置をプロジェクションの中心点および観察者の視点に
対して定めた。視界平面は典型的にはプロジェクション
の中止点から所定距離だけ離れた場所に位置し、またプ
ロジェクションの中心点から近方クリッピング平面のお
およその中心点まで連結させた光線に直交するように規
定される。この配置は、人が目の前の特定の位置に常時
固定させたガラス面を通して仮想空間を見つめる場合と
同じ配置である。ガラスを通して空間中の異なる場面を
見るには、人は(1)ガラス面に対して頭を回転させる
か、または(2)空間の別の場所にガラス面と共に移動
するかの方法がある。従来のコンピューターグラフィッ
クシステムによって生み出された仮想空間の観察者は多
くの異なる視点のどの視点からでもその空間を見ること
が出来るが、シーンが表示される視界平面(ガラス面)
は常に視点に対して一定の距離を保っている。
【0148】視点に対する視界平面の位置を固定する前
述の技術は、客が表示装置を頭につけて仮想空間を見る
という条件下で、客が頭を回すか、またはその世界を移
動すると異なる透視図空間を示すコンピューターグラフ
ィックスシステムにより3次元イリュージョンを生み出
している。これが可能であるのは、表示面(すなわちH
MD内に搭載されたCRT)は常に観察者の頭および目
に対して一定の関係を保っているためである。しかし、
客が表示面に対する位置を変え得る状態で表示面に仮想
世界のシーンが映し出されると(ダークライドの中で起
こり得ることのように)、その技術では奥行きのある3
次元の自然な映像を生み出すことは困難である。
【0149】本発明は、表示面の位置に対して変化する
客の視点位置と相関させて、コンピューター生成された
仮想空間の異なる場面を表示することによりこの問題を
解決する。このことは、表示面に対して異なる位置か
ら、表示されたシーン中の対象物の「後ろ」および「周
り」を客に見せることを可能にする。その表示面では、
映像が実際に現実世界に存在する物理的な対象物と共に
客に示される。
【0150】本発明は図2により容易に理解され得る
が、図2は、どのように対象物が、本発明の1つの局面
に従って、スクリーンの少なくとも一部に表示するため
に描写され得るかを示す光線ダイヤグラムの簡潔化され
た2次元の平面図である。図2は、例えばダークライド
の室内の天井から見下ろした図である。
【0151】図2において、3次元のa−b−c座標シ
ステム250Aを、現実世界における表示面210の位
置に対する観察者の視点の位置を説明するために規定す
る(標識されていないが「c」軸は右回りの慣例に従っ
て図面の平面に向かう向きが正の向きである)。同様に
X−Y−Z座標システム250Bを仮想世界座標におい
て規定した(標識されていないがY軸は右回りの慣例に
従って図面の平面から出てくる向きが正の向きであ
る)。例えばビデオプロジェクターのような従来のビデ
オ映像表示装置が(図示せず)、表示面の実質的な中心
点に交差し、面に対して実質的に垂直である線上の点か
ら表示面210に向けて、3次元コンピューターグラフ
ィックスシステム(図示せず)によって生成された映像
を表わす光を投射している。(当業者ならスクリーンに
映像を表示するために用いられる特定の型の表示面およ
び特定の装置は、本発明を理解し、実行するための重要
な要素ではないと理解する。面210は実質的にどのよ
うな型の表示面でもよく−−平坦でも前方または後方に
カーブされたプロジェクションスクリーン、壁、適切な
大きさの組み込み式CRTまたはLCDビデオモニタ
ー、または表示のための他のメカニズムでもよく−−物
理的に存在する表面の上、あるいは−−2次元の映像の
上にあってもよいものである)。
【0152】図2において表示面210に投影された映
像は、動的な仮想「太陽系」270が仮想の太陽270
Aを含み、仮想の太陽270Aの回りを仮想の惑星27
0Bが軌道を描いて回り、その仮想の惑星270Bの回
りを仮想の月270Cが軌道を描いて回っている映像で
ある。(この映像をビジュアル化するために、破線で軌
道270Dおよび270Eを図2に示す。しかし、これ
らの軌道は表示される映像の一部を形成するものではな
い。)太陽映像270Aは、仮想世界座標システムにお
いて原点(0、0、0)を任意に有するようにコンピュ
ーターデータベースによって配置される。図2は、太陽
系270を表示面210の「後ろ」にあるように示して
いるが、実際は太陽系は仮想であり、実際には現実世界
(スクリーンの後ろ等)には存在しないものである。
【0153】本発明によれば、図2における人の視点が
面の前の複数の、少なくとも2つの地点のどこにあって
も(面からかなり軸のそれた場所であっても)よいのだ
が、表示面210のある現実世界に位置するその人が、
表示された映像中に奥行きのある3次元の強調されたイ
リュージョンを見てとれるように、太陽系270のよう
な映像を表示面210上に表示し得る。表示面210の
後ろに位置して見えるように仮想空間に配置された、こ
れらの対象物を図2に示すが、本発明は(以下により詳
細に記載するように)対象物を表示面の前にあるように
配置−−またそのように認識されるように−−すること
が出来る。
【0154】これら全ては、図2に示す本発明の1つの
局面に従って、最初に表示面210の映像を見る客の視
点の正確な位置を決定し、次いでその視点位置を仮想世
界座標システム中の対応する位置に変換することにより
成し遂げられる。例えば、客が図2においてEPとして
同定される第1の視点位置に立つなら、その位置の座標
(a、b、c)を示すデータが得られ、そして、現実お
よび仮想世界座標システム間の所定関係に従って、それ
に対応する仮想世界座標位置(VX、VY、VZ)に変換
される。一方、客が図2において視点EP’として示さ
れる現実世界の第2の位置に移動するなら、その位置の
座標(a’、b’、c’)を表示するデータが得られ、
仮想世界座標位置(VX’、VY’、VZ’)に変換され
る。実際に表示される映像の境界を定める表示面210
の部分における現実世界の位置もまた決定される。
【0155】視点の位置および表示装置の位置を用い
て、コンピューターグラフィックシステムは2つの映像
変換を規定し、実行する。第1の変換により、表示され
た各映像中の対象物上の点の座標を変換して、それらの
点のプロジェクションの中心点−−および、映像のプロ
ジェクションの中心点−−を、仮想および現実世界座標
システムの規定された関係により、対応する客の視点の
現実世界での位置と実質的に(許容の範囲内で)一致す
る位置に対応する仮想空間の位置にくるようにさせる。
これを、太陽270Aの表面上の点290から視点EP
およびEP’それぞれに至る光線230Aおよび230
Bを用いて図2に図解的に示す。
【0156】第2の変換により、複数の視点のそれぞれ
に対して映像270を視界平面の部分に写像するために
仮想対象物を表す3次元データを変換する。その部分と
は−−この実施例の場合−−仮想世界に対して「仮想の
窓」または表示装置を形成する現実世界の表示面210
の部分の位置に対応する位置と実質的に一致するように
スケールされて、仮想世界に配置されるものである。
「実質的に一致する」とは、視界平面280Dの部分
(図2では表示装置210と同じ場所に示されている)
が、現実の世界における表示を形成するスクリーン21
0の部分に実質的に重なるように計算され、仮想世界に
配置されることを意味する。「スケールされた」とは、
以下に説明するように、現実世界における所定の距離と
仮想世界における所定の距離との間にはある関係が存在
することを意味する。
【0157】図2はこれら2つの変換の結果、仮想世界
への視界は(プロジェクションの各中心点に対応させ
て)、各該当する視点に対して仮想世界の表示された映
像によって範囲を定められた視界と、実質的に同じ方向
にあり、また実質的に同じ立体角の範囲を定めることを
示している。よって、これらの変換により、視点EPに
おける視界は、EPを頂点として、左方クリッピング平
面280Bおよび右方クリッピング平面280Cを有す
ることになる。視界は遠方クリッピング平面280Aに
クリップされる。一方、変換により、視点EP’におけ
る異なる映像に対する視界は、EP’を頂点として、左
方クリッピング平面280BBおよびクリプ右面280
CCを有する(この視界における遠方クリッピング平面
は図示せず)ように規定される。
【0158】前述の変換の結果、映像270内の点は、
コンピューターグラフィックスシステムにより数学に即
して投影され、これらの点と所定の視点とを結ぶ光線が
視界平面と交差する表示面210上の位置に表示され
る。図2に示すように、太陽270A上の点290が視
界平面280Dおよび表示スクリーン210上におい
て、視点がEPにある時は点290Aに表示され、視点
がEP’にある時は点290Bに表示される。
【0159】この方法で、スクリーン210に表示され
る太陽系270の現時点の映像を、スクリーンに対して
変化した客の視点の現実世界における位置と相関させて
計算することにより、太陽系(およびコンピューターグ
ラフィックスシステムにより描かれる他の対象物)は各
視点毎に適切な3次元透視図中にあるスクリーン210
に表示される。コンピューター生成された映像の異なる
透視図が、客の視点がスクリーンに対して位置を移動す
ると表示面210に表示されるため、映像中の移動パラ
ラックスにより客は位置を移動することにより表示され
た対象物の後ろおよび周りを見ることが出来る。この効
果により、客は表示された映像に3次元の深められた認
識、またはイリュージョンを与えられる。
【0160】図3は、仮想世界のシーンを観察者に表示
するために本発明を用いた一実施例の透視図である。ダ
ークライドの室内に表示面210(例えばプロジェクシ
ョンスクリーン)があり、そこに太陽系270の映像が
従来のビデオプロジェクター330によって表示され
る。(本実施例では表示された映像320および映像中
の対象物はスクリーンの一部分にしか映されない。表示
された映像は周辺が閉じられており、客の視点に対して
視界の範囲を定めるが、周辺が閉じられた表示面によっ
て範囲を定められた視点に対して視界内に含まれる。)
スクリーン210に表示された映像はプロジェクターに
連結されたコンピューターグラフィックスシステム10
0による3次元データベースから製作される。客310
は視点EP’(図2にも示される)から表示装置を見て
おり、その点は、部屋の床の格子340で示されるセン
サー座標中で、(a’、b’、c’)として示される
(c’の値は、本実施例では、客の目線より上にある不
変数を示す既知の定数値であると仮定する)。
【0161】コンピューター100は、コンピューター
の並列または直列ポートを介した従来の方法で、客31
0が格子340上をスクリーンに対して位置を移動する
と客310の視点EPの現実世界におけるおおよその位
置を示すデータを受理する(これらのデータは直接的に
位置を示すか、または情報(例えば既知の場所に配置さ
れたセンサーの同一性)を与えて客の実際上のおおよそ
の位置をコンピューターにより決定する方法で間接的に
位置を示す)。客310は格子上を自由に移動する。特
定の所定の視点位置において、本発明はその位置に対応
した映像を客に対し生成、および表示する。客の視点が
表示面に対して新しい視点位置に移動したと決定される
と、その新しい位置に適切である新しい異なる映像がコ
ンピューター100により生成され、スクリーン210
に表示される。これらの映像中の対象物は、それぞれそ
の視点に対応するプロジェクションの中心点に対して仮
想世界中における仮想対象物と同様に、客の対応する視
点側の視界の範囲を定める。結果、各映像は映像が生成
された特定の所定視点位置に対して適切な3次元透視図
中に示される。客が室内を移動すると、異なる映像が、
正確な透視図の手掛かりに加えて正確な移動パララック
スの手掛かりを呈示する。これらの手掛かりは、各映像
は単なる2次元であるにもかかわらず、客に対して表示
された映像中に奥行きのある3次元のイリュージョンを
生み出す。
【0162】図3に示す一実施例において、コンピュー
ター100は、本発明に従ってシリコングラフィックス
社から入手可能なグラフィックスライブラリー映像モデ
リングソフトウエアを用いてプログラムした、シリコン
グラフィックスIRIS-4D Indigoワークステーションであ
る。当然、当業者なら、コンピューター100は、本発
明の原理に従ってプログラムされると、「リアルタイ
ム」に観察者に(観察者が表示装置の前で位置を移動す
ると)表示するために異なる映像を描写することが可能
であれば、実質的にどの他社製または他のモデルのコン
ピューターシステムであってもよいと認識する。同様
に、ライブラリーが以下にさらに記載する本発明の原理
に従って変換を行うものであるなら、実質的にどのよう
な3次元映像生成ソフトウエアもプログラムコンピュー
ター100と共に用いられ得る。よって、本発明の一実
施態様を本明細書に(特に以下に)記載して、視界平
面、クリッピング面、および錐台をIRISコンピュー
ターを用いて規定する場合を述べるが、そのような構築
に依ることなく映像を描写する他のシステムもまた本発
明に用いられ得る。
【0163】仮想対象物の映像が、映像が表示される面
に対して異なる視点位置においても本発明により適切な
3次元の透視図中に示されるため、また現実世界の位置
と仮想世界の位置にはある関係が成り立っているため、
本発明により様々な興味深いイリュージョンが達成し得
る。これらのイリュージョンの1つは、仮想世界の仮想
対象物、および現実世界の現実の対象物が−−異なる視
点間を移動する観察者にとって−−同じ空間または世界
に共存しているかのように作られ得る。
【0164】とりわけ、観察者が表示面に対して複数の
視点間を移動すると、表示された仮想対象物および現実
世界のプロップまたはセットは互いに「次元的に伸張」
し−−また次元的に伸張したままであり−−得る。本明
細書で用いる用語「次元的に伸張」とは、対象物および
対象物の映像が、その対象物および映像を見る観察者に
とって、共通の消滅地点に向かって遠のくように見える
ことを意味するものと定義する。次元的伸張は、観察者
の視点が表示装置に対して移動するのと実質的に同様の
方法で、仮想および現実世界の対象物が互いに混ざり合
い、視覚的に動いているように−−観察者に−−見せる
ものである。
【0165】図4は、この次元的伸張の一例である。図
4では、客310がプロジェクションスクリーン210
の前に立っている。現実世界のプロップ440A(テー
ブル440の半分)が、スクリーン210に対向して配
置され、スクリーン210には、後方プロジェクター
(図示せず)によって、テーブル440の残り半分を表
わす仮想プロップのコンピューター生成映像440B
(破線で示す)が表示される。仮想プロップが、現実の
テーブル440Aの残り半分と同じに見えるように、正
確にモデル化され、着色され、テクスチャーされ、照ら
されるなら、また現実のテーブル440Aが仮想プロッ
プの映像440Bと共に正確に登録されるなら、現実世
界の半分のテーブル440Aおよび仮想世界の半分のテ
ーブル440Bの映像が、客の視点位置が移動すると、
視覚的に溶け込み−−また視覚的に溶け込んだまま−−
となる。従って、客310がスクリーン210に対して
位置を移動すると、観察者はコンピュータ生成世界に伸
張している1つの完全なテーブルのイリュージョンを認
識する(また逆もあり得る)。観察者が表示装置の前を
移動するにつれて、客が見る仮想テーブルの映像および
現実のテーブルの姿は同様にふるまうので、このイリュ
ージョンは実質の部分的において生産される。両方と
も、客がスクリーンに対して異なる位置間を移動する
と、共通の遠近法による消滅地点に向かって遠のき、互
いの(および他方の近くの現実または仮想対象物に対し
ての)共通の移動パララックス手掛かりを示しているよ
うに、観察者には見える。
【0166】次元的伸張効果もまた、現実世界のプロッ
プを表示装置に対して配置しなくとも本発明により達成
され得る。例えば、表示装置の前を通過し、方向を変え
るライドのトラックがあって、トラックの一部が表示装
置によって妨げられる場合を想定してみる。トラックの
妨げられたその部分を観察者が「見る」必要があるな
ら、またはその方が望ましければ、トラックのその部分
の映像は表示装置に表示される際に−−観察者が表示面
に近づくにつれ−−表示されたトラックの映像が、現実
のトラックに対して次元的に伸張し、また溶け込んでい
るように見えるように、モデル化され、仮想世界に配置
されることが出来る。
【0167】映像に伸張する物理的なプロップを用いる
ことなく、仮想対象物が表示装置の平面を越えて現実世
界に「伸張」するように見せかける他の方法としては、
仮想対象物の少なくとも一部分を表示装置前にある現実
世界の所望の位置に対応する仮想空間中の位置に配置す
る方法がある。図5にその方法を例示的に示す。
【0168】図5は、仮想世界の光線ダイヤグラムの平
面図であり、客310がスクリーン210の前で、その
軸からそれた場所で、かつ視点EP’にほぼ一致する現
実世界の位置に対応する仮想世界の位置(VX’、
Y’、VZ’)近くに立っている。スクリーン210の
少なくとも一部分に表示される仮想対象物は(図5では
対応する仮想世界の位置に示される)、テーブル540
であり(破線で示される)、それはテーブルの一部を表
示装置の現実世界の位置の前に、また一部をその後ろに
置く現実世界の位置に対応させて仮想空間中の位置に存
在するようにモデル化されている。そのような映像を適
切に表示するために、見られる対象物の最も近い点と視
点との間に近方クリッピング平面550を配置するよう
にコンピュータをプログラムする。加えて、対応する視
点の位置に対応する位置の中心点に対して、仮想世界中
に、視界の周辺部を規定する周辺クリッピング面(すな
わち、4つの側面で囲まれた視界、底部、上部、および
2つの側方クリッピング平面)は、それぞれ、表示面に
表示されるために生成された映像の周辺部(すなわち、
4つの側面で囲まれた表示面、底部、上部、および2つ
の側方、または先端)に対応する仮想世界の周辺部と共
に登録されるように仮想世界中に配置される。(これら
の周辺クリッピング面のうち2つ−−左方クリッピング
平面570Aおよび右方クリッピング平面570B−−
を図5に示す。これらは、図5では、生成された映像は
表示面に映されると仮定しているため、表示面210の
端に登録されているように見える。生成された映像が表
示面の一部分のみに表示されると、プロジェクターによ
って生成されたその映像の周辺部の位置が(実際に生成
され投影されたものに対して表示された視界を制限する
ために意図された投影された映像をプロジェクション後
にトリミングしたりぼかすことは無視する)、クリッピ
ング面を登録するために用いられる。IRISコンピュ
ータにおいて、近方クリッピング平面および視界平面は
一致するので、コンピュータは、視界平面550A(図
5ではクリッピング面550と一致して示され、視界の
範囲を定める)への視界内に含まれるテーブル上の点を
プロジェクションの中心点の方向で投影することによ
り、テーブルを表わすデータを変換する。これらの変換
されたデータを基にした映像が生み出され−−映像に歪
みを生じさせないために、表示装置の実質的に中心に、
かつ垂直に配置されたプロジェクター330等によって
−−スクリーン210に示される。
【0169】このプロセスにより、図5に示し、また上
述したように、映像はスクリーン210に表示され、各
映像は、観察者の視点の対応する位置と実質的に一致す
るプロジェクションの中心点を有し、また視点に対して
適切な透視図中に示される。観察者がスクリーンに対し
て移動すると、複数のそのような映像、表示されたシー
ンにおける正確な移動パララックスの手掛かり、および
3次元のイリュージョンが生み出される。表示装置21
0の前の現実世界座標に対応する仮想世界座標における
位置に配置された対象物が(これらの対象物が近方クリ
ッピング平面の前に配置されず、視界の外側にない限
り)表示装置の前にあるように認識される。同様に、ス
クリーン210の現実世界の位置に、またはその後ろの
現実世界の位置に対応する仮想世界の位置に配置された
対象物もまたそれらの位置にあるものと認識される。
【0170】前述から明らかであるように、図2に示さ
れ、図2を参照して説明される発明は、図5に示す発明
を実行するために採用される、より一般的な手法の一特
異例に過ぎない。よって、本発明は、仮想世界の視界平
面を現実世界の表示装置上に実質的に重なるように位置
させることにより、図2に示されるように実行され得る
が、実際的にはそのような重ね合わせは必要でない。以
上説明してきたように、映像のプロジェクションの中心
点が、映像を見る視点と実質的に一致されると仮定する
なら、本発明を実行する一方法としては、以下が含まれ
る:(1)対応する視点の現実世界の位置に対応するプ
ロジェクションの中心点に対して、仮想世界への視界を
規定すること。なおその際に、仮想世界への視界が、視
点に対して表示された映像の周辺部によって範囲を定め
られた視界の方向と実質的に同じ方向を有し、かつその
視界に囲まれた立体角と同じまたはそれ以上の立体角の
範囲を定めるようにする、および(2)仮想世界の視界
に含まれる仮想対象物、またはその部分を、プロジェク
ションの中心点に向けて、また視界の範囲を定める視界
平面に対して数学に即して投影すること。視界平面およ
び表示装置が一致するように選択される特定の場合にお
いては、図2の配置はこれらの制限を満たしている。視
界平面550Aが表示装置平面の前に置かれている、図
5もまたこれらの制限を満たしている。図2にも図5に
も示していないが、視界平面をスクリーン210の後ろ
に規定することも本発明に従えば明らかに可能である
(この場合重なり面および隠れている面の移動アルゴリ
ズムを正確に機能させるためにコンピュータグラフィッ
クシステムのZバッファーは特別注意を要する)。
【0171】上述の実施例においては、表示される映像
が実質的にスクリーン平面の中心にあり、かつスクリー
ン面に対して垂直に延びている線上の位置からスクリー
ンに対して投影されるものとして、本発明を説明してき
た。そのような条件下では、プロジェクションの中心点
(観察者の視点)がスクリーンに対して移動する時に、
視界平面は表示スクリーンに対して実質的に平行であり
続けるように仮想世界中に配置されねばならない。映像
がこの線から実質的に離れた位置でスクリーンに投影さ
れると(垂直方向に、もしくは水平方向に、または両方
向で)、映像を表示する物理的プロセスは仮想世界およ
び現実世界の視界を実質的に相違させる歪みを生じさせ
る。この相違は映像により生み出された3次元のイリュ
ージョンを破壊することになる。そのような場合、この
破壊を補正するために、視界平面(例えば、図5におけ
る面550A)は、表示装置に対して実質的に平行であ
る状態から再度方向を修正することが出来る。とりわ
け、視界平面は、プロジェクターの中心点とスクリーン
の中心点を連結する光線およびその点におけるスクリー
ンに対する垂直線との間の垂直方向のおよび水平方向の
角とそれぞれ実質的に等しい垂直方向のおよび水平方向
の角の分だけ−−歪みを補正する方向に−−再度、方向
修正されることが好ましい。
【0172】前述の実施例は、人が表示装置の前の任意
の軌道に沿って一定の高度で歩行または移動するものと
して、本発明を説明してきた。当然、当業者なら、客が
規定された軌道に沿って走る、または異なる高度で通過
するライドカーに乗ってスクリーンを通過する場合で
も、スクリーン210に映像を表示し得ると理解する。
よって、本発明は迫真性のある3次元シーンの表示が望
まれるローラーコースター型の乗物においても、また実
質的にどのような型の乗物においても用いられ得る。し
かし、生成された映像を見るには、客の視点の位置に適
切な映像を生成するために表示装置に対する客の視点の
ほぼ正確な位置を(直接的または間接的に)得る必要が
ある。ライドカーに一緒に乗っている一人以上の客に映
像を与える場合には、一人以上の客(例えば乗物の中心
にいる客)の近辺における一点が得られれば典型的には
それで十分である。その一点がその一人以上の客のおお
よその視点を示す。
【0173】図6から図8は、本発明に従ってコンピュ
ータグラフィックシステム(IRISワークステーショ
ン等)をプログラムする際に用いられ得る、Cプログラ
ム言語で書かれたソフトウエアルーチンの一例のフロー
チャートである。シリコングラフィックスIRISワー
クステーション、および今回のプログラムが用いられる
GLグラフィックスソフトウエアライブラリーおよび他
のソフトウエアライブラリーによる特徴および機能に精
通しているものと仮定して、以下に図6から図8を説明
する。GLに関するより詳細な情報はIRIS−4Dシ
リーズのコンピューター、ドキュメントバージョン2.
0(書類番号第007−1210−030)、1991
年4月、シリコングラフィックス社発行のグラフィック
スライブラリープログラミングガイドから得られる。
【0174】図6から図8のプログラムのシナリオにお
いては、図2および図3に示しているように平坦なスク
リーンの前に客が立っており、そのスクリーンに映像が
(軸上の位置から)投影され、コンピュータグラフィッ
クシステムによって保持された3次元のデータベースに
よりモデル化された3次元の仮想空間のシーンがマジッ
クウインドゥを介して見られる。シーンは、コンピュー
タグラフィックシステムによってモデル化され、描写さ
れ得るものであれば、太陽系270、立方体160、ま
たは他の対象物、対象物群でも、静止していても動的な
ものであってもよい。図6から図8のプログラムは、図
2および3に示す状況以外でも、例えば客が表示スクリ
ーンを通過する乗物に座っているといった状況において
も適用し得る。
【0175】図6は、プログラムの全体フローチャート
を示している。このフローチャートにおいては、プログ
ラムは、シリコングラフィックス社から入手のグラフィ
ックスライブラリー、デバイスライブラリー、および数
学ライブラリーソフトウエアパッケージ、並びに表示さ
れる対象物をモデル化する所望の3次元データを最初に
含んでいるものと仮定している。従って、これらは図6
に示されていない。
【0176】プログラムの実行は図6のステップ602
で開始され、以下の定数が規定される: (a)vy Real−−客の視点のY仮想世界方向における
高度である。インチまたは他の現実世界における測定単
位で測定される(客の視点の高度が正確には得られない
場合でも、想定され得る場合に用いられる)。
【0177】(b)near to DisplayZ Real−−映像
(表示面上での)および近方クリッピング平面との間の
現実世界座標システムで測定されたオフセット距離であ
る。ただし、そのようなオフセットが図5に示すように
スクリーンの前に映像を配置するために所望である場合
に限る(この距離は、図5において、表示装置210に
規定される平面および視界平面550との間の表示垂直
線580に沿った距離として示されるが、これは表示装
置に、またはその前後にクリッピング面を配置するため
に選択され得る)。
【0178】(c)fieldWidth aSensor−−aSensor次
元単位で表される格子340の「a」方向の幅。
【0179】(d)fieldDepth bSensor−−bSensor次
元単位で表される格子340の「b」方向の深さ。
【0180】(e)fieldWidth Real−−格子340の
「a」方向の現実世界における幅である。インチ、フィ
ート、または他の現実世界での測定単位で測定される。
【0181】(f)fieldDepth Real−−格子340の
「b」方向の現実世界における深さである。インチ、ま
たは他の現実世界における測定単位で測定される。
【0182】(g)fieldOffsetX Real−−X方向にお
いて、表示スクリーン210に表示された映像の中心点
から(よって、世界座標システムの原点から)どれだけ
離れてセンサーフィールド(格子340)がオフセット
されるかを示す。インチ、または他の現実世界における
測定単位で測定される。
【0183】(h)field to DisplayZ Real−−コンピ
ュータまたは世界座標システムのZ方向において、表示
スクリーン210上の映像から、どれだけ離れてセンサ
ーフィールド(格子340)がセットバック(オフセッ
ト)されるかを示す。インチ、(または他の現実世界に
おける測定単位で)測定される。
【0184】(i)diplayWidth Real−−「a」方向に
おける表示スクリーン210上の生成された映像の幅で
ある。インチ、または他の現実世界における測定単位で
測定される(後で生成される視界のクロッピングは無視
する)。
【0185】(j)displayHeight Real−−「c」方向
における表示スクリーン210上の生成された映像の高
さである。インチ、または他の現実世界における測定単
位で測定(後で生成される視界のクロッピングは無視す
る)。
【0186】(k)displayWidth Virtual−−視界平面
のコンピュータ座標における幅である(この幅は仮想ウ
インドゥの幅を規定し、典型的には仮想空間の所望の視
界を付与するように審美的観点から選択される)。
【0187】(l)displayDistZ Virtual−−仮想世界
の原点に対して仮想世界座標システムのZ軸に沿った位
置である。そこに表示面が配置される。
【0188】(m)dT−−客の位置を示す、コンピュー
タに用いられるデータに手を加えるために用いられる定
数である。
【0189】その後、プログラムはステップ604で眼
間のオフセットを示すデータを任意に検索する。疑似両
眼用認識上の手掛かりを与えるために、立体鏡の映像を
−−両目の各々に対して−−表示されることが所望であ
る場合に、このオフセットが用いられ得る。眼間のオフ
セットは両目のうち1つの目の視点がもう一方の目の視
点とどれだけ離れているかを示すものである。検索され
たオフセットデータを利用して、眼間のオフセットの距
離だけ互いに離されて表示された一組の映像のプロジェ
クションの中心点が求められる。図6のプログラムで
は、検索されたデータは実際には眼間のオフセットの半
分を表わしている。例えば右目に対応する第1映像のプ
ロジェクションの視点/中心点は眼間のオフセットの半
分だけ右にシフトされ、左目に対応する第2映像のプロ
ジェクションの視点/中心点は同じオフセットだけ左に
シフトされる。観察者に同時に表示されたと認識させる
ために互いに時間的に十分密接した(例えば、フィール
ドタイムだけ隔てられた)2つの映像を生成し、表示す
ることにより、また各映像を実質的にその映像に対応す
る目だけに見られるようにすることにより(例えば、受
動的にまたは積極的に、その映像に対応しない方の目に
は実質的にその映像が見られないようにする市販の眼鏡
等を用いることにより)、表示された映像に疑似両眼用
認識上の手掛かりを含ませられる。2つの映像は多くの
従来方法のどれを用いても表示され得る。例えば2つの
コンピュータを用いて1つまたは2つのプロジェクター
により別々の映像を同時に表示するか、または1つのコ
ンピュータを用いてフィールド回数が偶数の時に1つの
映像を表示し、奇数の時に他方の映像を表示する方法が
用いられる。
【0190】プログラムは次にステップ606に進み、
(ステップ602で規定された定数を用いて)一定の変
換ファクタを計算するが、これはセンサー、仮想および
現実世界座標システムのスケール関係を規定する。これ
らのファクタには以下のものが含まれる: (n)Real to Virtual=displayWidth Virtual/display
Width Real−−現実の座標を仮想世界座標に変換するス
ケールファクタ(このファクタは現実世界および仮想世
界のスケール関係を1:1に設定し得る(1:1にする
ことにより多くの場合、表示された映像のリアリティを
最大限に引き出す)、または他の所望の比率(例えば、
現実世界では3フィートの移動を仮想世界では100フ
ィートの移動と解釈させる場合には100:3)に設定
し得る。
【0191】(o)fieldWidth Virtual=fieldWidth Re
al*Real to Virtual(仮想世界座標における格子340
の幅)。
【0192】(p)fieldDepth Virtual=fieldDepth Re
al*Real to Virtual(仮想世界座標における格子340
の深さ)。
【0193】(q)fieldOffsetX Virtual=fieldOffset
X Real*Real to Virtual(X方向に沿った仮想世界座標
中の表示装置210からの格子340のオフセット距
離)。
【0194】(r)fieldOffsetZ Virtual=(field to D
isplayZ Real*Real to Virtual)+displayDistZ Virtual
(表示装置210からの格子340のZ方向に沿った仮
想世界座標中のオフセット距離)。
【0195】(s)aSensor to Virtual=fieldWidth Vi
rtual/fieldWidth aSensor(仮想世界のX座標を用いて
視点の正確な「a」位置を表わすスケールファクタ)。
【0196】(t)bSensor to Virtual=fieldDepth Vi
rtual/fieldDepth bSensor(仮想世界のZ座標を用いて
視点の正確な「b」位置を表わすスケールファクタ)。
【0197】(u)displayHeight Virtual=displayHei
ght Real*Real to Virtual(仮想世界座標中に示された
表示装置の高さ)。
【0198】(v)near to displayZ Virtual=near to
DisplayZ Real*Real to Virtual(仮想世界座標中に示
された表示装置210の平面および視界平面550の間
の表示垂直線580に沿って測定された距離)。
【0199】次いで図6のプログラムは、ブロック61
0の初期化ルーチンに進み、そこでハードウエアを始動
させ、メモリーを配置し、全体的特性を示すデフォルト
時の値を確定する。ステップ610においては多くの事
柄が行われる。とりわけステップ610においてプログ
ラムはまず、画素中の正確なスクリーンサイズと一致す
るように表示ウインドゥを始動させる。次いで、プログ
ラムは、コンピュータのハードウエアを二重バッファモ
ードに入れるが、それはプログラムがIRISコンピュ
ータのフレームバッファメモリーをアドレスする際のモ
ードであり、2つのバッファ(前および後バッファ)が
あるかのように、そのうち一度に1つだけのバッファ
(前バッファ)が表示されるとするものである。二重バ
ッファは、アニメーションが用いられる時は滑らかに表
示させるのが好ましいが必ずしもそうである必要はない
(とりわけ表示されるシーンが静的な対象物しか含まな
い場合)。
【0200】次に、ブロック610では、システムのカ
ラーモードがRGBmodeであるように規定され(色
を規定するために、ベクターの形式で赤、緑、および青
の絶対値(0−255)を用いる)、またシェーディン
グモードが規定される(例えば、平坦なまたはGour
audシェーディングが用いられ得る)。次に現時点の
変換マトリックスモードが、GLのMMODEコマンド
を用いて、MVIEWINGになるように規定される。
GLのMVIEWINGモードは二重マトリックススタ
ック:Model/Viewおよびプロジェクションを
用いる。このモードでは、モデル化および視界のコマン
ドまたは呼び出しはIRISコンピュータによって保持
された現時点のModel/Viewマトリックス投影
を予め乗算しておく。以下の説明から明らかであるよう
に、MVIEWINGモードの使用により、本発明に従
ってIRISコンピュータを用いてのカスタム変換の実
行が可能となる。
【0201】ブロック610では、次に隠れた表面移動
アルゴリズムを指定する(例えば、backface(TRUE)およ
びzbuffer(TRUE)となるように)。次に、IRISコン
ピュータの事象キューにロードされるデバイスおよび値
を規定する(ESCキー、マウスボタン等を押すことに
より生じるアクション等)。
【0202】最後に、ステップ610において、IRI
SコンピュータのCOM2シリアルポートの初期化は、
既知のUNIXプロトコル規定を用いて、「オープン」
して、パラメータを設定し、また問題が生じた時は全て
のエラーメッセージを「プリント」することにより、従
来の方法で達成される。COM2ポートを8ビットワー
ドを有し、パリティがなく、1つの終了ビットを有する
9600ボーで作動するように設定する。
【0203】初期化が完了した後、プログラムはブロッ
ク620を頂点とするホワイル(While)ループに
突入する。このループの間、コンピュータは、表示装置
を見る客の、スクリーンに対する位置を示すデーターを
受理すると、それに答えて、スクリーン210上に表示
される映像を描く。コンピュータはループから脱出する
ようにコマンドされて(すなわち、変数EXITFLA
GがTRUEに設定されて)その時点でプログラムがブ
ロック630で終了しない限り、ホワイルループに留ま
る。
【0204】図6に示すように、ホワイルループは主に
4つの機能的プログラムブロックを有している:(1)
視点を得るブロック660;(2)シーン描写ブロック
640;(3)アニメーション変数を加算するブロック
650;および(4)キュー中の事象ブロック670。
これらのブロックの各々の機能を以下に詳細に記載す
る。
【0205】ブロック660においては客の視点の位置
を示すデータが外部ソース(例えば、別のプロセッサ)
から得られ、仮想世界座標に変換される。これらのデー
タは実質的にどのような方法を用いても、実質的にどの
ような手段によっても生産され得る。
【0206】例えば、従来の感圧床格子システムが、客
の立っている場所を示す位置データをコンピュータ10
0に転送するために用いられ得る。代わりに、位置情報
を静止ソースに伝達する、客または他の移動する対象物
に取り付けられたトランシーバーを含むような、従来の
位置センサが用いられ得る。そのようなセンサの例とし
ては、コルチェスター、ヴァーモントのAscension Tech
nology社製の「バード」という商品名のセンサがある。
第3の方法として、トラックに沿って配置された1つ以
上の従来の位置センサを用いて、乗物の位置を示し、結
果的に乗物に乗っている客のおおよその視点位置を示す
データを生産する方法がある。さらに、任意のまたは所
定の軌道に沿って移動する客または乗物の位置を示す位
置データを生産するために特に有利である方法は、人ま
たは乗物が移動する空間を見る映像デバイスを用いる方
法である。そのようなシステムの例を図9から図12を
参照して以下に記載する。
【0207】位置データが生産されるが、それらは図8
のフローチャートに詳細に記載しているように、コンピ
ュータシリアルポート(COM2)を介して図6のプロ
グラムがステップ660を行うことにより得られる。プ
ロジェクションスクリーンに対する客の視点の高度は一
定の値であると仮定されているため、データは、三組
(a、b、c)でなく二組(a、b)の座標として得ら
れる。
【0208】図8の最初のステップ820において、1
0バイトの入力データバッファが規定され、「INDE
X」と呼ばれるバッファバイトカウント変数はゼロに初
期化され、「CHANGED」と呼ばれる変数値もまた
ゼロに初期化される。ブロック830において、コンピ
ュータはCOMポートからのデータの現時点のバイトを
読み取ろうとする。最初に読み取られるバイトが存在す
ると仮定して、プログラムはステップ835から840
の「YES」の経路を辿って分岐する。
【0209】ステップ840で、入ってきたバイトの値
をチェックする。値が「FF」(hex)であれば、プ
ログラムはステップ842に進み、INDEXの値がバ
ッファのサイズ未満であるかがチェックされる。否であ
れば、プログラムはループの頂点であるステップ830
に戻る。INDEXの値がバッファのサイズ未満であれ
ば、プログラムはステップ842からステップ844に
進み、COMポートから読み取ったバイトをINDEX
の値によって得られた位置にあるバッファに記憶させ
る。次に、ステップ846で、INDEXの値を1つ加
算し、プログラムはループの頂点であるステップ830
に戻る。
【0210】ステップ840で、COMポートから読み
取られた現時点のバイトが「FF」であれば、プログラ
ムはステップ850に分岐し、INDEXの値が2であ
るかチェックされる。否であれば、エラーが発生した可
能性があり、プログラムは「no」の経路を経てステッ
プ850からステップ860に進み、INDEXはゼロ
にリセットされる。一方、ステップ850において、I
NDEXの値が2であれば、変化した客の視点の位置を
示す2バイトがバッファに読み取られたことを意味す
る。よって、プログラムは、このシナリオに基づき、ス
テップ855に進み、(1)バッファされたデータが変
数rxおよびryに割り当てられ、また(2)CHAN
GEDの値が客の視点の位置が変化したことを示すため
に1に設定される。次にプログラムはステップ860に
進む。ステップ860に続いて、プログラムはデータの
別のバイトをCOMポートから読み取るためにループの
頂点であるステップ830に戻る。
【0211】ステップ830で、COMポートに読み取
られる新しいデータがなければ、プログラムはステップ
835で「no」の経路を経てステップ870に進み、
ルーチンは、ブロック660(図6)に戻り、変数CH
ANGEDの値に対応する0または1の値を有すること
になる。
【0212】図8のルーチンがステップ660に戻る
と、rxおよびryの値が、格子340上の「a」およ
び「b」方向における現時点で得られた視点座標位置を
示す変数「a」および「b」に割り当てられる。なお、
その位置を測定するために用いられる次元の単位はどの
ような単位(例えば、インチ、フィート、または視点の
位置が画素を基にした映像装置によって決定されるな
ら、画素けた)であってもよい。次に、同じくステップ
660にて、これらのデータは以下のようにnewa Senso
rおよびnewb Sensorの変数値を計算するために用いられ
る: (1)newa Sensor=newa Sensor+(a-newa Sensor)*dT;
および (2)newb Sensor=newb Sensor+(b-newb Sensor)*dT。
【0213】なお、dTは、前述のように、規定されたイ
ンターポレーション定数である(記載の実施例では1/
6に等しい)。式(1)および(2)により、newa Sen
sorおよびnewb Sensorの最終値は、プログラムにおいて
6つの工程を経て、徐々に計算され、「a」および
「b」の新しい値が得られる。このことにより、位置が
モニターされる客の体の一部が小刻みに震動したり、任
意に動いた時にソフトウエアに及ぼす影響を減少させ
る。式(1)および(2)により得られるフィルターの
度合はdTの値(0から1の範囲)を選択することにより
修正され得、またはdTを1に設定することにより完全に
除去し得る。予め軌道および速度が既知である上でライ
ドカーの位置がモニターされるなら、フィルターは必要
とされず、dTの値を1に設定し得る。
【0214】客の現時点での位置を示すデータが決定さ
れたなら、図6のルーチンはステップ660からシーン
描写ステップ640に進む。これは表示される全ての映
像が生成されるルーチンの一部である。描かれたシーン
はクリアされ、シーン全体はシーンを描くルーチンが呼
び出される度に再度描き直される。シーンを見る客の現
実世界の位置(a、b、c)(「c」は仮定される値)
を示す得られたデータに相関して、また任意的にオフセ
ット(dx、dy)を基にして、マウスから得た(a、b)
位置に加算して、シーンは描かれる。マウスから導いた
オフセットデータは任意のものであり、用いる必要はな
い。含まれるなら、オフセット(dx、dy)はシステムを
テストする際のユーティリティを有する。
【0215】シーン描写ルーチンのより詳細なフローチ
ャートを図7に示す。
【0216】最初に呼び出されると、図7のルーチンは
ステップ710で以下に示すルーチンが用いる変数を宣
言する。その後、ステップ712は客の位置を示す得た
データを仮想世界座標システム中の対応する位置に変換
する。これは下記の計算を行うことにより成される: (3)Vx=(newa aSensor*aSensor to Virtual)+fieldOf
fsetX Virtual; (4)Vy=vy Real*Real to Virtual;および (5)Vz=(newb bSensor*bSensor to Virtual)+fieldOf
fsetZ Virtual。
【0217】上式(3)および(5)は表示装置を見て
いる人の現時点の位置を示すデータに、現実世界の位置
を該当する仮想世界の位置に変換するスケールファクタ
を乗算したものであると容易に理解される。加えて、オ
フセットを加算して(これも仮想世界座標において)、
現実世界の位置の格子の原点が仮想世界座標システムの
原点からどれだけ離れているかを表わす。式(4)は、
観察者の視点が床より上の(現実世界座標において)既
知の位置に固定されているものと仮定しているため、よ
り簡潔である。当然、視点の高度を仮定し得ない場合
は、Vyの値は、VxおよびVzの計算と同様の方法で計算さ
れる(当然「c」および「y」方向の位置を表わす適切
な変数を用いる)。
【0218】加えて、立体鏡的表示を意図するのであれ
ば、ステップ712においてプログラムは眼間のオフセ
ットをVxの計算された位置に以下のように加算を行う
(または、左目または右目のどちらに対して映像が生成
されるかによっては減算を行う: (6)Vx=Vx+(Offset Real*Real to Virtual)、 ここでOffset Realは眼間オフセットの値の半分であ
る。
【0219】特に(a)−(v)で規定された定数およ
び変数の値は、また式(1)−(6)に用いられる係数
の値は、表示スクリーンおよび客が位置する有形空間に
おける特定の間隔および配置、並びに(コンピュータ生
成世界座標スステムに対して)現実世界座標が写像され
る格子または他の座標システムの分解能といったファク
タによって異なってくる。本発明は図2および3に図解
された特定の状況以外の状況でも用いられ得るので(例
えば表示スクリーンに対して歪曲した読取り格子が用い
られ得る)、式(1)−(6)は説明のために示されて
いるだけで、これらに限定されるものでない。
【0220】決定された観察者の視点の仮想世界におけ
る現時点の位置(Vx、Vy、Vz)、および既知の表示装置
の位置を得て、プログラムはステップ714に進み、そ
の位置に対する「表示垂直線」を計算する。表示垂直線
とは視点の現時点の位置から延びており、実際の表示装
置平面と直角に交差する光線である。そのような2つの
表示垂直線を図2に例示的に示す。視点EPに対して、
その視点と、視界平面210Aと一致する平面を結ぶ表
示垂直線は光線260Aである。視点EP’に対する表
示垂直線は光線260Bである。
【0221】表示垂直線はステップ714において、点
(Px、Py、Pz)を以下の位置にくるように規定すること
により計算される: (7)Px=Vx; (8)Py=Vy;および (9)Pz=displayDistZ Virtual。
【0222】(7)−(9)から明らかであるように、
点(Px、Py、Pz)は表示垂直線が表示装置平面と交差す
る場所に配置される。
【0223】次にプログラムはステップ720に進み、
IRISコンピュータのモデル/ビュースタックの頂点
に存在する現時点のモデル/ビューマトリックスのコピ
ーが、アイデンティティマトリックスとしてそのマトリ
ックスを保存するためにそのスタックにプッシュされ
る。これはGLソフトウエアライブラリーが有するコマ
ンド(”PUSHMATRIX”)を用いて行われる。
【0224】これに続いて、同じくステップ720にお
いて、モデル/ビュースタックの頂点にある現時点のマ
トリックスがカスタムモデル/ビュー変換マトリックス
と予め乗算される。この変換はステップ720において
GLグラフィックスライブラリーが有する、”LOOK
AT”と呼ばれる関数を用いることにより行われる。L
OOKATは、コンピュータ座標において、視点の位
置、および視点が「見ている」地点(「参照地点」)の
位置を指定する。LOOKATコマンドのシンタックス
は以下の通りである:LOOKAT(Vx、Vy、Vz
x、Py、Pz、ツイスト):なお、Vx、Vy、および
zは視点の仮想世界座標での計算された位置を指定
し;Px、Py、およびPzは視点が「見ている」世界の
座標における計算された参照地点を指定し;また「ツイ
スト」は目の座標システムにおいてZ軸を中心にした視
点の右回り回転を測定する。LOOKATにおけるツイ
ストの値はゼロに設定されているが、これは視点が表示
装置に対して整合されている(すなわち表示装置に対し
て回転していない)ことを意味する。
【0225】LOOKATコマンドの実行により、視点
を−−視点がどこに位置していても−−常に表示垂直線
を見おろすように、モデル/ビュー変換マトリックスを
製作する。よって、LOOKATは各視点に対して、プ
ロジェクション変換が可能であるあらゆる視界平面のセ
ット(「プロジェクション平面」の形態で)を確立させ
る。なおセットの各平面は実際の表示装置の平面と実質
的に平行である。(スクリーンの中心点と交差する垂直
線の軸からかなりずれた場所にあるプロジェクターから
映像がスクリーンに表示され、所望でない歪曲が映像に
生じると、このステップにおいて、前述のようにこれら
の歪曲を補正する目的で視界平面の方向を再度変更する
ために、LOOKATコマンドで指定された参照地点P
を再度規定し得る)。
【0226】次にプログラムは図7のステップ730に
進み、カスタムプロジェクション変換マトリックスが、
カスタムプロジェクション変換スタック上にある全ての
マトリックスをも置き換えるように規定される。このカ
スタムプロジェクション変換には2つの目的がある。第
1に、プロジェクション変換は仮想世界における映像を
見る錐台(プロジェクションの頂点または中心点は移動
する視点に一致する)の上部、底部、および2側方のク
リッピング平面を、現実世界で実際に表示される生成さ
れた映像の対応する上部、底部、および側方に対して登
録する(実際にスクリーンに表示される生成された視界
を制限するために、後で生成される映像のクロッピング
またはビネットは考慮しない)。結果、客が仮想世界の
表示された映像を見る際の「仮想窓」は、現実世界の表
示装置と一致するスケールで規定される。
【0227】第2に、プロジェクション変換は、(Mo
del/View変換によって確立された視界平面群の
中から)映像が投影、または写像される視界平面を選択
する。前述のように、近方クリッピング平面およびIR
ISコンピューターの視界平面はデフォルト時に一致す
るため、視界平面は近方クリッピング平面の位置を設定
することにより規定される。このステップにおける視界
平面の位置は所望により、図2に示す表示装置の現実世
界の位置、図5に示す表示装置の前、または表示装置の
後ろに一致するように設定され得る。
【0228】カスタムプロジェクション変換はGLソフ
トウエアライブラリーが有する、”WINDOW”と呼
ばれる関数によって規定される。WINDOWは、距離
を規定された錐台による透視図中にコンピューター生成
世界を示すが、それは、錐台の左方、右方、底部、上
部、近方、および遠方のクリッピング平面それぞれに対
する、プロジェクション/視点の中心点の位置を示す仮
想世界座標における透視図である。WINDOW関数の
シンタックスを以下に示す: WINDOW(左方、右
方、底部、上部、近方、遠方)、なお、引数「左方」、
「右方」、「底部」、「上部」、「近方」、および「遠
方」は視点に対して適切な方向における仮想世界座標で
あり、対応するクリッピング平面の位置を規定するもの
である。
【0229】プロジェクション変換はステップ730に
おいて引数を求めるために以下の値を用いてWINDO
Wコマンドを実行することにより行われる: (10)near=DispNearZ-near to DisplayZ Virtual; (11)left=DispLeftX*(near/DispNearZ); (12)right=DispRightX*(near/DispNearZ); (13)bottom=DispBottomY*(near/DispNearZ); (14)top=DispTopY*(near/DispNearZ);および (15)far=near+280、 ここで、 (16)DispLeftX=-((displayWidth Virtual/2.0)+
Vx); (17)DispRightX=(displayWidth Virtual/2.0)-Vx; (18)DispBottomY=-((displayHeight Virtual/2.0)+
VY); (19)DispTopY=(displayHeight Virtual/2.0)-VY
および (20)DispNearZ=Vz-displayDistZ Virtual。
【0230】上式から明かであるように、式(20)中
のDispNearZの数値は、得られた現実世界の視点位置に
対応する仮想世界の位置から、表示装置の平面の現実世
界における位置に対応する仮想世界の位置までの、表示
垂直線に沿った仮想世界座標における距離(すなわち、
図5における視点310から表示装置210の平面まで
の表示垂直線580に沿った、仮想世界座標における距
離)を表わしている。式(15)における「遠方」の値
は表示される対象物映像をクリップしないために、遠方
クリッピング平面を十分遠くに(仮想世界において)配
置するように任意に選択される。
【0231】定数near to DisplayZ Virtualがゼロと選
択されると、式(10)における近方の計算値は(図2
に示すように)計算された視界平面を表示装置210の
平面に一致させる。near to DisplayZ Virtualの値が正
の値であれば、近方クリッピング平面/視界平面は図5
に示すように表示装置の前に配置される。また、near to
DisplayZ Virtualの値が負の値であれば、近方クリッ
ピング平面/視界平面は表示装置の後ろにくる。しか
し、どの場合においても、仮想世界への視界の周辺部を
規定する上部、底部、および側方のクリッピング平面−
−および近方クリッピング平面/視界平面の対応する縁
−−は仮想窓または表示装置になるように規定された表
示スクリーン210の該当する部分の周辺部(対応する
上部、底部および側方)を用いて(すなわち生成され表
示された映像の周辺部を用いて)、決定された全ての視
点に対して登録される。
【0232】以下に示す場合は、near to DisplayZ Vir
tualの値はゼロに設定され得る:(1)表示装置210
の前には全く対象物を配置しないでおく場合、または
(2)対象物を表示装置の前に置くことを所望し、かつ
コンピューターが、視界平面の前にクリッピング平面を
置くために視界平面および近方クリッピング平面を切り
離せる場合。コンピューターが視界平面および近方クリ
ッピング平面を切り離すことが出来ず、かつ表示装置2
10の前に仮想対象物を配置することが所望であるな
ら、near to DisplayZ Virtualの定数を、表示装置21
0の平面の位置の前から近方クリッピング平面の計算さ
れた位置まで延びる値に設定することにより、仮想対象
物を所望通り表示装置の前に配置させる(それでもなお
視界内に納まる)。
【0233】ステップ730に続いて、プログラムは図
7のステップ735に進み、色を黒に再設定し、対象物
の重なりを決定するために対応するZバッファを初期化
することにより、IRISコンピューターの「バック」
バッファはクリアされ、次の表示でバッファ内に新しい
映像が描かれ得る。次に、ステップ740において、コ
ンピューター生成された仮想世界にある1つ以上の静的
対象物が従来のまたは公知の描写コマンドおよび技術を
用いて描かれる。その後、プログラムはブロック750
に進み、1つ以上の所望の移動する対象物を規定する基
関数を例証するために従来の描写コマンドおよび技術が
用いられる。シリコングラフィックスIRISコンピュ
ーターおよびGLソフトウエアパッケージの場合、これ
は当業者に公知の従来方法において、PUSHMATR
IXおよびPOPMATRIXコマンドを用いて対象物
を所望通りにスケーリングし、回転させ、また翻訳する
ことにより成し遂げられる。
【0234】当然、ステップ740および750の順番
は任意のものであると理解される。これらのステップは
どのような順番でも、また何度繰り返しても行われ得る
ものであり、その結果スクリーン210に表示する、実
質的にどのような仮想世界をもモデル化するために、実
質的に幾つもの描写コマンド、またはどのような描写コ
マンドをも実行し得る。
【0235】全ての所望の描写コマンドがステップ74
0および750において実行されると、ステップ755
においてプログラムはPOPMATRIXコマンドを実
行し、ステップ720において規定されたカスタム視界
変換をModel/Viewスタックから削除し、アイ
デンティティマトリックスを再度記憶する。次に、ステ
ップ760において、SWAPBUFFERSと呼ばれ
るGLコマンドが実行され、ITISコンピューターの
「バック」バッファの内容をスクリーンに表示されるシ
ーンとして認識させる(「バック」バッファにおいて
は、ステップ740および750において出された描写
コマンドに従ってコンピューターが完全なフレームを描
写する)。SWAPBUFFERSコマンドの実行は図
6のブロック640のシーン描写のルーチンを終了さ
せ、ルーチンはステップ765に戻り、図6のステップ
650を再開する。
【0236】図6のアニメーション変数加算ブロック6
50において、整数TIMEは所定数だけ加算される。
この整数は、従来方法により、ある瞬間に様々な位置お
よび配向で対象物(例えば軌道を描く惑星)を描写する
シーン描写ルーチンのモジュール750において用いら
れる。これはROTATE(a、軸)のようなGLコマ
ンドを用いることによりステップ750において行われ
る。なお、「a」は回転角度を示し、「軸」は回転軸を
示すものである。軌道を描く惑星の場合、回転角度は6
*TIMEと規定され得る。なおTIMEはプログラム
が循環する度にブロック650において加算される変数
であるが、その際TIMEは階段的に、(例えば、10
づつ)0からある数字(例えば3600)にまで加算さ
れ、その後0に再設定され再び加算されていく。よっ
て、TIME変数がアニメーションにおいて用いられ
る。静止シーンのみが表示されるのであれば、TIME
変数は必要とされない。
【0237】ブロック650に続けて、プログラムはブ
ロック670においてホワイルループを開始する。コー
ドのこの部分で、コンピューターは、システムオペレー
ターがコンピューターマウスまたはキーボードを用いて
何らかのアクションを要する操作を行ったかを判断する
ために事象キューの事象を管理する。図6に示すように
以下の事象のいずれもがキューに何かを配置し得る:
(1)ESCキーが押されて(ブロック672)、プロ
グラムがループから出て停止するように、EXITFL
AGがTRUEに設定され(ブロック672A);
(2)REDRAWキーが押されて(ブロック67
4)、窓および表示域がリサイズされ(ブロック674
A);(3)ミドルマウスボタンが押されて(ブロック
676)、XおよびY方向におけるマウス移動値を待ち
行列に入れ(ブロック676A);(4)−(5)マウ
スがX方向(マウスXブロック671)またはY方向
(マウスYブロック673)のいずれかの方向に移動
し、これによりdxおよびdyの変数(相対マウスXお
よびY移動を表わす)を相対量を用いて更新することが
必要となり(ブロック671Aおよび673A);
(6)右マウスボタン(ブロック678)が押されて、
スクリーンメニューをポップアップし(ブロック678
A)、これにより出口の選択が行われ、出口が選択され
るとEXITFLAGはTRUEに設定される(ブロッ
ク678B)。
【0238】キューの中に処理すべき事象が他になけれ
ば、ホワイルループはステップ670で完了し、プログ
ラムは、ステップ620に戻る。
【0239】上述のソフトウエアルーチンは、プロジェ
クションスクリーン210に3次元のコンピューターデ
ータベースからモデル化された映像を描く操作であり、
表示映像を見る客に対して奥行きのある3次元の誇張さ
れたイリュージョンを与える。映像は表示装置に対する
客の現実世界における視点を中心とした遠近法により描
写される。客がスクリーンの前を移動すると、映像のプ
ロジェクションの中心点は、観察者の視点の現実世界に
おける現時点の位置に対応する仮想世界の位置に実質的
に一致するように計算される。さらに、仮想世界への視
界は、現時点の視点に対して生成された映像の表示によ
って範囲を定められた視界の立体角と実質的に同じ立体
角の範囲を定め、またその方向と実質的に同じ方向にあ
るように計算される。
【0240】上述のように、実質的にどのような手段ま
たは方法をも客の視点位置を示すデータを生産するため
に図8のルーチンにおいて用いられ得るが、とりわけ有
利な方法は受動映像システムを用いる方法である。その
ようなシステムの一実施例を図9から図12を参照して
以下に記載する。
【0241】図9(a)は概略的に床970上に立って
いる人310を示している(図は実際に即したスケール
で描かれていない)。カメラを搭載する高さは、人の所
定位置において容認範囲を越えた大きなエラーが生じな
いレベルにまで視界の縁におけるパララックス歪曲を減
少させるに十分な高さであることが好ましい。本発明を
実行する際に、カメラを十分遠くに搭載することが出来
ないなら、パララックスエラーを減少させるために他の
技術(後に記載)が用いられ得る。
【0242】直積座標において床の原点(0、0)は図
9(a)においてZ−X軸990Aで示されるように左
側に任意に規定される。床は必ずしもそうである必要は
ないが室内にある。人は、プロジェクター330により
映像が背面投影されるスクリーン210に向い合ってい
る。この配列はセットまたはヴィスタのコンピューター
生成された映像がスクリーンに表示されるタイプのダー
クライドにおいて想定されるものを概略的に表したもの
である。(しかし、スクリーン210およびプロジェク
ター330が図9(a)に示されているが、説明のため
に示しているだけであり、他のタイプの表示装置もまた
用いられ得る。) 図9(a)に示す映像装置960は、人310の動きを
モニターすることが望ましい全ての地点を含む床を見れ
るように、床970より上の既知の位置に(例えば天井
(図示せず)から)つるされている。映像装置960は
実質的に、連続した瞬間にシーンを電子工学的にとらえ
ることが出来るものであればどのような従来のビデオカ
メラまたは他の映像装置であってもよい。図9(a)の
映像装置960はNTSC互換性出力を出す従来のビデ
オカメラである。
【0243】映像装置960の横には、照明950の第
1光源がある。光源950は、映像装置960による映
像を行うために下にあるシーンを照らすものである。光
源950は、映像装置960によって「見られ」得るも
のであればどのようなタイプの照明でもよい。図9
(a)の光源950は、人310が光源から照射された
光に気付かないように赤外線光源である。この光、およ
びそれによって照射される全てのシーンをも「見る」た
めに、ビデオカメラ960を改変して赤外線ブロックフ
ィルターを取り除いた。当業者なら、本発明が用いられ
る状況および環境によっては、実質的にどのような型の
光源をも光源950として用いられ得ると理解する。し
かし、人310または他の近くの物体の影は、移動する
対象物を同定し、その位置を確認するシステムの感度を
妨げ、または減少させ得るので、その影を短くするため
に、光源950を、映像装置960に密接して搭載する
ことが好ましい。
【0244】映像装置960の近くにはまた照明955
の第2光源が搭載されている。この光源は一般に人31
0の位置を決定する際のシステムには用いられないが、
人310が見ることが出来る周囲光を提供するために設
けられる。光源955の波長は光源950の波長と異な
っていることが好ましい。例えば、人310に周囲光を
提供するために、第2光源955は、可視光または近紫
外線であり得る。必要なら、照明950から発光された
光が対象物に当たって反射した光のみを映像装置960
が実質的に「見える」ように、光源955からの光をフ
ィルターにかけるために映像装置960にフィルターを
取り付けてもよい。
【0245】図9(a)に示す映像装置960は、ケー
ブル965を介して、プロセッサ910の入力に結合し
ている。図9(a)に示す実施例では、プロセッサ91
0は、モニター920を有する従来のIBM PC-AT互換
性、DOSベースのパーソナルコンピューターである。
そのコンピューターは33MHzで作動する80386-DXマ
イクロプロセッサを用いており、少なくとも512kバ
イトのランダムアクセスメモリ、ハードドライブ(20
から40メガバイドであり、十二分の容量である)、1
つ以上の取り外し可能記憶メディア(例えば、3から1
/2インチミニ、または5から1/4インチフロッピー
ディスク)、シリアルI/Oポート、および拡張カード
を挿入し得る複数の拡張スロット(以下に記載のディジ
タルビデオフレームグラバカード等)を有する。当然、
本発明を実行するために必要な計算をリアルタイムで
(移動が生じた際に)行うに十分な速さで作動し得るな
らば、実質的に他のどのようなコンピューターシステム
をもプロセッサ910に用いられ得る。プロセッサ91
0によって成される機能はプロセッサ100(図3)に
導入され、実行され得る。
【0246】図9(b)に、図9(a)の空間を天井か
ら見下ろした上面図または平面図を示す。プロジェクタ
ー330およびスクリーンが床970の一部のように見
える。床970の原点(0、0)を、今回はX−Y軸9
90Bを用いて床の左端に示す。人310が図9(b)
の床970上の座標位置(X1、Y1)に位置して見える
(破線の座標延長線972および974で示される)。
【0247】図9(b)は、人310が立っている床が
一般に2つのセクションを含んでいることを示してい
る。セクション970Aは「能動」読取り領域と呼ば
れ、セクション970Bは「受動」読取り領域と呼ばれ
る。両領域とも映像装置960の視界内に位置している
ため、本発明は、領域970Aまたは970Bのいずれ
かを移動する人310のような対象物のX−Y位置をリ
アルタイムで正確に決定および探知し得る。映像装置9
60によって映される領域を1つまたは別の目的のため
分割し得る一方法例を説明するために、分割された領域
を示す。例えば、人が受動領域に入ったと本発明が判定
するとある事象が生じ、一方人が能動領域に入った時に
は別の事象が生じることが望ましい。あるいは、本発明
によって生産されたデータは、探知領域(床970)が
効果的に、より多くの異なる形をした領域に分割される
ような他の方法で解釈され得る。本発明に従えば、ユー
ザーは探知領域を所望により実質的にいくつもの副領域
に分割し得る(もちろん実際に実行される際の特定シス
テムの全体分解能により制限を受ける)。
【0248】映像装置960はケーブル965を介して
コンピューター910に連結されており、ケーブル96
5はコンピューター910の拡張スロットの1つに挿入
されたディジタルフレームグラバ回路のNTSCビデオ
インポートに接続されている。この回路は、入りビデオ
情報のフィールドをディジタル方式で捕捉する回路であ
れば、多くの市販されている回路のどれでもよい。その
ような市販回路の一例としてはIVG-128ビデオ獲得およ
び表示ボード、マサチューセッツ州ピーボディのDatacu
be社製がある。
【0249】IVG-128のフレームグラバとは、1つのP
Cインタフェースカード上のコンピューター制御された
ビデオフレーム記憶機構およびグラフィックス表示シス
テムであり、約192Kバイトの搭載映像記憶装置を含
有する。この記憶装置は、1画素当り8ビットとして、
384画素(水平方向)×512画素(垂直方向)で構
成される。ボードは384画素(水平方向)×485画
素(垂直方向)の分解能でディジタル化し得る。各画素
は、多量の色パレットから選択されたグレーの256セ
ード、または256色相を示す画素輝度をコードする8
バイトで表される。グレーのセードという値を用いて画
素輝度をコードするフレームグラバを例示的に用いて本
発明を以下に説明するが、色をコードする画素値または
他の画素変数を用いて本発明を実行することも可能であ
る。本明細書で用いる画素用語「輝度」の定義には、そ
のような計数全てが含まれるものとする。
【0250】コンピューター910のフレームグラバ回
路はリアルタイムで(例えば毎秒30回)標準ビデオの
1フレームを回路のビデオ記憶装置および表示装置にデ
ィジタル化し得る。コンピューター910はコンピュー
ターアドレス空間中に配置された64Kページを介して
フレームグラバのビデオ表示記憶装置にアクセスする。
コンピューター910はまたヒストリーバッファを記憶
装置内に保持する。このバッファは以下に記載のよう
に、フレームグラバより得たビデオ情報の最後のフィー
ルドの画素の選択されたサブサンブルを記憶する。
【0251】コンピューター910をプログラムするた
めに用いられ得るルーチンのメインループのフローチャ
ートの一例を図10に示す。このフローチャートはコン
ピューター910に用いられる低レベルビデオ処理ルー
チンの論理的フローを示すものであり、これにより、映
像装置960からビデオ情報を受理し、その情報を処理
して、映像装置960が捕捉した映像内に動く対象物の
重心のロケーションを決定する。特定のコンピューター
を用いて、映像を処理し、動く対象物の重心をリアルタ
イムで計算する際に必要とされる速度を得るために、フ
ローチャートで示されるプログラムはアセンブリ言語で
書かれている。
【0252】図10のブロック1005において、コン
ピューター910は従来方法でフレームグラバ回路を初
期化する。次にブロック1010において、コンピュー
ター910は動く対象物の重心のロケーションを示す座
標XおよびYをゼロに初期化する。加えて、変数COU
NTの値もまた(以下に示す理由により)ゼロに設定す
る。
【0253】次にプログラムフローはステップ1020
に進み、ルーチンは従来方法でコンピューターのシリア
ルポート(COM1)を初期化し、それによりコンピュ
ーター910は映像装置960によって映された動く対
象物の位置を示すデータをコンピューター100に転送
し得る。シリアルポートは、従来のRS−232連結を
介して、パリティは含まず、1つの終了ビットを有する
8ビットワードのデータを9600ボーで転送するよう
に形成される。
【0254】次のステップにおいて、ブロック1030
でメインプログラムはスクリーンタイプのモニター92
0(例えば、VGA、Hercules等)を用いて、プログラム
が直接スクリーンの記憶装置に書き込めるようにする。
これはコンピューターのBIOSを呼び出し、従来方法
で、スクリーンの記憶アドレスおよび色計数を適切に設
定することにより成し遂げられる。
【0255】ブロック1040において、プログラム
は、フレームグラバが保持する画素サンプリングビデオ
入力ルックアップ表(「ILUT」)および3つの出力
ルックアップ表(「OLUTs」)を初期化する。IL
UTは高速度のRAMを包含しており、フレームグラバ
に用いられるA/Dコンバーターの出力を受理し、入り
アナログビデオ情報をディジタルデータに変換する。一
方、OLUTsは、映像記憶装置の内容を受理し、高速
度D/Aコンバーターを駆動し、RGBカラーモニター
のビデオ入力を駆動させる。ILUTは、どのディジタ
ルグレーレベル値をもプログラム制御下、他の8ビット
値に変換し得る。ILUTを用いる目的としては、2進
しきい値を含ませる(データをディジタル化するために
用いるビット数を減少させる);ディジタルゲイン、オ
フセット、および直線性を制御する;またはデータを記
憶する前に入力されるビデオデータに対して数学操作を
行う、等が挙げられる。図に示す実施例では、入力され
るデータの変換は行われない。
【0256】ルックアップ表の初期化に続いて、プログ
ラムはステップ1050で、起動の際に異常が生じるこ
とを避けるため、入力されるビデオの3つの奇数フィー
ルドが通過するまで待機する。次いでステップ1060
で、プログラムは、最新の奇数視界からサブサンプリン
グされた画素値の配列を有するヒストリーバッファを初
期化する。その最新の奇数フィールドはフレームグラバ
によってディジタル化、および記憶されたものであり、
映像装置960から受理される。次にプログラムフロー
はステップ1070に進み、そこでプログラムはビデオ
データの次の奇数フィールドが受理されるまで待機す
る。
【0257】ビデオの次の奇数フィールドがステップ1
070で受理されると、プログラムはステップ1080
に進み、そこで対象物が映像装置960の視界内を移動
したかが判定され、移動しておれば、対象物の重心のロ
ケーションが映像装置960が捕捉した映像内のどこに
あるかが決定される。さらに、ステップ1080におい
て、対象物の重心のロケーションを示すデータを任意
に、別のコンピューターに転送するためにコンピュータ
ー910のCOMポートに転送する。(その別のコンピ
ューターがステップ1085において、以下に記載する
ように、その重心を有する対象物の位置を決定するため
の機能を実行するために用いられているなら、データは
ルーチンのこの地点においてさらに別のコンピュータ
ー、例えばコンピューター100に転送され得る。) ステップ1080において対象物の重心のX−Yロケー
ションが映像中に決定された後、ステップ1085でそ
のロケーションを用いて、対象物の空間上の点(a、
b)を決定する。ステップ1085はこれを行うため
に、まず(任意的に)映像画素座標の原点(映像の左上
端にあると仮定)を、映像レンズの中心線上にオフセッ
トする。映像レンズの中心線に沿って映像装置から対象
物までの距離は既知であるか、または想定可能であるも
のと(例えば探知される対象物は映像装置の下で床上を
移動するものと)して、対象物の位置を計算する。その
計算は、映像装置の光学構成が既知であれば、次の
(1)および(2)との交差点の座標を計算することに
より行われる:(1)重心の現時点でのX−Y映像ロケ
ーションから映像レンズの節点を抜ける線、および
(2)映像レンズの中心線に対して垂直であり、レンズ
の中心線に沿った所定の距離に位置する平面。この交差
点の座標は、相似三角法を用いて計算されるが、ここで
の三角形とは、映像平面の原点に対応する、規定された
平面上の原点(例えば、レンズの中心線が通過する平面
上の点)を中心として、映像平面上の軸それぞれに対応
する規定された平面上の軸に沿ってなる三角形である。
座標は有用かつ所望である、どのような測定単位を用い
ても計算され得る。例えば、インチあるいはフィート、
または表示される対象物の仮想世界での座標システムに
おいての測定単位が用いられる。
【0258】映像装置のレンズ構造が既知でなければ、
ステップ1085において、対象物の位置(a、b)は
経験に基づいて求めてもよい。この場合、映像装置単位
(画素)でIMAGE TOTAL距離(lx、ly)が決定される
が、これは映像装置の各軸に沿って用いられる映像を構
成するものである。これらの距離は映像装置の用いられ
る視界をそれぞれの軸に沿って規定し、所定のルーチン
により得られる距離である。次に、実際の単位(インチ
等)で、規定された面(床等)に沿ってACTUAL TOTAL距
離(Ax、Ay)が決定されるが、これらは各軸に沿って映
像装置の視界の範囲を定めるものであり、所定のルーチ
ンにより得られる距離である。ACTUAL TOTAL距離を観察
によって測定し、求めてもよい。これらの所定の2つの
セットを基本にして、各軸に対するスケール変換ファク
タを、その軸に対するACTUAL TOTAL距離をその軸に対す
るIMAGE TOTAL距離で除算した値と等しくなるように規
定する(Ax/lxおよびAy/ly)。次にこれらのスケール変
換ファクタを用いてステップ485において、求められ
た重心のX−Y画素映像ロケーションを、対象物の現実
世界における位置(a、b)に変換するが、これは重心
の(X、Y)座標の各成分を各々のスケール変換ファク
タで乗算することにより行う。
【0259】例えば、コンピューター910が170画
素(X)×200画素(Y)の分解能で映像をディジタ
ル化すると仮定する。また、映像装置960が見る映像
(すなわち床170の平面)は現実世界ではX方向に1
4フィート(または144インチ)あり、Y方向に18
フィート(または216インチ)あると仮定する。さら
に、重心が画素位置(50、90)において映像内に位
置すると判定されたものと仮定する。この情報を基に、
図9(b)に示される床の原点990Bに対する対象物
の床970における現実世界の位置(a、b)は、イン
チを単位として以下のように計算され得る: (21)a=(50/120)*144=60インチ;および (22)b=(90/200)*216=97.2インチ。
【0260】前に記載のように、容認し得る低レベルに
までパララックス歪曲を減少させるために、映像装置を
床から十分遠くに配置することが出来なければ、(a、
b)座標で示される対象物の位置の計算値に、容認し得
ないまでに大きな誤差が生じ得る。本発明によれば、位
置座標の計算値を調整することにより、このエラーを補
正し得る。この調整は、映像装置のレンズを規定する式
または指標が既知でありさえすれば、容易に導ける関数
を用いることにより行われ得る。映像装置レンズの詳細
が既知でなくても、映像装置の視界内にある複数の既知
である地点に対象物を配置し、またその既知の地点を対
応する計算値と比較して各地点毎に各座標面積の偏差値
を求めることにより、補正関数を経験に基づき導くこと
が出来る。これらの偏差値がわかれば、最高位の多項式
に偏差値をあてはめ、関数(各面積に1つ)を得て、そ
の偏差値毎に補正し得る。計算された位置を示す値
(a、b)をこれらの関数を用いて修正し、コンピュー
ター上のエラーを補正する。代わりに、ルックアップ表
を用いることも出来る。そのルックアップ表は、各訂正
された値(a、b)、または計算値と置換される計算さ
れた(a、b)の複数の選択値を有している。あるい
は、ルックアップ表は計算された位置に加算、または減
算される補正ファクタを有し得る。ルックアップ表が、
置換された位置を示す値、または計算されたあらゆる位
置の選択サブセットの補正ファクタを有するなら、その
ルックアップ表は中間位置に挿入され得る。
【0261】最後にステップ1085において、客31
0の計算された任意の補正位置(a、b)がコンピュー
ター100に転送するためコンピューターのCOMポー
トに送られる。
【0262】ステップ1085の後、ステップ1090
でプログラムは、ステップ1080において決定された
重心の映像ロケーションを示す(X、Y)座標値、ステ
ップ1085において決定された対象物の位置を示す計
算された座標値(a、b)、および(以下に記載のよう
に)能動画素の数を示す、ステップ1080中に決定さ
れたCOUNT変数値を、モニター920に表示する。
ステップ1090は判断用にプログラムに包含されるだ
けであり、本発明を実施する本実施例においては不要な
ものである。
【0263】図11は、ステップ1080でメインプロ
グラムが用いるルーチンの一例のより詳細なフローチャ
ートを示している。このルーチンにより、映像装置96
0の視界内を移動する対象物の重心の座標映像ロケーシ
ョンを決定する。
【0264】図11の最初のステップ1105におい
て、ポインタおよびアキュミュレータがクリアされ、初
期化される。この初期化ステップの後、プログラムはス
テップ1110において現時点の画素の輝度値をロード
し(この場合、ビデオ第1ラインの第1画素のバイ
ト)、ステップ1115において、ヒストリーバッファ
から検索されたビデオの予め記憶された偶数フィールド
に対応する画素の輝度値からその値を減算する。
【0265】ステップ1120において、2つの対応す
る画素の値が異なるものであるかが(完全に異なるか、
またはしきい値の分だけ異なるかが)判定される。1つ
の画素値が別の画素値とこの値を越えて異なるのであれ
ば、画素は「能動」であると分類され、プログラムはス
テップ1125に進み、画素が任意に、判断用に、モニ
ターに可視ドット(図示せず)として表示され得るよう
に、画素の色が白(または他のグレーレベルまたは色)
に設定される。次にステップ1130において、映像内
の能動画素の位置を示す(X、Y)座標値が、Xアキュ
ミュレータおよびYアキュミュレータ(各々、上述した
ようにゼロに初期化されている)にそれぞれ保持されて
いるXおよびY合計値に別々に加算される。ステップ1
135において、変数COUNT(検査されているビデ
オの2つのフィールドに対して同定された能動画素の数
のランニングカウントを保持する)に1を加算する。次
にプログラムはステップ1140に進む。
【0266】ステップ1120において、画素が非能動
であると(すなわち現時点の画素を表わすバイトの値が
ヒストリーバッファ1018に記憶された画素値と等し
いか、また異なるにしても所定値の範囲内であると)判
定されると、ステップ1120でプログラムは、「n
o」の経路をとり、ステップ1123に分岐する。この
ステップで、画素が任意のモニターに表示されない(ま
たは表示されている能動画素とは異なって表示される)
ように、画素の色またはグレーレベルは黒(または白以
外の色)に設定される。次にプログラムはステップ11
40に進む。
【0267】ステップ1140において、ヒストリーバ
ッファは現時点の画素値を書き込まれる。この段階で、
プログラムにおいて現時点の画素に関し処理すべき事が
完了し、画素ポインタの値が6だけ(または、精度およ
びスループットのバランスを考慮して選択された他の値
を)加算され、フレームグラバに記憶されているビデオ
の同じライン中の次の画素を指す。ステップ1145に
おいて、Xポインタがビデオのラインの末端を通過した
かが判定される。否であれば、プログラムは「no」の
経路を経てステップ1110に戻り、上述のプロセスを
繰り返し、次の画素が能動であるかを判定する。そうで
なく、ビデオラインの最終画素が分析されたなら、プロ
グラムは「yes」の経路を経てステップ1150に進
み、Y画素ポインタを4だけ(または先と同様に他の所
望の値だけ)加算して、フレームグラバ中のビデオの現
時点のフィールドの次の所望ラインを指す。ステップ1
150において、Yポインタのこの加算された値を元に
プログラムが映像中の画素の最終ラインを通過したかが
判定される。否であれば、プログラムはステップ115
5において「no」の経路を経てステップ1110に分
岐する。そうでなければ、プログラムはステップ116
0に進む。
【0268】図11に示すプログラムの上述の部分がス
テップ1160に到達するまでに、映像装置960によ
って異なる瞬間に捕捉されたビデオの2つの異なるフレ
ームまたはフィールドの間において、「能動」であると
−−すなわち(完全に、または所定のしきい値を越え
て)変化があったと−−判定された全ての画素を任意の
モニターが表示する。これらの能動画素は、検査された
2つのビデオフィールド間に経過した期間(1/30
秒)中に移動した対象物を表わすものである。
【0269】また、図11のプログラムがステップ11
60に到達するまでに、同定された能動画素の全体数は
COUNTに記憶された数と等しくなる。加えて、全て
の能動画素のX座標の合計値はXアキュミュレータに記
憶され、全ての能動画素のY座標の合計値はYアキュミ
ュレータに記憶される。
【0270】ステップ1160において、プログラムは
COUNTの値がゼロであるかを判定する。肯であれ
ば、精査によりビデオの2つのフィールド間に能動画素
が全く同定されなかったことを意味する。従って、プロ
グラムは「yes」の経路を経て分岐し、ステップ11
95でポインタおよびアキュミュレータをクリアし、メ
インループが図10のステップ1085で再開されるよ
うに、ステップ1199に戻る。一方、ステップ116
0でのCOUNTの値がゼロでなければ、少なくとも1
つの必要とされる移動対象物の位置を同定する能動画素
が存在することを意味する。この場合、プログラムはス
テップ1165に進み、能動画素の重心を同定するプロ
セスを開始する。
【0271】その重心は、移動する対象物と対応する全
ての能動画素の位置の平均値として計算されたロケーシ
ョン(XC、YC)である。それは、映像装置960の視
界内を移動する対象物の位置を決定するためにステップ
1085(図10)で最終的に用いられる重心のロケー
ションである。
【0272】プログラムは最初に重心の現時点のX座標
部分を決定する。これはステップ1165においてXア
キュミュレータの値をCOUNTの値で除算し、重心の
X座標の部分の現時点の値XCを得ることにより行われ
る。次に、ステップ1170において、この値は、値の
ジターを削減するために移動窓平均フィルターを用いて
10のフィールドをフィルターにかける(10という数
は固定データを得る際の遅延に対する平滑性を考慮して
選択された)。フィルターは現時点の重心値を、予め計
算されていた最後の10個のXCの値の合計値に加算
し、元の10個のXCの値のうち一番前の値をその合計
値から減算し、得た合計値を10で除算することにより
行われる。
【0273】移動する対象物の位置が別のコンピュータ
ー(コンピューター100等)によりステップ1085
(図10)において計算されるなら、プログラムはステ
ップ1170から任意のステップ1175に進み、計算
された重心のX座標がコンピューター910のCOMポ
ートを介して別のコンピューターに送られる。
【0274】ステップ1180および1185(および
任意のステップ1190)のプログラムが上述のプロセ
スを繰り返して、重心の映像ロケーションのY座標部分
の移動平均値を決定する(YC)。次にプログラムはス
テップ1195に進み、ポインタをクリアする。ステッ
プ1199で、プログラムはステップ1085に戻りメ
インループを続行する。
【0275】対象物の位置が上述のようにメインループ
により決定されると、本発明はリアルタイムで対象物の
次の位置を探知する。なぜなら、対象物が動く度に新し
い重心のロケーションを繰り返し計算するために、新し
い映像データが1/30秒毎にコンピューター910により
処理されるからである。
【0276】上述の実施例においては、単一の映像装置
960のみが客310の1または2次元における位置を
決定するために用いられ、客の視点の3次元(高度)は
想定されるものとしている。移動する客310の3次元
における位置を決定および探知することも、2つの映像
装置を用いることにより可能であり−−1つは図9に示
す映像装置960のようにX−Y平面に対してZ方向を
見下ろす位置に配置され、もう1つは、別の異なる方向
の軸(図9に示されない)に沿ってシーンを見る位置に
取り付けられる。別の異なる方向の軸は映像装置960
が見る方向の軸と実質的に垂直であり、床970の平面
を規定する軸の1つと実質的に平行であることが必須で
はないにしても好適である(例えば第2映像装置はY−
Z平面に対してX方向を見る壁に取り付けられ得る)。
そのような直交する軸を用いることにより、対象物の位
置の第3の縦座標の計算に必要とされる計算式の多さお
よび複雑性が緩和される。第2映像装置(例えば、ビデ
オカメラ)の出力がコンピューター910の第2フレー
ムグラバカードに連結され、上述のように第2ビデオカ
メラが捕捉した映像を記憶する。プロセッサ910が第
2フレームグラバが記憶したビデオ画素データにより、
上述の図10のステップ1005−1080(および図
11のステップ)において、第2映像装置が見た映像中
に能動画素の重心の座標ロケーション(X、Z)を同定
する。
【0277】このように2平面(例えば図9(a)のカ
メラが映すX−Y平面、および垂直方向に搭載された別
のカメラが映すX−Z平面)中の能動画素の重心が決定
されると、映像上の点および各映像装置のレンズ節点に
より規定される2つのラインからなる空間の交差点を判
明するために、図10のステップ1085を改変するこ
とにより、3次元空間における対象物の位置(a、b、
c)が求められ得る。とりわけ、映像上の点および各映
像装置のレンズ節点により規定される空間のラインにお
ける以下の助変数方程式を解くためにステップ1085
が変更される: 映像装置1番 (23)X1=Xn1+(Xi1-Xn1)*t1 (24)Y1=Yn1+(Yi1-Yn1)*t1 (25)Z1=Zn1+(Zi1-Zn1)*t1映像装置2番 (26)X2=Xn2+(Xi2-Xn2)*t2 (27)Y2=Yn2+(Yi2-Yn2)*t2 (28)Z2=Zn2+(Zi2-Zn2)*t2 式中、(Xn1, Yn1, Zn1)および(Xn2, Yn2, Zn2)は、第1
および第2映像装置のレンズの節点をそれぞれ規定す
る、空間(a、b、c座標)における既知の点であり、
また(Xi1, Yi1, Zi1)および(Xi2, Yi2, Zi2)は、第
1および第2映像装置が見る点におけるカメラセンサ
(または「膜平面」)上のロケーションをそれぞれ規定
する、空間(a、b、c座標)における既知の点である
(これらの点は、装置のレンズの焦点長、およびセンサ
のサイズといった映像装置の物理的特性を考慮して、映
像装置の画素座標ロケーションを(a、b、c)座標シ
ステムにおける実際の空間座標に変換することにより求
められる)。これらの方程式(23)−(28)は、定
数t1およびt2を求めるために改変されたステップ108
5において、a=X1=X2、およびb=Y1=Y2と設定することに
より同時に解かれる。次に計算されたt1およびt2の値を
「a」座標を求めるために方程式(23)または(2
6)に、「b」座標を求めるために方程式(24)また
は(27)に、また「c」座標を求めるために方程式
(25)または(28)に置換して、式を解き、探知さ
れた対象物の3次元の位置を規定する空間中における交
差点の実際の座標(a、b、c)を求める。
【0278】さらに、一人の客または他の対象物より多
くの位置を探知するためには(例えば複数の映像システ
ムを制御するためには)、例えば人の映像を特徴付ける
複数の画素は通常互いにしきい値の距離だけ間隔をあけ
て配置されていると仮定する。よって、このしきい値距
離内にあると判定された第1能動画素を用いるたけで人
の位置を示す重心のロケーションが計算され得る。捕捉
された映像中の第2能動画素は、それらもまた互いに所
定の距離内にあると仮定して、別の移動する対象物(例
えば別の人)の位置を示し得、その対象物の第2の重心
が決定され得る。
【0279】上述のように本発明はその意図および範囲
を離脱することなく、様々に改変され得る。例えば、本
発明は静止スクリーンおよび移動する観察者を基に説明
してきたが、本発明は他の配置によっても用いられ得
る。すなわち、観察者が静止し、スクリーンが移動して
もよく、また観察者およびスクリーンの両方が移動して
もよい。
【0280】さらに、当業者であれば、本発明が2つ以
上のスクリーンが同時にまたは連続して、2つ以上の仮
想空間を観察者に示し、その観察者の視点は現実世界に
おいてスクリーンに対して異なる地点間を移動するとい
った状況下でも用いられ得ると理解する。例えば、2つ
のスクリーンがダークライドの室内の隣接する壁に位置
し、室内の角で相接し得る。第1スクリーンは第1プロ
ジェクターが投影した仮想空間を表示し、第2スクリー
ンは第2プロジェクターが投影した別の仮想空間(同一
または異なるデータベースから生成され得る)を同時に
表示する。各スクリーンは現実世界の観察者のスクリー
ンに対する視点の位置に相関して生成された仮想空間を
表示する。観察者がスクリーンに対して位置を移動する
と、表示された各映像は適切な3次元の透視図中に位置
し、移動パララックスを示しているように観察者には見
える。さらに、各仮想空間中の位置を現実世界において
対応する位置を有するように規定し、また仮想空間中に
モデル化された対象物を適切に配置することにより、各
仮想空間中に配置された仮想対象物は、前述のように現
実世界に次元的に伸張するだけでなく、別の仮想空間に
対しても次元的に伸張し得る。よって、例えばテーブル
の一部分が1つの仮想空間中でモデル化され、テーブル
の別の部分が他の仮想空間中でモデル化され、結果現実
世界の観察者は単一の、密着したテーブルの映像を室内
の角に見ることになる。第1表示スクリーンに映された
部分は第2表示スクリーンに映された他の部分と(2つ
のスクリーンが室内の角で相接するその場所で)隣接す
る。観察者の視点が現実世界の異なる位置間を移動する
と、テーブル部分の映像は互いに次元的に伸張する(ま
た、所望であれば現実世界に位置するテーブルのさらに
別の部分の有形プロップに対して次元的に伸張する)。
なぜなら各映像(および場合によっては、有形テーブル
部分)は異なる視点位置に対して共通の消滅点に向かっ
て遠のくからである。2つの映されたテーブル部分(お
よび場合によっては、有形テーブル部分)は観察者に対
して、現実世界の室内の角において3次元的に「伸張す
る」単一の密着したテーブルの姿を示す。
【0281】同様に、異なる表示面が複数の仮想空間の
映像(これもまた同一または異なるデータベースからモ
デル化され得る)を、視点が現実世界において表示面に
対して移動する観察者に対し連続的に示すために用いら
れる。例えば、第1スクリーンにより仮想空間の視界平
面が、第2スクリーンがまだ見られない位置にいる観察
者に対して示される。観察者が第2スクリーンが見れる
別の位置に移動すると、スクリーンはその位置に適した
仮想空間の映像を示す。
【0282】また、必ずしも、移動する視点に対し繰り
返し位置データを生産する必要があるわけではない。あ
る場合には、とりわけ視点の軌跡が既知であり所定のも
のであれば(ローラーコースタータイプの乗物の場合
等)、これらのデータは予め計算または想定され得る。
そのような場合、典型的には、ローラーコースターが軌
跡上の所定の位置に到達した時点(または所定の時間が
開始時から経過した時点)を検知し得る。この入力を用
いて、観察者がある瞬間からある瞬間の間に移動したと
計算または想定された場所と実質的に一致するように合
成された映像の生成および表示が開始される。
【0283】視点の軌跡が既知であるような場合(典型
的には乗物による場合)、特定の視点に対して表示され
る映像は前もってそれらの視点に対して生成され、続け
て、例えばビデオテープ、ビデオディスク、モーション
ピクチャープロジェクター、または他の連続的に所望の
映像を表示し得る装置を用いて連続再生するために記憶
され得る。乗物が所定の視点位置に到達すると、その視
点に対する映像が再生される。本発明を実行するため
に、このように所定の視点位置に対してリアルタイムで
同期されるように、予め計算し、記憶した映像を再生す
ることは、全ての乗物に対してリアルタイムで同じ映像
を繰り返し生み出す完全なコンピューターグラフィック
システムと比べ、簡潔かつ経済的な方法である。位置の
有限の配列は、典型的には容認し得る密度の列の映像を
生産するに十分である。
【0284】本発明は物理的な表示面に限定されるもの
ではなく、ヘッド搭載表示装置を用いて、第2仮想世界
内の位置を移動する視点を中心とした透視図から見られ
るその第2仮想空間中に位置されたコンピューター生成
の仮想「面」(例えば、多角形の面)上に第1仮想空間
の映像を送る従来の仮想現実システムにおいても用いら
れ得る。
【0285】これをビジュアル化するために、現実世界
の観察者が、ヘッド搭載表示装置をつけて、図12に示
されるようなリアリティのある仮想シーンを見ていると
仮定する。ヘッド搭載表示装置の映像中の仮想の家12
20には仮想の窓1230があり、そこから、仮想のテ
ーブル1240、仮想の絵1250、仮想のカーテン1
270Aおよび1270B、およびアニメーション化さ
れ得る(例えば、室内を歩いている人、風に吹かれるカ
ーテン等)他の図示されていない対象物が見られる。観
察者の視点は所定の小道に沿った家および窓を通過して
仮想の通り1290を下っていく仮想の「バス」128
0の中に位置している。その視界は、視点を頂点とし
て、光線1292、1294、1296、および129
8に囲まれた錐台によって規定される。これらの光線が
示すように、HMDをつけた観察者は家全体を−−窓、
および窓の向こう側にある室内の対象物を含めて−−見
ることが出来る。(なお観察者の視界にある図12のシ
ーンは−−およびHMDにより観察者がそのシーンを見
る見方は−−図12をそのまま見る場合とは異なるもの
である。)光線1292A、1294A、1296A、
および1298Aの第2のセットは第1の錐台内に第2
の錐台を規定し、窓1230に対する視点1210の第
2視界の範囲を定める。
【0286】従来のシステムでは、適切な遠近法による
部屋の映像が窓1230を「満たす」コンピューターグ
ラフィックスシステムによりリアルタイムで生成され、
視点1210が家を通過する時にそれが見られるように
するためには、窓1230によって境界線が定められる
部屋の内部に相当するモデルを表わす、完全な3次元の
データベースを仮想世界(家1220を含む)の他の部
分を表わすモデルデータと共に記憶せねばならない。こ
の技術によれば、移動する視点に対して窓1230を介
して室内を見るシフトする透視図を正確に表し得るが、
光線追跡およびレディオシティ(radiosity)のような
特定の最新描写法を室内の対象物を描写するために用い
た場合には、良好に表し得ない。なぜなら、そのような
最新描写法はコンピューター操作が複雑過ぎてリアルタ
イムでは用いられ得ないからである。加えて、従来技術
によれば−−部屋を見る特定の視界からは見られない対
象物をも含めて−−その対象物は別の視界から見られ得
るのだが、部屋のモデルデータベース全体を維持せねば
ならない。この結果、特に多くの複雑な対象物を含む複
雑な仮想環境を映し出す場合、大容量の記憶および複雑
なデータベース管理が必要とされる。
【0287】本発明は、とりわけ視点の仮想世界での位
置が所定であるか、または完全に所定のものでなくて
も、予め既知であるいくつかの地点の中に含まれるもの
である場合、これらの問題を解決し得る。本発明のこの
局面に従えば、図12の部屋の仮想環境(第1仮想空間
と考えられる)は、「オフライン」生成された3次元デ
ータによってモデル化される(すなわち、その環境を含
む仮想世界のシーンが生成され、客がそれを見る時間よ
り前の時間にモデル化される)。このモデル化は公知の
または得られる最も複雑な技術を用い得る。その後、オ
フラインのまま、第1仮想空間を表わすデータを第1仮
想空間の複数映像を描写するために転送する。各映像は
仮想世界における視点1210の複数の異なる所定位置
の1つにそれぞれ対応しており、その仮想世界(第2仮
想空間と考えられる)から、窓1230を介して第1仮
想空間が見られる。変換により、各映像は、その映像に
対応する視点1210の位置に実質的に一致するプロジ
ェクションの中心点を有し、また家の窓1230によっ
て規定される平面と平行である視界平面上に写像され
る。次に複数の個々の映像−−それぞれの映像は特定の
視点位置に対する、適切な透視図、および移動パララッ
クス認識手掛かりを有している−−は従来の2次元コン
ピューターグラフィックスシステムテクスチャーのうち
対応するものを表わすデータの形態で記憶される。
【0288】記憶された映像は後に、観察者の視点12
10が第2仮想世界内で位置を移動すると、リアルタイ
ムでコンピューターグラフィックスシステムにより観察
者に表示される。これは、コンピューターグラフィック
スシステムが、視点1210(その位置をコンピュータ
ーグラフィックスシステムに知らせる必要がある)が記
憶された映像に対応する視点位置に、または容認可能な
範囲でほぼその位置にある時点を判定することにより行
われる。判定された視点位置の各々に対して、コンピュ
ーターグラフィックスシステムは、対応する映像に対応
するテクスチャーを、仮想世界中のコンピューターによ
って配置された仮想面上に、実質的に表示平面に一致す
るように写像する。現時点で、リアルタイムで写像し得
るに十分なテクスチャーを有するコンピューターグラフ
ィックスシステムは軍用シミュレータに典型的に用いら
れるハイエンドシステムである。そのようなシステムは
多くの会社から市販されている:例えば、カリフォルニ
ア州サンディエゴのBall Systems Engineering Divisio
n;ワシントン州レトランドのBolt, Branek, Newman;
英国ブリストルのDivision Ltd.;ユタ州ソルトレーク
シティのEvans & Sutherland Computer Corporation ("
E&S");フロリダ州デートナビーチのG.E. Aerospace Si
mulation and Control Systems Department;カリフォ
ルニア州マウンテンビューのSilicon Graphics, Inc.。
リアルタイムで面上にテクスチャーを写像およびスワッ
プする技術は、William G. RedmannおよびScott F. Wat
sonの連名で、"Method And Apparatus For Providing E
nhanced Graphics In A VirtualWorld"と題された、1
992年7月10日出願の米国特許出願第 号に開
示されており、その開示内容は本明細書に参考として援
用される。
【0289】テクスチャー映像が写像される仮想面に対
する第2仮想空間中の視点を判定する方法として有用で
ある方法はいくつかあり、それぞれが独自の利点を有し
ている。例えば、観察者の視点が、実質的に既知である
速度のプロフィールで、実質的に既知である軌跡に沿っ
て移動すると予期される第1の例では、時間的原理が用
いられ得る。視点の位置は、客がその軌跡に留まり、第
1仮想空間の映像を見る時間(フレーム率、またはその
整倍数)が経過する度に計算される。それぞれの位置に
対して、テクスチャー映像は、そこにいる時間が既知で
ある位置に対応させるように描写および記憶される。観
察者が見ている間、軌跡上のその場所で第1仮想世界の
映像が潜在的に見られ得る時、記憶されたテクスチャー
が再現され、コンピューターグラフィックスシステム
が、各フレーム(またはフレームの同じ整倍数)毎に提
供された適切なテクスチャーを有する第2仮想空間の映
像を描写することになる。この方法により、観察者が第
2仮想空間中で視点の位置を移動すると、そのテクスチ
ャーを見ることが可能である全ての視点において、最新
のテクスチャーが用いられ、各視点位置にいる観察者に
第1仮想空間を適切な透視図中に認識させる。
【0290】次に、第2仮想空間における観察者の視点
が必ず実質的に所定の道に沿って移動し、かつ、その道
に沿っての移動速度は可変し得る(または停止したり、
逆戻りし得る)第2の例を仮定する。この場合、道に沿
っての距離を基にして、どのテクスチャーが特定の視点
位置に対して適切であるかを判定する。第1仮想空間の
テクスチャー映像が見られ得る地点を出発点とする道の
全長は、いくつかのセグメントに分割し、その各々に対
して単一のテクスチャーが描写される。その際にはセグ
メントの中間点をテクスチャー描写する際に所定の視点
位置として用いることが好ましい。シーケンス中に幾つ
かが省略されるほど視点の移動速度が速い場合を除け
ば、前のテクスチャー映像、または次のテクスチャー映
像のいずれかが必要とされるため、これらのテクスチャ
ーをセグメントシーケンスを基にして再現されるように
記憶することが好ましい。観察者が見ている間に、現時
点の視点位置がセグメントの1つに沿って位置する時
に、そのセグメントに対応するテクスチャー映像を再現
し、第2仮想空間の仮想面に描写するために用いる。道
に沿ってのセグメント数は、そのテクスチャーに必要と
される記憶機構に対する平滑性を考慮して選択される。
あまりに少ないセグメント数が規定されると、テクスチ
ャーの連続したセグメント間における変化は重大な意味
を有し、美観を損ね、本発明が生み出す3次元のイリュ
ージョンを破壊する可能性がある。観察者の制限速度が
低い場合、または低くさせた場合、そのような制限速度
はセグメントの数が最大であることを示している(低め
の制限速度は第1仮想空間の映像が見られる最大期間を
示すからである)。
【0291】観察者が軌跡または道に沿って移動すると
は限らない第3の例では、第2仮想空間から第1仮想空
間が見られる複数の視点位置が決定される。決定された
視点位置は均一に分布されるが、好ましくは第1仮想空
間の対象物に近いほど濃密に分布される。なぜならパラ
ラックス中の変化は対象物付近において最大となるから
である(この効果は上述の第2の例においても影響を及
ぼす)。平滑性、最低速度、および記憶機構に関する上
述の考慮がここでも適用される。第1仮想空間のテクス
チャー映像はそれらの再現が可能となるように記憶さ
れ、その再現を基にして、決定された視点位置がそれら
を描写するために用いられる。1つの方法としては、記
憶した表を用いて、第2仮想空間座標中の所定の視点位
置、および基準点またはポインタをその位置に対応した
テクスチャー映像に記憶する方法がある。規則的または
アルゴリズム的に分布された所定の視点位置に対して、
アルゴリズム的にテクスチャー映像の基準ベクターを決
定することがより効果的である。第2仮想空間における
現時点の視点位置の場合、所定の視点位置のどれが最も
テクスチャー映像の選択に適切であるか(すなわち、所
定の視点のどれがテクスチャー映像を写像する際にテク
スチャー映像の近くに位置する現地点での視点である
か)を決定する必要がある。この決定を行う1つの方法
は、従来の2進法空間区分化(BSP)アルゴリズムを
用いる方法である。BSPツリーサーチにより、予め判
定しておいた視点数を十分に少ない数にまで絞って選択
範囲を狭めてから、その中のどれが実際の現時点での視
点に最も近いかを決定するために各々に対して値域計算
を行う。所定の視点が規則的またはアルゴリズム的に分
布されると、どの所定視点と、テクスチャー映像が基も
近いかを直接計算することが可能であり、またより効果
的である。最も近い所定視点に対応したテクスチャー映
像が現地点での視点に対して第2仮想空間を描写するた
めに用いられる。
【0292】前述の技術を用いて生産された第1仮想空
間の各映像は、窓1230により枠組みされた第2仮想
空間内の特異的3次元の位置において表示されるが、そ
れ自体は2次元のものである。しかし、視点が第2仮想
世界の窓によって枠組みされた表示装置の部分に対して
位置を移動するにつれて、異なる映像のシーケンスが表
示される−−シーケンスの各映像はそれぞれ異なる視点
位置に対応しており、その位置に対して正確な透視図お
よび移動パララックス手掛かりを与えるように計算され
ている。これらの適切に示された認識上の手掛かりが与
えられた結果、異なる視点位置に対して合成された表示
映像のシーケンスは、視点1210が窓を通過する時に
3次元のイリュージョンを生み出す。
【0293】窓1230(テクスチャーが写像された面
から識別される)は認識可能な人工品である必要はな
く、また全くなくてもよいものである。さらに、映像1
235の縁が特に明確に規定される必要はない(例え
ば、面に写像されたテクスチャーは、テクスチャーの少
なくとも一部分を明確にし、他の部分を不明確または半
透明とするアルファ平面を含んでいてもよい。なお、そ
の際の明確な部分はテクスチャーが写像された面の境界
線とは異なるアウトラインまたは境界線を有してい
る)。さらに、テクスチャーが写像される面の第2仮想
空間におけるロケーションは固定されていなくても、静
止していなくてもよい(例えば、第2仮想空間またはテ
クスチャーされた面における視点のいずれか、またはそ
の両方は互いに移動し得る)。例えば、第2仮想空間に
おけるテクスチャーされた面は、第2仮想世界内を移動
する乗物または他の対象物を表し得る。別の技術によれ
ば、観察者の視点に対するテクスチャーされた面の位置
自体が用いられる(例えば、遠くにある丘のテクスチャ
ーされた映像は実際はほんの少しだけ離れた面に写像さ
れ得るが、その際視点からかなり離れた距離にあるよう
に見せるため、観察者の現時点の視点に対しては、一定
の距離および方位角上の位置を維持している)。
【0294】さらに、第2仮想空間に複数の仮想面を含
ませ、各々が第2仮想空間中で異なる視点位置間を移動
する観察者に対して第1仮想空間を同時に与えるように
してもよい。仮想面にテクスチャー写像された第1仮想
空間の映像は同一のまたは異なる第1仮想空間であって
よい(しかし、それらはそれぞれ観察者の視点が位置し
ている第2仮想空間と区別をつけるために「第1」仮想
空間と呼ばれる)。従って、各第1仮想空間は同一、ま
たは異なる対象物データベースを基にして描写され得
る。複数の現実世界の面上に表示された複数の映像と同
様に(前述)、第1仮想空間の複数の映像は、第1仮想
空間における仮想対象物が、第2仮想空間に位置する仮
想対象物に、および/または他の第1仮想空間(1つま
たは複数)に位置する仮想対象物に、次元的に伸張する
ように、第2仮想空間に位置する複数の仮想面にテクス
チャー写像され得る。
【0295】本発明はまたテクスチャー写像された映像
において、第2仮想空間中のコンピューターグラフィッ
クシステムにより描写されたモデルまたはシーンに対す
る観察者の認識力を強めるためにも用いられ得る。第1
仮想空間のテクスチャー写像された映像を、特定の視点
に対して、第2仮想世界でモデル化され描写された対象
物と実質的に符合し(すなわち、実質的に同じ場所にあ
り)、また実質的に合致する(すなわち、実質的に同じ
サイズおよび同じ形状になる)ように配列することによ
り、第1仮想世界におけるシーンの映像が−−本来なら
それは第2仮想世界にリアルタイムで描写するには複雑
過ぎるのだが−−移動する視点に対して第2仮想世界の
面にテクスチャー写像され得る。このことは、先に記載
したように、第2仮想世界において予めまたは連続的に
描写された1つのまたは複数の対象物に対しての認識力
を強めさせるために行われる。例えば、図12におい
て、バス1280が家1220を通過せず、窓1230
を突き抜ける場合を仮定する。観察者の視点が窓に近づ
くと、窓中の第1仮想世界の映像1235は室内にいる
観察者の視点の異なる視点位置それぞれに対して適切な
透視図を示す。視点が部屋に入ってくると、窓を形成す
る仮想面にテクスチャー写像された第1仮想世界の映像
は、即時に同じ部屋のモデルに置き換えられる。そのモ
デルは、部屋に入ってきた視点に対して部屋の映像を生
産するために第2仮想世界において従来方法で描写され
たものであり、所定の軌跡または他の位置群に制限され
るものでない。視点が部屋に入って来る瞬間より前の第
1仮想世界の強調されたイメージは、視点が部屋に入っ
てきた後に部屋が第2仮想世界において従来方法でモデ
ル化され、また描写されると、乏しかった観察者の認識
力を高める。
【0296】当業者であれば、記載した実施例以外の方
法においても本発明を実施および実行し得ると認識す
る。実施例は本発明を説明するため示されたに過ぎず、
本発明を制限するものでない。本発明は請求項の範囲に
よってのみ制限されるものである。
【0297】
【発明の効果】本発明によれば、規定の軌跡に沿って移
動する乗物に乗っている一人以上の客に対して、2次元
映像を表示することにより、静的または動的対象物で満
たされ得る、広大な、歪みのない3次元空間のイリュー
ジョンを生み出すことが出来る。
【0298】さらに、表示されたシーンを見る客が規定
または所定の軌跡に沿って移動する必要なく、また特殊
な観察装置を身につけることなく、3次元のイリュージ
ョンを生み出すことが出来る。
【0299】さらに、表示装置および対象物に対して客
が場所を移動するにつれて表示された映像が現実世界の
対象物と溶けあって見えるように、お互いに次元的に伸
張するような、3次元イリュージョンを生み出すことが
出来る。
【0300】さらに、移動パララックスおよび両眼用映
像を含めた3次元を認知する手掛かりを観察者に与え
る、立体鏡映像を表示するような3次元イリュージョン
を生み出すことが出来る。
【図面の簡単な説明】
【図1】(a)は、三次元の仮想世界座標における点、
面および対象物のデータベースからモデル化された3次
元の仮想世界の2次元映像を投影するためのコンピュー
ターグラフィックシステムの変換部分の簡略ブロックダ
イヤグラム、(b)から(e)は、どのように従来のコ
ンピューターグラフィックシステムが、従来の変換技術
を用いて3次元データベースにおいてモデル化された映
像を描写、および、表示するかを示した図である。
【図2】本発明の1つの局面の原理を図解する光線ダイ
ヤグラムの平面図である。
【図3】客がスクリーンに対して位置を移動する時に正
確な透視図および移動パララックス手掛かりを与えるた
めに、3次元の仮想世界シーンの映像を静止スクリーン
にモノスコープ的に投影する、本発明の一実施例を示す
ものである。
【図4】本発明に従って表示された映像、および現実世
界の対象物が、どのように互いに「次元的に伸張され」
得るかを示すものである。
【図5】どのように仮想世界の対象物が表示装置の前の
現実世界に位置して見えるように表示されるかを示す光
線ダイヤグラムの平面図である。
【図6】本発明の原理に従ったコンピューターグラフィ
ックシステムをプログラムするために用いられ得るソフ
トウエアルーチンのフローチャートのダイヤグラムであ
る。
【図7】図6のフローチャートの「シーン描写」(ブロ
ック640)部分のフローチャートである。
【図8】図6のフローチャートの「視点位置を得る」
(ブロック660)部分のフローチャートである。
【図9】(a)は、本発明の1つの局面に従ってビデオ
映像装置を用いて観察者の位置を決定するシステムの立
面図、(b)は、(a)に示すシステムの平面図であ
る。
【図10】図9に示されるシステムをプログラムするた
めに用いられ得るルーチンのメインループのフローチャ
ートである。
【図11】図10のフローチャートの「重心を得る」部
分と呼ばれるルーチンのフローチャートである。
【図12】どのように第1仮想空間中の対象物の映像
が、本発明の1つの局面に従って第2仮想空間内に位置
する仮想表面上のテクスチャーとして表示され得るかを
図解するものである。
【符号の説明】
100 コンピューター 210 表示面 310 客 330 プロジェクター
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ウィリアム ジー. レッドマン アメリカ合衆国 カリフォルニア 93063, シミ バレー,ダルハート アベニュー 3152

Claims (129)

    【特許請求の範囲】
  1. 【請求項1】 少なくとも1つの仮想対象物を含む第1
    仮想空間の複数の映像を連続的に表示する方法であっ
    て、該対象物は3次元の対象物データにより表され、第
    1仮想空間中の位置に配置され、該映像は、第2空間中
    に表示面の位置を有する表示面上に、該第2空間中の複
    数の視点から見る観察者に対して表示され、該視点のそ
    れぞれは、該複数の映像の内の異なる1つに対応してお
    り、かつ該表示面の位置に対して異なる位置を有するも
    のであり、該方法は、 該第1および第2空間の関係を、1つの空間中の位置が
    他方の空間中に対応する位置を有するように規定するス
    テップ、 該複数の映像のそれぞれに対して、プロジェクションの
    中心点に対する変換を通して該対象物データを変換する
    ことにより該対象物の映像データを作成するステップで
    あって、該プロジェクションの中心点に対して、該対象
    物の少なくとも一部分は第1視界の範囲をそれぞれ定
    め、該プロジェクションの中心点は該第1空間中の位置
    であって、該映像に対応した該第2空間における視点の
    位置に対応する位置と実質的に一致する位置に配置され
    るステップ、 該映像データを基にして該複数の映像を生成するステッ
    プ、および該対象物の少なくとも一部分におけるそれぞ
    れの映像が、該映像に対応した視点に対する第2視界の
    範囲をそれぞれ定めるように、該第2空間中の該表示面
    上に該複数の映像を表示するステップを包含し、 該変換は、該複数の映像のそれぞれに対して、該第1お
    よび第2視界のそれぞれが実質的に同一となるように選
    択される、方法。
  2. 【請求項2】 前記変換ステップは、 前記第1視界内に含まれる前記対象物上の点を、前記プ
    ロジェクションの中心点に向かって、前記第1視界の範
    囲を定める視界面上に投影するステップ、および該第1
    および第2視界のそれぞれが実質的に同一となるよう
    に、該視界面の位置を選択するステップを包含する、請
    求項1に記載の方法。
  3. 【請求項3】 前記方法は、 前記映像のそれぞれに対して、前記第2空間に位置する
    表示面と実質的に平行となるように、前記第1空間中に
    前記視界面を配置するステップをさらに包含する、請求
    項2に記載の方法。
  4. 【請求項4】 前記表示面が実質的に平坦であり、前記
    視界面が視界平面である、請求項2に記載の方法。
  5. 【請求項5】 前記表示面が湾曲しており、前記視界面
    が視界平面であり、前記方法は、 前記表示面の湾曲面に接している前記第2空間中の平面
    に対応する前記第1空間中に位置する平面と実質的に平
    行になるように前記第1空間中の該視界平面を配置する
    ステップをさらに包含する、請求項2に記載の方法。
  6. 【請求項6】 前記映像は、前記第2座標システム中の
    位置から表示面上への物理的なプロジェクションにより
    表示され、該位置は、前記表示面の実質的中心点と交差
    する線であって、該表示面に対して実質的に垂直である
    線と同軸上にある、請求項1に記載の方法。
  7. 【請求項7】 前記映像は、前記第2座標システム中の
    位置から表示面上への光学的なプロジェクションにより
    表示され、該位置は、前記表示面の実質的中心点と交差
    する線であって、該表示面に対して実質的に垂直である
    線の軸からそれた位置にあり、該軸からそれたプロジェ
    クションは投影された映像中に歪曲を生じさせ、前記変
    換ステップは、 プロジェクションの中心点に向かって、前記第1視界内
    に含まれる対象物上の点を、該第1視界の範囲を定める
    視界面上に投影するステップ、および該第1および第2
    視界が実質的に同一となるように、該歪曲を補正するた
    めに該視界面の位置を選択するステップを包含する、請
    求項1に記載の方法。
  8. 【請求項8】 前記映像データ作成ステップ、前記生成
    ステップ、および前記表示ステップが、観察者が表示面
    に対してある視点位置から別の視点位置に移動するとリ
    アルタイムで行われる、請求項1に記載の方法。
  9. 【請求項9】 前記表示面に対する前記複数の視点位置
    が予め決められている、請求項1に記載の方法。
  10. 【請求項10】 前記観察者が前記表示面に対して所定
    の軌跡に沿って移動し、前記複数の視点位置が該所定の
    軌跡上にある、請求項1に記載の方法。
  11. 【請求項11】 前記観察者が前記表示面に対して任意
    の軌跡に沿って移動し、前記複数の視点位置のそれぞれ
    が任意の位置である、請求項1に記載の方法。
  12. 【請求項12】 前記観察者が前記表示面に対して所定
    の軌跡に沿って少なくとも第2の観察者と共に移動し、
    前記複数の視点位置のそれぞれが該観察者の集団付近に
    ある、請求項1に記載の方法。
  13. 【請求項13】 前記第2空間が現実世界中の空間であ
    り、前記表示面が現実世界に物理的に存在するセットの
    少なくとも一部分を形成し、前記表示面およびセットが
    前記複数の視点のそれぞれから前記観察者によって集団
    で見られるように配置され、前記方法は、 該セット内の前記対象物の現実世界での所望の位置に対
    応する前記第1空間中の位置に該対象物を配置するステ
    ップをさらに包含し、 それにより、該対象物の表示された映像が、前記観察者
    がある視点位置から別の視点位置に移動するにつれて、
    該対象物が現実世界内の所望の位置に、3次元的に物理
    的に存在しているといるイリュージョンを該観察者に与
    える、請求項1に記載の方法。
  14. 【請求項14】 前記現実世界のセットは現実世界中の
    位置に物理的に存在するプロップの一部分を含み、前記
    対象物は該プロップの仮想部分を表し、前記方法は、 該プロップの仮想部分の表示された映像および該プロッ
    プの現実世界部分の姿が単一の密着したプロップである
    と見えるように、前記第1空間中のプロップの仮想部分
    を現実世界プロップの一部分の現実世界における位置に
    対応する位置に対する位置に配置するステップをさらに
    包含し、 それにより、前記観察者がある視点位置から別の視点位
    置に移動するにつれて、該プロップの仮想部分の表示さ
    れた映像および該プロップの現実の部分は共通の遠近法
    による消滅点に向かって視覚的に遠のくように、また互
    いに単一の密着したプロップに一致する移動パララック
    スを示しているように該観察者には見える、請求項13
    に記載の方法。
  15. 【請求項15】 前記プロップの現実世界の部分が仮想
    プロップの映像と適合するように実質的に前記表示面に
    対して配置される、請求項14に記載の方法。
  16. 【請求項16】 前記プロップの現実世界の部分が前記
    表示面から離れて配置される、請求項14に記載の方
    法。
  17. 【請求項17】 前記方法は、 前記対象物を、前記表示面の前にある前記第2空間中の
    位置に対応する位置であって、少なくとも部分的に前記
    複数の視点の前記第2視界内の前記第1空間中の位置に
    配置するステップをさらに包含する、請求項1に記載の
    方法。
  18. 【請求項18】 前記方法は、前記仮想対象物を、仮想
    表示面の後ろにある第2仮想空間中の位置に対応する前
    記第1空間中の位置に配置するステップをさらに包含す
    る、請求項1に記載の方法。
  19. 【請求項19】 前記方法は、前記対象物の少なくとも
    一部分が前記表示面の後ろにある前記第2空間中の位置
    に対応する前記第1空間中の位置にくるように、かつ、
    該対象物の別の部分が該表示面の前にある、該第2空間
    中の位置に対応する該第1空間中の位置であって、前記
    複数の視点の前記第2視界内の位置にくるように、前記
    対象物を該第1空間中に配置するステップをさらに包含
    する、請求項1に記載の方法。
  20. 【請求項20】 前記複数の視点位置が第1の複数の視
    点位置であり、前記対応映像が第1対応映像であり、前
    記方法は、 第2複数の視点位置を決定するステップであって、該第
    2複数の視点位置のそれぞれは該第1複数の視点位置の
    それぞれに対応し、かつ、眼間オフセットの距離だけ対
    応する第1視点位置から離れている、ステップ、 前記表示面に前記対象物の第2複数の映像を与えるため
    に、再び前記作成、生成、および表示ステップを該第2
    複数の視点位置のそれぞれに対して行うステップをさら
    に包含し、 前記観察者に同時に該第2映像および対応する第1映像
    を認識させるために、該第2複数の映像のそれぞれを表
    示する表示ステップが該第1複数の映像のうち対応する
    映像を表示する表示ステップと十分に密接した時間帯で
    行われる、請求項1に記載の方法。
  21. 【請求項21】 前記方法は、 前記第1複数の映像のそれぞれを前記第1視点に位置す
    る前記観察者の第1の目に実質的に見せ、前記第2複数
    の映像のそれぞれを前記第2視点に位置する該観察者の
    第2の目のみに実質的に見せるステップをさらに包含
    し、 それにより、該複数の視点位置にいる該観察者は、表示
    された前記対象物の両眼用映像を見る、請求項20に記
    載の方法。
  22. 【請求項22】 前記方法は、 前記第2空間中の前記観察者の位置を決定するステッ
    プ、および該観察者が前記複数の視点位置のうち実質的
    に異なる位置にいると決定されると、該視点位置に対応
    する前記対象物の映像を応答的に表示するステップをさ
    らに包含する、請求項1に記載の方法。
  23. 【請求項23】 前記観察者は映像装置の視界内を移動
    し、前記方法は、 該映像装置が見る第1および第2映像を、第1および第
    2の瞬間それぞれにおいて記憶するステップであって、
    該映像のそれぞれは、第1および第2の符号化された輝
    度値を有する明確な映像ロケーションに各第1および第
    2複数の画素を含む、ステップ、 輝度値が第1および第2映像間で変化した能動画素であ
    る少なくとも1つの画素の映像ロケーションを同定する
    ために、該第1および第2映像の一方の画素輝度値を、
    該第1および第2映像の他方の対応する画素輝度値と比
    較するステップ、および該複数の視点位置の異なる位置
    を決定するために、少なくとも1つの能動画素の映像ロ
    ケーションを基にして前記移動する観察者の位置を計算
    するステップをさらに包含する、請求項1に記載の方
    法。
  24. 【請求項24】 前記映像装置の視界は、複数の探知領
    域を含み、前記方法は、 前記移動する対象物が該複数の探知領域の異なる領域に
    ある時を決定するステップをさらに包含する、請求項2
    3に記載の方法。
  25. 【請求項25】 前記方法は、 記録媒介上に前記生成映像を記録するステップをさらに
    包含し、 前記表示ステップは該記録された生成映像を再生するこ
    とにより行われる、請求項1に記載の方法。
  26. 【請求項26】 前記記録媒介はビデオディスクおよび
    ビデオテープの少なくとも1つである、請求項25に記
    載の方法。
  27. 【請求項27】 前記複数の映像のそれぞれが、前記観
    察者が該映像に対応する視点位置に実質的にいると決定
    された時にリアルタイムで表示される、請求項1に記載
    の方法。
  28. 【請求項28】 前記観察者が少なくとも第2の観察者
    と共に前記表示面に対して移動し、前記複数の視点位置
    のそれぞれが、前記第2空間内の該観察者の集団付近に
    ある、請求項1に記載の方法。
  29. 【請求項29】 前記観察者および第2の観察者が1つ
    の乗物に乗って移動し、前記複数の視点位置のそれぞれ
    が該乗物付近にある、請求項28に記載の方法。
  30. 【請求項30】 前記第1および第2空間の関係は、1
    対1(1:1)にスケールされた関係である、請求項1
    に記載の方法。
  31. 【請求項31】 前記第1および第2空間の関係は、1
    対1(1:1)以外にスケールされた関係である、請求
    項1に記載の方法。
  32. 【請求項32】 前記表示面が少なくとも表示スクリー
    ンの一部分を包含する、請求項1に記載の方法。
  33. 【請求項33】 前記表示面が表示スクリーンの全てを
    実質的に包含する、請求項1に記載の方法。
  34. 【請求項34】 前記表示面が静止しており、前記観察
    者が該静止表示面に対して前記第1空間中を移動するこ
    とにより、前記複数の視点が生じる、請求項1に記載の
    方法。
  35. 【請求項35】 前記方法は、 前記規定、作成、生成、および表示ステップを別の第1
    仮想空間および別の表示面に対して繰り返すステップを
    さらに包含し、 それにより、第1仮想空間の複数の映像が、前記複数の
    視点位置において前記観察者に見られるように複数の表
    示面上に表示される、請求項1に記載の方法。
  36. 【請求項36】 前記複数の映像が前記観察者に同時に
    見られるように表示される、請求項35に記載の方法。
  37. 【請求項37】 前記複数の映像が前記観察者に連続的
    に見られるように表示される、請求項35に記載の方
    法。
  38. 【請求項38】 前記第1仮想空間が異なる3次元デー
    タからモデル化される、請求項35に記載の方法。
  39. 【請求項39】 前記第1仮想空間が同一の3次元デー
    タからモデル化される、請求項35に記載の方法。
  40. 【請求項40】 少なくとも1つの仮想対象物を含む第
    1仮想空間の複数の映像を連続的に表示する方法であっ
    て、該対象物は3次元対象物データにより表され、該第
    1仮想空間中の位置に配置され、該映像は仮想表示面上
    に表示され、該仮想表示面は第2仮想空間中に仮想表示
    面位置を有しており、該第2仮想空間中の複数の視点か
    ら観察者が該仮想表示面を見ており、該複数の視点のそ
    れぞれは該表示面の位置に対して該複数の映像のうち異
    なる1つに対応しており、該方法は、 該第1および第2仮想空間の関係を、1つの空間におけ
    る位置が他方の空間において対応する位置を有するよう
    に規定するステップ、 該複数の映像のそれぞれに対して、プロジェクションの
    中心点に対する変換を通して該対象物データを変換する
    ことにより該対象物の映像データを作成するステップで
    あって、該プロジェクションの中心点に対して該対象物
    の少なくとも一部分は第1視界の範囲をそれぞれ定め、
    該プロジェクションの中心点は該第1空間中の位置であ
    って、該映像に対応した該第2仮想空間における視点の
    位置に対応する位置と実質的に一致する位置に配置され
    る、ステップ、 該複数の映像のそれぞれに対する該映像データを、複数
    の2次元の映像テクスチャーのそれぞれを表わすテクス
    チャーデータとして記憶するステップ、 該複数の映像テクスチャーのそれぞれを仮想表示面を形
    成する面上に写像することにより、該複数の異なる映像
    のそれぞれを該観察者に対して表示するステップであっ
    て、仮想面上にテクスチャー写像された対象物の少なく
    とも一部分の各映像が該対応する視点に対して第2視界
    の範囲を定めるように、該観察者の視点が該映像に対応
    する視点位置の付近にある時に該映像のそれぞれはテク
    スチャーにより表示される、ステップを包含し、 該変換は、該複数のテクスチャー写像された映像のそれ
    ぞれに対して、該第1および第2視界が実質的に同一と
    なるように選択される、方法。
  41. 【請求項41】 前記テクスチャーが前記仮想空間の一
    部分上に写像される、請求項40に記載の方法。
  42. 【請求項42】 前記方法は、 前記規定、作成、記憶、および表示ステップを別の第1
    仮想空間および別の仮想表示面に対して繰り返すステッ
    プをさらに包含し、 それにより、第1仮想空間の複数の映像が前記複数の視
    点位置にいる観察者に見られるように同時に表示され
    る、請求項40に記載の方法。
  43. 【請求項43】 前記第1仮想空間中の仮想対象物が、
    前記第2仮想空間を描写する際に用いられる技術とは異
    なる描写技術により描写される、請求項40に記載の方
    法。
  44. 【請求項44】 前記観察者が前記第2仮想空間中のあ
    る視点位置から別の視点位置に移動するにつれて、前記
    表示ステップがリアルタイムで行われる、請求項40に
    記載の方法。
  45. 【請求項45】 前記複数の視点位置が予め決められて
    いる、請求項40に記載の方法。
  46. 【請求項46】 前記複数の所定の視点が所定の軌跡に
    沿っている、請求項40に記載の方法。
  47. 【請求項47】 前記仮想表示面が第2仮想空間中の位
    置で静止しており、前記観察者の視点が前記第2仮想空
    間の異なる位置間を移動することにより前記複数の視点
    が生じる、請求項40に記載の方法。
  48. 【請求項48】 前記観察者の視点が第2仮想空間中の
    位置で静止しており、前記仮想の表示面が前記第2仮想
    空間の対応する複数の位置間を移動することにより前記
    複数の視点が生じる、請求項40に記載の方法。
  49. 【請求項49】 前記方法は、 前記第1仮想空間中の仮想対象物を仮想表示面の前にあ
    る前記第2仮想空間中の位置に対応する位置に配置する
    ステップをさらに包含する、請求項40に記載の方法。
  50. 【請求項50】 前記方法は、 前記第1仮想空間中の仮想対象物を仮想表示面の後ろに
    ある前記第2仮想空間中の位置に対応する位置に配置す
    るステップを包含する、請求項40に記載の方法。
  51. 【請求項51】 前記方法は、 前記仮想対象物の一部分が前記仮想表示面の後ろにある
    第2仮想空間中の位置に対応する第1仮想空間の位置に
    くるように、また、前記仮想対象物の別の部分が前記仮
    想表示面の前にある第2仮想空間中の位置に対応する第
    1仮想空間中の位置にくるように、前記仮想対象物を配
    置するステップをさらに包含する、請求項40に記載の
    方法。
  52. 【請求項52】 前記第1および第2仮想空間の関係
    は、1対1(1:1)にスケールされた関係である、請
    求項40に記載の方法。
  53. 【請求項53】 前記第1および第2仮想空間の関係は
    1対1(1:1)以外にスケールされた関係である、請
    求項40に記載の方法。
  54. 【請求項54】 少なくとも1つの仮想対象物を含む第
    1仮想空間の複数の映像を連続的に表示するシステムで
    あって、該対象物は3次元対象物データにより表され、
    該第1仮想空間中の位置に配置され、該映像は表示面上
    に表示され、該表示面は第2空間中に表示面位置を有し
    ており、該第2空間中の複数の視点から観察者が該表示
    面を見ており、該複数の視点のそれぞれは該表示面の位
    置に対して該複数の映像の内の異なる1つに対応し、該
    システムは、 該第1および第2空間の関係を、1つの空間における位
    置が他方の空間において対応する位置を有するように規
    定する手段、 該複数の映像のそれぞれに対して、プロジェクションの
    中心点に対する変換を通して該対象物データを変換する
    ことにより該対象物の映像データを作成する手段であっ
    て、該プロジェクションの中心点に対して該対象物の少
    なくとも一部分が第1視界の範囲をそれぞれ定め、該プ
    ロジェクションの中心点は該第1空間中の位置であっ
    て、該映像に対応した第2空間における視点の位置に対
    応する位置と実質的に一致する位置に配置される、手
    段、 該映像データを基にして該複数の映像を生成する手段、
    および該対象物の少なくとも一部分におけるそれぞれの
    映像が、該映像に対応した視点に対する第2視界の範囲
    をそれぞれ定めるように、該第2空間中の該表示面上に
    該複数の映像を表示する手段を備えており、 該変換は、該複数の映像のそれぞれに対して、第1およ
    び第2視界のそれぞれが実質的に同一となるように選択
    される、システム。
  55. 【請求項55】 前記作成手段は、 前記第1視界に含まれる前記対象物上の点を、プロジェ
    クションの中心点に向かって、視界平面上に投影する手
    段であって、該視界平面は前記第1視界の範囲を定め、
    前記第1および第2視界が実質的に同一となるように配
    置される、手段をさらに備えた、請求項54に記載のシ
    ステム。
  56. 【請求項56】 前記映像それぞれに対して、前記第1
    空間中の視界面が、前記第2空間に位置する表示面と実
    質的に平行となるように配置された、請求項55に記載
    のシステム。
  57. 【請求項57】 前記表示面が実質的に平坦であり、前
    記視界面が視界平面である、請求項55に記載のシステ
    ム。
  58. 【請求項58】 前記表示面が湾曲しており、前記視界
    面が視界平面であり、該視界平面が、該表示面の湾曲面
    に接している前記第2空間の平面に対応する前記第1空
    間中に位置する平面と実質的に平行になるように、前記
    第1空間中に配置された、請求項55に記載のシステ
    ム。
  59. 【請求項59】 前記表示手段が各映像を表わす光を第
    2座標システム中の位置から前記表示面に投射するプロ
    ジェクターを含み、該位置は、前記表示面の実質的中心
    点と交差する線であって、前記表示面に対して実質的に
    垂直である線と同軸上にある、請求項54に記載のシス
    テム。
  60. 【請求項60】 前記表示手段が各映像を表わす光を第
    2座標システム中の位置から前記表示面に投射するプロ
    ジェクターを含み、該位置は、前記表示面の実質的中心
    点と交差する線であって、前記表示面に対して実質的に
    垂直である線の軸からそれた位置にあり、該軸からそれ
    たプロジェクションは投影された映像中に歪曲を生じさ
    せ、前記作成手段は、 プロジェクションの中心点に向かって、前記第1視界内
    に含まれる対象物上の点を、視界面に投影する手段であ
    って、該視界面は第1視界の範囲を定め、かつ、前記第
    1および第2視界が実質的に同一となるように該歪曲を
    補正する位置に配置される、手段を備えた、請求項54
    に記載のシステム。
  61. 【請求項61】 前記映像データ作成手段、前記生成手
    段および前記表示手段が、前記観察者が前記表示面に対
    してある視点位置から別の視点位置に移動するにつれて
    リアルタイムで機能を発揮するように作動させられる、
    請求項54に記載のシステム。
  62. 【請求項62】 前記表示面に対する前記複数の視点位
    置が予め決められている、請求項54に記載のシステ
    ム。
  63. 【請求項63】 前記観察者が前記表示面に対して所定
    の軌跡に沿って移動し、前記複数の視点位置のそれぞれ
    が所定の軌跡上にある、請求項54に記載のシステム。
  64. 【請求項64】 前記観察者が前記表示面に対して任意
    の軌跡に沿って移動し、前記複数の視点位置のそれぞれ
    が任意の位置にある、請求項54に記載のシステム。
  65. 【請求項65】 前記観察者が少なくとも第2の観察者
    と共に前記表示面に対して所定の軌跡に沿って移動し、
    前記複数の視点位置のそれぞれが該観察者の集団付近に
    ある、請求項54に記載のシステム。
  66. 【請求項66】 前記第2空間が現実世界中の空間であ
    り、前記表示面が現実世界に物理的に存在するセットの
    少なくとも一部分であり、前記表示面およびセットが複
    数の視点のそれぞれから前記観察者が集団で見れるよう
    に配置され、前記システムは、 該セット内の対象物の現実世界での所望の位置に対応す
    る第1空間中の位置に前記対象物を配置する手段をさら
    に備えており、 それにより、該対象物の表示された映像が、前記観察者
    がある視点位置から別の視点位置に移動するにつれて、
    該対象物が現実世界内の所望の位置に、3次元中に物理
    的に存在しているというイリュージョンを前記観察者に
    与える、請求項54に記載のシステム。
  67. 【請求項67】 前記現実世界のセットは現実世界中の
    位置に物理的に存在するプロップの一部分を含み、前記
    対象物は該プロップの仮想部分を表し、前記システム
    は、 該プロップの仮想部分の表示された映像および該プロッ
    プの現実世界部分の姿が単一の密着したプロップである
    と見えるように、前記第1空間中のプロップの仮想部分
    を現実世界プロップ部分の現実世界における位置に対応
    する位置に対する位置に配置する手段をさらに備えてお
    り、 それにより、前記観察者がある視点位置から別の視点位
    置に移動すると、該プロップの仮想部分の表示された映
    像および該プロップの現実の部分は共通の遠近法による
    消滅点に向かって遠のくように、また互いに単一の密着
    したプロップに一致する移動パララックスを示している
    ように前記観察者には見える、請求項66に記載のシス
    テム。
  68. 【請求項68】 前記プロップの現実世界の部分が仮想
    プロップの映像と適合するように実質的に前記表示面に
    対して配置される、請求項67に記載のシステム。
  69. 【請求項69】 前記プロップの現実世界の部分が前記
    表示面から離れて配置される、請求項67に記載のシス
    テム。
  70. 【請求項70】 前記システムは、 前記対象物を、前記表示面の前にある第2空間中の位置
    に対応する位置であって、少なくとも部分的に前記複数
    の視点の第2視界内にある第1空間中の位置に配置する
    手段をさらに備えた、請求項54に記載のシステム。
  71. 【請求項71】 前記システムは、 前記仮想対象物を、仮想表示面の後ろにある第2仮想空
    間中の位置に対応する、第1仮想空間中の位置に配置す
    る手段をさらに備えた、請求項54に記載のシステム。
  72. 【請求項72】 前記対象物の少なくとも一部分が前記
    表示面の後ろにある第2空間中の位置に対応する第1空
    間の位置にくるように、また、前記対象物の別の部分が
    前記表示面の前にある第2空間中の位置に対応する位置
    であって、前記複数の視点の第2視界内にある第1空間
    中の位置にくるように、前記対象物を前記第1空間中に
    配置する手段をさらに備えた、請求項54に記載のシス
    テム。
  73. 【請求項73】 前記複数の視点位置が第1複数の視点
    位置であり、前記対応映像が第1対応映像であり、前記
    システムは、 第2複数の視点位置を決定する手段であって、該第2複
    数の視点位置のそれぞれは該第1複数の視点位置のそれ
    ぞれに対応し、かつ、眼間オフセットの距離だけ対応す
    る第1視点位置から離れている、手段、 前記表示面に前記対象物の第2複数の映像を与えるため
    に、再び前記作成、生成、および表示手段を該第2複数
    の視点位置のそれぞれに対して行う手段を備えており、 前記観察者に同時に該第2映像および対応する第1映像
    を認識させるために、各第2複数の映像を表示する表示
    手段が第1複数の映像のうち対応する映像を表示する表
    示手段と十分に密接した時間帯で行われる、請求項54
    に記載のシステム。
  74. 【請求項74】 前記第1複数の視点位置、および前記
    第2複数の視点位置のうち対応する視点位置それぞれが
    一組の視点位置を構成し、前記システムは、 前記第1複数の映像を前記第1視点に位置する前記観察
    者の第1の目のみに、また前記第2複数の映像を前記第
    2視点に位置する該観察者の第2の目のみに実質的に見
    せる光学手段をさらに備えており、 それにより、該観察者は該複数の一組ずつの視点位置の
    それぞれにおいて、前記対象物の両眼用映像を見る、請
    求項73に記載のシステム。
  75. 【請求項75】 前記光学手段が前記観察者が掛ける眼
    鏡である、請求項74に記載のシステム。
  76. 【請求項76】 前記システムは、 前記第2空間における前記観察者の位置を決定する手段
    をさらに備えており、 前記表示手段は、該観察者が複数の視点位置のうち実質
    的に異なる位置にいると決定されると、該視点位置にお
    ける対象物の映像を表示するように機能する、請求項5
    4に記載のシステム。
  77. 【請求項77】 前記観察者は映像装置の視界内を移動
    し、前記システムは、 該映像装置が見る第1および第2映像を、第1および第
    2の瞬間それぞれにおいて記憶する手段であって、該映
    像それぞれは、第1および第2の各第1および第2の符
    号化された輝度値を有する明確な映像ロケーションに各
    第1および第2複数の画素を含む、手段、 輝度値が第1および第2映像間で変化する能動画素であ
    る少なくとも1つの画素の映像ロケーションを同定する
    ために、該第1および第2映像の一方の画素輝度値を、
    該第1および第2映像の他方に対する画素輝度値と比較
    する手段、および該複数の視点位置の異なる位置を決定
    するために、少なくとも1つの能動画素の映像ロケーシ
    ョンを基にして前記移動する観察者の位置を計算する手
    段をさらに備えた、請求項54に記載のシステム。
  78. 【請求項78】 前記映像装置の視界は、複数の探知領
    域を含み、前記システムは、 前記移動する対象物が該複数の探知領域の異なる領域に
    ある時を決定する手段をさらに備えた、請求項77に記
    載のシステム。
  79. 【請求項79】 前記異なる位置が前記観察者の既知の
    速度および軌跡を基にして前記観察者の位置を計算する
    ことにより決定される、請求項76に記載のシステム。
  80. 【請求項80】 前記決定手段は前記第2空間中の既知
    の位置にある少なくとも1つの位置センサを含む、請求
    項76に記載のシステム。
  81. 【請求項81】 前記システムは、記録媒介上に前記生
    成映像を記録する手段をさらに備えており、 前記表示手段は前記記録された生成映像を再生する、請
    求項54に記載のシステム。
  82. 【請求項82】 前記記録媒介はビデオディスクおよび
    ビデオテープの少なくとも1つである、請求項81に記
    載のシステム。
  83. 【請求項83】 前記映像のそれぞれが、前記観察者が
    該映像に対応する視点位置に実質的にいると決定された
    時にリアルタイムで表示される、請求項54に記載のシ
    ステム。
  84. 【請求項84】 前記観察者が少なくとも第2の観察者
    と共に前記表示面に対して移動し、前記複数の視点位置
    のそれぞれが、前記第2空間内の該観察者の集団付近に
    ある、請求項54に記載のシステム。
  85. 【請求項85】 前記観察者および第2の観察者が1つ
    の乗物に乗って移動し、前記複数の視点位置のそれぞれ
    が該乗物付近にある、請求項84に記載のシステム。
  86. 【請求項86】 前記第1および第2空間の関係は1対
    1(1:1)にスケールされた関係である、請求項54
    に記載のシステム。
  87. 【請求項87】 前記第1および第2空間の関係は1対
    1(1:1)以外にスケールされた関係である、請求項
    54に記載のシステム。
  88. 【請求項88】 前記表示面が少なくとも表示スクリー
    ンの一部分を含む、請求項54に記載のシステム。
  89. 【請求項89】 前記表示面が表示スクリーンの全てを
    実質的に含む、請求項54に記載のシステム。
  90. 【請求項90】 前記表示面が静止しており、前記観察
    者が該静止表示面に対して前記第1空間中を移動するこ
    とにより、前記複数の視点が生じる、請求項54に記載
    のシステム。
  91. 【請求項91】 前記システムは、 前記規定、作成、生成、および表示手段を別の第1仮想
    空間および別の表示面に対して繰り返す手段、をさらに
    備えており、 それにより、第1仮想空間の複数の映像が、前記複数の
    視点位置において前記観察者に見られるように複数の表
    示面上に表示される、請求項54に記載のシステム。
  92. 【請求項92】 前記複数の映像が前記観察者に同時に
    見られるように表示される、請求項91に記載のシステ
    ム。
  93. 【請求項93】 前記複数の映像が前記観察者に連続的
    に見られるように表示される、請求項91に記載のシス
    テム。
  94. 【請求項94】 前記第1仮想空間が異なる3次元デー
    タからモデル化される、請求項91に記載のシステム。
  95. 【請求項95】 前記第1仮想空間が同一の3次元デー
    タからモデル化される、請求項91に記載のシステム。
  96. 【請求項96】 少なくとも1つの仮想対象物を含む第
    1仮想空間の複数の映像を連続的に表示するシステムで
    あって、該対象物は3次元対象物データにより表され、
    該第1仮想空間中の位置に配置され、該映像は仮想表示
    面上に表示され、該仮想表示面は第2仮想空間中に仮想
    表示面位置を有し、該第2仮想空間中の複数の視点から
    観察者が該仮想表示面を見ており、該視点のそれぞれは
    該複数の異なる映像の1つに対応しており、該表示面の
    位置に対して異なる位置を有しており、該システムは、 該第1および第2仮想空間の関係を、1つの空間におけ
    る位置が他方の空間において対応する位置を有するよう
    に規定する手段、 該複数の映像のそれぞれに対して、プロジェクションの
    中心点に対する変換を通して該対象物データを変換する
    ことにより該対象物の映像データを作成する手段であっ
    て、該プロジェクションの中心点に対して該対象物の少
    なくとも一部分が第1視界の範囲を定め、該プロジェク
    ションの中心点は該第1仮想空間中の位置であって、該
    映像に対応する第2仮想空間中の視点の位置に対応する
    位置と実質的に一致する位置に配置される、手段、 該複数の映像のそれぞれに対する該映像データを、複数
    の2次元の映像テクスチャーのそれぞれを表わすテクス
    チャーデータとして記憶する手段、 該複数の映像テクスチャーのそれぞれを仮想表示を形成
    する面上に写像することにより、該複数の異なる映像の
    それぞれを該観察者に対して表示する手段であって、仮
    想面上にテクスチャー写像された対象物の少なくとも一
    部分の各映像が該対応する視点に対して第2視界の範囲
    を定めるように、各映像は該観察者の視点が該映像に対
    応する視点位置の付近にある時にそれぞれのテクスチャ
    ーにより表示される、手段をさらに備えており、 該変換は、該複数のテクスチャー写像された映像のそれ
    ぞれに対して、第1および第2視界が実質的に同一とな
    るように選択される、システム。
  97. 【請求項97】 前記テクスチャーが前記仮想空間の一
    部分上に写像される、請求項96に記載のシステム。
  98. 【請求項98】 前記システムは、 前記規定、作成、記憶、および表示手段を別の第1仮想
    空間および別の仮想表示面に対して繰り返す手段をさら
    に備えており、 それにより、第1仮想空間の複数の映像が前記複数の視
    点位置にいる観察者に見られるように同時に表示され
    る、請求項97に記載のシステム。
  99. 【請求項99】 前記第1仮想空間中の仮想対象物が、
    前記第2仮想空間を描写する際に用いられる技術とは異
    なる描写技術により描写される、請求項96に記載のシ
    ステム。
  100. 【請求項100】 前記観察者が前記第2仮想空間中の
    ある視点位置から別の視点位置に移動するにつれて、前
    記表示手段がリアルタイムでその機能を発揮する、請求
    項96に記載のシステム。
  101. 【請求項101】 前記複数の視点位置が予め決められ
    ている、請求項96に記載のシステム。
  102. 【請求項102】 前記複数の所定の視点が所定の軌跡
    に沿っている、請求項101に記載のシステム。
  103. 【請求項103】 前記仮想表示面が第2仮想空間中の
    位置で静止しており、前記観察者の視点が前記第2仮想
    空間の異なる位置間を移動することにより前記複数の視
    点が生じる、請求項96に記載のシステム。
  104. 【請求項104】 前記観察者の視点が第2仮想空間中
    の位置で静止しており、前記仮想の表示面が前記第2仮
    想空間の対応する複数の位置間を移動することにより前
    記複数の視点が生じる、請求項96に記載のシステム。
  105. 【請求項105】 前記システムは、 前記第1仮想空間中の仮想対象物を仮想表示面の前にあ
    る前記第2仮想空間中の位置に対応する位置に配置する
    手段をさらに備えている、請求項96に記載のシステ
    ム。
  106. 【請求項106】 前記システムは、 前記第1仮想空間中の仮想対象物を仮想表示面の後ろに
    ある前記第2仮想空間中の位置に対応する位置に配置す
    る手段をさらに備えている、請求項96に記載のシステ
    ム。
  107. 【請求項107】 前記システムは、 前記仮想対象物の一部分が仮想表示空間面の後ろにある
    第2仮想空間中の位置に対応する第1仮想空間の位置に
    くるように、また、前記仮想対象物の別の部分が仮想表
    示面の前にある、第2仮想空間中の位置に対応する第1
    仮想空間中の位置にくるように、前記仮想対象物を配置
    する手段をさらに備えた、請求項96に記載のシステ
    ム。
  108. 【請求項108】 前記第1および第2仮想空間の規定
    された関係は、1対1(1:1)にスケールされた関係
    である、請求項96に記載のシステム。
  109. 【請求項109】 前記第1および第2仮想空間の規定
    された関係は、1対1(1:1)以外にスケールされた
    関係である、請求項96に記載のシステム。
  110. 【請求項110】 少なくとも1つの仮想対象物を含む
    第1仮想空間の複数の映像を連続的に表示する方法であ
    って、該対象物は3次元対象物データにより表され、該
    第1仮想空間中の位置に配置され、該映像は表示面上に
    表示され、該表示面は第2空間中に表示面位置を有し、
    該第2空間中の複数の視点から観察者が該表示面を見て
    おり、該視点のそれぞれは該複数の映像の内の異なる1
    つに対応しており、該表示面の位置に対して異なる位置
    を有しており、該第1および第2空間は、1つの空間に
    おける位置が他方の空間において対応する位置を有する
    ように関係が規定されており、該方法は、 該複数の視点位置の異なる位置を決定するために、該第
    2空間中の観察者の位置を決定するステップ、 該異なる視点位置と決定された視点位置のそれぞれに対
    して、プロジェクションの中心点に対する変換を通して
    該対象物データを変換することにより該対象物の映像デ
    ータを作成するステップであって、該プロジェクション
    の中心点に対して、該対象物の少なくとも一部分が第1
    視界それぞれの範囲を定め、該プロジェクションの中心
    点は該第1空間中の位置であって、該映像に対応した第
    2空間における視点の位置に対応する位置と実質的に一
    致する位置に配置される、ステップ、 該映像データを基にして該複数の映像を生成するステッ
    プであって、該複数の映像のそれぞれは決定された異な
    る視点位置の1つに対応している、ステップ、および該
    観察者が該映像に対応する視点位置に実質的にいると決
    定された時、該第2空間中の表示面上に該複数の映像の
    それぞれを表示するステップであって、それにより該対
    象物の少なくとも一部分における各映像が、決定された
    視点位置に対して第2視界の範囲をそれぞれ定める、ス
    テップを包含しており、 該変換は、該複数の映像のそれぞれに対して、該第1お
    よび第2視界のそれぞれが実質的に同一となるように選
    択される、方法。
  111. 【請求項111】 前記決定、作成、生成、および表示
    ステップが、前記観察者がある視点位置から別の視点位
    置に移動するにつれてリアルタイムで行われる、請求項
    110に記載の方法。
  112. 【請求項112】 前記観察者は映像装置の視界中を移
    動し、前記決定ステップは、 前記第1映像内の明確なロケーションに第1複数画素と
    して該映像装置が見る第1映像を記憶するステップであ
    って、該複数の画素は第1の符号化された輝度値を有す
    るステップ、 前記第2映像内の明確なロケーションに第2複数画素と
    して該映像装置が見る第2映像を記憶するステップであ
    って、該複数の画素は第2の符号化された輝度値を有す
    るステップ、 輝度値が第1および第2映像間で変化した能動画素であ
    る少なくとも1つの画素の映像ロケーションを同定する
    ために、該第1および第2映像の一方の画素輝度値を、
    該第1および第2映像の他方の画素輝度値と比較するス
    テップ、および少なくとも1つの能動画素の映像ロケー
    ションを基にして前記移動する観察者の位置を計算する
    ステップを包含する、請求項110に記載の方法。
  113. 【請求項113】 前記映像装置の視界は複数の探知領
    域を含み、前記方法は、 前記移動する対象物が該複数の探知領域の異なる領域に
    ある時を決定するステップをさらに包含する、請求項1
    12に記載の方法。
  114. 【請求項114】 前記観察者の2次元における位置が
    計算される、請求項112に記載の方法。
  115. 【請求項115】 前記観察者は第2ビデオ映像装置の
    視界内を移動し、前記決定ステップは、 該第2映像装置が見る第3映像を、第3映像内の明確な
    ロケーションに第3の複数画素として記憶するステップ
    であって、該第3の複数画素は第3の符号化された輝度
    値を有するステップ、 該第2映像装置が連続して見る第4映像を第4の複数画
    素として、該第3映像の画素ロケーションに対応する第
    4映像中の明確なロケーションに記憶するステップであ
    って、該第4の複数の画素は第4の符号化された輝度値
    を有するステップ、 少なくとも1つの画素を輝度値が該第3および第4映像
    間で変化した能動画素として同定するために、該第3お
    よび第4の映像の一方の画素輝度値を、該第3および第
    4の映像の他方の画素輝度値と比較するステップ、およ
    び前記第1および第2映像に対応した少なくとも1つの
    能動画素および該第3および第4映像に対応した少なく
    とも1つの能動画素のロケーションを基にして前記移動
    する観察者の3次元における位置を計算するステップを
    さらに包含する、請求項112に記載の方法。
  116. 【請求項116】 前記観察者は映像装置の視界内を移
    動し、前記決定ステップは、 視界を表わす一組ずつの第1および第2複数の映像それ
    ぞれを生成するステップであって、該第1および第2映
    像は第1および第2の瞬間における視界をそれぞれ表す
    ステップ、 該第1映像を特徴付ける画素の輝度を示すデータを記憶
    するステップであって、該画素は該映像内の異なるロケ
    ーションにあるステップ、 輝度値が該第1および第2映像間で変化した少なくとも
    1つの能動画素の映像ロケーションを同定するために、
    該第1および第2映像の一方の画素輝度値を、該第1お
    よび第2映像の他方の画素輝度値と比較するステップ、
    および少なくとも1つの能動画素の映像ロケーションを
    基にして前記移動する観察者の位置を計算するステップ
    を包含し、 それにより、前記観察者が移動するにつれて該観察者の
    視点位置の異なる位置をリアルタイムで決定するため
    に、連続した一組の該第1および第2映像に対する該観
    察者の複数の位置を計算する、請求項112に記載の方
    法。
  117. 【請求項117】 前記映像装置の視界は、複数の探知
    領域を含み、前記方法は、 前記移動する対象物が該複数の探知領域の異なる領域に
    ある時を決定するステップをさらに包含する、請求項1
    16に記載の方法。
  118. 【請求項118】 前記観察者の2次元における位置を
    計算する、請求項116に記載の方法。
  119. 【請求項119】 前記観察者が第2映像装置の第2視
    界内を移動し、前記決定ステップは、 実質的に第1および第2の瞬間における第2視界を表わ
    す一組ずつの第3および第4の複数の映像それぞれを繰
    り返し生成するステップ、 該第3の映像を特徴付ける画素の輝度を示すデータを記
    憶するステップであって、該画素は該映像内の異なるロ
    ケーションにあるステップ、 輝度値が第3および第4映像間で変化した少なくとも1
    つの能動画素の映像ロケーションを同定するために、該
    第3映像を特徴付ける画素の輝度を示すデータと、第4
    映像を特徴付けるロケーションにある画素の輝度を示す
    データとを比較するステップ、および前記第1および第
    2映像に対応した少なくとも1つの能動画素および該第
    3および第4映像に対応した少なくとも1つの能動画素
    の映像ロケーションを基にして前記観察者の3次元にお
    ける位置を計算するステップをさらに包含しており、 それにより、前記観察者が移動するにつれて3次元にお
    ける該観察者の視点位置の異なる位置をリアルタイムで
    決定するために、連続した一組の第1および第2映像、
    およびそれに対応した連続した一組の第3および第4映
    像に対する観察者の複数の3次元における位置を計算す
    る、請求項116に記載の方法。
  120. 【請求項120】 少なくとも1つの仮想対象物を含む
    第1仮想空間の複数の映像を連続的に表示するシステム
    であって、該対象物は3次元対象物データにより表さ
    れ、該第1仮想空間中の位置に配置され、該映像は表示
    面上に表示され、該表示面は第2空間中に表示面位置を
    有しており、該第2空間中の複数の視点から観察者が該
    表示面を見ており、該視点のそれぞれは該複数の異なる
    映像の1つに対応しており、該表示面の位置に対して異
    なる位置を有しており、該第1および第2空間は、1つ
    の空間における位置が他方の空間において対応する位置
    を有するように関係が規定されているシステムであっ
    て、該システムは、 該複数の視点位置の異なる位置を決定するために、該第
    2空間中の観察者の位置を決定する手段、 該異なる視点位置と決定された視点位置のそれぞれに対
    して、プロジェクションの中心点に対する変換を通して
    該対象物データを変換することにより該対象物の映像デ
    ータを作成する手段であって、該プロジェクションの中
    心点に対して該対象物の少なくとも一部分が第1視界そ
    れぞれの範囲を定め、該プロジェクションの中心点は第
    1空間中の位置であって、該映像に対応した第2仮想空
    間における視点の位置に対応する位置と実質的に一致す
    る位置に配置される、手段、 該複数の映像を、該映像データを基にして生成する手段
    であって、該複数の映像のそれぞれは決定された異なる
    視点位置のそれぞれに対応している、手段、および該観
    察者が該映像に対応する視点位置に実質的にいると決定
    された時、第2空間中の表示面上に該複数の映像それぞ
    れを表示する手段であって、それにより該対象物の少な
    くとも一部分における該映像のそれぞれが、決定された
    視点位置に対する第2視界の範囲をそれぞれ定める手段
    を包含しており、 該変換は、該複数の映像のそれぞれに対して、第1およ
    び第2視界のそれぞれが実質的に同一となるように選択
    される、システム。
  121. 【請求項121】 前記観察者がある視点位置から別の
    視点位置に移動するにつれて、前記各手段がリアルタイ
    ムでその機能を発揮する、請求項120に記載のシステ
    ム。
  122. 【請求項122】 前記観察者は映像装置の視界中を移
    動し、前記決定手段は、 該第1映像中の明確なロケーションに第1複数画素とし
    て該映像装置が見る第1映像を記憶する手段であって、
    該複数の画素は第1の符号化された輝度値を有する手
    段、 該第2映像中の明確なロケーションに第2複数画素とし
    て該映像装置が見る第2映像を記憶する手段であって、
    該複数の画素は第2の符号化された輝度値を有する手
    段、 輝度値が第1および第2映像間で変化した能動画素であ
    る少なくとも1つの画素の映像ロケーションを同定する
    ために、該第1および第2映像の一方の画素輝度値を、
    該第1および第2映像の他方の画素輝度値と比較する手
    段、および少なくとも1つの能動画素の映像ロケーショ
    ンを基にして前記移動する観察者の位置を計算する手段
    をさらに備えた、請求項120に記載のシステム。
  123. 【請求項123】 前記映像装置の視界は、複数の探知
    領域を含み、前記システムは、 前記移動する対象物が該複数の探知領域の異なる領域に
    ある時を決定する手段をさらに備えた、請求項122に
    記載のシステム。
  124. 【請求項124】 前記観察者の2次元における位置が
    計算される、請求項122に記載のシステム。
  125. 【請求項125】 前記観察者は第2ビデオ映像装置の
    視界内を移動し、前記決定手段は、 第3映像中の明確なロケーションに第3複数画素として
    該第2映像装置が見る第3映像を記憶する手段であっ
    て、該第3複数画素は第3の符号化された輝度値を有す
    る手段、 該第3映像の画素位置に対応する第4映像中の明確なロ
    ケーションに第4複数画素として該第2映像装置が連続
    して見る第4映像を記憶する手段であって、該第4複数
    の画素は第4の符号化された輝度値を有する手段、 少なくとも1つの画素を輝度値が第3および第4映像間
    で変化する能動画素と同定するために、該第3および第
    4の映像の一方に対する画素輝度値を、該第3および第
    4の映像の他方に対する画素輝度値と比較する手段、お
    よび前記第1および第2映像に対応した少なくとも1つ
    の能動画素および該第3および第4映像に対応した少な
    くとも1つの能動画素の映像ロケーションを基にして前
    記移動する観察者の3次元における位置を計算する手段
    をさらに備えた、請求項122に記載のシステム。
  126. 【請求項126】 前記観察者は映像装置の視界内を移
    動し、前記決定手段は、 視界を表わす一組ずつの第1および第2複数の映像それ
    ぞれを繰り返し生成する手段であって、該第1および第
    2映像は第1および第2の瞬間における視界をそれぞれ
    表す手段、 該第1映像を特徴付ける画素の輝度を示すデータを記憶
    する手段であって、該画素は該映像内の異なるロケーシ
    ョンにある手段、 輝度値が第1および第2映像間で変化した少なくとも1
    つの能動画素の映像ロケーションを同定するために、該
    第1および第2映像の一方に対する画素輝度値を、該第
    1および第2映像の他方に対する画素輝度値と比較する
    手段、および少なくとも1つの能動画素の映像ロケーシ
    ョンを基にして前記移動する観察者の位置を計算する手
    段を備えており、 それにより、前記観察者が移動するにつれて該観察者の
    視点位置の異なる位置をリアルタイムで決定するため
    に、連続した一組の第1および第2映像に対する該観察
    者の複数の位置を計算する、請求項122に記載のシス
    テム。
  127. 【請求項127】 前記映像装置の視界は複数の探知領
    域を含み、前記システムは、 前記移動する対象物が複数の探知領域の異なる領域にあ
    る時を決定する手段をさらに備えた、請求項126に記
    載のシステム。
  128. 【請求項128】 前記観察者の2次元における位置を
    計算する、請求項126に記載のシステム。
  129. 【請求項129】 前記観察者は第2映像装置の第2視
    界内を移動し、前記決定手段は、 実質的に第1および第2の瞬間における第2視界を表わ
    す一組ずつの第3および第4の複数の映像のそれぞれを
    繰り返し生成する手段、 該第3の映像を特徴付ける画素の輝度を示すデータを記
    憶する手段であって、該画素は該映像内の異なるロケー
    ションにある手段、 輝度値が第3および第4映像間で変化した少なくとも1
    つの能動画素の映像ロケーションを同定するために、該
    第3映像を特徴付ける画素の輝度を示すデータと、第4
    映像を特徴付ける対応する位置にある画素の輝度を示す
    データとを比較する手段、および第1および第2映像に
    対応した少なくとも1つの能動画素および該第3および
    第4映像に対応した少なくとも1つの能動画素の映像ロ
    ケーションを基にして前記観察者の3次元における位置
    を計算する手段を備えており、 それにより、前記観察者が移動するにつれて3次元にお
    ける該観察者の視点位置の異なる位置をリアルタイムで
    決定するために、連続した一組の第1および第2映像、
    およびそれに対応した連続した一組の第3および第4映
    像に対する観察者の複数の3次元の位置を計算する、請
    求項126に記載のシステム。
JP5155908A 1992-07-24 1993-06-25 三次元イリュージョンを生み出す方法およびシステム Withdrawn JPH07306955A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US91972292A 1992-07-24 1992-07-24
US07/919,722 1992-07-24

Publications (1)

Publication Number Publication Date
JPH07306955A true JPH07306955A (ja) 1995-11-21

Family

ID=25442537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5155908A Withdrawn JPH07306955A (ja) 1992-07-24 1993-06-25 三次元イリュージョンを生み出す方法およびシステム

Country Status (3)

Country Link
EP (1) EP0583060A3 (ja)
JP (1) JPH07306955A (ja)
CA (1) CA2099694A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69428849T2 (de) * 1993-08-31 2002-11-14 Sun Microsystems Inc Verfahren und Gerät zur Wiedergabe von Objekten auf einem Anzeigegerät mit mehr Realität
EP0669758B1 (en) * 1993-09-06 2000-03-08 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Time-varying image processor and display device
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
DE69730565T2 (de) 1996-06-26 2005-02-03 Matsushita Electric Industrial Co., Ltd., Kadoma Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
CA2265462C (en) * 1996-09-03 2006-07-18 Christian Stegmann Method for displaying an object design
JP3091960B2 (ja) * 1997-02-18 2000-09-25 コナミ株式会社 疑似3次元画像表示装置、疑似3次元画像表示方法及びコンピュータプログラムが記録された機械読み取り可能な記録媒体
US6847364B1 (en) 1999-12-23 2005-01-25 Intel Corporation Methods and apparatus for creating three-dimensional motion illusion in a graphics processing system
FR2822328B1 (fr) * 2001-03-13 2003-05-23 Art Netart Sa Procede et systeme de simulation visuelle d'une forme a l'interieur d'un volume
DE602004008794T2 (de) 2003-09-30 2008-06-12 Koninklijke Philips Electronics N.V. Bildwiedergabe mit interaktiver bewegungsparallaxe
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
EP1750460A1 (en) 2005-08-05 2007-02-07 Samsung SDI Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
EP2208354A4 (en) * 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
JP5376874B2 (ja) 2008-09-05 2013-12-25 任天堂株式会社 画像処理プログラムおよび画像処理装置
US8411046B2 (en) 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US8385952B2 (en) 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US8238876B2 (en) 2009-03-30 2012-08-07 Microsoft Corporation Notifications
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US8269736B2 (en) 2009-05-22 2012-09-18 Microsoft Corporation Drop target gestures
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US9710554B2 (en) 2010-09-23 2017-07-18 Nokia Technologies Oy Methods, apparatuses and computer program products for grouping content in augmented reality
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US20140218410A1 (en) * 2013-02-05 2014-08-07 Sirui Hu System And Method For Efficiently Generating Device-Dependent Anaglyph Images
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
ITTO20130683A1 (it) * 2013-08-08 2015-02-09 Sisvel Technology Srl Apparato e metodo per la correzione delle deformazioni prospettiche delle immagini
WO2015149347A1 (en) 2014-04-04 2015-10-08 Microsoft Technology Licensing, Llc Expandable application representation
WO2015154273A1 (en) 2014-04-10 2015-10-15 Microsoft Technology Licensing, Llc Collapsible shell cover for computing device
EP3129847A4 (en) 2014-04-10 2017-04-19 Microsoft Technology Licensing, LLC Slider cover for computing device
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
WO2016025502A1 (en) 2014-08-11 2016-02-18 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
US9674335B2 (en) 2014-10-30 2017-06-06 Microsoft Technology Licensing, Llc Multi-configuration input device
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
EP3563347A4 (en) 2016-12-27 2020-06-24 Gerard Dirk Smits SYSTEMS AND METHODS FOR MACHINE PERCEPTION
JP7174397B2 (ja) * 2018-06-18 2022-11-17 チームラボ株式会社 映像表示システム,映像表示方法,及びコンピュータプログラム
US11090576B2 (en) 2018-10-29 2021-08-17 Universal City Studios Llc Special effects visualization techniques
CN110045827B (zh) * 2019-04-11 2021-08-17 腾讯科技(深圳)有限公司 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
WO2021174227A1 (en) 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
CN114125418A (zh) * 2020-08-25 2022-03-01 陕西红星闪闪网络科技有限公司 一种全息游客服务中心及其实现方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体

Also Published As

Publication number Publication date
EP0583060A3 (en) 1995-04-12
EP0583060A2 (en) 1994-02-16
CA2099694A1 (en) 1994-01-25

Similar Documents

Publication Publication Date Title
JPH07306955A (ja) 三次元イリュージョンを生み出す方法およびシステム
Weier et al. Foveated real‐time ray tracing for head‐mounted displays
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
Jones et al. Rendering for an interactive 360 light field display
US5329310A (en) Method and apparatus for controlling distortion of a projected image
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
Agrawala et al. Artistic multiprojection rendering
US8432436B2 (en) Rendering for an interactive 360 degree light field display
Raskar et al. Table-top spatially-augmented realty: bringing physical models to life with projected imagery
US5696892A (en) Method and apparatus for providing animation in a three-dimensional computer generated virtual world using a succession of textures derived from temporally related source images
ES2348853T3 (es) Procedimiento y sistema que permiten a un usuario mezclar en tiempo real imagenes de sintesis con imagenes de video.
US20100110069A1 (en) System for rendering virtual see-through scenes
US6326972B1 (en) 3D stroke-based character modeling suitable for efficiently rendering large crowds
WO1995004331A1 (en) Three-dimensional image synthesis using view interpolation
CN108805971B (zh) 一种环境光遮蔽方法
CN106940897A (zh) 一种在ar场景中介入现实光影的方法
Yang et al. Nonlinear perspective projections and magic lenses: 3D view deformation
Thirion Realistic 3D simulation of shapes and shadows for image processing
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
WO2009068942A1 (en) Method and system for processing of images
JP3387856B2 (ja) 画像処理方法、画像処理装置および記憶媒体
JPH0241785B2 (ja)
Aoki et al. Computer generation of realistic pictures
Debevec Pursuing reality with image-based modeling, rendering, and lighting

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000905