JPH06187424A - 頭部追跡式立体画像を生成する方法及び装置 - Google Patents

頭部追跡式立体画像を生成する方法及び装置

Info

Publication number
JPH06187424A
JPH06187424A JP5154617A JP15461793A JPH06187424A JP H06187424 A JPH06187424 A JP H06187424A JP 5154617 A JP5154617 A JP 5154617A JP 15461793 A JP15461793 A JP 15461793A JP H06187424 A JPH06187424 A JP H06187424A
Authority
JP
Japan
Prior art keywords
viewer
image
head
eye
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5154617A
Other languages
English (en)
Other versions
JP3318684B2 (ja
Inventor
Michael Deering
マイケル・ディアリング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Publication of JPH06187424A publication Critical patent/JPH06187424A/ja
Application granted granted Critical
Publication of JP3318684B2 publication Critical patent/JP3318684B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【目的】 事前に計算した画像の集合間から選択した立
体画像の対に動的にアクセスすることによりリアルタイ
ムに視聴者の頭部の動きに対応した複合的な3D立体画
像を生成する方法と装置を提供する。 【構成】 事前計算画像は潜在的な所定の視点の集合に
対応し、視聴者の頭部の動きの予測に基づいてアクセス
する。所定の視点の構成は1、2ないし3次元とするこ
とが出来る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はコンピュータグラフィッ
クス・システムに関し、特に頭部追跡式立体表示システ
ムで複合高解像度立体3D画像をリアルタイムに生成す
ることに関する。
【0002】
【従来の技術】人間の目は光トランデューサとして機能
する網膜に接続された光学システムになぞえらえること
ができる。人間の目は光線で満たされた物理空間に浸さ
れており、点光源は透明、不透明面間の境界あるいは異
なる屈折率の透明面間の境界である物理空間のあらゆる
地点に存在する。人間の立体視覚は2つの目をその物理
空間内の異なる位置に置くことにより達成できる。一般
的なコンピュータグラフィックス・システムは光源によ
る画像面を生成ないし光の反射体による画像面を生成す
ることで画像を生成する。そのような画像面は画素とし
て知られている点光源の2次元の配列で近似できる。画
像面で生成された光は画像面上の各々の画素から広がっ
ている光の半球の総計である。各々の画素の色と強度は
別々に制御可能であるが、半球にわたる色と強度の分布
は通常、制御出来ない。画像面を構成する画素はどの角
度からみても実質的に同一に見える。
【0003】それにも関わらず、頭部追跡装置式立体表
示システムでは、視聴者が3次元画像を認識できるよう
に人間の目と物理空間の光線との相互作用をシミユレー
トする。頭部追跡装置式立体表示システムは視聴者の頭
部と目の物理空間内の位置を感知し、その頭部と目の位
置に基づいて仮想対象物の立体画像の対を計算して、立
体画像を立体表示装置に生成する。頭部追跡式立体表示
システムでは一時に2つの画像しか計算して生成する必
要はなく、それによりホログラフシステムよりも計算は
かなり少なくなる。更に一対の立体画像はホログラムと
同じ様な外観を有している。頭部追跡式立体表示システ
ムにより、視聴者の頭部が傾いたり、視聴者の頭部が周
りを見渡したり仮想対象物の側面ないし上を見るために
動いても、仮想対象物は一定に留まっているように見え
る。頭部追跡式立体表示システムに関する更なる説明
は、パーレィ、W.B.「ヘッドトラック式立体表示、手
法、応用」SPIE会議録、1992年2月を参照のこと。
【0004】
【発明が解決しようとする課題】頭部追跡式立体表示シ
ステムでは、立体画像の風景や対象物は、人間の視覚系
に生理学的に受け入れ可能な十分短い時間感覚で表現す
る必要がある。従来の頭部追跡式立体表示システムは共
通に市販の3Dコンピュータグラフィックス画像生成ハ
ードウエア、ソフトウエアを使用して3D表示プリミテ
ィブで立体画像を生成していた。しかしそのようなシス
テムの性能は3Dグラフィックス表現ハードウエアの速
度で制限される。立体画像の複雑性が増大すると共に、
グラフィックス表現ハードウエアは受け入れ可能な速度
で3D立体画像を生成するには遅くなりすぎている。以
下に述べるように、本発明の方法と装置は事前に計算し
た画像の集合から選択した一対の立体画像に動的にアク
セスすることにより複雑な3D立体画像を生成する。事
前計算画像は次の立体表示のフレームに対する視聴者の
頭部の位置の予測に基づいて選択する。
【0005】
【課題を解決するための手段】事前に計算した画像の集
合から選択した一対の立体画像に動的にアクセスするこ
とによりリアルタイムの視聴者の頭部の動きに対応した
複雑な3D立体画像を生成する方法と装置を開示する。
事前に計算した画像は表示装置のディスプレイ画面に記
録した表示プレート座標(DPC)内の所定の潜在的な
視点の集合に対応する。事前計算画像はグラフィックス
表現システムによりバッチモードで生成する。代わりに
事前計算画像は、カメラの第1節点に対応する空間の正
確な位置でサンプルした物理世界から以前に取得した画
像とする。
【0006】頭部追跡器を使用して視聴者の頭部の動的
な位置を追跡する。画像フレームが表示されると、立体
ディスプレィ上の次のフレームに対する視聴者の頭部の
予測位置と方向を、視聴者の頭部の動きを補間法に基づ
いて推定する。その後、DPC空間内の視聴者の目の第
1節点の予測位置を予測眼球位置から判定する。DPC
空間内の視聴者の目の第1節点の予測位置を用いて事前
計算画像の集合間から一対の立体画像を選択する。立体
画像は、DPC空間で視聴者の予測目第1節点に対して
最近接を有する所定の潜在的な視点の集合の2つの視点
を決定することにより選択する。
【0007】所定の視点の構成は1、2ないし3次元に
することができる。記憶できる事前計算ないし事前取得
画像の数を増大するため、記憶する前に画像を圧縮す
る。仮想対象物の概観が時間をかけて一定に留まるなら
ば、所定の視点の集合の各々に付いて1つの画像しか記
憶されない。しかし仮想対象物の外観が時間をかけて変
化するならば、所定の視点の集合の各々に付いて複数の
画像が記憶される。
【0008】第1の変形実施例では、画像シーンの事前
サンプル画像を生成し、そこでは画像シーンの外観は視
点の様相により変化する。この実施例により視聴者は、
視聴者の頭部が事前サンプル視点を通して動くと外観を
変化する画像シーンの3D立体再生画像を知覚すること
が出来る。
【0009】第2の変形実施例では、ライブのビデオ画
像に動的にアクセスすることにより視聴者の頭部の動き
にリアルタイムに対応して複合3D立体再生画像を生成
する。ライブビデオ画像は画像シーンのライブ画像をサ
ンプルする1組のビデオカメラにより生成する。立体C
RTは頭部追跡予測にしたがって画像シーンの3D立体
再生画像を生成する。
【0010】
【実施例】事前に計算した画像の集合から選択した対の
立体画像に動的にアクセスすることにより視聴者の頭部
の動きにリアルタイムに対応して複雑な3D立体画像を
生成する方法と装置を開示する。事前に計算した画像は
立体表示の次のフレームに対する視聴者の頭部の位置の
予測に基づいて選択する。以下の説明では例示目的のた
めに特定のアプリケーション、数、装置、構成を述べて
本発明の完全な理解を提供するようにするが、当業者に
は本発明はそれら特定の詳細なしに実施可能であること
が明かとなろう。他の事例では、よく知られたシステム
を図式的あるいはブロック図形式で示して本発明を不必
要に曖昧なものにしないようにしている。
【0011】図1は本発明の教示に従ったグラフィック
ス画像を生成し、利用者の入力に応答する例示的なコン
ピュータベースのシステムを示す。図には3つの主要構
成部分からなるコンピュータ10が示されている。それら
の最初のものは入出力回路12であり、コンピュータ10か
ら他の構成部分及びその逆に適切に構成された形式で情
報を交信するのに使用する。更にコンピュータ10には入
出力回路12とメモリ16に接続された中央演算処理装置
(CPU)14がある。それらの構成要素は大部分の汎用
コンピュータに一般に見られるものであり、実際コンピ
ュータ10はコンピュータシステムの広範なカテゴリの代
表的なものを意図している。磁気デイスク20は入出力回
路12に接続してコンピュータ10の追加記憶能力を提供す
る。よく知られているようにデイスク20は他のコンピュ
ータプログラム、文字、ルーチン、画像などを記憶する
ことが出来、それらはCPU14でアクセスして実行する
ことが出来る。またコンピュータ10には磁気テープドラ
イブ並びにまた他のコンピュータシステムに接続するネ
ットワークのようなデータを記憶する追加装置を接続で
きることが理解されよう。
【0012】CDROM26は入出力回路12に接続して事
前に計算された3D立体画像を本発明の教示にしたがっ
て配分する追加記憶能力を提供する。またネットワーク
制御装置28が入出力回路12に接続されている。ネットワ
ーク制御装置28は通信ネットワークを通して事前に計算
した3D立体画像をネットワークサーバ(図示せず)か
ら受取り、事前計算画像をコンピュータ10の他の部分に
転送する。ビデオサンプリング装置30も入出力回路12に
接続されている。ビデオサンプリング装置30は映像信号
を1つないし複数の外部ビデオカメラから受取り、受け
取ったビデオ画像をディジタル化する。以下に説明する
ように、ビデオサンプリング装置30が受け取ったビデオ
画像は本発明の教示にしたがって事前計算画像として使
用することが出来る。
【0013】ラスタ表示装置24は入出力回路12に接続
し、CPU14が生成した画像を本発明の教示にしたがっ
て表示するのに使用する。様々なラスタ(ないし画素写
像化)表示装置を表示装置24として利用することが出来
る。本実施例では表示装置24は立体CRTで構成する。
キーボード18も入出力回路12に接続してよく知られてい
るようにコンピュータ10にデータやコマンドを入力する
のに使用する。一対の立体シャッタ眼鏡 120も入出力回
路12に接続する。立体シャッタ眼鏡 120には超音波を受
け取る一対の埋め込み式超音波受信器 122が含まれてい
る。立体シャッタ眼鏡にはまた、シャッタレンズを制御
する赤外線制御スィッチが埋め込まれている。
【0014】3D6軸マウス 130も入出力回路12に接続
する。3Dマウス 130には超音波を受信する1組の3超
音波受信器 132が含まれている。立体CRT24のディス
プレィ表面に関した3Dマウス 130と立体シャッタ眼鏡
120の3D位置は、立体CRT24に取り付けた3D6軸
頭部追跡器 140が感知する。3D頭部追跡器 140は超音
波受信器 122、 132が受け取る超音波を生成する3つの
超音波送信器 142が埋め込まれている。
【0015】図2は図1に例示したメモリ16内に含まれ
る主要なプログラムの1つの構成を示したものである。
特にディスプレィ24の画素マップとしての務めをするフ
レームバッファ36が示されている。フレームバッファ36
はディスプレィ24の映像メモリの代表的なもので、フレ
ームバッファ36内の各々の記憶位置は立体CRT24の左
右の目の画素に対応する。従ってフレームバッファ36は
立体CRT24上の画素に対応する既知の座標を有する2
次元の点の配列からなる。フレームバッファ36はある画
像が1つのバッファから表示されている間に別の画像を
他のバッファからアクセス出来るように、二重バッファ
として構成する。
【0016】メモリ16はまた本明細書に開示するように
本発明の教示にしたがって機能を実施するコンピュータ
10が実行する様々なプログラムを含んでいる。加えてメ
モリ16は更にコンピュータシステム上で他のよく知られ
た機能を制御ないし行う他のプログラムを含んでいる。
本実施例では、視聴者は立体シャッタ眼鏡 120を装着
し、3Dマウス 130を操作する。立体CRT24の表示面
に関した3Dマウス 130と立体シャッタ眼鏡 120の3D
位置は、立体CRT24に取り付ける3D6軸頭部追跡器
140が感知する。超音波受信器 122、 132と超音波送信
器 142の間の超音波の走行時間は立体シャッタ眼鏡 120
と3Dマウス 130の3D位置を三角測量するのに使用す
る。3Dマウス 130は視聴者が認識する仮想画像を操作
するのに使用する。
【0017】頭部追跡式立体表示システムでは、立体視
覚ディスプレィ・パイプラインは2つの4x4の透視画
法視覚マトリックス(実際上、各々の目に対して1つの
単一視覚パイプライン)で特定する。それらのマトリッ
クスは視覚の全体的な物理的構成に付いての情報を暗示
的に含んでいる。各々の結果的なマトリックスは斜め成
分を含んでいる。
【0018】視覚の物理的構成は3空間内の立体CRT
24の位置と視聴者の目の動的な位置により決定される。
それらのパラメータが分かっていれば、視覚マトリック
スは換算係数内で唯一のものとなる。各々の目に対する
視覚マトリックスは、視聴者の目を先端とし、立体CR
T24のディスプレィ表面内のディスプレィウィンドウの
4つの角により定義される底面を有する角錘に相当す
る。ディスプレィ表面が完全に平らであると想定する
と、正面と背面の切取り面は、立体CRT24ディスプレ
ィ表面の面に平行となる。ディスプレィ表面を平らと想
定することにより生じる不正確性を補正する高解像度仮
想現実システムに付いての説明は、「頭部追跡装置ディ
スプレィを用いた高解像度仮想現実システムの方法と装
置」の名称の に出願された関連出願番号No.
を参照のこと。
【0019】本実施例では、コンピュータグラフィック
ス・アプリケーションは物理的座標と仮想座標(VC)
間の関係はマトリックスPで示す。マトリックスPで示
される相対的位置、方向及び縮尺は、仮想及び物理的世
界を如何に重畳するかを特定する。(この換算係数はg
とする)。立体表示装置の物理的構成と視聴者の目の感
知リアルタイム位置は、最終的な4x4視覚マトリック
スに必要な情報の残りに寄与する。最終的な4x4視覚
マトリックスは、コンピュータ10上で実施されるグラフ
ィックス表現システムのパラメータとして使用する。
【0020】本発明の教示を実施するため、立体CRT
24はそのディスプレィ面に記録した物理的座標系を有す
るものと見なす。この物理的座標系は以下、ディスプレ
ィ面座標(DPC)と称する。図3はディスプレィ面座
標系を示す。DPCはその原点を可視ラスタの左下コー
ナに有している。x軸は右に水平に伸び、y軸は垂直に
上向きに伸びている。z軸はディスプレィ表面に対して
直角であり、視聴者に向かって正の座標となる。
【0021】ディスプレィ面上のウィンドウは、ウィン
ドウに付いて左下及び右上コーナをz=0面で2つのD
PC点LとHとして特定することで定義できる。各々の
視聴者の目はDPC空間では別々の座標を有する。1つ
の目の点の例示的な座標をEとして示す。正面及び裏面
切取り面はz軸に沿った距離FとBにある。更なる説明
に付いてはフォーレィ、J.D.、フォンダム、A.、フェイ
ナー、S.K.、ヒュージス、J.F.「コンピュータグラフィ
ックス、原理と実践」第2版、アディソン・ウエスレィ
1990を参照のこと。
【0022】DPC内の可視点を[-1 + 1][-1 + 1][-1
+ 1]の拡張単位立方体に写像する列ベクトルマトリック
ス形式で表現される1つの目に対する視覚マトリックス
Pは次の通りとなる。
【0023】
【数1】
【0024】上記の方程式は立体CRT24のような表示
装置ならびに投射立体ディスプレィや立体LCDパネル
に当てはまる。視聴者の目の間の距離である視覚間距離
は視覚マトリックスPでは直接示されていないことに留
意する。頭部追跡式立体表示システムでは、ディスプレ
ィ面上の視差は必ずしも水平ではない。視聴者がディス
プレィを垂直に向いた目で見ると、画面での視差は完全
に垂直となる。画面での視差の量は、所与の頭部距離や
対象物の位置に対しても一貫していない。視聴者の頭部
を画面の一方に30゜回転した場合、画面表面での視差は
画面に真正面に直面したときよりも少ない。
【0025】従来のコンピュータグラフィックスでは、
視覚投射点は「眼点」ないし「視点」と呼ばれ、視聴者
の目と対応することが意図されている。しかし正確に表
示するには、視点位置を生理学的に正確に識別する必要
がある。一般的な光学用語では、レンズシステムの視点
は最初の節点である。人間の目の最初の節点の識別の説
明に付いては、「頭部追跡装置ディスプレィを用いた高
解像度仮想現実システムの方法と装置」の名称の
に出願された関連出願番号No. を参照のこと。
【0026】目の節点の正確な視点位置は、目追跡ハー
ドウエアを用いて視聴者の各々の目の注視方向に付いて
の情報を得ることで達成することが出来る。注視情報と
頭部と目の位置の組合せを用いてDPC空間内で正確に
目の第1の節点を探知することが出来る。加えて注視情
報を用いて、網膜の中心部分に対応し、高空間デーティ
ールで表現されてしかるべきディスプレィ表面空間の領
域を識別することが出来る。
【0027】代わりに目の第1の節点位置の不正確性に
よる誤差は、視聴者の注視の可能性のある方向を予期す
ることにより最小にすることが出来る。視聴者の注視の
可能性のある方向は、立体CRT24の立体ウィンドウの
中心となる可能性がある。3Dマウス 130を使用する
と、最も厳密な精度要件では、マウスを仮想対象物に
「接触すること」を反映するものとなりやすいので、視
聴者の注視は対話形の仮想対象物の「ホットスポット」
の方向となる可能性がある。視聴者の注視方向を3Dマ
ウス 130の頂点で選択することで、目の回転による誤差
を補償する。更に、コンピュータシステム10上で実行す
る画像表現ソフトウエアは、立体CRT24上に表示され
る立体画像の「ホットスポット」のためにDPC座標を
維持する。
【0028】本発明の本実施例では、超音波追跡装置 1
40を用いてDPC空間内での動的な視聴者の頭部位置と
方向を得る。しかし本方法は使用する追跡技術に依存し
ないことに留意すべきである。頭部位置と方向データ
は、頭部追跡装置 140の位置から視聴者の目への固定ベ
クトルを用いて視聴者の目の回転の中心をリアルタイム
で導出するのに使用する。視聴者の頭部の視覚間距離
は、個人により±2cmほどの差がある。本実施例で
は、頭部追跡器 140から視聴者の目への固定ベクトル
は、所与の視聴者の視覚間距離を考慮して、視聴者特有
のものとする。固定ベクトルはまた頭部追跡装置の視聴
者の頭部に対する重ね合わせを考慮に入れている。
【0029】視聴者がコンピュータ生成対象物を3次元
物理的対象物として認識するには、運動フュージョンに
対して十分なディスプレィフレーム速度を有することが
必要である。立体画像では誘起立体運動という追加現象
があり、低いフレーム速度で表示された対象物は歪んで
ねじ曲げられて見える。更なる説明に付いては、タイラ
ーC.W.「誘起立体運動」視覚14巻、609−613、ペルガモ
ン・プレス社1974年を参照のこと。
【0030】頭部追跡式立体表示システムで使用する3
Dグラフィックス表現ハードウエアの性能により、生成
することの出来る立体画像の複雑さが制限される。表現
性能は、視聴者の頭部が動くときに次の一対の立体画像
を計算し表示するのにかかる時間に上限があるために、
画像の複雑さに制限が加わる。上限は人間の視覚系で受
け入れ可能なちらつきフュージョン速度により決定され
る。
【0031】本方法及び装置は、事前に計算したあるい
は事前に取得した画像の集合間から選択した対の立体画
像に動的にアクセスすることによりリアルタイムの視聴
者の頭部の動きに対応して複雑な立体画像を生成する。
事前計算あるいは事前取得画像は、DPC空間内の所定
の可能な視点の集合に対応する。立体CRT24の次のフ
レームに対する視聴者の頭部の位置の前方予測を使用し
て検索及び表示用の事前に計算した立体画像を特定す
る。
【0032】事前に決定した視点の集合に対応する事前
計算画像は、コンピュータ10上で実施するグラフィック
ス表現システムによりバッチモードで生成する。広範な
グラフィックス表現方法を用いて事前計算ないし事前取
得画像を生成することが出来る。本実施例では、事前計
算画像は上述の4x4視覚マトリックスパイプラインを
用いてコンピュータ10で生成する。代わりに事前取得画
像は、カメラ装置の光学的第1節点が所定の視点と対応
するように選別的に配置したカメラ装置により生成され
たディジタル化画像とすることが出来る。
【0033】頭部追跡器 140は、視聴者の頭部の動的な
位置を能動的に追跡するのに使用する。画像フレームが
立体CRT24に表示されると、視聴者の頭部の立体CR
T24上の次のフレームに対する予測位置と方向を、視聴
者の頭部の動きの線形補間法に基づいて推定する。視聴
者の頭部が静止しているときあるいは非常にかすかにし
か動かないときに立体画像のジッタを削減するために、
フィルタを用いて頭部の位置の予測関数を小さい頭部速
度にランプダウンする。
【0034】視聴者の予測眼球位置を次に予測頭部位置
と方向から計算する。眼球の位置を正確に計算するた
め、本発明の頭部追跡式立体表示システムを用いて各々
の視聴者に対する視聴者特定視覚間距離情報を保持す
る。立体CRT24上の次のフレームに対するDPC空間
内の視聴者の目の第1節点の予測位置は、予測眼球位置
から計算する。頭部の位置と方向の予測の改善は、速度
と加速データを提供する頭部追跡器を使用するならば可
能である。更に、本発明の趣旨と範囲を逸脱せずに、様
々な頭部追跡装置並びに高次の頭部追跡予測機能を使用
することが出来る。
【0035】立体CRT24の次のフレームに対するDP
C空間内の視聴者の目の第1節点の予測位置は、事前計
算ないし事前取得画像の集合間から一対の立体画像を選
択するのに使用する。上述したように事前計算ないし事
前取得画像はDPC空間内の所定の可能な視点の集合に
対応する。立体画像はDPC空間内で予測目第1節点に
対して最近接を有する所定の可能な視点の集合の2つの
視点を決定することにより選択する。
【0036】図4は本発明の教示と一致する所定の可能
な視点50−57の集合例を示し、視聴者 210の予測される
目の第1節点に対する最近接視点の投影マトリックスの
1次元ジオメトリを示す。図4のa、bに示す例では、
視点50−57は仮想対象物 200に対して平行な直線上にあ
る。この所定の視点の構成により、視聴者 210は線に沿
った横方向の頭部の動きをする間、正確な3D立体画像
を見ることが出来る。
【0037】本実施例では、コンピュータ10は視点50−
57の視点面に対応して仮想対象物 200の画像を事前に計
算する。事前に計算した画像はコンピュータ10上でバッ
チモードで生成され、リアルタイム生成の時間制約無し
に視点50−57に対して複合的な画像を任意に生成するこ
とが出来る。視点50−57に対応した事前計算ないし事前
取得画像は、メモリ16ないしデイスク20からアクセスす
るか、あるいはネットワーク制御装置28によりネットワ
ークを通してアクセスすることが出来る。また事前計算
ないし事前取得画像は、多数の複合事前計算ないし事前
取得画像の記憶容量を提供するCDROM26を用いて記
憶、配分することが出来る。CDROMのアクセス時間
が立体CRT24上で所望のフレーム速度を完了するには
遅すぎる場合、CD上で配分する事前計算ないし事前取
得画像はデイスク20にコピーすることが出来る。
【0038】頭部追跡器 140は視聴者 210が装着してい
る立体シャッタ眼鏡 120のDPC空間内の位置を感知す
る。視聴者の頭部がDPC空間内で動くと、立体CRT
24の次のフレームに対しての視聴者の頭部の予測位置と
方向を推定する。その後、視聴者 210の予測眼球位置を
予測頭部位置と方向から計算し、視聴者 210のDPC空
間内の目の第1節点の位置を眼球位置から計算する。
【0039】図4aに示す例では、視聴者 210のDPC
空間内の予測目第1節点は、視点53、54に最も近い。従
って視点53、54に対応した事前計算ないし事前取得画像
を立体CRT24上に表示して視聴者 210に仮想対象物 2
00の適切な立体図を提供しなければならない。その結
果、視点53、54に対応した事前計算ないし事前取得画像
を記憶装置から検索してフレームバッファ36にコピーし
て次のフレームの間に立体CRT24に表示する。
【0040】図4bは視点50−57により限定される線に
沿って横方向に転置された視聴者 210のDPC空間内の
予測目の第1節点を示す。この例では、予測目の第1節
点は視点51、52に最も近い。従って視点51、52に対応し
た事前計算ないし事前取得画像を検索してフレームバッ
ファ36にコピーし、次のフレームの間の立体CRT24上
に表示する。
【0041】図4cは、仮想対象物 200の周りの曲線上
にある視点50−57の所定の集合例を例示したものであ
る。また視聴者 210の予測目の第1節点に最も近接した
視点に対応した投影マトリックスの1次元ジオメトリを
示す。この所定の視点の集合例により、視聴者 210は視
点50−57により限定される曲線に沿った頭部の動きの
間、正確な立体画像を見ることが出来る。図示するよう
な視聴者 210の予測頭部位置により、予測目第1節点は
視点56、57に最も近い。従って視点56、57に対応した事
前計算ないし事前取得画像を検索して、フレームバッフ
ァ36にコピーして次のフレーム中に立体CRT24に表示
する。
【0042】図5は異なる視覚間距離を有する視聴者に
対応できる所定の視点の構成例を示す。この例では、視
聴者 220は視聴者 210の視覚間距離よりも大きな視覚間
距離を有している。視点60−75の所定の集合が視聴者 2
10と 220の予測目第1節点に最も近接した視点に対応す
る投影マトリックスの1次元ジオメトリに沿って示され
ている。上記と同様、視点60−75に対応する事前計算な
いし事前取得画像は、メモリ16、デイスク20、CDRO
M装置26ないしネットワーク制御装置28によりネットワ
ークを通してアクセスすることが出来る。
【0043】視点60−75は仮想対象物 200に対して平行
な直線上にある。この構成により視聴者 210ないし視聴
者 220はその線に沿った横方向の頭部の動き中に正確な
立体画像を知覚することが出来る。上述したように、本
方法は特定の視聴者の目の第1節点の予測位置を決定す
るときに視聴者特有の目の間隔を考慮に入れる。図5a
の例では、視聴者 210のDPC空間内の予測される目の
第1節点は、視点61、63に最も近い。従って視点61、63
に対応する事前計算ないし事前取得画像を検索して視聴
者 210の頭部の動きを追跡する次のフレーム中に立体C
RT24上に表示するためにフレームバッファ36にコピー
する。しかし視聴者 220のDPC空間内の予測目の第1
節点はより広い間隔があり、視点71、74に最も近い。そ
の結果、視点71、74に対応する事前計算ないし事前取得
画像を検索して視聴者 220の頭部の動きを追跡する次の
フレーム中に立体CRT24上に表示するためにフレーム
バッファ36にコピーする。
【0044】図5bの例では、視聴者 220の頭部の予測
位置と方向が右に転じて示されている。従って視聴者 2
20の目第1節点は視点66、68に最も近い。視聴者 220の
頭部の例示した方向は、視聴者 220の目が仮想対象物 2
00に対して平行に向いている場合よりも狭い視点間隔を
選択することになる。従って視点66、68に対応する事前
計算ないし事前取得画像を検索して次のフレーム中に立
体CRT24上に表示するためにフレームバッファ36にコ
ピーする。上記の例では、所定の視点は直線ないし曲線
に沿って配列している。しかし所定の視点は1次元、2
次元並びに3次元に配列することが出来る。
【0045】図6は仮想対象物 240の所定の視点の3次
元構成例を示す。この例では、所定の視点は立方体 300
内に含まれる視点クラスタ301−304の集合として構成さ
れる。以前のように所定の視点クラスタ301−304に対応
する事前計算ないし事前取得画像はメモリ16、デイスク
20、CDROM26に記憶することが出来、あるいはネッ
トワーク制御装置28によりネットワークを通して受け取
ることが出来る。視点クラスタ301−304により視聴者
は、自らの頭部の動きが視点クラスタ301−304の1つの
内にあるときに仮想対象物 240の複合的な3D立体画像
を知覚することが出来る。クラスタ構成により視聴者が
クラスタ内で頭を動かすと3D画像内で小さな変化を知
覚することが出来る。以下に述べるように、クラスタ構
成は事前計算ないし事前取得画像のデータ圧縮を使用す
る場合に特に有用である。
【0046】本発明の方法と装置は一定した時変概観を
有する仮想対象物に対する視聴者のリアルタイムの頭部
の動きに対応して仮想対象物の複合的な立体画像を生成
する。例えば仮想対象物 240の概観が時間をかけて一定
ならば、視点クラスタ301−304内の所定の視点の各々に
付いて1つの画像しか事前計算されない。そのような一
定の概観の仮想対象物に対して、検索され、フレームバ
ッファ36にコピーされる事前計算ないし事前取得画像は
仮想対象物 240の視覚間隔内だけで変化する。
【0047】しかし、仮想対象物 240の概観が時間をか
けて変化するならば、仮想対象物 240の複数の事前計算
ないし事前取得画像が視点クラスタ301−304内の所定の
視点の各々に付いて生成される。検索され、フレームバ
ッファ36にコピーされる事前計算ないし事前取得画像
は、視覚間隔及び仮想対象物 240の概観の両方で変化す
る。時間をかけて概観が変化する仮想対象物に付いて
は、立体CRT24の次のフレームに対するDPC空間内
の視聴者の目の第1節点の予測位置を時間指標と共に用
いて事前計算ないし事前取得画像の集合間から一対の立
体画像を選択する。立体画像はDPC空間内で視聴者に
付いて予測目第1節点に対して最近接を有する可能な視
点の所定の集合の2つの近接視点を判定し、時間指標を
用いて2つの近接視点の各々に対応して複数の事前計算
ないし事前取得画像の1つを選択することにより選択す
る。時間指標はリアルタイムあるいはマルチメディア同
期とすることができる。
【0048】時間をかけて概観が変化する仮想対象物の
事前計算ないし事前取得画像は、コンピュータ10上で実
施するグラフィックス表現システムによりバッチモード
で生成する。所定の視点の各々に付いて、立体CRT24
上のディスプレィの各々のフレームに対して事前計算な
いし事前取得画像を生成する。特定の所定の視点に対応
した事前計算ないし事前取得画像の数は、所望のフレー
ム速度と仮想対象物 240が概観を変化する時間間隔に依
存する。
【0049】記憶できる事前計算ないし事前取得画像の
数を増大するため、事前計算ないし事前取得画像を記憶
前に圧縮することが出来る。事前計算ないし事前取得画
像の圧縮により、より多くの画像をメモリ16、デイスク
20、CDROM26に記憶することが出来る。また圧縮に
よりデータを少なくして圧縮画像を送信できるので、事
前計算ないし事前取得画像をデイスク20からコンピュー
タ10へあるいはネットワーク制御装置28に接続されたネ
ットワークを通してより早く転送することが出来る。
【0050】画像圧縮を用いて時変事前計算ないし事前
取得画像を圧縮することが出来る。画像圧縮により基本
画像から順次の画像を再構築するのに必要な情報をコー
ド化するデルタと共に基本画像により順次の表示フレー
ムに付いて画像の表現を可能にする。いくつかの順次の
フレームに共通の情報は基本画像として一度だけ記憶さ
れる。残りの順次の画像に対応するデルタも記憶され
る。その結果、いくつかの順次の表示フレームに対する
画像は、基本画像とデルタの総数は元の画像よりも少な
いデータしか含んでいないので少ない記憶ないしディス
ク空間に記憶されることになる。画像圧縮方法に関する
詳細は、クラークR.J.「画像の変換符号化」アカデミッ
ク・プレス1985年、イギリス、ロンドン、ラオ、K.R.、
イップ、P.「離散コサイン変換、アルゴリズム、利点、
応用」アカデミック・プレス1990マサチューセッツ州ボ
ストンを参照のこと。
【0051】同様に画像圧縮を使用してDPC空間に接
近した位置にある所定の視点に対応する事前計算ないし
事前取得画像を圧縮することが出来る。近接画像は、基
本画像から近接画像を再構築するのに必要な情報をコー
ド化するデルタと共に基本画像により示される。デルタ
は基本画像の視点に近接した所定の視点に対応して3D
視点透視図の変化を反映する。
【0052】再び図6で、視点クラスタ301−304の各々
に対応する仮想対象物 240の画像は、基本画像とデルタ
の集合により表現できる。基本画像は視点クラスタ301
−304の中心視点に対応するように選択することが出来
る。画像圧縮手法を用いて中心視点の周りの視点に対応
する仮想対象物 240の画像のデルタをコード化する。こ
のようにして視点クラスタ301−304に対応する画像は、
相当する圧縮していない画像よりも必要とする記憶空間
は少なくなる。圧縮を使用する場合、次のフレームに対
する視聴者の頭部の位置の前方予測を用いて適切な立体
画像の対を選択してフレームバッファ36へ圧縮解除す
る。ディスプレィの各々のフレームに付いては2つの事
前計算ないし事前取得画像しか減縮用に選択しない。
【0053】事前計算ないし事前取得画像をデイスク20
のようなディスク装置に格納する場合、視聴者頭部位置
予測を使用して予測頭部位置に対応した画像を含むディ
スク領域を「シーク」する。画像は次の表示フレーム用
にフレームバッファ36にコピーする。デイスク20に格納
する前に画像を圧縮する場合、画像はコンピュータ10に
送信してフレームバッファ36へ圧縮解除される。
【0054】本実施例では、アクセス、圧縮解除(必要
ならば)、及びフレームバッファ36に事前計算ないし事
前取得画像をコピーするのに使用出来る時間量は、立体
CRT24に表示する所望のフレーム速度に依存する。画
像をデイスク20に格納する場合、視聴者の頭部位置の前
方予測を用いてデイスク20のその領域をシークする。そ
の後、デイスク20とコンピュータ10間の送信時間と画像
をフレームバッファ36に圧縮解除するのにかかる時間
は、表示のためのフレーム速度に対して制限を設定す
る。所望の画像品質を得るためにはフレーム速度を1秒
当り10から30フレームの範囲に維持することが望まし
い。例えば立体CRT24上に表示するフレーム速度が15
フレーム/秒であれば、最大1/15秒をアクセス、圧縮
解除、及び選択した立体画像対のフレームバッファ36へ
のコピーに利用することが出来る。
【0055】図7は事前にサンプルした画像シーンの集
合に対応して事前にサンプルした画像の集合を生成する
第1の変形実施例を示す。事前サンプルした画像は画像
シーンの外観が視点面で変化するように生成する。事前
サンプル画像は後に上述の方法にしたがって画像シーン
の3D立体再生を生成するのに使用する。画像シーンの
立体再生により、視聴者はその頭部をディスプレィ画面
に記録されたDPC空間内の所定の視点の集合を通して
動かすと画像シーンの変化する外観を知覚することが出
来る。
【0056】示した例では、画像シーンは回転プラット
フォーム 152に取り付ける実対象物からなる。回転プラ
ットフォーム 152が回転すると、実対象物の外観はビデ
オカメラ 150が事前サンプル視点の集合に付いてビデオ
画像を生成すると共に変化する。図7a、bは実対象物
の2つの事前サンプル視点の1次元ジオメトリを示して
いる。実対象物の各々の事前サンプル視点に付いて、実
対象物に関したビデオカメラ 150の節点の位置を測定す
る。事前サンプル視点に付いてのビデオカメラ150の節
点位置は、実対象物の後の再生のための所定の視点の集
合を定義する。
【0057】ビデオカメラ 150の映像出力信号(図示せ
ず)はビデオサンプリング装置30に連結する。ビデオサ
ンプリング装置30は各々の事前サンプル視点に付いてビ
デオカメラ 150により生成されたビデオ画像をディジタ
ル化し、ディジタル化事前サンプル画像を入出力回路12
を通してコンピュータ10に転送する。そしてディジタル
化事前サンプル画像はメモリ16、デイスク20に格納する
か、ネットワーク制御装置28によりネットワークを通し
て送信することが出来る。
【0058】図7cには、実対象物のディジタル化事前
サンプル画像の集合に対応する事前サンプル視点80−92
の集合例を示す。この例では、視聴者 210は視点80−92
により限定される半円に沿って頭部を動かすときに、実
対象物の再生物である仮想対象物 232の変化する外観を
知覚できる。視点80−92の立体CRT24のディスプレィ
面に記録されたDPC空間内の仮想対象物 232に対する
空間的関係は、ビデオカメラ 150の事前サンプル節点位
置の実対象物に対する空間的関係と対応する。
【0059】視聴者 210の頭部が動くと、立体CRT24
の次のフレームに対するDPC空間内の視聴者の目の第
1節点の予測位置を使用して、ディジタル化事前サンプ
ル画像の集合間から一対の立体画像を選択する。立体画
像は視聴者 210に対する予測目第1節点に対してDPC
空間内で最も近接した事前サンプル視点80−92の2つの
視点を決定することにより選択する。例では、視点85、
86に対してDPC空間内で最近接した予測目第1節点を
もたらす視聴者 210の予測頭部位置を示している。従っ
て視点85、86に対応したディジタル化事前サンプル画像
を検索し、減縮(おそらく)して、フレームバッファ36
にコピーして次のフレーム中に立体CRT24上に表示す
る。
【0060】実対象物の外観は回転プラットフォーム 1
52が回転し、またビデオカメラ 150が事前サンプル画像
を生成すると共に変化する。その結果、ビデオカメラ 1
50により生成された視点サンプルは視点様相情報並びに
実対象物の時間変化外観に関する情報を提供する。従っ
て視聴者 210は、視点80−92の各々に対して1つの事前
サンプル画像しか記憶されていないにもかかわらず、事
前サンプル視点80−92により限定される半円に沿って頭
部を動かすことに対して、仮想対象物 232の様相と外観
の変化を知覚する。
【0061】図8は対になったライブ動画を動的にアク
セスすることによりリアルタイムの視聴者の頭部の動き
に対応して画像シーンの複雑な立体再生像を生成する第
2の変形実施例を示す。ライブのビデオ画像は画像シー
ンのライブ画像をサンプルする1組のビデオカメラ180
−187により生成する。示した例では、画像シーンは実
対象物 250からなる。立体CRT 164の次のフレームに
対する視聴者 260の頭部位置の前方予測を用いて映像信
号を1組のビデオカメラ180−187から立体CRT 164へ
選別的に接続して表示する。映像信号マルチプレクサ 1
62を通して一対の映像信号を選別して立体CRT 164に
接続する。映像信号マルチプレクサ 162はこれも頭部追
跡予測を行うプロセッサ 166により制御する。
【0062】以前の実施例と同様の方法で、頭部追跡器
140は立体CRT 164のディスプレィ面に記録されたD
PC空間内で視聴者 260の頭部の動的な位置を能動的に
追跡し、立体CRT 164上の次のフレームに対する視聴
者の頭部の予測位置と方向を視聴者の頭部の動きの線形
補間法に基づいて推定する。次に視聴者 260の予測眼球
位置を予測頭部位置と方向から計算する。最後に視聴者
の目の第1節点の予測位置を予測眼球位置から計算す
る。
【0063】DPC空間内にある1組の所定の視点90−
97は実対象物 250 に関してビデオカメラ 180−187の第
1の節点に対応する。プロセッサ 166はDPC空間内で
視聴者 260に対する予測目第1節点に対して最も近接し
た1組の所定の可能な視点90−97から一対の視点を決定
する。そして最近の視点に対応する映像信号を映像信号
マルチプレクサ 162を通して選択的に立体CRT 164に
接続する。
【0064】上述の例では、立体CRT 164上の次のフ
レームに対する視聴者 260の予測目第1節点は、所定の
視点92、93に最も近い。従ってプロセッサ 166は映像信
号マルチプレクサ 162にビデオカメラ182、183からの映
像信号を信号線 170を通して立体CRT 164上に表示す
るようにする。
【図面の簡単な説明】
【図1】 立体CRT、立体シャッタ式眼鏡、3D頭部
追跡装置を含む本発明の教示を取り入れたコンピュータ
システムを示す。
【図2】 図1のシステムのプログラム記憶装置とバッ
ファ記憶装置の例示的な構成を示す。
【図3】 表示装置のディスプレイ表面に記録する物理
的座標系である例示的なディスプレィ面座標(DPC)
系を示す。
【図4】 本発明の教示と一致する所定の視点の例示的
な構成を例示し、視聴者の予測される目の第1の節点に
対する最近接視点の投影マトリックスの1次元ジオメト
リを示す。
【図5】 視聴者の予測目第1節点に対する最近接の視
点に対応する投影マトリックスの1次元ジオメトリに沿
った異なる視覚間距離を有する視聴者に対応できる所定
の視点の構成例を示す。
【図6】 所定の視点が立方体内に含まれる視点クラス
タの集合として構成された仮想対象物の所定の視点の3
次元構成を示す。
【図7】 画像シーンの外観が視点の相関関係により変
化する画像シーンの事前にサンプルした視点に対応して
事前にサンプルした画像を生成する第1の変形実施例を
示す。
【図8】 対のライブビデオ画像に動的にアクセスする
ことによりリアルタイムの視聴者の頭部の動きに対応し
て複雑な立体像を生成する第2の変形実施例を示す。
【符号の説明】
260 視聴者、90−97 視点、 162 マルチプレクサ、
164 立体CRT、166 プロセッサ、180−187 カメ
ラ、250 実対象物。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 (a) 仮想対象物の所定の視点の集合に対
    応して、所定の集合と仮想対象物が表示装置のディスプ
    レィ画面に記録されたディスプレィ面座標空間内で定義
    されるように事前計算画像を生成し、 (b) 前記事前計算画像を立体で表示装置に表示する時間
    指標を判定し、 (c) 前記時間指標に対応した目の第1節点がディスプレ
    ィ面座標空間内にあるように視聴者の各々の目の第1節
    点を予測し、 (d) ディスプレィ面座標空間内で目の第1節点に最近接
    している所定の視点を判定し、 (e) ディスプレィ面座標空間内で目の第1節点に対して
    最近接している所定の視点に対応して事前計算画像にア
    クセスし、事前計算画像をフレームバッファに転送し、 (f) フレームバッファの事前計算画像を表示装置に立体
    で表示するステップからなる頭部追跡式立体画像を生成
    する方法。
  2. 【請求項2】 (a) 時間指標に対応して目の第1節点が
    ディスプレィ面座標空間内にあるように視聴者の各々の
    目の第1節点を予測し、 (b) 目の第1節点をディスプレィ面座標空間内で定義さ
    れた所定の視点の集合に対して比較し、所定の視点の各
    々はライブ映像信号を生成するビデオカメラの視点に対
    応し、 (c) ディスプレィ面座標空間内で目の第1節点に最近接
    している所定の視点を判定し、 (d) ディスプレィ面座標空間内で目の第1節点に最近接
    している所定の視点に対応してビデオカメラからの映像
    信号を表示装置に連結し、 (e) 前記映像信号を表示装置に立体で表示するステップ
    からなる頭部追跡式立体画像を生成する方法。
  3. 【請求項3】 仮想対象物の所定の視点の集合に対応し
    て、所定の集合と仮想対象物が表示装置のディスプレィ
    画面に記録されたディスプレィ面座標空間内で定義され
    るように事前計算画像を生成する手段と、 前記事前計算画像を立体で表示装置に表示する時間指標
    を判定する手段と、 時間指標に対応して目の第1節点がディスプレィ面座標
    空間内にあるように視聴者の各々の目の第1節点を予測
    する手段と、 ディスプレィ面座標空間内で目の第1節点に最近接して
    いる所定の視点を判定する手段と、 ディスプレィ面座標空間内で目の第1節点に対して最近
    接している所定の視点に対応して事前計算画像にアクセ
    スし、事前計算画像をフレームバッファに転送する手段
    と、 フレームバッファの事前計算画像を表示装置に立体で表
    示する手段とからなる頭部追跡式立体画像を生成する装
    置。
JP15461793A 1992-06-02 1993-06-02 立体画像を生成する方法及び装置 Expired - Fee Related JP3318684B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/893,196 US5287437A (en) 1992-06-02 1992-06-02 Method and apparatus for head tracked display of precomputed stereo images
US893196 1992-06-02

Publications (2)

Publication Number Publication Date
JPH06187424A true JPH06187424A (ja) 1994-07-08
JP3318684B2 JP3318684B2 (ja) 2002-08-26

Family

ID=25401181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15461793A Expired - Fee Related JP3318684B2 (ja) 1992-06-02 1993-06-02 立体画像を生成する方法及び装置

Country Status (2)

Country Link
US (1) US5287437A (ja)
JP (1) JP3318684B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346185A (ja) * 2002-05-24 2003-12-05 Olympus Optical Co Ltd 情報表示システム及び携帯情報端末
WO2013088390A1 (en) 2011-12-14 2013-06-20 Universita' Degli Studi Di Genova Improved three-dimensional stereoscopic rendering of virtual objects for a moving observer
WO2013108285A1 (ja) * 2012-01-16 2013-07-25 パナソニック株式会社 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
CN104104942A (zh) * 2013-04-09 2014-10-15 乐金显示有限公司 立体图像显示设备及其眼睛追踪方法
JP2019512798A (ja) * 2016-03-15 2019-05-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. 短待ち時間レンダリングのための広ベースラインステレオ

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
US6121966A (en) * 1992-11-02 2000-09-19 Apple Computer, Inc. Navigable viewing system
US5526022A (en) 1993-01-06 1996-06-11 Virtual I/O, Inc. Sourceless orientation sensor
US5422653A (en) * 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US5394202A (en) * 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
EP0687366B1 (en) * 1993-03-03 2000-01-26 STREET, Graham Stewart Brandon Method and apparatus for image alignment
EP0637815B1 (en) * 1993-08-04 2006-04-05 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US6351261B1 (en) * 1993-08-31 2002-02-26 Sun Microsystems, Inc. System and method for a virtual reality system having a frame buffer that stores a plurality of view points that can be selected and viewed by the user
US5448322A (en) * 1993-11-05 1995-09-05 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using a parallax scanning lens aperture
US5682506A (en) * 1994-09-12 1997-10-28 General Electric Company Method and system for group visualization of virtual objects
US5659323A (en) * 1994-12-21 1997-08-19 Digital Air, Inc. System for producing time-independent virtual camera movement in motion pictures and other media
US5796386A (en) * 1995-01-23 1998-08-18 International Business Machines Corporation Precise calibration procedure for sensor-based view point control system
US8330812B2 (en) * 1995-05-30 2012-12-11 Simulated Percepts, Llc Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame
US7453451B1 (en) 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
US6181371B1 (en) * 1995-05-30 2001-01-30 Francis J Maguire, Jr. Apparatus for inducing attitudinal head movements for passive virtual reality
US5936774A (en) * 1995-08-29 1999-08-10 Street; Graham S. B. Autostereoscopic display
US5956028A (en) * 1995-09-14 1999-09-21 Fujitsu Ltd. Virtual space communication system, three-dimensional image display method, and apparatus therefor
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
US5872575A (en) * 1996-02-14 1999-02-16 Digital Media Interactive Method and system for the creation of and navigation through a multidimensional space using encoded digital video
US5959690A (en) * 1996-02-20 1999-09-28 Sas Institute, Inc. Method and apparatus for transitions and other special effects in digital motion video
US6426757B1 (en) * 1996-03-04 2002-07-30 International Business Machines Corporation Method and apparatus for providing pseudo-3D rendering for virtual reality computer user interfaces
US6480204B1 (en) 1996-04-30 2002-11-12 Sun Microsystems, Inc. Transparent sunpad for home shopping
US6108440A (en) * 1996-06-28 2000-08-22 Sony Corporation Image data converting method
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
JP4013286B2 (ja) * 1997-01-22 2007-11-28 松下電器産業株式会社 画像符号化装置と画像復号化装置
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US5900879A (en) * 1997-04-28 1999-05-04 International Business Machines Corporation Three-dimensional workspace interactive display having browsing viewpoints for navigation and work viewpoints for user-object interactive non-navigational work functions with automatic switching to browsing viewpoints upon completion of work functions
US6175343B1 (en) * 1998-02-24 2001-01-16 Anivision, Inc. Method and apparatus for operating the overlay of computer-generated effects onto a live image
DE29807323U1 (de) * 1998-04-22 1999-09-23 Pixality Computersysteme Gmbh Schaltungsanordnung zur Erzeugung eines 3D-Bildsignals
US6394557B2 (en) 1998-05-15 2002-05-28 Intel Corporation Method and apparatus for tracking an object using a continuously adapting mean shift
SG87768A1 (en) * 1998-05-21 2002-04-16 Univ Singapore Compact reach-in display system for two-handed user interaction with virtual objects
SG77682A1 (en) * 1998-05-21 2001-01-16 Univ Singapore A display system
US6396476B1 (en) 1998-12-01 2002-05-28 Intel Corporation Synthesizing computer input events
US6538649B2 (en) 1998-12-01 2003-03-25 Intel Corporation Computer vision control variable transformation
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6429867B1 (en) * 1999-03-15 2002-08-06 Sun Microsystems, Inc. System and method for generating and playback of three-dimensional movies
US6647131B1 (en) 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US6344837B1 (en) 2000-06-16 2002-02-05 Andrew H. Gelsey Three-dimensional image display with picture elements formed from directionally modulated pixels
CA2409788A1 (en) * 2002-10-25 2004-04-25 Ibm Canada Limited-Ibm Canada Limitee Architecture for dynamically monitoring computer application data
JP2004199496A (ja) * 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
US7278920B1 (en) * 2002-12-31 2007-10-09 Warner Bros. Entertainment, Inc. Theater-based gaming system enabling a multi-player game throughout a system of the theaters
CN101065783A (zh) * 2004-04-05 2007-10-31 迈克尔·A·韦塞利 水平透视显示
EP1781893A1 (en) * 2004-06-01 2007-05-09 Michael A. Vesely Horizontal perspective simulator
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US20060126925A1 (en) * 2004-11-30 2006-06-15 Vesely Michael A Horizontal perspective representation
US20060250390A1 (en) * 2005-04-04 2006-11-09 Vesely Michael A Horizontal perspective display
US20060221071A1 (en) * 2005-04-04 2006-10-05 Vesely Michael A Horizontal perspective display
WO2006121957A2 (en) 2005-05-09 2006-11-16 Michael Vesely Three dimensional horizontal perspective workstation
US8717423B2 (en) 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
WO2006121955A2 (en) * 2005-05-09 2006-11-16 Infinite Z, Inc. Horizontal perspective display
WO2006121956A1 (en) * 2005-05-09 2006-11-16 Infinite Z, Inc. Biofeedback eyewear system
US7656403B2 (en) * 2005-05-13 2010-02-02 Micoy Corporation Image processing and display
US7872665B2 (en) 2005-05-13 2011-01-18 Micoy Corporation Image capture and processing
US7875132B2 (en) * 2005-05-31 2011-01-25 United Technologies Corporation High temperature aluminum alloys
US20070043466A1 (en) * 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
US20070040905A1 (en) * 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
KR101249988B1 (ko) * 2006-01-27 2013-04-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US8127235B2 (en) 2007-11-30 2012-02-28 International Business Machines Corporation Automatic increasing of capacity of a virtual space in a virtual world
US20090164919A1 (en) 2007-12-24 2009-06-25 Cary Lee Bates Generating data for managing encounters in a virtual world environment
US20090184981A1 (en) * 2008-01-23 2009-07-23 De Matos Lucio D Orazio Pedro system, method and computer program product for displaying images according to user position
US20100315414A1 (en) * 2008-05-09 2010-12-16 Mbda Uk Limited Display of 3-dimensional objects
EP2145575A1 (en) * 2008-07-17 2010-01-20 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO A system, a method and a computer program for inspection of a three-dimensional environment by a user
US20100020254A1 (en) * 2008-07-23 2010-01-28 Zheng Jason Geng Multi-panel virtual image display
US9389419B2 (en) * 2008-08-14 2016-07-12 Honeywell International Inc. Near-to-eye display artifact reduction system and method
US8199186B2 (en) * 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
US8194101B1 (en) 2009-04-01 2012-06-05 Microsoft Corporation Dynamic perspective video window
GB2477145A (en) * 2010-01-25 2011-07-27 Naveen Chawla 3D display with ultrasonic head tracking
US8717360B2 (en) 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
KR101729556B1 (ko) 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
WO2012048252A1 (en) 2010-10-07 2012-04-12 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
US8608550B1 (en) * 2010-11-12 2013-12-17 Wms Gaming, Inc Coordinating three dimensional wagering game content presentations
US9041743B2 (en) 2010-11-24 2015-05-26 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
WO2012071466A2 (en) 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
US9070219B2 (en) * 2010-11-24 2015-06-30 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
US8953022B2 (en) 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
US9118970B2 (en) 2011-03-02 2015-08-25 Aria Glassworks, Inc. System and method for embedding and viewing media files within a virtual and augmented reality scene
US8988512B2 (en) * 2011-04-14 2015-03-24 Mediatek Inc. Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof
US8784206B1 (en) 2011-04-15 2014-07-22 Wms Gaming, Inc. Modifying presentation of three-dimensional, wagering-game content
US8786529B1 (en) 2011-05-18 2014-07-22 Zspace, Inc. Liquid crystal variable drive voltage
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
CN103765878A (zh) * 2011-09-12 2014-04-30 英特尔公司 使用移动视差从2d图像创建3d感知
DE102011088492A1 (de) * 2011-12-14 2013-06-20 Robert Bosch Gmbh Navigationssystem mit einer verbesserten Kartendarstellung
US9626799B2 (en) 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9225969B2 (en) 2013-02-11 2015-12-29 EchoPixel, Inc. Graphical system with enhanced stereopsis
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US10769852B2 (en) 2013-03-14 2020-09-08 Aria Glassworks, Inc. Method for simulating natural perception in virtual and augmented reality scenes
US9742991B2 (en) 2013-05-24 2017-08-22 Robert Frank Latorre 360 degree photobooth kiosk
US10977864B2 (en) 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US9897806B2 (en) 2015-02-10 2018-02-20 Dreamworks Animation L.L.C. Generation of three-dimensional imagery to supplement existing content
US9721385B2 (en) * 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
WO2016154711A1 (en) * 2015-03-31 2016-10-06 Cae Inc. Multifactor eye position identification in a display system
DE102015213769A1 (de) * 2015-07-22 2017-01-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Prädizieren einer Blickrichtung eines Fahrzeuginsassen

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4873585A (en) * 1984-09-07 1989-10-10 Ivex Corporation Method of selectively retrieving video images from a video reproducer for simulating movement
US4855822A (en) * 1988-01-26 1989-08-08 Honeywell, Inc. Human engineered remote driving system
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
US5075776A (en) * 1990-06-12 1991-12-24 Hughes Aircraft Company Method of electronically stabilizing a video image having vibration-induced jitter

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346185A (ja) * 2002-05-24 2003-12-05 Olympus Optical Co Ltd 情報表示システム及び携帯情報端末
WO2013088390A1 (en) 2011-12-14 2013-06-20 Universita' Degli Studi Di Genova Improved three-dimensional stereoscopic rendering of virtual objects for a moving observer
WO2013108285A1 (ja) * 2012-01-16 2013-07-25 パナソニック株式会社 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
US9495795B2 (en) 2012-01-16 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image recording device, three-dimensional image reproducing device, image recording method, and three-dimensional image reproducing method
CN104104942A (zh) * 2013-04-09 2014-10-15 乐金显示有限公司 立体图像显示设备及其眼睛追踪方法
CN104104942B (zh) * 2013-04-09 2017-01-11 乐金显示有限公司 立体图像显示设备及其眼睛追踪方法
US9883177B2 (en) 2013-04-09 2018-01-30 Lg Display Co., Ltd. Stereoscopic image display device and eye-tracking method thereof
JP2019512798A (ja) * 2016-03-15 2019-05-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. 短待ち時間レンダリングのための広ベースラインステレオ

Also Published As

Publication number Publication date
JP3318684B2 (ja) 2002-08-26
US5287437A (en) 1994-02-15

Similar Documents

Publication Publication Date Title
JP3318684B2 (ja) 立体画像を生成する方法及び装置
US5394202A (en) Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
US5446834A (en) Method and apparatus for high resolution virtual reality systems using head tracked display
Fisher Viewpoint dependent imaging: An interactive stereoscopic display
JP2003536297A (ja) 3次元ディスプレイのための計算時間削減
US20220398705A1 (en) Neural blending for novel view synthesis
WO2019063976A1 (en) VISIOCASQUE SYSTEM
US11501486B2 (en) Surface characterisation apparatus and system
US10115227B2 (en) Digital video rendering
JP2019197368A (ja) 立体映像奥行き圧縮装置および立体映像奥行き圧縮プログラム
US20230206511A1 (en) Methods, systems, and media for generating an immersive light field video with a layered mesh representation
GB2584276A (en) Image processing
US11353953B2 (en) Method of modifying an image on a computational device
Venolia et al. Virtual integral holography
Jackson Rotations, shading and viewing in head tracked stereoscopic rendering

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees