JPH06317762A - 正確な立体三次元画像を発生する装置および方法 - Google Patents

正確な立体三次元画像を発生する装置および方法

Info

Publication number
JPH06317762A
JPH06317762A JP6014991A JP1499194A JPH06317762A JP H06317762 A JPH06317762 A JP H06317762A JP 6014991 A JP6014991 A JP 6014991A JP 1499194 A JP1499194 A JP 1499194A JP H06317762 A JPH06317762 A JP H06317762A
Authority
JP
Japan
Prior art keywords
viewer
stereoscopic
image
display device
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6014991A
Other languages
English (en)
Other versions
JP3575622B2 (ja
Inventor
Michael F Deering
マイケル・エフ・ディアリング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Publication of JPH06317762A publication Critical patent/JPH06317762A/ja
Application granted granted Critical
Publication of JP3575622B2 publication Critical patent/JP3575622B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes

Abstract

(57)【要約】 【目的】 見る人の頭の広い範囲の動きに対して虚像を
発生し、自然配置状態にある仮想オブジェクトおよび実
オブジェクトからの光を混合するための頭に追従する立
体表示装置を得ることである。 【構成】 この装置は、ベース・ハウジング内に配置さ
れている表示装置と、反射鏡が立体画像を見る人へ送る
ように、表示装置の周囲を回転するために結合された反
射鏡とを含む。追従装置が反射鏡の角度位置を制御し
て、反射鏡が回転するにつれて立体画像を見る人へ送
る。仮想オブジェクトおよび実オブジェクトからの光を
混合するために、画像表示装置は実オブジェクトのため
のzバッファを発生する。実オブジェクトは無色で表示
される。立体画像を見る人の眼へ送るため、および実オ
ブジェクトから反射された光を見る人の眼へ送るために
半透明鏡が位置させられる。LCDアレイパネルが実オ
ブジェクトから反射された光の伝送を選択的に阻止す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はコンピュータ・グラフィ
ックス装置の分野に関するものであり、更に詳しく言え
ば、本発明は頭に追従される表示装置における高解像力
3D画像の発生に関するものである。
【0002】
【従来の技術】人の眼は、光トランスデューサとして機
能する網膜へ結びつけられた光学系としてモデル化でき
る。人の眼は光線で満たされた物理的空間内に存在して
いる。物理的空間内の、透明な表面と不透明な表面の間
の境界、または屈折率が異なる透明な表面の間の境界で
あるあらゆる点に点光源が存在する。人の立体視は、物
理的空間内の種々の場所に両眼を置くことにより達成さ
れる。
【0003】頭に追従する立体表示装置が、見る人が3
D画像を知覚できるようにするために、人の眼と物理的
空間内の光線との相互作用を真似ている。頭に追従する
立体表示装置が見る人の頭と眼の物理的空間内の位置を
検出し、頭と眼の位置を基にして仮想オブジェクトの立
体画像を計算し、立体表示装置の上に立体画像を発生す
る。頭に追従する立体表示装置は1度にただ2つの画像
を処理して発生することを要する。その結果としてホロ
グラフィック装置よりも処理が大幅に少なくなる。更
に、一対の立体画像はホログラムと同じ外観を持つ。頭
に追従する立体表示装置では、見る人の頭が傾いた時、
または仮想オブジェクトの側面または上を見るために見
る人の頭が動く時には、仮想オブジェクトは静止したま
まであるように見える。頭に追従する立体表示装置の詳
細についてはプロシーディングス・オブ・エスピーアイ
イー(Proceedings of SPIE)19
92年2月号所載の「頭に追従する立体表示、技術およ
び応用(Head−Tracking Stereo
Display,Techniques and Ap
plication)」と題するパレイ(Paley,
W.B.)の論文を参照されたい。
【0004】しかし、頭に追従する従来の立体表示装置
は見る人の頭が動いても静止したままであるから、その
ような立体表示装置において見る人が利用できる頭の動
きの範囲は限られていた。立体表示装置で表示されてい
る虚像の周囲を見る人の頭が動くにつれて、立体表示装
置の表示表面に関連する見る人の頭の傾いた位置のため
に、虚像の一部が切り取られることになる。
【0005】更に、頭に追従する従来の立体表示装置
は、実オブジェクトと仮想オブジェクトに対する自然の
配置を見る人が知覚できるようにするために、仮想オブ
ジェクトからの光を実オブジェクトから反射された光に
混合することはできない。見る人が立体表示装置に向き
合っている間にその見る人が立体画像を知覚したとする
と、立体表示装置と見る人の頭の間に位置させられてい
る物理的オブジェクトが立体表示装置からの光を阻止し
て虚像を遮断する。
【0006】
【発明が解決しようとする課題】後で説明するように、
本発明の頭に追従する立体表示装置は見る人の頭の動か
せる範囲を大きくできるようにするために、複雑な3D
立体画像を発生する。更に、本発明の頭に追従する立体
表示装置は、仮想オブジェクトからの光と実オブジェク
トから反射された光を混合して、実オブジェクトと仮想
オブジェクトに対する自然の配置を見る人が知覚できる
ようにする。
【0007】
【課題を解決するための手段】頭に追従される表示装置
において高解像力3D画像を発生するための方法および
装置を開示する。本発明の方法と装置は頭に追従する立
体表示装置において見る人の頭の広い範囲の運動を可能
にする。本発明の方法および装置は、見る人の頭の広い
範囲の運動に対して、見る人が実オブジェクトに重畳さ
れた仮想オブジェクトを知覚することを可能にする。本
発明の方法および装置は見る人の頭の動きを追従し、表
示構成と立体視パイプラインを自動的に調整して、頭に
追従する立体表示装置において見る人の頭の広い範囲の
運動を可能にする。
【0008】本発明の方法と装置は、見る人が実オブジ
ェクトと仮想オブジェクトを自然構成で知覚することを
可能にもする。見る人は、三次元空間内で仮想オブジェ
クトの前方に位置させられている実オブジェクトを知覚
できる。更に、見る人は、三次元空間内で実オブジェク
トの前方に位置させられている仮想オブジェクトを知覚
できる。本発明の方法と装置は実オブジェクトを仮想空
間内で表現し、実オブジェクトから反射された光と仮想
オブジェクトからの光を混合するために、実オブジェク
トのためのzバッファを発生する。
【0009】本発明の頭に追従する立体表示装置はベー
スハウジング内に配置される表示装置を採用する。その
表示装置は、コンピュータで実現されるグラフィックス
表現装置により表現される立体画像を発生する。反射鏡
が立体画像を見る人へ送るように、その反射鏡が表示装
置の表示表面の周囲を回転するために反射鏡が結合され
る。コンピュータへ結合されている追従装置が三次元空
間内における見る人の頭の動きを検出する。見る人が動
くにつれて立体画像をその見る人へ送るために、コンピ
ュータはモータにより反射鏡の角度位置を制御する。見
るマトリックスを調整して立体画像を反射鏡により反射
させるために、画像表現装置は反射鏡の角度位置を用い
る。
【0010】実オブジェクトからの光と仮想オブジェク
トからの光を混合するために、コンピュータは三次元空
間内の実オブジェクトの位置と寸法のデータベースを保
持する。画像表現装置は実オブジェクトの三次元位置決
定を示すzバッファを発生する。実オブジェクトは無色
で表現される。立体画像を見る人の眼へ送り、実オブジ
ェクトから反射された光を見る人の眼へ送るために、半
透明鏡が位置させられる。虚像により不明瞭にされてい
る実オブジェクトの部分から反射された光が阻止される
ように、実オブジェクトから反射された光の見る人の眼
への伝送をLCDアレイパネルが選択的に阻止する。
【0011】
【実施例】この明細書においては、見る人の頭の動く範
囲を大きくすることを可能にし、実オブジェクトと仮想
オブジェクトとの自然構成を見る人が知覚できるように
するために、複雑な3D立体画像を発生する方法および
装置を開示する。説明のための以下の記述においては、
本発明を完全に理解できるようにするために、特定の応
用、特定の数、特定の装置および特定の構成について述
べる。しかし、それらの特定の詳細なしに本発明を実施
できることが当業者には明らかであろう。他の場合に
は、本発明を不必要にあいまいにしないようにするため
に、周知の装置は線図的な態様またはブロック線図の態
様で示されている。
【0012】まず、本発明の教示に従ってグラフィック
ス画像を発生し、ユーザーの入力に応答する、コンピュ
ータをベースとする装置の例が示されている図1を参照
する。3つの主な部品で構成されているコンピュータ1
0が示されている。それらの部品のうちの第1の部品
は、適切に構成されたフォームの情報をコンピュータ1
0の別の部分と通信し合うために用いられる入力/出力
(I/O)回路12である。それに加えて、コンピュー
タ10はI/O回路12へ結合される中央処理装置(C
PU)14とメモリ16も含む。それらの素子はほとん
どの汎用コンピュータにおいて典型的に見出されるもの
である。コンピュータ10は広い種類のコンピュータ装
置を代表することを意図するものである。
【0013】コンピュータ10へ付加的な記憶性能を提
供するためにI/O回路12へ結合されている磁気ディ
スク20が示されている。周知のように、磁気ディスク
20はその他のコンピュータプログラム、キャラクタ、
ルーチン等を記憶できる。それらはCPU14によりア
クセスおよび実行できる。データを記憶するための磁気
テープドライブのような付加装置をコンピュータへ結合
でき、かつ別のコンピュータ装置へ結合されるネットワ
ークをコンピュータへ結合できる。
【0014】本発明の教示に従って予め処理された3D
立体画像を分配するための付加記憶性能を提供するため
に、I/O回路12へ結合されたCD ROM20が示
されている。また、I/O回路12へ結合されたLCD
パネル制御器28が示されている。LCDパネル制御器
28は、LCDパネル・アレイの画素の透明度を制御す
るために、コンピュータ10からビットマップデータを
受ける。
【0015】I/O回路12へ結合されたモータ制御装
置30が示されている。このモータ制御回路30はコン
ピュータ10がサーボモータを制御できるようにするた
めのものである。あるいは、モータ制御回路30はコン
ピュータ10がステッピングモータを制御できるように
する。後で説明するように、モータ制御装置30により
制御されるサーボモータまたはステッピングモータは、
虚像を発生するためにコンピュータ10が回転反射鏡の
位置決めを制御できるようにする。
【0016】本発明の教示によるCPU14により発生
された画像を表示するために用いられるラスタ表示装置
24が、I/O回路12へ結合されているのが示されて
いる。表示装置24として広範囲のラスタ(または画素
マップされた)表示装置を利用できる。ここで説明して
いる実施例においては、表示装置24は立体CRTを含
む。後で詳しく説明するように、CPU14により表示
装置24を介して発生される表示画像は、反射鏡を介し
て見る人により知覚される。したがって、CPU14は
画像を構成している画素の左右の位置を知覚するように
表示画像を発生する。見る人が画像を正しく知覚できる
ようにするために反射鏡は左右の位置を再び逆にする。
【0017】データとコマンドをコンピュータ10へ入
力するために周知のように用いられるキーボード18
が、I/O回路12へ結合されているのが示されてい
る。シャッター制御される一対の立体眼鏡120がI/
O回路12へ結合されているのが示されている。このシ
ャッター制御される立体眼鏡120には超音波を受ける
ための超音波受波器122が埋め込まれる。このシャッ
ター制御される立体眼鏡にはシャッター制御されるレン
ズを制御するための赤外線制御されるスイッチも埋め込
まれる。
【0018】3D6軸マウス130がI/O回路12へ
結合されているのが示されている。この3Dマウス13
0は、超音波を受けるための3個一組の超音波受波器1
32を含む。3Dマウス130およびシャッター制御さ
れる立体眼鏡120の3D位置が3D6軸超音波頭追従
器140により検出される。一実施例においては、この
頭追従器は立体CRT24へ装着される。3D6軸超音
波頭追従器140には、超音波受波器122と132よ
り受けられる超音波を発生する超音波送波器142が埋
め込まれる。
【0019】次に、図1に示されているメモリ16に含
まれている主プログラムの1つの構成が示されている図
2を参照する。とくに、表示装置14の画素マップとし
て機能するフレーム・バッファ36が示されている。こ
のフレーム・バッファ36は表示装置14のためのビデ
オメモリを表す。フレーム・バッファ36中の各記憶場
所は、立体CRT24における佐眼画素または右眼画素
に対応する。したがって、フレーム・バッファ36は、
立体CRT24における画素に対応する既知座標を持つ
点の二次元アレイを構成する。ある画像を1つのバッフ
ァから表示している間に、別の画像を別のバッファから
アクセスできるように、フレーム・バッファ36は二重
バッファとして構成することが好ましい。
【0020】メモリ16は、この明細書において開示さ
れるように、本発明の教示に従って諸機能を実行するC
PU10により実行される各種のプログラムも含む。ま
た、メモリ16は、コンピュータ装置においてその他の
周知の機能およびオペレーションを制御または実行する
ための別のプログラムも含む。
【0021】一実施例においては、見る人はシャッター
制御される立体眼鏡を掛け、3D6軸マウス130を操
作できる。3D6軸マウス130とシャッター制御され
る立体眼鏡120の3D位置は3D6軸頭追従器140
により検出される。超音波が超音波受波器122,13
2と超音波送波器の間を伝わる時間を用いて、3Dマウ
ス130とシャッター制御される立体眼鏡120の3D
位置を三角測量する。3Dマウス130は見る人により
知覚される虚像を操作するために用いられる。
【0022】頭に追従する立体表示装置においては、立
体視表示パイプラインが2つの4×4透視マトリックス
(実効的には各眼に対して1つの単眼パイプライン)に
より指定される。それらのマトリックスは視野の全体的
な物理的構成についての情報を暗黙理に含む。結果とし
ての各マトリックスはねじれ成分を含む。
【0023】視野の物理的構成は3D空間内の表示面の
位置と、見る人の眼の動的な位置とにより決定される。
それらのパラメータが既知である場合には、ビューマト
リックスはあるスケールファクター内で一意である。各
眼に対するビューマトリックスは、見る人の眼に先端部
があり、表示面内の表示ウィンドウの4つの隅により底
部が定められるピラミッドに対応する。表示面が完全に
平坦であると仮定するならば、前方クリッピング面と後
方クリッピング面は表示面の平面に平行である。
【0024】この実施例においては、コンピュータ・グ
ラフィックス・アプリケーションが物理的座標と仮想座
標(VC)の間の関係をマトリックスPにより指定す
る。マトリックスPにより暗示される相対的な位置、相
対的な向き、およびスケールは、仮想世界と物理的な世
界をどのようにして重ね合わせるかを指定する。(この
スケール・ファクターはgとして示されている。)立体
表示装置の物理的構成と見る人の眼の検出された実時間
位置が、最終的な4×4のビューマトリックスに対して
必要な情報の残りに寄与する。最終的な4×4のビュー
マトリックスは、コンピュータ10において実現される
グラフィックス表現装置に対するパラメータとして用い
られる。
【0025】本発明の教示を実現するために、立体CR
T24はそれの表示面へ記録される物理的座標系を持つ
ものとみなされる。この物理的座標系のことを以後表示
プレート座標(DPC)と呼ぶことにする。
【0026】次に、DPC座標系の例が示されている図
3を参照する。DPCの原点は立体CRT24の表示面
の可視部分の左下隅にある。x軸は右へ水平に延長す
る。y軸は上へ垂直に延長する。z軸は仮想表示面に対
して垂直であって、正座標が見る人へ向かって出る。
【0027】仮想表示面50上におけるウィンドウが、
そのウィンドウの左下隅と右上隅をz=0平面上の2個
のDPC点LとHとして指定することにより定められ
る。見る人の各眼はDPC空間内に別々の座標を持つ。
1つの眼点の座標の例がEで示されている。前方および
後方のクリッピング平面がz軸に沿う距離FとBにより
与えられる。
【0028】DPCでの可視点を[−1+1][−1+
1][−1+1]の拡張された単位立方体へマップす
る、列ベクトル・マトリックス・フォーマットで表現さ
れる、1つの眼に対するビューマトリックスは次の通り
である。
【0029】
【数1】
【0030】上の式は立体CRT24のような表示装
置、および投写表示パネルや立体LCDパネルへ適用さ
れる。見る人の眼の間の距離である眼間距離はビューマ
トリックスPには直接表されていないことに注目すべき
である。
【0031】頭に追従する表示装置においては、表示面
における視差は必ずしも水平ではない。見る人が垂直に
向けられている眼で表示を観察するならば、スクリーン
における視差は完全に垂直である。スクリーンにおける
視差の量は、与えられた頭距離およびオフセットに対し
ても一致しない。見る人の頭がスクリーンの一方の側へ
30度回されると、スクリーン表面における視差はスク
リーンが正方形の表面であるときよりも小さい。
【0032】従来のコンピュータ・グラフィックスにお
いては、見る投写点は「眼点(eyepoint)」ま
たは「視点(viewpoint)」と呼ばれ、見る人
の眼に一致することを意図するものである。しかし、正
確に表示するために、視点位置は生理学的に正確に識別
せねばならない。一般的な光学用語においては、レンズ
系の視点は第1の節点である。人の眼に対する第1の節
点の識別について説明するために19 年 月
日に出願された「頭に追従する表示装置を用いる高解像
力仮想現実装置のための方法および装置(Method
And Apparatus for High R
esolution VirtualReality
Systems Using Head Tracke
d Display)」という名称の関連する米国特許
出願serial no.を参照されたい。
【0033】眼の節点に対する正確な視点位置は、見る
人の各眼の向けられた向きについての情報を獲得するた
めに眼追従装置により達成される。その情報と頭の位置
および眼の位置の組合わせを用いて、眼の第1の節点を
DPC空間内に正確に配置できる。また、見る向きにつ
いての情報を用いて、網膜の窩部分に対応する表示面ス
ペースの領域を識別するために使用でき、高い空間的精
密さで表現できる値打ちがある。
【0034】あるいは、眼の第1の節点位置の不確定性
による誤差を、見る人の視線が向けられるであろう向き
を予測することにより最少にできる。見る人の視線が向
けられるであろう向きは仮想表示面50における立体ウ
ィンドウの中心にできる。3Dマウス130が採用され
ると、最もきつい構度要求がマウスを仮想オブジェクト
へ「接触すること」を反映する傾向があるから、見る人
の視線は対話する虚像の「ホットスポット」の向きに向
けられる傾向がある。見る人の視線の向きを3Dマウス
130の先端部に選択することは、眼の回転による誤差
が補償される。更に、コンピュータ10において実行さ
れる画像表現ソフトウエアが、仮想表示面50で表示さ
れる立体画像の「ホットスポット」に対するDPC座標
を維持する。
【0035】本発明のここで説明している実施例は、D
PC空間内の見る人の頭のダイナミック位置と向きを獲
得するために、超音波追従装置を採用する。しかし、本
発明の方法は用いられる追従技術に依存しないことに注
目すべきである。超音波追従装置140の位置から見る
人の眼までの固定ベクトルを用いて、見る人の眼の回転
中心を実時間で得るために、頭の位置と向きについての
データが用いられる。
【0036】見る人の頭の眼間距離を、個々の距離の間
で±2cmだけ変化できる。ここで説明している実施例に
おいては、与えられた見る人の眼間距離を考慮に入れる
ために、超音波追従装置140から見る人の眼までの固
定ベクトルは見る人に固有である。固定ベクトルは見る
人の頭への頭に追従する表示装置の位置合わせも考慮す
る。
【0037】コンピュータが発生した画像を見る人が三
次元の物理的オブジェクトとして知覚するためには、表
示フレーム繰り返し率を運動統合のために十分なもので
ある必要がある。立体画像発生では、低いフレーム繰り
返し率で表示されるオブジェクトが変形しかつねじれる
ように見える、誘導される立体運動という付加現象が存
在する。それの詳細については、パーガモン・プレス
(Pergamon Press)発行のVision
Res.1974年第14巻609〜613ページ所
載の「誘導される立体運動(Induced Ster
eo movement)」と題するタイラー(Tyl
er C.W.)の論文を参照されたい。
【0038】図4aは仮想オブジェクトの頭に追従する
立体画像を発生するための回転反射鏡装置51を示す。
回転反射鏡装置51は見る人が、仮想オブジェクトまた
は複数の仮想オブジェクトの種々の透視図の周囲を動く
こと、および知覚することを可能にする。円筒形ハウジ
ング58内に立体CRT24が埋め込まれる。この立体
CRT24の中心は円筒形ハウジング58の軸線にほぼ
沿って配置される。立体CRT24の表示面55が円筒
形ハウジング58の上端部を通って突き出る。回転台5
6へ反射鏡54が結合される。一実施例においては、反
射鏡54は立体CRT24の表示面55に関して45度
の角度を成す。
【0039】一実施例においては、ステッピングモータ
(図示せず)が回転台56を円筒形ハウジング58の中
心軸を中心として回転させる。ステッピングモータはモ
ータ制御装置30へ結合される。モータ制御装置30は
コンピュータ10から制御情報を受けるために結合され
る。コンピュータ10はステッピングモータに回転台5
6の角度位置を制御させることにより、反射鏡54の角
度位置を制御する。
【0040】図4bは仮想オブジェクト210の頭に追
従する3D立体画像を発生するための回転反射鏡装置5
1を示す。見る人200はシャッター制御される眼鏡1
20を掛けている。シャッター制御される眼鏡120の
3D位置が超音波追従装置140により検出される。超
音波は伝わる距離が限られ、超音波追従装置140とシ
ャッター制御される眼鏡120の間の視線経路を必要と
するから、一実施例においては、この超音波追従装置1
40は回転台56へ取り付けられる。別の実施例におい
ては、範囲が拡張され、視線経路を必要としない追従装
置が立体CRT24へ取り付けられる。
【0041】一実施例においては、コンピュータ10は
超音波送波器142とマイクロフォン122の間を超音
波が伝わる時間を検出する。この伝播時間を基にしてm
kオペレータ10はシャッター制御される眼鏡120の
3D位置を三角測量する。コンピュータ10は、空気温
度とその他の要因を与えられて音速を修正し、シャッタ
ー制御される眼鏡120の3D位置を三角測量する。
【0042】コンピュータ10は、シャッター制御され
る眼鏡120の3D位置を追従することにより、見る人
200の頭の3D位置に追従する。見る人200が回転
歯車装置の周囲を動くにつれて、反射鏡54が見る人に
向き合う角度位置を維持するように、コンピュータ10
は反射鏡54の回転角度を調整する。
【0043】コンピュータ10とモータ制御装置30
は、回転台56の動きを見る人200の頭の大きい動き
に制限する安定制御プロセスを実現する。一実施例にお
いては、コンピュータ10とモータ制御装置30は、制
御を安定させるためにダイナミック・カルマン瀘波を実
現する。
【0044】見る人200の動きに追従するためにコン
ピュータ10が反射鏡54の回転角を調整するにつれ
て、コンピュータ制御は反射鏡54に短時間における見
る人200の頭の平均位置に追従させる。
【0045】コンピュータ10で実現される画像表現装
置は立体CRT24で立体画像を発生する。立体CRT
24の表示面55における立体画像は反射鏡54により
反射される。反射鏡54は立体画像を、シャッター制御
される眼鏡120を掛けている見る人200へ向けて反
射する。見る人200は反射された立体画像を仮想オブ
ジェクト210として知覚する。反射鏡54が半透明鏡
であれば、その仮想オブジェクト210は見る人200
にとっては透明であるように見える。反射鏡54が中実
反射鏡であれば、仮想オブジェクト210は見る人には
中実であるようにみえる。
【0046】見る人200にとっては、反射鏡54の後
ろに位置させられている立体CRT24の反射により仮
想オブジェクト210が発生されたように見える。見る
人200の動きに追従するためにコンピュータ10が反
射鏡54を回転させるにつれて、それに従って立体CR
T24の反射がDPC空間内を動く。反射鏡54が回転
するにつれて立体CRT24の反射が垂直軸57を中心
として回転するように見える。
【0047】図4c,図4dは、見る人200の動きに
追従するために反射鏡54が回転するにつれて、立体C
RT24の反射60の変化する位置をを示す。回転台5
6と、立体CRT24と、回転反射鏡54とを含む回転
反射鏡装置51の平面図が示されている。また、反射鏡
54を介して見る人200により知覚される立体CRT
24の反射された表示面50も示されている。
【0048】図4cは、回転反射鏡装置51に関連す
る、見る人200の例としての位置に対する立体CRT
24の反射60の位置を示す。図4dは、回転反射鏡装
置51に関連する、見る人200の別の例としての位置
に対する立体CRT24の反射60の位置を示す。
【0049】コンピュータ10は、回転台56の回転角
度から立体CRT24の反射60の位置を決定する。コ
ンピュータ10は、立体CRT24の反射60の表示面
55の位置に立体CRT24の表示面を位置させるため
に、見る人200の眼に対応するビューマトリックスを
調整する。したがって、仮想オブジェクトが仮想空間へ
マップさせられるにつれて、DPC空間は立体CRT2
4の反射60の表示面50へ位置合わせさせられる。更
に、コンピュータ10は立体CRT24の表示面におい
ては結合される立体画像の座標の上下反転を行って、反
射鏡54における立体画像の反射を補償する。
【0050】図5は、実オブジェクトに重ね合わされる
頭に追従する3D立体画像を発生するための回転反射鏡
の別の実施例を示す。図示の例においては、回転反射鏡
装置は外科手術を受ける患者230の上に重ね合わされ
ている虚像を見る人200が知覚できるようにする。そ
の虚像は、コンピュータ支援断層写真(CAT)走査か
ら得られる外科手術患者の3D画像である。
【0051】天井に装置されているトラック74へ立体
CRT70が回転可能に結合される。天井に装置されて
いるトラック74は、立体CRT70の位置を天井面に
平行な2つの次元に沿って移動させることを可能にす
る。立体CRT70へ半透明鏡72が装着される。一実
施例においては、半透明鏡72は立体CRT70の表示
面に関して45度の角度を成す。コンピュータ10はス
テッピングモータ(図示せず)を作動させて、垂直軸7
5により定められている軸線を中心として立体CRT7
0と反射鏡72を回転させる。
【0052】見る人220はシャッター制御される立体
眼鏡120を掛ける。超音波追従装置140はシャッタ
ー制御される眼鏡120の3D位置を検出する。一実施
例においては、超音波追従装置140は立体CRT70
へ装着される。コンピュータ10は、シャッター制御さ
れる眼鏡120の3D位置を検出することにより、見る
人220の頭の3D位置に追従する。見る人220が動
くにつれて、反射鏡72を見る人220に向き合った状
態に維持させるために、コンピュータ10はステッピン
グモータを作動させて立体CRT70の回転角度を調整
する。
【0053】見る人220の動きに追従するために、立
体CRT70および反射鏡72の回転角度をコンピュー
タ10が調整するにつれて、コンピュータにより調整さ
れる制御が、見る人220の頭の短時間平均位置を反射
鏡72に効果的に追従させる。
【0054】コンピュータ10で実現される画像表現装
置は立体CRT70に立体画像を発生させる。立体CR
T24の表示面における立体画像は反射鏡72により反
射される。反射鏡72は、シャッター制御される眼鏡1
20を掛けている見る人220へ向けて立体画像を反射
させる。見る人220は反射された立体画像をCAT走
査の虚像として知覚する。反射鏡72は半透明鏡である
から、その虚像は見る人には透明であるように見える。
【0055】見る人220にとっては、CAT走査の虚
像は、反射鏡72の反射により発生されるように見え
る。見る人220の動きに追従させるためにコンピュー
タ10が立体CRT70と反射鏡72を回転させるにつ
れて、立体CRT70の反射はそれに従ってDPC空間
内を動く。
【0056】コンピュータ10は、垂直軸75を中心と
する立体CRT70の回転角度と、その軸のx−y運動
とから立体CRT70の反射の3D位置を決定する。立
体CRT70の反射の表示面の位置に立体CRT70の
表示面を位置させるために、コンピュータ10は見る人
220の眼に対応するビューマトリックスを調整する。
虚像が仮想空間内へマップさせられるにつれて、DPC
空間は立体CRT70の表示面へ位置合わせさせられ
る。更に、反射鏡72における立体画像の反射を補償す
るために、コンピュータ10は立体CRT70の表示面
における立体画像の座標の上下反転を行う。
【0057】図6は、仮想オブジェクトと実オブジェク
トの配置を見る人が知覚できるようにする頭に追従する
立体表示装置を示す。立体CRT24で発生された立体
画像が反射鏡310により反射されるように、立体CR
T24は反転された位置に装置されている様子が示され
ている。反射鏡310は半透明鏡である。見る人300
はシャッター制御される立体眼鏡120を掛けている。
超音波追従装置140(図示せず)が立体CRT24へ
装着される。
【0058】見る人300にとっては、立体CRT24
における立体画像は、反射鏡310の背後に位置させら
れている立体CRT24の反射により発生されるように
見える。その結果、立体CRT24の表示面を立体CR
T24の反射の表示面の位置に位置させるために、コン
ピュータ10は見る人300の眼に対応してビューマト
リックスを調整する。したがって、虚像が仮想空間へマ
ップさせられるにつれて、DPC空間は立体CRT24
の反射の表示面の位置に位置合わせさせられる。また、
反射鏡310における立体画像の反射を補償するため
に、コンピュータ10は立体CRT24の表示面におけ
る立体画像の座標の上下反転を行う。
【0059】コンピュータ10は、見る人300の3D
位置を検出するために超音波追従装置140を使用す
る。その後で、コンピュータ10における画像表示装置
は立体画像を立体CRT24上に発生して、仮想オブジ
ェクトを半透明鏡310の背後に表示する。シャッター
制御される立体眼鏡120を掛けている見る人300
は、半透明鏡310の背後に位置させられている1つま
たは複数の虚像として反射された立体画像を知覚する。
半透明鏡310は、それの背後に位置させられている実
オブジェクト330も見る人300に知覚させる。
【0060】実オブジェクト330の3Dジオメトリ
と、実オブジェクト330の物理的位置とを示す物理的
オブジェクト・データベースを保持する。実オブジェク
ト330は物理的オブジェクト・データベースにおいて
は黒すなわち無色のオブジェクトとしてモデル化され
る。物理的オブジェクト330のためのzバッファ値を
発生するために、コンピュータ10の画像表示装置は仮
想空間内に物理的オブジェクト330を表示する。
【0061】物理的オブジェクトが、DPC空間内で見
る人300の視点から仮想オブジェクトの前方に位置さ
せられるものとすると、コンピュータ10の画像表示装
置のzバッファが、実オブジェクトにより不明瞭にされ
る仮想オブジェクトの部分に対する立体CRT24から
光を放出させない。このようにして、見る人300は仮
想オブジェクトを実オブジェクトの背後にあるものとし
て知覚する。
【0062】他方、物理的オブジェクトが、DPC空間
内で見る人300の視点から仮想オブジェクトの前方に
位置させられるものとすると、物理的オブジェクトの、
仮想オブジェクトの背後にある部分を不明瞭にするため
にLCDアレイパネル320が採用される。そのLCD
アレイパネル320は半透明鏡310の上に位置させら
れる。コンピュータ10はLCDアレイパネル320を
構成するLCD画素のアレイを制御する。コンピュータ
10は、半透明鏡320を通って見る人300へ達する
光をLCDアレイパネル320に選択的に阻止させる。
コンピュータ10は、物理的オブジェクトのうち、仮想
オブジェクトの背後にある部分をLCDアレイパネル3
20に阻止させる。その結果、見る人300は仮想オブ
ジェクトを実オブジェクトの前方にあるものと知覚す
る。
【0063】図7は図6の頭に追従する立体表示装置に
より発生された仮想オブジェクトと実オブジェクトの配
置を示す。仮想オブジェクト350と、実オブジェクト
360と、仮想オブジェクト370とは見る人300に
より知覚される。コンピュータ10は立体CRT24上
に立体画像を発生することにより仮想オブジェクト35
0と370を発生する。前記したようにそれらの立体画
像は半透明鏡310により反射される。実オブジェクト
360は見る人300に関して半透明鏡310の背後に
位置させられる。実オブジェクト360により反射され
た光は半透明鏡310を透過して、見る人300により
知覚される。コンピュータ10は、実オブジェクト36
0から反射された光をLCDアレイパネル320に選択
的に阻止させる。
【0064】物理的オブジェクト・データベースは実オ
ブジェクト360の3Dジオメトリを示し、かつ実オブ
ジェクト360のDPC空間内の物理的位置を示す。実
オブジェクト360は物理的オブジェクト・データベー
ス内の黒いオブジェクトとしてモデル化される。物理的
オブジェクト360に対するzバッファ値を発生するた
めに、コンピュータ10の画像表示装置は物理的オブジ
ェクト360を仮想空間内に表示する。
【0065】実オブジェクト360は見る人300の視
点から仮想オブジェクト370の前方に位置させられ
る。図示のように、コンピュータ10の画像表示装置の
zバッファが、実オブジェクト360により不明瞭にさ
れる仮想オブジェクト370の部分に対する立体CRT
24から光を放出させない。このようにして、見る人3
00は仮想オブジェクト370を実オブジェクト360
の背後にあるものとして知覚する。
【0066】実オブジェクト360はDPC空間内で見
る人300の視点から仮想オブジェクト350の背後に
位置させられる。図示のように、コンピュータ10は、
物理的オブジェクト360のうち、仮想オブジェクト3
50の背後にある部分に対応するLCDアレイパネル3
20の画素に、物理的オブジェクト360からの光を選
択的に阻止させる。立体CRT24における立体画像か
らの光は半透明鏡310により反射される。その結果、
見る人300は仮想オブジェクト350を実オブジェク
ト360の背後に位置させられているものと知覚する。
【0067】実オブジェクト360のモデルが正しい距
離、正しい寸法、および正しい向きで、かつ完全に黒い
色でDPC空間内に表示されているものとすると、反射
鏡310の背後に位置させられている実オブジェクト3
60は仮想オブジェクト370の前方にあるように見え
る。実オブジェクト360をDPC空間内に表示する
と、立体CRT24から(最低黒レベルを超えて)放出
させない。その結果、見る人の視線の実オブジェクト3
60に対応する部分から来る変化する光だけが実オブジ
ェクト360からの光である。
【0068】仮想オブジェクト350は実オブジェクト
360の前方にあるように見えるが、透明なオブジェク
トとして実オブジェクト360の画像を遮断できない。
透明度の範囲は反射鏡310の構成によって制限され
る。仮想オブジェクト350は最高の輝度で表示される
時に最低の透明度を示す。透明度は反射鏡310からの
反射光と、その反射鏡を透過する光との割合に依存す
る。仮想オブジェクト350は、より低い輝度で表示さ
れる時に、特定の任意の反射鏡に対するより高い透明度
を示す。
【0069】LCDアレイパネル320は、見る人30
0により知覚される透過光の量対反射光の量をコンピュ
ータ10が制御することを可能にする。LCDアレイパ
ネル320は半透明鏡310のうち、見る人300から
遠い側に位置させられる。LCDアレイパネル320
は、実オブジェクト360から見る人300へ直接送ら
れる光の量を制御する。LCDアレイパネル320は、
画素を基にして光の転移を制御する。
【0070】LCDアレイパネル320は光の転移を2
つのモードで制御する。2進モードにおいては、実オブ
ジェクト360からの光の全てを画素を基にして転移さ
せ、または実オブジェクト360からの光の全てを画素
を基にして転移させない。「アルファ」モードにおいて
は、実オブジェクト360からの光のある割合が転移さ
れる。転移させられる光の割合は画素当たり部分量へセ
ットされる(LCDノダイナミズム範囲、更新率な
ど)。2進モードはアルファモードの極端なものであっ
て、制御値「アルファ」が0または1の値のみを取るこ
とができるモードである。
【0071】2進モードにおいては、仮想オブジェクト
350は実オブジェクト360を遮断できる。これを行
うために、アルファ・フレーム・バッファ記憶ビット
が、LCDアレイパネル320の各画素に対してコンピ
ュータ10により保持される。仮想オブジェクト350
を表示する場合には、仮想オブジェクト350に対応す
るアルファ値が1へセットされる(すなわち、物理的オ
ブジェクトの光がLCDアレイパネル320を透過しな
い)。実オブジェクト360の「黒」モデルに対応する
アルファ値は0へセットされる。
【0072】仮想オブジェクト350および実オブジェ
クト360に対してzバッファリングがコンピュータ1
0により行われると、各画素において最も近いオブジェ
クト型(実または仮想)が、アルファ・ビットを先に概
略説明したように正しい値へセットする。アルファ画像
がLCDアレイパネル320で表示されて、適切な光弁
作用を行わせる。ある態様の透明性が、「スクリーン−
ドア(screen−door)」透明性法により実オ
ブジェクトと仮想オブジェクトに対して表示される。
【0073】アルファモードにおいては、LCDアレイ
パネル320の各画素を透過する光の量を制御すること
により透明性が達成される。コンピュータ10はフレー
ム・バッファ内の適切な部分アルファ値をセットしてL
CDアレイパネル320の透明性を制御する表示方法を
実行する。アルファモードは、見る人300が実オブジ
ェクト360(中実または透明)の前方の透明な仮想オ
ブジェクト350を知覚できるようにする。アルファモ
ードは、見る人300が仮想オブジェクト350(中実
または透明)の前方の透明な実オブジェクト350(ガ
ラスのような)を知覚できるようにもする。
【0074】αのために選択された値は、与えられたオ
ブジェクトに対して一定にでき、または実オブジェクト
の実光学特性、または仮想オブジェクトのシミュレート
された光学特性に従って計算される複雑な関数とするこ
とができる。見る人300が実拡大鏡を用いて拡大され
た仮想オブジェクトを知覚するような、複雑な作用を行
うことができる。あるいは、コンピュータ10が適切な
光学的シミュレーションおよび作用を行うように、実オ
ブジェクトをデジタル化して、コンピュータ10へ転送
できる。コンピュータ10は物理的オブジェクトをドッ
ペルゲンガー仮想オブジェクトで完全に置き換える。し
たがって、図6の装置においては、ある物理的オブジェ
クトは純粋な黒い仮想オブジェクトの片割れを有し、対
応するアルファ値を1へ制御ゲートすることによりある
物理的オブジェクトを黒くない仮想コピーで置き換えら
れる。
【図面の簡単な説明】
【図1】本発明の教示に従ってグラフィックス画像を発
生し、ユーザー入力に応答するためのコンピュータを基
にした装置を示す。
【図2】図1に示されているメモリに含まれている主プ
ログラムと記憶域の配置を示す。
【図3】立体CRTの表示面の可視部分の左下隅に原点
を持つ表示プレート座標系の例を示す。
【図4】見る人が動き回ることができるようにし、かつ
仮想オブジェクトの種々の透視場面を知覚できるように
するために、仮想オブジェクトの頭に追従する立体画像
を発生するための回転反射鏡装置のある状態における図
である。
【図5】実オブジェクトに重ね合わされた頭に追従する
3D立体画像を発生するための回転反射鏡装置の別の実
施例を示す。
【図6】実オブジェクトが仮想オブジェクトを自然に不
明瞭にし、仮想オブジェクトが実オブジェクトを自然に
不明瞭にするように、見る人が仮想オブジェクトと実オ
ブジェクトの配置を近くできるようにする頭に追従する
立体表示装置を示す。
【図7】図6の頭に追従する立体表示装置により発生さ
れた仮想オブジェクトと実オブジェクトの配置を示す。
【符号の説明】
10 コンピュータ 12 I/O回路 14 CPU 16 メモリ 20 磁気ディスク 24 表示装置 28 LCDパネル制御装置 30 モータ制御装置 36 フレーム・バッファ 51 回転反射鏡装置 54,310 反射鏡 55 表示面 56 回転台 70 立体CRT 72,310 半透明鏡 120 シャッター制御される眼鏡 132 超音波受波器 140 頭追従装置 142 超音波送波器 320 LCDアレイパネル

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 コンピュータ手段により表現される立体
    画像を発生するための表示面を有する表示装置と、 表示装置の表示面の周囲を回転するように結合され立体
    画像を見る人へ送るように立体画像を反射する反射器手
    段と、 反射器手段が見る人の動きに追従するように、コンピュ
    ータ手段の制御の下に反射器手段を位置させることによ
    り、立体画像を見る人へ連続して送る手段と、を備える
    正確な立体三次元画像を発生する装置。
  2. 【請求項2】 請求項1記載の装置において、表示装置
    と反射器手段が見る人に追従し、立体画像を見る人へ送
    るように、表示装置と反射器手段をコンピュータ手段の
    制御の下に二次元平面に沿って動かすための手段を備え
    る装置。
  3. 【請求項3】 仮想座標空間内の実オブジェクトおよび
    仮想オブジェクトのための三次元位置決めを示すzバッ
    ファを発生するコンピュータ手段により表現され、仮想
    空間座標に対応する立体画像を発生するための表示面を
    有する表示装置と、 見る人の眼へ立体画像を送り、かつ実オブジェクトから
    反射された光を見る人の眼へ送るために位置させられた
    反射器手段と、 実オブジェクトから反射された光の見る人の眼への伝送
    をコンピュータ手段の制御の下に選択的に阻止する手段
    と、を備える実オブジェクトに混合された正確な立体三
    次元画像を発生する装置。
  4. 【請求項4】 コンピュータ手段により表現される立体
    画像を表示装置の表示面に発生する過程と、 表示装置の表示面の周囲を回転するように結合されてい
    る反射器手段から反射された立体画像を見る人へ送るよ
    うに立体画像を反射器手段で反射する過程と、 反射器手段が見る人の動きに追従することにより立体画
    像を見る人へ連続して送るように、コンピュータ手段の
    制御の下に反射器手段を位置させる過程と、を備える正
    確な立体三次元画像を発生する方法。
  5. 【請求項5】 請求項4記載の方法において、表示装置
    と反射器手段が見る人を追従し、立体画像を見る人へ送
    るように、表示装置と反射器手段をコンピュータ手段の
    制御の下に二次元平面に沿って動かす過程を更に備える
    方法。
  6. 【請求項6】 仮想空間座標に対応する立体画像であっ
    て、仮想座標空間内の実オブジェクトおよび仮想オブジ
    ェクトのための三次元位置決めを示すzバッファを発生
    するコンピュータ手段により、表示装置の表示面上に表
    現される立体画像を発生する過程と、 見る人の眼へ立体画像を反射し、かつ実オブジェクトか
    ら反射された光を見る人の眼へ送る過程と、 コンピュータ手段の制御の下に、実オブジェクトから反
    射された光の見る人の眼への伝送を選択的に阻止する過
    程と、を備える実オブジェクトに混合された正確な立体
    三次元画像を発生する方法。
JP01499194A 1993-01-14 1994-01-14 正確な立体三次元画像を発生する装置および方法 Expired - Lifetime JP3575622B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/004,706 US5394202A (en) 1993-01-14 1993-01-14 Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
US004706 1993-01-14

Publications (2)

Publication Number Publication Date
JPH06317762A true JPH06317762A (ja) 1994-11-15
JP3575622B2 JP3575622B2 (ja) 2004-10-13

Family

ID=21712123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01499194A Expired - Lifetime JP3575622B2 (ja) 1993-01-14 1994-01-14 正確な立体三次元画像を発生する装置および方法

Country Status (5)

Country Link
US (1) US5394202A (ja)
EP (2) EP0607000B1 (ja)
JP (1) JP3575622B2 (ja)
KR (2) KR100327874B1 (ja)
DE (2) DE69432994T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122176A (ja) * 1998-08-11 2000-04-28 Minolta Co Ltd 情報提示方法及び装置
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2005134876A (ja) * 2003-08-04 2005-05-26 Carl Zeiss Ag 顕微鏡検査システム及び方法
JP2008090617A (ja) * 2006-10-02 2008-04-17 Toshiba Corp 立体画像生成装置、方法およびプログラム

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0702494B1 (en) * 1994-09-19 2001-12-05 Matsushita Electric Industrial Co., Ltd. Three-dimensional image display apparatus
AUPN003894A0 (en) * 1994-12-13 1995-01-12 Xenotech Research Pty Ltd Head tracking system for stereoscopic display apparatus
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US5831638A (en) * 1996-03-08 1998-11-03 International Business Machines Corporation Graphics display system and method for providing internally timed time-varying properties of display attributes
US6480204B1 (en) * 1996-04-30 2002-11-12 Sun Microsystems, Inc. Transparent sunpad for home shopping
AUPO024696A0 (en) 1996-06-04 1996-06-27 Xenotech Research Pty Ltd Video display system
US6302542B1 (en) * 1996-08-23 2001-10-16 Che-Chih Tsao Moving screen projection technique for volumetric three-dimensional display
JP3651204B2 (ja) * 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
US5781229A (en) * 1997-02-18 1998-07-14 Mcdonnell Douglas Corporation Multi-viewer three dimensional (3-D) virtual display system and operating method therefor
US6394557B2 (en) 1998-05-15 2002-05-28 Intel Corporation Method and apparatus for tracking an object using a continuously adapting mean shift
SG77682A1 (en) * 1998-05-21 2001-01-16 Univ Singapore A display system
SG87768A1 (en) * 1998-05-21 2002-04-16 Univ Singapore Compact reach-in display system for two-handed user interaction with virtual objects
WO2000007059A1 (en) * 1998-07-29 2000-02-10 Spodek Joshua D Apparatus for displaying images to viewers in motion
US6538649B2 (en) 1998-12-01 2003-03-25 Intel Corporation Computer vision control variable transformation
US6396476B1 (en) 1998-12-01 2002-05-28 Intel Corporation Synthesizing computer input events
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6747665B1 (en) 1999-05-10 2004-06-08 Ge Medical Systems Global Technology Company, Llc Semi-transparent medical image overlays
US6647131B1 (en) 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US7142281B2 (en) 2000-06-02 2006-11-28 Georae Ltd. Method and system for providing a three dimensional image
KR20010113117A (ko) * 2000-06-16 2001-12-28 최재학 3차원 영상 표시 장치
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
WO2002100285A1 (en) * 2001-06-13 2002-12-19 Volume Interactions Pte Ltd A guide system and a probe therefor
EP1395194B1 (en) * 2001-06-13 2007-08-29 Volume Interactions Pte. Ltd. A guide system
US7190825B2 (en) 2001-08-17 2007-03-13 Geo-Rae Co., Ltd. Portable communication device for stereoscopic image display and transmission
JP4007801B2 (ja) 2001-11-30 2007-11-14 オリンパス株式会社 コード読取装置及びカード型記録媒体
US6646072B2 (en) * 2002-01-23 2003-11-11 Equistar Chemicals, Lp Process for making polyolefin compositions containing exfoliated clay
US20030222977A1 (en) * 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
JP2004199496A (ja) * 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
US20050237622A1 (en) * 2003-07-28 2005-10-27 Kazutora Yoshino Color 3D image display
US20060192869A1 (en) * 2005-02-28 2006-08-31 Kazutora Yoshino Multi-dimensional input, transfer, optional memory, and output method
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US20060158455A1 (en) * 2005-01-18 2006-07-20 Kazutora Yoshino Real clear 3D multi-user communicator
JP2006276391A (ja) * 2005-03-29 2006-10-12 Yasui & Co 拡大観察装置
JP4274154B2 (ja) * 2005-05-31 2009-06-03 富士ゼロックス株式会社 立体表示装置
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
EP1750460A1 (en) 2005-08-05 2007-02-07 Samsung SDI Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
JP4111231B2 (ja) * 2006-07-14 2008-07-02 富士ゼロックス株式会社 立体表示システム
US20100020254A1 (en) * 2008-07-23 2010-01-28 Zheng Jason Geng Multi-panel virtual image display
TWI370418B (en) * 2008-10-27 2012-08-11 Ind Tech Res Inst Computer system and controlling method thereof
WO2010112062A1 (fr) * 2009-03-30 2010-10-07 Renault S.A.S. Dispositif de projection d'un objet virtuel sur un ecran
TWM368805U (en) * 2009-07-03 2009-11-11 Teng Luo Technology Co Ltd Device for displaying 3D images
US9189885B2 (en) * 2009-09-16 2015-11-17 Knorr-Bremse Systeme Fur Schienenfahrzeuge Gmbh Visual presentation system
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
CN103631024A (zh) * 2013-11-29 2014-03-12 北京赢康科技开发有限公司 立体显示系统
FI20145396A (fi) 2014-04-29 2015-10-30 Satavision Oy Virtuaalivitriini
US10520728B2 (en) * 2017-10-17 2019-12-31 Visteon Global Technologies, Inc. Embedded optimization algorithm of parameters to drive deployment mechanism for displays
EP3770670B1 (en) * 2018-03-23 2023-10-11 Sony Semiconductor Solutions Corporation Display device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4649425A (en) * 1983-07-25 1987-03-10 Pund Marvin L Stereoscopic display
US4634384A (en) * 1984-02-02 1987-01-06 General Electric Company Head and/or eye tracked optically blended display system
US4639081A (en) * 1985-08-15 1987-01-27 Kabushiki Kaisha Toshiba Gimballed three-dimensional display system
US4722056A (en) * 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
US4922336A (en) * 1989-09-11 1990-05-01 Eastman Kodak Company Three dimensional display system
JPH06502509A (ja) * 1990-10-22 1994-03-17 ロジテク,インコーポレイテッド 超音波位置標定方法および装置
DE4207284C2 (de) * 1992-03-07 1996-08-22 Stefan Reich Räumliche Bilddarbietung
US5287437A (en) * 1992-06-02 1994-02-15 Sun Microsystems, Inc. Method and apparatus for head tracked display of precomputed stereo images

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122176A (ja) * 1998-08-11 2000-04-28 Minolta Co Ltd 情報提示方法及び装置
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2005134876A (ja) * 2003-08-04 2005-05-26 Carl Zeiss Ag 顕微鏡検査システム及び方法
JP2008090617A (ja) * 2006-10-02 2008-04-17 Toshiba Corp 立体画像生成装置、方法およびプログラム

Also Published As

Publication number Publication date
US5394202A (en) 1995-02-28
EP0996093B1 (en) 2003-07-30
DE69425913T2 (de) 2001-04-26
KR100327874B1 (ko) 2002-06-20
EP0607000A3 (en) 1995-11-15
JP3575622B2 (ja) 2004-10-13
DE69432994D1 (de) 2003-09-04
KR940018769A (ko) 1994-08-18
EP0607000A2 (en) 1994-07-20
EP0607000B1 (en) 2000-09-20
EP0996093A1 (en) 2000-04-26
DE69432994T2 (de) 2004-04-22
KR100311066B1 (ko) 2001-10-18
DE69425913D1 (de) 2000-10-26

Similar Documents

Publication Publication Date Title
JP3575622B2 (ja) 正確な立体三次元画像を発生する装置および方法
US5446834A (en) Method and apparatus for high resolution virtual reality systems using head tracked display
JP3318684B2 (ja) 立体画像を生成する方法及び装置
Deering High resolution virtual reality
US10089790B2 (en) Predictive virtual reality display system with post rendering correction
US4984179A (en) Method and apparatus for the perception of computer-generated imagery
US9824485B2 (en) Presenting a view within a three dimensional scene
US5742331A (en) Three-dimensional image display apparatus
US7812815B2 (en) Compact haptic and augmented virtual reality system
Azuma A survey of augmented reality
US20040135744A1 (en) Virtual showcases
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US20210283496A1 (en) Realistic Virtual/Augmented/Mixed Reality Viewing and Interactions
US6283598B1 (en) Method of and apparatus for displaying an image
JP3026716B2 (ja) 立体型表示装置
US20190206118A1 (en) Immersive environment with digital environment to enhance depth sensation
Argelaguet et al. Visual feedback techniques for virtual pointing on stereoscopic displays
EP0928117A2 (en) Method and apparatus for providing volumetric projection
WO2002015110A1 (en) Virtual showcases
Kenyon et al. Visual requirements for virtual‐environment generation
EP1325460A1 (en) Virtual showcases
Fuhrmann et al. Distributed Software-Based Volume Visualization in a Virtual Environment.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040701

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070716

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100716

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term