JPH09506190A - 合成およびアブソリュートリアルタイム環境の生成および処理のための方法および装置 - Google Patents

合成およびアブソリュートリアルタイム環境の生成および処理のための方法および装置

Info

Publication number
JPH09506190A
JPH09506190A JP7511711A JP51171195A JPH09506190A JP H09506190 A JPH09506190 A JP H09506190A JP 7511711 A JP7511711 A JP 7511711A JP 51171195 A JP51171195 A JP 51171195A JP H09506190 A JPH09506190 A JP H09506190A
Authority
JP
Japan
Prior art keywords
user
data
environment
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7511711A
Other languages
English (en)
Inventor
ディー. レッドモンド,スコット
Original Assignee
レッドモンド プロダクションズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レッドモンド プロダクションズ,インコーポレイテッド filed Critical レッドモンド プロダクションズ,インコーポレイテッド
Publication of JPH09506190A publication Critical patent/JPH09506190A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/16Ambient or aircraft conditions simulated or indicated by instrument or alarm
    • G09B9/165Condition of cabin, cockpit or pilot's accessories
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/22Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer including aircraft sound simulation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/307Simulation of view from aircraft by helmet-mounted projector or display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/34Simulation of view from aircraft by cathode-ray screen display

Abstract

(57)【要約】 ユーザおよびそれらの生物学的な感覚とのインタラクション用の合成およびアブソリュートリアルタイムリモート環境を生成および処理するシステムは、7つのモジュールで構成されている。これらのモジュールは、データを保存、取り出し、および処理し、システムユーザの生物学的感覚とインターフェースする出力を生成する。これらのモジュールはまた、ユーザデータを追跡し、生成および処理されたモデル内にユーザを正確に配置する。視覚および音声入力装置、ならびに柔軟スキンを駆動するマトリクスアドレス指定され、電気機械的に動作されるロッドを介するインタラクティブ触覚出力を有する3次元チャンバを含むシステムユーザ感覚インターフェースの種々の実施態様が提供される。

Description

【発明の詳細な説明】 合成およびアブソリュートリアルタイム環境の 生成および処理のための方法および装置 技術分野 本発明は、一般にコンピュータで生成および処理された環境を扱い、さらに詳 細には、システムユーザの生物学的感覚への3次元視覚イメージ、多次元聴覚イ メージおよび触覚インプットのための合成アブソリュート環境を生成および処理 をするシステムを扱う。発明の背景 ハードウェアおよびソフトウェアの近年の進歩により、インタラクティブな「 合成」環境分野における意識が高揚し、多くの開発の取り組みが行われている。 これらの開発の取り組みのゴールは、「アブソリュートの」または実際の現実か ら実質上区別の付かないほど現実的な合成環境を提供することである。これらの 相互に作用する合成現実のアプリケーションは多岐にわたる:フライトシミュレ ーション、構築前の建築レビューおよびウォークスルー、ビデオゲーム等の娯楽 、分子モデリングおよびエンジニアリング、微細手術、通信、および教育上のア プリケーション。 NASAのエイムズ(Ames)研究所で、合成環境の開発が長年にわたり続けられて いる。NASAのVirtual Interface Environment Workstation(VIEW)では、生成さ れた3次元イメージをシステムユーザに伝えるための頭部装着白黒液晶表示装置 を使用する。 他のシステム開発者は、VPL Researchである。VPL Researchでは、ユーザの指 の屈曲と伸長をモニターするファイバーオプティクスと、ユーザの手の位置を3 次元マトリクス内で決定するPolhemus磁気追跡装置とを使用する、DataGloveが 設計された。VPL Researchは、DataGloveの技術を発展させた、人体の全体的な 動きをモニターするDataSuitを提供する。VPL ResearchのEyePhone、または視覚 インプット装置は、光学システムを通して見られる2つのカラー液晶モニターか らなる。VPL Researchのシステムでは、各モニターは個別の計算経路によって駆 動される。そして、高解像度ドットパターンが知覚される解像度を向上するため に送信イメージ上に重ねられる。VPL Researchは、DataGloveの技術を発展させ た、人体の全体的な動きをモニターするDataSuitを提供する。VPL Researchは、 DataGloveの技術を発展させた、人体の全体的な動きをモニターするDataSuitを 提供する。 AutoDeckは、コンピュータ生成された合成現実のシステムにおける開発取り組 みをこのほど発表した。AutoDeckは、AutoDeckのCAD産業における確立された地 位とあいまって、主としてコンピュータ生成された合成環境の建築ウォークスル ーとしてのアプリケーションに着目している。 TiNi Aloy Co.は、形状形態を有するものを触った際の感覚をシミュレートす る、微小な電気的に動作するピンの触覚アレイを発表した。 これらの既存のシステムは、写真のように現実的なイメージ、サウンドおよび 触感覚の刺激を一つの相互作用時空間内でとらえるため、完全に集約された感覚 アウトプットを提供することができない。これらの以前のシステムでの処理技術 では大まかな「計算」イメージ表現のみが可能であり、計算制限のある低ポリゴ ン密度のために現実的でないイメージとなる。システムアーキテクチャは本来的 に非効率的であり、提供されるシステム保存および処理容量が、視覚、聴覚およ び触覚の超現実的イメージを相互作用モードで提供するのに必要とされる計算ス ピードで動作するのを妨げている。 本発明は、超現実的視覚イメージ、多次元的サウンドイメージおよび触覚アウ トプットを生成処理するための大規模な並列処理能力を有する、完全に集約され たシステムを提供する。本システムは、コンピュータ生成された「合成」環境と の組み合わせで、以下「アブソリュート」現実と定義される既存の(実際の)現 実の組み込みを可能とする。本発明は、コンピュータメモリの保存および取り出 しを最適化し、必要な計算を最小のコンピュートサーバ容量で実行可能とするシ ステムアーキテクチャを提供することで、これらの特徴を達成することができる 。 本発明の目的は、システムと相互作用する際にシステムユーザに超現実的な経 験を提供する、システムアーキテクチャ、コンピュータによって生成された環境 アウトプット信号およびコンピュータアウトプット−ヒューマンセンサインプッ トインターフェースの独特な組み合わせを提供することである。 本発明の目的は、超現実的視覚イメージ、多次元的サウンドイメージおよびイ ンタラクティブな触覚アウトプットの合成アブソリュート環境モデルアウトプッ トを生成することである。 本発明の他の目的は、データ取り出しのスピードおよびデータベース量を増大 させるための、保存データへの迅速なアクセスおよび制限の無い容量を可能とす るイメージおよびデータバッファを使用した、データ保存および取り出しアーキ テクチャを提供することである。 本発明の目的は、保存されたイメージおよび現在見られているイメージを迅速 に再構成することによって、データ保存および取り出し手段の効率的な使用を可 能とするシステムアーキテクチャを提供することである。 本発明の目的は、「アブソリュート」現実を「合成」現実と有効に組み合わせ 、遠隔ロボットを含む遠隔システム操作能力を提供できるシステムを提供するこ とである。 本発明の目的は、侵入的なセンサーおよびかさばるアンビリカル無しで、ユー ザの位置、動きおよび健康の送信データを提供することである。 本発明の目的は、大規模コンピュートサーバ並列データ処理技術によって、ユ ーザの生物学的感覚インターフェースに生成処理された環境モデリングモジュー ルアウトプットを提供することである。 本発明の目的は、単一アウトプットモードを使用して3次元視覚アウトプット を光学的に識別し、立体的イメージを得る環境モデリングモジュールを採用する ことである。 本発明の目的は、合成およびアブソリュート環境の生成の際に、自然および公 知の物理法則を事前に選択されるパラメータとして組み入れる環境モデリングモ ジュールを提供することである。 本発明のこれらの目的および更なる目的は、以下の説明および図面を参照する ことで、当分野の通常の技術を有する者にとって明確となる。発明の要旨 合成およびアブソリュートリアルタイム環境の生成および処理のためのシステ ムは、お互いに接続される6つの個別のモジュールよりなる。データ保存および 取り出しモジュールは、高解像度のイメージ、サウンドおよびユーザの位置座標 のデジタルデータを保存するように設計される。このモジュールの取り出し側は 、保存データを瞬時に取り出すように設計される。データ保存および取り出しモ ジュールは以下を含む。自然対象物のイメージファイル;自然音のデジタルサウ ンドファイル;効率的なデータ保存および取り出しを可能とするイメージ圧縮ソ フトウェア;ポリゴン、フラクタル、レイトレーシングおよび半プリミティブ存 在要素等のプリミティブイメージ基本モデルファイル;生成済み合成イメージデ ータの保存および取り出しのためのイメージ設計前データ処理アレイ;そして、 生成される合成またはアブソリュート環境におけるユーザの視野内でのユーザの 身体部分に対応するイメージを生成処理する、相互に作用するスループットイメ ージおよびサウンド処理。 第2のシステムモジュールは、少なくとも2つの個別のセンサーモードでの補 助マトリクス平均によって得られるユーザの位置および動きのデータを、感知し 送信するアンビリカルを持たないセンサーである。このセンサーモジュールは、 ユーザの健康に関するテレメトリ(telemetry)データを検知し、環境モデリン グモジュール、データ保存および取り出しモジュール、および主制御モジュール へ送信する。 第3のモジュールは、事前に選択されるコマンドとパラメータとを使用する、 合成およびアブソリュート環境アウトプットのリアルタイム生成および処理のた めの環境モデリングモジュールで、大規模マイクロコンピュートサーバ並列デー タ処理技術によって、ユーザが見た相互に作用するユーザの身体部分を含む、合 成のイメージ、サウンド、力および動きを現実の正確さでもって描写する。 第4のシステムモジュールは、ユーザ刺激モジュールであり、環境モデリング 手段のアウトプットとユーザの生物学的感覚へのインプットとの間の出力/入力 インターフェースに関する。このモジュールは、ユーザの目への3次元視覚イン プットのための装置、ユーザの耳への多次元聴覚インプットのための装置および ユーザの手、足およびその他の身体部分への触覚インプットのための装置を含む 。 第5のシステムモジュールは、主制御モジュールであり、データ保存および取 り出しモジュール、センサーモジュール、環境モデリングモジュールおよびユー ザ刺激モジュール間のインターフェースを含む。主制御手段は、遠隔ロボットを 制御するように構成される。 最後のシステムモジュールはシステム内通信手段であり、ユーザに主制御モジ ュールへの音声通信および主制御モジュールからの音声通信を可能とする。 ユーザのインタラクティブセッションに先立ち、システムユーザは合成または アブソリュート現実環境を選択し、そのことは主制御モジュールへ伝達される。 このユーザによる選択は、合成およびアブソリュート現実の生成に必要とされる 計算上のパラメータの一部をプリセットし、より簡単にアクセスおよび処理でき るデータライブラリーサブセットを構築する。その後、合成およびアブソリュー ト環境が計算され生成され、システムユーザは、システム内通信手段、センサー モジュールおよびユーザ刺激モジュールを通じて、生成された環境と相互に作用 できる。 ユーザ刺激モジュールの一部である3次元視覚インプットデバイスには、いく つかの実施態様がある。第1の実施態様では、視覚イメージは、ヘッドセット上 に配置される二重ビジョン液晶カラーアイモニターと組み合わされ、生物学的に 同期した辺縁のマイクロストロボを通じて、ユーザの目にインプットされる。視 覚インプットデバイスの第2の実施態様では、2つの高品位カラーモニターから の、ファイバーオプティクス(fiber optic)が積み重ねられたアレイの二重カ ラーイメージが採用される。第3の実施態様では、低出力レーザーダイオードイ メージングパックおよび磁気光照準フィールドによって、網膜の直接スキャンお よび他の眼内イメージ配置が達成される。視覚インプットデバイスの第4の実施 態様は、ファイバーオプティクスによって導かれる高品位カラーモニターからユ ーザの目の表面の4分の1インチ前方に据えられる後方マイクロスクリーン上へ のイメージの投影を利用する。第5の実施態様では、眼の表面の4分の1インチ 前方に据えられる後方マイクロスクリーン上への一連のフレームされた高密度パ ックのファイバーオプティクスイメージの伸張は、ベルトに据え置かれるHDTVに よって得られる。 ユーザ刺激モジュールは、好ましい実施態様では、高い触覚インプットのため の構成品を含む。におい、音波振動、様々な温度および様々な風速等のグロス環 境条件をシミュレートするように、3次元チェンバーを改造する。このチェンバ ーは、長手方向軸がチェンバー壁と垂直となるように、またはチェンバー内のス タンドアローン型ユニットに配置でき得るロッドの長方形マトリックスを備える 。ロッドは、システムユーザと相互作用するための形状および手触りを生成する ように、電気機械的に操作される。他の実施態様では、ユーザの、チェンバー壁 の知覚を変化させるために膨らましたり萎めたりでき得るブートシェービング袋 がユーザに与えられる。好ましい実施態様では、チェンバーは可変抵抗トレッド ミルを備える。簡単な図面の説明 図1は、本発明のユーザ刺激モジュールの一実施態様の正面図である。 図2は、追加の刺激装置を含む、本発明のユーザ刺激モジュールの実施態様の 平面図である。 図3は、従来技術と表示される、本発明に使用される高性能ワークステーショ ンの主要構成機器のブロック図である。 図4は、従来技術と表示される、高性能ワークステーションのカーネルの入出 力サブシステムのブロック図である。 図5は、従来技術と表示される、高性能ワークステーションのグラフィックス サブシステムのアーキテクチャのブロック図である。 図6は、本発明によるインタラクティブスループットイメージおよびサウンド プロセッサのブロック図である。 図7は、ビデオカメラデータ収集技術を利用したインタラクティブスループッ トイメージおよびサウンドプロセッサのブロック図である。 図8は、本発明の環境モデリングモジュールと共に組み込むことができるユー ザの位置および動きのデータを決定するのに使用できるラスターベースのセンサ 方法のブロック図である。 図9は、視覚インプットデバイスの第1の実施態様の側面図である。 図10は、視覚インプットデバイスの第1の実施態様の模式図である。 図11は、視覚インプットデバイスの第2の実施態様の模式図である。 図12Aは視覚インプットデバイスの第3の実施態様の平面図、図12Bは視覚イ ンプットデバイスの第3の実施態様の側面図、そして図12Cは視覚インプットデ バイスの第3の実施態様の模式図である。 図13は、視覚インプットデバイスの第4の実施態様の模式図である。 図14は、視覚インプットデバイスの第4の実施態様のオプションによる追加の 詳細な側面図である。 図15Aは視覚インプットデバイスの第5の実施態様の模式図であり、図15Bは リボンケーブルのユーザ端の詳細図である。 図16は、画素アドレッシングスキームのブロック図である。 図17は、2ポート画素アドレッシングスキームのブロック図である。発明の詳細な説明 本発明は、資源保護に応用でき、例えば非営利的組織および財団、研究グルー プ、科学界または大学関連の協会等による、可能性のある寄付者からの資金調達 および更なる支援の請願に応用できる。例えば、オゾン層破壊、森林破壊の水質 および空気の質のコントロールへの影響、再森林化への関心等を含むデモンスト レーションを、資金提供の目的のために実施でき得る。さらには、絶滅の危機に ある動植物および野生生物プログラムを開発でき得る。この技術は、実際のフィ ールドスタディに関わる危険無しに、動物の群の移動および習性の評価研究する のに応用でき得る。 このシステムを、リサイクル、廃棄物処理管理および有害廃棄物取り扱い装置 の設計のための産業システムの研究に応用しても良い。 合成される環境を養子縁組の手続きに応用しても良く、可能性のある両親と子 供達とが状況を下見するのを可能とする。 このシステムは、例えば、外科医、看護婦およびその他のスタッフのトレーニ ング、および障害者および物質依存の患者のリハビリプログラム等、医学アプリ ケーションへの無限かつ直接の可能性を有する。 地理、数学、物理、健康教育および他の多くの科目分野への、無限の教育上の 応用が可能である。 目撃者を保護し彼等の身元守りながらの現場の再現による犯罪捜査で、このシ ステムの法律の執行面で応用が可能である。システムのトレーニングモードでの 使用もまた可能である。 3次元合成モデルから2次元面での芸術面での応用が熟考されている。 システムのこれらの多岐にわたるアプリケーションの各々は、ユーザの実際の インタラクティブセッションに先立って、所望のアプリケーションに特定のデー タセットを作ることによって促進される。言い換えれば、ユーザが合成および処 理された環境と実際に相互作用する前に、ユーザが、相互作用が行われる環境を 選択する。そう言うわけで、例えば、ユーザが浜辺のような「自然」環境を作っ て相互作用したい場合、ユーザはその環境を選択し、システム技術者は、選択さ れた浜辺環境に対応するイメージ、サウンド、臭いおよび触覚のシミュレーショ ンを生成処理するのに必要な情報を含む一連のデータファイルを作り出す。この 相互作用前の初期データ開発セッションは、より大きいシステムデータベースか ら特定のアプリケーションに必要とされるデータを事前分離することによって、 実際のユーザインタラクティブセッション時に行わねばならない計算数を低減す る。 本発明は、カスケードプログラミングとして知られるプログラミング技術によ って、完全に集約された合成アウトプットを提供することができる。この技術に よると、感覚アウトプット(サウンド、におい、タッチ)の各々はそれらのサウ ンド、においおよびタッチに関連する視覚イメージデータと結び付けられ、多数 の視覚イメージが一つのシーンを作り出すように共に結び付けられると同時に、 これらの視覚イメージに関連する知覚の全ては、全体のシーンに容易に集約され る。 本発明は、6つの基本モジュールを備える:データ保存および取り出しモジュ ール、ユーザセンサーモジュール、環境モデリングモジュール、ユーザ刺激モジ ュール、主制御モジュールおよびシステム内通信モジュール。これら6つのモジ ュールを通じて本発明を実践する多数の異なるモデルがあり、それらは実質的に パーソナルコンピュータワークステーションのように構成されるローエンドなモ デルから、ハイエンドな劇場サイズの合成環境アウトプットまである。これらの モデルの全ては6つのモジュールを含むが、各モデルはアプリケーションのアウ トプット要求に応じて異なる能力を有する。以下に添えられるクレームは、これ ら6つののモジュールが組み込まれる特定のモデルとは無関係に、これらのモジ ュールを有するシステムを一般的に包含するように意図されている。 これら6つの機能的に定義されるモジュールの説明においては、時としてこれ らの機能的モジュールが、実際には個別のハードウェアユニットでない場合があ る。例えば、データ保存および取り出しモジュール、環境モデリングモジュール および主制御モジュールは共通のハードウェアを共有する。 図1はユーザ刺激モジュールの一つの実施態様の正面図であり、図2はユーザ 刺激構成品が配置された3次元チェンバーの平面図である。これらの図面の目的 は、本発明によって生成される予期されるユーザ刺激モードの広がりを示すこと である。 図1によると、ユーザ10は、準備室12内でシステムとのインタラクティブセッ ションの準備をする。モデルまたは実施態様によっては、ユーザ10は、スーツ、 手袋およびブーツを含む、アプリケーション毎に特定される衣服の着用を要求さ れえ、ユーザの位置および動きのデータがシステムに送信され、ユーザの健康の テレメトリデータがモニターされる。 システムとのユーザの感覚相互作用は、実際にはチェンバー14内で行われる。 このチェンバーは、鋼鉄フレームを有するモジュラーで、6フィート正方形の立 方体部分からなる。チェンバー14のサイズは予期されるアプリケーションによっ て規定される。チェンバー14の壁、天井および床は、様々な状況に適するように 容易に加工される。図2に見られるように、チェンバー14は、様々な感覚インタ ーフェースデバイスの設置を可能とするように十分にフレキシブルである。チェ ンバー14は、チェンバーによって定義される3次元マトリクス内でのユーザの位 置と動きを決定するための、生物学的に安全な干渉性および非干渉性電磁スペク トラム放射線デバイスを許容し操作できるように設計される。 時としてイメージポンプと呼ばれる高品位カラーテレビジョンモニター16が、 チェンバー14の天井から釣り下げられている。ヘッドピース18がモニター16にフ ァイバーオプティクスによってリンクされており、ユーザはシステムから3次元 視覚インプットおよび多次元聴覚インプットを受け取ることができる。視覚イン プットデバイス18の特定の実施態様は、以下のユーザ刺激モジュールのタイトル のセクションでさらに詳しく説明される。 追加の刺激装置を図2に示す。これらの装置はチェンバー14内に配置される。 後方投影スクリーン20とそれに伴う投影機22は、図1に示される視覚インプット デバイス18の代わりかあるいはそれとの組み合わせで使用され、視覚インプット を提供する。チェンバー14は、ユーザの触覚へのシステムアウトプットのための デバイス24を備える。触覚インプットデバイスのこの実施態様では、壁はシステ ム環境モデリングモジュールによって電気機械的に駆動されるロッドのマトリク スからなる。ロッドは柔軟性のある表皮材で覆われ、連続的な表面形状と手触り インプットとをユーザの生物学的感覚に提供する。この触覚モードはシステムに よって慎重に制御され、ユーザが同時に経験する視覚および聴覚イメージと対応 するように設定される。 プログラマ接続ブロック26は、主制御モジュールおよびその他のシステム構成 機器へのオプションとしての光アンビリカルによる接続を備える。 可変抵抗トレッドミル28は、チェンバー14の床に配置され、システムアウトプ ットとリンクされる。したがって、トレッドミル28は、ユーザ10に合成および処 理された環境を実際に歩いている感覚を提供するために使用できる。 チェンバー14のコーナーには、ユーザ10を受け入れるように適応した椅子30が ある。ユーザは、この椅子をスタンドアローンのデモンストレーションユニット として、あるいは肉体的疲労として、あるいはファームシステムユーザとして使 用する。 触覚アウトプットデバイス24の反対側のチェンバー壁には、ユーザに合成環境 で乗り物に乗っているまたは乗り物を運転している感覚を提供するように設計さ れる乗り物シミュレータ32がある。乗り物シミュレータ32は、合成環境と関連す るフィーリングをさらに向上するために、安全に縦揺れ横揺れするように適応さ れている。ジェット空気流34がチェンバー壁に備えられ、合成環境内での移動感 覚を向上するためにシステムによって制御される。 本システムによって処理される環境モデリングの各レベルのこれらの概要をふ まえ、本システムを構成する個々のモジュールを説明する。 I.データ保存および取り出しモジュール データ保存および取り出しモジュールのアーキテクチャデザインは、異なる種 類の大量のデータを収容し、一方同時にこれらの保存情報への迅速なアクセスを 提供する。このシステムアーキテクチャは、コンピュートサーバを追加すること によって、無限の並列コンピューティングおよび迅速なセットアップ能力を有す る。これらの能力無しでは、本発明で必要とされる超現実的な合成アウトプット の生成、連続処理は不可能である。 このモジュールのデータ保存容量は、サーバから働くローカルマスストレージ を有する現行の高性能ワークステーションを使用することによって得られる。Wr ite once readmany(WORM)光学ディスクおよび取り外し可能CD ROMは、ローカル マスストレージに加えて巨大な保存能力を提供する。 本発明の好ましい実施態様によると、シリコングラフィクスのPOWERシリーズ は、持続動作で160 MIPSおよび28 MFLOPSと、100万までをZバッファにバッファ され4つのサイドを有しガランドシャード(Gourand shaded)されフォングライ ト(Phong lighted)されるインディペンデントポリゴン/秒/ユニットと、800 万ピクセル/秒のフレームバッファアクセスレートとを提供する。 A.CPUサブシステムハードウェア シリコングラフィクスのPOWERシリーズワークステーションの基本設計は、緻 密に結合されたシンメトリック共有メモリマルチプロセシングアーキテクチャで ある。シリコングラフィクスの4D/210、4D/220、4D/240、および4D/280の各シス テムのCPUはMIPS設計されたRISCプロセッサであるR3000で、付属のR3010浮動小 数点チップと結合されている。4D/120GTXおよび4D/120SのCPUは、R2000とそれに 付属するR2010浮動小数点コプロセッサである。 図3は、システムの主要構成機器のブロック図である。システムの重要バスの いくつかがこの図に示されている。同期バス(Sync Bus)36は、ファイングレイ ン並列処理をサポートする、システムの主要プロセッサ間の高速同期を提供する 。プロセッサバス38は、メインプロセッサ40および42の個々の第1レベルのキャ ッシュからの命令およびデータへのフルスピードアクセス(待ち時間ゼロ)を可 能とする。読み出しバッファ44と46および書き込みバッファ48と50は、システム のプロセッサとメインメモリ52との間の情報の効率的な流れを可能とする。第2 のレベルのデータキャッシュ54と56とは、自動調和共有メモリ計算モデルをサポ ートするそのような高速プロセッサに必要とされる追加の帯域幅を用意している 。MPリンク(MPlink)バス58は、プロセッサ、メインメモリ、入出力システム、 およびグラフィックスサブシステム60間の調和したデータシェアリングおよび高 速ブロックデータ転送のためのプロトコールをサポートする。 1.プロセッサバス 各プロセッサは、8バイト/クロック周期でのサステイン(sustained)デ ータ転送をサポートでき得るアドレスとデータバス(プロセッサバスとして知ら れる)とを提供する。したがって、プロセッサを8個有するシステムでは、全部 で1600メガバイト/秒のプロセッサ−キャッシュ帯域幅を有する。 命令とデータとを分離する第1レベルのキャッシュ40と42とは、それぞれ64キ ロバイトである。命令キャッシュ62と64とは逐次命令への非常に速いアクセスを 可能とするカスタム読み出しバッファによって与えられる。データキャッシュは 、MPリンクバスからバッファされるカスタム読み出しバッファを通じて駆動する 。 これらのバッファは、プロセッサとMPリンクバス58との間の非同期インターフ ェースのための便利な点をも提供する。R3000プロセッサは、25Mhzで動作し、MP リンクバスとは非同期である。したがって、システムの中でのCPUスピードは、 バスまたはメモリタイミングを変えることなしにオーバータイムを増加できる。 このアーキテクチャは、システムの多くの部分を取り替えること無くグレードア ップできることを保証する。 各第2レベルのキャッシュは、256キロバイトの大きさで、それぞれ16バイト の16のラインとして構成される。(シリコングラフィクスの4D/120GTXと4D/120S の第2レベルキャッシュは64キロバイトである。4D/210Sおよび4D/210GTXは第2 キャッシュを必要としない。)このキャッシュはMPリンクバスのためのブロック 転送能力を提供し、個別のキャッシュ全てを調和のとれた状態に保つために必要 な追加の帯域幅を提供する。 第2レベルデータキャッシュ54と56とは、MPリンクバス上の全トランザクショ ンを見守り、データをそのデータ保存に巻き込むトランザクションをチェックす る。このチェックは、MPリンクバス58上の全てのアドレスを第2レベルデータキ ャッシュ54および56のタグ保存セクションのアドレスとマッチングさせることに よって行われる。第1レベルデータキャッシュ40と42とは常に第2レベルデータ キャッシュ54と56とのサブセットであり、データの一貫性は保証される。 さらに、全てのキャッシュは仮想アドレスキャッシュよりもむしろ物理アドレ スキャッシュであるために、異なる仮想アドレスを同じ物理アドレスにマッピン グすることによるエイリアス問題は発生しない。多仮想アドレスキャッシュを扱 う際に起こる異なるシステムレベル問題は、本システムでは存在しない。 2.同期バス 同期バス36は、マルチプロセッサをサポートする効率の良いファイングレイ ン並列処理における同期必要性のために設計される。それは、シリコングラフィ クス所有のVLSI部品として提供される。その目的は、ひとつのアプリケーション が、多くのシステムシミュレーションアプリケーションに見られる種類のラージ グレイン並列処理およびUNIXTMシステムのプロセス構造に見られるさらに大きい ラージグレイン並列処理に加え、個別ループレベルにおいても並列処理プロセッ サを効率的に使用できることである。 同期バス36は、65,000個のテストアンドセット変数を提供する。これらの変数 は、物理アドレス空間の特定部分に存在する。これらは、メモリとしてアドレス され、オペレーティングシステムによって個別のアプリケーションに割り当てる ことができる。これらはページ毎に64個配置され、アプリケーションの仮想アド レス空間へマッピングすることができる。オペレーティングシステム自身、オペ レーティングシステムの制御変数のための非常に細かいグレインロックを提供す るために、それらを使用する。 したがって、オペレーティングシステムは、非常に並列かつ完全に対称なマル チプロセッシングオペレーティングシステムである。言い換えれば、シリコング ラフィクスバージョンのUNIX V.3は、POWERシリーズの良く出来た並列処理アプ リケーションであり、そのスピードは高速コンピューティングとしてのこのアプ ローチの実力を示す。 同期バス36は、ひとつのプロセッサから他のプロセッサへの、あるいは入出力 システムから適切なプロセッサへの割り込みの分配を提供する。割り込み分配シ ステムの柔軟性は、オペレーティングシステムが個別のキャッシュの実力を混乱 させるのではなくサポートするスケジューリングアルゴリズムを提供できること を意味する。 3.MPリンクバス MPリンクバス58は、ブロック転送バスのパイプラインで、プロセッサと、メ モリと、入出力システムと、グラフィックスサブシステムとの間の64メガバイト のサステイン(sustained)データ帯域幅を提供すると共に、キャッシュ一貫性 プロトコールをサポートする。同期バス36がプロセッサ間の効率的な同期を提供 するため、キャッシュ一貫性プロトコールはプロセッサ間の効率的なデータシエ アリングをサポートするように設計される。キャッシュ一貫性プロトコールがシ ェアリングだけでなく同期もサポートせなばならない場合は、同期動作の効率を 向上するために、データシェアリングプロトコールの効率における妥協が必要と なる。これらの個別の機能のそれぞれのための個別のバスにおいて、各バスを妥 協無しに最適性能を発揮するように設計することができる。 使用されるキャッシュ一貫性プロトコールは時としてイリノイプロトコールと 呼ばれる。各第2レベルデータキャッシュは、各キャッシュラインのための状態 値を維持する。ラインは4つの状態の内のひとつを取りうる:無効、専用読み出 し、共用読み出し、または専用書き込み。プロセッサが共用読み出しラインに書 き込む場合、書き込みが完了する前に、プロセッサは最初にそのキャッシュライ ンの他のコピーを無効にしなければならない。複数のプロセッサによる共有読み 出しラインへの同時書き込みは、MPリンクバスをうまく獲得しそれに無効操作を 発行したプロセッサを除いて、全てのプロセッサにおける書き込みミスとなる。 さらに、プロセッサにより行われる同期バス上のいかなる同期操作も、そのプロ セッサによる全ての未完了書き込み動作が完了するまで、完了してはならない。 同期バスおよびMPリンクバスのハードウェアプロトコールによって実施される これらのシンプルなルールにより、並列処理の単純共有メモリモデルによる効率 的な同期およびデータシェアリングが達成される。いかなるプロセッサにも見え ない唯一のデータは、その他のプロセッサのレジスタ内のデータである。この種 の見えないデータは、最新の最適化コンパイラの通常のセーフガードによって取 り扱われる。 MPリンクバス58の物理構造は、32本のアドレスラインと64本のデータラインで ある。MPリンクバスのトランザクションは6周期の長さで、最後の2つのデータ 転送周期は次のトランザクションの最初の2つの周期と重なり、その結果非常に 経済的な構成で64メガバイト/秒のサステイン(sustainable)データ転送レー トが得られる。新しいデータは最後の2周期で到着する。交換されたキャッシュ ラインからの古いデータは、中間の2周期で運ばれる。アドレスは最初の2周期 で転送される。バスアービットレーション(arbitration)はパイプラインされ 、トランザクションの周期コストには加えられない。 4.入出力バス シリコングラフィクスのPOWERpathTMアーキテクチャは、3つの個別の入出 力バスを組み入れている;VME 66、イーサネット68、およびSCSI(Small Comput er System Interface)70。これらのバスは独立に動作し、全システムの入出力 スループットを最大化する。VMEバス66は、高機能かつ高性能のVMEインターフェ ースとしての専有のSGIチップ(DMAP)を介してサポートされる。VMEサポートは 、ダブルおよびトリプル高ユーロカードフォーマットをバスマスタおよびブロッ クモード転送として含む。SCSIバス70は、ディスクおよびテープのための低コス ト標準インターフェースを提供する。組み込みイーサネット68は、TCP/IPおよび DECnetTMネットワークへのアクセスを提供する。 シリコングラフィクスのIRIXTMカーネルは、対称共有メモリマルチプロセッサ を効率的かつ信頼性良く操作するように設計される。これは、各プロセッサが独 立にカーネルコードを実行できるようにするソフトウェアアーキテクチャを通じ て達成される。独立した実行によって、その上で実行されている処理による各 プロセッサの完全な使用が可能となる。カーネルデータ構造はロックおよびセマ フォーを介して保護され、データ構造と入出力経路とが共有され並列に使用され ることが可能となる。 B.低レベル同期 低レベル同期は、ハードウェアサポートされるスピンロックを通じて達成され る。各スピンロックは、資源の所有権を示すシングルビットフラッグへのアトミ ック(atomic)アクセスを提供する。ひとつのプロセッサによってロックが保た れている場合、他のプロセッサはビジーウェイトとなり、所有するプロセッサに よって解放されるまでロック上をループする。この形式の同期は、待ち時間が短 い場合、一般的には内容を入れ替えるのに要する時間より短い場合に非常に有効 である。 資源がさらに長い時間ロックされる場合は、セマフォーが代わりに使用される 。セマフォーは資源にアクセスするためのプロセスを順番に並べ、所有するプロ セスが資源を解放する時にブロック除去されるプロセスを提供する。 C.データ構造アクセス iノード、バッファ、またはプロセステーブル項目等の、全ての共有カーネル データ構造は、何らかの形式のロックを介して保護される。これにより、複数の プロセッサが、干渉無しに並列にデータ構造をアクセスすることが可能となる。 このロッキングは、全システムにわたって微調整されている。共有データ構造の 使用およびフォーマットは、必要とされるスピンロッキングの量を除去あるいは 最小にするように最適化されている。 マルチプロセッサカーネルの性能の重要な制限要素は、データ構造に起こり得 る争いである。完全に構成されたIRIXTMカーネルでは4000個のスピンロックが使 用される。ロックとセマフォーメータリングは、これらの同期ユーティリティが 有効に使用されることを保証するために使用される。 D.自己スケジューリングプロセッサ カーネルは、全てのプロセスについてシングル実行待ち行列(queue)を維持 する。各プロセッサは自己スケジューリングである。プロセスがブロックされる と、そのプロセッサは直ちに新しい仕事のための実行待ち行列をサーチし、他の プロセッサとの相互作用なしにディスパッチ(dispatch)する。各プロセッサは 、実行可能であり得るいかなるプロセスをも実行する能力があり、速い応答と自 動ワークロードバランシングを提供する。 E.入出力処理 カーネル72の入出力サブシステム(従来技術と表示される図4に示される)は 、各プロセッサが、ディスクドライバーのようなドライバーに独立にアクセスで きるように構成され、完全に並列処理化され、その結果さらに高い入出力スルー プットとなる。既存のドライバーの運搬性を向上するために、透明ドライバーロ ッキングスキームが組み込まれる。 F.リアルタイム性能特徴 カーネルにおけるトラップとシステムコール取り扱い経路74は、高度に最適化 されている。他のほとんどのUNIXを基礎とするシステムとは違って、例外条件取 り扱いは例外条件無しケースのために最適化されている。プロセッサはより迅速 に事象を取り扱うようにディスパッチできるため、自己スケジューリングプロセ ッサは追加のレベルの応答性を提供する。 システム実行待ち行列は、プロセス優先に基づくプロセス分類リストとして再 構成されている。これにより、ディスパッチングプロセスのための0(1)アルゴリ ズミック性能が提供され、これは複数のプロセッサが同時に実行待ち行列にアク セスし得る自己スケジューリングシステムにおいて非常に重要である。通常のUN IXTMスケジューリングは0(n)であり、nは実行可能プロセスの数である。 G.並列プログラミングサポート カーネルは、低レベル資源共有モデルを提供することによって並列プログラミ ングをサポートする。並列プログラミングは、オペレーティングシステムを押し のけプロセスがカーネルと独立に同期することを可能とすることによって、援助 される。システムコールはいかなるシステムにおいても高価であり、プログラマ が自らのアプリケーションで最高の性能を求めるならば、避けるべきである。 IRIXTMカーネルは、それらのスキーム(schemes)によって生じる追加のプロ グラミング負担無しに、スレッドまたはライトウエイトプロセスに類似の新しい プログラミングパラダイムを導入する。プロセス共有グループと呼ばれるこのパ ラダイムは("Beyond Threads: Resource Sharing in UNIX,"Winter 1987 USENIX Conference)、プロセスが、仮想メモリアドレス空間、ファイルディスクリプタ 、ユーザおよびグループID、ワーキングおよびルートディレクトリ等の多くの資 源を共有するのを可能とする。カーネル内では、仮想アドレス共有は、プロセス 間でカーネルメモリ管理構造を共有すること、およびこれらの構造にシンプルな ロッキングを提供することによって達成される。 他の資源も同様に共有され得るので、ネットワークサーバあるいは非同期入出 力ハンドラ(handlers)等の多くの洗練されたアプリケーションを、最小の労力 で構築することが可能である。 H.変換ルックアサイドバッファ同期 変換ルックアサイドバッファ(TLB)とは、仮想アドレスから、仮想メモリ処 理を高速化するためにプロセッサによって使用される、物理アドレスへの変換の キャッシュである。このキャッシュは、全てソフトウェアによって管理される。 ハード同期は、価格および性能の両面において高価である。IRIXTMは、全てのプ ロセッサにおける全てのTLBを分配された資源として管理する。(「マルチプロ セッサシステムにおける変換ルックアサイドバッファ管理」1987年冬USENIX Con ference Proceedings)。TLBフラッシングは、洗練されたアルゴリズムを通じて 最小限に押さえられる。コンテキストスイッチ(context switch)上のTLBフラ ッシングの通常のローパフォーマンスソルーションは、完全に回避される。 I.グラフィックスサブシステムサポート シリコングラフィクスのGTXグラフィックスサブシステムのサポートは、IRIX マルチプロセッサカーネルに組み込まれる。グラフィックスサブシステムは、要 求があればいかなるプロセッサからも駆動され得る。グラフィックスパイプへの アクセスは、ユーザアドレス空間へのパイプの直接マッピングを通じて達成され る。グラフィックスコンテキストスイッチングの管理は、全てカーネルによって 取り扱われる。 グラフィックスサブシステムは、フレームバッファへの直接のDMAが可能であ る。これは、DMA操作のためのユーザバッファの直接マッピングを通じてカーネ ル内でサポートされ、全てのデータコピーを回避する。 J.グラフィックスハードウェアアーキテクチャ 並列処理技術および50個の所有のグラフィックスプロセッサの使用を通じて、 シリコングラフィクスGTXアーキテクチャ(従来技術として図5に示す)は、ユ ーザが入力デバイスの直接の制御下で、リアルタイムで複雑な3次元イメージと 相互に作用するのを可能とする。 グラフィックスデータは、スクリーン上に表示される前に、4つのパイプライ ンされたサブシステムによって処理される: ・ ジオメトリサブシステム76 ・ スキャン変換サブシステム78 ・ ラスタサブシステム80 ・ 表示サブシステム82 ジオメトリサブシステム76は、32ビットまたは64ビットのグラフィックスデー タをスクリーン空間データに変換する。次に、スキャン変換サブシステム78は、 線およびポリゴンを画素データに細分化し、それらはラスタサブシステム80に与 えられ、そこでZ−バッファが隠れ面を除去する。ラスタサブシステム80は、画 素がイメージビット面またはフレームバッファに書き込まれる際に、画素対画素 基準で様々なブレンド作用をも行う。表示サブシステム82は、その後フレームバ ッファの内容をカラーモニター上に表示する。 1.ジオメトリサブシステム ジオメトリサブシステム76は、64ビットMPリンクバス84によってCPUサブシ ステムに接続される。このサブシステムは、スクリーン−空間データをスキャン 変換サブシステム78に送り出す前に、世界座標ジオメトリックデータに特定の変 換および照明計算を行う。ジオメトリサブシステム76でのグラフィックス処理は 、1秒間に100百万浮動小数点計算(MFLOPS)のグラフィックス処理能力を有す る直列構成の所有プロセッサである、ジオメトリパイプラインTMで行われる。 2.ジオメトリパイプライン ジオメトリパイプラインTMは、それぞれが1秒間に2000万浮動小数点計算( MFLOPS)の能力を有する所有プロセッサである、5つのジオメトリエンジン(GE )86、88、90、92、94で高度なグラフィックスコマンドを処理する。パイプライ ンのジオメトリエンジンのそれぞれは、ロードできるマイクロコードおよびデー タのためのローカルメモリを含む。 第1のジオメトリエンジン86は以下を使用する。 ・ 2次元および3次元の均一座標を回転、変換およびスケールする4×4座 標マトリクススタック、 ・ 表面ノーマルを変換する3×3通常マトリクススタック 第2のジオメトリエンジン88は照明計算を実施する。8個までの点一面照明; アンビエント(ambient)、拡散および正反射率を含む材料仕様;および照明モ デル情報をサポートする。照明計算の結果は、4個の8ビット赤、緑、青および アルファ値のカッドセット、あるいは単一の12ビットカラーインデックス(カラ ーインデックスモード)である。 第3のジオメトリエンジン90は、6−面バウンディングボックスに座標をクリ ップする。高速の受け入れ/拒絶のクリップチェッキングアルゴリズムは、ほと んどの場合、複雑なクリッピング計算の必要性を除去する。複雑なクリッピング が必要な場合、影響を受けた頂点は、第4のジオメトリエンジン92へ送られ、そ こで実際のクリッピング計算が行われる。第4のジオメトリエンジン92は、遠近 分割をも実施する。 第5のジオメトリエンジン94は、デプス−キュウ(depth-cued)されたカラー 値を計算し、全ての座標をスクリーン空間整数に変換する前に、カラーコンポー ネントを最大値にクリップする。 3.スキャン変換サブシステム ジオメトリパイプラインTMからスキャン変換サブシステム78へ送られるスク リーン座標は、点、線およびポリゴンの頂点を特定する。スキャン変換サブシス テムは、頂点データを個別の画素に還元するのに必要な計算を実施する。各画素 には、X,Y,Z座標とR,G,Bおよびアルファ値が割り当てられる。カラー データは、頂点間およびポリゴンのエッジ間で常に線形補間される。 スキャン変換ポリゴンのタスクは3段階で、それぞれは3つの専用のプロセッ サのひとつによって実施される: ・ ポリゴンプロセッサ96 ・ エッジプロセッサ98 ・ スキャンプロセッサ100 ポリゴンプロセッサ96は、入ってくるポリゴンの頂点を左と右に仕訳する。そ の後、保存された頂点は、スロープとZ,R,G,Bおよびアルファ値を計算す るのに使用される前に、台形の頂点に分解される。 エッジプロセッサ98は、頂点およびスロープ情報を使用し、X,Y,Z座標と 2頂点間に横たわる各画素のカラー値を計算する。これらの計算の結果はエッジ プロセッサ98によって使用され、1024個の画素の各垂直スパンに沿った全ての画 素のためのZ座標およびカラー値が計算される。 エッジプロセッサ98は、座標とスロープとを5つの並列スパンプロセッサ100 のうちのひとつに渡す。スパンプロセッサ0は0、5、10等のスパンを管理し、 スパンプロセッサ1は1、6、11等のスパンを管理する。ひとつのポリゴンから 生成されるスパンは常に隣接するため、スパン処理のロードは5つのプロセッサ に平均して分配される。 4.ラスタサブシステム ラスタサブシステム80は20個のイメージエンジン102〜140を含み、そのそれ ぞれは2次元セクションのインターリーブ(interleaved)パターンのスクリー ン上の画素の20分の1を制御する。ひとつのイメージエンジンは、65,536個のス クリーン画素を所持する;各画素は96ビットのデータを関連する。画素の96ビッ トのそれぞれは次のように組織される: ・ イメージビット面:バッファ(バッファは2個)毎に32ビットのR,G, B,およびオプションのアルファ情報;ダブルバッファされた32ビットカラー( R,G,Bおよびオプションのアルファ)、あるいはダブルバッファされた12ビ ットカラーインデックスモード操作をサポートする。 ・ デプス面:24ビットZ−バッファ ・ オーバーレイ/アンダーレイ面:4ビット ・ 窓面:4ビット ラスタシステム80の更なる特徴は、高速の画素書き込みおよび読み出しレート である。画素書き込みレートは、イメージモードで毎秒16百万画素である。これ により、ハードウェアが、フレームバッファから画素を読み出し、それらを複製 し、フレームバッファに再び書き込むことによって、リアルタイムのパンとズー ムとを実施するのを可能にする。 5.表示サブシステム 5つのマルチモードグラフィックスプロセッサ(MGP)142、144、146、148 および150は、イメージおよび窓面の内容を同時に読み出す。これらのMGPにより 、様々なカラーモードにおける64個までの異なる窓の同時表示が可能である。こ れにより、ユーザは基礎にあるカラー表示スキームを考慮する必要無しに、静止 および動イメージの双方を表示することが出来る。 GTXグラフィックスサブシステムは、オーバーラッピング窓環境、および単一 バッフアRGB、ダブルバッファRGB、単一バッファカラーインデックスおよびダブ ルバッファカラーインデックスカラーモードで、複数イメージを同時に表示する 。 (グラフィックスアーキテクチャに関する更なる情報は、シリコングラフィク スの「IRIS GT Graphics Architecture: A Technical Report.」を参照) K.グラフィックスシステムソフトウェアアーキテクチャ シリコングラフィクスのIRIXTMグラフィックスシステムソフトウェアは、グラ フィックスサブシステムを管理すると共に、グラフィックスデータをサブシステ ムに送達するための高速経路を提供する。 1.グラフィックスDMA GTXで可能なグラフィックスパフォーマンスを達成するために、オーダより 大きいデータが同時間内でグラフィックスシステムに送達されることが必要であ る。このデータ送達のひとつの重要な要素は、頂点を基本的作図プリミティブと して受け入れるグラフィックスハードウェアの最適化である。共にまとめられ、 頂点のセットは、ハードウェアが作図し適切なものとして埋めるポリゴンを記述 する。各頂点は、照明の位置、カラーおよびノーマル等の情報のいくつかを有し 得る。 各情報は、DMAトランザクションを通じてグラフィックスサブシステムに送達 され、それによりデータ移動と次の頂点のセットアップとの間のオーバーラップ が可能となる。各トランザクションは、通常4つの32ビットワードのデータを移 動する。これら4つのワードは、位置(<x,y,z,w>)、またはカラー( <r,g,b,a>)を記述するのに十分である。 このDMAトランザクションは、DMAエンジンをプライムするために単一ロード命 令を通じてプロセッサによって開始され、ユーザ仮想メモリの中の頂点のアドレ スへの保存命令が続く。これは、DMAトランザクションをじかに誘発する。これ により、ユーザのアドレス空間のグラフィックスデータの配置が完全に自由とな る。これら全てはグラフィックスライブラリ内で行われ、ユーザアプリケーショ ンに対して透明で、特別なコーディング技術を必要としない。 2.パイプアクセスおよびフィードバックエリア グラフィックスパイプは、フィードバックエリアと呼ばれるメモリの個別の 部分と共に、ユーザアドレス空間にマップされる。したがって、パイプは直接に (短いコマンド用)、あるいはグラフィックスDMAを通じて間接的に(高速作図 用)アクセスされ得る。さらに、グラフィックスを使った各プロセスは、そのア ドレス空間にマップされたグラフィックスと共に、専用の通信エリアを有する。 このフィードバックエリアは、照会結果、あるいはグラフィックスサブシステム との他の相互作用結果を戻すのに使用される。 3.グラフィックスコンテキストスイッチング グラフィックスサブシステムは、グラフィックスサブシステム内で16個まで のコンテキストを並列にサポートする。追加のコンテキストは、必要に応じて「 仮想コンテキスト」様式にて全体のグラフィックスハードウェアコンテキストを 交換することによって管理され得る。 カーネルコンテキストがグラフィックスハードウェアを使用してプロセス間を スイッチする際に、サブシステムに各ホストコンテキストスイッチを知らせ、そ の結果システム内で並列コンテキストスイッチとなる。 サブシステム内に現行のコンテキストを持たないグラフィックスプロセスは、 仮想アドレス空間からマップされていないパイプおよびフィードバックエリアを 有する。したがって、これらはグラフィックスアクセスされない限り、データを 実行および処理し続け得る。グラフィックスアクセスが試みられると、ページフ ォールトが発生し、プロセスがブロックされ、窓マネージャーは事象について通 知される。窓マネージャーは、その後必要に応じて、プロセスをハードウェアコ ンテキストにスケジュールすることができる。 4.カーネルグラフィックス管理 UNIXTM下のグラフィックス実施の多くは、グラフィックスサブシステムをた だのもう一つのデバイスとして取り扱い、全ての管理をユーザレベルで行うよう に強制する。このアプローチには、重大な欠点がある。例えば、ユーザレベルプ ロセスとグラフィックスマネージャーとの間の大規模なコンテキストスイッチン グが良く見られる。このアプローチは、一貫性のある集約されたグラフィックス サポートを困難に、あるいは不可能にする。 IRIXTMカーネルは、グラフィックス管理をカーネルの基本機能内に取り込む。 これは、多くのプリミティブグラフィックスサブシステムの単なる「テキスト出 力」ではない−−GTXグラフィックスサブシステムは、自ら単純なキャラクター セットを作図する方法を知っている。代わりに、グラフィックス操作を制御する ための洗練されたプロトコールがカーネル内へ埋め込まれる。パイプを除く、垂 直リトレース上のスワッピングバッファおよび他のコンディションは、ホストへ の中断となり、それらはその後ハイレベルプロトコールによって取り扱われる。 L.同時解析およびグラフィックス グラフィックスパイプラインへの高速アクセスを有し、共通のメモリを共有す るプロセッサを緻密に結合することによって、CPUとグラフィックスサブシステ ムとを同時に使用し複数のプロセスをサポートすることが可能である。グラフィ ックスハードウェアの所有は、競合するプロセス間で、コンテキストスイッチ毎 に割り当てることが出来る。ひとつのプロセスがグラフィックスパイプをアクセ スする間、他のプロセスは他のCPUおよびFPUをフルに使用することができる。 例えば、ひとつのプロセスが次のフレームを翻訳する間、他のプロセスが作図 する2プロセスアプリケーションを例に取る。解析は7組のCPU/FPUペアまでフ ルパワーで処理され、一方他のプロセスがグラフィックスパイプにフルスピード で前回のフレームを作図する。 M.並列処理のレベル 複数のプロセッサ内に線形スループット増加を提供するためには、システム内 のハードウェア並列処理を活用することが重要である。IRIXTMシステムでは、こ れはソフトウェア並列処理の3つのレベル、すなわちマルチスレデッドカーネル 、ユーザアプリケーション用のイクスプリシト(explicit)並列処理構成体、お よびデータディレクテッド並列処理FORTRANコンパイラを提供することによって 達成される。 1.マルチスレデッドカーネル シリコングラフィクスのPOWERシリーズシステムの心臓部は、ユーザおよび システム空間内でのマルチ処理の同時実行を可能とする、マルチスレッデッドカ ーネルである。 プロセスが実行されるのに適格となると、最初に使用可能なCPUがそのプロセ スを担当し、実行を開始する。以前にどのCPUでそのプロセスが実行されたかは 、 カーネルが、キャッシュおよびTLBヒットレートを最大化するためにプロセスを 以前のCPUにマッチさせるキャッシュアフィニティスケジューリングアルゴリズ ムを使用する限りにおいて、重要でない。 全てのCPUはグラフィックスパイプまたは入出力サブシステムへ同時にアクセ スすることができ、マスタ/スレーブよりもむしろ対称アレンジメントを提供す る。これによって、プロセスが入出力デバイスへアクセスする際にひとつのCPU から他のCPUへスイッチする必要が無くなる。 マルチスレデッドカーネルは、高帯域幅のシステムアクセスを提供する。プロ セスは、現在実行中のCPUのカーネルに入り、システムサービスを実施し、そし て戻る。個別のデータ構造(プロセスブロック、iノードテーブル、バッファ、 キャッシュ、等)は、複数のCPUが特定のコードを同時に実行できるようにセマ フォーされる。オペレーティングシステムの資源の争奪は、スピンロックとセマ フォーの使用を通じて規制される。 2.ユーザディレクティブ マルチ−スレデッドIRIXカーネルは、マルチ−ユーザおよび/または複数プ ロセス環境のスループットを増加させる継ぎ目のない方法を提供する。しかし、 単一プロセスアプリケーションのスループットも増加させることが望ましい。 これは、アプリケーションレベルスピンロック、セマフォー、共有メモリ、お よびダイナミックアロケーションのサポートを含むマルチ−プロセッシングライ ブラリ「リンプ(limbp)」を使用することで可能である。それは、最も良く使 用されるセマフォーされたライブラリルーチンを有する完全な「リブク(libc) 」も含む。 共有グループプロセスと無関連のアプリケーションとの間において、同期が可 能である。これにより、存在するマルチ−プロセスアプリケーション(例えば、 表示プロセスに話しかける解析プロセス)が複数のプロセッサを活用する迅速な 方法が提供される−「リンプ(libmp)」内のプリミティブを使用することによ り、それらの間に共有領域が形成され得る。(単純なプロデューサ−カスタマキ ュウ上を覆って)何らかの同期が必要な場合、スピンロックおよびセマフォーが 使用可能である。単純な同期では、共有メモリも使用でき得る。 この共有空間内に、新しいアレナマロック(arenamalloc())ライブラリコー ルと共にダイナミック空間を割り当て得る。したがって、パイプ、ソケット、ま たはファイル等の存在している通信メカニズムは、高帯域幅メモリメッセージン グスキームと交換することができる。 アプリケーションが単一の大きいプロセスの場合、共有グループを介して供絵 されるイクスプリシトなマルチスレディングが使用可能である。プロセスがスプ ロック(sproc)(2)システムコールを実行すると、共有グループが形成される。 あらゆる数のプロセス/共有グループメンバーを形成することができ、そのそれ ぞれは個別のプロセッサ上で実行される(プロセッサ数が上限)。 共通のアドレス空間およびファイルデスクリプタのおかげで、共有グループは アプリケーションの一部を並列に実行することができる。例えば、ひとつの部分 はデータ生成を実施し、一方他の部分はデータを表示する。前述のように、同期 は、メモリかリンプ(libmp)スピンロックまたはセマフォーかを使用し実施さ れる。マロック(malloc)、ペロー(perror)、およびプリントフ(printf)等 のライブラリルーチンは全てセマフォーされているので、共有グループメンバー はリブムプ(libmp)を使用してシステムサービスも要求でき得る。 3.並列処理コンパイラ IRIXTMカーネルは、MIPSコンパイラスーツに基づき、洗練されたプログラム 開発環境をサポートする。マルチ言語フロントエンドが各言語を共通の中間形式 に変換し、それらはその後共通ツールによって最適化およびコード生成のために 処理される。 MIPSオプティマイザは、いくつかのレベルの最適化を提供する。他のシステム のように、局所的最適化およびパイプラインスケジューリングは容易に実施され る。追加の大域的最適化および手続きインライニングもまたサポートされ、それ によりプログラマは非常に高い性能レベルを達成できる。 FORTRANフロントエンドの上にはPOWER FORTRANアクセラレータが積層される。 データフローアナライザは、並列化FORTRANを作り出すために最も洗練された入 手可能な解析ツールである。そのアウトプットは、オリジナルのアウトプットフ ァイル内に散在する並列化ディレクティブである。これらは、並列化ディレクシ ョンを含む適切な共通の中間コードを生成するFORTRANフロントエンドによって 認識される。共通のコードジェネレータは、その後、オペレーティングシステム スレッドサポートおよびハードウェアロックを直接利用する並列化されたコード を作り出す。 自動アナライザがコードを安全に並列化できない場合、もしプログラマがコー ドの一部が本当に安全に並列化できることを知っているなら、ユーザはそのコー ドにイクスプリシトに並列化のディレクティブを追加することができる。使用さ れるディレクティブはアナライザが使用するものと同じであり、したがって共通 の処理工程で同等に扱われる。 並列処理ライブラリは、共有アドレスプロセス、セマフォー、スピンロックお よびバリアのためのサポートを有する。完全にセマフォーされたスタンダードC ライブラリは、並列処理の手続きレベルモードのためのソフトウェアサポートを 完成する。 この方法の結果、並列化されたコードのパフォーマンスをさらに向上するため にオプティマイザを直接使用することができる。他の言語を並列化する技術が入 試可能となったとき、それらはコンパイラスーツに容易に追加でき、既存の並列 プログラミングサポートを排除する。 N.入出力スループット 主入出力−−SCSI、イーサネット、およびVME−−のためのインターフェース は、カーネルへの並列インターフェースを提供する。複数のドライバは、異なる 入出力サブシステムと同時に話ができる。異なるデバイス(VME上の各デバイス を含む)からの割り込みは異なるプロセッサへルートとされ、割り込みサービス もまた分配される。 複数プロセッサの入出力アクセスは、最新のディスクコントローラと組み合わ され、それぞれがフルのトラックキャッシュ、オーバーラップしたシーク最適化 、ディスク分類を有するコントローラ当たり4つまでのディスクを制御する。こ れは、IRIX EFSファイルシステムと組合わさって、ファイルシステム(SMDディ スクドライブを使用)を通じてコントローラ当たり2000キロバイト/秒までを提 供 する。単一のSCSIディスクドライブのみを使用してさえも、ファイルシステムス ループットは1000キロバイト/秒を上回る。 ネットワークは、アクセスがVMEアダプタへのアクセスとは完全に独立してい る集約的イーサネットアダプタを介してサポートされる。カートリッジテープお よび低速ディスクに有効なSCSIアダプタもまた他の入出力活動とは独立している 。 ページスキャター−ギャザーDMAをサポートしないVMEバス上のデバイスは、集 約的ハードウェアページマップを使用することによって、高速コントローラとし てなお利用することができる。入出力デバイスからの読み出しをさらに高速化す るために、ハードウェアは、読み出し要求によって「古く」なるキャッシュ内の データを検知し、無効とする。これにより、オペレーティングシステムが高価な キャッシュフラッシュを行う必要を除去する。シリコングラフィクスのIRIXTMオ ペレーティングシステムは、AT&TシステムV UNIXTMリリース3.1をベースにして いる。このバージョンのV UNIXTMは、相当セットのプログラマとユーザの双方を 容易にサポートする特徴を有する。これらの特徴に加え、好ましい実施態様のシ ステムの価値をさらに高めるために、以下の機能が加えられた。 O.並列プログラミングサポート マルチプロセッサの利点をフルに活用するためには、使いやすく強力な並列プ ログラミングモデルが必要である。これは、新しい機能のいくつかのレベルを通 じて達成される。 プロセス共有グループは、スレッド型のスキームの利点を有し、重荷を有しな い軽量の処理機能を提供する。Cライブラリの並列化バージョンはスレデッドプ ロセス用に使用可能であり、通常の入出力およびマロック(malloc())のような 良く使用される機能が使用可能でありかつ期待通り働くことを保証する。アリー ナベースのメモリ割り当てがサポートされる。 カーネルインタラクション無しに働くロッキングおよびセマフォープリミティ ブは、並列Cライブラリに含まれる。これによって、カーネル機能を呼び出すこ とに対するパフォーマンスペナルティが回避される。プリミティブは、複雑なマ ルチスレッドアプリケーションでの問題の追跡を容易にするためのデバッギング サポートを含む。さらに、アプリケーションを微調整するためのセマフォーおよ びロックの使用および争奪を決定するために、メータリングが可能である。 P.リアルタイムプログラミングサポート IRIXTMの特徴のいくつかは、高速インタラクティブ制御アプリケーションのサ ポートを提供することである。 非劣化優先順位は、システムの他のプロセスに関連して、プログラマがそのア プリケーションの優先順位を正確に制御する方法を提供する。標準UNIXTMスケジ ューリングパラダイムに関連する通常の問題は避けられ得る。 高精度タイミングは、バークレーアイタイマ(Berkeley itimer)に基づいた 信号ベースのタイマ機能を通して得られだけでなく、1ミリ秒の精度の時間報告 機構を通してサポートされる。 ファイングレインメモリロッキングによって、プログラマは、臨界コードまた はデータをメモリに確実に常駐させることが可能である。 マップファイルおよび装置は、ファイルまたは物理装置があたかもプロセスア ドレススペースの一部であるかのように、プログラマをそれらにアクセスさせる 。複合ファイル操作は簡略化され、装置はアクセスされ、ユーザレベルから直接 管理され得る。 Q.バークレー特徴 BSD4.3の多くの特徴は、IRIXTMにおいてサポートされる。ジョブ制御、4.3ネ ットワーキング機能、および多くのバークレーコマンドがサポートされる。プロ グラマに対しては、BSD4.3システムコールは、システムVセマンティクスと矛盾 しないところでサポートされる。 R.言語サポート IRIXTMは、VMS拡張、パスカル、ADAおよびPL/1を有するC、FORTRAN 77をサポ ートする。このサポートは、dbxのマルチプロセスバージョンに基づいたマルチ プロセスグラフィックスデバッガエッジと統合される。このデバッガはまた、任 意 の実行プロセスへの到達を可能にする。これは、デバッギングデーモン(demons )に都合がよい。多くのプロセスは、たとえ関連がなくとも、単一なセッション でデバッグされ得る。 以下、本発明の説明、特に、本発明のデータ保存および取り出しモジュールの 説明に戻る。このモジュールに保存されたデータは、すべての自然オブジェクト に対するイメージファイル、聴覚特徴ファイル、および触覚データファイルを含 む。モジュールには、特別に設計され、特定のアプリケーションに用いられるこ とを目的としたユニークアイテムのイメージ、聴覚、および触覚データがロード されている。例えば、これに関しては、システムユーザによってモデル化される 原型は、ユニークアイテムと見なされ得る。そのユニークな特徴は、特にデータ 保存モジュールに入力され、選択された環境条件下での原型のユーザ調査を可能 にする。その出力をディジタル化する3次元レーザスキャナは、ユニークアイテ ムに関するデータ入力の最も効率的な手段である。現在、我々は、装置をオブジ ェクトの周囲上を移動することによって、オブジェクトの面または全表面のベク トル化3次元入力を行うための、小サイズから40フィートサイズのオブジェクト 用の3次元スキャナおよびリーダを企図している。これは、移動式で、ワゴン車 または他の乗り物に搭載される。 合成環境の生成に用いられる他のカテゴリの保存データは、プリミティブイメ ージベーシックモデルである。このデータファイルは、保存、生成、および処理 されたイメージの計算処理に関連するベーシックポリゴン、フラクタルおよびレ イトレーシング情報を含む。このファイルのサブカテゴリは、予め処理されたイ メージデータ、例えば、自然に発生するオブジェクトの予め計算された色および テクスチャデータを含むサブプリミティブイメージ原理であり得る。 合成環境モデリング出力の生成の処理/計算局面において用いられる他のデー タカテゴリは、物理、自然法および物理特性である。コンピュータイメージング に適用されている光の物理に最も良好なインターフェーシングモデルは、Pixar 、SanRafael、Californiaから得られるPixar RenderMan interfaceである。この ソフトウェアパッケージは、速度およびオブジェクトのコードサイズが主要な制 約であるグラフィックスプログラミング規則に簡単に適合され得る種々の光源お よ び条件のプリミティブを提供する。 同様の物理動作/グラフィックスインターフェースは、モーションおよびサウ ンドを処理するのに使用される。動画パイプラインが一旦確立されると、開始お よび停止モーション、その中間(in-betweening)ならびに衝撃によるオブジェ クトの変形は、予め選択されたパラメータに基づいて計算される。サウンド次元 では、物理法および特性情報の重要性は、古典的な例:反対方向に移動する第2 の自動車から聞こえる自動車の警笛音より最も良く理解され得る。周囲ノイズ、 雰囲気、圧力およびサウンドイメージに対するドップラー効果の蓄積された衝撃 は、合成出力において正確なイメージを形成すると定義されなければならない。 システムは電磁スペクトル全体からの放射線を含み、相対性の物理を用いる実 験の可能性を提供するため、非ユークリッド幾何学にインターフェースが必要で あるように、これらのアプリケーション用にカスタマイズされたインンターフェ ースも必要とされ得る。これらのインターフェースは、科学的な専門知識および 効率的なプログラミング規則の長期にわたる合成を伴う。 予め定義された手法を呼び出す代わりに、AutoLispからAutoCADまたはBorland Prolog、からTurbo Cへ統合するように、人工知能からのリストをベースにした アプローチを「C」環境に統合することが可能である。 公共的にアクセス可能な科学データベースへのモデムによって、プログラマは 、実際のインタラクティブ環境モデリング前に、開発セッション中にプログラマ が形成している環境の現在の物理データを引き出すことが可能である。得られる すべての計算された物理データの参照データは、プログラマが、特定および一般 的な環境条件の計算においてデータを必要とするときに、視覚メニューから呼び 出されるようにディジタルライブラリに保管されている。Wavefront Software( Santa Barbara,CA)は、このアプリケーションに有用な有意義な視覚物理パッ ケージを提供する。 この保管されたデータのすべてを有効に利用するために、本発明のデータ保存 および取り出しモジュールは、データ圧縮ソフトウェアを用いる。ラスタイメー ジデータは、ソフトウェアを用いるよりも速度の低下が少ないハードウェアを用 いて圧縮される。しかし、非現実的な保存需要と、圧縮/圧縮解除時間との間に トレードオフがある。ドキュメント走査用に設計され、本発明に適合し得るソフ トウェアは、OPtigraphics Corporation、San Diego、CAから入手可能である。 フラクタルラスタイメージは、BarnsleyおよびSloane、Byte 1988年1月によ って示されるように、10,000対1以上の圧縮比を成し遂げる繰り返し機能システ ム(IFS)コードとして保存され得る。IFSイメージ合成器は、迅速な符号化およ び復号化を成し遂げるのに必要である。Iterated Function Systems,Inc.,Atl anta,GAは、このような合成器を提供する。ベクトルデータベースは、そのより 豊富なプリミティブおよびより小さなサイズのために、2対1と10対1との間の 圧縮比で、MS-DOSにおけるアーカイブ圧縮コマンドおよびプロセスに類似した公 的ドメインプログラムであるPKARCにおいて見いだされるようなソフトウェアル ーチンにおいて最も効率的に処理され得る。 これらの圧縮方法は、大記億のみに許容され得る。十分な主要メモリまたは仮 想主要メモリは、システムユーザセッション中に十分なシステム応答を成し遂げ 、データベース全体を処理するのに必要であり得る。 データファイル管理システムは、保存および取り出しモジュールシステムアー キテクチャの他の重要な特徴である。Unix階層的規則に基づく大記憶ファイリン グシステムおよび共通ライブラリ分類システムは、データファイル編成を始める のに最も単純で最も簡単な方法である。データ主題の広い分類は、デューイ10進 システムを手動または機械でエミュレートすることによって維持される。ワーク ステーションプラットフォームにおけるアイコンツールは、実質的なデータ入力 の作業をセーブするユーザインターフェースを提供するのに非常に貴重である。 さらに重要なことに、この構成では、主に以下に説明するビジョンシステムおよ び触覚モジュールによって合成ワークステーションを動作した状態で、システム ユーザの手に全システムの完全なポイントアンドクリック機能を与える。 MacのHyperCardは、データファイル管理の優れた基本的代替手段である。なぜ なら、HyperCardは、セッション中常に他の材料とリンクした多くの異なる種類 のデータをインタラクティブに処理するからである。HyperCardが利用するハー ドウェアとソフトウェアとの統合は、実質的なプログラミング作業を必要とし得 るが、十分にトレードオフにもなり得る。なぜなら、プラットフォームコストが 低下し、また特に教育における非プログラマ開発者によってこの技術が受け入れ られやすくなる可能性があるためである。Macへの増設ボードまたは周辺機器へ の高速接続による高品質イメージングおよびサウンドのサポートを仮定すると、 大半のマイクロコンピュータシステムは、ターゲットシステムにおける基本的な 主題の第2ソーシング(sourcing)に対する最も明確な機会を示す。この方面にお ける他の可能性は、Project Xanadu、San Antonio、TXからのハイパーテキスト モデル(hypertext model)である。その創始者である、Theodor H.Nelsonは、Byte 1988年1月において、オリジナルの出所と、その後の改変との関連を維持 しながら、テキスト、グラフィックスまたは他の機能のシステムについて記載し ている。 妥当なデータファイル管理の背後にある基本的な原理は、特定のシステムユー ザセッションに必要な公知の要素が、ユーザセッション前の一次システムメモリ にレイアウトされていることである。結果として、システムは、全システムデー タファイルライブラリにアクセスし、ユーザセッションに必要なデータを見つけ だして処理する必要はない。 他のサブシステムの中には、データ取り出しおよび保存モジュール内に含まれ るものもある。立体知覚二重コンピュータは、以下に記載するように、環境モデ リングモジュール出力の一部である。このコンピュータは、単一なイメージポン プまたは超CRTと接触する前に、すべての視像データに対して二重イメージ重ね 動作を起動させる。この構成要素は、3次元オブジェクトのベクトルを検出し、 わずかに異なるビューから2つの2次元出力を生成する。この構成要素は、上記 のように、高性能ワークステーション内に保存され、処理される。ステレオグラ フィックス(San Rafael、CA)およびテクトロニクス(Tectronix)は、オフセッ ト信号から3次元イメージを得るために、モニタと共に用いられる順次オプトメ カニカルシャッタ装置を提供する。 本発明のデータ保存および取り出しモジュール用自動バックアップデータ保存 システムは、不注意によるデータの損失を避けるために提供される。好ましい実 施態様において、我々は、光ディスクを用いて5分間毎にデータをバックアップ する。電子バブルメモリは、この自動バックアップアプリケーションに受け入れ られる。 本発明のデータ保存および取り出しモジュールの他の重要なサブシステム構成 要素は、ACSIIデータ、ならびに変換された位置および動き走査ベクトルデータ を受け取る位置付けおよび動き標準化データソフトウェアである。このサブシス テムの目的は、ユーザ位置および動き走査データのすべてを、(ユーザセンサモ ジュールで以下に記載のように)単一なファイルフォーマットに変換することで ある。現在、我々は、すべての関連データを、VECT.XFRと呼ばれる我々自身のフ ァイルフォーマットでASCIIにおいてベクトルコードに翻訳する。プログラムは 、ベクトルデータを探し、各グループ毎に識別コードを有するように、ファイル 内の連続したスペースにそれらを書き込む。 各センサは現存アドレスを有し、このアドレスは、次のセンサアドレスへの隣 接に関連してシステムによって知られる。すべてのセンサがセンシング環境にお いて動き回ると、それらの位置ベクトルは、コンピュータによって、イメージチ ェックモニタ上を移動するのが見られる。センサの隣接アドレッシングは、位置 データ全体を確認するのを助ける。なぜなら、ソフトウェアおよびシステムは、 人型(図6の「モデル」)が、デフォルトガイドラインに対する仮定をダブルチ ェックしているおよびダブルチェックし得ることを知っているからである。 本発明のデータ保存および取り出しモジュールの一部を形成する他のサブシス テムは、イメージ前設計データ処理アレイである。これは、予め選択した環境、 前セッション開発ワークの一部のシステムに情報を書き込むことを含む。この特 徴は、システムの現存ライブラリを用いて、必要データを引っぱりだし、即座に アクセスできるモードにそのデータを保存する。ユーザセッション要素のすべて は、アーキテクチャウォークスルー(architectural walkthrough)のように、 予め設計され得る。しかし、「paint your own universe」アプリケーションの ように、セットアップなしでユーザセッションを開始することが可能である。 イメージは、Wavefront's ADVANCED VISUALIZERTMからのグラフィックスプリ ミティブまたは我々自身の3次元ベクトルシェードイメージソフトウェアを用い ることによって予め設計される。ベクトルポイントおよびスキャンインデータは 、この構成要素によって、写真実物像またはライブラリ保存用の圧縮アーカイブ イメージに絶えず細部描写される。予め設計されたイメージは、ハードドライブ 、WORMドライブおよびテープカートリッジに保存され得る。第1段階利用者準備 モードにセットインされている予め設計されたイメージは、システムハードドラ イブ上に配置される。上述したワークステーション保存システムおよび磁気バブ ルメモリは、所望の保存モードであり得る。データは、我々自身のファイルフォ ーマット内のワークステーションから取り出され、必要に応じて、ワークステー ションフォーマットに翻訳される。好ましい実施態様において、我々は、3次元 イメージモデリングおよびWavefront(Santa Barabara、CA)から入手可能な動 画構造ソフトウェア、ADVANCE VISUALIZERTMを用いる。イメージファイルは、カ スケードプログラミングソフトウェアに応じて処理されるため、イメージファイ ルは、他のシステムの発生を合図することが可能である。本発明のデータ保存お よび取り出しモジュールは、インタラクティブスループットイメージおよびサウ ン ドプロセッサを含む。このプロセッサは、ユーザが視覚入力装置を通して観察し ているときに、ユーザの身体の一部を生成イメージに配置するように設計されて いる。換言すれば、ユーザは、生成イメージ内にその手があると、視覚出力にお いてその手を見ることが可能である。このソフトウェアは、グラフィックユーザ インターフェースを用いても駆動される。このソフトウェアは、ユーザに合わせ て「つくられた」人型ベクトルモデルを用いる。ウェーブフロントソフトウェア (Wavefront Software)は、このアプリケーション用グラフィックスプリミティ ブを提供する。我々は、我々自身の3次元ベクトルシェードイメージソフトウェ アを開発した。このユーザーミラー体は、ベクトルおよびシェーディングシステ ムによってイメージ化され、観察される環境ベクトル全体に対して正しい相関関 係で現れる。隠線消去は、ユーザーミラー体、またはその一部が占有する同一の スペースから背景イメージ要素を見えなくするソフトウェアによって行われる。 下記のユーザの位置および動きセンサは、この構成要素に命令して、ユーザの身 体が動くのと同様にミラー体を移動させるデータを提供する。ソフトウェアベク トルは、イメージ内のすべてをチェックし、1つの要素が何かと衝突すると、そ の要素または複数の要素が透明となるように設定されていない限り、停止するこ とを確認する。この構成要素はまた、カスケードプログラムデータシーケンスを 見て、マスタユーザーミラーベクトルおよび一次カスケードデータに対して所定 時に、環境に適切なサウンドシーケンスを動作させる。 図6は、インタラクティブスループットイメージおよびサウンドプロセッサの ブロック図である。センサ152、154および156(ユーザセンサモジュールにおい て、以下にさらに十分に説明する)は、3次元マトリクス内のユーザの身体の位 置および動きに関する情報を得るために用いられる。次に、このデータは、ベク トルおよびシェーディングシステム、モデルブロック158、160および162によっ てユーザーミラー体を形成し、モデル化されたユーザーミラー体が感知されたユ ーザ体が移動するのと同様に移動することを確実するために使用される。次に、 この結果は、ユーザセッション中に、(カスケード関連サウンドおよび触覚イメ ージだけでなく)適切な視像を生成するのに用いられ得るデータに変形(ブロッ ク164、166および168)される。この変形データは、Z−バッファ170、172およ び174で保存され、そこで、データは、他の合成環境要素と組み合わされ、シス テムユーザ176に表示され得る。 図7は、わずかに異なる実施態様のブロック図である。異なる点は、ユーザの 位置および動きデータを決定するためにビデオカメラ178および180が用いられる ことである。(これに関しては、ユーザセンサモジュールで、以下にさらに十分 に説明する。)位置および動きデータは、高コントラストビデオイメージを用い て周囲データを消去することによって得られる(ブロック182および184)。ビデ オイメージデータは、粗にされ(ブロック186および188)、ユーザデータポイン トの位置および動きに関する情報のみを残す。データは、ブロック190でベクト ル化され、ブロック192で変形され、Z−バッファ194に保存される。次にデータ は、他の合成環境要素196と組み合わせられ、ユーザーミラー体は、表示198の一 部を形成する。 「モデル」の特徴は、すべての形状および年齢の保存されたアーカイブ男性お よび女性の身体部に基づいた身体の一部の動きおよびイメージを予想することに 関する。特定のユーザがまずシステムを使用すると、そのユーザは、ミラー体に 「フィット」され、情報は、ユーザのシステムインタラクティブセッション中に 保存され用いられ得る。他の一次視覚要素のように、ミラー体は、ワイヤフレー ムから、ユーザミラー−体要素が視界に入るとき前景および背景データが適切に 消去されたシェードイメージから高密度イメージへと形成される。ユーザミラー 体ファイルはまた、反射光および他の予想可能な環境インタラクションに影を投 げさせるアトリビュート表記法を搬送する。 最後に、データ保存および取り出しモジュールを保護するために、パワーコン ディショナ、サージ保護およびパワーバックアップが提供され、モジュールへの 損傷を防止する。 II.ユーザセンサモジュール 本発明のシステムの次のモジュールは、ユーザ位置および動きデータを検出し 、その情報を環境モデリングモジュールに伝送するように設計されたユーザセン サモジュールである。このデータは、本発明による合成およびアブソリュート環 境 の生成および処理に用いられる。ユーザ位置および動きデータの迅速な決定、伝 送、および処理により、本システムとの相互作用におけるユーザの経験の現実性 が高まる。 センサモジュールの複雑さのレベルは、システムの予想アプリケーションに直 接関連する。例えば、ユーザの手の位置、動き、湾曲および伸張のみに関する情 報を用いて、最も簡単なレベルでシステムを使用することが可能である。アプリ ケーションスペクトルの他方面には、さらに複雑なセンサシステムを必要とする 全身の位置、動きおよび健康遠隔測定法センシングがある。 ユーザセンサモジュールの1つのアンビリカルのない実施態様において、グロ ーブ、ブーツおよびヘッドピースを含む特別に形成された全身スーツは、壁、天 井および床を有する3次元チャンバにおけるユーザの位置および動きをモニタす るのに用いられる。この全身スーツには、ユーザがシステムと相互作用する3次 元チャンバの壁天井および床内にある受信機に無線周波数を介してユーザの位置 データを伝送する複数の6軸ポジショナが備えられている。商業上入手可能なPo lhemus6軸位置センサ(McDonnell-Douglas)は、このアプリケーションに適切 である。6軸ポジショナセンサ装置に加えて、ユーザの身体の一部の、他の部分 に対する動きモニタするために、電磁および音波近接センサがスーツに導入され る。これらの近接センサは、スーツのグローブの手のひらに適合する超小型フィ ードバックセンサである。各ハンドポイントには、小型出力スタッドが設けられ ている。 これらのアンビリカルのない近接センサは、好ましくは音波または赤外波を用 いる。光子ビームは、走査モードでのみ使用され得る。これらのソースはすべて 、身体の一部から他の部分への近接変化が測定可能な身体の動きをすべてモニタ し得る。フィードバックループは、チャンバの周囲にある送信機からセンサおよ び送信機から受信機への、赤外線およびFMラジオ信号を介したブロックである。 他の実施態様において、センサは、センサからエネルギーパルス(光または音) をピックアップする。パルスの周波数は、センサおよび送信機が近接するにつれ て増加する。 この時点で、多重システムユーザの複雑さが増すと、ユーザ位置の検出だけで なく近接センサ設計にも影響が与えられる。なぜなら、センサは、異なるデータ ポイントまたは異なるユーザを容易に区別することができないからである。この 場合、いくつかのまたはすべてのユーザは、ユーザの位置および移動データを分 けておくために、アンビリカルを有するシステムを用いなければならない。 この第1実施態様において、スーツヘッドピースは、ヘッドピースの前中央に 設けられた、視角入力装置用ピッチ、ロールおよびヨーポジショナフィードバッ ク装置を有する。ピッチ、ロールおよびヨー装置はまた、この他の情報に対する 必要性に応じて、スーツの他の位置に設けられ得る。 本実施態様において、Polhems装置は、ユーザの頭のピッチ、ロールおよびヨ ーを測定するためにヘッドピース上で用いられる。我々は、これらの装置は、デ ィベロッパワーク以外のワークには物理的に大きすぎると思う。なぜなら、デー タ伝送は非常に遅く、その解像度は十分には高くないからである。好ましい実施 態様において、1秒間に最小100個の位置でASCII型コードの6軸相対ベクトル情 報を伝送するために、軽量なケーブルレス装置が提供される。チャンバ壁におけ る受信機ユニットへの初期伝送は、赤外線を介してである。 好ましい実施態様によると、スーツは、ユーザの足用に特別に設計されたブー ツと共に用いられ、このブーツは、3次元チャンバ床内のアンテナグリッドに設 けられた受信機に位置および動きデータを伝送する周波数発生装置を含む。 ユーザの位置および動きセンサモジュールの第2の実施態様において、ユーザ は、チャンバの壁、天井および床に配置された電磁放射源および受信機と相互作 用するセンサポイントが設けられたカラーボディウェアを着用する。このスーツ は、前記の実施態様に用いられるスーツよりも着心地が良く、じゃまにならない 。赤外線および紫外線周波数のリモートスキャナは、スーツのデータポイントを 追跡する。この収集技術は、ユーザの全体的な動きを測定するのと、ユーザの身 体全体に対する手足および指の動きを測定するのに効果的である。スーツデータ ポイントは、反射物、光源および音源である。レーザレンジ発見装置もまた使用 される。チャンバの壁、床および天井のアンテナグリッドは、チャンバにおける ユーザの実際の全範囲のスペースの重畳座標データを提供する。位置および動き データを収集するためにモアレ干渉計および音波インパルスもまた使用される。 ユーザセンサモジュールのこの第2実施態様において、位置および動きデータ は、少なくとも2つの個別のモード(個別の電磁放射信号)で収集され、次に、 2つのモードは、補助マトリクス(comatrix)平均され、位置および動きデータ の単一なファイルを環境モデリングモジュールに与える。本発明のこの局面を実 施する技術が存在する。光ファイバ的に配線されたスーツが、次に検出され得る 多重光ポイントを生成するのに使用される。ここでは、7X7も使用され得るが、 変形マトリクス(図6において164、166および168、ならびに図7において192で 示される)は、4X4である。 本発明の第3の実施態様によると、CCDカラー、白黒、および赤外線ビデオカ メラは、ユーザ位置および動きを検出するのに用いられる。ユーザのスーツ上の 光またはカラーポイントを走査するために、異なる電磁放射線周波数で複数のカ メラを用いることが好ましい。この位置および動きデータのラスタ変形の基礎は 、「Projection Transform Points ln a Coordinate System n into a Coordina te System of Dimension n,」Pavlidis、Theo、Algorithms for Graphics and I mage Processing 、Computer Science Press,1982に見いだされる。2次元ラス タ走査において、サンプリングは、通常1画素当たり1:1で行われる。3次元 空間において、ボクセル(voxel)は以下のようにスケールされ得る:ビデオ(C CDカラー、白黒または赤外線)出力装置のスクリーン座標にマップされる世界座 標システムを仮定すると、ラスタによって分割されるシーンにおけるユーザの位 置で有力な全体値を用いてサンプルサイズを決定し得る。このラスタ/ベクトル 合成方法は、ユーザへの侵入性が最も低いという利点を有する。このプロセスが どのように全システムに統合され得るかの概略は、図8に示される。 このラスタ変形プロセスの局面は、ビデオデータを粗にするために、高コント ラストイメージング、それに次いでイメージ処理を用いることである。図7のブ ロック182、184、186および188を参照のこと。この粗にするプロセスは、重要で ない周囲情報を除去し、有用なセンサポイントのみを残す手助けをする。 図8を参照すると、(ブロック200からの)ユーザ情報は、X-シュート202、Y- シュート204およびZ-シュート206からの単一な軸位置および動きデータと共に組 み合わされる。この情報は、ANDブロック208で組み合わされ、粗にされ、処理さ れる。このデータは、次に、表示モード212で用いられるようにMat210にフォー マットされる。ビューパイプ214は、単一な出力モードの生成および処理のため にユーザミラー体(上記を参照)と組み合わせられた環境要素の残りの部分を提 供する。 ユーザ健康情報は、応答の科学的研究のために用いることも可能であるが、通 常、生成された環境に対するシステムユーザの応答をモニタするために得られる 。情報は、不都合に対する目的で維持され、通常、ユーザが生物的に過度な反応 を起こしたときにのみ警報を伝えるように設定され得る。ユーザ健康情報は、通 常、環境モデリングモジュールに伝送されないので、通常、生成された環境の計 算処理にはとどまらない。健康情報は、身体ピックアップを介して感知され、赤 外線周波数を介してチャンバ壁の受信機に伝送される。 ユーザセンサモジュールのこれらの実施態様のすべては、非侵入的で、わずら わしいアンビリカルを必要としない。 ユーザセンサモジュールの構成要素は、3次元チャンバ自身である。図1の14 を参照のこと。センサとの釣り合いから、このチャンバは、多数の周波数で動作 する生物学的に安全なコヒーレントおよび非コヒーレント電磁スペクトル走査グ リッドで満たされている。チャンバは、物理的に、モジュール方式であり、種々 のアプリケーションに適合するように構成および再構成され得る正方形の金属フ レームワークで形成されている。モジュールは、6フィートから20フィート正方 形のサイズの範囲であり得る。モジュールは、講堂または体育館サイズの部屋に 取り付けられるように複数で提供され得る。 本発明の他の使用には、人間にとって非常に危険、小さすぎるまたは遠すぎる アブソリュート(現存)環境に関するデータを収集するリモートプローブの使用 が含まれる。例えば、患者の生理機能に関する情報を収集するためにリモート顕 微手術用プローブが用いられる。リモートプローブはまた、実際の人間の接触に は危険過ぎる物理的領域、例えば、海中または原子力発電所などを探索するため にも用いられ得る。これらのリモートアブソリュート環境に関する情報は、次に 、システム装置の残りの部分に無線伝送される。生成バージョンのアブソリュー ト環境におけるユーザは、次に、リモートロボットを駆動し得るシミュレートさ れ たプローブを操作し得る。 リモートプローブは、チャンバ内のユーザの位置および動きによって制御され る。ユーザがチャンバ内で頭を回せば、プローブも同様に回る。生成された合成 およびアブソリュート環境のフォトリアリズム的な精度は、ユーザに3次元視覚 および聴覚出力を提供し、ユーザにプローブがユーザ自身であるように感じさせ る。リモートプローブは、ネットワーク内のユーザからプローブへの静止衛星ト ランスポンダ、光ファイバ遠距離コミュニケーションライン、マイクロ波ビーム および他のシステムを介してチャンバおよびシステム一次制御モジュールと連絡 し、ユーザに入力およびユーザから出力されるすべての信号を1つのプローブま たは複数のプローブへリアルタイムでリンクする。 III.環境モデリングモジュール システム環境モデリングモジュールは、その入力として、予め選択されたイメ ージファイル、サウンドファイル、触覚ファイルならびに物理および自然の適用 可能な自然法に関するデータを用い、合成およびアブソリュート環境、オブジェ クトおよびユーザが観察するインタラクティブなユーザの身体部分のリアルタイ ム生成を提供する。上記のデータ保存および取り出しモジュールは、フォトリア リズム的な視覚イメージおよび他のユーザ刺激を描写し得る高パワーなワークス テーションならびにペインティング、モデリングおよびスカルプティングソフト ウェアを含む。これは、データ保存および取り出しモジュールの一部であり、デ ータ保存および取り出しモジュールに保存される環境モデリングモジュールの固 有の特徴であるため、大抵の環境モデリングモジュールは、すでに上述した。特 に、立体知覚二重化コンピュータ、プリミティブイメージベーシックモデルファ イル、位置付けおよび動き標準化データソフトウェア、イメージ前設計データ処 理アレイおよびインタラクティブスループットイメージおよびサウンドプロセッ サを参照のこと。 環境モデリングモジュールの1つの局面は、Silicon Graphics’POWER Series workstationsによって提供されない、触覚感覚出力である。我々は、触覚情報 が、観察される合成環境において視覚要素からカスケードプログラムされる書き 込み ソフトウェアを持っている。視覚要素のベクトル表面グラフは、ユーザによって 選択される。この表面のベクトルは、シェープウォール(shapewall)ハードウ ェア内の画素アドレス指定されたポイントに翻訳され、必要な触覚表面パラメー タを設定する。環境は、ユーザセッションに必要なすべての要素の3次元コンピ ュータ動画ファイルの前ユーザセッション形成に基づいてモデル化される。ユー ザセンサモジュールは、ユーザの動きおよび位置に基づいて、可変トレッドミル に適切な速度および圧力、ならびに空気の速度を決定する。FM無線周波数信号に よって動作され、制御されるユーザのブーツ内の袋は、足の触覚モードに影響を 与える。 アブソリュート環境に関しては、リアルタイムモードは、イメージ、サウンド 、におい、触覚アクション、結合性共通機械言語およびファイル適用システムへ の入力および出力を組み合わせるカスケードプログラミングを介して処理される 。 IV.ユーザ刺激モジュール 環境モデリングモジュールの出力は、ユーザ生物的感覚に入力されるように構 築される。これは、目、耳、臭覚、および触感を意味する。これらの感覚のそれ ぞれは、環境モデリングモジュール出力を有する異なる感覚インターフェースを 必要とする。 ユーザの目に出力されるモデルの入力には、視覚を初めとして、本発明のいく つかの実施態様がある。これらの実施態様はすべて、環境モデリングモジュール の同一の一般的出力モード、特に、単一なコンピュートサーバ(compute server )が、光学的にイメージをオフセットすることによって立体的な情報を生成する 十分な範囲のラスタベクトル化モードから放たれる。 本発明の視覚入力装置の第1実施態様は、このモデリングモジュール出力から 、バイオ同期された周辺マイクロストローブおよび二重ビジョンLCDカラーアイ モニタを用いる。この装置の図は、図9および図10に示される。この図では、マ イクロストローブ216は、環境モデリングモジュールの視覚出力モードにおける 種々のイメージ要素によってカスケード駆動される予め設定されたサイクルによ ってバイオ同期される。マイクロストローブ216は、ユーザのα波および他の脳 波における情報を収集するアイピース生物学的フィードバックマッスルセンサ21 8および脳波センサ219によって制御される。ユーザヘッド230のピッチ、ロール およびヨーは、センサ220によってモニタされる。これらのセンサはすべて、マ イクロストローブの地理的に等しく、より早いオフセット速度を成し遂げる。ス トローブは、脳ビジョン信号を分裂し、内部ビジョンイメージングを視覚皮質に 生成させるように、非同期的に高速度でトリガされる。マイクロストローブ216 は、1側面に1つずつ、視覚入力装置228の下部コーナに配置され、スクリーン2 22を照射する。マイクロストローブは、寿命の長い高周波数超小型ストローブで ある。 この実施態様において、立体視覚イメージは、環境モデリングモジュールにエ ンタされるプログラミング用語に応じて、信号出力モードでオフセットされる。 プログラムは、人間の視差およびその他の人間の視覚特性を考慮して、コンピュ ータに最終視像を、互いにほぼオフセットされた2つのイメージとして生成する ように指令する。イメージは、2つの方法:各目に対する多重イメージガイドに 設けられた受信機(receipt)または各目における多重イメージプロジェクタの うちの1つで光学的に区別される。 LCD板222は、Sony(Model FDL-3305)およびToshiba(Model TFD 40W01)から 入手可能であり、ヘッドピースに適合するように改変される。広角レンズ224お よびフォーカスダイポーラ226は、イメージをユーザに対して正確にフォーカス するために設けられている。装置は、ベルト付きブロードキャストユニット232 に接続されている。 視覚入力装置の第2の実施態様は、図11に示される。この実施態様では、ブロ ードキャストボード232は、アンテナ234またはバックアップアンビリカルを用い た接続236のいずれかを介してデータを受け取り、2つの高精細モニタ238および 240に動力を供給および給電し、2つの個別のイメージを形成し、これらのイメ ージは、レンズ242および244ならびに光ファイバスタック246および248を通して ユーザの目に伝送され、ヘッドピース250で停止する。 高精細モニタスクリーン238および240は、対角線方向で2から20インチの範囲 である。いずれの場合にも、モニタは、最小1024ラインで1280ドットの名目上の 解像度を有し得る。対角線方向で2インチから20インチまでのモニタから選択す る場合、最も考慮しなければならないことの1つはモニタの重量である。対角線 方向で2から4インチのモニタは、特別に形成されたベルト上にユーザによって 搭載可能である。より大きなモニタは、ユーザが着用するには重すぎるため、生 成イメージを遠隔地からアクセスするための設備が必要である。ユーザによって 搭載されるユニットは、モニタに動力を供給するために、ブロードキャスト電力 または電池を使用する。リモートユニットは、標準AC電力であり、配電されたイ メージ受信機を有する。ユーザによって搭載されるユニットは、低電力ブロード キャスト受信機を使用する。 図11に示されるように、イメージは、ファイバ束の一端において光学レンズ24 2および244を通して、モニタ238および240から光ファイバスタック246および248 に入力される。ある実施態様において、各イメージガイドにおける端部にシャッ タが設けられ、単一な高精細TVモニタ上で重畳走査に圧縮された立体知覚イメ ージを各目に分離させる。特別に設計されたヘッドバンド250マウントは、ユー ザの目の前で光ファイバスタックのイメージ出力端部を保持する。 図1に示されるこの視覚入力装置の1つの実施態様において、高精細TVモニ タは、チャンバを有する鋼鉄ガーダに搭載されるケーブルである。ユーザがチャ ンバ内を移動するとき、アセンブリ全体は、ユーザの動きを追従するように設計 されている。 視覚入力装置の第3の実施態様は、図12に示される。この装置は、低電力レー ザダイオードイメージングパック232を介してイメージをユーザの目に直接配置 するための直接網膜走査を使用する。 本発明によると、網膜走査は、磁界フォーカスリング240およびレンズを介し て、目の内部要素である網膜上にフォーカスされた標的アライメント上で電磁圧 力フィールド242を介して走査される赤234、緑236および青238レーザダイオード を用いる。網膜走査装置は、既成のFDA安全要件を満足しなければならない。こ のアレイ全体は、一対のゴーグルのように着用される閉じたアイマスクユニット 248内に設けられている。目および注文によって製造された光学ユニット244の光 学諸特性は協同して機能し、イメージを生物学的視覚受信機にフォーカスする。 このユニットは、アンビリカル246と共に動作し、イメージをダイオードに配置 するか、または低電力ブロードキャストを用いて、イメージデータをダイオード 234、236および238に伝送し得る。 図13に示される視覚入力装置の第4の実施態様において、イメージは、光ケー ブル258および260を介して、光シールド252ならびにレンズ254および256を通し て、高精細カラーモニタ250から取られる。アイマスクである直立プリズム262お よび264はユーザ側設けられている。磁気またはオプトエレクトリカル同期シャ ッタは、アイピース262および264の前に設けられている。 図14に示される付加的な特徴において、視覚イメージは、光ファイバケーブル 262を通して投影レンズ264まで搬送され、ハウジング268内に設けられ、弾性ヘ ッドバンド270によってユーザの目の表面の前で4分の1インチに保持されてい るマイクロスクリーン266に投影される。マイクロスクリーン266は、透過率が高 く、投射光に面する表面に最も薄いレベルでつや消し面を有する半透明な樹脂プ ラスチック材料から形成されている。通常、スクリーンの寸法は、2インチ対1/ 4インチの楕円形状である。前面は、縁から1/2インチであり、幅1 1/2インチで 高さ7/8インチの楕円である。マイクロスクリーンは、ハウジング288に設けられ 、弾性コード270を介してユーザの頭に保持される。 図15は、視覚入力装置の第5の実施態様を示す。高精細カラーモニタ272、274 および276がユーザのベルト上に設けられている。次に、第4の実施態様のよう に、レンズ、エンハンサ278およびマルチプレクサ/電界生成器280を介したフレ ーム連続の高密度光ファイバイメージ圧縮が、ユーザの目に出力されるイメージ を投影するのに用いられる。光ファイバケーブル282は、左から右へ垂直方向に 整列して結合され、傾斜して切断および研磨されている。これにより、束282は 、ユーザの目には厚いチューブではなく平坦なリボン284として写る。イメージ 信号は、フレームが連続し、3原色のそれぞれが、それ自信の高解像度および高 輝度リモートHDTVモニタを有する。ファイバを通した光放出280は、基本的にイ メージをより明るくする電磁結合電界生成器280によって増加される。光ファイ バケーブル282は、直立プリズムを用いてユーザが見たい予想水平板上にイメー ジを配置する。ユーザ側では、光ファイバケーブルは、ユーザフォーカスのため の ジオプティック(dioptic)調整を有し、最終立体知覚オフセッティングの場合 の電子シャッタを有する。図14に示されるマイクロスクリーンも使用され得る。 次の知覚インタフェース事象は、ユーザの耳で起こる。環境処理モジュールは 、生成された視覚イメージに伴う多次元のディジタルサウンドを提供する聴覚信 号を有する。上記のように、サウンド出力は、視覚イメージに対応するようにカ スケードプログラムされる。 聴覚入力装置には2つの実施態様がある。第1の実施態様では、マトリクス化 された個別のマイクロスピーカが、多次元のサウンド出力を提供するように配列 されている。この実施態様において、多重マイクロスピーカアレイは、床、中間 および頂部レベルでチャンバの周囲に固定される。第2の実施態様では、多重超 小型スピーカがユーザの耳の回りに配列されたヘッドホンのようなピースが形成 される。8から14個のモノ信号に分離されるステレオ赤外線を介して聴覚信号は 、ヘッドホンに伝送される。各信号の音量およびフェージングは自動化され、特 定のイメージ要素に対応するようにカスケードプログラムされる。サウンド出力 スピーカは、人間の耳のアーキテクチャと共に動作し、各サウンドが明らかに異 なる地理的位置から出てきたように思わせるように、幾何学的パターン配列され た全範囲小型スピーカである。好ましい実施態様の1つにおいて、我々は、Sony の小型スピーカを用いる。 いずれの実施態様においても、スピーカはすべて、スイッチされ、音量変更さ れ、フェーズおよび効果が変更された信号を「MIDI」インターフェース制御から 取り出し、その信号を異なるポートを通してまたは所定のポートを通して同時に 環境需要として伝送するマルチポートバスに接続されている。 他のユーザ感覚入力は、3次元チャンバにおいて成し遂げられる。このチャン バ14(図1)は、ユーザの位置および動きデータを蓄積するセンサモードに関連 してすでに上述した。チャンバは、システムユーザの生物学的感覚と相互作用す るように形成されている。前述の視覚および音声入力に加えて、チャンバにはま た触覚出力システム24が備えられており、ユーザはそのシステムまで歩いていき 、触覚を通して生成された環境を経験できるようになっている。 触覚出力装置24は、チャンバの垂直壁と一体化されるか、または独立して設け られ得る。触覚出力装置24は、1フィート平方のモジュラセクションで構成され 、これらのモジュラセクションは互いに取り付けられ、チャンバ内で任意のサイ ズの壁面または独立した直立ポッドを形成している。これらのモジュラセクショ ンの1つは、接続ヘッドのそれぞれと内部接続する円形多角形テフロンヘッドを 有する連続した数百(低解像度)または数千(高解像度設計)の金属ロッドを有 する。ロッドは、以下に説明するように、画素型アドレッシングを介して前後に 電気機械的に駆動される。3次元コンピュータベクトルグリッドイメージは、形 状を設計するのに用いられ、ベクトルは、画素アドレスポイントに置き換えられ る。ロッドは、生成される形状に応じて前後に駆動される。ロッドは、ロッドヘ ッドとユーザとの間に配置された交換可能な柔軟スキンを押す。ロッドは、解除 され再形成されるまでレベルバイレベル(level-by-level)摩擦ブレーキを介し て配置される。ロッドブレーキは、必要に応じてばねが設けられたロッドにより 海綿状またはより岩状の感触を与えるばね度(degree of spring)の任務が当て られている。これは、ブレーキセットをより固くまたはより柔らかく設定するこ とによって成し遂げられる。金属ロッドを駆動させるために空気インパルスまた は電空サーボが用いられ得る。磁気空中浮揚浮きも用いられる。 編み込んでラミネートされた柔軟スキンの基本的なセットはロールダウントラ ック上に保存され、その環境の期待される表面に対する各経験に簡単にインスト ールされる。グローブはまた、柔軟壁スキンと連結して用いられ得る。これらの 手袋は、ロッド形状の壁とのインタラクションの影響をさらに和らげ得るもう一 層の詰め物を有し得る。上記のように、スタンドアロンモジュールをチャンバ内 にセットアップし、小物を刺激することが可能である。モジュールは、衝突防止 近接センサおよび独立した移動する車付きベースを有する簡単なメカノイド(me chanoid)であるロボットによって駆動される腰壁上に配置され得る。ロボット は、カスケードプログラミングによってチャンバ内で位置を割り当てられ、ロボ ットはまた、チャンバ床アンテナグリッドを参照することによってその位置を見 いだすことが可能である。これらの触覚ユニットはまた、同様の画素アドレッシ ングシステムを有する圧縮空気ストリーム性能が備えられ、異なるタイプの効果 または感触を伴った後部圧力表面刺激を形成する。ロッドおよびジェトストリー ムは、同様のブロックで構成され得る。 触覚出力装置の画素アドレッシング機構は、図16に例示される。復号化器ブロ ック286は、環境モデル出力にアクセスし、次に、データおよびアドレスブロッ ク288および290をエンタする。ラッチブロック292は、画素にX、Y座標アドレス を提供し、サーボモータは、ブロックMSB294およびブロックLSB296によって駆動 される。UNIXプログラミングコードにおいて、コールは、 texture-pad(x,y,pin-height,device) Int x,y,Pin-height,device 画素アドレッシングの2ポート機構は、図17のブロック図に示される。この機構 は、1画素当たり4ビットの中間解像度表示または1画素当たり1ビットの高解 像度表示を支持し得る8個の16Kx1 4116ダイナミックRAMチップを3アレイ使用 する48Kモジュールをサポートし得る。上記の実施態様は、バンク切替え手段に よってアプリケーションから読出し/書込みアクセスを実施し、その結果主要メ モリと同様にメモリ位置がアドレス指定される。プログラマにとって、2ポート 機構のコールは、やはり以下のようである。 Texture-block(x,y,pin-height,block-device) unsigned int x,y,pin-height,block-device 次に、プログラムは、バンク切替えのメモリアクセス詳細を処理し、ビデオ表 示板は、テクスチャパッドには必要とされない内蔵切替え機構に従って一度に3 バイトずつメモリ内容を読出し、表示する詳細を処理する。4116sは、ピンの高 さを変え、応答時間を決定するアクチュエータ回路によって置き換えられる。こ の2ポート機構は、その目的を811[MU]秒サイクルで成し遂げ、この時間の半分 は、一度に1バイトのホスト読出し/書込みに使用され、残りの半分は、ビデオ 表示メモリアクセスに用いられる。ロッド駆動触覚ユニットの場合、以下を加え る: Texture-wall(x,y,pin-height) Unsigned int x,y,pin-height ここで、範囲のチェッキングおよび装置のブロッキングが行われ得る。 ユーザ刺激モジュールは、臭覚出力装置を有する。有機および無期化合物を生 成する臭気からの蒸留油を含有する小さなガラス瓶は、自動血液分析器で使用さ れるのと同様の液体瓶搬送アクセスを有する保存ラックに保存される。カスケー ドプログラミングは、小出力を視像に接続する。加熱滴下パッドは、指令される と、臭気をチャンバに導入するのに用いられる。 ユーザ刺激モジュールの他の構成要素は、図1の車両シミュレータである。こ れは、輸送されている間にコマンドを動作するユーザのダイナミックフォーカス および形成ステーションを形成しながら高速および長距離フライトをシミュレー トする。これは、ユーザの遠近感覚を変更する機能制御を有する。 上記のように、ユーザは、内部の足底が、空気圧力または電気DC電流入力から の刺激によって硬くなるかまたは柔らかくなり得る材料で満たされた袋を含有す る特別に設計されたブーツを着用し得る。このブーツは、データのラジオ伝送を 介して内部足底を駆動し得る受信機を有する。 チャンバには、ユーザに刺激を与えて前後移動を刺激する空気ジェットストリ ーム34などのエンハンスメント機構(enhancement)が備えられている。音波共 鳴器はまた、ユーザの頭脳機能をリラックスさせ、合成環境モデリング出力に対 する感受性を高めるために取り付けられ得る。温度変化は、チャンバ温度を調整 するか、またはユーザのスーツ内の温度を変更することによって実施され得る。 V.一次制御モジュール 全システム動作は、一次制御モジュールによって制御される。高端末システム においては、これは、制御室のことを意味する。単一ユーザシステムにおいては 、これは、管理自動ソフトウェアを意味し得る。図1に示す実施態様で示される ように、一次制御モジュールは、チャンバ14と物理的に隣接し得る。より小さな 個人的なシステム30の場合、一次制御モジュールは、ワークステーションに直接 内蔵される。より大きな構成の場合、一次制御モジュールには、二人のモニタ技 術者が配置され得る。他の構成では、システムは、制御モジュールを全自動に設 定し得る。 一次制御モジュールには、種々の機能が割り当てられる。制御モジュールには 、時間管理およびスケジューリングソフトウェアが備えられ、システムファイル を モニタし、アカウンティングチャージを適切なアカウントに割り当てる。制御モ ジュールは、メモリの記録保持能力および他のシステム能力を提供する。一次制 御モジュールは、入力コンソールおよびワークステーションを有し、データ入力 、前セッションイメージングおよび他の準備、ならびにユーザ刺激入力の制御を 含む環境モデリング出力のセッション中制御を可能にする。一次制御モジュール は、リアルタイムカメラモニタを用いてリモートプローブ動作を追従する。この モジュールは、記録と連絡し、ユーザ健康遠隔測定データをモニタする。モジュ ールは、システム活動パラメータを保存するディジタル活動レコーダを有する。 一次制御モジュールは、すべてのスタッフ、ユーザおよび技術者との聴覚−視覚 連絡を提供する。モジュールは、すべての機能システム構成要素およびデータ収 集ギア上に読み出されたスクリーンを維持する。 一次制御モジュールは、ユーザの動きを追従するようにマトリクス化されたピ ッチ、ロールおよびヨーの動きを含む可変波長感覚をもつ、二重CCD、カラー、 高解像度、人間の目と位置合わせされた、自動、実装ビデオカメラを有する視覚 モジュールを通常備えたリモートプローブに対して制御を維持する。 一次制御モジュールの他の特徴は、ユーザメニュである。ユーザの視界に入る グラフィック半透明イメージがある。ユーザがコマンドグリッドの方に手を挙げ ると、ユーザが目指しているメニュ駆動コマンドボタンは、ユーザの指が近づく につれて明るくなる。このイメージエンハンスメントは、標的を目指す手助けを する。駆動されると、ボタンは明るくなり、「ビン(binks)」という音がなっ て、次にコマンドメニュは消える。コマンドメニュはまた、声の起動「COMMAN G RID」を介して呼び出され得る。ユーザは、単一なメニュ、一連のメニュを呼び 出すか、またはマスタメニュから直接動作し得る。ユーザは、チャンバワークス テーションのいずれかのキーボードが実施し得る機能を呼び出し得る。ユーザは 、すべてのパラメータのすべての局面を制御するか、またはインタラクティブな セッション中の環境を書き込むように要求され得る。リモートプローブの場合、 ユーザは、リアルタイム活動を制御するためにコマンドメニュを広範囲に使用す る必要がある。 本願では、本発明を特定の実施態様と共に説明したが、ある変更は、添付の請 求の範囲の範囲内で実施され得ることは、当業者に明白であり得る。 VI.システム内コミュニケーションモジュール システムのこのモジュールは、声で起動されるコマンドを可能にするように設 計されている。このモジュールは、システムユーザから一次制御モジュール、ま たは一次制御モジュールに配置される技術者へのコミュニケーションをカバーす るように設計されている。ユーザは、電磁スペクトル伝送モードを介してシステ ムに接続されたマイクを供給され得る。システム内コミュニケーションモジュー ルは、コマンドの送出およびデータの受信を含むリモートプローブからのコミュ ニケーションを提供するように設計されている。 現在、Kurzweilの声コマンドシステムは、本発明による特定のユーザセッショ ンにおいて使用され得るアプリケーションをベースにした語彙を形成するのに入 手される。特別なフロッピディスクまたは他のポータブルデータ保存装置は、ユ ーザ特定の音声およびユーザセッション用ユーザの声認識情報を導入するのに用 いられる。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FR,GB,GR,IE,IT,LU,M C,NL,PT,SE),OA(BF,BJ,CF,CG ,CI,CM,GA,GN,ML,MR,NE,SN, TD,TG),AT,AU,BB,BG,BR,BY, CA,CH,CZ,DE,DK,ES,FI,GB,H U,JP,KP,KR,KZ,LK,LU,LV,MG ,MN,MW,NL,NO,NZ,PL,PT,RO, RU,SD,SE,SK,UA,UZ,VN

Claims (1)

  1. 【特許請求の範囲】 1.ユーザとのインタラクション用の合成およびアブソリュートリアルタイム リモート環境を生成および処理するシステムであって、内部接続要素として、 a)高解像度ディジタルイメージ、サウンド、および位置座標データを保存し 、該保存されたデータを瞬時に取り出すデータ保存および取り出し手段であって 、自然オブジェクトのイメージファイルと、自然サウンドのディジタルサウンド ファイルと、保存および取り出しの効率的使用のためのイメージ圧縮ソフトウェ アと、プリミティブイメージベーシックモデルファイルと、イメージ前設計デー タ処理アレイと、インタラクティブスループットイメージおよびサウンド処理と を有する、データ保存および取り出し手段と、 b)補助マトリクス化された平均化システムを用いて、3次元マトリクス内の ユーザの身体の位置および動きを非侵入的に感知するアンビリカルのないセンサ 手段であって、ユーザ健康遠隔測定データをさらに感知する、アンビリカルのな いセンサ手段、 c)予め選択されたコマンドおよびパラメータを用いて合成およびアブソリュ ート環境出力のリアルタイム生成を行う環境モデリング手段であって、該データ 保存および取り出し手段に保存され、該データ保存および取り出し手段とインタ ラクティブであり、マイクロコンピュートサーバ並列データ処理技術を用いて、 ユーザが観察するインタラクティブな身体部分を含む合成イメージ、サウンド、 フォース、および動きを現実的な精度で描写する、環境モデリグング手段と、 d)該環境モデリング手段によって生成されるアブソリュートおよび合成環境 出力を、該ユーザの目への3次元視覚入力、該ユーザの耳への多次元サウンド入 力、および該ユーザの手、足および他の身体部分への触覚入力を介して、該ユー ザの生物学的感覚に入力するアンビリカルのないユーザ刺激手段と、 e)該データ保存および取り出し手段、該センサ手段と、該環境モデリング手 段と、該ユーザ刺激手段との間にインターフェースコマンドを有する、全システ ム動作用の一次制御手段と、 f)該一次制御手段へおよび該一次制御手段からの該ユーザによる口頭コミュ ニケーションのためのシステム内コミュニケーション手段とを有し、 これによって、合成もしくはアブソリュート環境、またはその組み合わせの該 ユーザによる選択は、該システム一次制御手段とコミュニケートされ、次に、該 システム一次制御手段は、該選択を該環境モデリング手段にコミュニケートし、 それによって、該ユーザは、該選択され、生成され、連続して処理された合成お よびアブソリュート環境出力と、該センサ手段および該ユーザ刺激手段を介して 相互作用することが可能となる、システム。 2.前記アンビリカルのないセンサ手段が、 前記ユーザの身体、頭、手および足に直接または間接的に設けられた非侵入的 なデータポイントと、 壁、天井および床を有する3次元チャンバであって、システムユーザを受け入 れ、該チャンバ内に該システムユーザの動きを収容するように設計され、電磁放 射源および受信機が、補助マトリクス平均処理される信号を生成および収集し、 該チャンバ内の該ユーザの位置および動きをモニタするように、該チャンバ壁、 床および天井に配置されている、チャンバとを有し、 それによって、該位置および動きデータが、前記データ保存および取り出し手 段および前記環境モデリング手段に連続して伝送され、処理される、 前記請求項1に記載の装置。 3.前記アンビリカルを有さないセンサ手段が、前記チャンバ内のユーザ位置 および動きデータをモニタするために処理されるビデオイメージデータを収集す るための、該チャンバ壁、床および天井に設けられたビデオカメラをさらに有す る、請求項2に記載の装置。 4.前記ユーザ刺激手段触覚入力が、嗅覚入力、音波ランブリング、可変温度 および可変風速を含むグロス環境条件ユーザ感覚入力を提供するように設計され ている3次元チャンバを有し、 該チャンバが、 長方形マトリクスのロッドが、個別に電気機械的に操作され、前記ユーザの触 覚とのインタラクション用の前記環境モデリングの出力の一部として形状および テクスチャを生成することを特徴とする、ユーザインタラクティブ触覚入力と、 該環境モデリング手段の出力を該ユーザの触覚に入力するために膨脹または収 縮し得る可変する袋を有するユーザブーツと、 該環境モデリング手段の触覚出力を入力するための可変抵抗トレッドミル手段 とをさらに有する、請求項1に記載の装置。 5.前記3次元チャンバが、前記ユーザを受け入れるように設計され、前記環 境モデリング手段の出力の認知を引き上げるために安全に上下動および傾斜する ように設計されている静止乗り物シミュレータをさらに有する、請求項4に記載 の装置。 6.生物学的な感覚を有するユーザと、合成およびアブソリュートリアルタイ ムリモート環境を生成および処理するシステムとの間にインタラクションを起こ させる方法であって、 a)3次元マトリクスにおけるユーザの位置データを非侵入的に感知し収集す る感知手段と、保存されたイメージ、サウンド、触覚データ、ならびに感知およ び収集されたユーザ位置データに基づいて、合成およびアブソリュートリアルタ イムリモート環境出力を生成および処理する、データ保存および取り出しを含む モデリング手段と、ユーザの生物学的な感覚インターフェースに出力され、該モ デリング手段で生成および処理された環境との直接的なコミュニケーションのた めのユーザ感覚入力手段と、該感知手段、該モデリング手段、および該ユーザ感 覚入力手段の中でデータを制御、収集、処理およびコミュニケートする主要制御 手段とを提供する工程と、 b)選択される環境の生成および処理に有用なデータのサブセットの物理法則 パラメータおよび創造の前選択を含む、インタラクション用に保存された環境の 形式を選択する工程と、 c)位置データを生成する感知手段および該生成され処理された環境出力との 相互作用を行う工程と、 を包含する方法。
JP7511711A 1990-02-22 1993-10-18 合成およびアブソリュートリアルタイム環境の生成および処理のための方法および装置 Pending JPH09506190A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/483,547 US5255211A (en) 1990-02-22 1990-02-22 Methods and apparatus for generating and processing synthetic and absolute real time environments
PCT/US1993/009993 WO1995011479A1 (en) 1990-02-22 1993-10-18 Methods and apparatus for generating and processing synthetic and absolute real time environments

Publications (1)

Publication Number Publication Date
JPH09506190A true JPH09506190A (ja) 1997-06-17

Family

ID=23920511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7511711A Pending JPH09506190A (ja) 1990-02-22 1993-10-18 合成およびアブソリュートリアルタイム環境の生成および処理のための方法および装置

Country Status (5)

Country Link
US (2) US5255211A (ja)
EP (1) EP0724749A1 (ja)
JP (1) JPH09506190A (ja)
AU (1) AU5725594A (ja)
WO (1) WO1995011479A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004332A1 (fr) * 2006-07-07 2008-01-10 Sony Computer Entertainment Inc. Procédé de traitement d'images et appareil d'interface d'entrée
JP2010134955A (ja) * 1995-11-30 2010-06-17 Immersion Corp 触覚感覚を与えるための装置、システム、及び方法
JP2018026034A (ja) * 2016-08-12 2018-02-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム

Families Citing this family (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1136906A3 (en) * 1990-11-30 2001-11-14 Sun Microsystems, Inc. Improved method and apparatus for creating virtual worlds
GB2256567B (en) * 1991-06-05 1995-01-11 Sony Broadcast & Communication Modelling system for imaging three-dimensional models
JPH0581049A (ja) * 1991-09-20 1993-04-02 Fujitsu Ltd メモリの時間管理方式
US6097543A (en) 1992-02-07 2000-08-01 I-O Display Systems Llc Personal visual display
US5864326A (en) 1992-02-07 1999-01-26 I-O Display Systems Llc Depixelated visual display
US5303085A (en) 1992-02-07 1994-04-12 Rallison Richard D Optically corrected helmet mounted display
US5436981A (en) * 1992-06-24 1995-07-25 Canon Kabushiki Kaisha Image processing method, and apparatus therefor
US5511226A (en) * 1992-08-25 1996-04-23 Intel Corporation System for generating snoop addresses and conditionally generating source addresses whenever there is no snoop hit, the source addresses lagging behind the corresponding snoop addresses
US5526022A (en) 1993-01-06 1996-06-11 Virtual I/O, Inc. Sourceless orientation sensor
EP0646263B1 (en) * 1993-04-20 2000-05-31 General Electric Company Computer graphic and live video system for enhancing visualisation of body structures during surgery
US5590062A (en) * 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception
US5870167A (en) * 1993-07-14 1999-02-09 Knopp; Carl F. Apparatus and method for imaging anterior structures of the eye
US5625576A (en) * 1993-10-01 1997-04-29 Massachusetts Institute Of Technology Force reflecting haptic interface
JPH09506191A (ja) * 1993-10-29 1997-06-17 オブジェクト テクノロジー ライセンシング コーポレイション グラフィック・エディタ・フレームワーク・システム
US5991087A (en) 1993-11-12 1999-11-23 I-O Display System Llc Non-orthogonal plate in a virtual reality or heads up display
DE4340941C2 (de) * 1993-12-01 1996-07-11 Stn Atlas Elektronik Gmbh Bewegungsgeber zur simulierten Bewegung in einer virtuellen Umgebung
US6160666A (en) 1994-02-07 2000-12-12 I-O Display Systems Llc Personal visual display system
JPH07225852A (ja) * 1994-02-15 1995-08-22 Fujitsu Ltd 動画生成方法および装置
US6005967A (en) * 1994-02-18 1999-12-21 Matushita Electric Industrial Co., Ltd. Picture synthesizing apparatus and method
US5564002A (en) * 1994-08-01 1996-10-08 International Business Machines Corporation Method and apparatus for implementing a virtual desktop through window positioning
US5550970A (en) * 1994-08-31 1996-08-27 International Business Machines Corporation Method and system for allocating resources
US5903395A (en) 1994-08-31 1999-05-11 I-O Display Systems Llc Personal visual display system
US6055335A (en) 1994-09-14 2000-04-25 Kabushiki Kaisha Toshiba Method and apparatus for image representation and/or reorientation
US20030040361A1 (en) * 1994-09-21 2003-02-27 Craig Thorner Method and apparatus for generating tactile feedback via relatively low-burden and/or zero burden telemetry
US5684722A (en) * 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
CA2156141A1 (en) * 1994-09-28 1996-03-29 Kaveh Azar Interactive scanning device or system
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
GB2298931B (en) * 1995-03-17 1999-03-10 Marconi Gec Ltd Virtual force feedback for synthetic environment
US5991085A (en) 1995-04-21 1999-11-23 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
GB2302742B (en) * 1995-06-26 2000-02-16 Sony Uk Ltd Interactive interface system
IL115288A (en) * 1995-09-13 1999-06-20 Scidel Technologies Ltd Method and apparatus for implanting images into a video sequence
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
JPH10513593A (ja) * 1995-11-24 1998-12-22 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 触覚刺激によって強調された仮想現実を示す方法と、この方法を実行するシステム
GB9525047D0 (en) 1995-12-07 1996-02-07 Philips Electronics Nv Virtual body control device
US6300936B1 (en) 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
DE69716875T2 (de) * 1996-01-17 2003-09-18 Seos Ltd Bildprojektionssystem zur grossbilddarstellung
US5966310A (en) * 1996-02-13 1999-10-12 Sanyo Electric Co., Ltd. Personal design system and personal equipment production system for actually producing equipment having designed appearance
US5745679A (en) * 1996-03-06 1998-04-28 Micron Technology, Inc. Method and device for file transfer by cascade release
US6111577A (en) * 1996-04-04 2000-08-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US7225404B1 (en) 1996-04-04 2007-05-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US6084587A (en) 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
US5759107A (en) * 1996-10-03 1998-06-02 Amusement Technologies, Inc. Gyroscopic amusement apparatus
US5973670A (en) * 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
US6026376A (en) * 1997-04-15 2000-02-15 Kenney; John A. Interactive electronic shopping system and method
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
US6075895A (en) * 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
KR100265231B1 (ko) 1997-07-03 2000-09-15 윤종용 방송방식이 서로 다른 복수화면의 동시시청 가능한 tv수신장치
US6070269A (en) * 1997-07-25 2000-06-06 Medialab Services S.A. Data-suit for real-time computer animation and virtual reality applications
US6155974A (en) * 1997-08-01 2000-12-05 Sony Corporation Wireless multiplexed brain wave monitoring system and method
AU9300398A (en) * 1997-09-05 1999-03-29 Board Of Trustees Of The University Of Illinois, The System and method for interfacing sound synthesis to movement
US5903396A (en) 1997-10-17 1999-05-11 I/O Display Systems, Llc Intensified visual display
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6417638B1 (en) * 1998-07-17 2002-07-09 Sensable Technologies, Inc. Force reflecting haptic interface
US6421048B1 (en) 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6985133B1 (en) 1998-07-17 2006-01-10 Sensable Technologies, Inc. Force reflecting haptic interface
US6606398B2 (en) * 1998-09-30 2003-08-12 Intel Corporation Automatic cataloging of people in digital photographs
US6483484B1 (en) * 1998-12-18 2002-11-19 Semiconductor Energy Laboratory Co., Ltd. Goggle type display system
US6351808B1 (en) 1999-05-11 2002-02-26 Sun Microsystems, Inc. Vertically and horizontally threaded processor with multidimensional storage for storing thread data
US6341347B1 (en) 1999-05-11 2002-01-22 Sun Microsystems, Inc. Thread switch logic in a multiple-thread processor
US6507862B1 (en) 1999-05-11 2003-01-14 Sun Microsystems, Inc. Switching method in a multi-threaded processor
US6542991B1 (en) 1999-05-11 2003-04-01 Sun Microsystems, Inc. Multiple-thread processor with single-thread interface shared among threads
US6938147B1 (en) 1999-05-11 2005-08-30 Sun Microsystems, Inc. Processor with multiple-thread, vertically-threaded pipeline
US7106898B2 (en) * 1999-12-06 2006-09-12 California Institute Of Technology 3D scanning using shadows
US6867770B2 (en) 2000-12-14 2005-03-15 Sensable Technologies, Inc. Systems and methods for voxel warping
US6665755B2 (en) * 2000-12-22 2003-12-16 Nortel Networks Limited External memory engine selectable pipeline architecture
US6958752B2 (en) 2001-01-08 2005-10-25 Sensable Technologies, Inc. Systems and methods for three-dimensional modeling
US20020138264A1 (en) * 2001-03-21 2002-09-26 International Business Machines Corporation Apparatus to convey depth information in graphical images and method therefor
US20020169665A1 (en) * 2001-05-10 2002-11-14 The Procter & Gamble Company In-channel marketing and product testing system
US20040125120A1 (en) * 2001-06-08 2004-07-01 Michael Weiner Method and apparatus for interactive transmission and reception of tactile information
US7433744B2 (en) * 2001-06-21 2008-10-07 Robert A Bell Method and apparatus for spatially coordinating, storing and manipulating computer aided design drawings
US6980975B2 (en) * 2001-11-15 2005-12-27 International Business Machines Corporation Method and apparatus for rule-based random irritator for model stimulus
US6671651B2 (en) 2002-04-26 2003-12-30 Sensable Technologies, Inc. 3-D selection and manipulation with a multiple dimension haptic interface
US20040032489A1 (en) * 2002-08-13 2004-02-19 Tyra Donald Wayne Method for displaying a visual element of a scene
US7382378B2 (en) 2003-10-30 2008-06-03 Sensable Technologies, Inc. Apparatus and methods for stenciling an image
US7411576B2 (en) 2003-10-30 2008-08-12 Sensable Technologies, Inc. Force reflecting haptic interface
US7095418B2 (en) * 2003-10-30 2006-08-22 Sensable Technologies, Inc. Apparatus and methods for texture mapping
US7626589B2 (en) 2003-12-10 2009-12-01 Sensable Technologies, Inc. Haptic graphical user interface for adjusting mapped texture
US7889209B2 (en) 2003-12-10 2011-02-15 Sensable Technologies, Inc. Apparatus and methods for wrapping texture onto the surface of a virtual object
US7149596B2 (en) 2004-01-13 2006-12-12 Sensable Technologies, Inc. Apparatus and methods for modifying a model of an object to enforce compliance with a manufacturing constraint
US10083621B2 (en) * 2004-05-27 2018-09-25 Zedasoft, Inc. System and method for streaming video into a container-based architecture simulation
WO2006014810A2 (en) 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US7805761B2 (en) * 2005-04-29 2010-09-28 Microsoft Corporation Disposable red partitions
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) * 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
US8279221B2 (en) * 2005-08-05 2012-10-02 Samsung Display Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
TWI438698B (zh) * 2005-12-19 2014-05-21 Internat Frontier Tech Lab Inc Can identify the authenticity of the card
CN101496387B (zh) 2006-03-06 2012-09-05 思科技术公司 用于移动无线网络中的接入认证的系统和方法
US20070273550A1 (en) * 2006-05-26 2007-11-29 Marcus Stephen Price Smart ceiling tiles and method of using
WO2008119004A1 (en) * 2007-03-28 2008-10-02 Core, Llc Systems and methods for creating displays
US8570373B2 (en) 2007-06-08 2013-10-29 Cisco Technology, Inc. Tracking an object utilizing location information associated with a wireless device
US7953244B2 (en) * 2007-08-31 2011-05-31 Cycling & Health Tech Industry System integrating machine vision, interactive module and rehabilitation equipment
US8797377B2 (en) 2008-02-14 2014-08-05 Cisco Technology, Inc. Method and system for videoconference configuration
US8355041B2 (en) 2008-02-14 2013-01-15 Cisco Technology, Inc. Telepresence system for 360 degree video conferencing
US8319819B2 (en) 2008-03-26 2012-11-27 Cisco Technology, Inc. Virtual round-table videoconference
US8390667B2 (en) 2008-04-15 2013-03-05 Cisco Technology, Inc. Pop-up PIP for people not in picture
US8694658B2 (en) 2008-09-19 2014-04-08 Cisco Technology, Inc. System and method for enabling communication sessions in a network environment
HK1125531A2 (en) * 2008-12-24 2009-08-07 Leung Shiu Ming Action simulation device and method
US9468846B2 (en) * 2009-01-30 2016-10-18 Performance Designed Products Llc Tactile feedback apparatus and method
IT1392871B1 (it) * 2009-02-26 2012-04-02 Fiorini Metodo e apparato di addestramento chirurgico
US8659637B2 (en) 2009-03-09 2014-02-25 Cisco Technology, Inc. System and method for providing three dimensional video conferencing in a network environment
US8477175B2 (en) 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
US8659639B2 (en) 2009-05-29 2014-02-25 Cisco Technology, Inc. System and method for extending communications between participants in a conferencing environment
US9082297B2 (en) 2009-08-11 2015-07-14 Cisco Technology, Inc. System and method for verifying parameters in an audiovisual environment
JP5504818B2 (ja) * 2009-10-23 2014-05-28 ソニー株式会社 動作関連演算装置、動作関連演算方法、プログラム、動作関連再生システム
US9225916B2 (en) 2010-03-18 2015-12-29 Cisco Technology, Inc. System and method for enhancing video images in a conferencing environment
USD626102S1 (en) 2010-03-21 2010-10-26 Cisco Tech Inc Video unit with integrated features
USD626103S1 (en) 2010-03-21 2010-10-26 Cisco Technology, Inc. Video unit with integrated features
US9313452B2 (en) 2010-05-17 2016-04-12 Cisco Technology, Inc. System and method for providing retracting optics in a video conferencing environment
US8896655B2 (en) 2010-08-31 2014-11-25 Cisco Technology, Inc. System and method for providing depth adaptive video conferencing
US8599934B2 (en) 2010-09-08 2013-12-03 Cisco Technology, Inc. System and method for skip coding during video conferencing in a network environment
US8599865B2 (en) 2010-10-26 2013-12-03 Cisco Technology, Inc. System and method for provisioning flows in a mobile network environment
US8699457B2 (en) 2010-11-03 2014-04-15 Cisco Technology, Inc. System and method for managing flows in a mobile network environment
US9143725B2 (en) 2010-11-15 2015-09-22 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US8902244B2 (en) 2010-11-15 2014-12-02 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US8730297B2 (en) 2010-11-15 2014-05-20 Cisco Technology, Inc. System and method for providing camera functions in a video environment
US9338394B2 (en) 2010-11-15 2016-05-10 Cisco Technology, Inc. System and method for providing enhanced audio in a video environment
US8542264B2 (en) 2010-11-18 2013-09-24 Cisco Technology, Inc. System and method for managing optics in a video environment
US8723914B2 (en) 2010-11-19 2014-05-13 Cisco Technology, Inc. System and method for providing enhanced video processing in a network environment
US9111138B2 (en) 2010-11-30 2015-08-18 Cisco Technology, Inc. System and method for gesture interface control
USD678307S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD682854S1 (en) 2010-12-16 2013-05-21 Cisco Technology, Inc. Display screen for graphical user interface
USD682294S1 (en) 2010-12-16 2013-05-14 Cisco Technology, Inc. Display screen with graphical user interface
USD682864S1 (en) 2010-12-16 2013-05-21 Cisco Technology, Inc. Display screen with graphical user interface
USD678308S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD678894S1 (en) 2010-12-16 2013-03-26 Cisco Technology, Inc. Display screen with graphical user interface
USD678320S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD682293S1 (en) 2010-12-16 2013-05-14 Cisco Technology, Inc. Display screen with graphical user interface
US8692862B2 (en) 2011-02-28 2014-04-08 Cisco Technology, Inc. System and method for selection of video data in a video conference environment
US8716973B1 (en) 2011-02-28 2014-05-06 Moog Inc. Haptic user interface
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US8786631B1 (en) 2011-04-30 2014-07-22 Cisco Technology, Inc. System and method for transferring transparency information in a video environment
US8934026B2 (en) 2011-05-12 2015-01-13 Cisco Technology, Inc. System and method for video coding in a dynamic environment
US9802364B2 (en) 2011-10-18 2017-10-31 3D Systems, Inc. Systems and methods for construction of an instruction set for three-dimensional printing of a user-customizableimage of a three-dimensional structure
US8947493B2 (en) 2011-11-16 2015-02-03 Cisco Technology, Inc. System and method for alerting a participant in a video conference
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US9681154B2 (en) 2012-12-06 2017-06-13 Patent Capital Group System and method for depth-guided filtering in a video conference environment
US9843621B2 (en) 2013-05-17 2017-12-12 Cisco Technology, Inc. Calendaring activities based on communication processing
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN105511600B (zh) * 2015-07-31 2018-09-14 华南理工大学 一种基于混合现实的多媒体人机交互平台
US11484379B2 (en) 2017-12-28 2022-11-01 Orbsurgical Ltd. Microsurgery-specific haptic hand controller
US11170568B2 (en) 2020-01-23 2021-11-09 Rockwell Collins, Inc. Photo-realistic image generation using geo-specific data
WO2022040357A1 (en) * 2020-08-18 2022-02-24 Marc Garbey Air quality turnover solution system, device and methods to mitigate the risk of infection in room turnover

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4001949A (en) * 1975-05-09 1977-01-11 The Ansul Company Dynamic fire simulator and trainer
US4281994A (en) * 1979-12-26 1981-08-04 The Singer Company Aircraft simulator digital audio system
US4709917A (en) * 1982-09-03 1987-12-01 Yang Tai Her Mock bicycle for exercise and training effects
US4542291A (en) * 1982-09-29 1985-09-17 Vpl Research Inc. Optical flex sensor
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4751642A (en) * 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
CA1267976A (en) * 1986-10-30 1990-04-17 Brian W. Tansley Assess system
US4948371A (en) * 1989-04-25 1990-08-14 The United States Of America As Represented By The United States Department Of Energy System for training and evaluation of security personnel in use of firearms
US5184319A (en) * 1990-02-02 1993-02-02 Kramer James F Force feedback and textures simulating interface device
US5165897A (en) * 1990-08-10 1992-11-24 Tini Alloy Company Programmable tactile stimulator array system and method of operation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134955A (ja) * 1995-11-30 2010-06-17 Immersion Corp 触覚感覚を与えるための装置、システム、及び方法
WO2008004332A1 (fr) * 2006-07-07 2008-01-10 Sony Computer Entertainment Inc. Procédé de traitement d'images et appareil d'interface d'entrée
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
US8241122B2 (en) 2006-07-07 2012-08-14 Sony Computer Entertainment Inc. Image processing method and input interface apparatus
JP2018026034A (ja) * 2016-08-12 2018-02-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム

Also Published As

Publication number Publication date
EP0724749A1 (en) 1996-08-07
US5255211A (en) 1993-10-19
AU5725594A (en) 1995-05-08
WO1995011479A1 (en) 1995-04-27
US5513130A (en) 1996-04-30

Similar Documents

Publication Publication Date Title
US5513130A (en) Methods and apparatus for generating and processing synthetic and absolute real time environments
US5759044A (en) Methods and apparatus for generating and processing synthetic and absolute real time environments
Ellis Virtual environments and environmental instruments1
Vince Virtual reality systems
Brooks Grasping reality through illusion—interactive graphics serving science
Brooks Jr et al. Research directions in virtual environments
US5495576A (en) Panoramic image based virtual reality/telepresence audio-visual system and method
Blanchard et al. Reality built for two: a virtual reality tool
CN102354345A (zh) 一种具有体感交互方式的医学影像浏览设备
Holloway et al. Virtual environments: A survey of the technology
EP3980880A1 (en) Photoreal character configurations for spatial computing
Hudák et al. On architecture and performance of LIRKIS CAVE system
De Leo et al. A virtual reality system for the training of volunteers involved in health emergency situations
RU54233U1 (ru) Система виртуального окружения
Vinnikov et al. Real-time simulation of visual defects with gaze-contingent display
Magnenat-Thalmann et al. Virtual reality software and technology
Faulkner et al. Guidelines for establishing a virtual reality lab [medical applications]
Wixson Four-dimensional processing tools for cardiovascular data
JPH11237867A (ja) 仮想空間表示装置
Mamdouh et al. Using Azure to construct recent architecture for visualize training in real-time
Chen A virtual environment system for the comparative study of dome and hmd
Zhou Accurate depth based post-processing for perception enhancement in real time three-dimensional graphics
Thalmann Introduction to Virtual Environments
Burgin Haptic rendering of volumetric soft-bodied objects
He Volume Visualization in Projection-Based Virtual Environments: Interaction and Exploration Tools Design and Evaluation