JP2005500721A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2005500721A5 JP2005500721A5 JP2003508064A JP2003508064A JP2005500721A5 JP 2005500721 A5 JP2005500721 A5 JP 2005500721A5 JP 2003508064 A JP2003508064 A JP 2003508064A JP 2003508064 A JP2003508064 A JP 2003508064A JP 2005500721 A5 JP2005500721 A5 JP 2005500721A5
- Authority
- JP
- Japan
- Prior art keywords
- image
- video
- data
- vtv
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015654 memory Effects 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 25
- 230000003287 optical Effects 0.000 claims description 21
- 238000010191 image analysis Methods 0.000 claims description 12
- 238000007906 compression Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 8
- 239000000463 material Substances 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000001360 synchronised Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 2
- 230000002194 synthesizing Effects 0.000 claims 5
- 239000012530 fluid Substances 0.000 claims 2
- 238000005259 measurement Methods 0.000 claims 2
- 238000001454 recorded image Methods 0.000 claims 2
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000007796 conventional method Methods 0.000 claims 1
- 230000000644 propagated Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 12
- 230000003190 augmentative Effects 0.000 description 6
- 230000003068 static Effects 0.000 description 5
- 240000007320 Pinus strobus Species 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 101700023082 VCR Proteins 0.000 description 3
- UIIMBOGNXHQVGW-UHFFFAOYSA-M buffer Substances [Na+].OC([O-])=O UIIMBOGNXHQVGW-UHFFFAOYSA-M 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003466 anti-cipated Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 101700051609 ADC2 Proteins 0.000 description 1
- 229920002574 CR-39 Polymers 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000000875 corresponding Effects 0.000 description 1
- 230000001808 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000004301 light adaptation Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 101700049574 speA2 Proteins 0.000 description 1
- 230000001131 transforming Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Description
本発明は画像視聴システムとサウンドシステムに関する。
本願は、2001年6月25日にAngus Duncan Richardsにより出願された“VTVシステム”という名称の米国特許出願番号第09/891,733号により優先権を主張するものである。
通常のテレビや映画スクリーンは現代の娯楽の一般的な形態であるが、これらの従来のシステムは、映画の動きと関連してユーザが視聴者のビューイング方向及び相対位置を制御することができない。さらに、バーチャルリアリティの視聴がポピュラーになりつつあるが、3次元画像を生成する従来のシステムは複雑な場合が多く、メディアグラフィックは作成にコストのかかるものである。
以下の発明は、拡張型立体テレビジョン様の視聴体験を生成するハードウェア構成全体に関する。通常のテレビとは異なり、本システムの場合、視聴者は映画の動きと関連して視聴者のビューイング方向と相対位置との制御を行うことが可能となる。専用のハードウェア構成に加えて、本発明はまた、このバーチャルリアリティ様の体験を可能にする新しいビデオフォーマットにも関する。さらに、上記目標の実現を容易にするいくつかの独自のビデオ圧縮規格も定義される。VTVシステムは、従来方式の2次元の画像撮影法と真のバーチャルリアリティとの間の中継技術として設計される。
VTVシステムの進化にはいくつかの段階が存在するが、その段階は、その最も基本的な形であるパノラマ表示方式から、その最も優れた形式である、アニメーション化されたテクスチャマップを利用し、実物の俳優および/またはコンピュータで生成したキャラクタを完全に“視聴環境を意識した”拡張リアリティシステムに登場させる、フルオブジェクトベースのバーチャルリアリティを特徴とする形式にまで及ぶ。
添付図面と関連して以下に記載の詳細な説明は、本発明の現在の好ましい実施例の説明を目的とするものであり、本発明の構成および/または利用の唯一の形態を表すことを意図するものではない。本説明は、例示される実施形態と関連して本発明を構成し、作動させる機能及び一連のステップについて記載するものである。しかし、本発明の精神と範囲内に含まれることが意図される異なる実施形態によっても、同じあるいは同等の機能及び効果の達成が可能であると理解されたい。
1.1)以下の発明は拡張型立体テレビジョン様の視聴体験を生成するハードウェア構成全体に関するものである。通常のテレビとは異なり、本システムの場合、視聴者は映画の動きと関連して視聴者のビューイング方向と相対位置との制御を行うことが可能となる。専用のハードウェア構成に加えて、本発明はまた、このバーチャルリアリティ様の体験を可能にする新しいビデオフォーマットにも関するものである。さらに、上記目標の実現を容易にするいくつかの独自のビデオ圧縮規格も定義される。VTVシステムは、従来方式の2次元の画像撮影法と真のバーチャルリアリティとの間の中継技術として設計される。VTVシステムの進化にはいくつかの段階が存在するが、その段階は、その最も基本的な形であるパノラマ表示方式から、その最も優れた形式である、アニメーション化されたテクスチャマップを利用し、実物の俳優および/またはコンピュータで生成したキャラクタを完全に“視聴環境を意識した”拡張リアリティシステムに登場させる、フルオブジェクトベースのバーチャルリアリティを特徴とする形式にまで及ぶ。
1.2)図1に見られるように、本VTVシステム全体は、中央画像処理装置(VTVプロセッサ)と、各種ビデオ入力装置(DVD、VCR、衛星、地上テレビ、遠隔ビデオカメラ)、赤外線遠隔制御装置、デジタルネットワーク接続部、及びいくつかの出力装置接続部とから構成される。本VTVユニットは、図2に図示するようなその最も基本的な構成では、従来型のテレビ装置へ画像を出力することになる。このような構成では、(おそらく赤外線方式の)遠隔制御装置を用いて、このVTV環境内で視聴者の所望のビューイング方向と位置の制御が行われることになる。この“基本システム構成”の利点として、現在の視聴覚技術を利用してこの構成の実現が可能であるという点が挙げられる。VTV画像規格は、標準的ビデオのレイヤー(layer)の上位“レイヤー”と考えることができる上位互換性を有する画像規格である。すなわち、従来のビデオは新しいVTV画像規格の部分集合を表すものとなる。この規格が互換性を有する結果、テレビメーカーおよび/または視聴覚機器メーカーは仕様の大きな変更をまったく必要とせずVTVを導入することが可能となる。さらに、VTV互換テレビ復号化用ユニットは従来方式のテレビ送信と本質的に互換性を有するものである。
1.3)図3に図示するようなさらに優れた構成では、VTVシステムは表示装置として無線HMDを使用する。このような構成では、単純な画像表示に加えてトラッキング装置として無線HMDを使用することが可能である。このトラッキング情報は、最も基本的な形では、単にビューイング方向の制御から成るものであってもよい。さらに優れたシステムでは、バーチャルな環境において視聴者のビューイング方向と位置の双方の確定が可能となる。最終的に、最も優れた実施構成では、HMDの遠隔カメラによって、リアルワールド画像がVTVシステムに入力され、VTVシステムはこのリアルワールド画像を空間オブジェクトに変換し、次いで、この空間オブジェクトはバーチャルなオブジェクトと置き換えられ、それによって、“視聴環境を意識した”拡張リアリティシステムの提供が可能となる。
1.4)無線HMDは、無線データリンク“サイバーネットリンク”によってVTVプロセッサに接続される。このリンクは、その最も基本的な形ではVTVプロセッサからHMDへビデオ情報を送信し、HMDからVTVプロセッサへトラッキング情報を送信する能力を有する。サイバーネットリンクは、その最も優れた形では、HMDからVTVプロセッサへのトラッキング情報の転送に加えてHMDとサイバーネットリンク間でのビデオ情報の送受信も行うことになる。さらに、VTVプロセッサのある構成要素を遠隔HMDの中に組み込むようにし、それによってサイバーネットリンクを介するデータ転送要件を低減するようにしてもよい。この無線データリンクは、(未圧縮あるいはデジタル圧縮のいずれかのフォーマットで)アナログビデオ送信またはデジタルビデオ送信のいずれかを利用する多様な方法で、トラッキング情報用の、二次のデジタルで符号化したデータストリームを用いて実現することができる。あるいは、これらのチャネルの双方を運ぶ純粋にデジタルな単方向のまたは双方向のデータリンクを組み込むこともできる。データ転送用の実際のメディアはおそらくマイクロウェーブや光である。しかしいずれの転送メディアも適切なものとして利用可能である。本システムの好ましい実施形態は、HMDのボード上や可能であればVTV基地局上の画像解析用ハードウェアと共にHMDに取り付けられたオンボードのパノラマカメラを利用してリアルタイムのトラッキング情報を出力する形態となる。システム精度のさらなる向上を図るために、逆反射作用を有するマーカーを”リアルワールド環境で”利用することも可能である。このような構成では、オンボードカメラの光軸の近くに配置される切り替え可能な光源をこれらのカメラと共に利用して“差分画像解析”システムが形成される。このようなシステムは、直接ビデオ画像を単独で利用する場合よりも著しく高い認識精度を特徴とする。
1.5)最終的に、本VTVシステムは“ユニバーサル画像規格(universal graphics standard)”を利用して画像情報の転送を行うことになる。このような標準規格では、オブジェクトベースの画像記述言語が組み込まれ、この言語によってサブシステム間での“共通の画像知識ベース”による高圧縮が達成されることになる。本発明は、基本的な用語で、この画像言語の進化における3つのレベルの漸進的精巧化(sophistication)について記載するものである。
1.6)本特許の目的として以下の3つの圧縮規格について説明する:
a)c−com
b)s−com
c)v−com
1.7)VTVシステムは、その最も基本的なフォーマットにおいて、視聴者を取り囲む360°のパノラマ表示スクリーンと考えることができる。
a)c−com
b)s−com
c)v−com
1.7)VTVシステムは、その最も基本的なフォーマットにおいて、視聴者を取り囲む360°のパノラマ表示スクリーンと考えることができる。
1.8)上記“バーチャル表示スクリーン”は多数の“ビデオページ”から構成される。“ページキーコード”がビデオ画像内で符号化され、この“ページキーコード”によって、上記“バーチャル表示スクリーン”内の特定の位置内へ画像情報を配置するようにVTVプロセッサへの指示が行われる。動的に画像を配置する上記能力の結果、高解像度と高いフレームレートのいずれにも著しい犠牲を生じることなく、高解像度と高いフレームレートの双方の達成と同等の効果を得ることが可能となる。例えば、高速で変化している画像セクションのみが高速の画像更新を必要とするのに対して、画像の大部分は一般に静的である。(一般に動いている)重要な要素が主要場面に配置される従来方式の画像撮影法とは異なり、パノラマ画像の大部分は一般に静的である。
(VTV画像規格:)
2.1)VTV画像規格は、その最も基本的な形において、バーチャルな360°パノラマ表示画面から構成され、VCR、DVD、衛星、カメラあるいは地上テレビ受信装置のような外部のビデオソースから得られるビデオ画像をこのパノラマ表示画面上に描画することが可能であり、その結果、各ビデオフレームには、ビデオ情報だけでなく、バーチャルな表示画面内における各ビデオフレームの位置を定義する情報も含まれる。このようなシステムは、可変解像度画像だけでなく、フレームレートに依存しない画像も出力するので、著しく汎用性が高い。すなわち、ある特定のバーチャルな画像(バーチャル表示画面全体)内の実際の更新率は表示画面自体の中で異なっていると考えられる。この更新は、自身のバーチャル位置情報を含む各フレームによって達成される。これによって、ほとんどあるいはまったく変化しない画像上の非更新セクションのわずかな認知を行うことだけでバーチャル画像のアクティブ領域の更新を迅速に行うことが可能となる。このようなシステムが図4に図示されている。
2.1)VTV画像規格は、その最も基本的な形において、バーチャルな360°パノラマ表示画面から構成され、VCR、DVD、衛星、カメラあるいは地上テレビ受信装置のような外部のビデオソースから得られるビデオ画像をこのパノラマ表示画面上に描画することが可能であり、その結果、各ビデオフレームには、ビデオ情報だけでなく、バーチャルな表示画面内における各ビデオフレームの位置を定義する情報も含まれる。このようなシステムは、可変解像度画像だけでなく、フレームレートに依存しない画像も出力するので、著しく汎用性が高い。すなわち、ある特定のバーチャルな画像(バーチャル表示画面全体)内の実際の更新率は表示画面自体の中で異なっていると考えられる。この更新は、自身のバーチャル位置情報を含む各フレームによって達成される。これによって、ほとんどあるいはまったく変化しない画像上の非更新セクションのわずかな認知を行うことだけでバーチャル画像のアクティブ領域の更新を迅速に行うことが可能となる。このようなシステムが図4に図示されている。
2.2)画像のリアリズムのさらなる改善を図るために、図5に図示のフォーマットに合わせて基本VTVシステムの拡張を行うことができる。この構成では、円筒形状のバーチャル表示画面が先端を切り落とした球面としてVTVプロセッサにより解釈される。VTVプロセッサのデジタル処理ハードウェア構成要素内のジオメトリトランスレータ、すなわち”ワープエンジン”を使用することによって、上記効果を容易に生み出すことが可能となる。
2.3)絶対基準平面が絶えず変動することから、(HMDベースまたはPan−Camベースのいずれかの)移動カメラ用アプリケーションでは、VTVグラフィックエンジンが画像を正しく復号化できるように、カメラシステムの方位角と高度に関連するトラッキング付加情報が視覚情報と共に含まれることが求められる。このようなシステムでは、カメラの絶対方位角と高度が画像フレーム情報の一部となる。この絶対基準データを解釈することができるいくつかの技法が存在する。まず、座標データを用いてメモリ書き込み処理中にメモリ内に像面の原点を画定することができる。残念ながら、上記アプローチでは、異なるアラインメント値を持つ前回のフレームからの残りの画像フラグメントが結果としてメモリ内に残される傾向がある。さらに実際的な解決方法として、単に、0方位角、0高度の想定基準点と共にビデオ情報をメモリの中へ書き込む方法がある。次いで、カメラアングルの補正値に対応する表示ビューポートの補正により上記ビデオ情報の正しい表示が行われる。このようなシステムの1つの可能なデータフォーマットが図11及び表1に図示されている。
(オーディオ規格:)
2.4)360°パノラマビデオに加えて、4トラック(4チャネル録音再生方式)または8トラック(8チャネル録音再生方式)のいずれかの立体的サウンドもVTV規格によってサポートされる。4トラックシステムのバーチャルな表現が図6に示されている。単純な4トラックオーディオシステムの場合、サウンドシステムの左右スピーカ(またはHMDベースのシステムの場合、ヘッドホン)を通る音は、ビューポート(VR環境内での視聴方向)の方位角に基づいてスケーリングされる。8トラックオーディオシステムの場合、サウンドシステムの左右スピーカ(またはHMDベースのシステムの場合、ヘッドホン)を通る音は、システムのバーチャルな表現(図7)に図示のように、ビューポートの方位角と高度の双方に基づいてスケーリングされる。
2.4)360°パノラマビデオに加えて、4トラック(4チャネル録音再生方式)または8トラック(8チャネル録音再生方式)のいずれかの立体的サウンドもVTV規格によってサポートされる。4トラックシステムのバーチャルな表現が図6に示されている。単純な4トラックオーディオシステムの場合、サウンドシステムの左右スピーカ(またはHMDベースのシステムの場合、ヘッドホン)を通る音は、ビューポート(VR環境内での視聴方向)の方位角に基づいてスケーリングされる。8トラックオーディオシステムの場合、サウンドシステムの左右スピーカ(またはHMDベースのシステムの場合、ヘッドホン)を通る音は、システムのバーチャルな表現(図7)に図示のように、ビューポートの方位角と高度の双方に基づいてスケーリングされる。
2.5)その最も基本的な形では、図12に図示するようなデジタル/アナログハイブリッドフォーマットにおいて、VTV規格によって、ビデオ情報の一部としてマルチトラックオーディオチャネルの符号化が行われる。その結果、現行機器とビデオとの互換性の達成が可能となる。この例図に見られるように、オーディオデータは、アナログコード化された圧縮フォーマットで格納されているため、各ビデオ走査線には512本のオーディオサンプルが含まれるようになる。このアナログコード化オーディオ情報に加えて、各オーディオ走査線には、オーディオ情報の“プレスケーリング”に用いられる3ビットデジタルコードが含まれる。すなわち、実際のオーディオサンプル値はX*Sであり、ここでXはプレスケール番号であり、Sはサンプル値である。上記2種の符号化方式を用いて、オーディオシステムのダイナミックレンジを約43dBから60dB以上まで拡げることが可能となる。第2に、このダイナミックレンジの拡張は、オーディオ品質に対して比較的“低コスト”で行われる。なぜなら、信号レベル全体が高ければ、人は音の歪みに対して相対的に敏感ではないからである。スタートビットはこのシステムでは重要な構成要素である。スタートビットの機能は、走査線に対して最大レベル(例えば100%レベルすなわち白レベル)を設定することである。黒レベル(このレベルはカラーバーストの直後にサンプリングすることができる)と関連するこのレベルは、各ラインに対して0%と100%のレンジを形成する。ラインベースで各ラインに対する0%と100%のマークを動的に調整することにより、走査線のデジタル成分の復号化の精度が向上することに加えて、ビデオサブモジュールのAC結合および/またはビデオメディアの録画と再生に起因して生じる黒レベルの変動に対するシステム感度がずっと低くなる。
2.6)このデジタル情報のプレスケーリングに加えて、オーディオ制御ビット(AS)が(ライン21の)各フィールドに含まれる。この制御ビットによってオーディオバッファシーケンスは設定時0に設定される。この設定によって、4または8トラックオーディオ情報が同期されて、その結果、ビデオページの更新シーケンスに関係なく常に現在のデータから正しいトラックの更新が行われる。
2.7)別の構成では、ビデオ録画再生システム(典型的にはデジタルオーディオトラックや線形アナログオーディオトラック)により出力される従来方式のステレオオーディオを用いることによって、立体的サウンドの提供が可能となる。最善でも、このような従来方式のシステムでは、2つのオーディオトラックだけに48kHzのサンプルレート(すなわち、2チャネル24kHzオーディオ)が与えられるのみである。しかし、オーディオデータをタイムドメインで圧縮することによって同じ記憶メディア上へさらに多数のオーディオトラック(例えば4または8オーディオトラック)を符号化し、次いで、その結果得られるデータの時分割多重化を行うことが可能となる。受信側では、まず時分割多重化されたデータを復号化し、次いでオーディオデータを解凍することによって上記プロセスが逆に行われて、一連の連続するオーディオストリームが形成される。高いオーダーのノッチフィルタまたはハイパスフィルタを組み込んで、時分割多重化/逆多重化処理手順により生じるサンプリングノイズをすべて取り除くようにすることが好ましい。このようなフィルタは、おそらくデジタル設計のフィルタであり、単にVTVプロセッサのデジタル処理用ハードウェアの一部にすぎない。このようなオーディオ符号化システムのための代表的な構成が図13〜15に図示されている。
このようなシステムが簡単に実現可能であることは明らかである。オーディオチャネル数の増加による“パフォーマンス代価”は、システムの周波数応答が減少することである。この減少はチャネル数の上昇に直接比例する。例えば、チャネル数が2から4へ増加すると、周波数応答が24kHzから12kHzへ減少することになる。この減少レベルは容認できる範囲のレベルであり、最終的にこのオーディオの多重化システムは、比較的“ロバスト(robust)”で、かつ、VTVフォーマットマテリアルの実施と編集が容易であるという点から見て、顕著な利点を与えるものであるという点で、前述したビデオ符号化されたオーディオシステムよりも好ましいものとなり得るものである。
任意の時分割多重化システムの有効な実施において最も重要なファクタの1つとして、時分割符号化クロック及び復号化クロックの安定した精度の高い生成が挙げられる。これは絶対に重要なファクタである。なぜなら、復号化されたデータパケットのいかなるミスアラインメントも非常に顕著なチャネルクロストークに関連するノイズを結果として引き起こすことになるからである。本VTVシステムでは、ビデオストリームの中に同期信号(H同期やV同期、奇数/偶数などのいずれか)を用いて、ローカル復号化クロックを生成させることで、この問題に対する新規かつ非常に有効な解決方法を組み込む。これらの信号は一般に非常に正確であり、デジタル記録機器をVTVデータの保存に利用する場合、特に正確である。
好ましい実施形態では、時分割復号化ノイズ(NTSCに対して毎秒60スパイク)が相対的にほとんど発生しないこと、このノイズがデジタルノッチフィルタを使用することで(必要な場合)容易に除去できると考えられることを考慮して、復号化クロックとしておそらくV同期が使用されることになる。一方、(H同期などの)高周波時分割クロックを選択した場合、さらに多くの不連続インスタンス(毎秒約15,000)が発生する可能性があるが、同様に、デジタルフィルタ(この場合ローパスフィルタ)によってこれらのインスタンスを除去することが可能である。HDTVやその他の高い走査速度(31kHzまたはそれ以上の)のTV規格を用いる場合、高速の復号化クロックの方が好ましいものになると考えられる。なぜなら、このような状況では、フィルタリングの要件が非常に簡単でかつ効果的になるためである。さらに、高速の復号化クロックを利用するシステムではメモリ要件が大幅に減少する。
2.8)コンピュータ用AVファイル及びデジタルテレビ送信などのさらに優れたマルチメディア用データフォーマットでは、さらに効率的であるか、あるいは利点の多い別の方法でこれらの付加的オーディオトラックを格納することも可能である。
2.9)視聴覚装置としての利用に加えて、この空間オーディオシステム/規格を、好適でコンパクトなトラッキング装置と1組のコードレスヘッドホンとを組み合わせることによって、オーディオ専用モードで使用して、高性能のハイファイ機器用空間オーディオシステムの実現を図ることも可能であることに注意されたい。
(拡張機能)
2.10)上記の単純化した画像規格に加えて、単独でまたは基本VTV画像規格と共に使用可能な多数の拡張機能がある。後続する発明で、a)c−com、b)s−com、c)v−comとして知られる3つの画像規格について詳細に説明するが、これは本発明の目的のために行うものである。
2.10)上記の単純化した画像規格に加えて、単独でまたは基本VTV画像規格と共に使用可能な多数の拡張機能がある。後続する発明で、a)c−com、b)s−com、c)v−comとして知られる3つの画像規格について詳細に説明するが、これは本発明の目的のために行うものである。
2.11)最初の2つの規格が空間画像オブジェクトの定義に関するものであるのに対して、第3の画像規格は、サブセットとして第1の規格を利用し、追加の環境定義と制御アルゴリズムとを組み込む完全なVR環境定義言語に関する規格である。
2.12)(最も基本的な形での)VTV画像規格は、従来方式のビデオ規格(NTSC、PALなど)の層の上位にある制御層と考えることができる。したがって、VTV画像規格は従来方式のアナログビデオ送信規格に制限されることは全くない。基本的に同一の技術を用いて、本VTV規格は、HDTV規格並びにコンピュータグラフィック及び工業用視聴覚規格の多くと共に機能することができる。
2. 13)表1と図11で概説したデジタル制御情報は、現行のアナログTVシステムとの互換性を有する本システムの一つの可能な構成を表すものにすぎず、仕様の一般性を減じるものではない。制御ビットの別の構成および/またはこの情報を符号化してアナログTVなどのようなビデオフォーマットに変換する別の方法が存在し、そのような構成および/または方法も同様に有効である。例えば、MJPEGやMPEG-IIなどの多くのデジタル符号化処理によって、連続するビデオ走査線が平均化されることが多く、図11に図示するような単一ラインとして符号化される場合、デジタル情報が損なわれる傾向があることが知られている。しかし、一連のラインまたは連続するラインとしてこの情報を符号化すれば、この問題は解決される。このような構成では、データは、一連の直線分ではなく、結果として得られる画像内の一連の小さな矩形として符号化されるデータと考えることができる。このような変更は予想されるものであり、別のビデオフォーマット、特にHDTVなどのようなデジタル符号化されたフォーマットを用いてパフォーマンス効率の向上を図る、さらに別の適合化が予想される。
(VTVプロセッサ:)
3.1)VTVグラフィックプロセッサはVTVシステムの核心部である。このモジュールは、その最も基本的な形で、表示装置(従来方式のTV/HDTVあるいはHMDのいずれか)へ出力画像をリアルタイムで生成する役割を果たすものである。VCR、DVD、衛星、カメラあるいは地上テレビ受信機のようなビデオメディア供給装置から入力される生の画像情報のデジタル化に加えて、このモジュールのさらに優れたバージョンでは、インターネットやその他のネットワーク接続を介して渡される“ユニバーサル画像言語(universal graphics language)”から得られる画像をリアルタイムで描画することも可能である。このデジタル化タスクと描画タスクに加えて、VTVプロセッサは画像解析を実行することも可能である。本システムの初期のバージョンは、HMDの座標のトラッキングを確定することを目的としてこの画像解析機能を利用するものである。このモジュールのさらに優れたバージョンでは、上記トラッキング情報の提供の他に、HMDから得られるリアルワールド画像の物理的3次元オブジェクトとしての解釈も行われる。これらの3次元オブジェクトはユニバーサル画像言語で定義され、次いで、それを記録し、インターネットやその他のネットワークを介して同様の遠隔地にある表示装置へ通信したり、あるいは、類似する物理的サイズの別のバーチャルなオブジェクトにより置き換えたりすることが可能であり、それによって、真の拡張リアリティ体験が創り出される。
3.1)VTVグラフィックプロセッサはVTVシステムの核心部である。このモジュールは、その最も基本的な形で、表示装置(従来方式のTV/HDTVあるいはHMDのいずれか)へ出力画像をリアルタイムで生成する役割を果たすものである。VCR、DVD、衛星、カメラあるいは地上テレビ受信機のようなビデオメディア供給装置から入力される生の画像情報のデジタル化に加えて、このモジュールのさらに優れたバージョンでは、インターネットやその他のネットワーク接続を介して渡される“ユニバーサル画像言語(universal graphics language)”から得られる画像をリアルタイムで描画することも可能である。このデジタル化タスクと描画タスクに加えて、VTVプロセッサは画像解析を実行することも可能である。本システムの初期のバージョンは、HMDの座標のトラッキングを確定することを目的としてこの画像解析機能を利用するものである。このモジュールのさらに優れたバージョンでは、上記トラッキング情報の提供の他に、HMDから得られるリアルワールド画像の物理的3次元オブジェクトとしての解釈も行われる。これらの3次元オブジェクトはユニバーサル画像言語で定義され、次いで、それを記録し、インターネットやその他のネットワークを介して同様の遠隔地にある表示装置へ通信したり、あるいは、類似する物理的サイズの別のバーチャルなオブジェクトにより置き換えたりすることが可能であり、それによって、真の拡張リアリティ体験が創り出される。
3.2)VTVハードウェア自体は以下のようなサブモジュール群から構成される。:
a)ビデオデジタル化モジュール
b)拡張リアリティメモリ(ARM)
c)バーチャルリアリティメモリ(VRM)
d)変換メモリ(TM)
e)デジタル処理ハードウェア
f)ビデオ生成モジュール
3.3)これらのモジュールの正確な構成は他の外部ハードウェアによって決まる。例えば、デジタルビデオソースを用いる場合、ビデオデジタル化モジュールは比較的単純なものとなり、1グループのラッチバッファまたはFIFOバッファのみから構成される。しかし、コンポジットビデオ入力やY/Cビデオ入力を利用する場合、これらの信号をデジタル形式へ変換するための追加ハードウェアが必要となる。さらに、ビデオ入力ソースとしてデジタルHDTV信号を使用する場合、(HDTV信号は圧縮されたフォーマットでは処理できないため)システムのフロントエンドとしてHDTVデコーダが必要となる。
a)ビデオデジタル化モジュール
b)拡張リアリティメモリ(ARM)
c)バーチャルリアリティメモリ(VRM)
d)変換メモリ(TM)
e)デジタル処理ハードウェア
f)ビデオ生成モジュール
3.3)これらのモジュールの正確な構成は他の外部ハードウェアによって決まる。例えば、デジタルビデオソースを用いる場合、ビデオデジタル化モジュールは比較的単純なものとなり、1グループのラッチバッファまたはFIFOバッファのみから構成される。しかし、コンポジットビデオ入力やY/Cビデオ入力を利用する場合、これらの信号をデジタル形式へ変換するための追加ハードウェアが必要となる。さらに、ビデオ入力ソースとしてデジタルHDTV信号を使用する場合、(HDTV信号は圧縮されたフォーマットでは処理できないため)システムのフロントエンドとしてHDTVデコーダが必要となる。
3.4)アナログTVなどのようなフィールドベースのビデオシステムの場合、VTVグラフィックエンジンの基本処理は以下のようになる:
a)ビデオ情報がデジタル化され、0°方位角、0°高度の絶対ページ基準を想定して、フィールドベース(a field by field basis)で拡張リアリティメモリ内に入れられ、各ページの原点がページ番号ビット(P3〜P0)の状態により確定される。
a)ビデオ情報がデジタル化され、0°方位角、0°高度の絶対ページ基準を想定して、フィールドベース(a field by field basis)で拡張リアリティメモリ内に入れられ、各ページの原点がページ番号ビット(P3〜P0)の状態により確定される。
b)背景および/または床/天井マップに関連する補助ビデオ情報は、“フィールドタイプ”ビット(F3〜F0)とページ番号ビット(P3〜P0)の状態によって決まる。フィールドベースでバーチャルリアリティメモリ内にロードされるか、セクション3.12に記載のような拡張リアリティメモリ内に入れられるビデオ情報の解釈によりリアルタイムで生成される。
c)デジタル処理用ハードウェアは、拡張リアリティメモリとバーチャルリアリティメモリの中に保持された上記情報を解釈し、ジオメトリ処理用エンジン(ワープエンジン)、デジタル減算画像処理、及び“ブルースクリーニング(blue−screening)”の新しい汎用性の高い形式との組み合わせを利用してこのデータを変換し、選択的にこのデータを合成して、ビデオマテリアルの撮影時に、パノラマカメラの在る位置と同じ位置に視聴者が立っていた場合に、その目に映る画像とほぼ類似の画像に変換する。この画像と、従来方式のビデオ技法を利用して入手可能な画像との間の主要な相違点として、前者の画像は、360°のパノラマ画像であるだけでなく、複合した没入型の拡張リアリティ体験を形成できるように一体に融合されたバーチャルリアリティと“リアルワールド”画像の双方の要素を備えることも可能であるという点が挙げられる。
d)バーチャルリアリティと“リアルワールド画像”とを合成する正確な方法はVTVプロセッサの作動モードによって決まるが、この方法については、本明細書の後のセクションでさらに詳細に説明する。この特別のVTVプロセッサモードは、ソースメディアの中に存在する追加の制御情報により決定される。したがって、VTVメディアのソースを表示しながら、処理モードと表示モードとを動的に変更することが可能である。
e)次いで、ビデオ生成モジュールは、従来方式のテレビまたはHMD表示装置に表示される単一のビデオ画像または一対のビデオ画像を生成する。(マルチスピンDVD装置が画像メディアとして使用されない場合)VTV画像フィールドは最大フレームレート未満で更新されるが、画像の描画は、立体的サウンドの更新の場合のように、そのまま最大のビデオフレームレートで行われる。これが可能である理由として、各“画像球面”が、視聴者の任意の方角(方位角と高度)に関連するビデオとオーディオ双方の必要な情報のすべてを含むということが挙げられる。
3.5)図9に見ることができるように、VTVプロセッサのメモリの書き込み側は(ADCの)2つの別個のビデオ入力段を示す。ADC−0は一般に生のパノラマビデオの送出に用いられ、ADC−2は一般に予め描画されたビデオマテリアルからのバーチャルリアリティビデオの送出に用いられるものではあるが、双方のビデオ入力段は、拡張リアリティメモリとバーチャルリアリティメモリの双方へ完全にアクセスする(すなわち、これらのメモリではメモリプールが用いられる)ことに注意されたい。上記ハードウェア構成では、設計時にさらに多くの汎用性がサポートされ、いくつかの通常のものとは異なる表示モードの実施が可能である(これについては後のセクションでさらに詳述する)。同様に、ビデオ出力段(DAC−0とDAC−1)はバーチャルリアリティメモリと拡張リアリティメモリの双方へ完全にアクセスする。
3.6)2つの入力段と2つの出力段とを備えることにより、設計の汎用性の向上が図られるが、メモリプールスタイルの設計により、1つ乃至2つの入力段のいずれかおよび/または出力段によってシステムが機能することが可能になり(但し機能は低下するが)、したがって、ある特定の実施構成において1つまたは2つの入力段あるいは出力段のいずれかが存在すれば、仕様の一般性が制限を受けるものではない。
3.7)設計の容易さのために、高速スタティックRAMがプロトタイプ装置のビデオメモリとして利用された。しかし、この設計仕様の一般性を制限することなく別のメモリ技術の利用も可能である。
3.8)好ましい実施形態では、デジタル処理ハードウェアは1以上のフィールドプログラマブル論理アレイやカスタムASICの形をとる。フィールドプログラマブル論理アレイを用いる利点としては、ハードウェアを何時でも更新可能であるという点が挙げられる。この技術の主な欠点としては、ASICほど高速ではないという点が挙げられる。あるいは、従来方式の高速デジタルプロセッサを利用して上記の画像解析および/または画像生成タスクを実行することも可能である。
3.9)前述したように、おそらくVTVハードウェア全体が携帯用HMD装置内に存在するようになる程度まで、このハードウェアの特定のセクションをHMDの中に組み込むことも可能である。このような場合、VTV基地局のハードウェアは、HMDとインターネットやその他のネットワークとの間のリンクとしてのみ機能することになり、すべてのグラフィック画像生成、画像解析及び空間オブジェクト認識はHMD自体の中で行われることになる。
3.10)注:ビューポートアドレスジェネレータの下位ビットは、生成された画像に対してバレル歪曲をかけるXY画像軸のルックアップテーブルアドレス変換装置を介して実行される。この変換装置によって、ビューポートの現在の視野の正確な画像の歪曲が示される。このハードウェアは、おそらくFPGAやASIC論理回路内に実装され、ビューポートアドレスジェネレータの機能ブロックの一部を含むことになるため、図10には明示されていない。同様の方法で最終画像の同じような回転が実現される。
3.11)ビューポート−0だけが変換エンジン(ワープエンジン)により影響を受け、ビューポート−1は歪みを受けずに読み出されることに注意されたい。スーパーインポーズ及びオーバーレイ拡張リアリティモードを使用する場合、この読み出しが必要となる。なぜなら、記憶装置から再生されるVRビデオマテリアルは格納される前に予め“平坦化”(すなわち、ピンクッション歪み)されているのに反して、HMDに備えられたパノラマカメラから得られる生のビデオ画像は、本システムによって拡張リアリティモードで表示される前に歪み補正を必要とするからである。上記予備的歪み補正を行った後、HMDのパノラマカメラにより録画された画像は、それ自体新しいVRマテリアルとして、幾何学的に正確でかつ格納に適したものにすることが望ましい(すなわち、これらの画像はVRマテリアルになることができる)。この場合、ワープエンジンの主要な役割の1つとしてはHMDのパノラマカメラのジオメトリ補正とトリミングとがある。この中にはカメラの視野間で切れ目のない移行を行うという複雑なタスクが含まれる。
(例外処理)
3. 12)図4、5に見られるように、VTV画像フレームは円筒形または先端を切り落とした球面のいずれかから構成される。この空間は、視聴者に対して有限の対頂角(試作品で+/−45°)でしか対していない。これは、ビデオ格納装置の利用可能なデータ帯域と送信メディアとを最大限に活用できるように設計された意図的な制限であり、これによって、現行ビデオシステムとの互換性が保たれる。しかし、この妥協の結果、ビューポートが画像データの範囲を超える状況が生じる可能性がある。この例外的状況を処理できるいくつかの異なる方法がある。第一に、この例外的状況を処理する最も単純な方法として、単に境界線外のビデオデータを黒にする方法が挙げられる。これによって、天井と床が黒い部屋に居る外観が得られる。上記とは別に、さらに優れたアプローチとして、“床”と“天井”(すなわちVTV画像フレームの底部と最上部に存在する画像情報に基づく、VTV画像フレームの下方及び上方の空間)を形成するアプローチがある。特定の一実施構成では、VTV画像フレームの最上部と底部の“リム”に対して赤、緑、青のピクセルの平均値を用いて、純色表面または好適にはグラデーションを施した色表面のいずれかを形成しその環境の“天井”と”床”とを表すようにすることも可能である。戸外で生成されるVTVビデオの状況では、通常天井が青のシェードで、床はほぼ地面の色という結果が生じることになる。ビューポートの高度に伴ってシェーディングを変動させることによって、生成される“床/天井”の現実感が改善され、その結果一般にビューポートの高度が+/−90°の極値に近づくにつれて、輝度が上昇する。この効果は、比較的単純な数学を利用して簡単に生成することができ、おそらくVTVグラフィックエンジンの一部としてハードウェア内で実現される。
3. 12)図4、5に見られるように、VTV画像フレームは円筒形または先端を切り落とした球面のいずれかから構成される。この空間は、視聴者に対して有限の対頂角(試作品で+/−45°)でしか対していない。これは、ビデオ格納装置の利用可能なデータ帯域と送信メディアとを最大限に活用できるように設計された意図的な制限であり、これによって、現行ビデオシステムとの互換性が保たれる。しかし、この妥協の結果、ビューポートが画像データの範囲を超える状況が生じる可能性がある。この例外的状況を処理できるいくつかの異なる方法がある。第一に、この例外的状況を処理する最も単純な方法として、単に境界線外のビデオデータを黒にする方法が挙げられる。これによって、天井と床が黒い部屋に居る外観が得られる。上記とは別に、さらに優れたアプローチとして、“床”と“天井”(すなわちVTV画像フレームの底部と最上部に存在する画像情報に基づく、VTV画像フレームの下方及び上方の空間)を形成するアプローチがある。特定の一実施構成では、VTV画像フレームの最上部と底部の“リム”に対して赤、緑、青のピクセルの平均値を用いて、純色表面または好適にはグラデーションを施した色表面のいずれかを形成しその環境の“天井”と”床”とを表すようにすることも可能である。戸外で生成されるVTVビデオの状況では、通常天井が青のシェードで、床はほぼ地面の色という結果が生じることになる。ビューポートの高度に伴ってシェーディングを変動させることによって、生成される“床/天井”の現実感が改善され、その結果一般にビューポートの高度が+/−90°の極値に近づくにつれて、輝度が上昇する。この効果は、比較的単純な数学を利用して簡単に生成することができ、おそらくVTVグラフィックエンジンの一部としてハードウェア内で実現される。
しかしさらに別の好ましい構成として、低い解像度で最大360°*180°の背景画像マップを2次的ビデオメモリ格納装置を利用して格納する構成がある。このメモリ域はバーチャルリアリティメモリ(VRM)として知られている。(変換メモリと併せて)拡張リアリティメモリ及びバーチャルリアリティメモリの両方を利用するシステム用の基本メモリマップが図8に示されている。上記例図でわかるように、この変換メモリ域は最大360°*180°をカバーできる程の十分なレンジを持つ必要があり、理想的には、(360°*90°をカバーする)拡張リアリティメモリバンクの角度分解能と同じ角度分解能を持つ必要がある。このような構成によって、床及び天井に対する例外処理と、前景の窓を通して見たり、窓の後ろの背景を示したりするような変動する透明画像との両方の提供が可能となる。これらの背景は静的あるいは動的のいずれでも良く、ページ化されたフォーマットの利用により、前景(拡張リアリティメモリ)と基本的に同じ方法で更新が可能である。
(オペレーションモード)
3.13)VTVシステムには2つの基本的オペレーションモードがある。これら2つのモード内にはいくつかのサブモードも存在する。この2つの基本モードは以下の通りである:
a)拡張リアリティモード
b)バーチャルリアリティモード
(拡張リアリティモード1:)
3. 14)拡張リアリティモード1では、“リアルワールド画像”の選択成分がバーチャルリアリティの背景の上に重ねられる。一般に、この処理では、まず“リアルワールド”画像から背景成分をすべて除去する。これは、差分画像処理技術を用いて、すなわち現在の“リアルワールド”画像を前にとった格納済みのコピーと比較し、この2つの差分を検出することにより簡単に行うことができる。2つの画像の正確なアラインメントを行った後、異なる領域が新規のオブジェクトまたは前景のオブジェクトとなり、同じ状態のまま変化しない領域は静的な背景オブジェクトとなる。これは拡張リアリティモードの中で最も単純なモードであり、背景のほとんどは処理時に除去されることになるので、一般に十分な関心の対象となるものではない。移動式Pan−Cam(テレプレゼンス)や拡張リアリティモードで作動する場合、拡張リアリティメモリは、一般に、ランダムなページ更新ではなく、シーケンシャルなページ順に(すなわちシステムフレーム全体で)更新が行われることに注意されたい。このような更新を行う理由としては、撮影中のパノラマカメラシステムの位置と方角が常に変動するため、これらの変動を別々に処理した場合、画像ページの不一致が生じる可能性が高いということが挙げられる。
3.13)VTVシステムには2つの基本的オペレーションモードがある。これら2つのモード内にはいくつかのサブモードも存在する。この2つの基本モードは以下の通りである:
a)拡張リアリティモード
b)バーチャルリアリティモード
(拡張リアリティモード1:)
3. 14)拡張リアリティモード1では、“リアルワールド画像”の選択成分がバーチャルリアリティの背景の上に重ねられる。一般に、この処理では、まず“リアルワールド”画像から背景成分をすべて除去する。これは、差分画像処理技術を用いて、すなわち現在の“リアルワールド”画像を前にとった格納済みのコピーと比較し、この2つの差分を検出することにより簡単に行うことができる。2つの画像の正確なアラインメントを行った後、異なる領域が新規のオブジェクトまたは前景のオブジェクトとなり、同じ状態のまま変化しない領域は静的な背景オブジェクトとなる。これは拡張リアリティモードの中で最も単純なモードであり、背景のほとんどは処理時に除去されることになるので、一般に十分な関心の対象となるものではない。移動式Pan−Cam(テレプレゼンス)や拡張リアリティモードで作動する場合、拡張リアリティメモリは、一般に、ランダムなページ更新ではなく、シーケンシャルなページ順に(すなわちシステムフレーム全体で)更新が行われることに注意されたい。このような更新を行う理由としては、撮影中のパノラマカメラシステムの位置と方角が常に変動するため、これらの変動を別々に処理した場合、画像ページの不一致が生じる可能性が高いということが挙げられる。
(拡張リアリティモード2:)
3. 15)拡張リアリティモード2は、前景の自動抽出と、オブジェクトの移動と、人工的背景環境におけるこれらの配置とに加えて、システムがワープエンジンも利用して追加の“リアルワールド”オブジェクトを背景の中へ“押し込む”という点で、モード1とは異なるものである。これらの“リアルワールド”オブジェクトを単純にバーチャルな環境の中へ追加することに加えて、ワープエンジンは、これらのオブジェクトのスケーリングと変換とを行う能力も有するため、より有効にこれらのオブジェクトがバーチャルな環境の中へマッチするようになる。これらのオブジェクトは、不透明な重なりあるいは透明なものとして処理することができる。
3. 15)拡張リアリティモード2は、前景の自動抽出と、オブジェクトの移動と、人工的背景環境におけるこれらの配置とに加えて、システムがワープエンジンも利用して追加の“リアルワールド”オブジェクトを背景の中へ“押し込む”という点で、モード1とは異なるものである。これらの“リアルワールド”オブジェクトを単純にバーチャルな環境の中へ追加することに加えて、ワープエンジンは、これらのオブジェクトのスケーリングと変換とを行う能力も有するため、より有効にこれらのオブジェクトがバーチャルな環境の中へマッチするようになる。これらのオブジェクトは、不透明な重なりあるいは透明なものとして処理することができる。
(拡張リアリティモード3:)
3. 16)拡張リアリティモード3の場合、ワープエンジンを用いて、背景オブジェクトを前景の中へ“引き込み”、“リアルワールド”オブジェクトを置き換えるという点でモード2とは異なるものである。モード2の場合のように、これらのオブジェクトの変換及びスケーリングを行うことが可能であり、不透明な重なりあるいは透明なもののいずれかとしてこれらのオブジェクトの処理を行うことが可能である。これによって、ユーザは“リアルワールド”オブジェクトの物理的サイズと位置をバーチャルなオブジェクトと「一致」させることができるようになる。これを行うことにより、ユーザは、“リアルワールド”環境の場合と同じように、拡張リアリティ環境内で交信し、ナビゲーションを行うことが可能となる。上記モードは、ユーザ自身の居間の中へハリウッド製作の映画を持ち込むことを可能にするものとして、娯楽目的やゲーム目的のためにおそらく最も利用が予想されるモードである。
3. 16)拡張リアリティモード3の場合、ワープエンジンを用いて、背景オブジェクトを前景の中へ“引き込み”、“リアルワールド”オブジェクトを置き換えるという点でモード2とは異なるものである。モード2の場合のように、これらのオブジェクトの変換及びスケーリングを行うことが可能であり、不透明な重なりあるいは透明なもののいずれかとしてこれらのオブジェクトの処理を行うことが可能である。これによって、ユーザは“リアルワールド”オブジェクトの物理的サイズと位置をバーチャルなオブジェクトと「一致」させることができるようになる。これを行うことにより、ユーザは、“リアルワールド”環境の場合と同じように、拡張リアリティ環境内で交信し、ナビゲーションを行うことが可能となる。上記モードは、ユーザ自身の居間の中へハリウッド製作の映画を持ち込むことを可能にするものとして、娯楽目的やゲーム目的のためにおそらく最も利用が予想されるモードである。
(拡張機能)
3. 17)拡張リアリティモード2及び3を生成し、有効に作動させるキーとなるのは、高速かつ正確な光トラッキングシステムであることは明らかである。理論的には、VTVプロセッサが“リアルワールド”オブジェクトをリアルタイムで識別し、トラッキングすることが可能である。しかし、特に、“リアルワールド”環境内における視聴者の物理位置の変化と共にオブジェクトジオメトリが大幅に変化するため、この識別とトラッキングは複雑なものとなる。したがって、単純な自動相関型のトラッキング技法が有効に機能しないことになる。このような状況では、逆反射作用を生じるいくつかのターゲットを当該オブジェクトのキー要素上に配置することにより、トラッキング精度の大幅な向上を図ることが可能である。比較的単純な差分画像処理技術の利用により、このような逆反射作用を生じるターゲットを容易に識別することが可能である。
3. 17)拡張リアリティモード2及び3を生成し、有効に作動させるキーとなるのは、高速かつ正確な光トラッキングシステムであることは明らかである。理論的には、VTVプロセッサが“リアルワールド”オブジェクトをリアルタイムで識別し、トラッキングすることが可能である。しかし、特に、“リアルワールド”環境内における視聴者の物理位置の変化と共にオブジェクトジオメトリが大幅に変化するため、この識別とトラッキングは複雑なものとなる。したがって、単純な自動相関型のトラッキング技法が有効に機能しないことになる。このような状況では、逆反射作用を生じるいくつかのターゲットを当該オブジェクトのキー要素上に配置することにより、トラッキング精度の大幅な向上を図ることが可能である。比較的単純な差分画像処理技術の利用により、このような逆反射作用を生じるターゲットを容易に識別することが可能である。
(バーチャルリアリティモード:)
3. 18)バーチャルリアリティモードは前述の拡張リアリティモードよりも機能的に単純なモードである。このモードでは、“予め撮影された”またはコンピュータで生成された画像がランダムなページベースで拡張リアリティメモリの中へロードされる。これが可能となるのはバーチャルカメラの基準平面が固定されているためである。前述の例の場合のように、バーチャルリアリティのメモリは固定した背景や動的背景と共にさらに低い解像度でロードされる。前景像面及び背景像面の双方を使用することで、運動視差などのさらに優れた画像処理技術が可能となる。
3. 18)バーチャルリアリティモードは前述の拡張リアリティモードよりも機能的に単純なモードである。このモードでは、“予め撮影された”またはコンピュータで生成された画像がランダムなページベースで拡張リアリティメモリの中へロードされる。これが可能となるのはバーチャルカメラの基準平面が固定されているためである。前述の例の場合のように、バーチャルリアリティのメモリは固定した背景や動的背景と共にさらに低い解像度でロードされる。前景像面及び背景像面の双方を使用することで、運動視差などのさらに優れた画像処理技術が可能となる。
(拡張機能)
3. 19)拡張された形の“ブルースクリーニング”を利用することにより、バーチャルリアリティメモリ(背景メモリ)の汎用性の向上を図ることが可能となる。このようなシステムでは、“クロマキー”カラーのサンプルが背景フィールド(アクティブな画像領域の外側領域)における各走査線の開始時に与えられる。これによって、画像内で任意の色が許容可能となる汎用性の高いシステムが得られる。したがって、“透明な”クロマキーカラーによって個々のオブジェクトを囲繞することで、ワープエンジンによるこのオブジェクトの“カット&ペースト”に関連する問題と不正確さとが大幅に減少する。さらに、前景のバーチャルリアリティ画像内の“透明な”クロマキー済みの領域を使用することにより、その上に付加情報を伴うことなく、複雑な鋭く尖った領域および/または動的前景領域の簡単な生成が可能となる。
3. 19)拡張された形の“ブルースクリーニング”を利用することにより、バーチャルリアリティメモリ(背景メモリ)の汎用性の向上を図ることが可能となる。このようなシステムでは、“クロマキー”カラーのサンプルが背景フィールド(アクティブな画像領域の外側領域)における各走査線の開始時に与えられる。これによって、画像内で任意の色が許容可能となる汎用性の高いシステムが得られる。したがって、“透明な”クロマキーカラーによって個々のオブジェクトを囲繞することで、ワープエンジンによるこのオブジェクトの“カット&ペースト”に関連する問題と不正確さとが大幅に減少する。さらに、前景のバーチャルリアリティ画像内の“透明な”クロマキー済みの領域を使用することにより、その上に付加情報を伴うことなく、複雑な鋭く尖った領域および/または動的前景領域の簡単な生成が可能となる。
(カメラシステム:)
4.1)画像規格の定義でわかるように、移動式Pan−CamやHMDベースのビデオシステムにより取得される画像を正しく配置し、次いで表示するためには、追加のページ配置及びトラッキング情報が必要となる。さらに、立体的サウンドをリアルタイムで記録する場合、ビデオストリームの一部として上記情報の符号化も行わなければならない。コンピュータ生成画像の場合、描画段階でこの追加ビデオ情報を簡単に挿入することができる。これに対して、生のビデオを取得する場合、録画の前に上記追加トラッキング情報とオーディオ情報とをビデオストリームの中へ挿入しなければならない。これは、本明細書で以後VTVエンコーダモジュールと呼ぶ画像処理用モジュールにより効果的に達成することができる。
4.1)画像規格の定義でわかるように、移動式Pan−CamやHMDベースのビデオシステムにより取得される画像を正しく配置し、次いで表示するためには、追加のページ配置及びトラッキング情報が必要となる。さらに、立体的サウンドをリアルタイムで記録する場合、ビデオストリームの一部として上記情報の符号化も行わなければならない。コンピュータ生成画像の場合、描画段階でこの追加ビデオ情報を簡単に挿入することができる。これに対して、生のビデオを取得する場合、録画の前に上記追加トラッキング情報とオーディオ情報とをビデオストリームの中へ挿入しなければならない。これは、本明細書で以後VTVエンコーダモジュールと呼ぶ画像処理用モジュールにより効果的に達成することができる。
(画像取得)
4.2)移動式パノラマカメラシステムにより収集される画像の場合、画像はまずVTVエンコーダモジュールにより処理される。この装置によってビデオ歪み補正が行われ、ビデオページ情報、方角トラッキングデータ及び立体的サウンドデータがビデオストリームの中へ挿入される。ビデオ規格を変更せずに上記挿入が可能なため、現行の記録再生装置との互換性が保たれる。このモジュールはVTVプロセッサ内へ組み込むこともできるが、最終的にビデオ情報を格納するか、何らかの形で無線ネットワークを介して送信するかのいずれかを必要とする遠隔カメラ用アプリケーションで使用するには、このモジュールを別個の構成要素として設けるのが好都合である。
4.2)移動式パノラマカメラシステムにより収集される画像の場合、画像はまずVTVエンコーダモジュールにより処理される。この装置によってビデオ歪み補正が行われ、ビデオページ情報、方角トラッキングデータ及び立体的サウンドデータがビデオストリームの中へ挿入される。ビデオ規格を変更せずに上記挿入が可能なため、現行の記録再生装置との互換性が保たれる。このモジュールはVTVプロセッサ内へ組み込むこともできるが、最終的にビデオ情報を格納するか、何らかの形で無線ネットワークを介して送信するかのいずれかを必要とする遠隔カメラ用アプリケーションで使用するには、このモジュールを別個の構成要素として設けるのが好都合である。
(トラッキングシステム:)
4.3)“Pan−Cam”やHMDベースのカメラシステムのようないずれの移動式パノラマカメラシステムの場合も、“絶対”方位角と高度座標系を維持するために、トラッキング情報は、結果として得られるビデオストリームの一部を含む必要がある。コンピュータ生成画像の場合、カメラ方向は描画時にコンピュータシステムが認知する理論上の構成物であるため、上記データは必要ではない。
4.3)“Pan−Cam”やHMDベースのカメラシステムのようないずれの移動式パノラマカメラシステムの場合も、“絶対”方位角と高度座標系を維持するために、トラッキング情報は、結果として得られるビデオストリームの一部を含む必要がある。コンピュータ生成画像の場合、カメラ方向は描画時にコンピュータシステムが認知する理論上の構成物であるため、上記データは必要ではない。
(基本システム:)
4.4)VTV HMDの基本トラッキングシステムでは、オンボードのパノラマビデオカメラを利用して、囲繞するリアルワールド環境に関する360°の必要な視覚情報が取得される。次いで、この情報は、自動相関のような計算上集中的な、しかしアルゴリズムの点からは比較的単純な技法を利用して、VTVプロセッサ(HMD内に存在するか基地局ユニットとして存在するかの如何にかかわらず)により解析される。可能なアルゴリズムの例が図16〜22に示されている。
4.4)VTV HMDの基本トラッキングシステムでは、オンボードのパノラマビデオカメラを利用して、囲繞するリアルワールド環境に関する360°の必要な視覚情報が取得される。次いで、この情報は、自動相関のような計算上集中的な、しかしアルゴリズムの点からは比較的単純な技法を利用して、VTVプロセッサ(HMD内に存在するか基地局ユニットとして存在するかの如何にかかわらず)により解析される。可能なアルゴリズムの例が図16〜22に示されている。
4.5)図16〜22に概説される単純なトラッキングシステムは位置と方角の変化のみを検出するシステムである。差分画像処理技術を用いることで容易に背景画像から識別できるいくつかの逆反射作用を生じるターゲットを追加することにより、絶対基準点を得ることが可能となる。このような絶対基準点は、VTVハードウェアがこれらのマーカーのリアルワールド座標を認知するかぎり、現実の環境内のどこに置かれるようなことがあっても、環境領域の末端部(すなわち、ユーザスペースの境界部)に位置することになると考えられる。(画像解析データから得られる)上記絶対基準点と差分運動との組み合わせによって、最大のビデオフレームレートでの絶対リアルワールド座標情報の生成が可能となる。所定の空間座標における逆反射作用を生じるターゲット配置の代替物として、アクティブな光ビーコンを用いることも可能である。これらの装置は、ビデオ取得レートと同期してストロボが発光するように構成され、結果として得られる画像に対する差分ビデオ解析が可能となるという点で、逆反射作用を生じるターゲットと同様の方法で作動する装置である。しかし、逆反射作用を生じるパッシブなターゲットとは異なり、アクティブな光ビーコンは、ビデオ取得と同期してストロボを発光することに加えて、上記ターゲットのリアルワールド座標を記述する付加情報をHMDへ送信することも可能である。その結果、このシステムは、上記データを“リアルタイムで”取り出すことも可能であるため、これらビーコンの位置を明白に認知する必要がなくなる。従って、このようなシステムは、単純な逆反射作用を生じる構成よりもある程度頑丈な非常に汎用性の高いシステムとなる。パッシブなまたはアクティブなビーコンのいずれかの利用に加えて、双方の技法の組み合わせを用いることで、非常に汎用性の高いかつ強力なトラッキングシステムを形成することも可能である。逆反射作用を生じるターゲットの光源に対して“逆相”でアクティブな光ビーコンにそのストロボ光を発光させることにより、光点が互いに180°位相を異にしたものになるという事実に基づいて、差分画像解析技術を利用して、背景環境からの画像抽出と、(光を出射する)アクティブビーコンか(光を反射する)パッシブビーコンのいずれかから発するような光点の効果的類別との双方を行うようにすることが可能となる。VTVプロセッサによってアクティブビーコンのタイミングを生成することが可能であるが、パッシブビーコン用として使用されるHMDからの光ストロボパルスの検出により、あるいは、HMDからの赤外線パルスのような2次的光タイミング信号の利用により、自動的にタイミングを発生させるほうが好ましいであろう。このような構成では、アクティブビーコンをバッテリで駆動することも可能であり、追加の配線は何ら必要ではなくなる。何らかの光タイミング信号が存在しないときにこれらのアクティブビーコンがパワーダウンするように設計されていれば、作動していない時間中上記アクティブビーコンを停止させることさえ不要となるかも知れず、さらに、バッテリ消費量の大幅な増加を伴うことなく上記アクティブビーコンを永久に作動状態のままにすることも可能である。
アクティブビーコンは、単にその位置を単に示すことに加えて、移動HMDシステムへ付加情報を送信することが可能である。この情報は、作成される光パルスの色の変化とこれらの色の変化するタイミングとによって符号化される。最も単純な形では、各アクティブビーコンが様々な色の光を発生させることにより、簡単な分離と識別とを行うことが可能であるが、さらに優れた符号化技法もまた可能である。例えば、一連のカラーフラッシュによって或る特定の数を示すことが可能である。この数によって、ビーコンのコード番号を表すことも可能であり、あるいはさらに有用なこととして、ビーコンの物理的リアルワールド座標の符号化も可能である。このようなシステムは、シミュレーションの一部としてHMDへ転送しなければならない“リアルワールド”の“ビーコンマップ”を必要とせず、代わりにアクティブビーコンシステムを含む任意の空間から必要な情報をピックアップすることが可能なので、非常に汎用性の高いシステムとなる。
4.6)注:図23は、ある特定の運動の有無が自己相関器により単純に検出されるトラッキングハードウェアの単純化した図を示す。実用的システムでは、各クラスの運動用の複数の自己相関器を組み込むことになるであろう(例えば、16個またはそれ以上の、水平運動を検出する別々の自己相関器が存在してもよい)。このようなシステムでは、すべての方向で異なるレベルの運動や異なる量の運動を検出することが可能となる。
(その他の構成:)
4.7)空間位置情報を達成するために天井のパターンのトラッキングが行われる同様の画像解析技術と、HMD/Pan−Camシステムの角度方向を検出する単純な“チルトセンサ”とを利用する上記トラッキングシステムの代替実施構成が可能である。本システムの利点として、前述した最大6本の軸線を有する光トラッカに比べて著しく構成がシンプルで、低コストで済むという点が挙げられる。天井がHMDから一定の距離と所定の方角にあるという事実に起因して、光学系、必要な画像処理装置の品質、及び後続する画像解析の複雑さとが大幅に単純化される。前述の6軸線光トラッキングシステムの場合のように、上記空間位置情報は本質的に相対運動の形のみの情報である。しかし、“絶対基準点”を追加することによって、このようなシステムによってその絶対基準値を再較正して絶対座標系全体を達成することが可能となる。いくつかの異なる技法を利用して、比較的簡単に上記絶対基準点の較正を行うことが可能となる。第1のそしておそらく最も単純な技法として、前述したような色に敏感に感応する逆反射スポットの利用がある。上記とは別に、(LEDビーコンのような)アクティブな光ビーコンの利用も可能である。利用可能なさらに別の絶対基準較正システムとして双方向赤外線ビーコンをベースとするシステムもある。このようなシステムにより、HMDとビーコンとの間で一意のIDコードの通信が行われ、それによって、HMDが上記“既知の空間基準点”のうちのいずれかの下を通過する毎に1回だけ較正が行われることになる。これは、複数回の原点リセットに起因して生じる、較正ビーコンの近傍内にある“不感トラッキング領域”を回避するのに必要である。
4.7)空間位置情報を達成するために天井のパターンのトラッキングが行われる同様の画像解析技術と、HMD/Pan−Camシステムの角度方向を検出する単純な“チルトセンサ”とを利用する上記トラッキングシステムの代替実施構成が可能である。本システムの利点として、前述した最大6本の軸線を有する光トラッカに比べて著しく構成がシンプルで、低コストで済むという点が挙げられる。天井がHMDから一定の距離と所定の方角にあるという事実に起因して、光学系、必要な画像処理装置の品質、及び後続する画像解析の複雑さとが大幅に単純化される。前述の6軸線光トラッキングシステムの場合のように、上記空間位置情報は本質的に相対運動の形のみの情報である。しかし、“絶対基準点”を追加することによって、このようなシステムによってその絶対基準値を再較正して絶対座標系全体を達成することが可能となる。いくつかの異なる技法を利用して、比較的簡単に上記絶対基準点の較正を行うことが可能となる。第1のそしておそらく最も単純な技法として、前述したような色に敏感に感応する逆反射スポットの利用がある。上記とは別に、(LEDビーコンのような)アクティブな光ビーコンの利用も可能である。利用可能なさらに別の絶対基準較正システムとして双方向赤外線ビーコンをベースとするシステムもある。このようなシステムにより、HMDとビーコンとの間で一意のIDコードの通信が行われ、それによって、HMDが上記“既知の空間基準点”のうちのいずれかの下を通過する毎に1回だけ較正が行われることになる。これは、複数回の原点リセットに起因して生じる、較正ビーコンの近傍内にある“不感トラッキング領域”を回避するのに必要である。
(単純化:)
画像内の運動位置の検出に利用される基本的な自動相関技法を単純化して、かなり簡単な画像処理ステップにすることが可能である。まず、回転検出を単純化して、画像中心(カメラの光軸)の周りで左右対称を成す横方向の移動(上、下、左、右)の一群にすることが可能である。さらに、横方向運動に関連するこれらの“サンプルポイント”は必ずしも非常に大きなものである必要はない。しかしこれらの“サンプルポイント”は固有の映像情報を含む必要がある。例えば、特徴のない空白な壁は有用なトラッキング情報をもたらさないが、オブジェクトの端縁や高輝度の強調点のような高いコントラスト領域を持つ画像は比較的簡単にトラックされる。この考え方をさらに一歩進めて、最初に画像全体を縮減して強調点/端縁に変えるようにすることが可能である。次いで、一連の水平方向及び垂直方向のストリップとして画像処理を行い、強調点/端縁間に自動相関領域の境界を設けるようにすることができる。さらに、現在の画像と前回の画像フレームとの比較を行い、これら画像間の“最も近い可能なフィット部分”(すなわち強調点の最小運動部分)を確定することによって、狭い強調領域のトラッキングを非常に簡単に行うことが可能となる。このような技法は、画像前処理のオーバーヘッドの若干をハードウェアにより処理すれば比較的簡単であり、適度の処理スピードを持つマイクロプロセッサの能力の範囲内に十分含まれる。
画像内の運動位置の検出に利用される基本的な自動相関技法を単純化して、かなり簡単な画像処理ステップにすることが可能である。まず、回転検出を単純化して、画像中心(カメラの光軸)の周りで左右対称を成す横方向の移動(上、下、左、右)の一群にすることが可能である。さらに、横方向運動に関連するこれらの“サンプルポイント”は必ずしも非常に大きなものである必要はない。しかしこれらの“サンプルポイント”は固有の映像情報を含む必要がある。例えば、特徴のない空白な壁は有用なトラッキング情報をもたらさないが、オブジェクトの端縁や高輝度の強調点のような高いコントラスト領域を持つ画像は比較的簡単にトラックされる。この考え方をさらに一歩進めて、最初に画像全体を縮減して強調点/端縁に変えるようにすることが可能である。次いで、一連の水平方向及び垂直方向のストリップとして画像処理を行い、強調点/端縁間に自動相関領域の境界を設けるようにすることができる。さらに、現在の画像と前回の画像フレームとの比較を行い、これら画像間の“最も近い可能なフィット部分”(すなわち強調点の最小運動部分)を確定することによって、狭い強調領域のトラッキングを非常に簡単に行うことが可能となる。このような技法は、画像前処理のオーバーヘッドの若干をハードウェアにより処理すれば比較的簡単であり、適度の処理スピードを持つマイクロプロセッサの能力の範囲内に十分含まれる。
好ましい実施形態や特定の実施形態と関連して本発明を説明したが、本発明の範囲、あるいは本発明の発明概念から逸脱することなく、種々の変更及び追加の変形を行うことが可能であり、本発明の要素の代わりに同等の要素を用いることが可能であることを理解されたい。さらに、本発明の本質的範囲から逸脱することなく多くの改変を行って、特定の状況やマテリアルを本発明の教示に適合させることも可能である。したがって、本願明細書に開示された、本発明を実施するための特定の実施形態に本発明を限定することを意図するものではなく、本発明は添付の請求項の範囲に属するすべての実施形態例を含むものである。
本発明は、ユーザが映画の動きと関連して視聴者のビューイング方向と相対位置とを制御することを可能とする視聴覚システムを提供することを目的とする。 本発明の上記及び他の目的、利点及び産業上の利用可能性は添付の明細書と図面の再査により明らかである。
Claims (57)
- ソースメディアを供給するための従来方式のビデオ装置を利用して拡張型立体テレビジョン様の視聴体験を生み出す方法において、
(a)ソースメディアを供給するための従来方式のビデオ装置を利用して、リアルタイムでページベースで画像球面全体を更新するステップと、
(b)複数のさらに小さな画像のサブセクションから構成されるパノラマ画像を描くグラフィック画像を生成するステップと、を有することを特徴とする方法。 - 請求項1記載の方法において、グラフィック画像を生成するステップが、360°の水平方向の視野を持つパノラマ画像を供給するステップを有することを特徴とする方法。
- 請求項1記載の方法において、ソースメディアの中に存在する付加情報によりページ順を確定するステップをさらに有することを特徴とする方法。
- 請求項1記載の方法において、上記バーチャルスクリーンの幅を水平方向に最大360°及び垂直方向に180°まで拡張できるようなワイドスクリーンフォーマットで、予め録画された視聴覚メディアを視聴するステップをさらに有することを特徴とする方法。
- 請求項1記載の方法において、従来方式のスクリーンをベースとする表示装置で、予め録画された視聴覚マテリアルを視聴するステップをさらに有し、上記表示装置が360°のフルパノラマ画像のビューポートを表示するように為すことを特徴とする方法。
- 娯楽システムであって、
(a)異なるタイプの複数のメディア供給装置と、
(b)上記メディア供給装置から得られるビデオデータに応答して、そこからパノラマビデオ画像を生成するVTVプロセッサと、
(c)上記VTVプロセッサから得られるパノラマビデオ画像に応答する表示装置と、を有することを特徴とする娯楽システム。 - 視聴覚効果を生成する方法において、オリジナルのテレビプロトコルを改変して、上記オリジナルのプロトコルとの互換性を壊すことなく、グラフィックデータと、サウンド情報と、制御情報とのうちの少なくとも1つのデータの伝送を個々のフレームで調節するように為すステップを有することを特徴とする方法。
- 請求項7記載の方法において、上記改変されたプロトコルが、追加のデジタルコード化データとアナログコード化データとのうちの少なくとも一方のデータを処理して、上記オリジナルのプロトコルに従って伝送されるビデオ画像の少なくとも1つの走査線内で、VTVグラフィックプロセッサ用の制御用パラメータと画像処理データを定義する情報とを提供するように為すことを特徴とする方法。
- 請求項8記載の方法において、上記走査線が、4またはそれ以上のオーディオトラックをリアルタイムで生成するための情報を提供する追加のデジタルデータとアナログコード化データとをさらに含むことを特徴とする方法。
- 時分割多重化と共に信号を周波数圧縮し、次いで、上記信号を周波数伸長するステップを有し、2トラック視聴覚録画システムから出力される4またはそれ以上のオーディオトラックを符号化し、その後該トラックを復号化して、上記視聴覚データストリームのビデオ成分の中に存在する同期信号を用いて、上記時分割多重化済み視聴覚データの符号化とそれに後続する復号化を行うためにローカルクロックの生成と同期のうちの少なくとも一方を実行するように為すことを特徴とする方法。
- 電子装置であって、
(a)複数のビデオ画像表示装置と、
(b)前記装置を利用して拡張型立体テレビジョン様の視聴体験を生み出す手段と、
(c)視聴可能領域が水平方向に最大360°及び垂直方向に180°まで拡張するようなワイドスクリーンのパノラマフォーマットで視聴者が視聴覚メディアを視聴する手段と、を有することを特徴とする電子装置。 - 電子装置であって、
(a)パノラマ画像全体が複数のさらに小さな画像ページから構成されるようなパノラマ画像を描くグラフィック画像を生成する手段と、
(b)ページベースで上記パノラマ画像をリアルタイムで更新する手段と、を有することを特徴とする電子装置。 - 請求項12記載の電子装置において、ソースメディアの中に存在する付加情報により画像ページの順序を確定する手段をさらに有することを特徴とする電子装置。
- 請求項12記載の電子装置において、スクリーンベースの表示装置をさらに有し、視聴者が上記フルパノラマ画像の一部を該表示装置で観察できるようにすることを特徴とする電子装置。
- 請求項12記載の電子装置において、バーチャルリアリティ型表示装置をさらに有し、視聴者が上記フルパノラマ画像の一部を該表示装置を通じて観察できるようにすることを特徴とする電子装置。
- 視聴覚伝播信号であって、画像データ、サウンドデータ、及び制御情報のうちの少なくとも1つを個々のフレームが含む複数のフレームを有する視聴覚伝播信号において、前記信号が少なくとも1つの広く受け入れられているテレビジョン規格と互換性を有することを特徴とする視聴覚伝播信号。
- 請求項16記載の視聴覚伝播信号において、標準的ビデオ画像の1以上の走査線内にVTVグラフィックプロセッサ用の制御用パラメータを定義する追加のコード化データと、画像処理用データとをさらに有することを特徴とする視聴覚伝播信号。
- 請求項16記載の視聴覚伝播信号において、パノラマ画像球面のデータをさらに有することを特徴とする視聴覚伝播信号。
- 請求項18記載の視聴覚伝播信号において、標準的ビデオ画像の1以上の走査線内に上記画像球面内の現在のビデオフィールドまたはフレームの相対的配置位置に関する情報を提供する追加のコード化データをさらに有することを特徴とする視聴覚伝播信号。
- 請求項16記載の視聴覚伝播信号において、標準的ビデオ画像の1以上の走査線内に4またはそれ以上のリアルタイムのオーディオトラックを生成するための情報を提供する追加のコード化データをさらに有することを特徴とする視聴覚伝播信号。
- 請求項16記載の視聴覚伝播信号において、周波数圧縮と時分割多重方式により2トラックプロトコルを介して符号化された4またはそれ以上のオーディオトラックデータをさらに有することを特徴とする視聴覚伝播信号。
- 請求項16記載の視聴覚伝播信号であって、標準的ビデオ画像の1以上の走査線内に追加のコード化データをさらに有し、該コード化データが、
(a)4またはそれ以上のリアルタイムのオーディオトラックを生成するためのオーディオ情報と、
(b)使用オーディオトラック数と、使用オーディオデータフォーマットと、使用オーディオサンプリングレートと、トラック同期とを記述するデータとを提供し、これによりVTVグラフィックプロセッサが、上記オーディオ情報を復号化して位置と方角に敏感なサウンドに変換できることを特徴とする視聴覚伝播信号。 - 請求項16記載の視聴覚伝播信号において、標準的ビデオ画像の1以上の走査線内にカメラの絶対方角とX−Y−Z位置とに関する情報を提供する追加のコード化データをさらに有することを特徴とする視聴覚伝播信号。
- 請求項11乃至15のいずれかに記載の電子装置において、
(a)視聴者の方位角と高度に関する情報を数学的に合成する手段と、
(b)標準的ビデオ格納システムと伝送システムと共に使用するためにマルチトラックオーディオデータを符号化し、上記合成された情報を専用ハードウェアによりその後復号化して、正しい3次元サウンドを視聴者の左右の耳に空間的に生みだす左右のオーディオチャネルを形成できるようにする手段と、をさらに有することを特徴とする電子装置。 - 請求項11乃至15のいずれかに記載の電子装置において、視聴覚データストリームのビデオ成分の中に存在する1またはそれ以上の同期信号と同期して作動するクロックをさらに有し、上記同期信号と同期して時分割多重サウンドを生成するように為すことを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、実行時のユーザ制御に応答して上記パノラマ内のビューポートの方位角と高度とを変動させる手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、視聴者の頭部の方位角と高度の連続測定に応答して上記パノラマ内のビューポートの方位角と高度とを変動させる手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、実行時のユーザ制御に応答して上記パノラマ内で上記ビューポートの角度視野を変動させる手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、実行時のユーザ制御に応答して3次元バーチャル空間内で視点を変える手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、
(a)視聴者の物理的位置を連続して測定するためのトラッキング装置と、
(b)上記測定に応答して3次元バーチャル空間内で視点を変える手段とをさらに有することを特徴とする電子装置。 - 請求項11乃至15のいずれかに記載の電子装置において、方角に感応性を持つサウンドをリアルタイムで出力する手段であって、視聴者の頭部の方向により制御される手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、方角に感応性を持つサウンドをリアルタイムで出力する手段であって、上記パノラマ内のビューポートの座標により制御される手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、方角及び位置に感応性を持つサウンドをリアルタイムで出力する手段であって、上記パノラマ内のビューポートの座標と、3次元バーチャル空間内の視点のバーチャル位置とにより制御される手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、予め録画されたコンピュータ画像または生の画像を、カメラシステムによりリアルタイムで取得したリアルワールド画像と合成する手段をさらに有し、これにより、拡張リアリティ体験が生み出されることを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、カメラシステムにより、及び、差分画像処理技術を介して取得されたリアルワールド画像を解析して、背景のリアルワールド画像を、ビデオ装置から出力される合成画像や予め録画された画像と自動的に置き換える手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置において、“リアルワールド”画像あるいは予め録画された画像のいずれかの画像を選択的に合成し、幾何学的に変更して、合成された拡張リアリティ体験をつくりだす手段をさらに有することを特徴とする電子装置。
- 請求項11乃至15のいずれかに記載の電子装置であって、クロマキー技法を利用して、前景と背景の予め描画されたビデオ情報を合成する手段をさらに有することを特徴とする電子装置において、
(a)上記前景情報と背景情報とが共通のビデオソースにより与えられ、
(b)上記ビデオ画像の特別の制御フレーム及び各走査線の部分のうちの一方としてコード化されたクロマキーカラーのアナログサンプルまたはデジタルサンプルを供給することにより、1画像内で上記クロマキーカラーが動的に変動可能であることを特徴とする電子装置。 - VTVグラフィックプロセッサであって、
(a)1以上のビデオデジタル化用モジュールと、
(b)拡張リアリティメモリ(ARM)と、バーチャルリアリティメモリ(VRM)と、変換メモリ(TM)とから成るグループから得られる1以上の記憶域と、
(c)デジタル処理手段であって、
(1)ARMとVRMのうちの少なくとも一方に保持されるデータのアドレスマッピングを変更して、1つの位置から別の位置へ画像情報を効果的に移動させ、
(2)上記ソース位置と宛先位置との双方から得られるデータを数学的に合成し、このデータを変更し、それによって合成と変換の機能を行うデジタル処理手段と、
(d)1以上のビデオ生成モジュールと、を有することを特徴とするVTVグラフィックプロセッサ。 - 請求項38記載のVTVグラフィックプロセッサにおいて、VRMとTMよりも狭い垂直方向の視野を占めるようにARMをマップし、それによって、高品質の画像をそのまま維持しながら、上記メディアの供給に必要なデータを最少化することを特徴とするVTVグラフィックプロセッサ。
- 請求項38記載のVTVグラフィックプロセッサにおいて、ARM、VRM、TMを異なる解像度でマップする手段をさらに有し、それによって、各メモリ領域内のピクセルが異なる度数の角度偏差を表すことが可能であることを特徴とするVTVグラフィックプロセッサ。
- 請求項38記載のVTVグラフィックプロセッサにおいて、
(a)画像を表示する手段と、
(b)ARM内のリアルワールドビデオ情報と、ビデオ供給装置から得られるソース情報とをVRMの中へ入れる手段と、
(c)TMの中に保持されているデータのパターンに従って、上記2つのソース画像を合成し、表示する前に合成された画像に変換する手段と、をさらに有することを特徴とするVTVグラフィックプロセッサ。 - 請求項38記載のVTVグラフィックプロセッサにおいて、
(a)画像を表示する手段と、
(b)上記ビデオ供給装置から得られるソース情報をARMとVRMとの中へ入れる手段と、
(c)上記ソースメディアの中に含まれる変換マップに従って上記2つの画像ソースを合成する手段と、をさらに有することを特徴とするVTVグラフィックプロセッサ。 - 請求項38記載のVTVグラフィックプロセッサにおいて、
(a)画像を表示する手段と、
(b)ビデオ供給装置から得られるソース情報をARMとVRMの中へ入れる手段と、
(c)上記画像の幾何学的解釈に従って追加のソース情報に基づき上記2つの画像ソースを合成する手段と、をさらに有することを特徴とするVTVグラフィックプロセッサ。 - システムであって、
(a)オーバーラップする水平方向の視野によって構成される複数の電子画像取得装置であって、上記オーバーラップする水平方向の視野が最大360°を一体にカバーするようになっている電子画像取得装置と、
(b)上記装置により作成された個々の画像をクロップし、アラインメントを行って上記個々のページ間の無視できる歪みとオーバーラップとを持つ360°のパノラマ画像全体を形成するように為す手段と、を有することを特徴とするシステム。 - 請求項44記載のシステムにおいて、上記画像に対して歪み補正を適用し、360°のパノラマ画像が横軸で数学的に平らになり、上記画像の横軸の各ピクセルが取得装置に対して等しい角度で対する手段をさらに有することを特徴とするシステム。
- 請求項44記載のシステムにおいて、上記画像に対して歪み補正を適用して、360°のパノラマ画像が縦軸で数学的に平らになり、それによって上記画像の縦軸の各ピクセルが取得装置に対して等しい角度で対するように為す手段をさらに有することを特徴とするシステム。
- 請求項44記載のシステムにおいて、360°のパノラマ画像を含む個々の画像の位置を記述するための識別情報を送出用ビデオストリームの中へ挿入する手段をさらに有することを特徴とするシステム。
- 請求項44記載のシステムにおいて、上記取得装置の現在の方角と位置とを記述するためのトラッキング情報を送出用ビデオストリームの中へ挿入する手段をさらに有することを特徴とするシステム。
- システムであって、
(a)ビデオ取得装置と、
(b)上記ビデオ取得装置から受信したデータを利用して、上記装置の方角の変化を計算するための一連の画像解析処理を実行する手段と、を有することを特徴とするシステム。 - システムであって、
(a)ビデオ取得装置と、
(b)上記ビデオ取得装置から受信したデータを利用して、上記装置の位置の変化を計算するための一連の画像解析処理を実行する手段と、を有することを特徴とするシステム。 - 請求項49または50記載のシステムにおいて、
(a)所定の座標に配置された複数の逆反射作用を生じるターゲットと、
(b)上記ビデオ取得装置の取得レートと同期してストロボ発光される複数の軸上光源と、
(c)上記所定の座標に基づいて絶対角データと空間データ、及び、上記ビデオ取得装置により決定された相対角データと相対空間データとを計算する手段と、をさらに有することを特徴とするシステム。 - 請求項51記載のシステムにおいて、上記逆反射作用を生じるターゲット上に配置された複数のカラーフィルタをさらに有し、上記個々の逆反射作用を生じるターゲットのトラッキングを正しく識別し、維持するシステムの能力の向上を図るように為すことを特徴とするシステム。
- 請求項51記載のシステムにおいて、光源がカラー制御可能であり、これにより、該トラッキングを正しく識別し、維持するシステムの能力の向上を図るように為すことを特徴とするシステム。
- 請求項52記載のシステムにおいて、光源がカラー制御可能であり、これにより、個々の逆反射作用を生じるターゲットのトラッキングを正しく識別し維持するシステムの能力のさらなる向上を図るように為すことを特徴とするシステム。
- 請求項49または50記載のシステムにおいて、
(a)上記ビデオ取得装置の取得レートと同期する複数の制御可能な光源と、
(b)パルス出力タイミングと光の色とのうちの少なくとも一方を利用して上記ビデオ取得装置へ各ビーコンの空間座標を伝送する手段と、をさらに有し、
これにより、上記装置により相対角データと相対空間データとを確定し、これらのデータを絶対角データと絶対空間データとに変換できることを特徴とするシステム。 - 請求項49または50記載のシステムにおいて、上記ビデオ取得装置を用いて一意のIDコードを通信するための複数の双方向赤外線ビーコンをさらに有することを特徴とするシステム。
- 請求項49または50記載のシステムにおいて、
(a)天井の視覚パターンをモニタするための光学的画像処理手段と、
(b)複数の流体チルトセンサと、
(c)上記光学的画像処理手段の出力を介して相対空間運動と方位角とを確定し、上記流体チルトセンサの出力を介してピッチと回転を確定する手段とをさらに有することを特徴とするシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/891,733 US20010056574A1 (en) | 2000-06-26 | 2001-06-25 | VTV system |
PCT/US2001/049287 WO2003001803A1 (en) | 2001-06-25 | 2001-12-21 | Vtv system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005500721A JP2005500721A (ja) | 2005-01-06 |
JP2005500721A5 true JP2005500721A5 (ja) | 2006-01-12 |
Family
ID=25398728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003508064A Pending JP2005500721A (ja) | 2001-06-25 | 2001-12-21 | Vtvシステム |
Country Status (4)
Country | Link |
---|---|
US (3) | US20010056574A1 (ja) |
JP (1) | JP2005500721A (ja) |
DE (1) | DE10197255T5 (ja) |
WO (1) | WO2003001803A1 (ja) |
Families Citing this family (130)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2374505B (en) * | 2001-01-29 | 2004-10-20 | Hewlett Packard Co | Audio announcements with range indications |
JP3880561B2 (ja) * | 2002-09-05 | 2007-02-14 | 株式会社ソニー・コンピュータエンタテインメント | 表示システム |
US7734070B1 (en) | 2002-12-31 | 2010-06-08 | Rajeev Sharma | Method and system for immersing face images into a video sequence |
US9063633B2 (en) * | 2006-03-30 | 2015-06-23 | Arjuna Indraeswaran Rajasingham | Virtual navigation system for virtual and real spaces |
DE20305278U1 (de) * | 2003-04-02 | 2003-06-12 | Daimler Chrysler Ag | Vorrichtung zur Berücksichtigung der Betrachterposition bei der Darstellung von 3D-Bildinhalten auf 2D-Anzeigevorrichtungen |
US7256779B2 (en) * | 2003-05-08 | 2007-08-14 | Nintendo Co., Ltd. | Video game play using panoramically-composited depth-mapped cube mapping |
US7118228B2 (en) | 2003-11-04 | 2006-10-10 | Hewlett-Packard Development Company, L.P. | Image display system |
DE10361512A1 (de) * | 2003-12-23 | 2005-07-28 | Siemens Ag | Vorrichtung und Verfahren zur positionsgenauen Überlagerung des realen Blickfeldes |
JP4522129B2 (ja) * | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
US20070182812A1 (en) * | 2004-05-19 | 2007-08-09 | Ritchey Kurtis J | Panoramic image-based virtual reality/telepresence audio-visual system and method |
US20060069591A1 (en) * | 2004-09-29 | 2006-03-30 | Razzano Michael R | Dental image charting system and method |
US9101279B2 (en) | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
CN101496387B (zh) | 2006-03-06 | 2012-09-05 | 思科技术公司 | 用于移动无线网络中的接入认证的系统和方法 |
US9958934B1 (en) | 2006-05-01 | 2018-05-01 | Jeffrey D. Mullen | Home and portable augmented reality and virtual reality video game consoles |
US20080007617A1 (en) * | 2006-05-11 | 2008-01-10 | Ritchey Kurtis J | Volumetric panoramic sensor systems |
JP5074777B2 (ja) * | 2006-05-22 | 2012-11-14 | キヤノン株式会社 | 撮像機能付表示装置、画像処理装置、画像処理方法、および、画像表示システム |
US20080117288A1 (en) * | 2006-11-16 | 2008-05-22 | Imove, Inc. | Distributed Video Sensor Panoramic Imaging System |
US8094182B2 (en) * | 2006-11-16 | 2012-01-10 | Imove, Inc. | Distributed video sensor panoramic imaging system |
US8570373B2 (en) * | 2007-06-08 | 2013-10-29 | Cisco Technology, Inc. | Tracking an object utilizing location information associated with a wireless device |
US8717412B2 (en) * | 2007-07-18 | 2014-05-06 | Samsung Electronics Co., Ltd. | Panoramic image production |
US8098283B2 (en) * | 2007-08-01 | 2012-01-17 | Shaka Ramsay | Methods, systems, and computer program products for implementing a personalized, image capture and display system |
US9703369B1 (en) * | 2007-10-11 | 2017-07-11 | Jeffrey David Mullen | Augmented reality video game systems |
US8355041B2 (en) * | 2008-02-14 | 2013-01-15 | Cisco Technology, Inc. | Telepresence system for 360 degree video conferencing |
US8797377B2 (en) | 2008-02-14 | 2014-08-05 | Cisco Technology, Inc. | Method and system for videoconference configuration |
US10229389B2 (en) * | 2008-02-25 | 2019-03-12 | International Business Machines Corporation | System and method for managing community assets |
US8319819B2 (en) * | 2008-03-26 | 2012-11-27 | Cisco Technology, Inc. | Virtual round-table videoconference |
US8390667B2 (en) | 2008-04-15 | 2013-03-05 | Cisco Technology, Inc. | Pop-up PIP for people not in picture |
JP4444354B2 (ja) * | 2008-08-04 | 2010-03-31 | 株式会社東芝 | 画像処理装置、および画像処理方法 |
EP2157545A1 (en) * | 2008-08-19 | 2010-02-24 | Sony Computer Entertainment Europe Limited | Entertainment device, system and method |
US8694658B2 (en) * | 2008-09-19 | 2014-04-08 | Cisco Technology, Inc. | System and method for enabling communication sessions in a network environment |
US8529346B1 (en) * | 2008-12-30 | 2013-09-10 | Lucasfilm Entertainment Company Ltd. | Allocating and managing software assets |
US8659637B2 (en) | 2009-03-09 | 2014-02-25 | Cisco Technology, Inc. | System and method for providing three dimensional video conferencing in a network environment |
US8477175B2 (en) * | 2009-03-09 | 2013-07-02 | Cisco Technology, Inc. | System and method for providing three dimensional imaging in a network environment |
US20130176192A1 (en) * | 2011-09-30 | 2013-07-11 | Kenneth Varga | Extra-sensory perception sharing force capability and unknown terrain identification system |
WO2010124074A1 (en) * | 2009-04-22 | 2010-10-28 | Terrence Dashon Howard | System for merging virtual reality and reality to provide an enhanced sensory experience |
US8659639B2 (en) | 2009-05-29 | 2014-02-25 | Cisco Technology, Inc. | System and method for extending communications between participants in a conferencing environment |
US8762982B1 (en) * | 2009-06-22 | 2014-06-24 | Yazaki North America, Inc. | Method for programming an instrument cluster |
US9082297B2 (en) | 2009-08-11 | 2015-07-14 | Cisco Technology, Inc. | System and method for verifying parameters in an audiovisual environment |
US8812990B2 (en) * | 2009-12-11 | 2014-08-19 | Nokia Corporation | Method and apparatus for presenting a first person world view of content |
US9225916B2 (en) | 2010-03-18 | 2015-12-29 | Cisco Technology, Inc. | System and method for enhancing video images in a conferencing environment |
USD626103S1 (en) | 2010-03-21 | 2010-10-26 | Cisco Technology, Inc. | Video unit with integrated features |
USD626102S1 (en) | 2010-03-21 | 2010-10-26 | Cisco Tech Inc | Video unit with integrated features |
US9313452B2 (en) | 2010-05-17 | 2016-04-12 | Cisco Technology, Inc. | System and method for providing retracting optics in a video conferencing environment |
US8771064B2 (en) | 2010-05-26 | 2014-07-08 | Aristocrat Technologies Australia Pty Limited | Gaming system and a method of gaming |
US8896655B2 (en) | 2010-08-31 | 2014-11-25 | Cisco Technology, Inc. | System and method for providing depth adaptive video conferencing |
US8599934B2 (en) | 2010-09-08 | 2013-12-03 | Cisco Technology, Inc. | System and method for skip coding during video conferencing in a network environment |
US20120075466A1 (en) * | 2010-09-29 | 2012-03-29 | Raytheon Company | Remote viewing |
WO2012048252A1 (en) | 2010-10-07 | 2012-04-12 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
US8599865B2 (en) | 2010-10-26 | 2013-12-03 | Cisco Technology, Inc. | System and method for provisioning flows in a mobile network environment |
US8699457B2 (en) | 2010-11-03 | 2014-04-15 | Cisco Technology, Inc. | System and method for managing flows in a mobile network environment |
US9338394B2 (en) | 2010-11-15 | 2016-05-10 | Cisco Technology, Inc. | System and method for providing enhanced audio in a video environment |
US8902244B2 (en) | 2010-11-15 | 2014-12-02 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US8730297B2 (en) | 2010-11-15 | 2014-05-20 | Cisco Technology, Inc. | System and method for providing camera functions in a video environment |
US9143725B2 (en) | 2010-11-15 | 2015-09-22 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US8542264B2 (en) | 2010-11-18 | 2013-09-24 | Cisco Technology, Inc. | System and method for managing optics in a video environment |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US8723914B2 (en) | 2010-11-19 | 2014-05-13 | Cisco Technology, Inc. | System and method for providing enhanced video processing in a network environment |
US9017163B2 (en) | 2010-11-24 | 2015-04-28 | Aria Glassworks, Inc. | System and method for acquiring virtual and augmented reality scenes by a user |
US9111138B2 (en) | 2010-11-30 | 2015-08-18 | Cisco Technology, Inc. | System and method for gesture interface control |
USD678307S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682854S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen for graphical user interface |
USD682864S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678320S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682293S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678308S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678894S1 (en) | 2010-12-16 | 2013-03-26 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682294S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
US8905551B1 (en) | 2010-12-23 | 2014-12-09 | Rawles Llc | Unpowered augmented reality projection accessory display device |
US8845110B1 (en) * | 2010-12-23 | 2014-09-30 | Rawles Llc | Powered augmented reality projection accessory display device |
US8845107B1 (en) | 2010-12-23 | 2014-09-30 | Rawles Llc | Characterization of a scene with structured light |
US9721386B1 (en) | 2010-12-27 | 2017-08-01 | Amazon Technologies, Inc. | Integrated augmented reality environment |
US9607315B1 (en) | 2010-12-30 | 2017-03-28 | Amazon Technologies, Inc. | Complementing operation of display devices in an augmented reality environment |
US9508194B1 (en) | 2010-12-30 | 2016-11-29 | Amazon Technologies, Inc. | Utilizing content output devices in an augmented reality environment |
US8953022B2 (en) | 2011-01-10 | 2015-02-10 | Aria Glassworks, Inc. | System and method for sharing virtual and augmented reality scenes between users and viewers |
US8692862B2 (en) | 2011-02-28 | 2014-04-08 | Cisco Technology, Inc. | System and method for selection of video data in a video conference environment |
US8670019B2 (en) | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
US8786631B1 (en) | 2011-04-30 | 2014-07-22 | Cisco Technology, Inc. | System and method for transferring transparency information in a video environment |
US20120281128A1 (en) * | 2011-05-05 | 2012-11-08 | Sony Corporation | Tailoring audio video output for viewer position and needs |
US8934026B2 (en) | 2011-05-12 | 2015-01-13 | Cisco Technology, Inc. | System and method for video coding in a dynamic environment |
JP5591281B2 (ja) * | 2011-06-03 | 2014-09-17 | 任天堂株式会社 | 情報処理システム、情報処理装置、情報処理プログラム、および動画再生制御方法 |
JP5918618B2 (ja) | 2011-06-03 | 2016-05-18 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
US8947493B2 (en) | 2011-11-16 | 2015-02-03 | Cisco Technology, Inc. | System and method for alerting a participant in a video conference |
US8682087B2 (en) | 2011-12-19 | 2014-03-25 | Cisco Technology, Inc. | System and method for depth-guided image filtering in a video conference environment |
US20130250040A1 (en) * | 2012-03-23 | 2013-09-26 | Broadcom Corporation | Capturing and Displaying Stereoscopic Panoramic Images |
US11284137B2 (en) | 2012-04-24 | 2022-03-22 | Skreens Entertainment Technologies, Inc. | Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources |
US9743119B2 (en) | 2012-04-24 | 2017-08-22 | Skreens Entertainment Technologies, Inc. | Video display system |
US10499118B2 (en) * | 2012-04-24 | 2019-12-03 | Skreens Entertainment Technologies, Inc. | Virtual and augmented reality system and headset display |
US9179126B2 (en) * | 2012-06-01 | 2015-11-03 | Ostendo Technologies, Inc. | Spatio-temporal light field cameras |
US20130333633A1 (en) * | 2012-06-14 | 2013-12-19 | Tai Cheung Poon | Systems and methods for testing dogs' hearing, vision, and responsiveness |
US9626799B2 (en) | 2012-10-02 | 2017-04-18 | Aria Glassworks, Inc. | System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display |
US9681154B2 (en) | 2012-12-06 | 2017-06-13 | Patent Capital Group | System and method for depth-guided filtering in a video conference environment |
US10769852B2 (en) | 2013-03-14 | 2020-09-08 | Aria Glassworks, Inc. | Method for simulating natural perception in virtual and augmented reality scenes |
US9786246B2 (en) | 2013-04-22 | 2017-10-10 | Ar Tables, Llc | Apparatus for hands-free augmented reality viewing |
US9843621B2 (en) | 2013-05-17 | 2017-12-12 | Cisco Technology, Inc. | Calendaring activities based on communication processing |
US8982472B2 (en) * | 2013-05-21 | 2015-03-17 | Matvey Lvovskiy | Method of widening of angular field of view of collimating optical systems |
FR3006841B1 (fr) * | 2013-06-07 | 2015-07-03 | Kolor | Fusion de plusieurs flux video |
US10363486B2 (en) | 2013-06-10 | 2019-07-30 | Pixel Press Technology, LLC | Smart video game board system and methods |
US9579573B2 (en) * | 2013-06-10 | 2017-02-28 | Pixel Press Technology, LLC | Systems and methods for creating a playable video game from a three-dimensional model |
KR20150068298A (ko) * | 2013-12-09 | 2015-06-19 | 씨제이씨지브이 주식회사 | 다면 영상 생성 방법 및 시스템 |
KR20150068299A (ko) * | 2013-12-09 | 2015-06-19 | 씨제이씨지브이 주식회사 | 다면 영상 생성 방법 및 시스템 |
US10977864B2 (en) | 2014-02-21 | 2021-04-13 | Dropbox, Inc. | Techniques for capturing and displaying partial motion in virtual or augmented reality scenes |
US9392212B1 (en) | 2014-04-17 | 2016-07-12 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user |
WO2015162947A1 (ja) * | 2014-04-22 | 2015-10-29 | ソニー株式会社 | 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法 |
US9665170B1 (en) | 2015-06-10 | 2017-05-30 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user based on body posture |
DE102015116868A1 (de) | 2015-10-05 | 2017-04-06 | Christoph Greiffenbach | Präsentationssystem für Werbezwecke und zur Zurschaustellung eines Produkts |
EP3411779A4 (en) * | 2016-02-05 | 2019-02-20 | Magic Leap, Inc. | SYSTEMS AND METHODS FOR INCREASED REALITY |
FR3057430B1 (fr) * | 2016-10-10 | 2022-02-18 | Immersion | Dispositif d'immersion dans une representation d'un environnement resultant d'un ensemble d'images |
US20170329394A1 (en) * | 2016-05-13 | 2017-11-16 | Benjamin Lloyd Goldstein | Virtual and augmented reality systems |
WO2017205642A1 (en) * | 2016-05-25 | 2017-11-30 | Livit Media Inc. | Methods and systems for live sharing 360-degree video streams on a mobile device |
JP2018101452A (ja) * | 2016-12-20 | 2018-06-28 | カシオ計算機株式会社 | 出力制御装置、コンテンツ記憶装置、出力制御方法、コンテンツ記憶方法、プログラム及びデータ構造 |
US10593012B2 (en) * | 2017-03-22 | 2020-03-17 | Mediatek Inc. | Method and apparatus for generating and encoding projection-based frame with 360-degree content represented in projection faces packed in segmented sphere projection layout |
US10547704B2 (en) | 2017-04-06 | 2020-01-28 | Sony Interactive Entertainment Inc. | Predictive bitrate selection for 360 video streaming |
US10796723B2 (en) * | 2017-05-26 | 2020-10-06 | Immersive Licensing, Inc. | Spatialized rendering of real-time video data to 3D space |
US11288937B2 (en) | 2017-06-30 | 2022-03-29 | Johnson Controls Tyco IP Holdings LLP | Security camera system with multi-directional mount and method of operation |
US11361640B2 (en) | 2017-06-30 | 2022-06-14 | Johnson Controls Tyco IP Holdings LLP | Security camera system with multi-directional mount and method of operation |
US20190007672A1 (en) * | 2017-06-30 | 2019-01-03 | Bobby Gene Burrough | Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections |
US20190104282A1 (en) * | 2017-09-29 | 2019-04-04 | Sensormatic Electronics, LLC | Security Camera System with Multi-Directional Mount and Method of Operation |
CN111201837B (zh) | 2017-10-16 | 2022-10-11 | 昕诺飞控股有限公司 | 用于控制多个照明设备的方法和控制器 |
US10712810B2 (en) | 2017-12-08 | 2020-07-14 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for interactive 360 video playback based on user location |
US10217488B1 (en) * | 2017-12-15 | 2019-02-26 | Snap Inc. | Spherical video editing |
CN109996060B (zh) * | 2017-12-30 | 2021-09-03 | 深圳多哚新技术有限责任公司 | 一种虚拟现实影院系统及信息处理方法 |
KR102157160B1 (ko) * | 2018-12-27 | 2020-09-17 | 주식회사 다윈테크 | 360도 가상영상 체험시스템 |
US11683464B2 (en) * | 2018-12-28 | 2023-06-20 | Canon Kabushiki Kaisha | Electronic device, control method, and non-transitorycomputer readable medium |
JP7349793B2 (ja) * | 2019-02-15 | 2023-09-25 | キヤノン株式会社 | 画像処理装置および画像処理方法、プログラム |
US11372474B2 (en) * | 2019-07-03 | 2022-06-28 | Saec/Kinetic Vision, Inc. | Systems and methods for virtual artificial intelligence development and testing |
US11503227B2 (en) | 2019-09-18 | 2022-11-15 | Very 360 Vr Llc | Systems and methods of transitioning between video clips in interactive videos |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
CN112233048B (zh) * | 2020-12-11 | 2021-03-02 | 成都成电光信科技股份有限公司 | 一种球形视频图像校正方法 |
CN113824746B (zh) * | 2021-11-25 | 2022-02-18 | 山东信息职业技术学院 | 一种虚拟现实信息传输方法及虚拟现实系统 |
CN117557446A (zh) * | 2023-11-24 | 2024-02-13 | 北京同步风云科技有限公司 | 一种球幕led实时图像处理与软件控制方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3580978A (en) * | 1968-06-06 | 1971-05-25 | Singer General Precision | Visual display method and apparatus |
US3872238A (en) * | 1974-03-11 | 1975-03-18 | Us Navy | 360 Degree panoramic television system |
JPS5124211A (en) * | 1974-08-23 | 1976-02-27 | Victor Company Of Japan | Onseishingono shuhasuhenkansochi |
JPS60141087A (ja) * | 1983-12-28 | 1985-07-26 | Tsutomu Ohashi | 環境再現装置 |
US5130794A (en) * | 1990-03-29 | 1992-07-14 | Ritchey Kurtis J | Panoramic display system |
US5130815A (en) * | 1990-07-20 | 1992-07-14 | Mti Associates | Method and apparatus for encoding a video signal having multi-language capabilities |
US5148310A (en) * | 1990-08-30 | 1992-09-15 | Batchko Robert G | Rotating flat screen fully addressable volume display system |
ES2043549B1 (es) * | 1992-04-30 | 1996-10-01 | Jp Producciones Sl | Sistema integral de grabacion, proyeccion-visualizacion-audicion de imagenes y/o realidad virtual perfeccionado. |
US5495576A (en) * | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
JPH06301390A (ja) * | 1993-04-12 | 1994-10-28 | Sanyo Electric Co Ltd | 立体音像制御装置 |
US5619255A (en) * | 1994-08-19 | 1997-04-08 | Cornell Research Foundation, Inc. | Wide-screen video system |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5991085A (en) * | 1995-04-21 | 1999-11-23 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
US5703604A (en) * | 1995-05-22 | 1997-12-30 | Dodeca Llc | Immersive dodecaherdral video viewing system |
WO1999044698A2 (en) * | 1998-03-03 | 1999-09-10 | Arena, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
US5999220A (en) * | 1997-04-07 | 1999-12-07 | Washino; Kinya | Multi-format audio/video production system with frame-rate conversion |
JP3232408B2 (ja) * | 1997-12-01 | 2001-11-26 | 日本エルエスアイカード株式会社 | 画像生成装置,画像呈示装置及び画像生成方法 |
JPH11308608A (ja) * | 1998-02-19 | 1999-11-05 | Nippon Lsi Card Co Ltd | 動画像生成方法,動画像生成装置及び動画像呈示装置 |
US6064423A (en) * | 1998-02-12 | 2000-05-16 | Geng; Zheng Jason | Method and apparatus for high resolution three dimensional display |
EP1099343A4 (en) * | 1998-05-13 | 2007-10-17 | Infinite Pictures Inc | PANORAMIC FILMS SIMULATING A DISPLACEMENT IN A MULTI-DIMENSIONAL SPACE |
JP3449937B2 (ja) * | 1999-01-14 | 2003-09-22 | 日本電信電話株式会社 | パノラマ画像作成方法及びパノラマ画像を用いた周囲状況伝達方法並びにこれらの方法を記録した記録媒体 |
JP4453119B2 (ja) * | 1999-06-08 | 2010-04-21 | ソニー株式会社 | カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ |
GB9914914D0 (en) * | 1999-06-26 | 1999-08-25 | British Aerospace | Measurement apparatus for measuring the position and orientation of a first part to be worked, inspected or moved |
JP2001108421A (ja) * | 1999-10-13 | 2001-04-20 | Sanyo Electric Co Ltd | 3次元モデリング装置、3次元モデリング方法および3次元モデリングプログラムを記録した媒体 |
US6765569B2 (en) * | 2001-03-07 | 2004-07-20 | University Of Southern California | Augmented-reality tool employing scene-feature autocalibration during camera motion |
-
2001
- 2001-06-25 US US09/891,733 patent/US20010056574A1/en not_active Abandoned
- 2001-12-21 WO PCT/US2001/049287 patent/WO2003001803A1/en active Application Filing
- 2001-12-21 JP JP2003508064A patent/JP2005500721A/ja active Pending
- 2001-12-21 DE DE10197255T patent/DE10197255T5/de not_active Withdrawn
-
2005
- 2005-09-19 US US11/230,173 patent/US7688346B2/en active Active
-
2010
- 2010-03-26 US US12/732,671 patent/US20100302348A1/en not_active Abandoned
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005500721A5 (ja) | ||
US7719563B2 (en) | VTV system | |
JP2005500721A (ja) | Vtvシステム | |
EP0793392B1 (en) | Method and apparatus for the transmission and the reception of three-dimensional television signals of stereoscopic images | |
EP0830034B1 (en) | Image processing for three dimensional display of image data on the display of an image sensing apparatus | |
US5703604A (en) | Immersive dodecaherdral video viewing system | |
US7551770B2 (en) | Image conversion and encoding techniques for displaying stereoscopic 3D images | |
JP3992045B2 (ja) | 映像信号処理装置及び該方法並びに仮想現実感生成装置 | |
US7057663B1 (en) | Audio synchronization pulse for multi-camera capture systems | |
WO2018123645A1 (ja) | 生成装置、識別情報生成方法、再生装置および画像再生方法 | |
KR20160003614A (ko) | 3차원 리얼타임 가상입체 스튜디오 장치에서의 가상입체 스튜디오 영상 생성 방법 | |
JP2006352539A (ja) | 広視野映像システム | |
WO2019187430A1 (ja) | 情報処理装置、方法、及びプログラム | |
KR20200064998A (ko) | 재생 장치 및 방법, 그리고 생성 장치 및 방법 | |
KR101725024B1 (ko) | 룩업테이블 기반의 실시간 360도 vr 동영상 제작 시스템 및 이를 이용한 360도 vr 동영상 제작 방법 | |
KR101704362B1 (ko) | 룩업테이블 기반의 실시간 파노라마 영상 제작 시스템 및 이를 이용한 실시간 파노라마 영상 제작 방법 | |
WO2019187442A1 (ja) | 情報処理装置、方法、及びプログラム | |
JP2003323170A (ja) | 画像表示システムと画像処理装置及び画像表示方法 | |
JP2003143477A (ja) | 映像合成装置および方法 | |
JP6091850B2 (ja) | テレコミュニケーション装置及びテレコミュニケーション方法 | |
CN114040097A (zh) | 一种基于多通道图像采集融合的大场景交互动作捕捉系统 | |
JP7011728B2 (ja) | 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法 | |
JP4929848B2 (ja) | 映像データの伝送システムとその方法、送信処理装置とその方法 | |
JP2001148806A (ja) | 映像合成演算処理装置、その方法及びシステム | |
JP2840005B2 (ja) | ステレオ画像表示システム |