JP2003502956A - インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法 - Google Patents
インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法Info
- Publication number
- JP2003502956A JP2003502956A JP2001504686A JP2001504686A JP2003502956A JP 2003502956 A JP2003502956 A JP 2003502956A JP 2001504686 A JP2001504686 A JP 2001504686A JP 2001504686 A JP2001504686 A JP 2001504686A JP 2003502956 A JP2003502956 A JP 2003502956A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- frames
- video stream
- video
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2387—Stream processing in response to a playback request from an end-user, e.g. for trick-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17336—Handling of requests in head-ends
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4331—Caching operations, e.g. of an advertisement for later insertion during playback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6125—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
するために使用することができる、ビデオ信号ストリームの作成およびそれとの
対話のためのシステムおよび方法に関する。
的な新しい可能性を開いた。顧客は現在、自分の都合のよいときに自宅で楽に買
物をすることができる。さらに、彼らは地元の店をオンラインで訪れることに制
限されず、実質的に世界中のどこでも買物をすることができる。同様に店側は、
以前には夢みることしかできなかった巨大な顧客ベースへの新しい領域を探る絶
好の機会を得ている。いくつかのよく知られている成功したEコマースの店には
、オンライン書店(たとえば、Amazon.Com)、旅行代理店(たとえば
、Microsoft(登録商標)CorporationのExpedia)
およびソフトウェア・ベンダが含まれる。しかし、衣類、宝石、家具および不動
産の店など、他の潜在的な大型の店が遅れをとっているようである。この理由は
、これらの製品をオンラインで現在の技術を使用して提示することの困難さにあ
る。たとえば、本またはコンピュータ・ソフトウェアはテキスト(および、場合
によっては表紙の静止画像)によって十分に説明することができるが、静止画像
およびテキストでは、宝石または衣服または家の詳細を潜在的な買い手向けに十
分に提供することがほとんどできない。最新のオンライン・ファッション・モー
ルでは、各アイテムを閲覧するために単一の画像しか提供していない。現在の物
体/場面のプレゼンテーションは、テキスト、静止画像、またはイメージ・パノ
ラマなどのイメージベース・レンダリング(IBR)技術に依拠している。これ
らの技術は、視覚的なリアリズムの欠如、双方向性の欠如を欠点として有してお
り、限られた視覚的情報を提供し、かつ/または小さい部類の物体(たとえば、
凸状の物体)のみに制限される。
ィックス・モデルが完全なユーザ双方向性を提供できることである。しかし、現
在のグラフィックス・レンダリングおよびモデリング・アルゴリズムはなお実体
の複製からやや隔たりがある。さらに、これらのモデルを作成するコストは相対
的に高く、幾何形状の複雑さ、材料および動的特性ならびに照明条件に劇的に比
例する。実のところ、クリスタル製の花瓶をインタラクティブに閲覧するための
3Dモデルの作成は困難な作業である。これは花瓶との光の複雑な相互作用のた
めである。
ン不動産店(http://www.apartment.comなど)が単純
なIBR技術を使用しており、これは一般にQuickTime VRとしても
知られている。IBR技術は、デジタル画像を単純な3Dグラフィックス・モデ
ルに埋め込み、リアリズムおよび双方向性を狙うものである。基本的な考えは、
多数の画像(カメラを360度で回転中に撮影したもの)を合わせてステッチし
てパノラマを形成することである。次いで、このパノラマがユーザの操作用に不
可視の円柱上に「ペースト」される。ユーザは周囲の場面を(円柱の中心に立っ
ているかのように)、グラフィックス・ウィンドウにおいて円柱をマウスにより
「回転」させることによってインタラクティブに閲覧することができる。360
度の周囲のインタラクティブな閲覧は、静止画像の受動的な閲覧よりも情報提供
的であり、興味深いものである。加えて、パノラマは少数の画像のみで容易に構
築される。これを行うための商用ソフトウェアはすでに、あるデジタル・カメラ
にバンドルされている。しかし、いくつかの欠点がある。
これらをインタラクティブな検査のために円柱または球(あまり一般的ではない
)上に「ペースト」することによって生成される。元の画像が撮影された範囲が
狭いほど(円柱または球のより大きい曲率に対応する)、閲覧の歪みはより激し
くなる。さらに、「ステッチング」アルゴリズムは、隣接した画像における「フ
ィーチャ・セット」(しばしば正規のパターン)の発見および突き合わせに依拠
する。これは、不規則性の高い場面ではアルゴリズムが失敗するか、あるいは少
なくとも不十分に実行する可能性があることを意味する。
が起こる前にむしろ制限されたティルト閲覧範囲を提供する。これにより、ユー
ザが入手可能な視覚的情報の量が制限される。
t)):商用IBRパノラマは、外および周囲を見る(looking out and around)ユ
ーザ(部屋の中央に立っており、辺りを見渡すなど)に対応するビューしか提供
しない。物体の中を見て調べる(looking in and at)ユーザに対応するパノラマ
のビューを構築することは、はるかに難しい。このような目的で調査者は、ライ
ト・フィールド(light field)など、より高性能のIBRアルゴリズムを調査し
てきている。これらのアルゴリズムは、物体の粗い、あるいは部分的な3Dモデ
ルを、相互作用のための中間的なビューを作成するために、異なる閲覧角度で撮
影された画像から構築しようと試みる。しかし、現在の技術には、物体の凸面が
必要であることなど多数の制限があり、複雑または不規則な3D形状の物体では
不十分にしか実行できない(穴や激しい歪みが、画像データの欠如または不適合
により、あるビューにおいて現れる)。反射ガラスは複雑な物体の一例である。
画像データの欠如は、物体の周囲で綿密に撮影されたより多数の画像を使用する
ことによって回避できるが、これは較正アルゴリズムにおける複雑さが増大する
ことになり(コンテンツ作成に負担がかかる)、なお歪みの問題を解決しない。
)物体を処理するときに有効ではない。これにより、衣類(理想的には、衣服を
テーブルの上に平らに置くのではなく、通路を歩くモデルが身に付けるとどのよ
うに見えるかを見たいものである)、または生きているような玩具、ペット、機
械部品など、多数のカテゴリの製品からのそれらの用途が制限される。
つ提供する方法を含む。この方法は、異なるビューポイントからの対象のビデオ
・ストリームを格納することを含み、ビデオ・ストリームのうち異なるものがビ
ューポイントのうち異なるものを含む異なる状態にある。この方法は、順方向、
逆方向および状態変更方向におけるビデオ・ストリームのフレームのための要求
に、使用可能な場合はフレームを提供することによって応答することも含む。
ができる。
の方法は、ビデオ・ストリームのフレームを表示することを含み、ビデオ・スト
リームは異なるビューポイントからの対象のものであり、ビデオ・ストリームの
うち異なるものが、ビューポイントのうち異なるものを含む異なる状態にある。
ユーザ入力デバイスの活動化に応答して、使用可能な場合は少なくとも1つの追
加のフレームを、活動化に応じて、フレームのうち現在表示されたものに関して
、順方向、逆方向、または状態変更方向において表示する。
から、より十分に理解されるであろう。しかし、これらが本発明を、記載された
特定の実施形態に限定するものと解釈されるべきではなく、これらは説明および
理解のためのものでしかない。
1つのデジタル・ビデオ・ストリームの作成を含む。対象の例には、物体、場所
(家またはアパートなど)、および場面(自然設定など)が含まれる。デジタル
・ビデオ・ストリームは、インタラクティブな閲覧のために使用可能である。ビ
デオ・カメラは容易に、IBRパノラマと同じであるパノラマのビューを生成す
ることができるが、大幅に歪みが少ない。さらに必然的に、提供することができ
るビューの種類(ルック・アウトまたはルック・アット、ティルト、パンなど)
、または目標とされた場面および物体の複雑さにおける制限がない。対照してみ
ると、IBRベースの技術は、限定された環境(たとえば、凸状の物体を有する
)でしか十分に機能しない。
、異なるビューポイント)から作成される。有限状態機械に基づいたデータ構造
が使用されて、異なるビデオ・ストリームの間の関係が取り込まれる。異なる基
準からのビデオ・ストリームは、状態機械内で異なる状態として処理される。ユ
ーザはビデオ・ストリームと、マウスなどのユーザ入力を介して対話して、対象
をある状態内で時計回りまたは反時計回りに回転させる(あるいは、対象に関し
てカメラを回転させる)体験を得ることができ、対象の部分へズーム・インする
こと、または異なるビデオ・ストリーム(たとえば、異なる高度の基準から作成
できるもの)に切り替えることができる。
ている。本発明を使用して、物体を、高品質および大幅なリアリズムを有して提
示することができる。加えて、柔軟性のある双方向性が提供される。様々な実施
形態において、本発明は以下の利点を提供する。閲覧されたビデオ信号のリモー
ト表現が視覚的に真正(現実的)である。ビデオ信号と対話することが容易であ
る(たとえば、マウスの動きが直観的であり、好都合である)。リモート表現を
情報提供的にして、対象の十分な詳細を提供することができる。視覚信号を作成
し、インターネット上でアクセスすることは相対的に安価である。
ーソナル・コンピュータ)が、メモリ14におけるビデオ・ストリーム、ビデオ
処理回路18およびソフトウェア20を含む。ビデオ処理回路18は、専用ハー
ドウェア(たとえば、グラフィックス・カード)およびプロセッサを含むことが
できる。リモート受信コンピュータ30または32によって要求されたとき、コ
ンテンツ提供システム12がビデオ信号を、1つまたは複数のビデオ・ストリー
ムからコンピュータ30または32に供給する。コンピュータ30はコンピュー
タ32とは異なる信号を要求することができ、コンテンツ提供システム12はこ
れらに異なるビデオ信号を、ストリーミング・ビデオ様式において、リンク22
を介して供給することができる。リンクはインターネットであろう。ビデオ・ス
トリームのサイズのため、大抵の状況では、リモート受信コンピュータに一度に
ビデオ・ストリームの小さい部分のみを供給することが好ましい。
コンテンツ提供システム12はインターネットへのホスティング・サーバを含む
ことができ、あるいはリンク22が、コンテンツ提供システム12によって使用
されるホスティング・サーバを含むことができる。別法として、リンク22を、
電話回線またはある他の接続を介した直接接続にすることができる。なお別法と
して、ビデオ信号全体をディスクを介して移動させることができる。
デオ処理回路36、ソフトウェア40、ユーザ・インターフェイス42、および
ビデオ信号のフレームを表示するディスプレイ44を含む。ビデオ処理回路36
は、専用ハードウェア(たとえば、グラフィックス・カード)およびプロセッサ
を含むことができる。メモリ34は、汎用メモリ、ならびに符号化されたMPE
Gビデオおよび復号化されたビデオ・フレーム用のメモリを含む。メモリ34は
様々なメモリを表し、これにはたとえば、ハード・ドライブ、メイン・メモリ、
ビデオ・メモリ(たとえば、ビデオ静的ランダム・アクセス・メモリ(VSRA
M))、およびコンパクト・ディスク(CD)が使用された場合に含まれる(こ
れらは、コンピュータ可読媒体を含む物品の例である)。ユーザ・インターフェ
イス42は、キーボードおよび1つまたは複数の他のユーザ入力デバイスを含む
ことができ、これにはたとえば、マウス、ジョイスティック、トラックボール、
キーボード、ライト・ペン、タッチ・パッド、タッチ・スクリーン、ジェスチャ
ー認識機構などが含まれる。リモート受信コンピュータ30は同様に、メモリ4
8、ビデオ処理回路50、ソフトウェア52、ユーザ・インターフェイス54お
よびディスプレイ56を含む。
32は、様々なコンピュータのいかなるものも含むことができ、これにはたとえ
ば、メイン・フレーム、デスクトップ、ポータブル、およびセットトップ・ボッ
クス・ベースのコンピュータが含まれる。
、本発明のいくつかの実施形態は、MPEG(Moving Picture
Experts Group)フォーマットに関連して記載される。現在の、か
つ提案されているMPEGフォーマットには、MPEG−1(「Coding
of Moving Pictures and Associated Au
dio for Digital Storage Media at up
to about 1.5 MBits/s」、ISO/IEC JTC 1
CD IS−11172(1992))、MPEG−2(「Generic C
oding of Moving Pictures and Associa
ted Audio」、ISO/IEC JTC 1 CD 13818(19
94))、およびMPEG−4(「Very Low Bitrate Aud
io−Visual Coding」Status:ISO/IEC JTC
1/SC 29/WG 11、1999年3月)が含まれる。異なるバージョン
のMPEG−1およびMPEG−2がある。MPEG以外の様々なフォーマット
を使用することができる。ビデオ信号はインタリーブまたは非インタリーブ・フ
レームを有することができる。ビデオ信号を作成するための符号化に加えて、ビ
デオ信号の符号化および復号化がある可能性がある(たとえば、MPEGにおけ
る離散コサイン変換)。たとえば、MPEGビデオ信号を、リンク22を介した
伝送のために符号化することができる。
静止している間に移動することができる。これは特に、回転台上で回転させるこ
とができる物体には有用である。別法として、対象は、カメラが移動する間に静
止したままでいることができる。単一のカメラを使用し、異なる位置に移動させ
て、異なるビデオ・ストリームを作成することができる。多数のカメラを同時に
異なる位置から使用して、異なるビデオ・ストリームを作成することができる。
他のパラメータも、得られたビデオ信号に影響を及ぼすことができる。カメラが
、ビデオ・ストリーム用のビデオ信号の作成中に静止しているとき、ビューポイ
ントはビデオ・ストリーム中で一定である(しかし、ズームまたは他のパラメー
タは、ビデオ信号が作成されるときに変化する可能性がある)。カメラが移動し
たとき、ビューポイントがビデオ・ストリームにおいて変化する。少なくともい
くつかのビューポイントが、異なるビデオ・ストリームにおいて異なるようにな
る。通常は、効果的なプレゼンテーションのためにビューポイントにおける違い
が十分に選択され、制御される。ビデオ・ストリームが時間において連続して作
成されている必要はないことに留意されたい。
テム60が物体が載る回転台64を含む。ビデオ・カメラ70がカメラトラック
・スタンド72上のビューポイントAで固定される。回転台66が回転するとき
、カメラ70が対象66のビデオ・ストリームのためのビデオ信号を作成する。
いくつかの実施形態では、ビデオ信号を、物体66が回転するときにその異なる
ビューポイントから作成するものは、1台のカメラ70のみである。たとえば、
1台のカメラしかなかった場合、これは最初にビデオ・ストリームをビューポイ
ントAから作成し、次いでビデオ・ストリームをビューポイントBから作成し、
次いでビデオ・ストリームをビューポイントCから作成することができる(図2
は、ビューポイントA...Eを例示するが、実際にはより少ないビューポイン
トを使用することができる)。他の実施形態では、各ビューポイントについて1
台のカメラがあり、各カメラが同時にビデオ・ストリームを、物体66が回転す
るときにその異なるビューポイントから作成する。多数のカメラを使用する利点
は、異なるビューポイントからのビデオ信号のフレームを揃えることができるこ
とである。また、ビデオ信号作成を完了するために要する時間を短くすることも
できる。ビューポイント間の動きは、カメラ・トラック・モータ76を介するか
、あるいは手動によるか、あるいは他の手段を介することができる。カメラの方
向を制御するための機構が含まれる。
の間の一定の相対的な動きを保つことにおいて有用である。一定の相対的な動き
の利点は、リモートで閲覧するユーザが、どの程度速くビデオ信号のフレームを
進めるか、あるいはバックアップするかを測ることがより容易である点である。
さらに、カメラが1台しかない場合、電動化された回転台を使用することは、異
なるビューポイントからのフレームを揃えるための助けとなり、異なるビデオ・
ストリームに切り替えたとき(状態遷移)、より正確なインデックス付けを対応
するフレームに作成するための助けとなる。十分な結果を、典型的な三脚および
/または手動で制御された回転台の使用を通じて得ることができる。
ド86およびマウス88、または他のデバイスを含むコンピュータに送られる。
カメラはデジタル・フォーマットであるいはアナログ・フォーマットで記録する
ことができ、これが後にデジタル・ビデオ・フォーマットに変換される。ビデオ
信号をコンピュータ80へ、たとえば、S−Video Out(シリアル)接
続を介して供給することができる。特定の規格またはフォーマットは必要ではな
い。しかし、ビデオ信号を、Microsoft(登録商標)Corporat
ionが販売するInternet Explorer(商標)ブラウザのうち
の1つ、またはよく知られているNetscape(登録商標)ブラウザのうち
の1つなど、普及しているインターネット・ブラウザによって理解されるフォー
マットにすることが有用であろう。ビデオ信号をビデオ・カメラにおいて、コン
ピュータ80にダウンロードする前にビデオ信号の作成の完了まで保持すること
ができ、あるいはビデオを完了前にダウンロードすることができる。
ラットフォーム106を含む。プラットフォーム106はシャフト108で回転
する。その高さは調節できる。オプションのモータ114が制御可能にプラット
フォーム106を回転させることができる。機構116がプラットフォーム10
6の角度を制御することができる。
加のカメラ122を、機構128を介して傾くプラットフォーム124上で支持
していることが異なる。機構128によって行われた傾きを、機構116に寄る
傾斜と異なるようにすることができる。
使用することができ、あるいはカメラおよび単純な三脚を使用することもできる
。
ームF1、F2、...を例示する。
とができるが、選択的にするための理由がある。処理時間がビデオ・コンテンツ
の量に比例するので、理想的には手近に置くために必要であるだけのコンテンツ
のみを使用することができる。これは以下の問題に通じる。すなわち、どの種類
の閲覧シーケンスがもっとも多くの視覚的情報をもっとも効果的に伝達するか、
である。パノラマのビューは自然の選択であるように思われる。これは特に、我
々が大抵は3Dの物体を処理しているからである。我々の脳が、完全な3Dの視
覚的情報がなくても物体の十分なメンタル・モデルを構築できることにも留意さ
れたい。異なる高度で撮影された多数のパノラマのシーケンスは、大抵の人々向
けに十分な視覚的な手がかりを含んでいるように思われる(単一のパノラマのビ
デオ・シーケンスは通常、限定されたカメラ角度により十分ではない)。多数の
ティルト・シーケンスを追加の視覚的な手がかりとして含めることができる。
ス42を使用して、ビデオ信号のどの部分を閲覧するかを指示することができる
。ユーザが、基準のビデオ信号の少なくとも最初のフレームの表示を活動化する
ことができる。いくつかの実施形態ではユーザが開始基準を選択することができ
、他の実施形態ではデフォルト基準がある。フレームがディスプレイ44に表示
された後、ユーザが再生の方向を変更することができ(たとえば、順方向から逆
方向へ)、ユーザ・インターフェイス42のユーザ入力デバイス(たとえば、マ
ウス)を介してビデオ・ストリームを切り替えることができる。
として右方向の動き(活動化)に応答して順方向に表示され、マウスの主として
左方向の動きに応答して逆方向に表示される。フレームの変化の割合をマウスの
動きの速度に関係付けることができ、フレームがマウスの動きに応答して変更さ
れる間の持続時間を、動きの距離に関係付けることができる。フレームが逆方向
へ開始まで、あるいは順方向へビデオ・ストリームの終了まで移動したとき、こ
れらはそれぞれ停止するか、あるいはビデオ・ストリームの終了または開始まで
ラップ・アラウンドすることができる。たとえば、マウスが主としてユーザから
離れるように(あるいは、表示ウィンドウにおいて上方に)移動された場合、ビ
デオ・ストリームが(ある場合は)上方向に変化し、マウスがユーザに向けて移
動された場合、ビデオ・ストリームが(ある場合は)下方向に変化する。上方向
によって、高い高度のビューポイントを意味し、下方向によって、より低い高度
を意味する。他の慣例を使用することができる。
すなわち、左、右、上、下、ズーム・イン、ズーム・アウトである。マウスが表
示ウィンドウ内にある間に左マウス・ボタンが押されたとき、マウス・イベント
が検出される。マウス・イベントのコールバック関数が、マウス位置のXおよび
Yウィンドウ座標を(Xold、Yold)として記録する。次のレンダリング
・サイクルにおいて検出された新しいマウス位置を、(Xnew、Ynew)と
呼ぶ。6つのマウスの動きは以下のように分類される(Y軸が上であると仮定す
る)。
合。 右:(|Xnew−Xold|−|Ynew−Yold|)>τかつ(Xnew>Xold)の場
合。 上:(|Ynew−Yold|−|Xnew−Xold|)>τかつ(Ynew>Yold)の場
合。 下:(|Ynew−Yold|−|Xnew−Xold|)>τかつ(Ynew<Yold)の場
合。 ズーム・イン:シフト・キーが押され、マウスの「上」の動きが検出された場
合。 ズーム・アウト:シフト・キーが押され、マウスの「下」の動きが検出された
場合。
。フレーム150A、150Bおよび150Cは、ビューポイント1(Vpnt
1)からのビデオ・ストリームVS1のフレームであり、フレーム154A、1
54Bおよび154Cは、ビューポイント2(Vpnt2)からのビデオ・スト
リームVS2のフレームであり、フレーム158A、158Bおよび158Cは
、ビューポイント3(Vpnt3)からのビデオ・ストリームVS3のフレーム
である。ビデオ・ストリームにおいて、例示されたフレームの間に例示されてい
ないフレームがあることに留意されたい。例としてのみ、ビューポイント1、2
および3を、図2におけるビューポイントA、BおよびCにすることができる。
図6のフレームは、異なる回転、高度および角度から、反射光をあてた3つのガ
ラスの物体を示す。図6におけるビデオ・セグメントのための作成の時間は、約
5分であった。これは、IBRでは効果的に行うことができなかった。さらに、
適度に現実的なグラフィックス・モデルがガラスの装飾品から作成された場合、
必要とされる時間および労力は、特に装飾品における複雑な照明効果を考慮する
とはるかに大きくなっていたであろう。
ることができ、そこでは、ビデオ・ストリーム内のフレームが同じ状態にある。
たとえば、図6を参照すると、ビデオ・ストリームVS1のフレームが第1の状
態であり、ビデオ・ストリームVS2のフレームが第2の状態であり、ビデオ・
ストリームVS3のフレームが第3の状態である。各状態内で、ユーザは、順方
向または逆方向に所望の速度で、ユーザ入力デバイスによって移動することがで
きる。いくつかの実施形態では、以下に記載するように、フレーム毎に順方向ま
たは逆方向にランダムにアクセスされることがある。ユーザは、上述のように状
態に切り替えることもできる。いくつかの実施形態では、ビューポイントVS1
とVS2の間、およびビューポイントVS2とVS3の間で切り替えることがで
きるが、VS1とVS3の間をジャンプすることは、VS2における対応するフ
レームを表示して大きな閲覧変化を回避せずにはできない。図6は、従来技術に
勝る本発明の著しい利点を例示する。すなわち、高速なコンテンツ作成、リアリ
ズム、および単純ながら効果的なユーザの対話である。これらの利点は、人々が
高性能のコンテンツを、他者による閲覧および対話のために高速かつ容易にイン
ターネット上で取り込み、公開することを容易にし、助長するであろう。いくつ
かの実施形態では1つのフレームのみが一度に表示され、他の実施形態では多数
のフレームを表示することができ、ユーザがそれらの間でインタラクティブにジ
ャンプできるようにすることができる。
を表す。たとえば、図6および図7を参照すると、いくつかの実施形態では、ユ
ーザが状態をビデオ・ストリームVS1からVS2へ、かつVS2からVS1へ
、またVS2からVS3へ、かつVS3からVS2へ切り替えることができる。
他の実施形態では、状態を直接VS1からVS3へ、かつVS3からVS1へ、
VS2におけるフレームを表示することなく切り替えることが可能である。他の
実施形態のための状態機械表現を、図7のものより複雑にすることができる。
隅に含む。乱雑になるのを避けるため、フレーム150Aのナビゲーション支援
のみにラベルが付けられている。支援の目的は、閲覧するための追加のフレーム
がある方向をユーザに示すことである。各フレームにおいて、ユーザは順方向ま
たは逆方向に移動することができ、そのため、水平支援162が右および左をポ
イントする(他の実施形態では、ユーザが状態の最初または最後のフレームに達
していると、矢印が、ラップ・アラウンド機能があったかどうかに応じて右また
は左のみをポイントすることもある)。3つの状態しかない(図7を参照)ので
、ユーザが最上の状態におけるフレーム(フレーム158A、158Bおよび1
58C)を閲覧中であるとき、変更するための唯一の状態は下方向であり、垂直
支援160が下方向をポイントする。ユーザが底部の状態におけるフレーム(フ
レーム150A、150Bおよび150C)を閲覧中であるとき、変更するため
の唯一の状態は上方向であり、垂直支援160が上をポイントする。中央の状態
(フレーム154A、154Bおよび154C)では状態が上または下に変化で
き、そのため垂直支援160が上および下をポイントする。
あり、たとえば図8において、Vp0、Vp1、...Vpiが異なるパノラマ
のビデオ・ストリームを指す。現在の状態がVpiであった場合、マウスの「上
」の動きがVpi+jへの遷移にマップされ、マウスの「下」の動きがVpi−
jへの遷移にマップされ、jはマウスがドラッグされる速度に比例する。マウス
の「左」および「右」の動きは、現在のビデオを順方向または逆方向に再生する
ことに対応する。各マウスの対話により再生されるフレームの量は、マウスの動
きの速度に比例する可能性がある。図8によって特徴付けられたビデオ・ストリ
ームに関する対話モードは、「ライン」モードと呼ばれる。わずかにより複雑な
遷移モードは、図9に例示されたように、パノラマのビューVpiおよびティル
ト・ビューVtiを含む。現在の状態がVpiであった場合、マウスの「上」ま
たは「下」の動きが「もっとも接近した」ティルト・ビデオ・ストリームへの遷
移に対応する。たとえば、図10ではパノラマのビデオ・ストリームが分割され
、異なるフレームがパノラマのビデオ・ストリームの異なるセクションにあるよ
うにされる。たとえば、パノラマのビデオ・ストリームVp2のフレームが、セ
クションVp2−0(ティルト・ビデオ・ストリームVt0に近接)、Vp2−
1(ティルト・ビデオ・ストリームVt1に近接)、Vp2−2(ティルト・ビ
デオ・ストリームVt2に近接)、およびVp2−i(ティルト・ビデオ・スト
リームVtiに近接)に分割される。ティルト・ビデオ・ストリームもセクショ
ンに分割される。たとえば、ティルト・ビデオ・ストリームVt1が、セクショ
ンVt1−0(パノラマのビデオ・ストリームVp0に近接)、Vt1−1(パ
ノラマのビデオ・ストリームVp1に近接)、Vt1−2(パノラマのビデオ・
ストリームVp2に近接)などに分割される。
場合、マウスの「下」の動きが現在の状態をVt1に設定する(ユーザにより継
続されたマウスの「上」または「下」の動きが、Vt1の円滑な再生に対応する
)。同様に、現在の状態がVtiであった場合、マウスの「右」または「左」の
動きが「もっとも接近した」パノラマのビデオ・ストリームへの遷移に対応する
。図9の対話モードは「メッシュ」モードと呼ばれる。このモードは、各パノラ
マ(ティルト)のストリームがN(またはM)個のセクションにおいて表現され
ることを含む。N(M)はティルト(パノラマ)のビデオ・ストリームの数であ
る。パノラマおよびティルトのビデオが生成されたとき、カメラがおおよそ同じ
一定の速度で回転中であると仮定すると、遷移後に新しいビデオ・ストリームに
おいてどのフレームにジャンプするかを計算することが簡単である。「ライン」
モードの実施形態では、フレームの数が遷移前にVpiの「n」であった場合、
Vpjへの遷移後、現在のフレームが「m」に設定され、ただし以下のようにな
る。 m=n*(totalFrameNumberOf Vpj/totalFr
ameNumberOf Vpi)
る。たとえば、現在の状態がティルト状態であった場合、遷移をもっとも近い交
差のパノラマの状態へ行うことができ、現在の状態がパノラマの状態であった場
合、遷移をもっとも近い交差のティルト状態へ行うことができる。
ームを単にスケーリングすることによって行うことができる。他の実施形態では
、より高い解像度のビデオ(たとえば、640×480)を取り込むことができ
、縮小バージョン(たとえば、320×240)を標準の表示および対話に使用
することができるが、元のより高い解像度のビデオを、ズーミングが必要とされ
たときにのみ対応するフレームで復号化することができる。
。仮想拡大鏡は実質的に、ある事前定義されたサイズの特殊な正方形の表示領域
である。ユーザはこの拡大鏡を、表示ウィンドウにおけるいかなるところにも(
マウスにより)配置することができる。拡大は、拡大鏡の下に表示された画像の
セクションを、同じ画像のより高い解像度のバージョンの適切な部分によって置
き換えることによって達成される。仮想拡大鏡を使用して、ユーザは、選択され
た閲覧領域から関心のある物体を詳細に検討することができる。図11は、フレ
ーム170、172および174を例示し、仮想拡大鏡176がフレーム172
において使用され、仮想拡大鏡178がフレーム174において使用される。高
解像度のビデオ・シーケンスからの単一のフレームのみを、拡大鏡が最初に呼び
出されるたびに復号化する必要があるので、この方法は最低量の計算およびデー
タ転送を必要とする。多数の高解像度のビデオ・シーケンスが入手可能であった
場合、対応する拡大の程度を有する多数の拡大鏡を作成して、ユーザがそこから
選択するようにすることができる。
」手法であり、順方向の再生のみが可能であり、通常は最初のフレームからのみ
である。本発明のいくつかの実施形態は、MPEG処理ライブラリ技術を、高速
ランダム・アクセスおよびフレーム毎の逆方向再生のために、インデックス・テ
ーブルの使用を介して使用することによって、この制限を克服する。このインデ
ックス・テーブルは、MPEG符号化情報およびフレーム従属性に基づいて作成
される。例としてのみ、いくつかの実施形態では、400MHzのPentiu
m(登録商標)IIIプロセッサを有するパーソナル・コンピュータ(PC)に
より、352×240解像度のMPEG−1ビデオの逆方向復号化速度が約60
フレーム/秒であり、これは、通常30フレーム/秒で取り込まれたビデオを表
示するには非常に十分である。グラフィックス・エンジンでは、Silicon
Graphicsによって開発されたOpen Graphic Libra
ry(OpenGL)を使用して、ユーザにより制御されたマウスの動きを、適
切なビデオ・ストリームの適切な再生モードに結合することができる。Open
GLの利点には、(1)OpenGL用のハードウェア加速が幅広く使用可能で
あること、(2)OpenGLにより、画像操作のために貴重なフレーム・バッ
ファの低レベルのオペレーションを可能にすること、(3)OpenGLユーテ
ィリティ・ライブラリ(GLUT)が、表示ウィンドウにおけるマウス・イベン
トを検出するための関数を提供すること、および、3Dグラフィックス・モデル
をリアリズムおよび双方向性の拡張のためにビデオ・シーケンスに組み込むこと
が容易であることが含まれる。Microsoft Corporationの
D3Dソフトウェアを、OpenGLの代替物として使用することができる。
する。図12を参照すると、符号化されたMPEGビデオ・シーケンスがバッフ
ァ180に格納される。コンテンツ提供システム12は、要求されたフレームを
提供することができるだけでなく、積極的に、要求されたフレームに密接に近接
したフレームを要求側のリモート受信コンピュータ30または32(図1を参照
)に提供する。いくつかの実施形態では、同じビデオ・ストリームにおけるフレ
ームのみが積極的に提供される。他の実施形態では、隣接したビデオ・ストリー
ムにおけるフレームも提供される。マウスの移動に応答して(判断ボックス18
4)、バッファ180のコンテンツが更新され、適切なフレームが復号化ボック
ス186において復号化される。復号化処理については以下でより詳細に記載す
る。復号化されたフレームがOpenGLフレームバッファ・ブロック190に
提供され、そこでフレームをズームについて操作することができる。フレームを
モーフィングまたは他の技術によって操作することもできる。復号化されたフレ
ームが、OpenGL表示ウィンドウ194(たとえば、図1のディスプレイ4
2)に提供される。
ができる。たとえば、Microsoft CorporationのD3Dソ
フトウェアを、OpenGLの代替物として使用することができる。
なわちIフレーム、PフレームおよびBフレームからなる。Iフレームは、他の
フレームとは無関係に符号化される。Pフレームは、先のIまたはPフレームに
基づいて符号化される。Bフレームは、双方向フレームとしても知られており、
先および/または次のIまたはPフレームに基づいて符号化される。フィールド
符号化を使用して符号化されたMPEG−2ビデオでは、Bフレームが、Bフレ
ームとして符号化された異なるフィールドに従属する可能性もある。圧縮解除の
コストは、異なるフレーム・タイプに渡って変わる。Iフレームが復号化するに
はもっとも安価であり、その後にPフレーム、次いでBフレームが続く。Pおよ
びBフレームを復号化するには動き補償が必要とされる。Bフレームは通常Pフ
レームを復号化するよりも費用が高く、これは、これが2つのフレームに従属す
る可能性があるのに対して、Pフレームは1つのフレームにのみ従属するからで
ある。
り記載する(これは、次のGOPのIフレームが含まれた場合、10フレームを
有する)。しかし、本発明は、GOPにおいて特定の数のフレームに限定されな
い。たとえば、GOPは通常15または30フレーム、またはある他の数のフレ
ームを有することができる。
にも制限されない。たとえば、MPEG1ビデオ(352×240解像度)では
1つの圧縮解除されたフレームのサイズを、RGBモードでは1/4メガバイト
(Mbyte)、YUVモードでは1/8MByteにすることができる。より
大きい解像度により、サイズをはるかに大きくすることができる。
わち、I1(F1)、B1(F2)、B2(F3)、P1(F4)、B3(F5
)、B4(F6)、P2(F7)、B5(F8)、B6(F9)、I2(F10
)である。フレーム番号は括弧内であり、フレーム・タイプの後の数字を使用し
て、同じ符号化タイプを有する異なるフレームの間で区別する。表示順序と対照
的に、符号化および復号化の順序は、I1 P1 B1 B2 P2 B3 B
4 I2 B1 B2である。
れはフレーム従属性のためである。たとえば、P1にアクセスするにはI1を最
初に復号化する必要があり、B4にアクセスするには、これはP1およびP2に
従属しており、最初にI1、P1およびP2を復号化する必要がある。
復号化されたフレームが使用可能になるようにすることである。しかし、この強
引な手法は無駄である。ランダム・アクセスのためのよりよい手法は、各フレー
ム用の直接フレーム従属性のリストを維持することである。直接フレーム従属性
は、現在のフレームの復号化オペレーションのために直接必要とされたフレーム
のセットを指定する。上の実施形態では、以下が直接フレーム従属性である。
れにはインデックスまたはフレーム番号によってアクセスすることができる。)
が動き補償のために必要とされる。加えて、P2の復号化は、復号化されたP1
を使用することを含み、これは復号化されたI1を必要とする。B5の復号化は
、復号化されたI1、I2、P1およびP2を使用することを含む。B2の復号
化は、復号化されたI1、および、動き補償のためにP1を使用することを含み
、P1の復号化は、復号化されたI1を必要とする。したがって、B2が、復号
化されたI1およびP1を必要とする。したがって、必要とされた復号化された
フレームが最初に復号化され、メモリに格納される。いくつかの場合では、復号
化されたフレームが、それら自体が表示されない場合でも格納され、それらが他
のフレームの復号化において使用可能となることに留意されたい。
て簡単に実施することができる。したがって、逆方向の10を超えるフレームに
アクセスするには、上のランダム・アクセス方法を使用してフレーム10を復号
化することができ、次いで、ランダムアクセス方法を使用してフレーム9を、こ
れがすでにフレーム10を復号化するために使用された事実を利用することなく
復号化することなどができる。しかし、この手法は逆方向復号化の時間的コヒー
レンスを活用しない。以下はコヒーレンスを活用するための新しい技術である。
なタイプのメモリを復号済みフレーム・キャッシュとして使用することができる
。メイン・メモリ・ダイナミック・ランダム・アクセス・メモリ(DRAM)が
一例である。ビデオ・ランダム・アクセス・メモリ(VRAM)を使用すること
もできる。分離したメモリまたはメモリのセクションを、復号化されたフレーム
を保持することのみに専用にすることができる。復号済みフレーム・キャッシュ
は、すべてが連続した場所にある必要はない。
これが固定サイズであった場合、出会う可能性のあるGOPを考慮して、必要と
される最低数の復号化されたフレームを保持するために十分大きくするべきであ
る。サイズは、GOPにおけるフレームの数が変化した場合、動的に変化するこ
とができる。1つのアプローチでは、復号済みフレーム・キャッシュが固定サイ
ズであり、キャッシュが一杯であるとき最低使用頻度(LRU)置換ポリシーが
使用されて、アクセス頻度がもっとも低かったフレームが置換される。キャッシ
ュが固定サイズでなかった場合、これは固定数のフレームを保持することができ
、LRU置換ポリシーを使用することができる。
以下のことが、新しいアルゴリズムをフレーム10から7において使用して起こ
る。
キャッシュに格納される。キャッシュ=[I2]である。
る。P2、P1およびI1が復号化される。B6も復号化される。I2はすでに
キャッシュにあり、そのためこれを再復号化する必要はない。復号化されたP2
、P1、I1およびB6がキャッシュに格納される。キャッシュ=[I2,I1
,P1,P2,B6]である。
はすでにキャッシュにある。B5を復号化し、これをキャッシュに入れる。キャ
ッシュ=[I2,I1,P1,P2,B6,B5]である。
化されている。P2を復号化し、キャッシュに入れる。キャッシュ=[I2,I
1,P1,P2,B6,B5]である。
ッシング技術を使用して、より効果的に実行することもできる。重要な点は、同
じキャッシング機構を、最近復号化されたフレームを格納するために使用するこ
と、および、これらのフレームが近い将来に要求された場合、これらを再使用す
ることである。たとえば、以下のフレームのセットを復号化するように要求され
る可能性がある。すなわち、I1、B3、B5である。B3を復号化するには、
P1およびP2が必要とされる。結果として、P1、P2およびI1が復号化さ
れ、復号済みフレーム・キャッシュに配置され、これらがすでにそこにあった場
合、復号済みフレーム・キャッシュから使用される。次のB5を復号化するため
の要求では、これがP2およびI2に従属し、I2のみを復号化する必要があり
、これはP2がすでにキャッシュにあるからである。
ことができる。この技術をソフトウェア擬似コードに関して記載するが、ハード
ウェアにおいて、あるいは異なる擬似コードに従ったソフトウェアを介して実施
することができる。すなわち、キャッシュ技術を実施するための様々な方法があ
る。
5)、B4(F6)、P2(F7)、B5(F8)、B6(F9)、I2(F1
0)の実施形態を考察する。
entFrame(N,ReferenceSet)および(2)GetDep
endencyFrameIndex(N)である。
は、フレームNが、MPEGアルゴリズムに従って、フレームNおよびRefe
renceSetを使用して復号化される。ReferenceSetは、フレ
ームNを復号化するために必要とされた参照されたフレームのセットである。た
とえば、P1のためのReferenceSetは{フレーム1}であり、B4
のためのReferenceSetは{フレーム4,フレーム7}である。復号
化されたフレームNが関数によって返される。復号化されたフレームを、RGB
、YUV、または別のフォーマットにすることができる。RGBがこの実施形態
で使用される。
ムNを復号化するために必要とされる参照フレームのリストが得られる。フレー
ム・インデックスのリストが返される。たとえば、GetDependency
FrameIndex(5)={7,10}である。
とえば、10はインデックスであり、フレーム10は実際のフレームである。M
PEGFrameCacheと呼ばれるデータ構造のアレイがあり、これが復号
済みフレーム・キャッシュである。MPEGFrameCacheは2つの属性
を有する。すなわち、LastTimeUsed(LRU技術における使用向け
)およびFrameRGBである。
術を使用して実施するための擬似コード(行1〜22)である。 1 フレームGetFrame(N) 2 SetofDependencyIndex=GetDepend
encyFrameIndex(N) 3 SetofDependencyFrame={} 4 /*必要な場合、従属性リストにおけるフレームを復号化する*/ 5 /*また復号化により、強制的にフレームを、復号済みフレーム・
キャッシュへ行かせる*/ 6 SetofDependencyIndexにおける各Frame
Indexについて以下を実行する 7 フレームFrameIndexがMPEGFrameCha
che内にない場合 8 /*この呼び出しは再帰的である*/ 9 GetFrame(フレーム)をSetofDepe
ndencyFrameへ挿入する 10 else 11 FrameIndexによって指示されたフレームを
MPEGFrameCacheから検索する 12 FrameIndexによって指示されたフレームを
SetofDependencyFrameへ挿入する 13 MPEGFrameCacheにおいてFrameI
ndexによって指示されたフレームのLastTimeUsedを更新する 14 end if 15 end for 16 currentFrame=DecodeCurrentFram
e(N,SetofDependencyFrame) 17 MPEGFrameCacheが一杯である場合 18 MPEGFrameCacheから、もっとも古いLast
TimeUsedを有する要素を除去する 19 endif 20 currentFrameをMPEGFrameCacheへ挿入
する 21 currentFrameを返す 22 end
ム10から逆方向に復号化する。MPEGFrameCacheが最初に空であ
ると仮定する。 +GetFrame(10) GetDependencyFrameIndex(10)={} DecodeCurrentFrame(10,{}) MPEGFrameCache={フレーム10} +GetFrame(9) GetDependencyFrameIndex(9)={7,10} フレーム7はMPEGFrameCache内にないので、GetFra
me(7)を呼び出す +GetFrame(7) GetDependencyFrameIndex(7)={4} フレーム4はMPEGFrameCache内にないので、Get
Frame(4)を呼び出す +GetFrame(4) GetDependencyFrameIndex(4)=
{1} フレーム1はMPEGFrameCache内にないので、
GetFrame(1)を呼び出す +GetFrame(1) GetDependencyFrameIndex(
1)={} DecodeCurrentFrame(1,{}) MPEGFrameCache={フレーム1,フレ
ーム10} DecodeCurrentFrame(4,{1}) MPEGFrameCache={フレーム1,フレーム1
0,フレーム4} DecodeCurrentFrame(7,{4}) MPEGFrameCache={フレーム1,フレーム10,フ
レーム4,フレーム7} フレーム10はすでにMPEGFrameCache内にある DecodeCurrentFrame(9,{7,10}) MPEGFrameCache={フレーム1,フレーム10,フレーム
4,フレーム7,フレーム9} +GetFrame(8) GetDependencyFrameIndex(8)={7,10} フレーム7および10はMPEGFrameCache内にある DecodeCurrentFrame(8,{7,10}) MPEGFrameCache={フレーム1,フレーム10,フレーム
4,フレーム7,フレーム9,フレーム8} ....
d属性が指示されていない。しかし、LRU技術を使用することができる。本発
明がLRU技術に限定されないことに留意されたい。
。再帰呼び出しを使用するよりもむしろ、上に挙げた擬似コード(行1〜20)
を修正してループを含むようにすることができ、終了条件は、フレームNが従属
するすべてのフレームが復号化されており、フレームNの復号化において使用す
るために使用可能であることである。
ることが重要である。さらに通常は、大部分のデータが、復号化を行っているコ
ンピュータのメモリに格納されている場合、プレゼンテーション時間中にはるか
により効率的にすることができる。これにより、過度のファイル読み取りが最小
限になる。いくつかの実施形態では、本発明はMPEG圧縮技術を、取り込まれ
たデジタル・ビデオを圧縮するために使用する。MPEG圧縮は、所与の視覚的
品質のためのすぐれた圧縮率を提供する。これは2つの基本モードの圧縮に基づ
く。すなわち、ブロックベースのDCTを使用するフレーム間符号化、および、
時間において共に接近したフレームに渡るコンテンツの類似性を活用するフレー
ム間符号化である。MPEGにおけるフレーム間符号化の使用は著しくビット・
レートを低下させるが、このような従属性がランダム・アクセスを困難にする。
、実施形態に関連して記載された特定の特徴、構造または特性が少なくともいく
つかの実施形態に含まれるが、必ずしも本発明のすべての実施形態に含まれるの
ではないことを意味する。本明細書における「いくつかの実施形態」という用語
の様々な出現は、必ずしもすべてが同じ実施形態を指しているのではない。
つの信号またはイベントがある程度まで別の信号またはイベントによって影響を
受けるが、必ずしも完全あるいは直接的ではないことを意味する。本明細書で、
構成要素、イベントまたは特性が含まれる「可能性がある(may)」、「可能
性がある(might)」あるいは「ことができる(could)」と述べた場
合、この特定の構成要素、イベントまたは特性が含まれる必要はない。
図面から、本発明の範囲内で行うことができることを理解されたい。したがって
、それへのいかなる補正をも含む以下の特許請求の範囲が、本発明の範囲を定義
するものである。
び2つのリモート受信コンピュータの概略的なブロック図である。
・ストリームを作成するためのシステムの概略図である。
る基準からの対象のビデオ・ストリームを作成するためのシステムの概略図であ
る。
る基準からの対象のビデオ・ストリームを作成するためのシステムの概略図であ
る。
ある。
異なるフレームを例示し、フレームをビデオ・ストリーム内で、かつ別のビデオ
・ストリームへ変更することを例示する図である。
例示する図である。
よびティルト・ビデオ・ストリーム、およびフレームをそれらの間で変更するこ
とを例示する図である。
ーム、およびそれらのいくつかの部分の拡大を例示する図である。
テムのブロック図および流れ図である。
Claims (30)
- 【請求項1】 ビデオ・ストリームのフレームを格納かつ提供する方法であ
って、 異なるビューポイントからの対象のビデオ・ストリームを格納することを含み
、前記ビデオ・ストリームのうち異なるものが、前記ビューポイントのうち異な
るものを含む異なる状態にあり、さらに、 順方向、逆方向および状態変更方向における前記ビデオ・ストリームのフレー
ムのための要求に、使用可能な場合は前記フレームを提供することによって応答
することを含む方法。 - 【請求項2】 前記フレームがリモート・コンピュータへ、インターネット
を介して提供される請求項1に記載の方法。 - 【請求項3】 前記ビデオ・ストリームがMPEGフォーマットである請求
項1に記載の方法。 - 【請求項4】 追加のフレームを前記順方向または逆方向において提供する
ことができるかどうかを指示する、前記提供されたフレームに関連付けられたナ
ビゲーション支援を提供することをさらに含む請求項1に記載の方法。 - 【請求項5】 追加のフレームを異なる状態において提供することができる
かどうかを指示する、前記提供されたフレームに関連付けられたナビゲーション
支援を提供することをさらに含む請求項1に記載の方法。 - 【請求項6】 前記ビデオ・ストリームが、少なくとも1台のカメラによる
ビデオ信号を、前記少なくとも1台のカメラが静止したままである間に前記対象
が回転するとき、取り込むことを介して作成され、閲覧者によって閲覧されたと
き、前記提供されたフレームが前記閲覧者に、前記対象が静止したカメラを回転
させる印象を与える請求項1に記載の方法。 - 【請求項7】 前記ビデオ・ストリームが、少なくとも1台のカメラによる
ビデオ信号を、前記対象が静止したままである間に前記少なくとも1台のカメラ
が移動するとき、取り込むことを介して作成され、閲覧者によって閲覧されたと
き、前記提供されたフレームが前記閲覧者に、静止した対象に関して前記少なく
とも1台のカメラが移動する印象を与える請求項1に記載の方法。 - 【請求項8】 前記ビューポイントが少なくとも1つの前記状態中に変化す
る請求項1に記載の方法。 - 【請求項9】 前記ビューポイントが前記状態中に一定のままである請求項
1に記載の方法。 - 【請求項10】 実行されたとき、コンピュータに、 異なるビューポイントからの対象のビデオ・ストリームを格納させ、前記ビデ
オ・ストリームのうち異なるものが、前記ビューポイントのうち異なるものを含
む異なる状態にあり、さらに、 順方向、逆方向および状態変更方向における前記ビデオ・ストリームのフレー
ムのための要求に、使用可能な場合は前記フレームを提供することによって応答
させる命令を含むコンピュータ可読媒体を含む物品。 - 【請求項11】 ビデオ・ストリームを制御する方法であって、 前記ビデオ・ストリームのフレームを表示することを含み、前記ビデオ・スト
リームは、異なるビューポイントからの対象のものであり、前記ビデオ・ストリ
ームのうち異なるものが、前記ビューポイントのうち異なるものを含む異なる状
態にあり、さらに、 ユーザ入力デバイスの活動化に応答して、使用可能な場合は少なくとも1つの
追加のフレームを、前記活動化に応じて、前記フレームのうち現在表示されたも
のに関して、順方向、逆方向、または状態変更方向において表示することを含む
方法。 - 【請求項12】 前記ユーザ入力デバイスが主として第1の方向において活
動化されたとき、前記少なくとも1つの追加のフレームが前記順方向において表
示される請求項11に記載の方法。 - 【請求項13】 追加のフレームが使用可能な場合に前記順方向において表
示され、その数が前記活動化の距離に関係付けられる請求項12に記載の方法。 - 【請求項14】 前記追加のフレームが表示される速度が前記活動化の速度
に関係付けられる請求項13に記載の方法。 - 【請求項15】 前記ユーザ入力デバイスが主として第2の方向において活
動化されたとき、前記少なくとも1つの追加のフレームが前記逆方向において表
示される請求項11に記載の方法。 - 【請求項16】 追加のフレームが使用可能な場合に前記逆方向において表
示され、その数が前記活動化の距離に関係付けられる請求項15に記載の方法。 - 【請求項17】 前記追加のフレームが表示される速度が前記活動化の速度
に関係付けられる請求項16に記載の方法。 - 【請求項18】 前記ユーザ入力デバイスが主として第3の方向において活
動化されたとき、前記少なくとも1つの追加のフレームが第1の状態変更方向に
おいて表示される請求項11に記載の方法。 - 【請求項19】 前記ユーザ入力デバイスが主として第3の方向において活
動化されたとき、前記少なくとも1つの追加のフレームが第2の状態変更方向に
おいて表示される請求項11に記載の方法。 - 【請求項20】 前記逆方向において前記追加のフレームがフレーム毎に表
示される請求項11に記載の方法。 - 【請求項21】 前記ビデオ・ストリームがパノラマのビューのみを含む請
求項11に記載の方法。 - 【請求項22】 前記ビデオ・ストリームがパノラマおよびティルト・ビュ
ーを含む請求項11に記載の方法。 - 【請求項23】 追加のフレームを前記順方向または逆方向において表示す
ることができるかどうかを指示する、前記提供されたフレームに関連付けられた
ナビゲーション支援を提供することをさらに含む請求項11に記載の方法。 - 【請求項24】 追加のフレームを異なる状態において表示することができ
るかどうかを指示する、前記提供されたフレームに関連付けられたナビゲーショ
ン支援を提供することをさらに含む請求項11に記載の方法。 - 【請求項25】 前記ビューポイントが少なくとも1つの前記状態中に変化
する請求項11に記載の方法。 - 【請求項26】 実行されたとき、コンピュータに、 ビデオ・ストリームのフレームを表示させ、前記ビデオ・ストリームは、異な
るビューポイントからの対象のものであり、前記ビデオ・ストリームのうち異な
るものが、前記ビューポイントのうち異なるものを含む異なる状態にあり、さら
に、 ユーザ入力デバイスの活動化に応答して、使用可能な場合は少なくとも1つの
追加のフレームを、前記活動化に応じて、前記フレームのうち現在表示されたも
のに関して、順方向、逆方向、または状態変更方向において表示させる命令を有
するコンピュータ可読媒体を含む物品。 - 【請求項27】 前記ユーザ入力デバイスが主として第1の方向または主と
して第2の方向において活動化されたとき、前記少なくとも1つの追加のフレー
ムが前記順方向または逆方向においてそれぞれ表示される請求項26に記載の物
品。 - 【請求項28】 追加のフレームが使用可能な場合に表示され、その数が前
記活動化の距離に関係付けられる請求項27に記載の物品。 - 【請求項29】 前記追加のフレームが表示される速度が前記活動化の速度
に関係付けられる請求項28に記載の物品。 - 【請求項30】 ビデオ信号を要求するための回路と、 閲覧されるビデオ・ストリームの現在のフレームを含む前記ビデオ信号を受信
するための回路と、 入力信号を供給して、閲覧するための少なくとも1つの追加のフレームを指示
するための入力デバイスとを含み、前記追加のフレームを、同じビデオ・ストリ
ームにおける前記現在のフレームに関して順方向または逆方向に、あるいは異な
るビデオ・ストリームにおけるフレーム内にすることができるコンピュータ・シ
ステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US33633899A | 1999-06-18 | 1999-06-18 | |
US09/336,338 | 1999-06-18 | ||
PCT/US2000/016157 WO2000079797A1 (en) | 1999-06-18 | 2000-06-12 | Systems and methods for enhanced visual presentation using interactive video streams |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008170132A Division JP4908460B2 (ja) | 1999-06-18 | 2008-06-30 | インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003502956A true JP2003502956A (ja) | 2003-01-21 |
Family
ID=23315638
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001504686A Pending JP2003502956A (ja) | 1999-06-18 | 2000-06-12 | インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法 |
JP2008170132A Expired - Fee Related JP4908460B2 (ja) | 1999-06-18 | 2008-06-30 | インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008170132A Expired - Fee Related JP4908460B2 (ja) | 1999-06-18 | 2008-06-30 | インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
EP (1) | EP1190575B1 (ja) |
JP (2) | JP2003502956A (ja) |
KR (1) | KR20020022706A (ja) |
CN (1) | CN1290330C (ja) |
AU (1) | AU5484200A (ja) |
BR (1) | BR0011757A (ja) |
DE (1) | DE60042742D1 (ja) |
HK (1) | HK1043010B (ja) |
WO (1) | WO2000079797A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014165912A (ja) * | 2013-02-22 | 2014-09-08 | Fuji Xerox Co Ltd | ビデオ再生方法、プログラム及びシステム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3973907B2 (ja) | 2000-05-02 | 2007-09-12 | 川崎重工業株式会社 | 画像データ作成装置および画像表示システム |
FR2817441B1 (fr) | 2000-11-29 | 2004-01-16 | Thomson Multimedia Sa | Methode de visualisation d'une sequence video dans une fenetre d'un panorama |
CN100507811C (zh) * | 2004-06-03 | 2009-07-01 | 希尔克瑞斯特实验室公司 | 用于生成可缩放的用户界面的系统及方法 |
US7506071B2 (en) | 2005-07-19 | 2009-03-17 | International Business Machines Corporation | Methods for managing an interactive streaming image system |
US7616821B2 (en) | 2005-07-19 | 2009-11-10 | International Business Machines Corporation | Methods for transitioning compression levels in a streaming image system |
US20070028286A1 (en) | 2005-07-28 | 2007-02-01 | Greene David P | Systems, methods, and media for detecting content change in a streaming image system |
US9100716B2 (en) | 2008-01-07 | 2015-08-04 | Hillcrest Laboratories, Inc. | Augmenting client-server architectures and methods with personal computers to support media applications |
CN103607578B (zh) * | 2013-12-03 | 2016-08-17 | 西安电子科技大学 | 基于视频编码的全视角图片浏览系统 |
KR102561860B1 (ko) | 2016-10-25 | 2023-08-02 | 삼성전자주식회사 | 전자장치 및 그 제어방법 |
US11012676B2 (en) * | 2017-12-13 | 2021-05-18 | Google Llc | Methods, systems, and media for generating and rendering immersive video content |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265429A (ja) * | 1996-01-23 | 1997-10-07 | Fujitsu Ltd | データ配信装置、記憶装置とその制御方法およびデータ転送システム |
JPH10322680A (ja) * | 1997-05-16 | 1998-12-04 | Nippon Telegr & Teleph Corp <Ntt> | 連鎖型多視点映像再生方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5613032A (en) * | 1994-09-02 | 1997-03-18 | Bell Communications Research, Inc. | System and method for recording, playing back and searching multimedia events wherein video, audio and text can be searched and retrieved |
JPH08186844A (ja) * | 1994-12-28 | 1996-07-16 | Sanyo Electric Co Ltd | 立体映像発生装置および立体映像発生方法 |
WO1997030551A1 (en) * | 1996-02-14 | 1997-08-21 | Olivr Corporation Ltd. | Method and systems for progressive asynchronous transmission of multimedia data |
DE69726318T2 (de) * | 1997-03-11 | 2004-09-16 | Actv, Inc. | Digitales interaktives System zur Bereitstellung voller Interaktivität mit live Sendungen |
-
2000
- 2000-06-12 CN CNB008091188A patent/CN1290330C/zh not_active Expired - Fee Related
- 2000-06-12 WO PCT/US2000/016157 patent/WO2000079797A1/en not_active Application Discontinuation
- 2000-06-12 AU AU54842/00A patent/AU5484200A/en not_active Abandoned
- 2000-06-12 BR BR0011757-9A patent/BR0011757A/pt not_active IP Right Cessation
- 2000-06-12 KR KR1020017016211A patent/KR20020022706A/ko not_active Application Discontinuation
- 2000-06-12 EP EP00939821A patent/EP1190575B1/en not_active Expired - Lifetime
- 2000-06-12 JP JP2001504686A patent/JP2003502956A/ja active Pending
- 2000-06-12 DE DE60042742T patent/DE60042742D1/de not_active Expired - Fee Related
-
2002
- 2002-06-19 HK HK02104544.1A patent/HK1043010B/zh not_active IP Right Cessation
-
2008
- 2008-06-30 JP JP2008170132A patent/JP4908460B2/ja not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265429A (ja) * | 1996-01-23 | 1997-10-07 | Fujitsu Ltd | データ配信装置、記憶装置とその制御方法およびデータ転送システム |
JPH10322680A (ja) * | 1997-05-16 | 1998-12-04 | Nippon Telegr & Teleph Corp <Ntt> | 連鎖型多視点映像再生方法 |
Non-Patent Citations (1)
Title |
---|
小合、松田: "ユーザの視聴特性に基づくVOD用動的キャッシュ制御法の提案", 電子情報通信学会1997年総合大会講演論文集 情報・システム 2 ▼, JPN7007001958, 27 March 1997 (1997-03-27), pages 108, ISSN: 0000940652 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014165912A (ja) * | 2013-02-22 | 2014-09-08 | Fuji Xerox Co Ltd | ビデオ再生方法、プログラム及びシステム |
Also Published As
Publication number | Publication date |
---|---|
KR20020022706A (ko) | 2002-03-27 |
EP1190575A2 (en) | 2002-03-27 |
HK1043010B (zh) | 2010-04-01 |
HK1043010A1 (en) | 2002-08-30 |
WO2000079797A9 (en) | 2002-07-11 |
WO2000079797A8 (en) | 2001-11-29 |
CN1290330C (zh) | 2006-12-13 |
AU5484200A (en) | 2001-01-09 |
WO2000079797A1 (en) | 2000-12-28 |
JP2008263648A (ja) | 2008-10-30 |
DE60042742D1 (de) | 2009-09-24 |
JP4908460B2 (ja) | 2012-04-04 |
BR0011757A (pt) | 2002-04-23 |
CN1357198A (zh) | 2002-07-03 |
EP1190575B1 (en) | 2009-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4908460B2 (ja) | インタラクティブ・ビデオ・ストリームを使用した拡張ビジュアル・プレゼンテーションのためのシステムおよび方法 | |
US6243865B1 (en) | Method of relaying digital video & audio data via a communication media | |
US6278466B1 (en) | Creating animation from a video | |
US8436891B2 (en) | Hyperlinked 3D video inserts for interactive television | |
US6268864B1 (en) | Linking a video and an animation | |
US8074161B2 (en) | Methods and systems for selection of multimedia presentations | |
US7823058B2 (en) | Methods and apparatus for interactive point-of-view authoring of digital video content | |
US20100097398A1 (en) | Image processing apparatus, moving-image playing apparatus, and processing method and program therefor | |
KR20190008901A (ko) | 가상 현실 미디어 콘텐트의 스트리밍을 개선하는 방법, 디바이스, 및 컴퓨터 프로그램 | |
CN110035321B (zh) | 一种在线实时视频的装饰方法与系统 | |
JP2006515476A (ja) | デジタルビデオコンテンツの対話的ネットワーク共有のための方法および装置 | |
SG188630A1 (en) | Video bit stream transmission system | |
JP2006514796A (ja) | デジタルビデオコンテンツの対話的なマップに基づく分析のための方法および装置 | |
EP2564304A2 (en) | Zoom display navigation | |
WO1999065224A2 (en) | Creating animation from a video | |
US6628282B1 (en) | Stateless remote environment navigation | |
Podborski et al. | 360-degree video streaming with MPEG-DASH | |
Wilson et al. | A video-based rendering acceleration algorithm for interactive walkthroughs | |
KR20190016828A (ko) | 심리스 무브먼트를 이용한 360도 3d 입체영상 시스템 | |
Sanna et al. | 3D technologies and products for e‐commerce on the Web | |
WO2023031890A1 (en) | Context based adaptable video cropping | |
JP2023085912A (ja) | 動画配信システム、動画配信装置、端末、方法、データ構造、及びプログラム | |
CN113796067A (zh) | 沉浸式视频体验 | |
Uyttendaele et al. | High-quality Image-based Interactive Exploration of Real-World Environments1 | |
Ghoda | Media Integration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080306 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080630 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080806 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20081205 |