JP2003513538A - オブジェクト指向ビデオシステム - Google Patents

オブジェクト指向ビデオシステム

Info

Publication number
JP2003513538A
JP2003513538A JP2001534008A JP2001534008A JP2003513538A JP 2003513538 A JP2003513538 A JP 2003513538A JP 2001534008 A JP2001534008 A JP 2001534008A JP 2001534008 A JP2001534008 A JP 2001534008A JP 2003513538 A JP2003513538 A JP 2003513538A
Authority
JP
Japan
Prior art keywords
video
data
user
information
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001534008A
Other languages
English (en)
Other versions
JP2003513538A5 (ja
Inventor
ルーベン・ゴンザレス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ActiveSky, Incorporated
Original Assignee
ActiveSky, Incorporated
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AUPQ3603A external-priority patent/AUPQ360399A0/en
Priority claimed from AUPQ8661A external-priority patent/AUPQ866100A0/en
Application filed by ActiveSky, Incorporated filed Critical ActiveSky, Incorporated
Publication of JP2003513538A publication Critical patent/JP2003513538A/ja
Publication of JP2003513538A5 publication Critical patent/JP2003513538A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/289Object oriented databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/752Media network packet handling adapting media to network capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4351Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reassembling additional data, e.g. rebuilding an executable program from recovered modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Color Television Systems (AREA)
  • Television Systems (AREA)

Abstract

(57)【要約】 ビデオ、テキスト、オーディオ、音楽及び/又はグラフィックス要素のうちの少なくとも1つを含むデータをパケットストリームとしてそれぞれ符号化し、パケットストリームを、自体の制御情報を含みかつ単一の自体で完備したオブジェクトに結合し、複数のオブジェクトをデータストリームに配置し、1つ以上のデータストリームを、単一の連続的な自体で完備しかつパケットシーケンスの最初にフォーマット定義を含むシーンにグループ化して、オブジェクト指向対話型マルチメディアファイルを生成する方法を提供する。当該方法を実行する符号化器が、ファイルをパージングして復号化する復号化器とともに提供される。ファイルは携帯型コンピュータ装置に無線でストリーミング可能である。オブジェクト制御は、オブジェクトのレンダリングと対話型制御を提供し、ユーザが動的メディアコンポジションを制御して受信されたオブジェクトを制御することを可能にする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】
本発明は、ビデオの符号化及び処理の方法に関し、以下に限定するのではない
が特に、ビデオのシーン中に複数の任意形状のビデオオブジェクトが共存するこ
とをサポートし、各オブジェクトに対して定義される個別のアニメーション及び
複数の対話型の振る舞いを可能にし、遠隔のクライアント又はスタンドアローン
のシステムにより復号化可能なビデオストリームにオブジェクト指向の制御を符
号化することによって動的メディア合成(コンポジション)を可能にする、ビデ
オ符号化システムに関する。クライアントシステムは、標準のコンピュータ上で
実行するか、又は、低いパワーの汎用のCPUを用いた、携帯情報端末(PDA
)、スマートな無線電話機、ハンドヘルドコンピュータ、及び身につけることが
できるコンピューティング装置のような、モバイルコンピュータ装置上で実行す
ることができる。これらの装置は、符号化されたビデオストリームの無線伝送に
対するサポートを含むことができる。
【0002】
【従来の技術及び発明が解決しようとする課題】
最近の技術的な進歩は、個人のモバイルコンピューティング装置の導入をもた
らしたが、これは、完全な無線通信技術を包含することのほんの始まりである。
無線移動体電話機のグローバルな導入ははなはだしいものがあったが、しかしな
お、実質的に発展する潜在的な能力がある。潜在的する新しく革新的なモバイル
ビデオ処理に対して、ビデオ品質、フレームレート及び低い電力消費を提供され
たいかなるビデオ技術のソリューションも存在しないと認識されてきた。モバイ
ル装置の制限された処理パワーのために、現在は、モバイルビデオ会議、ウルト
ラシン無線ネットワーククライアントのコンピューティング、ブロードキャスト
無線モバイルビデオ、モバイルビデオの販売促進、又は無線ビデオの監視(surv
eillance)のような、パーソナルなコンピューティング装置を利用した処理のた
めの適当なモバイルビデオソリューションは存在しない。
【0003】 スマート電話又はPDAのような携帯型のハンドヘルド装置上にビデオを表示
する試みにおける重大な問題は、一般に、これらが、制限された表示能力を有す
るということにある。ビデオは、一般に、レンダリングするためにトゥルーカラ
ー(16又は24ビット)の表示能力を必要とする連続的な色表現を用いて符号
化されるので、8ビットのディスプレイが用いられるときは、著しい性能の低下
をもたらす。このことは、固定されたカラーマップを用いる装置上のディスプレ
イのために適当な8ビット画像にビデオ画像を変換するためにクライアント上で
実行される量子化及びディザリング処理に起因し、これは、品質を低下させ、大
きな処理のオーバーヘッドを導入する。
【0004】 現在、コンピュータに基づいたビデオ会議は、物理的なケーブル接続とネット
ワークコンピュータ通信プロトコル層とを含むネットワークを介して接続された
複数の標準のコンピュータワークステーション又はPCを用いている。これの例
は、終端間で物理的に接続されたケーブルを備え、TCP/IPネットワーク通
信プロトコルを用いる、インターネット上の2つのPCの間におけるビデオ会議
である。この種のビデオ会議は、インターネットへの物理的な接続を有し、また
、大きな、コンピュータに基づいたビデオモニタリング装置を用いている。それ
は、固定された場所の間のビデオ会議を提供し、このことは、付加的に、両方の
関係者が適当な場所に同時に存在することを保証するために、会議のための特定
の時刻に参加者たちを拘束する。
【0005】 個人のハンドヘルドコンピュータ又はスマート電話に対する無線テキスト情報
のブロードキャストは、最近になって、新しく革新的な無線技術とハンドヘルド
コンピューティング装置における発展によって容易になったばかりである。ハン
ドヘルドコンピューティング装置と移動体電話機は、ユーザ装置にテキスト情報
を提供できる広域ネットワークへの無線接続を有することができる。現在、無線
ハンドヘルドコンピューティング装置へのビデオのリアルタイムの伝送は実現さ
れていない。ビデオコンテンツの接続性がこのように欠落していることは、特に
、広告の目的で目標となる特定のユーザへの“ブロードキャスト”システムとし
ての無能力を考慮するとき、既存のシステムの商業的な有用さを制限する傾向に
ある。任意の形式のブロードキャストメディアに関する1つの重要な市場の問題
は、広告の問題と、どのようにそれがサポートされるかということである。効果
的な広告は、複数のユーザ及び複数の地理的な場所に特に目標を定められる必要
があるが、本質的にブロードキャスト技術はこの観点において制限されている。
従って、特別な製品の“市場の隙間(ニッチ)”の広告者は、そのようなシステ
ムをサポートすることを望まないだろう。
【0006】 現在のビデオブロードキャストシステムは、伝送の間にリアルタイムでビデオ
データストリームに広告素材を挿入するために必要とされる非常に大きな処理の
必要条件のために、目標を定められた広告を埋め込むことはできない。それに代
わる、送信の前にビデオを予め合成する方法は、本願出願人によって認識される
ところではあまりにも単調で長たらしいので、標準の基準に基づいて実行するこ
とはできない。それに加えて、いったん広告がビデオストリームに埋め込まれる
と、ユーザは広告と対話することができず、このことは広告の効果を減少させる
。意義深いことに、対話的な技術を用いてより効果的な広告を達成できることが
認識されてきた。
【0007】 ほとんどのビデオ符号化器/復号化器は、漫画又はアニメーション表示された
コンテンツに対しては貧弱な性能を示すが、しかしながら、インターネットのた
めに生成されている漫画又はアニメーション表示されたコンテンツは、ビデオよ
りも多く存在する。ビデオと同様にグラフィックのアニメーション及び漫画を効
率的に符号化できるコーデックに対する必要が存在することが認識されてきた。
【0008】 商業及び家庭のセキュリティーに基づいたビデオ監視システムは、現在までの
ところ、専用の監視ガードのフルタイムの注意を必要とする、中央の場所で達成
されたビデオモニタリングによる、閉じた回路のモニタリングシステムを用いて
達成されている。複数の場所のビデオモニタリングは、専用のモニタリングシス
テムの装置を用いた中央の制御センタにおいてのみ達成することができる。セキ
ュリティーのガードは、パトロールの間に、監視される場所からのビデオへのア
クセスを持たない。
【0009】 シン(thin;薄型の)クライアントワークステーションを用いたネットワーク
に基づいたコンピューティングは、ソフトウェア処理の大部分をサーバコンピュ
ータ上で発生させるとともに、クライアントワークステーション上での最小限の
ソフトウェア処理を伴う。シンクライアントコンピューティングは、情報及びオ
ペレーティングソフトウェアの構成の集中化によって、コンピュータ管理のコス
トを減少させる。クライアントワークステーションは、10ベースTイーサネッ
ト(登録商標)のような標準の構内ネットワークを介してサーバコンピュータに
物理的に有線で接続されている。クライアントワークステーションは、バックエ
ンドのサーバコンピュータへの通信とクライアントのビデオモニタリング装置上
への情報表示とを可能にする、最小限のオペレーティングシステムを実行する。
しかしながら、既存のシステムは制約されている。それらは、典型的に、特定の
アプリケーション又はベンダーのソフトウェアに制限されている。例えば、現在
のシンクライアントは、表示されているビデオと表計算アプリケーションとを同
時にサービスすることができない。
【0010】 市場において製品を直接に販売促進するために、販売代理人は、製品の使用法
と利点を説明するためにビデオの実演を用いることができる。現在、このことは
、移動する販売代理人にとって、製品の実演のために顧客の場所に持参できるじ
ゃまな専用のビデオ表示装置の使用を必要とする。製品及び市場の販売促進の目
的でリアルタイムのビデオを提供する、利用可能なモバイルのハンドヘルドビデ
オディスプレイのソリューションは存在しない。
【0011】 市場調査と広告のために、ビデオパンフレット(video brochures)がしばし
ば用いられている。しかしながら、それらの効果は、ビデオは分類上では受動的
な媒体であるので、常に制限されている。ビデオパンフレットの効果は、それら
を対話型にすることができたならば、劇的に改善されるだろうと見なされている
。この対話性をコーデック内に本質的に提供できたならば、このことは、ビデオ
に基づいた電子商取引(eコマース)のアプリケーションへのドアを開くだろう
。対話型ビデオに関する従来の定義は、標準の圧縮をされたビデオを表示(view
ing)ウィンドウに圧縮解除でき、いくつかのメタデータを解釈できる再生器を
含む。ここで、上記メタデータは、ビデオ上に重ね合わされるボタン及び不可視
の“ホットな領域”を定義し、それらは、典型的には、ユーザのマウスのクリッ
クが、何らかの予め定義された動作を呼び出すハイパーリンクを表す。この典型
的な方法において、ビデオはメタデータとは別個のエンティティとして記憶され
ており、ビデオコンテンツと適用される外部の制御との間に統合化は存在しない
ので、対話の本質はきわめて制限されている。
【0012】 対話型ビデオを提供するためのそれに代わる方法は、複数のオブジェクトを許
容するMPEG4のそれであるが、しかしながら、この方法を、128MbのR
AMを有するペンティアム(登録商標)III 500MHzコンピュータのよ
うな今日の典型的なデスクトップコンピュータ上で実行するのは困難であること
が分かる。その理由は、オブジェクトの形状情報がオブジェクトの色/輝度情報
からは別に符号化されて付加的な記憶のオーバーヘッドを生成することと、部分
的にはバーチャルリアリティーマークアップ言語(VRML)から得られたシー
ンの記述(BIFS)及びファイルフォーマットの本質が非常に複雑であること
とにある。このことは、あるビデオオブジェクトに対する各ビデオフレームを表
示するために、3つの別個の成分、すなわち輝度情報、形状/透明度情報、及び
BIFSを完全に復号化する必要があることを意味する。次いで、これらは、オ
ブジェクトが表示できるようになる前に、互いに混合(ブレンド)される必要が
ある。DCTに基づいたビデオコーデック自体が、すでに非常に大きな計算量を
必要とするならば、追加の復号化を必要とすることは、記憶のオーバーヘッドに
加えて、はなはだしい処理のオーバーヘッドをもたらす。
【0013】 個人情報端末(PDA)への無線アクセス能力を準備することは、PDAにオ
ーディオ−ビジュアルコンテンツをリアルタイムで無線ストリーミングすること
を可能にすることによって、電子的な書籍をそれらの記憶の制限から開放するこ
とを可能にする。多くの団体の学習アプリケーションは、オーディオビジュアル
情報が、携帯装置において無線で利用可能であることを必要とする。オーディオ
ビジュアルの学習素材の本質は、それらが、対話型であって、大量の記憶された
コンテンツのノンリニアーのナビゲーション(移動)を提供することを示す(di
ctate)。これは、当該技術の現在の状態で提供することはできない。
【0014】 本発明の目的は、上述の欠陥を克服することにある。本発明のもう1つの目的
は、ストリーミングビデオのソフトウェア再生を提供することと、特殊なDSP
又はオーダーメードのハードウェアの援助を受けない、汎用のプロセッサを用い
た汎用のハンドヘルド装置のような低い出力パワーのモバイル装置上にビデオを
表示することとにある。
【0015】 本発明の別の目的は、無線接続されたモバイル装置のための、高性能の、低い
複雑さのソフトウェアの、ビデオコーデックを提供することにある。当該無線接
続は、GSM、CDMA、GPRS、PHS、UMTS、IEEE 802.1
1などのネットワークにおいて用いられるような、パケット交換又は回線交換ネ
ットワークを介したCDMA、TDMA、FDMA送信モードで動作する無線ネ
ットワークの形式で提供される。
【0016】 本発明の別の目的は、連続的な色表現を使用するコーデックを用いたときに、
8ビットのカラーディスプレイを備えたクライアント上でのリアルタイムの色量
子化のために、色の前置量子化されたデータを送信する(任意の非定常的な3次
元のデータを単一の次元にマッピングする)ことにある。
【0017】 本発明の別の目的は、余分なデータのオーバーヘッド又は処理のオーバーヘッ
ドなしに、単一のシーン中で複数の任意形状のビデオオブジェクトをサポートす
ることにある。
【0018】 本発明の別の目的は、オーディオ、ビデオ、テキスト、音楽及びアニメーショ
ン表示されたグラフィックを、ビデオシーン中にシームレスに統合化することに
ある。
【0019】 本発明の別の目的は、対話型の振る舞いと、レンダリングと、コンポジション
(合成)と、ディジタル権利管理情報と、シーン中のオブジェクトのための圧縮
されたデータの解釈とを定義するために、ビデオのビットストリーム中のオブジ
ェクトに制御情報を直接に添付することにある。
【0020】 本発明の別の目的は、ビデオ中の個別のオブジェクトと対話することと、レン
ダリングと、表示されているコンテンツのコンポジションとを制御することとに
ある。
【0021】 本発明のさらにもう1つの目的は、個別のビデオオブジェクトのレンダリング
パラメータを変更し、条件が真になるときビデオオブジェクトに割り当てられた
特定の動作を実行する能力(capability)と、システム全体の状態を変更し、ノ
ンリニアーのビデオのナビゲーションを実行する能力(ability)とを有する対
話型のビデオを提供することにある。このことは、個別のオブジェクトに添付さ
れた制御情報を通じて達成される。
【0022】 本発明のもう1つの目的は、対話型のノンリニアーのビデオとコンポジットメ
ディアとを提供することにあり、ここで、システムは、1つの実施例において、
ハイパーリンクされたオブジェクトとのユーザの直接の対話に対して、特定の目
標シーンにジャンプすることによって応答することができる。もう1つの実施例
において、ビデオの与えられた部分を介して得られたパスは、直接には関係しな
い他のオブジェクトとのユーザ対話によって、間接的に決定される。例えば、シ
ステムは、何のシーンが以前に見られたかを追跡し、この履歴に基づいて次に表
示されるシーンを決定することができる。
【0023】 対話型の追跡データは、コンテンツを供給する間に、サーバに提供することが
できる。ダウンロードされたコンテンツに対して、対話型の追跡データは、後の
同期化でサーバに戻すために、装置上に記憶することができる。コンテンツのオ
フラインでのリプレイの間に選択されたハイパーリンク要求又は追加の情報の要
求は、記憶されて、次の同期化で完了する(フォーム及び対話データの非同期の
アップロード)ためにサーバに送信される。
【0024】 本発明の別の目的は、ビデオデータが遠隔のサーバからストリーミングされて
いるときでも、ローカル記憶装置からオフラインで再生されているときでも、オ
ブジェクト指向のビデオに対して同様の対話型の制御を提供することにある。こ
のことは、対話型ビデオのアプリケーションを、以下の分配の選択肢で、すなわ
ち、ストリーミングする(“プル”)と、スケジュールされている(“プッシュ
”)と、ダウンロードするとで可能にする。これは、ダウンロードされたか又は
スケジュールされた分配モデルを用いるときに、クライアント装置からフォーム
及び対話データを自動的かつ非同期でアップロードすることを提供する。
【0025】 本発明の目的は、シーン内のオーディオ/ビジュアルオブジェクトのレンダリ
ングパラメータをアニメーション表示することにある。これは、位置、スケール
、向き、深度、透明度、色、及びボリュームを含む。本発明は、レンダリングパ
ラメータのための固定されたアニメーションパスを定義することと、レンダリン
グパラメータを変更するために遠隔のサーバからコマンドを送信することと、ユ
ーザがオブジェクトをクリックするときアニメーションパスを活性化するように
、ユーザ対話の直接又は間接の結果としてレンダリングパラメータを変化させる
こととによりこのことを達成する。
【0026】 本発明のもう1つの目的は、ユーザがオブジェクトと対話するときに実行され
る、個別のオーディオ−ビジュアルオブジェクトに対する振る舞いを定義するこ
とにあり、ここで、上記振る舞いは、アニメーション、ハイパーリンク、システ
ムの状態/変数の設定、及び動的メディア合成(コンポジション)の制御を含む
【0027】 本発明のもう1つの目的は、即時のアニメーションか、又はオブジェクトに対
する振る舞いのアクションを条件付きで実行することにある。これらの条件は、
システム状態の変数と、タイマイベントと、ユーザイベントと、オブジェクト間
の関係(例えば重複)と、これらの動作を条件が真になるまで遅延させる能力と
、複雑な条件の表現を定義する能力とを含むことができる。さらに、1つのオブ
ジェクトとの対話がそれ自体よりももう1つのものに影響するように、任意の制
御の目標を1つのオブジェクトからもう1つのものに変更することが可能である
【0028】 本発明のもう1つの目的は、ユーザの選択を登録するために、ビデオメニュー
と簡単なフォームを作成する能力を含む。上記フォームは、オンラインのとき遠
隔のサーバに自動的に同期してアップロードすることができ、システムがオフラ
インのとき自動的に非同期でアップロードすることができる。
【0029】 本発明のもう1つの目的は対話型ビデオを提供することにあり、上記対話型ビ
デオは、個別のオブジェクトのコンテンツの再生をループさせることか、オブジ
ェクト制御情報をループさせることか、シーン全体をループさせることのような
、ループを定義する能力を含む。
【0030】 本発明のもう1つの目的は複数のチャンネルの制御を提供することにあり、こ
こで、加入者は、ユニキャストの(パケット交換接続の)セッションへ/セッシ
ョンから、ブロードキャストの(パケット交換又は回線交換の)チャンネルから
/チャンネルへ、のように、見られるコンテンツストリームをもう1つのチャン
ネルに変化させることができる。例えば、対話型オブジェクトの振る舞いは、両
方の通信モードをサポートする装置においてパケット交換から回線交換接続に変
化させ、かつ回線交換接続においてユニキャストとブロードキャストのチャンネ
ル間で変化させかつ再び元に戻すことによって、オブジェクトとの対話がチャン
ネルの変化を実行する、チャンネルの変化特徴機能を実装するために用いること
ができる。
【0031】 本発明のもう1つの目的は、動的メディア合成(コンポジション)(“DMC
”)によってコンテンツの個人化を提供することにあり、上記動的メディア合成
(コンポジション)、シーンが含む任意形状のビジュアル/オーディオのビデオ
オブジェクトのうちの任意のものを挿入し、除去し又は置換することによって、
もしくはビデオクリップ中のシーンを変化させることによって、シーンが見られ
ている間に、表示されているビデオシーンの実際のコンテンツを動的にかつリア
ルタイムで変化させることを可能にする処理である。
【0032】 1つの実施例は、加入者のユーザプロフィールに関連する、ビデオオブジェク
トの構成要素を含むエンターテインメントビデオである。例えば、映画のシーン
において、ある部屋は、テニスよりはむしろ、ゴルフのスポーツ用品を含むこと
ができる。このことは、一貫性のあるメッセージが存在するが、さまざまな代替
のビデオオブジェクト構成要素も備える広告のメディアにおいて特に有用であろ
う。
【0033】 本発明のもう1つの目的は、対話型の動作を有するか又は持たない、目標を定
められた画像内の対話型広告ビデオオブジェクトを伝送し、かつ、それを動的メ
ディア処理の具体化として、見られるシーンに挿入することを可能にすることに
ある。広告オブジェクトは、1日の時刻、地理的な場所、ユーザプロフィールな
どに基づいて、ユーザに目標を定めることができる。さらに、本発明は、広告の
除去を含む、ユーザの上記オブジェクトとの対話(例えば、ユーザのクリック)
に対するさまざまな種類の即時の又は遅延された対話型の応答を処理することと
、広告オブジェクトを他のオブジェクトと即時に置換するか、又は見られたシー
ンを新しいものと置換するような、DMC動作を実行することと、ユーザをオフ
ライン追跡(フォローアップ)動作に対して登録することと、現在のビデオシー
ン/セッションの終わりに新しいハイパーリンクの宛先又は接続にジャンプする
ことと、又は及び広告オブジェクトの透明度を変化させることと、それを除去(
go away)するか消滅させることとを可能にすることを目的とする。広告オブジ
ェクトがリアルタイムのストリーミングシナリオで提供されるときにこれらの広
告オブジェクトとのユーザ対話を追跡することは、さらに、ターゲットとなる目
的のカスタム化か、又は広告の効果を評価することを可能にする。
【0034】 本発明のもう1つの目的は、呼の間又は終わりに、スポンサーを有する呼に対
してスポンサーのビデオ広告オブジェクトを自動的に表示することによる広告を
通じて、無線ネットワーク又はスマート電話の使用に関連付けられた呼の課金に
対して補助金を支払うことにある。それに代わって、ユーザがオブジェクトとの
何らかの対話を実行するとき、スポンサーシップを提供する呼の前、間、又は後
に対話型のビデオオブジェクトを表示する。
【0035】 本発明の目的は、オンライン及びオフラインのシナリオで、オーディオ及びビ
ジュアルのデータを用いて、モバイル装置のための無線の対話型電子商取引シス
テムを提供することにある。上記電子商取引は、ハイパーリンクされた画像内の
広告か、又はノンリニアーのナビゲーションを含む対話型のビデオパンフレット
かのいずれかを用いる市場調査/販売促進の目的か、もしくは、ユーザが、個別
の販売項目をドラグして買い物かごなどに入れてそれらと対話できるように、個
別の販売項目がオブジェクトとして作成可能な、直接のオンラインショッピング
を含む。
【0036】 本発明の目的は、コンパクトフラッシュ(登録商標)か、メモリスティックか
、もしくは、広告又は販売促進素材か又は製品情報を備えた対話型のビデオパン
フレットを含む、他のなんらかの形式の要素を有する記憶装置かを、公衆に無料
で(又はスポンサーに援助されたコストで)提供する方法及びシステムを含む。
上記記憶装置は、好ましくは読み出し専用装置であるが、他のタイプのメモリを
用いることもできる。上記記憶装置は、オンライン通信を用いてか、又は何らか
のデータをメモリカードに書き戻して、上記メモリカードを次に何らかの集積所
に預けるかのいずれかによって、製造者へのフィードバック機構を提供するよう
に構成することができる。物理的なメモリカードを用いなくても、装置がデータ
及び受信可能な量(quantity)を受信するように準備されているならば、これと
同じ目的が、情報を装置に送信し、続いて関連する装置と交渉することによって
、ローカルな無線で分散した配置を用いて達成することができる。
【0037】 本発明の目的は、ダウンロードしているとき、ユーザらに、対話型のビデオパ
ンフレット、ビデオマガジン及びビデオ(アクティビティー)本を送信して、次
いで、彼らが、書き込み(filling out)フォームを含むパンフレットと対話で
きるようにしたりすることにある。ビデオパンフレットに存在(present in)し
、ユーザによって動作させられるか又は対話されるとき、これらのユーザデータ
/フォームは、クライアントが再びオンラインになるとき、発信元のサーバに非
同期でアップロードされる。所望されるときは、このアップロードは、自動的に
及び/又は非同期で実行することができる。これらのパンフレットは、学習/教
育、市場調査又は販売促進、製品情報の目的のためのビデオを含むことができ、
収集されたユーザ対話情報は、テスト、調査、より多くの情報に対する要求、購
入の注文などであることができる。対話型のビデオパンフレット、ビデオマガジ
ン及びビデオ(アクティビティー)本は、画像内の広告オブジェクトを用いて作
成されることが可能である。
【0038】 本発明の別の目的は、われわれのオブジェクトに基づいた対話型のビデオスキ
ームを用いて、モバイル装置のための、ユニークな、ビデオに基づいたユーザイ
ンターフェースを作成することにある。
【0039】 本発明の別の目的は、無線接続されたモバイルユーザにビデオメールを提供し
、ここでは、電子的グリーティングカード及びメッセージが作成されてカスタマ
イズされ、それらを加入者の間で伝送されることが可能である。
【0040】 本発明の別の目的は、競技場か、又は空港、ショッピングモールのような他の
ローカル環境において、追加の情報又は電子商取引に対するバックチャンネルの
対話型ユーザ要求を用いて、ローカルなブロードキャストを提供することにある
【0041】 本発明のもう1つの目的は、対話型のビデオシステムを用いたオンラインアプ
リケーションの、音声コマンド及び制御のための方法を提供することにある。
【0042】 本発明のもう1つの目的は、無線接続を介して遠隔のコンピューティングサー
バへのアクセスを提供するための、無線ウルトラシンクライアントを提供するこ
とにある。上記遠隔のコンピューティングサーバは、専用に所有されたコンピュ
ータであることができ、又はアプリケーションサービスプロバイダによって提供
することができる。
【0043】 本発明のさらにもう1つの目的は、画像内の広告を有するか又は持たない、ロ
ーエンドの無線装置上で複数の関係者のビデオ会議を行うことを含む、ビデオ会
議を提供することにある。
【0044】 本発明のもう1つの目的は、ビデオ監視の方法を提供し、それによって、無線
ビデオ監視システムは、無線接続されたPDA又は携帯電話機上で遠隔して見る
ために、ビデオカメラ、ビデオ記憶装置、ケーブルテレビ及び放送のテレビ、ス
トリーミングインターネットビデオからの信号を入力する。本発明のもう1つの
目的は、道路のトラフィックカメラを用いて、トラフィックモニタリングサービ
スを提供することにある。
【0045】
【課題を解決するための手段】
システム/コーデックの態様 本発明は、低いパワーのモバイル装置上で、所望されるならば、ソフトウェア
で、ビデオをストリーミング及び/又は動作させる能力を提供する。本発明はさ
らに、カラーでマッピングされたビデオデータに対して、四分木(quadtree)に
基づいたコーデックを用いることを提供する。本発明はさらに、任意形状の定義
に対するサポートとともに、透明なリーフ(葉)の表現と、FIFOを用いたリ
ーフの色の予測と、最下位レベルのノードタイプの除去とを備えた、四分木に基
づいたコーデックを用いることを提供する。
【0046】 本発明はさらに、最下位でないリーフに対するn次補間と、最下位レベルのリ
ーフに対する0次補間と、任意形状の定義に対するサポートとを備えた、四分木
に基づいたコーデックを用いることを含む。従って、本発明のさまざまな実施形
態に係る特徴は、以下の特徴のうちの1つ又はそれよりも多くを含むことがある
。 クライアント側におけるリアルタイムの色量子化を可能にするために、色の前
置量子化情報を送信すること。 ベクトル量子化のための適応型コードブックへの3Dデータスペーシングのマ
ッピングを表現するために、動的な八分木(octree)のデータ構造を用いること
。 オーディオ、ビデオ、テキスト、音楽、及びアニメーション表現されたグラフ
ィックを、無線でストリーミングされるビデオのシーンにシームレスに統合化す
る能力。 単一のシーン中で、複数の任意形状のビデオオブジェクトをサポートすること
。この特徴は、例えば、輝度又はテクスチャ情報から分離した追加の形状情報を
符号化することによる、余分なデータのオーバーヘッド又は処理のオーバーヘッ
ドなしに実装される。 ファイルエンティティの階層、オブジェクトデータストリーム、レンダリング
の別の仕様、定義及びコンテンツのパラメータ、ディレクトリ、シーン、及びオ
ブジェクトに基づいた制御のような、基本的なファイルフォーマットの構成。 無線でストリーミングされるビデオ中の個別のオブジェクトと対話する能力。 対話の動作、レンダリングパラメータ、コンポジションなどを制御するために
、オブジェクト制御データをビデオビットストリーム中のオブジェクトに添付す
る能力。 無線ストリーミングに基づいた分配のためと、ダウンロード及び再生に基づい
た分配のために、ディジタル権利管理情報を、ビデオ又はグラフィックアニメー
ションのデータストリームに埋め込む能力。 従来のグラフィックユーザインターフェース(GUI)の代わりに、ビデオオ
ブジェクトユーザインターフェース(“VUIのもの”)を作成する能力。及び
/又は、 レンダリングパラメータと、マルチメディア表示におけるDMC機能のプログ
ラム(programmatic)制御とのような、オブジェクト制御を定義するために、X
MLに基づいたマークアップ言語(“IAVML”)又は同様のスクリプトを用
いる能力。
【0047】 対話の態様 本発明はさらに、 データコンテンツか又はコンテンツのレンダリングかを変更するために、スト
リーミングサーバからオブジェクト制御を送信するための方法及びシステムと、 データコンテンツか又はコンテンツのレンダリングかを変更するために、オブ
ジェクト制御をデータファイルに埋め込むことと、 クライアントが、オプションとして、直接的又は間接的なユーザ対話に基づい
て、オブジェクト制御によって定義された動作を実行してもよいこととをサポー
トすることによって、 ユーザ対話とアニメーション(それ自体の動作)を制御する方法及びシステム
を提供する。
【0048】 本発明はさらに、実行可能な複数の振る舞いをオブジェクトに添付する能力を
提供し、上記振る舞いは、ビデオシーンにおけるオーディオ/ビジュアルオブジ
ェクトに対する、レンダリングパラメータのアニメーションと、ハイパーリンク
と、開始タイマと、音声呼の生成と、動的メディア合成の動作と、システムの状
態(例えば、ポーズ/再生)を変化させることと、ユーザの変数を変化させるこ
と(例えば、ブールフラグの設定)とを含む。
【0049】 本発明はまた、ユーザが特にオブジェクトと対話するとき(例えば、オブジェ
クトをクリックするか又はオブジェクトをドラグするとき)か、ユーザのイベン
トが発生するとき(ポーズされたボタンが押されるか又はキーが押されるとき)
か、又はシステムのイベントが発生するとき(例えば、シーンの終わりに達した
とき)に、オブジェクトの振る舞いを活性化する能力を提供する。
【0050】 本発明はさらに、アクション及び振る舞いに条件を割り当てるための方法及び
システムを提供し、これらの条件は、タイマのイベント(例えば、タイマが満了
した)と、ユーザのイベント(例えば、キーが押された)と、システムのイベン
ト(例えば、シーン2を再生している)と、対話のイベント(例えば、ユーザが
オブジェクトをクリックした)と、オブジェクト間の関係(例えば、重複)と、
ユーザの変数(例えば、ブールフラグの集合)と、システムの状態(例えば、再
生中かポーズされているか、ストリーミングかスタンドアローンの再生か)とを
含む。
【0051】 さらに、本発明は、AND−OR面のロジックを用いて、動作の実行前に条件
が真になることを待機して複雑な条件の表現を形成する能力と、待機アクション
をクリアーする能力と、オブジェクトとの対話と他の制御とに係る因果関係(co
nsequences)の目標を、1つのオブジェクトからもう1つのものに変更し、ユー
ザ対話に基づいて再生している間にオブジェクトを他のオブジェクトによって置
換することを可能にし、及び/又は既存のオブジェクトと対話することによって
新しいオブジェクトの作成又は具体化を可能にする能力とを提供する。
【0052】 本発明は、オブジェクトデータ(すなわち、個別のオブジェクトに対するフレ
ームシーケンス)とオブジェクト制御(すなわち、レンダリングパラメータ)と
シーン全体(すべてのオブジェクト及び制御に対する再スタートフレームシーケ
ンス)とのループ再生を定義する能力を提供する。
【0053】 さらに、本発明は、ストリーミングモバイルビデオにおいて、ユーザのフィー
ドバックのためのフォームか、又はユーザ制御及び対話のためのメニューを作成
する能力と、システムの状態の変化を作用させるために、ビデオオブジェクトを
他のオブジェクトの上部にドラグして置く能力とを提供する。
【0054】 動的メディア合成 本発明は、シーンを変更することによってビデオ全体のコンポジションを可能
にし、オブジェクトを変更することによってシーン全体のコンポジションを可能
にする能力を提供する。このことは、オンラインのストリーミングの場合と、オ
フラインでビデオを再生する場合(スタンドアローン)と、それらのハイブリッ
ド状態の場合に実行することができる。個別の画像内のオブジェクトは、もう1
つのオブジェクトによって置換され、現在のシーンに追加され、及び、現在のシ
ーンから削除することができる。
【0055】 DMCは、固定されたモードと、適応的なモードと、ユーザによって媒介され
たモードとを含む3つのモードで実行されることが可能である。DMCサポート
に対するローカルオブジェクトライブラリーは、DMCにおいて用いるためのオ
ブジェクトを記憶し、直接の再生のためのオブジェクトを記憶するために使用可
能であり、ストリーミングサーバから管理されること(挿入、更新、パージ)が
可能であり、かつサーバによって質問されることが可能である。それに加えて、
上記DMCサポートに対するローカルオブジェクトライブラリーは、ライブラリ
ーオブジェクトのためのバージョン管理の制御と、非永続的なライブラリーオブ
ジェクトのための自動的な期間満了と、サーバからの自動的なオブジェクトの更
新とを有する。さらに、本発明は、複数のライブラリーオブジェクトのための複
数のレベルのアクセス制御を含み、各ライブラリーオブジェクトに対する固有の
IDをサポートし、各ライブラリーオブジェクトの履歴又は状態を有し、2人の
ユーザの間で特定のメディアオブジェクトの共有を可能にすることができる。
【0056】 別のアプリケーション 本発明は、無線接続を介して遠隔のコンピューティングサーバへのアクセスを
提供し、電子的グリーティングカードを作成してカスタマイズして携帯スマート
電話に送信することをユーザらに対して可能にするウルトラシンクライアントと
、ビデオディスプレイ(ビデオ表示)を制御するために、発話された音声のコマ
ンドの処理を使用することと、ノンリニアーのナビゲーションを用いた学習/教
育の目的のためのサーバからの対話型ストリーミング無線ビデオと、漫画/グラ
フィックのアニメーションを無線装置にストリーミングすることと、対話型ビデ
オの電子商取引のアプリケーションを無線ストリーミングすることと、ビデオオ
ブジェクトとストリーミングビデオを用いかつ目標を定められた画像内の広告と
の使用とを提供する。
【0057】 それに加えて、本発明は、ライブのトラフィックビデオをユーザらにストリー
ミングすることを可能にする。このことは、ユーザが特定の電話番号にダイヤル
し、次いで、操作者/交換機(exchange)によって処理される領域内で、見るた
めのトラフィックカメラの場所を選択するか、又は、ユーザが特定の電話番号に
ダイヤルし、(GPS又はセルの三角測量から得られる)ユーザの地理的な場所
が、見るためのトラフィックカメラの場所の選択を自動的に提供するために用い
られるかを含む、多数の代替的な方法で実行することができる。もう1つの代替
例として、サービスプロバイダがユーザを呼び出し、潜在的に交通渋滞すること
がある自動車道路(motorists route)を示すビデオを自動的にストリーミング
する特別なサービスに対してユーザが登録できるものが存在する。登録すると、
ユーザは、この目的のためのルートを指定するために選択でき、ルートの決定を
援助することができる。いずれの場合にも、システムは、ユーザの速度及び位置
を追跡して、その後の経路(travel)及びルートの方向を決定することができ、
次いで、システムは、混雑している場所があるか否かを決定するために、潜在的
なルートに沿ってモニタリングされたトラフィックカメラのそれのリストを検索
する。混雑しているならば、システムは、自動車の運転者を呼び出してトラフィ
ックのビューを提示する。移動していないユーザ又は歩く速度で移動しているユ
ーザは呼び出されない。それに代わって、混雑を示すトラフィックカメラが与え
られているならば、システムは、そのルートを移動している登録されたユーザの
リストを検索し、彼らに警告することができる。
【0058】 本発明はさらに、広告又は販売促進の素材もしくは製品情報を有する対話型の
ビデオパンフレットを含む、コンパクトフラッシュメモリか、メモリスティック
か、ディスクのような他の任意の形式の要素のような記憶装置を、無料か又は補
助されたコストかのいずれかで公衆に提供する。上記記憶装置は、好ましくは、
ユーザに対して読み出し専用メモリであるが、所望されるならば、読み出し/書
き込みメモリのような他のタイプのメモリも用いることができる。上記記憶装置
は、オンライン通信を用いてか、メモリ記憶装置に何らかのデータを書き込み(
write back on)、次いでこれを何らかの集積所で集めるかのいずれかによって
、製造者へのフィードバック機構を提供するように構成されることが可能である
【0059】 装置がデータを受信するように準備されているかと、もしそうならば、どれだ
けの量が受信可能であるかとに関する装置との交渉に続いて装置に情報を送信す
ることによって、物理的なメモリカード又は他の記憶装置を用いることなく、ロ
ーカルな無線分散を用いて同様の処理を達成することができる。必要とされるス
テップは以下のものを含むことができる。a)モバイル装置がローカル無線ネッ
トワーク(これは、IEEE 802.11又はブルートゥースなどのタイプの
ネットワークであることができる)の範囲内に到来し、それは、搬送波信号とサ
ーバ接続要求とを検出する。受け入れられたならば、クライアントは、伝送を開
始していることを示すための可聴なアラームか他の何らかの方法の手段によって
、ユーザに警報を出す。b)ユーザが、これらの接続要求を受け入れるようにモ
バイル装置を構成していたときは接続がサーバと確立され、そうでないときは要
求は拒否される。c)クライアントは、表示画面のサイズ、記憶容量及びCPU
の速度、装置の製造業者/モデル、及びオペレーティングシステムのような装置
の能力を含む構成情報をサーバに送信する。d)サーバは、この情報を受信し、
クライアントに送信するための正しいデータストリームを選択する。適当なもの
が存在しないときは、接続は終了される。e)情報が伝送された後で、サーバは
接続を閉じ、クライアントは送信の終わりに係る警報をユーザに出す。f)送信
が完了する前に、失われた接続のために送信が不正(unduly)に終了されたとき
は、クライアントは、使用されたすべてのメモリを消去(clean up)し、新しい
接続要求のためにそれ自体を再び初期化する。
【0060】 本発明によればオブジェクト指向対話型マルチメディアファイルを生成する方
法が提供され、上記方法は、 ビデオ、テキスト、オーディオ、音楽及び/又はグラフィックス要素のうちの
少なくとも1つを含むデータを、ビデオパケットストリーム、テキストパケット
ストリーム、オーディオパケットストリーム、音楽パケットストリーム及び/又
はグラフィックスパケットストリームとしてそれぞれ符号化することと、 上記複数のパケットストリームを、それ自体の制御情報を含み、単一のそれ自
体で完備したオブジェクトに結合することと、 上記複数のオブジェクトをデータストリームに配置することと、 1つ又はそれよりも多くの上記データストリームを、単一の連続的なそれ自体
で完備したシーンにグループ化することとを含み、上記シーンはフォーマットの
定義をパケットのシーケンスにおける最初のパケットとして含む。
【0061】 本発明はまた非定常的な3次元のデータセットを単一の次元にリアルタイムで
マッピングする方法を提供し、上記方法は、 上記データを予め計算するステップと、上記マッピングを符号化するステップ
と、 上記符号化されたマッピングをクライアントに送信するステップと、 上記クライアントが上記マッピングを上記データに適用するステップとを含む
【0062】 本発明はさらにオブジェクト指向対話型ビデオシステムにおいて表示されたビ
デオの実際のコンテンツを動的に変化させるシステムを提供し、上記システムは
、 ビデオ、テキスト、オーディオ、音楽、及び/又はグラフィックのデータを含
む複数のオブジェクトを含む対話型マルチメディアファイルフォーマットを含む
動的メディア合成処理を含み、上記オブジェクトのうちの少なくとも1つはデー
タストリームを含み、上記データストリームのうちの少なくとも1つはシーンを
含み、上記シーンのうちの少なくとも1つはファイルを含み、 ファイル情報を提供するディレクトリデータ構造と、 複数のオブジェクトの正しい組み合わせが互いに合成されることを可能にする
選択機構と、 ディレクトリ情報を用い、上記ディレクトリ情報に基づいて上記複数のオブジ
ェクトの位置を知るデータストリームマネージャとを備え、 上記シーン中の上記複数のオブジェクトと、上記ビデオ中の上記複数のシーン
とを、ユーザによって見られている間にリアルタイムで、挿入し、削除し、又は
置換する制御機構を備えている。
【0063】 本発明はまたさらにオブジェクト指向対話型マルチメディアファイルを提供し
、上記オブジェクト指向対話型マルチメディアファイルは、 1つ又はそれよりも多くの連続的なそれ自体で完備したシーンの組み合わせを
含み、 上記各シーンは、シーンフォーマット定義を最初のパケットとして含み、及び
上記最初のパケットに続く1つ又はそれよりも多くのデータストリームのグルー
プを含み、 最初のデータストリームを除く上記各データストリームは、上記最初のデータ
ストリームにおけるオブジェクト制御情報によって特定されるように、動的メデ
ィア合成処理に従ってオプションで復号化されて表示されることが可能である複
数のオブジェクトを含み、 上記各データストリームは、1つ又はそれよりも多くの単一のそれ自体で完備
したオブジェクトを含み、終端部のストリームマーカーによって境界を画定され
、上記複数のオブジェクトは、それぞれ、それ自体の制御情報を含み、複数のパ
ケットストリームを結合することによって形成され、上記複数のパケットストリ
ームは、ビデオ、テキスト、オーディオ、音楽、又はグラフィックス要素のうち
の少なくとも1つ又は組み合わせを含む未処理の対話型マルチメディアデータを
、ビデオパケットストリーム、テキストパケットストリーム、オーディオパケッ
トストリーム、音楽パケットストリーム、及びグラフィックスパケットストリー
ムとしてそれぞれ符号化することによって形成される。
【0064】 本発明はまたストリーミングビデオシステムにおいて動作することができる低
いパワーの装置の音声コマンド操作を提供する方法を提供し、上記方法は、 ユーザの発話音声を上記装置上で取り込むステップと、 上記発話音声を圧縮するステップと、 上記圧縮された発話音声の複数の符号化されたサンプルを複数のユーザ制御パ
ケットに挿入するステップと、 音声コマンドを処理することができるサーバに上記圧縮された発話音声を送信
するステップと、 上記サーバが自動音声認識を実行するステップと、 上記サーバが、文字に変換された発話音声をコマンドのセットにマッピングす
るステップと、 上記システムが、上記コマンドが上記ユーザによって発生されたか上記サーバ
によって発生されたかをチェックするステップと、 上記文字に変換されたコマンドが上記サーバからのものであるとき、上記サー
バが上記コマンドを実行するステップと、 上記文字に変換されたコマンドが上記ユーザからのものであるとき、上記シス
テムが上記コマンドを上記ユーザの装置に伝送するステップと、 上記ユーザが上記コマンドを実行するステップとを含む。
【0065】 本発明はさらに画像処理方法を提供し、上記画像処理方法は、 画像の色に基づいてカラーマップを生成するステップと、 上記カラーマップを用いて上記画像の表現を決定するステップと、 上記カラーマップを用いて表現される上記画像の少なくとも1つのセクション
の相対的な動きを決定するステップとを含む。
【0066】 本発明はまたさらに画像の符号化された表現を決定する方法を提供し、上記方
法は、 色を表現するために利用されるビット数を解析することと、 上記色を表現するために利用されるビット数が第1の値を超えているとき、第
1のフラグ値と第1の予め決められたビット数とを利用して上記色を表現するこ
とと、 上記色を表現するために利用されるビット数が第1の値を超えていないとき、
第2のフラグ値と第2の予め決められたビット数とを利用して上記色を表現する
こととを含む。
【0067】 本発明はまた画像処理システムを提供し、上記画像処理システムは、 画像の色に基づいてカラーマップを生成する手段と、 上記カラーマップを用いて上記画像の表現を決定する手段と、 上記カラーマップを用いて表現される上記画像の少なくとも1つのセクション
の相対的な動きを決定する手段とを備えている。
【0068】 本発明はさらに画像の符号化された表現を決定する画像符号化システムを提供
し、上記画像符号化システムは、 色を表現するために利用されるビット数を解析する手段と、 上記色を表現するために利用されるビット数が第1の値を超えているとき、第
1のフラグ値と第1の予め決められたビット数とを利用して上記色を表現する手
段と、 上記色を表現するために利用されるビット数が第1の値を超えていないとき、
第2のフラグ値と第2の予め決められたビット数とを利用して上記色を表現する
手段とを備えている。
【0069】 本発明はまたさらにオブジェクトを処理する方法を提供し、上記方法は、 情報をスクリプト言語でパージングするステップと、 ビデオ、グラフィックス、アニメーション及びオーディオのうちの少なくとも
1つの形式の複数のオブジェクトを含む複数のデータソースを読み出すステップ
と、 上記スクリプト言語の情報に基づいて上記複数のオブジェクトに制御情報を添
付するステップと、 上記複数のオブジェクトを、データストリーム及びファイルの少なくとも一方
にインターリーブするステップとを含む。
【0070】 本発明はまたオブジェクトを処理するシステムを提供し、上記システムは、 情報をスクリプト言語でパージングする手段と、 ビデオ、グラフィックス、アニメーション及びオーディオのうちの少なくとも
1つの形式の複数のオブジェクトを含む複数のデータソースを読み出す手段と、 上記スクリプト言語の情報に基づいて上記複数のオブジェクトに制御情報を添
付する手段と、 上記複数のオブジェクトを、データストリーム及びファイルのうちの少なくと
も一方にインターリーブする手段とを備えている。
【0071】 本発明はさらにコンピュータを遠隔制御する方法を提供し、上記方法は、 データに基づいてサーバにおいて計算演算を実行するステップと、 上記計算演算に基づいて上記サーバにおいて画像情報を生成するステップと、 上記データを送信することなく、上記サーバからクライアント計算装置に上記
画像情報を無線接続を介して送信するステップと、 上記クライアント計算装置によって上記画像情報を受信するステップと、 上記クライアント計算装置によって上記画像情報を表示するステップとを含む
【0072】 本発明はまたさらにコンピュータを遠隔制御するシステムを提供し、上記シス
テムは、 データに基づいてサーバにおいて計算演算を実行する手段と、 上記計算演算に基づいて上記サーバにおいて画像情報を生成する手段と、 上記データを送信することなく、上記サーバからクライアント計算装置に上記
画像情報を無線接続を介して送信する手段と、 上記クライアント計算装置によって上記画像情報を受信する手段と、 上記クライアント計算装置によって上記画像情報を表示する手段とを備えてい
る。
【0073】 本発明はまた電子的グリーティングカードを送信する方法を提供し、上記方法
は、 グリーティングカードの特徴を示す情報を入力するステップと、 上記グリーティングカードに対応する画像情報を生成するステップと、 上記画像情報を、制御情報を有するオブジェクトとして符号化するステップと
、 上記制御情報を有するオブジェクトを無線接続を介して送信するステップと、 上記制御情報を有するオブジェクトを、無線ハンドヘルド計算装置によって受
信するステップと、 上記無線ハンドヘルド計算装置によって、上記制御情報を有するオブジェクト
をグリーティングカードの画像に復号化するステップと、 復号化された上記グリーティングカードの画像を、上記ハンドヘルド計算装置
上に表示するステップとを含む。
【0074】 本発明はさらに電子的グリーティングカードを送信するシステムを提供し、上
記システムは、 グリーティングカードの特徴を示す情報を入力する手段と、 上記グリーティングカードに対応する画像情報を生成する手段と、 上記画像情報を、制御情報を有するオブジェクトとして符号化する手段と、 上記制御情報を有するオブジェクトを無線接続を介して送信する手段と、 上記制御情報を有するオブジェクトを、無線ハンドヘルド計算装置によって受
信する手段と、 上記無線ハンドヘルド計算装置によって、上記制御情報を有するオブジェクト
をグリーティングカードの画像に復号化する手段と、 復号化された上記グリーティングカードの画像を、上記ハンドヘルド計算装置
上に表示する手段とを備えている。
【0075】 本発明はまたさらに計算装置を制御する方法を提供し、上記方法は、 計算装置によってオーディオ信号を入力するステップと、 上記オーディオ信号を符号化するステップと、 上記オーディオ信号を遠隔の計算装置に送信するステップと、 上記オーディオ信号を上記遠隔の計算装置において解釈して、上記オーディオ
信号に対応する情報を生成するステップと、 上記オーディオ信号に対応する情報を上記計算装置に送信するステップと、 上記オーディオ信号に対応する情報を用いて上記計算装置を制御するステップ
とを含む。
【0076】 本発明はまた計算装置を制御するシステムを提供し、上記システムは、 計算装置によってオーディオ信号を入力することと、 上記オーディオ信号を符号化することと、 上記オーディオ信号を遠隔の計算装置に送信することと、 上記オーディオ信号を上記遠隔の計算装置において解釈して、上記オーディオ
信号に対応する情報を生成することと、 上記オーディオ信号に対応する情報を上記計算装置に送信することと、 上記オーディオ信号に対応する情報を用いて上記計算装置を制御することとを
備えている。
【0077】 本発明はさらに送信を実行するシステムを提供し、上記システムは、 無線ハンドヘルド装置上に広告を表示する手段と、 上記無線ハンドヘルド装置から情報を送信する手段と、 上記広告の表示によって、上記送信された情報に関連付けられた割引価格を受
信する手段とを備えている。
【0078】 本発明はまたさらにビデオを提供する方法を提供し、上記方法は、 イベントが発生したか否かを決定するステップと、 領域のビデオを取得し、上記イベントに応答して上記領域のビデオを無線送信
によってユーザに送信するステップとを含む。
【0079】 本発明はまたビデオを提供するシステムを提供し、上記システムは、 イベントが発生したか否かを決定する手段と、 領域のビデオを取得する手段と、 上記イベントに応答して上記領域のビデオを無線送信によってユーザに送信す
る手段とを備えている。
【0080】 本発明はさらにオブジェクト指向マルチメディアビデオシステムを提供し、上
記オブジェクト指向マルチメディアビデオシステムは、ビデオオブジェクト形状
情報を提供するために、余分なデータのオーバーヘッド又は処理のオーバーヘッ
ドを必要とせず、複数の任意形状のビデオオブジェクトをサポートすることがで
きる。
【0081】 本発明はまたさらにマルチメディアコンテンツをサーバが開始した通信によっ
て複数の無線装置に伝送する方法を提供し、コンテンツは、所望の時刻に、又は
コストについて効率的な方法で伝送するためにスケジューリングされ、上記ユー
ザは、装置のディスプレイ又は他の表示器を介して伝送の完了を警告される。
【0082】 本発明はまた対話型システムを提供し、上記対話型システムでは、記憶された
情報はオフラインで見られることが可能であり、上記装置が次にオンラインに接
続されるとき、特定の遠隔のサーバに無線ネットワークを介して自動的に伝送さ
れるユーザ入力及び対話を記憶する。
【0083】 本発明はさらにビデオ符号化方法を提供し、上記ビデオ符号化方法は、 オブジェクト制御データを備えたビデオデータをビデオオブジェクトとして符
号化することと、 上記複数のビデオオブジェクトを各ビデオデータ及びオブジェクト制御データ
とともに含むデータストリームを生成することとを含む。
【0084】 本発明はまたさらにビデオ符号化方法を提供し、上記ビデオ符号化方法は、 色の削減された表現に基づいて、ビデオストリーム中の色データを量子化する
ことと、 上記量子化された色と透明な領域とを表す、符号化されたビデオフレームデー
タを生成することと、 上記符号化されたビデオデータとともに送信する、符号化されたオーディオデ
ータとオブジェクト制御データを生成することとを含む。
【0085】 本発明はまたビデオ符号化方法を提供し、上記ビデオ符号化方法は、 (i)ビデオデータの各ビデオフレームに対して削減された色のセットを選択
することと、 (ii)フレーム間の色を調整することと、 (iii)動き補償を実行することと、 (iv)知覚可能な色差の測定値に基づいて、フレームの更新領域を決定する
ことと、 (v)ステップ(i)乃至(iv)に基づいて、上記複数のフレームに対する
ビデオデータを複数のビデオオブジェクトに符号化することと、 (vi)各ビデオオブジェクトに、アニメーション、レンダリング、及び動的
合成制御を包含させることとを含む。
【0086】 本発明はさらに無線ストリーミングビデオ及びアニメーションシステムを提供
し、上記無線ストリーミングビデオ及びアニメーションシステムは、 (i)携帯型モニタ装置及び第1の無線通信手段と、 (ii)圧縮されたディジタルビデオとコンピュータアニメーションを記憶し
、ユーザが、利用可能なビデオのライブラリから、見るためのディジタルビデオ
を閲覧して選択することを可能にするサーバと、 (iii)第2の無線通信手段を設けられ、上記サーバから上記携帯型モニタ
装置に送信可能なデータを送信する少なくとも1つのインターフェースモジュー
ルとを含み、上記携帯型モニタ装置は、上記送信可能なデータを受信し、上記送
信可能なデータをビデオ画像に変換し、上記ビデオ画像を表示し、上記ユーザが
上記サーバと通信して、見るためのビデオを対話的に閲覧して選択することを可
能にする。
【0087】 本発明はまたさらにビデオ及びアニメーションの無線ストリーミングを提供す
る方法を提供し、上記方法は、 (a)後のローカルサーバからの送信のために、圧縮されたビデオ及びアニメ
ーションデータを遠隔のサーバから広域ネットワークを介してダウンロードする
ステップと、 (b)ユーザが、上記ローカルサーバに記憶されたビデオデータのライブラリ
から、見るためのディジタルビデオデータを閲覧して選択することを可能にする
ステップと、 (c)上記データを携帯型モニタ装置に送信するステップと、 (d)上記データを処理して、上記携帯型モニタ装置上に画像を表示するステ
ップとのうちの少なくとも1つを含む。
【0088】 本発明はまた対話型ビデオパンフレットを提供する方法を提供し、上記方法は
、 (a)(i)パンフレット中のさまざまなシーンと、各シーン内で発生しうる
さまざまなビデオオブジェクトとを特定するステップと、(ii)プリセットさ
れかつユーザが選択可能なシーンのナビゲーションの制御と、各シーンに対する
個別のコンポジションルールとを特定するステップと、(iii)複数のメディ
アオブジェクト上の複数のレンダリングパラメータを特定するステップと、(i
v)複数のメディアオブジェクト上の制御を特定して、ユーザのフィードバック
を収集するためのフォームを作成するステップと、(v)圧縮された複数のメデ
ィアストリームとオブジェクト制御情報をコンポジットデータストリームに統合
化するステップとによって、ビデオパンフレットを作成するステップのうちの少
なくとも1つを含む。
【0089】 本発明はさらにビデオグリーティングカードを作成して携帯装置に送信する方
法を提供し、上記方法は、 (a)(i)ライブラリからテンプレートのビデオシーン又はアニメーション
を選択することと、(ii)ユーザが供給したテキスト又はオーディオオブジェ
クトを追加することによってか、又はシーン中の俳優として挿入される複数のビ
デオオブジェクトをライブラリから選択することによって上記テンプレートをカ
スタマイズすることとによって、顧客がビデオグリーティングカードを作成する
ことを可能にするステップと、 (b)顧客から(i)識別の詳細、(ii)好ましい伝送方法、(iii)支
払いの詳細、(iv)意図された受信者の携帯装置の番号を取得するステップと
、 (c)指定された伝送方法に依存して、帯域幅が利用可能になるか、又はオフ
ピーク伝送を取得できるようになるかのいずれかまで上記グリーティングカード
をキューイングし、受信者の装置をポーリングして上記グリーティングカードを
処理できるか否かを調べ、そうであるときは、指定された携帯装置に伝送するス
テップのうちの少なくとも1つを含む。
【0090】 本発明はまた、符号化されたデータを復号化するためのビデオ復号化方法を提
供する。
【0091】 本発明はまた、別の色量子化情報がクライアントに送信されることを可能にし
、リアルタイムの、クライアントに基づく色削減を可能にする動的な色空間符号
化方法を提供する。
【0092】 本発明はまた、目標を定められたユーザ及び/又はローカルビデオ広告を含む
方法を提供する。
【0093】 本発明はまた、ウルトラシンクライアントを実行することを含み、上記ウルト
ラシンクライアントは無線であることができ、上記ウルトラシンクライアントは
遠隔のサーバへのアクセスを提供することができる。
【0094】 本発明はまた、複数のビデオの会議のための方法を提供する。
【0095】 本発明はまた、動的メディア合成(コンポジション)のための方法を提供する
【0096】 本発明はまた、ユーザが電子的グリーティングカード及びポストカードをカス
タマイズして携帯スマート電話機に伝送することを可能にする方法を提供する。
【0097】 本発明はまた、マルチメディアデータの無線ストリーミングのための誤り訂正
の方法を提供する。
【0098】 本発明はまた、上の方法のうちの任意の1つをそれぞれ実行する複数のシステ
ムを提供する。
【0099】 本発明はまた、ビデオデータの無線ストリーミングのための誤り訂正の方法を
ユーザに可能にするサーバソフトウェアを提供する。
【0100】 本発明はまた、上の方法のうちの任意の1つのステップをそれぞれ実行するコ
ンピュータソフトウェアを提供する。
【0101】 本発明はまた、ビデオ・オン・デマンドシステムを提供する。本発明はまた、
ビデオセキュリティーシステムを提供する。本発明はまた、対話型モバイルビデ
オシステムを提供する。
【0102】 本発明はまた、発話された音声コマンドを処理してビデオディスプレイ(ビデ
オ表示)を制御する方法を提供する。
【0103】 本発明はまた、オブジェクト指向ビデオ及び/又はオーディオを制御するコー
ドを含むソフトウェアを提供する。都合のよいことには、上記コードは、XML
に基づくことができるのでIAVMLを含んでもよい。
【0104】
【発明の実施の形態】
以下、添付の図面を参照して、本発明の好ましい実施形態を、例示としてのみ
説明する。
【0105】 用語の解説 ビットストリーム:サーバからクライアントに伝送される複数のビットのシーケ
ンスであるが、メモリに記憶されていてもよい。 データストリーム:1つ又はそれよりも多くのインターリーブされたパケットス
トリーム。 動的メディア合成(コンポジション):複数のオブジェクトのマルチメディア表
示に係る合成(コンポジション)をリアルタイムで変化する。 ファイル:オブジェクト指向マルチメディアファイル。 画像内オブジェクト:シーン内に重ね合わされた(オーバーレイされた)ビデオ
オブジェクト。 メディアオブジェクト:オーディオ、ビデオ、ベクトルグラフィックス、テキス
ト及び音楽を含む、1つ又はそれよりも多くのインターリーブされたメディアタ
イプの組み合わせ。 オブジェクト:オーディオ、ビデオ、ベクトルグラフィックス、テキスト及び音
楽を含む、1つ又はそれよりも多くのインターリーブされたメディアタイプの組
み合わせ。 パケットストリーム:サーバからクライアントに伝送された1つのオブジェクト
に属する複数のデータパケットのシーケンスであるが、メモリに記憶されていて
もよい。 シーン:複数のオブジェクトのマルチメディア表示を備える、1つ又はそれより
も多くのストリームのカプセル化。 ストリーム:オブジェクト指向マルチメディアファイルに記憶された、1つ又は
それよりも多くのインターリーブされたパケットストリームの組み合わせ。 ビデオオブジェクト:オーディオ、ビデオ、ベクトルグラフィックス、テキスト
及び音楽を含む、1つ又はそれよりも多くのインターリーブされたメディアタイ
プの組み合わせ。
【0106】 頭文字 ここでは、以下の頭文字が用いられている。 FIFO:先入れ先出しバッファ IAVML:対話型オーディオビジュアルマークアップ言語 PDA:個人情報端末 DMC:動的メディア合成(コンポジション) IME:対話管理エンジン DRM:ディジタル権利管理 ASR:自動音声認識 PCMCIA:パーソナルコンピュータ・メモリカード・インターナショナルア
ソシエーション
【0107】 一般的なシステムのアーキテクチャ ここに説明される処理及びアルゴリズムは、電子商取引(Eコマース)のよう
な、拡張された対話型リッチメディアのアプリケーションのための、実現する(
enabling)技術のプラットフォームを形成する。説明された方法の大きな利点は
、所望するならば、それらが携帯電話機又はPDAのような非常に低い処理パワ
ーの装置上でソフトウェアのみで実行可能なことにある。このことは、図42に
示されたフローチャートと付属の記述からより明らかになるだろう。この技術に
対しては、拡張されたオブジェクト指向の対話型処理を低い処理パワーのモバイ
ルビデオシステムにおいて提供する能力を可能にするように、指定されたビデオ
コーデックが必須(fundamental)である。システムの重要な利点は、その低い
オーバーヘッドにある。これらの拡張されたオブジェクト指向の対話型処理は、
無線装置上でこれまで可能だったものと比べて、新しいレベルの機能とユーザの
体験とアプリケーションを可能にする。
【0108】 MPEG1/2、H.263再生器のような典型的なビデオ再生器は、ユーザ
らに対して受動的な体験を提示する。それらは、単一の圧縮されたビデオデータ
ストリームを読み出し、受信されたデータに対して、単一の固定された復号化の
変換を実行することによってそれを再生する。それに対して、ここに説明された
ようなオブジェクト指向ビデオ再生器は、拡張された対話型ビデオ機能を提供し
、複数のソースからの複数のビデオオブジェクトの動的な合成が、ユーザらが体
験するコンテンツをカスタマイズすることを可能にする。システムは、複数の任
意形状のビデオオブジェクトが共存することを許容するだけでなく、ユーザ対話
又は予め定義された設定のいずれにも基づいて、任意の瞬間に何のオブジェクト
が共存してもよいかをリアルタイムで決定する。例えば、あるビデオ中のシーン
は、何らかのユーザの選好又はユーザ対話に依存して、2人の異なる俳優のうち
の一方にあるシーン中で異なることを演技させるようにスクリプトを記述するこ
とができる。
【0109】 そのような柔軟性を提供するために、オブジェクト指向ビデオシステムは、図
1に示されたように、符号化フェーズと、再生器クライアントと、サーバとを含
むように開発されている。符号化フェーズは、未処理のマルチメディアオブジェ
クトデータ51を圧縮されたオブジェクトデータファイル52に圧縮する符号化
器50を含んでいる。サーバの構成要素は、多数の符号化フェーズからの圧縮さ
れたオブジェクトデータを、与えられたスクリプトに従って定義及び制御データ
とともに多重化し、結果として得られるデータストリームを再生器クライアント
に送信する、プログラム可能な動的メディア合成(コンポジション)の構成要素
76を含んでいる。再生器クライアントは、オブジェクトデータストリームを圧
縮解除して、さまざまなオブジェクトを適当なハードウェア出力装置61に送信
する前にそれらさまざまなオブジェクトをレンダリングする、復号化エンジン6
2を含んでいる。
【0110】 図2を参照すると、復号化エンジン62は、3つのインターリーブされたデー
タのストリーム、すなわち、圧縮されたデータパケット64、定義パケット66
及びオブジェクト制御パケット68に対する演算を実行する。圧縮されたデータ
パケット64は、適用可能な符号化器/復号化器(‘コーデック’)によって復
号化される圧縮されたオブジェクト(例えば、ビデオ)データを含む。ビデオデ
ータを符号化しかつ復号化するための方法は、後のセクションで議論される。定
義パケット66は、メディアフォーマットと、圧縮されたデータパケット64を
解釈するために用いられる他の情報とを運ぶ。オブジェクト制御パケット68は
、オブジェクトの振る舞い、レンダリング、アニメーション及び対話のパラメー
タを定義する。
【0111】 図3は、オブジェクト指向マルチメディア再生器におけるデータ処理の3つの
フェーズを示すブロック図である。図示されているように、システムのディスプ
レイ70及びオーディオサブシステムを介して最終的なオーディオ−ビジュアル
表示を生成するために、オブジェクト指向データに対して3つの別個の変換が適
用される。‘動的メディア合成’(DMC)処理76は、データストリームの実
際のコンテンツを変更し、これを復号化エンジン62に送信する。復号化エンジ
ン62では、標準的な復号化処理72は、圧縮されたオーディオ及びビデオデー
タを抽出してそれをレンダリングエンジン74に送信し、ここで、個別のオブジ
ェクトに対する複数のレンダリングパラメータの幾何学的な変換(例えば、変換
(translation))を含む他の変換が適用される。各変換は、データストリーム
に挿入された複数のパラメータを用いて個別に制御される。
【0112】 動的メディア合成処理76が復号化エンジン62に送られるデータストリーム
のコンテンツを決定するので、最後の2つの変換のそれぞれの特有の性質は、動
的メディア合成処理76の出力に依存する。例えば、動的メディア合成処理76
は、ビットストリーム中に特定のビデオオブジェクトを挿入してもよい。この場
合、復号化されるビデオデータに加えて、データビットストリームは、復号化処
理72及びレンダリングエンジン74のための構成パラメータを含む。
【0113】 オブジェクト指向ビットストリームのデータフォーマットは、データを遠隔の
サーバからストリーミングするときでも、ローカルに記憶されたコンテンツにア
クセスするときでも、異なる種類のメディアオブジェクトの間のシームレスな統
合化を可能にし、これらのオブジェクトに対するユーザ対話をサポートし、表示
されるシーンにおけるコンテンツのプログラム可能な制御を可能にする。
【0114】 図4は、オブジェクト指向マルチメディアデータファイルにおけるオブジェク
トタイプの階層を示す概略図である。データフォーマットは、複数のエンティテ
ィの階層を以下のように定義する。すなわち、オブジェクト指向データファイル
80は1つ又はそれよりも多くのシーン81を含むことができる。各シーンは、
1つ又はそれよりも多くのストリーム82を含むことができ、上記ストリーム8
2は、1つ又はそれよりも多くの、別個に同時に存在するメディアオブジェクト
52を含んでいる。メディアオブジェクト52は、ビデオ83、オーディオ84
、テキスト85、ベクトルグラフィックス(GRAF)86、音楽87のような
単一のメディア構成要素89か、又はそのような構成要素の組み合わせ89にて
なることができる。上述のメディアタイプのそれぞれに係る複数のインスタンス
は、単一のシーン中の他のメディアタイプとともに同時に発生することができる
。各オブジェクト52は、データパケット内にカプセル化された1つ又はそれよ
りも多くのフレーム88を含むことができる。シーン81中に1つよりも多くの
メディアオブジェクト52が存在するときは、それぞれに対するパケットはイン
ターリーブされる。単一のメディアオブジェクト52は、全体としてはそれ自体
で完備し、仮想的には依存性を持たないエンティティである。それは、1つ又は
それよりも多くの定義パケット66を含み、その後にデータパケット64及び任
意の制御パケット68が続き、それらすべてが同一のオブジェクト識別子の番号
を有するパケットのシーケンスによって定義される。データファイルにおけるす
べてのパケットは同じヘッダ情報(ベースヘッダ)を有し、上記ヘッダ情報は、
パケットが対応するオブジェクトと、パケット中のデータのタイプと、シーケン
ス中のパケット数と、パケットが含むデータの量(サイズ)を特定する。ファイ
ルフォーマットのさらなる詳細は、後のセクションで説明される。
【0115】 MPEG4システムとの相違は容易に観察されるだろう。図46を参照すると
、MPEG4は、集中化されたパラメトリックシーン記述に、シーンに対するバ
イナリフォーマット(BIFS)01aの形式で依存し、上記BIFS 01a
の形式は、複数のオブジェクトの属性と他の情報とを含むことができる複数のノ
ードの階層構造である。BIFS 01aは、非常に複雑なバーチャルリアリテ
ィーマークアップ言語(VRML)の文法から直接に借用される。このアプロー
チにおいて、集中化されたBIFS構造01aは、実際には、オブジェクト指向
ビデオにおける基本的な構成要素であるシーンそれ自体であって、オブジェクト
自体ではない。ビデオオブジェクトデータは、あるシーンにおける使用のために
特定されてもよいが、シーンそれ自体を定義することには役立たない。従って、
例えば、新しいビデオオブジェクトは、ビデオデータを参照するノードを含むよ
うにBIFS構造01aが最初に変形されない限り、シーン中に導入されること
が不可能である。BIFSはまた、いかなるオブジェクトデータストリームも直
接に参照しないが、その代わり、オブジェクト記述器01bと呼ばれる特別な中
間の独立した装置が、BIFS 01aのノードにおける任意のOBJ_IDと
、ビデオデータを含むエレメンタリデータストリーム01cとの間でマッピング
する。ゆえに、MPEGのアプローチにおいて、これら3つの個別のエンティテ
ィ01a,01b,01cのそれぞれは相互に依存するので、オブジェクトスト
リームがもう1つのファイルにコピーされるとき、それは、すべての対話の振る
舞いと、それに関連付けられた他のすべての制御情報とを失う。MPEG4はオ
ブジェクト中心ではないので、そのデータパケットは、タイプ及びパケットサイ
ズの情報のみから構成されるがオブジェクト識別子を持たない、共通のヘッダを
有する原子(基本構成要素)と見なされる。
【0116】 ここに説明されたフォーマットは、シーンが何であるかを定義する中央の構造
が存在しないので、ずっと簡単である。その代わり、シーンはそれ自体で完備し
、シーンに存在する複数のオブジェクトによって完全に定義されている。各オブ
ジェクトもまたそれ自体で完備し、オブジェクトの属性と対話の振る舞いとを特
定する任意の制御情報を添付されている。新しい複数のオブジェクトは、それら
のデータをビットストリーム中に単に挿入することによって、シーン中にコピー
されることが可能であり、これを実行することは、すべてのオブジェクトの制御
情報を、それらの圧縮されたデータとともにシーン中に導入する。メディアオブ
ジェクト間又はシーン間において、仮想的には相互の依存は存在しない。このア
プローチは、複雑なBIFSのアプローチに関連付けられた複雑さと記憶及び処
理のオーバーヘッドとを減少させる。
【0117】 ビデオデータのダウンロード及び再生の場合に、シーンにどの俳優が登場する
かを選択する能力のような、マルチメディアデータに係る対話型のオブジェクト
指向の操作を可能にするために、入力データは、単一の“俳優”のオブジェクト
を有する単一のシーンを含まずに、むしろ、ユーザ入力に基づいて実行時に選択
するか又は表示されるシーンに“合成する”ことができる、各画像内の1つ又は
それよりも多くの代替的なオブジェクトデータストリームを含む。シーンの合成
は、実行時に先行して知られてはいないので、シーン中に正しいオブジェクトデ
ータストリームをインターリーブすることは不可能である。
【0118】 図5は、データファイル中の典型的なパケットシーケンスを示す図である。記
憶されたシーン81は、多数の別個に選択可能なストリーム82を含み、図3で
言及された動的メディア合成処理76のための候補である各“俳優”のオブジェ
クト52に対して1つずつ含んでいる。シーン81中の第1のストリーム82の
みが、1つよりも多くの(インターリーブされた)メディアオブジェクト52を
含んでいる。シーン81内の第1のストリーム82は、シーン構造と、複数の構
成要素(constituent)オブジェクトと、それらの振る舞いを定義する。シーン
81中の追加のストリーム82は、オプションのオブジェクトデータストリーム
52を含んでいる。各個別のストリーム82に対するランダムアクセスを可能に
するために、ストリームのディレクトリ59が各シーン81の開始部に提供され
ている。
【0119】 ビットストリームは拡張された対話型ビデオの能力と動的メディア合成(コン
ポジション)をサポートすることができるとともに、それは、さまざまなレベル
の機能を提供する3つの実装レベルをサポートする。これらは 1.受動的メディア:単一のオブジェクト、非対話型の再生器、 2.対話型メディア:単一のオブジェクト、制限された対話の再生器、 3.オブジェクト指向の能動メディア:複数のオブジェクト、完全に対話型の再
生器 である。
【0120】 最も簡単な実装は、単一のインスタンスのメディアに対する受動的な閲覧の体
験を提供し、対話性を提供しない。これは、標準のビデオ又はオーディオのプレ
イバックを再生し、一時停止し、かつ停止することにユーザが制限されている、
古典的なメディア再生器である。
【0121】 次の実装のレベルは、クリックスルーの行為に対してホットな領域の定義を可
能にすることによって、受動的メディアに対して対話のサポートを追加する。こ
れは、制限されたオブジェクト制御機能を備えた複数のベクトルグラフィックオ
ブジェクトを作成することによって提供される。ゆえに、システムは文字通りに
単一のオブジェクトのシステムではないが、それはユーザにとってはそのように
見えるだろう。透明であるように見られている主メディアオブジェクトを除いて
は、クリック可能なベクトルグラフィックオブジェクトは、許容されている他の
タイプのオブジェクトである。これは、ノンリニアーのナビゲーションなどのよ
うな、簡単な対話の体験が作成されることを可能にする。
【0122】 最後の実装のレベルは、複数のオブジェクトの無制限の使用と、アニメーショ
ン、条件イベントなどを含む完全なオブジェクト制御の機能とを定義し、このア
ーキテクチャにおけるすべての構成要素の実装を用いる。実際には、このレベル
と前のものとの間の違いは表面的なものでしかない。
【0123】 図6は、オブジェクト指向マルチメディアシステムに係るクライアントとサー
バの構成要素間の情報のフロー(又はビットストリーム)を示す図である。ビッ
トストリームは、クライアント側とサーバ側の対話をサポートする。クライアン
ト側の対話は、ユーザの体験の修正又は変更をもたらす複数のオブジェクトを介
して呼び出されることが可能な、定義された動作のセットによってサポートされ
、ここではオブジェクト制御パケット68として図示されている。サーバ側の対
話のサポートは、ユーザ制御パケット69として図示されたユーザ対話がクライ
アント20から遠隔のサーバ21にバックチャンネルを介して中継されるところ
にあり、サーバ側の対話のサポートはまた、オンラインユーザに対するサービス
/コンテンツ供給(プロビジョン)の媒介を、主に動的メディア合成(コンポジ
ション)の形式で提供する。ゆえに、ビットストリームを処理するための対話型
メディア再生器は、クライアント−サーバのアーキテクチャを有する。クライア
ント20は、サーバ21からそれに送信された圧縮されたデータパケット64と
定義パケット66とオブジェクト制御パケット68とを復号化することに責務を
有する。それに加えて、クライアント20は、オブジェクトの同期化、レンダリ
ング変換を適用すること、最終的なディスプレイ出力を合成すること、ユーザ入
力を管理すること、及びユーザ制御をサーバ21に伝送して戻すことに責務を有
する。サーバ21は、正しい(複数の)ソースからの部分的なビットストリーム
を管理し、読み出しかつパージングすることと、クライアント20からの適当な
制御命令とともにユーザ入力に基づいてコンポジット(合成)ビットストリーム
を構成することと、復号化とレンダリングのためにクライアント20にビットス
トリームを伝送することとに責務を有する。図3の構成要素76として示された
このサーバ側の動的メディア合成(コンポジション)は、ユーザ対話に基づくか
又は記憶されたプログラムのスクリプトにおける予め定義された設定に基づいて
、メディアのコンテンツをリアルタイムで合成することを可能にする。
【0124】 メディア再生器は、ローカルに記憶されたデータを再生(プレイバック)する
ときと、またデータが遠隔のサーバ21からストリーミングされているときに、
サーバ側とクライアント側の両方の対話/機能をサポートする。DMCを実行し
て複数のソースを管理することはサーバ構成要素21の責務であるので、ローカ
ルなプレイバックの場合にはサーバはクライアント20と同じ場所に配置される
一方で、ストリーミングする場合には遠隔の場所に配置される。混成状態の動作
もまたサポートされ、ここでは、クライアント20は、ローカル及び遠隔の場所
に配置されたソース/サーバ21からのデータにアクセスする。
【0125】 対話型クライアント 図7は、オブジェクト指向マルチメディア再生器クライアント20の主な構成
要素を示すブロック図である。オブジェクト指向マルチメディア再生器クライア
ント20は、サーバ21によって送信されたデータ及び図3のDMC処理76に
よって生成されたデータを受信して復号化することができる。オブジェクト指向
マルチメディア再生器クライアント20はまた、復号化処理を実行するための多
数の構成要素を含んでいる。復号化処理のステップは、符号化処理と比較すると
極度に簡単化されていて、パームパイロットIIIc(Palm Pilot IIIc)のよ
うな低いパワーのモバイルコンピューティング装置上か又はスマート電話機上で
コンパイルされたソフトウェアによって完全に実行されることが可能である。入
力データバッファ30は、サーバ21から到来するデータを、完全なパケットが
受信されるか又は読み出されるまで保持するために用いられる。次いで、データ
は、入力データスイッチ/デマルチプレクサ32に対して直接にか又は復号化装
置34を介してかのいずれかで伝送される。入力データスイッチ/デマルチプレ
クサ32は、サブ処理33、38、40、42のうちのいずれがデータを復号化
するために必要とされるかを決定し、次いで、パケットタイプに従って、サブ処
理を実行する正しい構成要素にデータを伝送する。個別の構成要素33、38及
び42は、ベクトルグラフィックス、ビデオ、及びオーディオの復号化をそれぞ
れ実行する。復号化器におけるビデオ及びオーディオの復号化モジュール38及
び42は、それらに送信された任意のデータを独立に圧縮解除し、準備的なレン
ダリングを実行して一時的バッファに入れる。オブジェクト管理構成要素40は
、ビデオシーンを制御することに用いるためのオブジェクトの振る舞いとレンダ
リングの情報を抽出する。ビデオディスプレイ構成要素44は、ベクトルグラフ
ィックス復号化器33、ビデオ復号化器38、及びオブジェクト管理構成要素4
0から受信されたデータを基準として複数のビジュアルオブジェクトをレンダリ
ングする。オーディオプレイバック構成要素46は、オーディオ復号化とオブジ
ェクト管理構成要素40とから受信されたデータを基準としてオーディオを生成
する。ユーザの入力/制御構成要素48は、複数の命令を生成し、ディスプレイ
構成要素44とプレイバック構成要素46によって生成されたビデオ及びオーデ
ィオを制御する。ユーザ制御構成要素48はまた、サーバ21に制御メッセージ
を送信して戻す。
【0126】 図8は、オブジェクト指向マルチメディア再生器クライアント20の機能的な
構成要素を示すブロック図であり、次のものを含む。 1.メインデータパスのためのオプションのオブジェクト記憶装置39を備えた
復号化器43(図7の複数の構成要素33、38及び42の組み合わせ) 2.レンダリングエンジン74(図7の構成要素44及び46の組み合わされた
もの) 3.対話管理エンジン41(図7の構成要素40及び48の組み合わされたもの
) 4.オブジェクト制御40のパス(図7の構成要素40の一部) 5.入力データバッファ30と入力データスイッチ/デマルチプレクサ32 6.オプションのディジタル権利管理(DRM)エンジン45 7.永続的なローカルオブジェクトライブラリ75
【0127】 クライアントシステム20を通過するデータに係る2つの主なフローが存在す
る。圧縮されたオブジェクトデータ52は、サーバ21から又は永続的なローカ
ルオブジェクトライブラリ75からクライアントの入力バッファ30に伝送され
る。入力データスイッチ/デマルチプレクサ32は、バッファリングされた圧縮
されたオブジェクトデータ52を、圧縮されたデータパケット64と定義パケッ
ト66とオブジェクト制御パケット68とに分離させる。圧縮されたデータパケ
ット64と定義パケット66とは、パケットヘッダにおいて識別されるようなパ
ケットタイプに基づいて、適当な復号化器43に向けて個別にルーティングされ
る。オブジェクト制御パケット68は、オブジェクト制御構成要素40に送られ
て復号化される。それに代わって、圧縮されたデータパケット64と定義パケッ
ト66とオブジェクト制御パケット68とは、オブジェクト制御パケットが受信
されてライブラリ更新情報を特定するならば、入力データスイッチ/デマルチプ
レクサ32から、永続的なローカル記憶のためのオブジェクトライブラリ75に
対してルーティングすることができる。各メディアオブジェクトと各メディアタ
イプとに対して、1つの復号化器のインスタンス43とオブジェクト記憶装置3
9が存在する。ゆえに、各メディアタイプに対して異なる復号化器43が存在す
るだけでなく、シーン中に3つのビデオオブジェクトが存在するときは、ビデオ
復号化器43の3つのインスタンスが存在する。各復号化器43は、それに対し
て送信された、適当な、圧縮されたデータパケット64と定義パケット66とを
受入れ、復号化されたデータをオブジェクトデータ記憶装置39中にバッファリ
ングする。各オブジェクト記憶装置39は、レンダリングエンジン74と関連し
た各メディアオブジェクトの同期化の管理に対して責務を有し、復号化が(ビデ
オ)フレームをリフレッシュするレートを遅延させるときは、復号化器43は、
フレームを適当にドロップする(落とす)ように命令される。オブジェクト記憶
装置39中のデータは、レンダリングエンジン74によって読み出され、最終的
に表示されるシーンが構成される。オブジェクトデータ記憶装置39に対する読
み出し及び書き込みのアクセスは非同期的であるので、全体的なメディアの同期
化の要件に依存して、復号化器43が遅いレートでのみオブジェクトデータ記憶
装置39を更新できる一方、レンダリングエンジン74がより速いレートでデー
タを読み出すことができ、又はその逆で実行することもできる。レンダリングエ
ンジン74は、オブジェクト記憶装置39のそれぞれからデータを読み出し、対
話管理エンジン41からのレンダリング情報に基づいて、最終的な表示シーン(
ディスプレイシーン)と音響的なシーンの両方を構成する。この処理の結果は、
ディスプレイ装置70上に表示されるシステムのグラフィカルユーザインターフ
ェース73上に渡される一連のビットマップと、システムのオーディオ装置72
に伝送される一連のオーディオサンプルとである。
【0128】 クライアントシステム20を通過する第2のデータフローは、ユーザからグラ
フィカルユーザインターフェース73を介してユーザイベント47の形式で対話
管理エンジン41に到来し、ここで、ユーザイベントは分割され、それらのうち
のいくつかは、レンダリングパラメータの形式でレンダリングエンジン74に送
られ、残りは、ユーザ制御パケット69として、バックチャンネルを介してサー
バ21に送り戻され、サーバ21は、これらを用いて動的メディア合成(コンポ
ジション)エンジン76を制御する。ユーザイベントがシステムの他の構成要素
にどこで送られるか、又は送られるか否かを決定するために、対話管理エンジン
41は、レンダリングエンジン74にヒットテストを実行するように要求するこ
とができる。対話管理エンジン41の動作は、サーバ21から送られた複数の命
令(オブジェクト制御パケット68)を受信するオブジェクト制御構成要素40
によって制御され、上記命令は、対話管理エンジン41がグラフィカルユーザイ
ンターフェース73からのユーザイベント47をどのように解釈するかというこ
とと、何のアニメーションと対話の振る舞いとが個別のメディアオブジェクトと
関連付けられているかということとを定義する。対話管理エンジン41は、レン
ダリング変換を実行するレンダリングエンジン74を制御することに対して責務
を有する。それに加えて、対話管理エンジン41は、複数のライブラリオブジェ
クトを入力データスイッチ/デマルチプレクサ32に向けてルーティングするオ
ブジェクトライブラリ75を制御することに対して責務を有する。
【0129】 レンダリングエンジン74は、図10に示されたように4つの主な構成要素を
有する。ビットマップ合成器35は、ビジュアルオブジェクト記憶装置バッファ
53からビットマップを読み出し、それらを最終的なディスプレイシーンラスタ
71中に合成する。ベクトルグラフィック要素走査変換器36は、ベクトルグラ
フィック復号化器からのベクトルグラフィック表示リスト54を、ディスプレイ
シーンラスタ71上にレンダリングする。オーディオミキサ37は、オーディオ
オブジェクト記憶装置55を読み、オーディオデータを、結果をオーディオ装置
72に送る前に、互いにミキシングする。さまざまなオブジェクト記憶装置バッ
ファ53乃至55が読み出されるシーケンスと、それらのコンテンツがディスプ
レイシーンラスタ71上にどのように変換されるかということとは、対話管理エ
ンジン41からのレンダリングパラメータ56によって決定される。可能な変換
は、Zオーダー、3Dの向き、位置、スケール、透明度、色、及びボリュームを
含む。レンダリング処理のスピードを上げるために、表示シーンの全体をレンダ
リングする必要はなく、その一部だけをレンダリングしてもよい。レンダリング
エンジンの4番目の主な構成要素はヒットテスタ31であって、上記ヒットテス
タ41は、対話管理エンジン41のユーザイベントコントローラ41cによって
指示されたユーザペンイベントに対して、オブジェクトのヒットテストを実行す
る。
【0130】 ユーザが、クリックすることによってボタンを選択するか又はドラグ可能なオ
ブジェクトをドラグするときと、アニメーションが更新されるとき、ビジュアル
データがサーバ21から受信されるときはいつでも、表示シーンは同期化情報に
従ってレンダリングされる必要がある。シーンをレンダリングするために、それ
はオフスクリーンバッファ(ディスプレイシーンラスタ71)中に合成され、次
いで出力装置70に描画されることが可能である。オブジェクトのレンダリング
/ビットマップ合成処理が図9に示され、ステップs101から開始する。ビジ
ュアルオブジェクトを含んでいる各メディアオブジェクト記憶装置に対するポイ
ンタを含むリストが保持されている。上記リストは、ステップs102で、Zオ
ーダーに従ってソーティングされる。続いて、ステップs103で、ビットマッ
プ合成器は、最下位のZオーダーを有するメディアオブジェクトを取得する。ス
テップs104において、合成すべきオブジェクトがさらに存在しないときは、
ビデオオブジェクトレンダリング処理はステップs118で終了する。そうでな
いとき、また最初のオブジェクトの場合は常に、ステップs105において、復
号化されたビットマップがオブジェクトバッファから読み出される。ステップs
106において、オブジェクトレンダリング制御が存在するときは、ステップs
107において、画面の位置、向き及びスケールが設定される。特に、オブジェ
クトレンダリング制御は、適当な2/3Dの幾何学的な変換を定義して、どの座
標にオブジェクトの画素がマッピングされるかを決定する。ステップs108に
おいて最初の画素がオブジェクトバッファから読み出され、ステップs109に
おいて処理すべき画素がさらに存在するときは、ステップs110においてオブ
ジェクトバッファから次の画素を読み出す。オブジェクトバッファにおける各画
素は個別に処理される。ステップs111において、画素が透明であるとき(画
素値が0xFEであるとき)は、レンダリング処理は当該画素を無視し、ステッ
プs109に戻ってオブジェクトバッファにおける次の画素の処理を開始する。
そうではなく、ステップs112において画素が変化されないとき(画素値が0
xFFであるとき)は、ステップs113において、背景色の画素がディスプレ
イシーンラスタに描画される。しかしながら、画素が透明でもなく不変でもない
とき、かつ、ステップs114においてアルファブレンドがイネーブルにされて
いないとき、ステップs115において、オブジェクトの色の画素がディスプレ
イシーンラスタに描画される。ステップs114においてアルファブレンドがイ
ネーブルにされているとき、アルファブレンド合成処理が実行されて、オブジェ
クトに対して、定義されたレベルの透明度を設定する。しかしながら、ビットマ
ップ中のすべての画素に対してミキシング係数を別個に符号化する必要がある従
来のアルファブレンド処理とは違って、このアプローチはアルファチャンネルを
利用しない。その代わり、それは、実際のビットマップ表現における透明な領域
の埋め込まれた表示と関連して、ビットマップ全体の不透明度を指定する単一の
アルファ値を利用する。従って、ステップs116において、新しい、アルファ
ブレンドするオブジェクトの画素の色が計算されるとき、それはステップs11
7においてディスプレイシーンラスタに描画される。このことは、各個別の画素
に対する処理を終了させ、次いで、制御はステップs109に戻って、オブジェ
クトバッファにおける次の画素の処理を開始する。ステップs109において、
処理されるべき画素が1つも残っていないときは、処理はステップs104に戻
って次のオブジェクトの処理を開始する。ビットマップ合成器35は、各メディ
アオブジェクトに関連付けられたZオーダーに従ったシーケンスで、各ビデオオ
ブジェクト記憶装置を読み出し、それをディスプレイシーンラスタ71にコピー
する。Zオーダーがオブジェクトに対して明示的に割り当てられていないときは
、各オブジェクトに対するZオーダーの値は、オブジェクト_IDと同じである
ように取得されることが可能である。2つのオブジェクトが同一のZオーダーを
有するときは、それらは、昇順のオブジェクト_IDの順序で描画される。
【0131】 説明されたように、ビットマップ合成器35は、ビデオフレームが持ちうる3
つの領域のタイプ、すなわち、レンダリングされるカラー画素、透明にされる領
域、及び変化されずに残る領域を利用する。複数のカラー画素はディスプレイシ
ーンラスタ71中に適当にアルファブレンドされ、変化されない画素は、ディス
プレイシーンラスタ71が影響を受けないように、無視される。透明な画素は、
対応する背景の表示シーンの画素をリフレッシュさせる。このことは、問題のオ
ブジェクトに係る画素が他の何らかのオブジェクトに上書きしているときに、単
に何もしないことによって実行されることが可能であるが、当該画素がシーンの
背景上に直接に描画されているならば、その画素はシーンの背景色に設定される
必要がある。
【0132】 オブジェクト記憶装置がビットマップの代わりに表示リストを含んでいるとき
は、表示リスト中の各座標に幾何学的な変換が適用され、表示リスト内で特定さ
れたグラフィック要素の走査変換の間に、アルファブレンドが実行される。
【0133】 図10を参照すると、ビットマップ合成器35は、異なる色解像度を有するデ
ィスプレイシーンラスタをサポートし、異なるビット深度を有するビットマップ
を管理する。ディスプレイシーンラスタ71が15、16又は24ビットの深度
を有し、かつ、ビットマップが、カラーマッピングされた8ビットの画像である
ときは、ビットマップ合成器35は、ビットマップから各色インデックス値を読
み出し、特定のオブジェクト記憶装置に関連付けられたカラーマップにおける色
を参照し、色の赤、緑及び青の成分を正しいフォーマットでディスプレイシーン
ラスタ71に書き込む。ビットマップが連続的な色調の画像であるときは、ビッ
トマップ合成器35は、単に、ディスプレイシーンラスタ71上の適当なロケー
ションに各画素の色値をコピーする。ディスプレイシーンラスタ71が8ビット
の深度とカラーのルックアップテーブルとを有するときは、実行されるアプロー
チは、表示されるオブジェクト数に依存する。ただ1つのビデオオブジェクトが
表示されているときは、そのカラーマップは、ディスプレイシーンラスタ71の
カラーマップに直接にコピーされる。複数のビデオオブジェクトが存在するとき
は、ディスプレイシーンラスタ71は一般的なカラーマップを用いてセットアッ
プされ、ディスプレイシーンラスタ71に設定された画素値は、ビットマップに
おけるインデックス値によって指示される色に最も近く一致するものである。
【0134】 レンダリングエンジン74のヒットテスタ構成要素31は、表示された各オブ
ジェクトに対してペンイベントのロケーションの座標を比較することによってス
クリーン上のビジュアルオブジェクトをユーザがいつ選択したかを評価すること
に対して責務を有する。この‘ヒットテストを行うこと’は、図10に示された
ように、対話管理エンジン41のユーザイベントコントローラ41cによって要
求され、ビットマップ合成器35とベクトルグラフィック要素走査変換器36の
構成要素によって提供されるオブジェクトの位置決め及び変換情報を利用する。
ヒットテスタ31は、ペンイベントのロケーションの幾何学的な逆変換を各オブ
ジェクトに対して適用し、次いで、結果として得られる逆変換された座標におい
てビットマップの透明度を評価する。上記評価が真であるときは、ヒットは登録
され、結果が対話管理エンジン41のユーザイベントコントローラ41cに戻さ
れる。
【0135】 レンダリングエンジンのオーディオミキサ構成要素37は、関連したオーディ
オオブジェクト記憶装置に記憶された各オーディオフレームをラウンドロビンの
方式で読み出し、対話エンジンによって提供されたレンダリングパラメータ56
に従ってオーディオデータを互いにミキシングし、コンポジットフレームを取得
する。例えば、オーディオミキシングのためのレンダリングパラメータは、音量
制御を含んでもよい。次いで、オーディオミキサ構成要素37は、ミキシングさ
れたオーディオデータをオーディオ出力装置72に送る。
【0136】 図8のオブジェクト制御構成要素40は、基本的には、符号化されたオブジェ
クト制御パケットをスイッチ/デマルチプレクサ入力ストリームから読み出し、
指示された制御命令を対話管理エンジン41に発行するコーデックである。制御
命令は、個別のオブジェクト又はシステム全体の属性を変化させるように発行さ
れてもよい。これらの制御は広範囲にわたり、レンダリングパラメータと、アニ
メーションパスの定義と、条件イベントの作成と、オブジェクトライブラリ75
からのオブジェクトの挿入、ハイパーリンクの割り当て、タイマの設定、システ
ムの状態レジスタの設定及びリセットなどを含むメディア再生のシーケンスの制
御と、ユーザが活性化したオブジェクトの振る舞いの定義とを含む。
【0137】 対話エンジン41は多数の異なる処理を管理する必要がある。図13のフロー
チャートは、対話型オブジェクト指向ビデオを再生するときに対話型クライアン
トが実行する主なステップを示す。処理はステップs201から開始する。ステ
ップs202において、図8のオブジェクト記憶装置39か又は図8のオブジェ
クト制御構成要素40かのいずれかである入力データソースから、複数のデータ
パケット及び複数の制御パケットが読み出される。ステップs203でパケット
がデータパケットであるときは、ステップs204でフレームが復号化されてバ
ッファリングされる。しかしながら、パケットがオブジェクト制御パケットであ
るときは、ステップs206において、対話エンジン41は適当なアクションを
オブジェクトに添付する。次いでステップs205において、オブジェクトはレ
ンダリングされる。ステップs207において、オブジェクトに対するユーザ対
話が存在せず(すなわち、ユーザがオブジェクトをクリックしなかったとき)、
かつ、ステップs208において、待機アクションを有するオブジェクトが存在
しないときは、処理はステップs202に戻り、ステップs202において入力
データソースから新しいパケットが読み出される。しかしながら、ステップs2
08において、オブジェクトが待機アクション有するとき、又は、ユーザ対話が
存在しないが、ステップs209においてオブジェクトが添付されたアクション
を有するときは、ステップs210においてオブジェクトのアクションの条件が
テストされ、条件が満たされるときは、ステップs211においてアクションが
実行される。そうでなければ、ステップs202において、入力データソースか
ら次のパケットが読み出される。
【0138】 対話エンジン41は、予め定義された振る舞いを持たず、対話管理エンジン4
1が実行できるか又は応答できるすべてのアクション及び条件は、図8に示され
たように、オブジェクト制御パケット68によって定義される。対話エンジン4
1は、(シーン中の最後のビデオフレームに到達するときシーンの開始部にジャ
ンプして戻るような)予め定義されたアクションを無条件で即時に実行するか、
もしくは、(タイマイベントが発生するような)何らかのシステムの条件が満た
されるまで実行を遅延させてもよく、又は、それは、無条件か又はシステムの条
件に従属してかのいずれかで、定義された動作によって(オブジェクトをクリッ
クするか又はドラグするような)ユーザの入力に対して応答してもよい。可能な
アクションは、レンダリング属性の変化と、アニメーションと、ループ及び非順
次的な再生のシーケンスと、ハイパーリンクへのジャンプと、表示されたオブジ
ェクトストリームが、もう1つのオブジェクトによって、あるいは永続的なロー
カルオブジェクトライブラリ75からのもう1つのオブジェクトによって置換さ
れる動的メディア合成と、与えられた条件又はユーザイベントが真になるときに
呼び出される他のシステムの振る舞いとを含む。
【0139】 対話管理エンジン41は、図11に示されたように、3つの主な構成要素、す
なわち、対話制御構成要素41a、待機アクションマネージャ41d、及びアニ
メーションマネージャ41bを含む。アニメーションマネージャ41bは、対話
制御構成要素41aと、アニメーションパス補間器/アニメーションリスト41
bを含み、現在進行中のすべてのアニメーションを記憶する。各アクティブなア
ニメーションに対して、マネージャは、オブジェクト制御ロジック回路63によ
って特定された間隔で、レンダリングエンジン74に送信されるレンダリングパ
ラメータ56を補間する。アニメーションが完了したとき、それがループするア
ニメーションであると定義されていない限り、それは、アクティブなアニメーシ
ョンのリストであるアニメーションリスト41bから除去される。待機アクショ
ンマネージャ41dは、対話制御構成要素41dと待機アクションリスト41d
とを含み、条件が真になることに従属して適用されるべき、すべてのオブジェク
ト制御アクションを記憶する。対話制御構成要素41aは、待機アクションマネ
ージャ41dを定期的にポーリングし、各待機アクションに関連付けられた条件
を評価する。あるアクションに対する条件が満たされるとき、対話制御構成要素
41aは、当該アクションを実行し、当該アクションがオブジェクトの振る舞い
であると定義されていない限りは、それを待機アクションリスト41dからパー
ジする。当該アクションがオブジェクトの振る舞いであると定義されている場合
には、それはさらに未来の実行のために待機アクションリスト41dに残る。条
件の評価のために、対話管理エンジン41は、条件評価器41fと状態フラグレ
ジスタ41eとを使用する。状態フラグレジスタ41eは、対話制御構成要素4
1aによって更新され、ユーザが定義可能なシステムフラグのセットを保持する
。条件評価器41fは、対話制御構成要素41aによって命令されたときに、現
在のシステムの状態をオブジェクト毎の基準で状態フラグレジスタ41eにおけ
るシステムフラグと比較して条件の評価を実行し、適当なシステムフラグが設定
されているならば、条件評価器41fは、条件が真でありアクションが実行され
るべきであるということを対話制御構成要素41aに通知する。クライアントが
オフラインであるとき(すなわち、遠隔のサーバに接続されていないとき)、対
話制御構成要素41aは、実行されたすべての対話活動(ユーザイベントなど)
の記録を保持する。これらは、履歴/フォーム記憶装置41dに一時的に記憶さ
れ、クライアントがオンラインになるときに、ユーザ制御パケット69を用いて
サーバに送信される。
【0140】 オブジェクト制御パケット68と、従ってオブジェクト制御ロジック回路63
とは、ユーザが定義可能な多数のシステムフラグを設定することができる。これ
らは、システムがその現在の状態に係る記憶を有することを可能にするために用
いられ、状態フラグレジスタ41eに記憶される。例えば、これらのフラグのう
ちの1つは、ビデオ中の特定のシーン又はフレームが再生されるとき、又はユー
ザがオブジェクトと対話するときに設定することができる。ユーザ対話は、グラ
フィカルユーザインターフェース73から入力されたユーザイベント47として
受信して、ユーザイベントコントローラ41cによってモニタリングされる。そ
れに加えて、ユーザイベントコントローラ41cは、レンダリングエンジン74
に、レンダリングエンジンのヒットテスタ31を用いて‘ヒットテスト’を実行
するように要求することができる。典型的には、ヒットテストは、ユーザのペン
でクリック/タップするような、ユーザペンイベントに対して要求される。ユー
ザイベントコントローラ41cは、ユーザイベントを対話制御構成要素41aに
伝送する。次いで、これは、ノンリニアーのビデオにおいて何のシーンを次に再
生するのか、又はシーンにおいて何のオブジェクトをレンダリングするのかを決
定するために用いられることが可能である。電子商取引のアプリケーションにお
いて、ユーザは、1つ又はそれよりも多くのアイコンのビデオオブジェクトを買
い物かごのオブジェクト上にドラグして入れることができる。そこで、これは意
図された購入を登録する。買い物かごがクリックされるとき、ビデオは支払い(
チェックアウト)のシーンにジャンプし、ここで、買い物かごにドラグして入れ
られたすべてのオブジェクトのリストが現れ、項目を確認するか又は削除するこ
とをユーザに許す。個別のビデオオブジェクトは、ユーザが購入の注文を登録す
るか又はそれを取消すことを希望していることを表示するボタンとして用いられ
ることが可能である。
【0141】 オブジェクト制御パケット68と、従ってオブジェクト制御ロジック回路63
とは、実行される任意の特定されたアクションに対して満たされる条件を含むこ
とができ、これらは条件評価器41fによって評価される。条件は、システムの
状態、ローカル又はストリーミングのプレイバック、システムのイベント、オブ
ジェクトに対する特定のユーザ対話などを含むことができる。条件は、条件が現
在満たされていないならばそうなるまで待機することを表示する、待機フラグセ
ットを有することができる。待機フラグは、ペンを上げる(penUp)ようなユー
ザイベントを待機するためにしばしば用いられる。待機アクションが満たされる
とき、それは、オブジェクトに関連付けられた待機アクションリスト41dから
除去される。オブジェクト制御パケット68の振る舞いフラグが設定されている
ときは、アクションは、それが実行された後であっても、オブジェクトとともに
待機アクションリスト41d中に残っている。
【0142】 オブジェクト制御パケット68と、従ってオブジェクト制御ロジック回路63
とは、アクションがもう1つのオブジェクトに対して影響するものであることを
指定することができる。この場合、条件は、ベースヘッダで特定されたオブジェ
クトに対して満たされる必要があるが、アクションは他のオブジェクトに対して
実行される。オブジェクト制御ロジック回路は、オブジェクトライブラリ75に
送信されるオブジェクトライブラリ制御58を特定することができる。例えば、
オブジェクト制御ロジック回路63は、次のような条件で、ある場所にジャンプ
する(jumpto)(ハイパーリンクの)アクションがアニメーションとともに実行
されるものであることを指定することができる。すなわち、上記条件は、ヒット
テスタ31と関連したユーザイベントコントローラ41cによって評価される、
オブジェクトに対するユーザクリックイベントが必要とされることと、システム
は、命令を実行する前に、これが真になることを待機する必要があることとであ
る。この場合、アクション又は制御は、それが実行されるまで、待機アクション
リスト41dにおいて待機し、次いで、それは除去される。このような制御は、
例えば、ビデオ中の俳優によって身につけられている1足のランニングシューズ
と関連付けられ、そのため、ユーザがそれらをクリックするとき、シューズに関
する販売情報とシューズをオンラインのオークションで購入するか又は値段をつ
けるための機会とを提供するビデオがユーザに対してリダイレクトされる前に、
シューズは、数秒間にわたってスクリーンの中を動き回って拡大表示されてもよ
い。
【0143】 図12は、複数のオブジェクトの対話型ビデオシーンの合成を示す。最終的な
シーン90は、背景のビデオオブジェクト91、3つの任意形状の“チャンネル
変化”のビデオオブジェクト92、及び3つの“チャンネル”ビデオオブジェク
ト93a、93b及び93cを含んでいる。あるオブジェクトは、ユーザクリッ
クイベントの条件に対して、“振る舞い”、“ある場所にジャンプ(jumpto)”
及び“その他”の特性を有する制御を割り当てることで、“チャンネルを変化さ
せるもの(channel changer)”92として定義されることが可能である。この
制御は、シーンの終了部が現れるまで待機アクションリスト41dに記憶され、
シーン90がクリックされたときはいつでも、DMCにシーン90のコンポジシ
ョン(構成)を変化させる。この図面における“チャンネルを変化させる”オブ
ジェクトは、他のチャンネルで表示されているコンテンツのミニチュアバージョ
ンを表示する。
【0144】 オブジェクト制御パケット68と、従ってオブジェクト制御ロジック回路63
とは、(ある場所へ移動する、のような)単一のコマンドよりはむしろ複数のコ
マンドが後続することを示すanimation(アニメーション)フラグを設
定させることができる。animationフラグが設定されていないとき、ア
クションは、条件が満たされるとすぐに実行される。レンダリングの変化が発生
するたびごとに、表示シーンは更新される必要がある。ユーザイベント47か又
はオブジェクト制御ロジック回路63のいずれかによって駆動されるほとんどの
レンダリングアクションとは異なり、アニメーションは、それ自体でレンダリン
グの更新をしなければならない。アニメーションが更新された後で、アニメーシ
ョン全体が完了されているならば、それはアニメーションリスト41bから除去
される。アニメーションパス補間器41bは、アニメーションが現在どこに位置
されているのか、どの2つの制御ポイントの間に位置されているのかを決定する
。この情報は、2つの制御ポイントの間でアニメーションが前進された程度の比
(‘トウィーニング(tweening)’値)とともに、関連するレンダリングパラメ
ータ56を補間するために用いられる。トウィーン(tween)値は、所定の分子
及び分母に関する比として表される。
【0145】
【数1】 X=x[start]+(x[end]−x[start])*分子/分母
【0146】 アニメーションがループに対して設定されているときは、アニメーションの開
始時刻は、アニメーションが更新の後で除去されないように、アニメーションが
完了したときの現在の時刻に設定される。
【0147】 クライアントは、次のタイプの高レベルのユーザ対話、すなわちクリック、ド
ラグ、重ね合わせ(オーバーラップ)及び移動をサポートする。あるオブジェク
トは、それに関連付けられたボタン画像を有することができ、上記ボタン画像は
、ペンが保持されてオブジェクト上に下ろされるときに表示される。ペンがオブ
ジェクト上に下りているときに当該ペンが特定の画素数だけ移動されるならば、
(ドラグすることがオブジェクト又はシーンによってプロテクトされていない限
り)オブジェクトはドラグされる。ドラグすることは、オブジェクトをペンの下
で実際に移動させる。ペンが離されるとき、移動することがオブジェクト又はシ
ーンによってプロテクトされていない限りは、オブジェクトは新しい位置に移動
される。移動することがプロテクトされているならば、ドラグされたオブジェク
トは、ペンが離されるとき、その元の位置に移動して戻る。ユーザがオブジェク
トを他のオブジェクトの上部に落とすこと(例えば、あるアイテムを買い物かご
の中にドラグして入れること)ができるように、ドラグすることがイネーブルに
されていてもよい。ペンが離されるとともに、またペンが他の複数のオブジェク
ト上にあるとき、これらのオブジェクトは、ドラグされたオブジェクトに対して
オーバーラップしているイベントについて通知される。
【0148】 オブジェクトは、オブジェクト制御パケット68を用いて、クリック、移動す
ること、ドラグすること、又は透明度又は深度に係る変化に対して保護されてい
てもよい。オブジェクト制御パケット68内のPROTECT(保護)コマンド
は、個別のオブジェクトの範囲及びシステムの範囲を有していてもよい。それが
システムの範囲を有するときは、すべてのオブジェクトはPROTECTコマン
ドによって影響される。システムの範囲の保護は、オブジェクトの範囲の保護に
優先(オーバーライド)する。
【0149】 JUMPTO(ある場所にジャンプする)コマンドは4つの変形例を有する。
1つは、ハイパーリンクによって特定された別個のファイルにおける新しい与え
られたシーンにジャンプすることを可能にし、もう1つは、現在のシーンにおけ
る現在再生中のメディアオブジェクトストリームを、ハイパーリンクによって特
定された別個のファイル又はシーンからのもう1つのメディアオブジェクトと置
換することを可能にし、他の2つの変形例は、同一のファイル内の新しいシーン
にジャンプすることか、又は再生中のメディアオブジェクトを、ディレクトリの
インデックスによって特定される同一のシーン内のもう1つのものと置換するこ
とを可能にする。各変形例は、オブジェクトのマッピングとともに、又はオブジ
ェクトのマッピングなしに呼び出される。それに加えて、JUMPTOコマンド
は、現在再生中のメディアオブジェクトストリームを、ローカルに記憶された永
続的なオブジェクトライブラリ75からのメディアオブジェクトと置換すること
ができる。
【0150】 ほとんどの対話制御機能が、クライアント20によって、対話マネージャ41
と関連したレンダリングエンジン74を用いて処理されることが可能である一方
、いくつかの制御のインスタンスは、より低いレベルで処理される必要があって
もよく、サーバ21に戻される。このことは、ハイパーリンクにジャンプするこ
と及び動的メディア合成(コンポジション)のようなコマンドであって、オブジ
ェクトライブラリ75からのオブジェクトの挿入を命令するコマンドを例外とす
る、ノンリニアーのナビゲーションのためのコマンドを含む。
【0151】 図8のオブジェクトライブラリ75は、永続的な、ローカルなメディアオブジ
ェクトライブラリである。複数のオブジェクトは、オブジェクトライブラリ制御
パケットとして知られる特別なオブジェクト制御パケット68と、ObjLib
raryモードビットフィールドのセットを有するシーン定義パケット66とを
介して、このライブラリに挿入されるか、又はこのライブラリから除去されるこ
とが可能である。オブジェクトライブラリ制御パケットは、オブジェクトライブ
ラリに対して挿入すること、更新すること、パージすること及び質問することを
含む、オブジェクトに対して実行されるべきアクションを定義する。入力データ
スイッチ/デマルチプレクサ32は、適当なオブジェクトライブラリのアクショ
ン(例えば、挿入又は更新)が定義されているならば、圧縮されたデータパケッ
トをオブジェクトライブラリ75に直接に対してルーティングしてもよい。図4
8のブロック図に示されたように、各オブジェクトは、オブジェクトライブラリ
データ記憶装置75gに個別のストリームとして記憶され、ライブラリは、アド
レス割り当てが、ストリームの番号であるライブラリIDに基づいているので、
インターリーブされた複数のオブジェクトをサポートしない。ゆえに、ライブラ
リは、最大200個までの個別のユーザオブジェクトを含むことができ、オブジ
ェクトライブラリは、特別なシーン番号(例えば250)を用いて参照されても
よい。ライブラリはまた、デフォルトのボタン、チェックボックス、フォームな
どのような、最大55個までのシステムオブジェクトもサポートする。ライブラ
リはガーベッジコレクション(ごみ集め)をサポートすることで、オブジェクト
が特定の時間期間の後で満了し、その時刻にオブジェクトはライブラリからパー
ジされてもよいように設定される。各オブジェクト/ストリームに対して、オブ
ジェクトライブラリ制御パケットに含まれた情報は、クライアント20によって
記憶され、それは、ライブラリid75a、バージョン情報75b、オブジェク
トの永続情報75c、アクセスの制約75d、固有のオブジェクト識別子75e
、及び他の状態情報75fを含む、ストリーム/オブジェクトに対する追加の情
報を含んでいる。それに加えて、オブジェクトストリームは、圧縮されたオブジ
ェクトデータ52を含んでいる。オブジェクトライブラリ75は、オブジェクト
制御構成要素40によって指示されて、図8の対話管理エンジン41によって質
問されてもよい。このことは、供給された検索鍵に対して一致するものを発見す
るために、オブジェクト識別子の値を順次に読み出して、ライブラリ75中のす
べてのオブジェクトと比較することによって実行される。ライブラリの質問結果
75iは、対話管理エンジン41に戻されて、処理されるか又はサーバ21に送
信される。オブジェクトライブラリマネージャ75hは、オブジェクトライブラ
リとのすべての対話を管理することに対して責務を有する。
【0152】 サーバソフトウェア サーバシステム21の目的は、(i)クライアントが復号化してレンダリング
するための正しいデータストリームを作成することと、(ii)上記データを、
TDMA、FDMA又はCDMAシステムを含む無線チャンネルを介して高い信
頼性をもってクライアントに伝送することと、(iii)ユーザ対話を処理する
こととにある。データストリームのコンテンツは、動的メディア合成処理76と
、ノンリニアーのメディアナビゲーションによって課される非順次的なアクセス
要求との機能である。DMC処理76では、クライアント20とサーバ21の両
方が必要とされる。コンポジットデータストリームに対するソースデータは、単
一のソース又は複数のソースのいずれかから到来することができる。単一のソー
スの場合は、ソースは、最終的なデータストリームを合成するために必要とされ
うる、オプションのデータ構成要素のすべてを含む必要がある。ゆえに、このソ
ースは、異なる複数のシーンのライブラリと、合成(コンポジション)のために
用いられるべきさまざまなメディアオブジェクトに対する複数のデータストリー
ムとを含んでいることが適当である。これらのメディアオブジェクトは単一のシ
ーン中に同時に合成されることが可能なので、各メディアオブジェクトストリー
ムから適当なデータ構成要素を選択して、クライアント20に送信すべき最終的
なコンポジットデータストリームにそれらをインターリーブするために、拡張さ
れた非順次的なアクセス能力がサーバ21の一部に提供される。複数のソースの
場合は、合成(コンポジション)において用いられる異なるメディアオブジェク
トのそれぞれは、個別のソースを有することができる。より多くの管理すべきソ
ースが存在しても、各ソースは順次にアクセスされることを必要とするだけなの
で、個別のソース中のシーンに対する構成要素のオブジェクトを有することは、
サーバ21に対する複雑なアクセスの要件を軽減する。
【0153】 両方のソースの場合がサポートされている。ダウンロードして再生する機能の
ためには、複数のデータファイルを伝送するよりはむしろ、パッケージ化された
コンテンツを含む1つのファイルを伝送することが好ましい。ストリーミング再
生のためには、複数のソースを個別に保持することは、このことが合成処理にお
いてずっと大きな柔軟性を可能にし、それが、目標を定められたユーザ広告のよ
うな、特定のユーザの必要に合わせて調整して実行されることを可能にするので
、好適である。個別のソースの場合はまた、すべてのファイルアクセスが順次的
であるので、サーバ装置上に減少された負荷が提供される。
【0154】 図14は、ローカルに記憶されたファイルを再生する対話型マルチメディア再
生器のローカルサーバ構成要素のブロック図である。図14に示されたように、
スタンドアローンの再生器は、ローカルクライアントシステム20とローカルな
単一のソースのサーバシステム23とを必要とする。
【0155】 図15に示されたように、ストリーミング再生器は、ローカルクライアントシ
ステム20と、遠隔の複数のソースのサーバ24とを必要とする。しかしながら
、再生器はまた、ローカルファイルとストリーミングコンテンツとを同時に再生
することもでき、従って、クライアントシステム20はまた、ローカルサーバと
遠隔のサーバの両方から、データを同時に受信することができる。ローカルサー
バ23又は遠隔のサーバ24が、サーバ21を構成してもよい。
【0156】 図14における受動的なメディアプレイバックを用いた最も簡単な場合を参照
すると、ローカルサーバ23は、オブジェクト指向データファイル80を開き、
そのコンテンツを順次に読み出し、データ64をクライアント20にわたす。ユ
ーザ制御68においてユーザコマンドが実行されると、ファイル読み出し動作は
、停止されるか、一時停止されるか、その現在の位置から継続されるか、又はオ
ブジェクト指向データファイル80の開始部から再スタートされてもよい。サー
バ23は、2つの機能、すなわち、オブジェクト指向データファイル80にアク
セスすることと、このアクセスを制御することとを実行する。これらは、マルチ
プレクサ/データソースマネージャ25及び動的メディア合成エンジン76に一
般化されることが可能である。
【0157】 ビデオのローカルなプレイバックと動的メディア合成(コンポジション)とを
用いたより拡張された場合(図14)では、多重化されたストリームのコンテン
ツはオブジェクト指向データファイル80が作成されるときに未知なので、クラ
イアントが、多重化されたオブジェクトを有する1つの予め決められたストリー
ムを単に順次的に読み出すことは不可能である。ゆえに、ローカルなオブジェク
ト指向データファイル80は、各シーンに対する、互いに隣接して記憶されてい
る複数のストリームを含んでいる。ローカルサーバ23は、シーン内の各ストリ
ームにランダムにアクセスし、レンダリングのためにクライアント20に送信さ
れる必要がある複数のオブジェクトを選択する。それに加えて、永続的なオブジ
ェクトライブラリ75は、クライアント20によって保持され、オンラインのと
きは遠隔のサーバから管理されることが可能である。これは、フォームのための
チェックボックス画像のような、共通にダウンロードされるオブジェクトを記憶
するために用いられる。
【0158】 図14のデータソースマネージャ/マルチプレクサ25は、オブジェクト指向
データファイル80にランダムにアクセスし、表示シーンを構成するために用い
られるファイル中のさまざまなストリームからのデータ及び制御パケットを読み
出し、これらを互いに多重化して、クライアント20がコンポジットシーンをレ
ンダリングするために用いるコンポジットパケットストリーム64を作成する。
ストリームの開始部を示すパケットが存在しないので、ストリームは純粋に概念
的である。しかしながら、図5の53で示されたように、ストリームの境界を画
定するためにストリームパケットの終端が存在する。典型的には、シーン中の最
初のストリームは、シーン内の複数のオブジェクトの記述を含んでいる。シーン
内のオブジェクト制御パケットは、特定のオブジェクトに対するソースデータを
異なるストリームに変化させることができる。次いで、サーバ23は、ローカル
なプレイバックを実行するときに、オブジェクト指向データファイル80内から
1つよりも多くのストリームを同時に読み出す必要がある。個別のスレッドを作
成するよりはむしろ、複数のストリームのアレー又はリンクされたリストが作成
可能である。マルチプレクサ/データソースマネージャ25は、各ストリームか
ら1つのパケットをラウンドロビンの方式で読み出す。最小限でも、各ストリー
ムは、ファイル中の現在の位置と参照しているオブジェクトのリストとを記憶す
る必要がある。
【0159】 この場合、図14の動的メディア合成エンジン76は、クライアント20から
ユーザ制御情報68を受信すると、マルチプレクサ/データソースマネージャ2
5によって動的メディア合成エンジン76に提供されたディレクトリ情報に基づ
いて、互いに合成されるべき複数のオブジェクトの正しい組み合わせを選択し、
マルチプレクサ/データソースマネージャ25が、どこでこれらのオブジェクト
を発見するかについて知っているということを保証する。このことはまた、記憶
装置のオブジェクト識別子と実行時のオブジェクト識別子とが合成(コンポジシ
ョン)に依存して異なることがあるので、記憶装置のオブジェクト識別子を実行
時のオブジェクト識別子に対してマッピングするためのオブジェクトマッピング
機能を必要とすることがある。このことが発生しうる典型的な状況は、ファイル
80中の複数のシーンが、特定のビデオ又はオーディオオブジェクトを共有する
ことを所望するかもしれないときである。あるファイルは複数のシーンを含みう
るので、このことは、共有されたコンテンツを特別な“ライブラリ”シーンに記
憶することによって達成されることが可能である。シーン内の複数のオブジェク
トは、0乃至200の範囲のオブジェクトIDを有し、新しいシーンの定義パケ
ットが遭遇される毎に、シーンは、オブジェクトが存在しないものとしてリセッ
トされる。各パケットは、参照されたオブジェクトのオブジェクトIDとともに
、パケットのタイプを特定するベースヘッダを含んでいる。254のオブジェク
トIDはシーンを表す一方、255のオブジェクトIDはファイルを表す。複数
のシーンがあるオブジェクトデータストリームを共有するとき、何のオブジェク
トIDが複数の異なるシーンに対してすでに割り当てられているのかは未知であ
り、ゆえに、共有されたオブジェクトストリーム中の複数のオブジェクトIDを
予め選択することは、これらがすでにシーン中に割り当てられているとしても不
可能である。この問題を回避するための1つの方法は、ファイル内に固有のID
を有することであるが、しかし、このことは、記憶空間を増大させ、疎なオブジ
ェクトIDを管理することをより困難にする。上記問題は、各シーンがそれ自体
のオブジェクトIDを用いることを可能にすることによって解決され、1つのシ
ーンからのパケットがもう1つのシーンへのジャンプを示すとき、それは、各シ
ーンからのIDの間のオブジェクトのマッピングを指定する。複数のパケットが
新しいシーンから読み出されるとき、マッピングは、複数のオブジェクトIDを
変換するために用いられる。
【0160】 オブジェクトマッピング情報は、JUMPTOコマンドと同一のパケットに存
在することが期待される。この情報が利用可能でないときは、コマンドは単に無
視される。オブジェクトのマッピングは、2つのアレーを用いて表されることが
可能であり、ここで、一方は、ストリームにおいて遭遇されるソースのオブジェ
クトIDに対するものであり、他方は、ソースのオブジェクトIDが変換される
宛先のオブジェクトIDに対するものである。オブジェクトのマッピングが現在
のストリームに存在するときは、新しいマッピングの宛先のオブジェクトIDは
、現在のストリームのオブジェクトマッピングアレーを用いて変換される。オブ
ジェクトのマッピングがパケット中で特定されないときは、新しいストリームは
、現在のストリームのオブジェクトのマッピング(それはnull(ヌル)であ
ってもよい)を継承する。ストリーム内のすべてのオブジェクトIDが変換され
る必要がある。例えば、ベースヘッダID、他のID、ボタンID、コピーフレ
ーム(copyFrame)ID、及び重ね合わせ(overlapping)IDのようなパラメー
タは、すべて、宛先のオブジェクトIDに変換される必要がある。
【0161】 図15に示された遠隔のサーバのシナリオでは、サーバはクライアントから遠
隔して存在するので、データ64はクライアントにストリーミングされる。メデ
ィア再生器クライアント20は、サーバ24から受信されたパケットを復号化し
、ユーザ動作68をサーバに送り返すように設計されている。この場合、(オブ
ジェクトをクリックするような)ユーザの操作に応答し、クライアントに送信さ
れているパケットストリーム64を変更することは、遠隔のサーバ24の責務で
ある。この場合、各シーンは、(1つ又はそれよりも多くのオブジェクトから構
成された)単一の多重化されたストリームを含んでいる。
【0162】 このシナリオでは、サーバ24は、クライアント要求に基づいて複数のオブジ
ェクトデータストリームを多重化することによってリアルタイムでシーンを構成
することで、プレイバックのためにクライアントにストリーミングされる(任意
の与えられたシーンに対する)単一の多重化されたパケットストリーム64を構
成する。このアーキテクチャは、プレイバックされているメディアコンテンツを
、ユーザ対話に基づいて変化させることを可能にする。例えば、2つのビデオオ
ブジェクトが同時に再生されているとする。ユーザが一方をクリックするか又は
タッピングするとき、それは異なるビデオオブジェクトに変化するとともに、他
方のビデオオブジェクトは変化せずに残る。各ビデオは異なるソースから到来す
ることがあるので、サーバは、両方のソースをオープンにして、ビットストリー
ムをインターリーブし、適当な制御情報を追加し、新しいコンポジットストリー
ムをクライアントに送信する。当該ストリームをクライアントにストリーミング
する前にそれを適当に変更することは、サーバの責務である。
【0163】 図15は、遠隔のストリーミングサーバ24のブロック図である。図示された
ように、遠隔のサーバ24は、ローカルサーバと同様の2つの主な機能的構成要
素、すなわち、データストリームマネージャ26及び動的メディア合成エンジン
76を有する。しかしながら、サーバのインテリジェントマルチプレクサ27は
、複数の入力を備えた単一のマネージャからの代わりに、それぞれ単一のデータ
ソースを有する複数のデータストリームマネージャ26のインスタンスからと、
動的メディア合成エンジン76から入力を得ることができる。(複数の)ソース
からの互いに多重化された複数のオブジェクトデータパケットとともに、インテ
リジェントマルチプレクサ27は、コンポジットシーンの構成要素オブジェクト
のレンダリングを制御するために、追加の制御パケットをパケットストリームに
挿入する。複数の遠隔のデータストリームマネージャ26はまた、それらが順次
的なアクセスを実行するだけなので、より簡単である。このことに加えて、遠隔
のサーバは、IAVMLスクリプト29を用いて動的メディア合成(コンポジシ
ョン)のプログラム可能な制御を可能にするXMLパーザ28を含んでいる。遠
隔のサーバはまた、サーバオペレータデータベース19からの多数の入力を受け
て、動的メディア合成処理76をさらに制御し、かつカスタマイズする。可能な
入力は、1日の時刻と、週の曜日と、1年の日付と、クライアントの地理的な場
所と、性別、年齢及び任意の記憶されたユーザプロフィールなどのようなユーザ
の人口統計的なデータとを含む。これらの入力は、条件式における変数として、
IAVMLスクリプトにおいて利用されることが可能である。遠隔のサーバ24
はまた、オブジェクトの選択及びフォームデータのようなユーザ対話情報を、デ
ータマイニングなどのような後の追跡(フォローアップ)処理のために、サーバ
オペレータのデータベース19に戻すことに対して責務を有する。
【0164】 図15に示されたように、DMCエンジン76は、3つの入力を受け、3つの
出力を供給する。上記入力は、XMLに基づいたスクリプト、ユーザ入力、及び
データベース情報を含む。XMLスクリプトは、クライアント20にストリーミ
ングされているシーンをどのように構成するかを特定することによって、DMC
エンジン76の動作を指示するために用いられる。コンポジションは、現在のシ
ーンにおける複数のオブジェクトとのユーザの対話からの可能な入力によって調
節されるか、又は別個のデータベースからの入力から調節される。ここで、上記
オブジェクトはそれらに添付されたDMC制御動作を有する。このデータベース
は、1日の時刻/日付、クライアントの地理的な場所、又はユーザのプロフィー
ルに関連する情報を含むことができる。スクリプトは、これらの入力の任意の組
み合わせに基づいて動的な合成処理を指示することができる。このことは、DM
C処理によって、データストリームマネージャに対して、接続をオープンにし、
かつDMC動作に必要とされる適当なオブジェクトデータを読み出すように命令
することにより実行され、それはまた、インテリジェントマルチプレクサに対し
て、データストリームマネージャから受信されたオブジェクトパケットに係るそ
のインターリーブを変更するように命令し、DMCエンジン76に対して、シー
ン中のオブジェクトの除去、挿入又は置換を作用させるように命令する。DMC
エンジン76はまた、オプションで、スクリプト中のそれぞれに対するオブジェ
クト制御の仕様に従って制御情報を生成してオブジェクトに添付し、これを、オ
ブジェクトの一部としてクライアント20にストリーミングするために、インテ
リジェントマルチプレクサに供給する。ゆえに、すべての処理はDMCエンジン
76によって実行され、任意のオブジェクト制御情報によって提供されたパラメ
ータに従ってそれ自体で完備した複数のオブジェクトをレンダリングすることの
ほかには、クライアント20によって実行される動作は存在しない。DMC処理
76は、シーン中の複数のオブジェクトと複数のビデオ中の複数のシーンとの両
方を変更することができる。
【0165】 この処理と対照的なものは、MPEG4において同様の機能を実行するために
必要とされる処理である。これは、スクリプト記述言語を用いないが、BIFS
に依存する。従って、シーンのいかなる変更も、(i)BIFS、(ii)オブ
ジェクト記述子、(iii)オブジェクト形状情報、及び(iii)ビデオオブ
ジェクトデータパケットの個別の変更/挿入を必要とする。BIFSは、クライ
アント装置において特別なBIFSコマンドプロトコルを用いて更新される必要
がある。MPEG4は、シーンを定義するために、別個ではあるが互いに依存し
た複数のデータ構成要素を有するので、コンポジションにおける変化は、(制御
情報を有するか又は持たない)オブジェクトデータパケットをパケットストリー
ム中に単に多重化することによっては達成されることが不可能であり、BIFS
の遠隔の操作と、データパケット及び形状情報の多重化と、新しいオブジェクト
記述子パケットの作成及び送信とを必要とする。それに加えて、拡張された対話
機能がMPEG4オブジェクトに対して必要とされるとき、個別に記述された複
数のジャバプログラムが、クライアントによる実行のためにBIFSに送られ、
このことは非常に大きな処理のオーバーヘッドを必然的に伴う。
【0166】 動的メディア合成(DMC)を実行するローカルクライアントの動作は、図1
6に示されたフローチャートによって説明される。ステップs301において、
クライアントDMC処理が始まり、ただちに、オブジェクト合成情報をデータス
トリームマネージャに提供することを開始して、ステップs302に図示された
ように、複数のオブジェクトのビデオのプレイバックを促進する。DMCは、ビ
デオがまだ再生中であることを保証するために、ユーザコマンドのリストと別の
マルチメディアオブジェクトの利用可能性とをチェックし(ステップs303)
、さらにデータが存在しないときか、又はユーザがビデオのプレイバックを停止
したとき、クライアントDMC処理は終了する(ステップs309)。ステップ
s303において、ビデオのプレイバックが継続するものであるときは、DMC
処理は、任意の開始されたDMCアクションに対してユーザコマンドリストとオ
ブジェクト制御データとを調べる(ブラウズする)。ステップs304に図示さ
れているように、開始されるアクションが存在しないときは、処理はステップs
302に戻り、ビデオのプレイバックは継続する。しかしながら、ステップs3
04においてDMCアクションが開始されたときは、DMC処理は、ステップs
305に図示されたように、目標となる複数のマルチメディアオブジェクトのロ
ケーションをチェックする。目標となるオブジェクトがローカルに記憶されてい
るときは、ローカルサーバのDMC処理は、ステップs306に図示されたよう
に、変更されたオブジェクトストリームをローカルソースから読み出すように複
数の命令をローカルデータソースマネージャに送信し、次いで、処理は、ステッ
プs304に戻って、開始された別のDMCアクションをチェックする。目標と
なるオブジェクトが遠隔に記憶されているときは、ローカルなDMC処理は、ス
テップs308に図示されたように、複数の適当なDMC命令を遠隔のサーバに
送信する。それに代わって、ステップs307に図示されたように、DMCアク
ションは、ローカルなソースと遠隔のソースの両方を有する、目標となるオブジ
ェクトを必要とすることがあり、従って、ローカルなDMC処理によって適当な
DMCアクションが実行され(ステップs306)、複数のDMC命令は処理の
ために遠隔のサーバに送信される(ステップs308)。この議論より、ローカ
ルサーバは、ソースデータがローカルからと遠隔からの両方で導出されるハイブ
リッドの複数のオブジェクトのビデオプレイバックをサポートすることが明らか
である。
【0167】 動的メディア合成エンジン76の動作は、図17に示されたフローチャートに
よって説明されている。DMC処理はステップs401で開始し、ステップs4
02で、DMC要求が受信されるまで待機状態に入る。要求を受信すると、DM
Cエンジン76は、ステップs403、s404、及びs405において要求の
タイプを質問する。ステップs403において、要求がオブジェクト置換アクシ
ョンであると決定されるときは、2つの目標となるオブジェクト、すなわち、ア
クティブな目標のオブジェクトと、ストリームに追加されるべき新しい目標のオ
ブジェクトとが存在する。最初に、ステップs406において、データストリー
ムマネージャは、多重化されたビットストリームからアクティブな目標のオブジ
ェクトパケットを削除し、記憶装置からアクティブな目標のオブジェクトストリ
ームを読み出すことを停止するように命令される。続いて、ステップs408に
おいて、データストリームマネージャは、記憶装置から新しい目標のオブジェク
トストリームを読み出し、これらのパケットを送信される多重ビットストリーム
にインターリーブするように命令される。次いで、DMCエンジン76はステッ
プs402におけるその待機状態に戻る。ステップs403において、要求がオ
ブジェクト置換アクションでなかったときは、ステップs404において、アク
ションのタイプがオブジェクト除去アクションであるならば、アクティブな目標
のオブジェクトである1つの目標のオブジェクトが存在する。オブジェクト除去
アクションはステップs407で処理され、ここで、データストリームマネージ
ャは、多重ビットストリームからアクティブな目標のオブジェクトパケットを削
除し、記憶装置からアクティブな目標のオブジェクトストリームを読み出すこと
を停止するように命令される。次いで、DMCエンジン76はステップs402
におけるその待機状態に戻る。ステップs404において、要求されたアクショ
ンがオブジェクト除去アクションでなかったとき、ステップs405において、
アクションがオブジェクト追加アクションであるならば、新しい目標のオブジェ
クトである1つの目標のオブジェクトが存在する。オブジェクト追加アクション
はステップs408で処理され、ここで、データストリームマネージャは、記憶
装置から新しい目標のオブジェクトストリームを読み出し、これらのパケットを
送信される多重ビットストリームにインターリーブするように命令される。次い
で、DMCエンジン76はステップs402におけるその待機状態に戻る。最後
に、要求されたDMCアクションが(ステップs403において)オブジェクト
置換アクションでも、(ステップs404において)オブジェクト除去アクショ
ンでも、(ステップs405において)オブジェクト追加アクションでもないと
き、DMCエンジン76は、要求を無視し、ステップs402のその待機状態に
戻る。
【0168】 ビデオ復号化器 未処理のビデオデータを記憶し、送信し、かつ操作することは非効率的なので
、コンピュータビデオシステムは、通常、ビデオデータを圧縮されたフォーマッ
トに符号化する。これより後に続くセクションは、ビデオデータがどのように効
率的な、圧縮された形式に符号化されるかについて説明する。このセクションは
、圧縮されたデータストリームからビデオデータを生成することに対して責務を
有するビデオ復号化器について説明する。ビデオコーデックは、任意形状の複数
のビデオオブジェクトをサポートする。それは、3つの情報構成要素を用いて、
すなわち、カラーマップ、ツリーに基づいて符号化されたビットマップ、及び複
数の動きベクトルのリストを用いて各ビデオフレームを表す。カラーマップは、
赤、緑及び青の各成分に8ビットだけ割り当てられた24ビットの精度で特定さ
れる、フレーム中で用いられるすべての色のテーブルである。これらの色は、そ
れらのインデックスによってカラーマップ中に参照される。ビットマップは、デ
ィスプレイ上にレンダリングされるべきフレーム中の画素の色と、透明にされる
べきフレームの領域と、変化されないフレームの領域とを含む、多数の事項を定
義するために用いられる。各符号化されたフレーム中の各画素は、これらの機能
のうちの1つを割り当てられることが可能である。ある画素がこれらの役割のう
ちのどれを有するのかは、その値によって定義される。例えば、8ビットのカラ
ー表現が用いられるとき、色値0xFFは、スクリーン上の対応する画素がその
現在の値から変化されないものとすることを示すように割り当てられることが可
能であり、0xFEの色値は、そのオブジェクトに対するスクリーン上の対応す
る画素が透明であるものとすることを示すように割り当てられることが可能であ
る。スクリーン上の画素の最終的な色は、符号化されたフレームの画素の色値が
それが透明であることを示す場合、背景のシーンの色と任意の下にあるビデオオ
ブジェクトとに依存する。符号化されたビデオフレームを構成するこれらの構成
要素のそれぞれに対して用いられる特定の符号化は、以下に説明される。
【0169】 カラーテーブルは、後に続くテーブルのエントリの数を示すように、最初にビ
ットストリームに対して整数値を送ることによって符号化される。次いで、送信
されるべき各テーブルのエントリは、最初にそのインデックスを送信することに
よって符号化される。これに続いて、各色成分に対して1ビットのフラグが送信
され(Rf、Gf及びBf)、上記フラグは、それがオンであるとき、色成分が
完全なバイトとして送信されていることを示し、上記フラグがオフであるとき、
各色成分の上位ニブル(4ビット)が送信され、下位ニブルは0に設定されるこ
とを示す。ゆえに、テーブルのエントリは以下のパターン、すなわちR(Rf?
8:4),G(Gf?8:4),B(Bf?8:4)で符号化され、ここで、か
っこ内の数又はC言語式は、送信されているビット数を示す。
【0170】 動きベクトルは、アレーとして符号化される。最初に、アレー中の動きベクト
ルの数は16ビットの値として送信され、それに続いて、マクロブロックのサイ
ズと、次いで動きベクトルのアレーとが送信される。アレー中の各エントリは、
マクロブロックのロケーションと、当該ブロックに対する動きベクトルとを含ん
でいる。動きベクトルは、2つの符号付きのニブルとして符号化され、そのそれ
ぞれはベクトルの水平成分と垂直成分とのためである。
【0171】 実際のビデオフレームデータは、予め順序付けられたツリーのトラバーサル(
ツリーにおける移動)方法を用いて符号化される。ツリーには、透明なリーフと
領域の色のリーフとの2つのタイプのリーフ(葉)が存在する。透明なリーフは
、リーフによって示され、スクリーン上に表示された領域が、変更されないこと
を示す一方、色のリーフは、スクリーン上の領域が、リーフによって指定された
色になるようにする。前述されたような任意の符号化された画素に対して割り当
て可能な3つの機能に関して、透明なリーフは0xFFの色値に対応する一方、
スクリーン上の領域が透明であるように強制されるものであることを示す0xF
Eの値を有する画素は、標準的な領域色のリーフとして処理される。符号化器は
、ツリーの頂点において開始し、各ノードに対して、そのノードがリーフである
か又は親であるかを示すために単一のビットを記憶する。それがリーフであると
きはこのビットの値はオンに設定され、領域が透明であるときは、このことを示
すためにもう1つの単一のビット(オフ)が送信され、そうでないときそれはオ
ンに設定され、その後に、リーフの色が、所定のインデックスとしてFIFOバ
ッファに送信されるか、又は実際のインデックスとしてカラーマップに送信され
るかを示すもう1つの1ビットのフラグが続く。このフラグがオフに設定されて
いるとき、2ビットの符号語がFIFOバッファのエントリのうちの1つのイン
デックスとして送信される。上記フラグがオンであるとき、これは、リーフの色
がFIFOで発見されないことを示し、実際の色値が送信されて、また、既存の
エントリのうちの1つを押出してFIFOに挿入される。ツリーのノードが親ノ
ードであるときは、単一のオフビットが記憶され、次いで、4つの子ノードのそ
れぞれは、同様の方法を用いて個別に記憶される。符号化器がツリーの最下位レ
ベルに達するとき、すべてのノードはリーフノードであり、リーフ/親の表示ビ
ットは用いられず、その代わり、色の符号語によって後続される透明ビット(tr
ansparency bit)を最初に記憶する。送信されるビットのパターンは、以下のよ
うに表現可能である。次のシンボル、すなわち、ノードタイプ(N)、透明(T
)、FIFOの予測された色(P)、色値(C)、FIFOインデックス(F)
が用いられている。
【0172】
【表1】 ―――――――――――――――――――――――――――――――――――― N(1)---オフ→N(1)[…],N(1)[…],N(1)[…],N(1)[…] \----オン→T(1)---オフ \---オン→P(1)---オフ→F(2) \---オン→C(x) ――――――――――――――――――――――――――――――――――――
【0173】 図49は、1つの実施形態に係るビデオフレーム復号化処理の主なステップを
示すフローチャートである。ビデオフレーム復号化処理は、圧縮されたビットス
トリームに対してステップs2201で開始する。圧縮されたビットストリーム
内のさまざまな情報構成要素を物理的に分離するために用いられるレイヤ識別子
は、ステップs2202でビットストリームから読み出される。レイヤ識別子が
、動きベクトルデータレイヤの開始部を示すときは、ステップs2203はステ
ップs2204に進み、ビットストリームから動きベクトルを読み出して復号化
し、動き補償を実行する。動きベクトルは、表示されたマクロブロックを、以前
にバッファリングされたフレームから、ベクトルによって指示された新しいロケ
ーションにコピーするために用いられる。動き補償処理が完了するとき、ステッ
プs2202で、次のレイヤ識別子がビットストリームから読み出される。レイ
ヤ識別子が、四分木データレイヤの開始部を示すときは、ステップs2205は
ステップs2206に進み、読み出されたリーフの色の処理によって用いられる
FIFOバッファを初期化する。次に、ステップs2207で、圧縮されたビッ
トストリームから四分木の深さが読み出され、四分木の象限のサイズを初期化す
るために用いられる。ここで、ステップs2208において、圧縮されたビット
マップの四分木データが復号化される。四分木データが復号化されるとき、フレ
ームにおける領域の値は、リーフの値に基づいて変更される。それらは、新しい
色によって上書きされることか、透明にされることか、又は変更されないでおく
ことが可能である。四分木データが復号化されるとき、復号化処理は、ステップ
s2202で、圧縮されたビットストリームから次のレイヤ識別子を読み出す。
レイヤがカラーマップデータレイヤの開始部を示しているとき、ステップs22
09はステップs2210に進み、上記ステップs2210は、圧縮されたビッ
トストリームから、更新されるべき色の数を読み出す。ステップs2211で、
更新すべき1つ又はそれよりも多くの色が存在するときは、ステップs2212
で、圧縮されたビットストリームから最初のカラーマップインデックス値が読み
出され、ステップs2213で、圧縮されたビットストリームから色成分値が読
み出される。各色の更新は、すべての色の更新が実行されて完了するまでステッ
プs2211、s2212及びs2213を順番に用いて読み出され、すべての
色の更新が実行されて完了した時点において、ステップs2211はステップs
2202に進み、圧縮されたビットストリームから新しいレイヤ識別子を読み出
す。レイヤ識別子がデータ識別子の終端であるときは、ステップs2214はス
テップs2215に進み、ビデオフレーム復号化処理を終了する。レイヤ識別子
が、ステップs2203、s2205、s2209及びs2214を通じて未知
であるときは、レイヤ識別子は無視され、処理は、次のレイヤ識別子を読み出す
ためにステップs2202に戻る。
【0174】 図50は、最下位レベルのノードタイプの除去を用いた、1つの実施形態に係
る四分木復号化器の主なステップを示すフローチャートである。このフローチャ
ートは、処理される各四分木に対してそれ自体を再帰的に呼び出す再帰的な方法
を実装している。四分木復号化処理は、復号化されるべき象限の深さ及び位置を
認識する何らかの機構を有し、ステップs2301で開始する。ステップs23
02で、象限が最下位の象限でないときは、ステップs2307で、圧縮された
ビットストリームからノードタイプが読み出される。ステップs2308で、ノ
ードタイプが親ノードであるときは、ステップs2309で左上の象限に、ステ
ップs2310で右上の象限に、ステップs2311で左下の象限に、ステップ
s2312で右下の象限に係る四分木復号化処理に対して、4つの再帰的な呼び
出しが順番に実行され、それに続いて、復号化処理に係るこの反復はステップs
2317で終了する。再帰的な呼び出しが各象限に対して実行される特定の順序
は任意であるが、しかしながら、その順序は、符号化器によって実行される四分
木分解処理と同じである。ノードタイプがリーフノードであるときは、処理はス
テップs2308からs2313に続き、圧縮されたビットストリームからリー
フタイプ値が読み出される。ステップs2314で、リーフタイプ値が透明なリ
ーフを示しているときは、復号化処理はステップs2317で終了する。リーフ
が透明でないときは、ステップs2315で、圧縮されたビットストリームから
リーフの色が読み出される。リーフの読み出された色値の機能は、ここに説明さ
れたFIFOバッファを使用する。それに続いて、ステップs2316で、画像
の象限が適当なリーフの色値に設定され、これは、背景のオブジェクトの色か、
又は表示されたリーフの色でありうる。画像の更新が完了した後で、四分木の復
号化機能はこの反復をステップs2317で終了する。四分木復号化機能に対す
る再帰的な呼び出しは、最下位レベルの象限に達するまで継続される。このレベ
ルにおいて、このレベルの各ノードはリーフであるので、圧縮されたビットスト
リーム中に親/リーフノードの識別子を含む必要は存在せず、ゆえに、ステップ
s2302はステップs2303に進み、即時にリーフタイプ値を読み出す。ス
テップs2304で、リーフが透明でないとき、ステップs2305で、圧縮さ
れたビットストリームからリーフの色値が読み出され、ステップs2306で画
像の象限の色が適当に更新される。この復号化処理の反復はステップs2317
で終了する。四分木復号化処理に係る再帰的な処理の実行は、圧縮されたビット
ストリーム中のすべてのリーフノードが復号化されるまで続く。
【0175】 図51は、四分木のリーフの色を読み出すときに実行されるステップを示し、
ステップs2401で開始する。ステップs2402で、圧縮されたビットスト
リームから単一のフラグが読み出される。このフラグは、リーフの色が、FIF
Oバッファから読み出されるものであるか、それともビットストリームから直接
に読み出されるものであるかを示す。ステップs2403で、リーフの色がFI
FOから読み出されるものではないときは、ステップs2404で、リーフの色
値は圧縮されたビットストリームから読み出され、ステップs2405でFIF
Oバッファに記憶される。新しく読み出された色をFIFOに記憶することは、
FIFOに最も新しく追加された色を押出す。読み出されたリーフの色の機能は
、FIFOを更新した後に、ステップs2408で終了する。しかしながら、リ
ーフの色がすでにFIFOに記憶されているときは、ステップs2406で、圧
縮されたビットストリームからFIFOインデックスの符号語が読み出される。
次いで、ステップs2407で、最近に読み出された符号語に基づいてFIFO
にインデックスを付けることによってリーフの色が決定される。読み出されたリ
ーフの色の処理はステップs2408で終了する。
【0176】 ビデオ符号化器 ここでは、前もって存在し、ビデオデータを含んだ複数のビデオオブジェクト
及びファイルを操作することについて、議論の焦点を合わせた。前のセクション
では、圧縮されたビデオデータがどのように復号化されて、なま(raw)のビデ
オデータを生成するかについて説明した。このセクションでは、このデータを生
成する処理について議論される。システムは、多数の異なるコーデックをサポー
トするように設計される。ここでは、2つのそのようなコーデックが説明される
が、その他の使用されうるものは、MPEGファミリーと、H.261、H.2
63及びその後継規格とを含む。
【0177】 符号化器は、図18に示されたように、10個の主な構成要素を備えている。
上記構成要素は、ソフトウェアで実装されることも可能であるが、符号化器の速
度を高めるためには、符号化処理のステップを実行するように特に開発された特
定用途向け集積回路(ASIC)に、すべての構成要素が実装されてもよい。オ
ーディオ符号化構成要素12は、入力されたオーディオデータを圧縮する。オー
ディオ符号化構成要素12は、ITU仕様書G.723又はIMA ADPCM
コーデックのいずれかに従う、適応デルタパルス符号変調(ADPCM)を用い
ることができる。シーン/オブジェクト制御データ構成要素14は、入力された
オーディオ及びビデオに関連付けられ、各入力されたビデオオブジェクトの関係
及び振る舞いを決定する、シーンのアニメーション及び表示のパラメータを符号
化する。入力色処理構成要素10は、入力された個別のビデオフレームを受信し
て処理し、冗長で、望ましくない色を除去する。これはまた、ビデオ画像から望
ましくないノイズを除去する。オプションとして、以前に符号化されたフレーム
を基準として用いて、入力色プロセッサ10の出力に対して動き補償が実行され
る。色差管理及び同期化構成要素16は、入力色プロセッサ10の出力を受信し
、以前に符号化されてオプションで動き補償されたフレームを基準として用いて
符号化を決定する。次いで、出力は、ビデオデータを圧縮する合成された空間/
時間符号化器18と、1つのフレームの遅延24の後で動き補償構成要素11に
フレームを供給するために逆の機能を実行する復号化器20とに供給される。送
信バッファ22は、空間/時間符号化器18、オーディオ符号化器12、及び制
御データ構成要素14の出力を受信する。送信バッファ22は、符号化されたデ
ータをインターリーブすることと、合成された空間/時間符号化器18に対する
レート情報のフィードバックを介してデータレートを制御することとによって、
符号化器を収納しているビデオサーバからの送信を管理する。必要ならば、符号
化されたデータは、送信のために暗号化構成要素28によって暗号化されてもよ
い。
【0178】 図19のフローチャートは、符号化器によって実行される主なステップを示し
ている。ビデオ圧縮処理はステップs501で開始して、フレーム圧縮ループ(
s502乃至s521)に入り、ステップs502において、入力されたビデオ
データストリームに残っているビデオデータフレームが存在しないときは、ステ
ップs522で終了する。未処理のビデオフレームは、ステップs503におい
て、入力されたデータストリームから取り出される。このとき、空間的フィルタ
リングを実行することが所望されてもよい。空間的フィルタリングは、生成され
ているビデオのビットレート又は合計のビット数を低下させるために実行される
が、空間的なフィルタリングはまた、忠実度も低下させる。ステップs504に
よって、空間的フィルタリングが実行されるべきであると決定されるとき、ステ
ップs505において、現在の入力されたビデオフレームと、以前に処理された
か又は復元されたビデオフレームとの間の色差フレームが計算される。運動が存
在するところで空間的フィルタリングを実行することが望ましく、フレームの差
分を計算するステップは、運動がどこに存在するかを示し、差分が存在しないな
らば運動も存在せず、フレームの複数の領域における差分は、それらの領域に対
する運動を示す。続いて、ステップs506において、入力されたビデオフレー
ムに対して、局所化された空間的フィルタリングが実行される。このフィルタリ
ングは、フレーム間で変化した画像の領域のみをフィルタリングするように局所
化されている。所望するならば、空間的フィルタリングはIフレームに対して実
行されてもよい。これは、例えば、逆勾配フィルタリング、メジアンフィルタリ
ング、及び/又はこれら2つのタイプのフィルタリングの組み合わせを含む、任
意の所望の技術を用いて実行されることが可能である。ステップs505におい
て、キーフレームに対して空間的フィルタリングを実行することが所望され、フ
レームの差分を計算することも所望されるとき、差分フレームを計算するために
用いられる基準フレームは、空フレームでもよい。
【0179】 ステップs507において色量子化が実行され、画像から統計的にあまり重要
でない(insignificant)色を除去する。色量子化の一般的な処理は、静止画像
に関して知られている。本発明によって利用されうる例示のタイプの色量子化は
、米国特許第5,432,893号及び米国特許第4,654,720号の明細
書に開示されて参照されるすべての技術を含み、参照によってここに含まれるが
、これらに限定するものではない。これらの特許明細書によって引用されかつ参
照されたすべての文書もまた、参照によってここに含まれる。色量子化ステップ
s507についてのさらなる情報は、図20の構成要素10a、10b及び10
cを参照して説明される。このフレームに対してカラーマップの更新が実行され
るべきであるときは、フローはステップs508からステップs509に進む。
最高の品質の画像を達成するために、カラーマップはフレーム毎に更新されても
よい。しかしながら、これは、結果的に、多すぎる情報が送信されることになる
か、又は多すぎる処理を必要とすることがある。ゆえに、カラーマップをフレー
ム毎に更新する代わりに、nを2に等しいかそれよりも大きく、好ましくは10
0よりも小さく、より好ましくは20よりも小さい整数として、n個のフレーム
毎にカラーマップが更新されてもよい。それに代わって、カラーマップは、平均
してn個のフレーム毎に更新されてもよく、ここで、nは整数であることを必要
とされないが、1よりも大きく、かつ100のような予め決められた数よりも小
さく、より好ましくは20よりも小さい分数を含む任意の値であることができる
。これらの数は、単に例示的なものであり、所望されるならば、カラーマップは
望むだけ頻繁に、又は望むだけまれに更新されてもよい。
【0180】 カラーマップを更新する要望が存在するとき、ステップs509が実行され、
ここで、新しいカラーマップが選択されて、以前のフレームのカラーマップに対
して相関される。カラーマップが変化するとき、又は更新されるとき、異なるカ
ラーマップを用いるフレーム間に可視な不連続性が存在しないように、現在のフ
レームに対するカラーマップを、以前のフレームに対するカラーマップと同様に
保持することが望ましい。
【0181】 ステップs508において、未処理のカラーマップが存在しないとき(例えば
、カラーマップを更新する必要がないとき)、このフレームのために、以前のフ
レームのカラーマップが選択されるか又は利用される。ステップs510におい
て、量子化された入力画像の色は、選択されたカラーマップに基づいて新しい色
に再マッピングされる。ステップs510は、図20のブロック10dに対応し
ている。次に、ステップs511でフレームバッファのスワッピングが実行され
る。ステップs511におけるフレームバッファのスワッピングは、より高速で
、かつメモリについてより効率的な符号化を促進する。フレームバッファのスワ
ッピングの例示的な実施形態として、2つのフレームバッファが用いられてもよ
い。あるフレームが処理されたとき、このフレームに対するバッファは、過去の
フレームを保持するものとして指定され、他のバッファで受信された新しいフレ
ームは、現在のフレームであるものとして指定される。このフレームバッファの
スワッピングは、メモリの効率的な割り当てを可能にする。
【0182】 基準フレーム又はキーフレームとも呼ばれるキー基準フレームは、基準として
機能することができる。ステップs512が、このフレーム(現在のフレーム)
はキーフレームとして符号化されるものである、又はキーフレームとして指定さ
れていると決定するとき、ビデオ圧縮処理は直接ステップs519に進み、フレ
ームを符号化して送信する。あるビデオフレームは、多数の理由によってキーフ
レームとして符号化されうる。上記理由は、(i)それが、ビデオフレームのシ
ーケンスにおいてビデオの定義パケットに続く最初のフレームであること、(i
i)符号化器が、ビデオコンテンツ中にビジュアルシーンの変化を検出すること
、又は(iii)ユーザが、ビデオパケットストリーム中に挿入されるべきキー
フレームを選択したことを含む。当該フレームがキーフレームではないとき、ビ
デオ圧縮処理は、ステップs513において、現在のカラーマップをインデック
スされたフレームと、以前の復元されたカラーマップをインデックスされたフレ
ームとの間の差分フレームを計算する。差分フレームと、以前の復元されたカラ
ーマップをインデックスされたフレームと、現在のカラーマップをインデックス
されたフレームとは、ステップs514において動きベクトルを生成するために
用いられ、上記動きベクトルは、次に、ステップs515において、以前のフレ
ームを並べかえるために用いられる。
【0183】 ここで、ステップs516において、並べ替えられた以前のフレームと、現在
のフレームとが比較されて、条件を満たす(conditional replenishment)画像
を生成する。ステップs517において、ブルースクリーンの透明性がイネーブ
ルにされているときは、ステップs518は、ブルースクリーンのしきい値内に
含まれる差分フレームの領域を消去する。ここで、ステップs519において差
分フレームが符号化されて送信される。ステップs519は、図24を参照して
以下でより詳細に説明される。ステップs520において、符号化されたビット
ストリームのサイズに基づいて、ビットレート制御パラメータが確立される。最
後に、ステップs502の開始で次のビデオフレームを符号化するときに用いる
ために、ステップs521において、符号化されたフレームが復元される。
【0184】 図18の入力色処理構成要素10は、統計的にあまり重要でない色の削減を実
行する。この色削減を実行するために選ばれた色空間は、多数の異なる色空間の
いずれを用いても同様の結果が達成可能であるので、重要ではない。
【0185】 統計的にあまり重要でない色の削減は、上で議論されたようなさまざまなベク
トル量子化技術を用いて実装されてもよく、また、ポピュラリティ法、メディア
ンカット法、k−最近接近傍(k-nearest neighbour)法、及び参照によって含
まれる S. J. Wan, P. Prusinkiewicz, S. K. M. Wong, "Variance-Based Color
Image Quantization for Frame Buffer Display.", Color Research and Appli
cation, Vol. 15, No. 1, 1990年2月に記述された分散法を含む、他の任意
の所望の技術を用いて実装されてもよい。図20に示されたように、これらの方
法は、ベクトル空間のサイズを減少することによってベクトル量子化アルゴリズ
ム10bの性能を改善するために、最初の一様な量子化ステップ、又は非適応的
な量子化ステップ10aを利用することができる。方法の選択は、所望されるな
らば、量子化されたビデオフレーム間で最高の大きさの時間相関を保持するよう
になされる。この処理に対する入力は、候補となるビデオフレームであり、処理
は、フレーム中の色の統計的な分布を解析することによって進む。10cにおい
て、画像を表現するために用いられる色が選択される。いくつかのハンドヘルド
処理装置又は個人情報端末のために現在利用可能な技術を用いると、例えば、同
時発色数256色の制限が存在することがある。従って、10cは、画像を表現
するために用いられるべき256個の異なる色を選択するように利用されること
が可能である。ベクトル量子化処理の出力は、サイズについて制限されうる、フ
レーム全体の表現色のテーブル10cである。ポピュラリティ法の場合には、最
も頻繁に現れるN個の色が選択される。最後に、元のフレームにおける各色が、
10dで、表現セットにおける色の1つに再マッピングされる。
【0186】 入力色処理構成要素10の色管理構成要素10b、10c及び10dは、ビデ
オ中の色の変化を管理する。入力色処理構成要素10は、表示された色のセット
を含むテーブルを生成する。この色のセットは、処理がフレーム毎の基準で適応
的ならば、時間にわたって動的に変化する。このことは、画像の品質を低下させ
ることなく、ビデオフレームの色成分を変化させることを可能にする。カラーマ
ップの適用を管理する適当な方法を選択することは重要である。カラーマップに
ついて3つの別の可能性が存在し、それは、静的であるか、セグメントに分割さ
れて部分的に静的であるか、又は完全に動的であることができる。固定されたカ
ラーマップ又は静的なカラーマップを用いると、局所的な画像品質は低下される
がフレームからフレームに高い相関が保持され、高い圧縮利得をもたらす。シー
ンの変化が頻繁なことがあるビデオに対して高品質の画像を保持するために、カ
ラーマップは瞬間的に適用されうることが必要である。各フレームに対して新し
い最適なカラーマップを選択することは、カラーマップがフレーム毎に更新され
るだけでなく、そのたびに画像中の多数の画素が再マッピングされる必要がある
ので、大きな帯域幅の要求を有している。この再マッピングはまた、カラーマッ
プのちらつき(フラッシング)の問題を導入する。折衷案は、連続的なフレーム
間で、制限された色の変動のみを許容することである。このことは、カラーマッ
プを静的なセクションと動的なセクションとに分割することによって、又はフレ
ーム毎に変動することを許可されている色の数を制限することによって達成可能
である。最初の場合には、テーブルの動的なセクションの複数のエントリが変更
されることが可能であり、このことは、特定の予め決められた色が常に利用可能
であることを保証する。他方の方法では、予約された色は存在せず、任意の色が
変更されうる。このアプローチは、何らかのデータの相関を保存することを援助
する一方で、カラーマップは、いくつかの場合には、画像品質の低下を除去する
のに十分な速さで適用できないことがある。既存のアプローチは、フレーム間の
画像の相関を保存するために画像品質について妥協している。
【0187】 これらの動的なカラーマップ方法のいずれについても、時間的な相関を保存す
るためには同期化が重要である。この同期化処理は3つの要素を有する。 1.各フレームからその次のフレームに持ち越される色が時間にわたって同一の
インデックスにマッピングされることを保証する。このことは、各新しいカラー
マップを、現在のものに関して再ソーティングすることを必要とする。 2.変化されたカラーマップを更新するために置換法が用いられる。色のちらつ
きの量を減少させるために最も適当な方法は、古くなった(obsolete)色を、最
も類似した新しい置換色で置き換えることである。 3.最後に、画像中のもはやサポートされていない任意の色に対するすべての既
存の基準は、現在サポートされている色に対する基準によって置換される。
【0188】 図18の入力色処理10に続いて、ビデオ符号化器の次の構成要素は、インデ
ックスを付けられたカラーフレームを取得し、オプションで動き補償11を実行
する。動き保証が実行されないときは、フレームバッファ24からの以前のフレ
ームは、動き補償構成要素11によって変更されず、色差管理及び同期化構成要
素16に直接に送られる。好ましい動き補償方法は、ビデオフレームを小さいブ
ロックに分割し、補充(replenish)されるか又は更新されることを必要としか
つ透明ではない画素の数が何らかのしきい値を超過しているような、ビデオフレ
ーム中のすべてのブロックを決定することによって開始する。次いで、結果とし
て生じた画素のブロックに動き補償処理が実行される。最初に、当該領域の近傍
に対して所定の探索が実行され、当該領域が以前のフレームから変位されたか否
かを決定する。これを実行するための従来の方法は、基準領域と、候補となる変
位領域との間の平均2乗誤差(MSE)又は2乗和誤差(SSE)の計量を計算
することである。図22に示されたように、この処理は、全数探索を用いて実行
されるか、2D対数的探索11a、3ステップ探索11b、又は簡単化された共
役方向探索11cのような多数の他の既存の探索技術の1つを用いて実行される
ことが可能である。この探索の目的は、しばしば動きベクトルと呼ばれる、領域
に対する変位ベクトルを発見することにある。従来の測定基準は、それらが連続
的な画像表現がもたらす連続性と空間−時間の相関とに依存しているので、イン
デックスを付けられた/カラーマッピングされた画像表現に対しては機能しない
。インデックスを付けられた表現に対しては、フレームからフレームにおいて非
常に小さな空間的相関しか存在せず、かつ画素の色の漸進的又は連続的な変化は
まったく存在せず、むしろ、色のインデックスが新しいカラーマップのエントリ
にジャンプして画素の色の変化を反映するように、変化は不連続である。ゆえに
、色が変化する単一のインデックス/画素は、MSE又はSSEに対して大きな
変化を導入し、これらの計量の信頼性を低下させる。ゆえに、領域の変位を位置
決めするためのよりよい計量は、領域が透明でないときに、現在のフレームの領
域と比較して以前のフレームにおいて異なっている画素の数が最小の場所はどこ
かということである。いったん動きベクトルが発見されると、当該動きベクトル
に従って、当該領域における画素の値を以前のフレームにおけるそれらのもとの
ロケーションから予測することによって、当該領域は動き補償される。最小の差
分を与えるベクトルが、変位なしに対応するとき、動きベクトルはゼロでありう
る。各変位されたブロックに対する動きベクトルは、ブロックの相対的なアドレ
スとともに、出力ビットストリーム中に符号化される。これに続いて、色差管理
構成要素16は、動き補償された以前のフレームと現在のフレームとの間の知覚
可能(perceptual)な差分を計算する。
【0189】 色差管理構成要素16は、現在のフレームと以前のフレームとの間で、各画素
における知覚される色差を計算することに責務を有する。この知覚される色差は
、知覚可能な色の削減について記述されたものと同様の計算に基づく。複数の画
素は、それらの色が、与えられた量よりも大きく変化したときに更新される。色
差管理構成要素16はまた、画像中のすべての無効なカラーマップ基準をパージ
し、これらを有効な基準で置き換えて条件を満たす画像を生成することについて
、責務を有する。無効なカラーマップ基準は、カラーマップにおいてより新しい
色が古い色を置換するときに発生することがある。この情報は、ビデオ符号化処
理において、空間/時間符号化構成要素18に送られる。この情報は、フレーム
中のどの領域が完全に透明であり、どれが補充(replenish)される必要があり
、カラーマップ中のどの色が更新される必要があるかを示す。更新されていない
フレーム中のすべての領域は、更新がないことを表すように選択されている予め
決められた値に画素の値を設定することによって識別される。この値を包含する
ことは、任意形状のビデオオブジェクトの作成を可能にする。予測誤差が蓄積せ
ず、画像品質を低下させないことを保証するために、ループフィルタが用いられ
る。このことは、現在及び以前のフレームからよりはむしろ、現在のフレームと
、蓄積された以前の送信されたデータ(復号化された画像の現在の状態)とから
、フレーム補充データが決定されるようにする。図21は、色差管理構成要素1
6のより詳細な図を提供する。現在のフレーム記憶装置16aは、入力色処理構
成要素10からの結果的な画像を記憶する。前のフレーム記憶装置16bは、1
フレームの遅延構成要素24によってバッファリングされたフレームを含み、上
記フレームは、動き補償構成要素11によって動き補償されていても、動き補償
されていなくてもよい。色差管理構成要素16は、2つの主な構成要素、すなわ
ち、画素間の知覚される色差の計算16cと、無効なカラーマップ基準のクリー
ンアップ16fとに分割される。知覚される色差は、どの画素が更新される必要
があるかを決定するために所定のしきい値16dに関して評価され、結果として
得られる画素は、オプションで、データレートを減少させるために16eでフィ
ルタリングされる。空間的なフィルタ16eの出力と無効なカラーマップ基準1
6fとから最終的な更新画像が16gで形成され、空間符号化器18に送信され
る。
【0190】 この結果、条件を満たすフレームが得られて、上記フレームはここで符号化さ
れる。空間符号化器18はツリー分割方法を用い、所定の分割基準に従って各フ
レームをより小さいポリゴンに再帰的に分割する。図23に示されているように
、四分木分割23dの方法が用いられる。ゼロ次補間である1つの例では、これ
は画像23aを一様なブロックによって表現することを試み、上記ブロックの値
は画像の大域的な平均値に等しい。もう1つの例では、1次補間又は2次補間が
用いられてもよい。画像のいくつかのロケーションにおいて、この表現値と実際
の値との間の差分がなんらかの許容しきい値を超えるとき、ブロックは、一様に
、2つ又は4つの部分領域になるように再帰的にさらに分割され、各部分領域に
対して新しい平均値が計算される。損失のない画像符号化のためには、許容しき
い値は存在しない。ツリー構造23d、23e、23fは複数のノード及びポイ
ンタから構成され、ここで、各ノードは、ある領域を表し、存在しうる部分領域
を表す任意の子ノードに対するポインタを含んでいる。リーフ23bのノードと
リーフでない23cノードとの、2つのタイプのノードが存在する。リーフノー
ド23bは、さらに分解されず、かつそれ自体は子を持たず、その代わりに、包
含された領域に係る表現値を含むものである。リーフでないノード23cは、こ
れらが、さらなる部分領域から構成され、かつそれ自体は各子ノードに対するポ
インタを含むので、表現値を含まない。これらは親ノードとも呼ばれることがあ
る。
【0191】 動的ビットマップ(カラー)符号化 単一のビデオフレームの実際に符号化された表現は、ビットマップ、カラーマ
ップ、動きベクトル、及びビデオエンハンスメント(拡張)データを含んでいる
。図24に示されたように、ビデオフレーム符号化処理はステップs601で開
始する。動き補償処理を用いて動きベクトルが生成されたとき(s602)、ス
テップs603において上記動きベクトルが符号化される。カラーマップが以前
のビデオフレームから変化したとき(s604)、ステップs605において新
しいカラーマップのエントリが符号化される。新しいツリー構造は、ステップs
606でビットマップフレームから作成され、ステップs607で符号化される
。ビデオエンハンスメントデータが符号化されるべきならば(s608)、ステ
ップs609において上記エンハンスメントデータは符号化される。最後に、ス
テップs610でビデオフレーム符号化処理は終了する。
【0192】 実際の四分木ビデオフレームデータは、予め順序付けられたツリーのトラバー
サル方法を用いて符号化される。ツリーには、透明なリーフと領域色のリーフと
の2つのタイプのリーフが存在しうる。透明なリーフは、当該リーフによって示
された領域がその以前の値から変化していないことを示し(これらはビデオキー
フレームには存在しない)、カラーのリーフは領域の色を含んでいる。図26は
、ゼロ次補間と最下位レベルのノードのタイプの除去とを用いた、通常の予測を
されたビデオフレームに対する、予め順序付けられたツリーのトラバーサル符号
化方法を表す。図26に係る符号化器はステップs801で開始し、最初に、ス
テップs802において、符号化されたビットストリームに四分木レイヤ識別子
を追加する。ステップs803において、ツリーの最上位(トップ)で開始し、
符号化器は最初のノードを取得する。ステップs804において、ノードが親ノ
ードであるときは、ステップs805において、符号化器はビットストリームに
対して親ノードのフラグ(単一の0のビット)を追加する。続いて、ステップs
806においてツリーから次のノードが取り出され、符号化処理はステップs8
04に戻って、ツリー中の後続するノードを符号化する。ステップs804にお
いて、ノードが親ノードでないとき、すなわちそれがリーフノードであるときは
、ステップs807において、符号化器はツリーにおけるノードのレベルをチェ
ックする。ステップs807において、ノードがツリーの最下位(ボトム)でな
いときは、符号化器は、ステップs808において、ビットストリームに対して
リーフノードのフラグ(単一の1のビット)を追加する。ステップs809にお
いて、リーフノードの領域が透明であるときは、ステップs810において、ビ
ットストリームに対して透明なリーフのフラグ(単一の0のビット)が追加され
、そうでないときは、ステップs811において、ビットストリームに対して不
透明なリーフのフラグ(単一の1のビット)が追加される。不透明なリーフの色
は、次にステップs812で、図27に示されたように符号化される。しかしな
がら、ステップs807において、リーフノードがツリーの最下位レベルにある
ときは、すべてのノードはリーフノードであり、リーフ/親の表示ビットは使わ
れないので、最下位レベルのノードタイプの除去が発生して、そのため、ステッ
プs813において、このレベルにおける4つのリーフのそれぞれが透明(0)
であるか不透明(1)であるかを示すために、ビットストリームに対して4つの
フラグが追加される。続いて、ステップs814において、左上のリーフが不透
明であるときは、ステップs815において、図27に示されているように左上
のリーフの色が符号化される。ステップs814とステップs815のそれぞれ
は、右上のノードに対してステップs816とステップs817で、左下のノー
ドに対してステップs818とステップs819で、右下のノードに対してステ
ップs820とステップs821で示されたように、この第2のボトムレベルに
おける各リーフノードに対して繰り返される。(ステップs810、s812、
s820、又はs821から)リーフノードが符号化された後で、符号化器は、
ステップs822において、当該ツリーにさらにノードが残っているか否かをチ
ェックする。ツリーにノードが残っていないときは、ステップs823において
符号化処理は終了する。そうでないときは、符号化処理はステップs806で継
続し、ここで、ツリーから次のノードが選択され、新しいノードに対して処理の
全体がステップs804から再スタートする。
【0193】 複数のビデオキーフレーム(これらは予測されない)に係る特別な場合では、
これらは透明なリーフを持たず、図28に示されたように、わずかに異なる符号
化方法が用いられる。キーフレーム符号化処理はステップs1001において開
始し、最初に、ステップs1002において、符号化されたビットストリームに
対して四分木レイヤ識別子を追加する。ステップs1003において、ツリーの
トップから開始し、符号化器は最初のノードを取得する。ステップs1004に
おいて、ノードが親ノードであるときは、符号化器は、ステップs1005にお
いて、ビットストリームに対して親ノードのフラグ(単一の0のビット)を追加
し、続いて、ステップs1006において、ツリーから次のノードが取り出され
、符号化処理はステップs1004に戻って、ツリー中の後続するノードを符号
化する。しかしながら、ステップs1004において、ノードが親ノードでない
とき、すなわち、それがリーフノードであるとき、符号化器は、ステップs10
07において、ツリーにおけるノードのレベルをチェックする。ステップs10
07において、ノードが、ツリーのボトムから1つ目よりも大きいレベルである
ときは、符号化器は、ステップs1008において、ビットストリームに対して
リーフノードのフラグ(単一の1のビット)を追加する。次いで、ステップs1
009において、不透明なリーフの色が図27に示されたように符号化される。
しかしながら、ステップs1007において、リーフノードがツリーのボトムか
ら1つ目のレベルにあれば、すべてのノードはリーフノードであり、リーフ/親
の表示ビットは使われないので、最下位レベルのノードタイプの除去が発生する
。従って、ステップs1010において、左上のリーフの色は図27に示された
ように符号化される。続いて、ステップs1011、s1012、及びs101
3において、右上のリーフと、左下のリーフと、右下のリーフとに対してそれぞ
れ同様に不透明なリーフの色が符号化される。(ステップs1009又はs10
12から)すべてのリーフノードが符号化された後で、符号化器は、ステップs
1014において、ツリー中にさらにノードが残っているか否かをチェックする
。ツリー中にノードが残っていないとき、符号化処理はステップs1015で終
了する。そうでないときは、ステップs1006において符号化処理は継続し、
ここで、ツリーから次のノードが選択され、新しいノードに対して、処理の全体
がステップs1004から再スタートする。
【0194】 不透明なリーフの色は、図27に示されたように、FIFOバッファを用いて
符号化される。リーフの色の符号化処理はステップs901で開始する。符号化
されるべき色は、すでにFIFOに存在する4つの色と比較され、ステップs9
02において、当該色がFIFOバッファに存在すると決定されたときは、ステ
ップs903において、単一のFIFOルックアップフラグ(単一の1のビット
)がビットストリームに追加され、それに続いて、ステップs904において、
リーフの色をインデックスとして表す2ビットの符号語をFIFOバッファに入
れる。この符号語は、FIFOバッファ中の4つのエントリのうちの1つに対し
てインデックスを付ける。例えば、インデックス値00、01、及び10は、リ
ーフの色が前のリーフと同じであることと、それの前の以前の異なるリーフの色
と、それの前の以前のものとをそれぞれ特定する。しかしながら、ステップs9
02において、符号化すべき色がFIFOバッファの中で利用可能でないとき、
ステップs906において、送信カラーフラグ(単一の0のビット)がビットス
トリームに対して追加され、それに続いて、ステップs906において、実際の
色値を表すN個のビットが送られる。それに加えて、色はFIFOに追加され、
既存のエントリのうちの1つを押し出す。カラーリーフ符号化処理はステップs
907で終了する。
【0195】 カラーマップは同様に圧縮される。標準の表現は、各インデックスを送信し、
それに続いて、24ビット、すなわち、赤成分の値を特定するために8個、緑成
分のために8個、青のために8個を送信するというものである。圧縮されたフォ
ーマットでは、各色成分が、完全な8ビットの値として特定されるか、又は下位
の4ビットはゼロに設定されて単に上位ニブルとして特定されるかを、所定の単
一のビットのフラグが示す。このフラグに続いて、成分の値が、フラグに依存し
て8ビット又は4ビットで送信される。図25のフローチャートは、8ビットの
カラーマップのインデックスを用いたカラーマップ符号化方法に係る1つの実施
形態を示している。この実施例では、1つの色のすべての成分に対して色成分の
解像度を特定する単一のビットのフラグは、色成分そのものよりも前に符号化さ
れる。ステップs701でカラーマップの更新処理が開始する。最初に、ステッ
プs702において、カラーマップレイヤ識別子がビットストリームに追加され
、それに続いて、ステップs703において、色の更新が続く数を示す符号語が
送信される。ステップs704において、処理は、追加の更新のための色の更新
リストをチェックし、符号化を必要とする色の更新がさらに存在しないときは、
処理はステップs717で終了する。しかしながら、符号化されるべき色が残っ
ているときは、ステップs705において、更新されるべきカラーテーブルのイ
ンデックスがビットストリームに追加される。典型的に多数の成分(例えば赤、
緑及び青)を有する各色に対しては、ステップs706は、ステップs707、
s708、s709、及びs710を回り、こうして各成分を別個に処理するル
ープの条件を形成する。各成分は、ステップs707でデータバッファから読み
出される。続いて、ステップs708において、成分の下位ニブルがゼロである
とき、ステップs709において、ビットストリームに対してオフフラグ(単一
の0のビット)が追加され、又は、下位ニブルがゼロでないとき、ステップs7
10において、ビットストリームに対してオンフラグ(単一の1のビット)が追
加される。処理は、残りの色成分がなくなるまで、ステップs706に戻ること
によって繰り返される。続いて、ステップs711において、最初の成分がデー
タバッファから再び読み出される。同様に、ステップs712は、ステップs7
13、s714、s715、及びs716を回り、各成分を別個に処理するルー
プの条件を形成する。続いて、ステップs712において、成分の下位ニブルが
ゼロであるときは、ステップs713において、ビットストリームに対して成分
の上位ニブルが追加される。それに代わって、下位ニブルがゼロでないときは、
ステップs714において、ビットストリームに対して成分の8ビットの色成分
が追加される。ステップs715において、追加されるべき別の色成分が残って
いるときは、ステップs716において、入力されたデータストリームから次の
色成分が読み出され、処理はステップs712に戻って、この成分を処理する。
そうでないとき、ステップs715で成分が残っていないときは、カラーマップ
符号化処理はステップs704に戻り、残っている任意のカラーマップの更新を
処理する。
【0196】 代替例の符号化方法 代替例の符号化方法では、図18の入力色処理構成要素10が色の削減を実行
しないが、代わりに、必要とされるならば入力色空間がRGBから変換されてY
CbCr空間にあることを保証するということを除いて、処理は、図29に示さ
れたように、最初のものと非常に類似している。必要とされる色量子化又はカラ
ーマップの管理が存在しないので、従って、図19のステップs507乃至s5
10は、フレームがYCbCr色空間において表されることを保証する単一の色
空間変換ステップによって置換される。図18の動き補償構成要素11は、Y成
分に対して“従来型”の動き補償を実行し、動きベクトルを記憶する。次いで、
条件を満たす画像が、Y成分からの動きベクトルを用いて、Y、Cb及びCr成
分のそれぞれに対するフレーム間符号化処理から生成される。次いで、結果とし
て得られた3つの異なる画像は、Cb及びCrのビットマップを各方向に2分の
1にダウンサンプリングした後で、独立に圧縮される。ビットマップの符号化は
、同様の再帰的なツリー分解を用いるが、今回は、ツリーの最下位にはない各リ
ーフに対して、3つの値、すなわち、リーフによって表された領域に対する平均
ビットマップ値と、水平方向と垂直方向の勾配とが記憶される。図29のフロー
チャートは、代替例のビットマップ符号化処理を示し、ステップs1101で開
始する。ステップs1102において、画像成分(Y、Cb又はCr)が符号化
のために選択され、次いで、ステップs1103において、最初のツリーのノー
ドが選択される。ステップs1104において、このノードが親ノードであると
きは、親ノードのフラグ(1ビット)がビットストリームに追加される。次いで
、ステップs1106において、ツリーから次のノードが選択され、代替例のビ
ットマップ符号化処理はステップs1104に戻る。ステップs1104におい
て、新しいノードが親ノードでないときは、ステップs1107において、ツリ
ーにおけるノードの深さが決定される。ステップs1107において、ノードが
ツリーの最下位レベルにないときは、ノードは、ステップs1108においてリ
ーフノードフラグ(1ビット)がビットストリームに追加されるように、最下位
でないリーフノードの符号化方法を用いて符号化される。続いて、ステップs1
109において、リーフが透明であるときは、透明なリーフのフラグ(1ビット
)がビットストリームに追加される。しかしながら、リーフが透明でないときは
、不透明なリーフのフラグ(1ビット)がビットストリームに追加され、続いて
、ステップs1112において、リーフの色の平均値が符号化される。上記平均
値は、フラグと、2ビットのFIFOインデックスか又は8ビットの平均値自体
かのいずれかとを送信することによって、最初の方法におけるように、FIFO
を用いて符号化される。ステップs1113において、領域が、(任意形状のビ
デオオブジェクトで用いるための)不可視の背景領域でないときは、ステップs
1114において、リーフの水平及び垂直の勾配が符号化される。不可視の背景
領域は、平均値に対する特別な値、例えば0xFFを用いて符号化される。勾配
は、4ビットの量子化された値として送信される。しかしながら、ステップs1
107において、リーフノードがツリーの最下位レベル(bottom most level)
にあると決定されるときは、対応するリーフは、先行する方法におけるように、
ビットマップ値と親/リード(lead)でない表示フラグとを送信することによっ
て符号化される。透明なリーフとカラーのリーフとは、以前のように、単一のビ
ットのフラグを用いて符号化される。任意形状のビデオの場合、不可視の背景領
域は、平均値に対する特別な値、例えば0xFFを用いて符号化され、この場合
、勾配の値は送信されない。ここで特に、ステップs1115において、このレ
ベルにおける4つのリーフのうちのそれぞれが透明か又は不透明かを示すために
、4つのフラグがビットストリームに追加される。続いて、ステップs1116
において、左上のリーフが不透明であるときは、不透明なリーフの色の符号化に
ついて上述されたように、ステップs1117において、左上のリーフの色が符
号化される。ステップs1116とステップs1117のそれぞれは、右上のノ
ードに対してステップs1118とステップs1119で、左下のノードに対し
てステップs1120とステップs1121で、右下のノードに対してステップ
s1122とステップs1123で示されたように、この最下位レベルにおける
各リーフノードに対して繰り返される。リーフノードの符号化が完了すると、符
号化処理は、ステップs1124において、追加のノードについてツリーをチェ
ックし、ノードが残っていないときはステップs1125で終了する。それに代
わって、ステップs1106で次のノードが取り出され、処理はステップs11
04で再スタートする。この場合における復元は、リーフによって識別された各
領域内の値を、1次、2次、又は3次補間を用いて補間し、次いで、Y、Cb及
びCr成分のそれぞれに対して上記値を結合して、各画素に対する24ビットの
RGBを再生成することを必要とする。8ビットのカラーマッピングされたディ
スプレイを備えた装置については、表示する前に色の量子化が実行される。
【0197】 色の前置量子化データの符号化 画像品質を改善するために、前述された代替例の符号化方法におけるように、
1次補間又は2次補間された符号化が使用可能である。この場合、各リーフによ
って表された領域に対する平均色が記憶されただけでなく、各リーフにおける色
の勾配情報もまた記憶された。次いで、2次補間又は3次補間を用いて復元が実
行され、連続的な色調の画像を再生成する。このことは、インデックスを付けら
れたカラーディスプレイを備えた装置上に連続的なカラー画像を表示するときに
、問題を生じさせることがある。これらの状況では、出力を8ビットに切り下げ
るように量子化し、それにリアルタイムでインデックスを付けることに対する要
求は、禁じられている。図47に示されたように、この場合、符号化器50は、
24ビットカラーデータ02aのベクトル量子化02bを実行して、色の前置量
子化データを生成することができる。色量子化情報は、以下に説明されるように
、八分木圧縮02cを用いて符号化されることが可能である。この圧縮された色
の前置量子化データは、ビデオ復号化器/再生器38が予め計算された色量子化
データを適用することによってリアルタイムの色量子化02dを実行し、こうし
てオプションとして8ビットでインデックスを付けられたカラービデオ表現02
eをリアルタイムで生成することを可能にするように、符号化された連続的な色
調の画像とともに送信される。この技術はまた、8ビットの装置上に表示される
べき24ビットの結果物を生成する復元フィルタリングが用いられるときにも使
用可能である。この問題は、24ビットのカラーの結果物から8ビットのカラー
テーブルへのマッピングを記述する少量の情報を、ビデオ復号化器38に送信す
ることによって、解決可能である。この処理は、図30のステップs1201で
開始するフローチャートに示され、クライアントにおいてリアルタイムの色量子
化を実行するための前置量子化処理において必要とされる主なステップを含んで
いる。ビデオ中のすべてのフレームは、ステップs1202における条件ブロッ
クによって示されているように、順次に(シーケンスで)処理される。フレーム
が残っていないときは、前置量子化処理はステップs1210で終了する。そう
でないときは、ステップs1203において、入力されたビデオストリームから
次のビデオフレームが取り出され、次いで、ステップs1204において、ベク
トル前置量子化データが符号化される。続いて、ステップs1205において、
インデックスに基づかないカラービデオフレームが符号化される/圧縮される。
ステップs1206において、圧縮された/符号化されたフレームデータはクラ
イアントに送信され、続いて、クライアントは、ステップs1207においてそ
れをフルカラーのビデオフレームに復号化する。ここで、ベクトル前置量子化デ
ータは、ステップs1208におけるベクトル後置量子化のために用いられ、最
終的に、ステップs1209において、クライアントはビデオフレームをレンダ
リングする。処理はステップs1202に戻り、ストリーム中の後続するビデオ
フレームを処理する。ベクトル前置量子化データは、32×64×32のサイズ
の3次元アレーを含み、ここで、アレーの中のセルは、各r,g,b座標に対す
るインデックス値を含んでいる。明らかに、合計で32×64×32=65,5
36個のインデックス値を記憶して送信することは、本技術を非実用的なものに
する大きなオーバーヘッドである。その解決方法は、この情報をコンパクトな表
現に符号化することである。図30のフローチャートに示され、ステップs13
01で開始する1つの方法は、八分木表現を用いて、この3次元アレーのインデ
ックスを符号化するものである。図47の符号化器50はこの方法を用いること
ができる。ステップs1302において、ビデオフレーム中のすべてのj個の画
素に対して、F(r,g,b)がRGB色空間におけるすべての固有の色を表
現するように、入力ソースから3Dデータセット/ビデオフレームが読み出され
る。続いて、ステップs1303において、3DデータセットF(r,g,b
)を最もよく表現するように、N個のコードブックベクトルVが選択される。
ステップs1304において、3次元アレーt[0..Rmax,0..Gma ,0..Bmax]が作成される。アレーtにおけるすべてのセルに対し、ス
テップs1305において、最も近いコードブックベクトルVが決定され、ス
テップs1306において、各セルに対する上記最も近いコードブックベクトル
は、アレーtに記憶される。ステップs1307において、以前のデータアレー
tが存在するように以前のビデオフレームが符号化されているときは、ステップ
s1308は、現在のtアレーと前のtアレーとの間の差分を決定し、続いて、
ステップs1309において、更新アレーが生成される。次いで、ステップs1
310において、ステップs1309の更新アレーか又はアレーtの全体かのい
ずれかは、損失のある八分木の方法を用いて符号化される。この方法は、3Dア
レー(立方体)を取得し、それを、四分木に基づいた表現と同様の方法で再帰的
に分割する。ベクトルコードブック(V)/カラーマップは動的に変化させる
ことが随意であるので、このマッピング情報はまた、フレームからフレームへの
カラーマップの変化を反映するために更新される。これを実行するために、変化
されていない座標マッピングを表すインデックス値255と、3Dマッピングア
レーに対する更新値を表す他の値とを用いて、同様の条件を満たす方法が提案さ
れる。空間符号化器と同様に、処理は、カラーテーブル中への色空間のマッピン
グを符号化するために、予め順序付けられた八分木トラバーサル方法を用いる。
透明なリーフは、リーフによって示された色空間の領域が変化されていないこと
を表示し、インデックスのリーフは、セルの座標によって特定された色に対する
カラーテーブルのインデックスを含んでいる。八分木符号化器はツリーの最上位
(トップ)で開始し、各ノードに対し、ノードがリーフであるときは単一の1の
ビットを記憶し、又は、それが親であるときは0のビットを記憶する。それがリ
ーフであって、色空間の領域が変化されていないときは、もう1つの単一の0の
ビットが記憶され、そうでないときは、対応するカラーマップのインデックスが
、nビットの符号語として明示的に符号化される。ノードが親ノードであり0の
ビットが記憶されていたならば、8個の子ノードのそれぞれは、上述されたよう
に再帰的に記憶される。符号化器がツリーの最下位レベルに到達するとき、すべ
てのノードはリーフノードであり、リーフ/親の表示ビットは使われず、その代
わり、カラーインデックスの符号語によって後続される変化されていないビット
を最初に記憶する。最終的に、ステップs1311において、符号化された八分
木は、後置量子化データのために復号化器に送られ、ステップs1312におい
て、コードブックベクトルV/カラーマップが復号化器に送られ、こうして、
ステップs1313においてベクトル前置量子化処理を終了する。復号化器は、
図30のステップs1401で開始するフローチャートに示されたように、逆の
処理、すなわちベクトル後置量子化を実行する。ステップs1402において、
圧縮された八分木データが読み出され、ステップs1403において、復号化器
は、上述された2Dの四分木復号化処理におけるように、符号化された八分木か
ら3次元アレーを再生成する。次いで、ステップs1404で表されているよう
に、任意の24ビットの色値に対して、対応するカラーインデックスは、3Dア
レーに記憶されたインデックス値を単に参照することによって決定可能である。
ベクトル後置量子化処理はステップs1405で終了する。この技術は、任意の
非定常的な3次元データを単一の次元にマッピングすることに使用可能である。
このことは、通常、ベクトル量子化が用いられるときに、もとの複数の次元のデ
ータセットを表すことに用いられるコードブックを選択するための要件である。
処理の何のステージにおいてベクトル量子化が実行されるかは問題ではない。例
えば、われわれは、24ビットデータを直接に四分木符号化し、それに続いてV
Qすることができ、又は、われわれは、われわれがここでしているように、デー
タを最初にVQし、次いでその結果を四分木符号化することができる。この方法
の大きな利点は、異なる種類(heterogeneous)の環境において、それが、24
ビットデータを以下のようなクライアントに送信することを可能にすることにあ
る。すなわち、上記クライアントは24ビットデータを表示できるならばそうし
てもよいが、表示できなければ、前置量子化されたデータを受信してこれを適用
し、24ビットソースデータの、リアルタイムでの高品質の量子化を達成しても
よい。
【0198】 図18のシーン/オブジェクト制御データ構成要素14は、各オブジェクトが
、1つのビジュアルデータストリームと、1つのオーディオデータストリームと
、他の任意のデータストリームのうちの1つと関連付けられることを可能にする
。それはまた、各オブジェクトに対するさまざまなレンダリング及び表示パラメ
ータが、シーンにわたって時刻から時刻に動的に変更されることを可能にする。
これらは、オブジェクトの透明度、オブジェクトのスケール、オブジェクトのボ
リューム、3D空間におけるオブジェクトの位置、及び3D空間におけるオブジ
ェクトの方向(回転方向)を含む。
【0199】 圧縮されたビデオ及びオーディオデータは、一連のデータパケットとして、こ
こで送信されるか、又は後の送信のために記憶される。複数の異なるパケットタ
イプが存在する。各パケットは、共通のベースヘッダと、ペイロードとを含んで
いる。ベースヘッダは、パケットタイプと、ペイロードを含むパケット全体のサ
イズと、それが何のオブジェクトに関連するのかと、シーケンス識別子とを識別
する。以下のタイプのパケットが現在定義されている。すなわち、SCENED
EFN、VIDEODEFN、AUDIODEFN、TEXTDEFN、GRA
FDEFN、VIDEODAT、VIDEOKEY、AUDIODAT、TEX
TDAT、GRAFDAT、OBJCTRL、LINKCTRL、USERCT
RL、METADATA、DIRECTORY、VIDEOENH、AUDIO
ENH、VIDEOEXTN、VIDEOTRP、STREAMEND、MUS
ICDEFN、FONTLIB、OBJLIBCTRL、が定義されている。前
述されたように、定義パケット、制御パケット及びデータパケットの3つの主な
タイプのパケットが存在する。制御パケット(CTRL)は、個別のオブジェク
ト又は見られているシーンの全体のいずれかに対して、オブジェクトのレンダリ
ング変換と、オブジェクト制御エンジンによって実行されるべきアニメーション
及びアクションと、対話型のオブジェクトの振る舞いと、動的メディア合成(コ
ンポジション)のパラメータと、先行する任意のものを実行するか又は適用する
条件とを定義するために用いられる。データパケットは、各メディアオブジェク
トを構成する、圧縮された情報を含んでいる。フォーマット定義パケット(DE
FN)は、構成パラメータを各コーデックに伝送し、メディアオブジェクトのフ
ォーマットと、関連するデータパケットが解釈されるべき方法との両方を特定す
る。シーン定義パケットは、シーンのフォーマットを定義し、オブジェクトの数
を特定し、他のシーン特性を定義する。USERCTRLパケットは、ユーザ対
話を伝送し、バックチャンネルを用いてデータを遠隔のサーバに戻すことに用い
られ、METADATAパケットは、ビデオについてのメタデータを含み、DI
RECTORYパケットは、ビットストリーム中へのランダムアクセスを援助す
る情報を含み、STREAMENDパケットは、ストリームの境界を画定する。
【0200】 アクセス制御及び識別 オブジェクト指向ビデオシステムのもう1つの構成要素は、コンテンツのセキ
ュリティーのために、ビデオストリームを暗号化する/復号化(暗号化解除)す
るための手段である。暗号化解除を実行するための鍵は、RSA公開鍵システム
を用いてそれを符号化することによって、別個に、かつセキュリティーを保って
エンドユーザに伝送される。
【0201】 追加のセキュリティーの基準は、符号化されたビデオストリームにおいて、ユ
ニバーサルに固有のブランド/識別子を含むことである。これは、少なくとも4
つの主な形式を取る。 a.ビデオ会議のアプリケーションでは、符号化されたビデオストリームのすべ
てのインスタンスに対して単一の固有の識別子が適用される。 b.各ビデオデータストリーム中に複数のビデオオブジェクトを備えたビデオ・
オン・デマンド(VOD)のブロードキャストでは、各個別のビデオオブジェク
トは、特定のビデオストリームに対して固有の識別子を有する。 c.無線のウルトラシンクライアントのシステムは、無線ウルトラシンシステム
のサーバの符号化に用いられるものとしての符号化器のタイプを識別するととも
に、このソフトウェア符号化器の固有のインスタンスを識別する固有の識別子を
有する。 d.無線ウルトラシンクライアントシステムは、インターネットに基づいたユー
ザプロフィールの一致を調べて、関連付けられたクライアントユーザを決定する
ために、クライアント復号化器のインスタンスを一意に識別する固有の識別子を
有する。
【0202】 ビデオオブジェクトとデータストリームを一意に識別する能力は、特に有利で
ある。ビデオ会議のアプリケーションでは、遠隔会議(teleconference)のビデ
オデータストリームをモニタリングするか又はログを記録する本当の必要性(re
al need)は、どこで広告コンテンツが発生したか(それはVOD毎に一意に識
別される)ということを除いて存在しない。クライアント側の復号化器のソフト
ウェアは、復号化されて見られたビデオストリーム(識別子、継続時間)のログ
を記録する。リアルタイムか又は後続の同期化かのいずれかで、このデータはイ
ンターネットに基づいたサーバに伝送される。この情報は、市場の収益のストリ
ームとともに、クライアントの個人のプロフィールと関連した市場調査/統計を
生成するために用いられる。
【0203】 VODにおいて、復号化器は、セキュリティーの鍵によってイネーブルにされ
たときのみ、ブロードキャストのストリーム又はビデオを復号化するように制限
されることが可能である。イネーブルにすることは、インターネットに接続され
ているならばリアルタイムで実行されるか、又は、認証された支払いによって復
号化器をイネーブルにする手段を提供するインターネット認証/アクセス/課金
サービスプロバイダにアクセスしているときは、装置に係る以前の同期化で実行
されるかのいずれかが可能である。それに代わって、支払いは、以前に見られた
ビデオストリームに対してなされてもよい。ビデオ会議における広告ビデオスト
リームと同様に、復号化器は、閲覧する時間の長さとともに、VODに関連しか
つ符号化されたビデオストリームのログを記録する。この情報は、市場調査/フ
ィードバック及び支払いの目的で、インターネットサーバに伝送して戻される。
【0204】 無線ウルトラシンクライアント(NetPC)のアプリケーションでは、イン
ターネット又はそうでないものに基づいたコンピュータサーバからのビデオスト
リームの、リアルタイムの符号化、送信及び復号化は、符号化されたビデオスト
リームに固有の識別子を追加することによって達成される。クライアント側の復
号化器は、ビデオストリームを復号化するためにイネーブルにされる。クライア
ント側の復号化器をイネーブルにすることは、VODのアプリケーションにおけ
る認証された支払いに倣って生じるか、又は、無線NetPCの符号化されたビ
デオストリームに対するさまざまなレベルのアクセスを可能にする、安全な暗号
化鍵処理を用いて生じる。コンピュータサーバ符号化ソフトウェアは、複数のア
クセスレベルを容易化する。最も広い形式では、無線インターネット接続は、ク
ライアント復号化器ソフトウェアからコンピュータサーバに対してフィードバッ
クされる復号化器の確認(validation)によって、クライアント接続をモニタリ
ングするための機構を含む。これらのコンピュータサーバは、サーバアプリケー
ション処理のクライアントの使用と、従って料金とをモニタリングし、また、終
端のクライアントに対してストリーミングされた広告をモニタリングする。
【0205】 対話型オーディオビジュアルマークアップ言語(IAVML) このシステムの有力な構成要素は、スクリプトを記述することによって、オー
ディオビジュアルシーンのコンポジションを制御する能力にある。スクリプトに
関して、合成機能に対する制約は、スクリプト記述言語の制限によってのみ課さ
れている。この場合に用いられるスクリプト記述言語は、XML標準から派生し
たIAVMLである。IAVMLは、圧縮されたビットストリーム中に符号化さ
れたオブジェクト制御情報を特定するためのテキスト形式である。
【0206】 IAVMLは、いくつかの点でHTMLに類似しているが、特に、オーディオ
/ビデオのような、オブジェクト指向のマルチメディアの空間的−時間的な複数
の空間に対して用いられるように設計されている。それは、階層を含む、これら
の空間の論理的構造及びレイアウト構造を定義するために使用可能であり、それ
はまた、リンクを張ることと、アドレス割り当てをすることと、またメタデータ
とを定義するために使用可能である。このことは、5つの基本的なタイプのマー
クアップタグに対して、記述情報及び参照情報などを提供することを可能にする
ことによって達成される。これらは、システムタグ、構造定義タグ、表示フォー
マット形成、リンク、及びコンテンツである。HTMLのように、IAVMLは
大文字と小文字を区別せず、各タグは、注釈をつけられているテキストの部分を
囲むために用いられる開始形式及び終了形式となる。例えば、次のようになる。
【0207】
【数2】 <TAG>ここに何らかのテキスト</TAG>
【0208】 オーディオビジュアル空間の構造の定義は構造タグを用い、次のものを含む。
【0209】
【表2】 ―――――――――――――――――――――――――――――――――――― <SCENE> ビデオシーンを定義する <STREAMEND> シーン内のストリームの境界を画定する <OBJECT> オブジェクトのインスタンスを定義する <VIDEODAT> ビデオオブジェクトデータを定義する <AUDIODAT> オーディオオブジェクトデータを定義する <TEXTDAT> テキストオブジェクトデータを定義する <GRAFDAT> ベクトルオブジェクトデータを定義する <VIDEODEFN> ビデオデータフォーマットを定義する <AUDIODEFN> オーディオデータフォーマットを定義する <METADATA> 与えられたオブジェクトについての メタデータを定義する <DIRECTORY> ディレクトリオブジェクトを定義する <OBJCONTROL> オブジェクト制御データを定義する <FRAME> ビデオフレームを定義する ――――――――――――――――――――――――――――――――――――
【0210】 ディレクトリ及びメタデータタグと関連してこれらのタグによって定義される
構造は、オブジェクト指向ビデオビットストリームに対する柔軟性のあるアクセ
スと、オブジェクト指向ビデオビットストリームの閲覧(ブラウジング)とを可
能にする。
【0211】 オーディオビジュアルオブジェクトのレイアウトの定義は、オブジェクト制御
に基づくレイアウトタグ(レンダリングパラメータ)を用いることで、任意の与
えられたシーン内へのオブジェクトの空間的−時間的な配置を定義し、次のもの
を含む。
【0212】
【表3】 ―――――――――――――――――――――――――――――――――――― <SCALE> ビジュアルオブジェクトのスケール <VOLUME> オーディオデータのボリューム <ROTATION 3D空間におけるオブジェクトの方向 <POSITION> 3D空間におけるオブジェクトの位置 <TRANSPARENT> ビジュアルオブジェクトの透明度 <DEPTH> オブジェクトのZオーダーを変化させる <TIME> シーン中のオブジェクトの開始時刻 <PATH> 開始時刻から終了時刻までのアニメーションパス ――――――――――――――――――――――――――――――――――――
【0213】 オーディオビジュアルオブジェクトの表示の定義は、表示タグを用いてオブジ ェクトの表示(フォーマットの定義)を定義し、次のものを含む。
【0214】
【表4】 ―――――――――――――――――――――――――――――――――――― <SCENESIZE> シーンの空間的なサイズ <BACKCOLR> シーンの背景の色 <FORECOLR> シーンの前景の色 <VIDRATE> ビデオのフレームレート <VIDSIZE> ビデオフレームのサイズ <AUDRATE> オーディオのサンプルレート <AUDBPS> ビットにおけるオーディオサンプルサイズ <TXTFONT> 使用するテキストのフォントタイプ <TXTSIZE> 使用するテキストのフォントサイズ <TXTSTYLE> テキストのスタイル(太字、下線、斜体) ――――――――――――――――――――――――――――――――――――
【0215】 オブジェクトの振る舞い及びアクションのタグは、オブジェクト制御をカプセ
ル化し、次のタイプを含む。
【0216】
【表5】 ―――――――――――――――――――――――――――――――――――― <JUMPTO> 現在のシーン又はオブジェクトを置換する <HYPERLINK> ハイパーリンクの目標を設定する <OTHER> 制御の目標を他のオブジェクトに変更する <PROTECT> ユーザ対話を制限する <LOOPCTRL> オブジェクト制御をループさせる <ENDLOOP> ループ制御を終了する <BUTTON> ボタンアクションを定義する <CLEARWAITING> 待機アクションを終了する <PAUSEPLAY> ビデオを再生するか又はポーズする <SNDMUTE> 音のミュートをオン/オフする <SETFLAG> システムフラグを設定するか又はリセットする <SETTIMER> タイマ値を設定し計数を開始する <SENDFORM> システムフラグをサーバに送り返す <CHANNEL> 見られるチャンネルを変更する ――――――――――――――――――――――――――――――――――――
【0217】 ファイル内のハイパーリンク参照は、オブジェクトがクリックされることを可
能にし、このことが、定義されたアクションを呼び出す。
【0218】 現在のシーンを示すOTHERパラメータと新しいシーンを示すJUMPTO
パラメータとを用いて定義されたBUTTONタグ、OTHERタグ及びJUM
PTOタグを備えた複数のメディアオブジェクトを用いて、簡単なビデオメニュ
ーが作成可能である。背景のビデオオブジェクトを示すOTHERパラメータと
、置換するビデオオブジェクトを示すJUMPTOパラメータとを定義すること
によって、永続的なメニューが作成可能である。個別のオプションをディスエー
ブルにするか又はイネーブルにすることによってこれらのメニューをカスタマイ
ズするために、以下に定義されるさまざまな条件が使用可能である。
【0219】 2フレームビデオオブジェクトから作成された多数のチェックボックスを有す
るシーンを用いることによって、ユーザの選択を登録するための簡単なフォーム
が作成可能である。各チェックボックスのオブジェクトに対して、JUMPTO
タグとSETFLAGタグが定義される。JUMPTOタグは、オブジェクトに
対して、当該オブジェクトが選択されているか又は選択されていないかを示すた
めにどのフレーム画像が表示されるかを選択するために用いられ、表示されたシ
ステムフラグは、選択の状態を記録又は登録する。BUTTON及びSENDF
ORMによって定義されたメディアオブジェクトは、記憶又は処理のために、サ
ーバに当該選択を戻すために使用可能である。
【0220】 ブロードキャスト又はマルチキャストしている複数のチャンネルが存在しうる
場合、CHANNELタグは、ユニキャストモードの動作と、ブロードキャスト
又はマルチキャストモードとの間の遷移と、その逆とを可能にする。
【0221】 複数の振る舞い及びアクション(オブジェクト制御)がクライアントにおいて
実行される前に、それらの振る舞い及びアクションに対して複数の条件が適用さ
れてもよい。これらは、IAVMLにおいて、<IF>タグ又は<SWITCH
>タグのいずれかを用いることによって条件式を作成することにより適用される
。クライアントの条件は次のタイプを含む。
【0222】
【表6】 ――――――――――――――――――――――――――――――――――――
<PLAYING> ビデオは現在再生中か <PAUSED> ビデオは現在一時停止されているか <STREAM> 遠隔のサーバからのストリーミング <STORED> ローカル記憶装置からの再生 <BUFFERED> オブジェクトフレーム#はバッファリングされているか <OVERLAP> 何のオブジェクト上にドラグされる必要があるか <EVENT> 何のユーザイベントが発生する必要があるか <WAIT> われわれは条件が真になるまで待機するか <USERFLAG> 与えられたユーザフラグは設定されているか <TIMEUP> タイマは満了したか <AND> 式(expression)を生成するために用いられる <OR> 式(expression)を生成するために用いられる ――――――――――――――――――――――――――――――――――――
【0223】 動的メディア合成処理を制御するために遠隔のサーバにおいて適用されうる条
件は、次のタイプを含む。
【0224】
【表7】 ―――――――――――――――――――――――――――――――――――― <FORMDATA> ユーザはフォームデータを戻した <USERCTRL> ユーザ対話イベントが発生した <TIMEODAY> 与えられた時刻であるか <DAYOFWEEK> 何曜日か <DAYOFYEAR> 特別な日であるか <LOCATION> クライアントは地理的にどこにいるか <USERTYPE> ユーザの人口統計的な分類は <USERAGE> ユーザの年齢(範囲)は何歳か <USERSEX> ユーザの性別(M/F)は何か <LANGUAGE> 好ましい言語は何か <PROFILE> ユーザのプロフィールデータの他のサブクラス <WAITEND> 現在のストリームの終了まで待機する <AND> 式(expression)を生成するために用いられる <OR> 式(expression)を生成するために用いられる ――――――――――――――――――――――――――――――――――――
【0225】 あるIAVMLファイルは、一般に、1つ又はそれよりも多くのシーンと、1つ
のスクリプトとを有する。各シーンは、決定された空間的なサイズと、デフォル
トの背景色と、オプションの背景オブジェクトとを有するように、次の方法で定
義される。
【0226】
【表8】 ―――――――――――――――――――――――――――――――――――― <SCENE=“sceneone”> <SCENESIZE SX=“320”,SY=“240”> <BACKCOLR=“#RRGGBB”> <VIDEODAT SRC=“URL”> <AUDIODAT SRC=“URL”> <TEXTDAT>これは何らかのテキスト列である</a> </SCENE> ――――――――――――――――――――――――――――――――――――
【0227】 それに代わって、背景オブジェクトは前のように定義され、次いでシーン中で
宣言されるのみであってもよい。
【0228】
【表9】 ―――――――――――――――――――――――――――――――――――― <OBJECT=“backgrnd”> <VIDEODAT SRC=“URL”> <AUDIODAT SRC=“URL”> <TEXTDAT>これは何らかのテキスト列である</a> <SCALE=“2”> <ROTATION=“90”> <POSITION=XPOS=“50”YPOS=“100”> </OBJECT> <SCENE> <SCENESIZE SX=“320”,SY=“240”> <BACKCOLR=“#RRGGBB”> <OBJECT=“backgrnd”> </SCENE> ――――――――――――――――――――――――――――――――――――
【0229】 シーンは、任意の数の前景オブジェクトを含むことができる。
【0230】
【表10】 ―――――――――――――――――――――――――――――――――――― <SCENE> <SCENESIZE SX=“320”,SY=“240”> <FORECOLR=“#RRGGBB”> <OBJECT=“foregnd_object1”,PATH=“somepath”> <OBJECT=“foregnd_object2”,PATH=“someotherpath”> <OBJECT=“foregnd_object3”,PATH=“anypath”> </SCENE> ――――――――――――――――――――――――――――――――――――
【0231】 パスは、シーン中の各アニメーション化されたオブジェクトに対して定義され
る。
【0232】
【表11】 ―――――――――――――――――――――――――――――――――――― <PATH=somepath> <TIME START=“0”,END=“100”> <POSITION TIME=START,XPOS=“0”,YPOS=“100”> <POSITION TIME=END,XPOS=“0”,YPOS=“100”> <INTERPOLATION=LINEAR> </PATH> ――――――――――――――――――――――――――――――――――――
【0233】 IAVMLを用いると、コンテンツの作成者は、オブジェクト指向ビデオのた
めのアニメーションのスクリプトをテキストで作成することができ、動的メディ
ア合成及びレンダリングパラメータを条件付きで定義することができる。IAV
MLファイルの作成の後で、遠隔のサーバソフトウェアはIAVMLスクリプト
を処理してオブジェクト制御パケットを作成し、上記オブジェクト制御パケット
は、メディア再生器に伝送されるコンポジットビデオストリームに挿入される。
サーバはまた、IAVMLスクリプトを内部でも用いることで、ユーザ制御パケ
ットを介してクライアントから戻されたユーザ対話によって媒介された動的メデ
ィア合成の要求に対してどのように応答するかについて知る。
【0234】 ストリーミング誤り訂正プロトコル 無線ストリーミングの場合、ビデオデータが無線リンクを介して遠隔のモニタ
に信頼できるように伝送されることを保証するために、複数の適当なネットワー
クプロトコルが用いられる。これらは、TCPのように接続指向(コネクション
型)であってもよく、又はUDPのようにコネクションレス型であってもよい。
プロトコルの性質は、用いられている無線ネットワークの性質、帯域幅、及びチ
ャンネル特性に依存する。プロトコルは、以下の機能、すなわち、誤り制御、フ
ロー制御、パケット化、接続の確立、及びリンクの管理を実行する。
【0235】 これらの目的のために、データネットワークに対する使用のために設計された
多数の既存のプロトコルが存在する。しかしながら、ビデオの場合には、送信さ
れたデータの受信及び処理に対してビデオの性質によって課されたリアルタイム
であることの制約のため、障害を受けたデータの再送信は不適当であるので、誤
りを処理するために特別な注意が必要とされることがある。
【0236】 この状況を処理するために、次の誤り制御方法が提供される。 (1)ビデオデータのフレームは受信機に対して個別に送信され、そのそれぞれ
は、フレームが誤りを含むか否かを受信機が評価することを可能にするために添
付されたチェックサム又は巡回冗長検査を備え、 (2a)誤りが存在しなかったならば、フレームは通常どおりに処理され、 (2b)フレームが誤っているならば、当該フレームは廃棄され、誤ったビデオ
フレームの数を示す状態メッセージが送信機に送信され、 (3)そのような誤り状態メッセージを受信すると、ビデオの送信機は、すべて
の予測されたフレームの送信を停止し、代わりに、次の利用可能なキーフレーム
を受信機に向けて直ちに送信し、 (4)キーフレームを送信した後で、送信機は、もう1つの誤り状態メッセージ
が受信されるまで、通常のフレーム間符号化されたビデオフレームの送信を再開
する。
【0237】 キーフレームは、フレーム間符号化されたものではなく、フレーム内符号化の
みをされたビデオフレームである。フレーム間符号化では予測処理が実行され、
かつフレーム間符号化は、これらのフレームを、最新のキーフレームを含み、上
記キーフレームより後のすべての先行するビデオフレームに従属させる。キーフ
レームは、誤りが発生するときはいつも最初のフレームとして送信される。最初
のフレームは、フレーム間符号化に使用するための先行するフレームが存在しな
いので、キーフレームであることを必要とする。
【0238】 音声コマンド処理 無線装置は小型であるので、装置の操作とデータ処理のためにテキストのコマ
ンドを手動で入力する能力を備えることは難しい。装置のハンズフリーな(手を
使う必要がない)操作を達成するための可能な方法として、音声コマンドが提案
された。これは、多くの無線装置が、一般の自動音声認識(ASR)に必要とさ
れるよりもずっと低い、非常に低い処理パワーを有するので、問題を提示する。
このことの解決方法は、いずれの場合にせよサーバはすべてのユーザコマンドに
対してアクションを発生しているので、図31に示されたように、ユーザの発話
音声を装置上で取り込み、それを圧縮し、ASR及び実行のためにそれをサーバ
に送信することである。このことは、この複雑な処理を実行しなければならない
ことから装置を解放するので、装置は、その処理資源のほとんどを、任意のスト
リーミングするオーディオ/ビデオコンテンツの復号化及びレンダリングに全面
的に割り当てているだろう。この処理は図31のフローチャートによって示され
、ステップs1501で開始する。処理は、ステップs1502において、ユー
ザが装置のマイクロホンにコマンドを発話するときに開始される。ステップs1
503において、音声コマンドがディスエーブルにされているとき、音声コマン
ドは無視されて、処理はステップs1517で終了する。そうでないときは、ス
テップs1504で音声コマンドの発話音声が取り込まれて圧縮され、符号化さ
れたサンプルがステップs1505でUSERCTRLパケットに挿入され、ス
テップs1506において音声コマンドサーバに送信される。次いで、ステップ
s1507において、音声コマンドサーバは自動音声認識を実行し、ステップs
1508において、文字に変換された音声をコマンドのセットにマッピングする
。ステップs1509において、文字に変換されたコマンドが予め決められたも
のでないときは、ステップs1510において、文字に変換されたテスト列がク
ライアントに送信され、クライアントは、テキスト列を適当なテキストフィール
ドに挿入する。(ステップs1509において)文字に変換されたコマンドが予
め決められたものであったときは、ステップs1512において、コマンドのタ
イプ(サーバ又はクライアント)がチェックされる。コマンドがサーバコマンド
であるときは、ステップs1513において、それはサーバに送信され、ステッ
プs1514において、サーバはコマンドを実行する。コマンドがクライアント
コマンドであるときは、ステップs1515において、コマンドはクライアント
装置に戻され、ステップs1516において、クライアントはコマンドを実行し
、ステップs1517で音声コマンド処理を終了する。
【0239】 アプリケーション ウルトラシンクライアント処理及び計算サーバ 任意の種類の遠隔のコンピュータを他の任意の種類の個人の携帯型計算装置か
ら制御する手段としてウルトラシンクライアントを用いることによって、仮想的
な計算ネットワークが作成される。この新しいアプリケーションでは、ユーザの
計算装置はデータ処理を実行しないが、仮想的な計算ネットワークへのユーザイ
ンターフェースとして動作する。すべてのデータ処理は、ネットワーク中に配置
された計算サーバによって実行される。端末は、せいぜい、実際のユーザインタ
ーフェースの表示を含む、すべての出力を復号化することとすべての入力データ
を符号化することとに制限されている。アーキテクチャーにおいて、到来するデ
ータストリームと発信するデータストリームとは、ユーザ端末内で完全に独立し
ている。出力されるデータ又は表示されるデータに対する制御は計算サーバにお
いて実行され、ここで、入力データが処理される。従って、グラフィカルユーザ
インターフェース(GUI)は、2つの別個のデータストリーム、すなわち、入
力と、ビデオである出力表示構成要素とに分解される。入力されるストリームは
コマンドシーケンスであって、上記コマンドシーケンスは、ASCII文字とマ
ウス又はペンのイベントとの組み合わせでありうる。大部分は、表示データを復
号化してレンダリングすることはそのような端末の主な機能を備え、複雑なGU
Iディスプレイがレンダリングされることが可能である。
【0240】 図32は、無線LAN環境で動作するウルトラシンクライアントシステムを示
す。このシステムは、CDMA、GSM、PHS、又は他の同様なネットワーク
を介するような無線WAN環境内で同等に動作できる。無線LAN環境のシステ
ムでは、300メートルの室内から1kmの屋外までの範囲が典型的である。ウ
ルトラシンクライアントは、信号を受信するための無線ネットワークカード及び
アンテナを備えた個人情報端末又はパームトップコンピュータである。無線ネッ
トワークカードは、PCMCIAスロット、コンパクトフラッシュポート、又は
他の手段を介して、上記個人情報端末にインターフェースで接続される。計算サ
ーバは、インターネットか、又は無線LANの能力を備えた構内ネットワークに
接続され、GUIを実行する任意のコンピュータであることができる。計算サー
バシステムは、GUIを実行するプログラム(11001)を備え、上記GUI
を実行するプログラム(11001)は、複数のプログラム出力に対するクライ
アントの応答(11007)によって制御され、上記プログラム出力は、プログ
ラム出力ビデオ変換器(11002)を用いて読み出されて符号化されたオーデ
ィオ及びGUI表示を含む。遠隔の制御システム(11012)へのGUI表示
の伝送は、11002内の最初のビデオ符号化によって達成されることが可能で
あり、上記11002内の最初のビデオ符号化は、OOビデオ符号化(1100
4)を用いることで、GUIスクリーン読み出し(11003)を用いて取り込
まれたGUI表示と、オーディオ読み出し(11014)を用いて取り込まれた
任意のオーディオとを、前述された処理を用いて圧縮されたビデオに変換して符
号化し、それをウルトラシンクライアントに送信する。GUI表示は、GUIス
クリーン読み出し(11003)を用いて取り込まれることが可能であり、上記
GUIスクリーン読み出し(11003)は、マイクロソフトウィンドウズNT
における CopyScreenToDIB() のように、多くのオペレーティングシステムにお
いて標準的な機能である。ウルトラシンクライアントは、圧縮されたビデオをT
x/Rxバッファ(11008及び11010)を介して受信し、それを、OO
ビデオ復号化(11011)を用いて復号化した後で、GUI表示及び入力(1
1009)を用いてユーザディスプレイに対して適当にレンダリングする。任意
のユーザ制御データは、計算サーバに送信して戻され、ここで、それは、ウルト
ラシンクライアント対GUI制御の解釈(11006)によって解釈され、プロ
グラムGUI制御の実行(11005)によってGUIを実行するプログラム(
11001)を制御するために用いられる。このことは、新しいプログラムを実
行することと、プログラムを終了することと、オぺレーティングシステムの機能
と(複数の)プログラムを実行することに関連付けられた他の任意の機能とを実
行することとの能力を含む。この制御はさまざまに作用されることがあり、MS
ウィンドウズNTの場合には、Hooks/JournalPlaybackFunc() が使用可能である
【0241】 より長距離のアプリケーションに対しては、図33のWANシステムが好まし
い。この場合は、計算サーバは、標準的な電話のインターフェースに直接に接続
されている。送信(11116)は、CDMA、PHS、GSM、又は同様のセ
ルラー電話のネットワークを介して信号を送信するためのものである。この場合
のウルトラシンクライアントは、電話機に接続されたモデム、すなわちハンドセ
ット及びモデム(11115)を備えた個人情報端末を含む。このWANシステ
ムの構成では、他のすべての態様は図32で説明されたものと同様である。この
システムの変形例では、PDAと電話機とは、単一の装置内に統合化される。こ
のウルトラシンクライアントシステムの1つの例では、携帯装置は、CDMA、
PHS、又はGSMのような標準的な携帯電話ネットワークの到達範囲内までの
任意の場所から、計算サーバに対する完全なアクセスを有している。携帯電話機
を不要にする、このシステムのケーブルで接続されたバージョンが用いられても
よく、ウルトラシン計算装置は、標準的なケーブルで接続された電話ネットワー
クにモデムを介して直接に接続される。
【0242】 計算サーバは、図34に示されたように、遠隔の場所に配置され、イントラネ
ット又はインターネット(11215)を介してローカル無線送信機/受信機(
11216)に接続されてもよい。このウルトラシンクライアントのアプリケー
ションは、インターネットに基づいた仮想的計算システムが現れるコンテクスト
において特に関連がある。
【0243】 リッチオーディオビデオユーザインターフェース ビットストリームに挿入されるオブジェクト制御データが存在しないウルトラ
シンクライアントシステムでは、クライアントは、単一のビデオオブジェクトを
ディスプレイにレンダリングすることのほかに処理を実行しなくてもよく、すべ
てのユーザ対話を処理のためにサーバに戻す。このアプローチは、遠隔で実行す
る処理のグラフィカルユーザインターフェースにアクセスするために使用可能で
ある一方、それは、ローカルで実行する処理のためのユーザインターフェースを
作成するためには適当でないことがある。
【0244】 DMC及び対話エンジンの、オブジェクトに基づいた能力が与えられていると
き、このシステム全体とそのクライアント−サーバモデルは、リッチオーディオ
ビジュアルユーザインターフェースのコアとして用いることに特に適当である。
大部分は静的なアイコンと矩形のウィンドウとの概念に基づいた典型的なグラフ
ィカルユーザインターフェースとは異なり、当該システムは、対話されることが
可能な複数のビデオ及び他の複数のメディアオブジェクトを用いてリッチユーザ
インターフェースを作成することで、ローカル装置又は遠隔のプログラム実行の
いずれかを容易化することができる。
【0245】 複数の参加者の無線ビデオ会議処理 図35は、2つ又はそれよりも多くの無線クライアント電話装置を必要とする
、複数の参加者(multipart)の無線ビデオ会議システムを示す。このアプリケ
ーションにおいて、2人又はそれよりも多くの参加者は、彼らの間で多数のビデ
オ通信リンクを構成することができる。集中化された制御機構は存在せず、各参
加者は、複数の参加者の会議において何のリンクを活性化すべきかを決定するこ
とができる。例えば、人物A,B,Cからなる3人の人物の会議において、リン
クは、人物ABとBCとAC間に形成されてもよく(3つのリンク)、又はそれ
に代わって、ABとBCには形成されるが、ACには形成されなくてもよい(2
つのリンク)。このシステムでは、中央のネットワーク制御は必要とされず、各
リンクは個別に管理されるので、各ユーザは、彼らが好むだけ多くの同時に存在
するリンクを異なる複数の参加者に対して構成することができる。各新しいビデ
オ会議のリンクに係る到来するビデオデータは新しいビデオオブジェクトストリ
ームを形成し、上記ビデオオブジェクトストリームは、到来するビデオデータに
関連するリンクに接続された各無線装置のオブジェクト指向ビデオ復号化器に供
給される。このアプリケーションでは、オブジェクトビデオ復号化器(オブジェ
クト指向ビデオ復号化11011)は、表示されているビデオオブジェクトの数
に基づき、レイアウトのルールに従って各ビデオオブジェクトがレンダリングさ
れる(11303)表示(プレゼンテーション)モードで実行される。ビデオオ
ブジェクトのうちの1つは、現在アクティブであるものとして識別されることが
可能であり、このオブジェクトは、他のオブジェクトよりも大きいサイズでレン
ダリングされてもよい。どのオブジェクトが現在アクティブであるかについての
選択は、最大の音響エネルギー(音の大きさ/時間)を有するビデオオブジェク
トに基づく自動的手段を用いることと、ユーザにより手動でされることとのいず
れかで実行される。クライアントの電話装置(11313,11311,113
10,11302)は、個人情報端末、ハンドヘルドパーソナルコンピュータ、
(ノートブック型及びデスクトップ型のPCのような)個人の計算装置、及び無
線電話機の送受話器(ハンドセット)を含む。クライアントの電話装置は、信号
を送受信するための無線ネットワークカード(11306)とアンテナ(113
08)を含むことができる。無線ネットワークカードは、PCMCIAスロット
、コンパクトフラッシュポート、又は他の接続インターフェースを介して、クラ
イアントの電話装置にインターフェースで接続される。無線電話機の送受話器は
、PDAの無線接続(11312)のために使用可能である。リンクは、LAN
/イントラネット/インターネット(11309)をわたって確立されることが
可能である。各クライアントの電話装置(例えば11302)は、ディジタルビ
デオ取り込みのためのビデオカメラ(11307)と、オーディオ取り込みのた
めの1つ又はそれよりも多くのマイクロホンとを含むことができる。クライアン
トの電話装置は、取り込まれたビデオ及びオーディオ信号を、前述された処理を
用いて圧縮するためのビデオ符号化器(OOビデオ符号化11305)を含み、
次いで、上記ビデオ及びオーディオ信号は、1つ又はそれよりも多くの他のクラ
イアントの電話装置に送信される。ディジタルビデオカメラは、ディジタルビデ
オを取り込み、それを圧縮及び送信のためにクライアントの電話装置に送るだけ
でもよく、あるいは、それはまた、VLSIハードウェアチップ(ASIC)を
用いてビデオ自体を圧縮し、符号化されたビデオを送信のために電話装置に送っ
てもよい。特定のソフトウェアを含んでいるクライアントの電話装置は、圧縮さ
れたビデオ及びオーディ信号を受信し、それらを、前述された処理を用いて、ユ
ーザディスプレイ及びスピーカ出力に対して適当にレンダリングする。この実施
形態はまた、前述された対話型オブジェクト操作の処理を用いた、クライアント
の電話装置上での直接のビデオの操作又は広告を含み、上記直接のビデオの操作
又は広告は、上と同様の手段を用いて、同じビデオ会議に参加している他のクラ
イアントの電話装置に反映される(GUIディスプレイ上に複製される)ことが
可能である。この実施形態は、他のクライアントの電話装置の遠隔制御を提供す
るように、複数のクライアントの電話装置の間でユーザ制御データを送信するこ
とを含んでもよい。任意のユーザ制御データは、適当なクライアントの電話装置
に送信して戻され、ここで、それは解釈されて、次いでローカルなビデオ画像と
他のソフトウェア及びハードウェア機能を制御するために用いられる。ウルトラ
シンクライアントシステムのアプリケーションの場合におけるように、使用可能
なさまざまなネットワークインターフェースが存在する。
【0246】 目標を定められた画像内ユーザ広告を含む対話型アニメーション又はビデオ・オ
ン・デマンド 図36は、目標を定められたユーザビデオ広告を含む対話型ビデオ・オン・デ
マンドシステムのブロック図である。このシステムでは、サービスプロバイダ(
例えば、ライブニュース、ビデオ・オン・デマンド(VOD)のプロバイダなど
)は、ビデオデータストリームを個別の加入者にユニキャストするか、又はマル
チキャストする。ビデオ広告は、個別に発生(source)されることが可能な複数
のビデオオブジェクトを含むことができる。ビデオ復号化器の1つの例において
、小さなビデオ広告オブジェクト(11414)は、復号化器(11404)に
伝送されているビデオストリーム中に動的に合成されて、特定の時刻に見られて
いるシーン中にレンダリングされる。このビデオ広告オブジェクトは、予めダウ
ンロードされて装置上のライブラリ(11406)に記憶された広告から変化さ
れるか、又は、ビデオオブジェクトオーバーレイ(11408)を用いて動的メ
ディア合成可能なオンラインビデオサーバ(例えば、ビデオ・オン・デマンドサ
ーバ11407)を介して、遠隔の記憶装置(11412)からストリーミング
されるかのいずれかが可能である。このビデオ広告オブジェクトは、クライアン
トの所有者の(加入者の)プロフィール情報に基づいて、クライアント装置(1
1402)に対して特に目標を定められることが可能である。加入者のプロフィ
ール情報は、オンラインサーバライブラリ(11413)に記憶されるか又はク
ライアント装置上にローカルに記憶されるように、複数のロケーションに記憶さ
れた複数の構成要素を有することができる。目標を定められたビデオに基づく広
告に対して、ビデオストリームに対するフィードバック及び制御機構と、それを
見ることとが用いられている。サービスプロバイダ又はもう1つの参加者は、圧
縮されたビデオストリームを記憶するビデオサーバ(11412)を保持して動
作させることができる。加入者がビデオサーバから番組を選択するとき、プロバ
イダの送信システムは、加入者のプロフィールデータベース(11413)より
取得された情報から何の販売促進又は広告データが適用可能であるかを自動的に
選択する。上記加入者のプロフィールデータベース(11413)は、加入者の
年齢、性、地理的場所、加入の履歴、個人的な選好、購入の履歴などを含むこと
ができる。単一のビデオオブジェクトとして記憶されることが可能な広告データ
は、次に、要求されたビデオデータとともに送信データストリームに挿入され、
ユーザに送信されることが可能である。個別の(複数の)ビデオオブジェクトが
存在するとき、次に、ユーザは、(複数の)広告ビデオオブジェクトに対して、
そのオブジェクト上の表示/ディスプレイプロパティを調整することによって対
話することができ(ユーザは(複数の)広告ビデオオブジェクトに対してクリッ
クするか又はドラグすることなどによって対話することもできる。)、それによ
って、サービスプロバイダ又は広告オブジェクトプロバイダによって決定された
ような、広告ビデオオブジェクトに関連付けられた何らかの機能を活性化するこ
とをユーザが希望していることを示すメッセージをビデオサーバに送り返すこと
ができる。この機能は、単に、広告主からの別の情報に対する要求を必要として
広告主に対してビデオ/電話の呼び出しをし、セールスクーポン処理を開始し、
接近性に基づいたトランザクション、又は他の何らかの形式の制御を開始しても
よい。広告することに加えて、この機能は、他の利用可能なチャンネルのような
追加のビデオオファリングを販売促進するためにサービスプロバイダによって直
接に用いられてもよく、上記ビデオオファリングは、小さな移動するアイコンの
画像として広告されてもよい。この場合、そのようなアイコンをクリックするユ
ーザのアクションは、加入者に送られている最初のビデオデータを変化させるた
めに、又は追加のデータを送信するためにプロバイダによって用いられることが
ある。複数のビデオオブジェクトデータストリームは、ビデオオブジェクトオー
バーレイ(11408)によって、各クライアントに送信される最終的なコンポ
ジットビデオデータストリームに結合されることが可能である。結合される個別
のビデオオブジェクトストリームのそれぞれは、ビデオ販売促進選択(1140
9)によって、上述のようにリアルタイムでか又は予め処理された符号化(ビデ
オ符号化11411)でかのいずれかで、他のビデオサーバ、ウェブカメラ(1
1410)又は計算サーバのような複数の異なる遠隔のソースからインターネッ
トを介して検索されることが可能である。再び、ウルトラシンクライアント及び
ビデオ会議の他のシステムアプリケーションにおけるように、さまざまな好まし
いネットワークインターフェースが使用可能である。
【0247】 画像内広告の1つの実施形態において、ビデオ広告オブジェクトは、図37に
示されたように、ユーザによって選択されたときに次のうちの1つを実行できる
ボタンのように動作するようプログラムされてもよい。 ・見られているビデオシーンを、広告されている製品についてさらに情報を提供
する新しいシーンにジャンプさせるか、又はオンラインの電子商取引がイネーブ
ルにされた店にジャンプさせることによって、当該見られているビデオシーンを
即時に変化させる。例えば、“ビデオチャンネル”を変化させることが使われて
もよい。 ・オブジェクトを、広告されている製品についてさらに情報を提供するもう1つ
のものと置換することによって、ビデオ広告オブジェクトを、サブタイトルのよ
うなストリーミングテキスト情報に即時に変化させる。これは、表示されている
シーン中の他のどのビデオオブジェクトにも影響しない。 ・ビデオ広告オブジェクトを除去し、ユーザが広告を選択したことを示すシステ
ムフラグを設定し、ここで、現在のビデオは終わりまで通常どおりに再生され、
次いで、示された広告の目標にジャンプする。 ・将来の非同期の追跡(フォローアップ)情報のために提供されている製品に対
する関心(インタレスト)を登録するメッセージをサーバに送り返す。上記提供
されている製品は、電子メール又は追加のストリーミングビデオオブジェクトな
どを介することができる ・ビデオ広告オブジェクトがブランディング(ブランドを印象付けること)の目
的のためだけに用いられているところでは、オブジェクトをクリックすることは
、その不透明さの状態を切り換えてそれを半透明にするか、あるいは、それが、
3Dで回転するか又は円形のパスで移動するような予め決められたアニメーショ
ンを実行することを可能にすることができる。
【0248】 ビデオ広告オブジェクトを用いるもう1つの方法は、携帯スマート電話機のユ
ーザに係るパケットの課金又は呼の課金に対して、次のことによって補助金を払
うことである。 ・スポンサーについて無条件の呼に対して、所定のスポンサーのビデオ広告オブ
ジェクトを呼の間又は呼の終わりに自動的に表示する。 ・呼の前、間、又は後に対話型ビデオオブジェクトを表示し、上記呼は、ユーザ
がオブジェクトと何らかの対話を行うときに、補助金(スポンサーシップ)を提
供する。
【0249】 図37は、当該システムである画像内広告の1つの実施形態を示している。画
像内広告のセッションが開始されるとき(ストリーム内広告開始S1601)、
オーディオビジュアルストリームに対する要求(サーバにAVデータストリーム
を要求するS1602)が、クライアント装置(クライアント)からサーバの処
理に送られる。サーバの処理(サーバ)は、クライアント装置上でローカルに存
在するか、又はオンラインサーバ上で遠隔して存在することができる。上記要求
に応答して、サーバは、要求データをクライアントにストリーミングすることを
開始する(S1603)。ストリーミングデータがクライアントによって受信さ
れている一方で、それはデータストリームをレンダリングするための複数の処理
を実行し、ユーザ対話を受けてそれに応答する。ゆえに、クライアントは、現在
のAVストリーミングが終端に達したということを、受信されたデータが示すか
否かをチェックして調べる(S1604)。このことが真であり、かつ、終了し
たばかりの現在のストリームを完了している間に、ストリーミングされるべき他
のキューイングされたAVデータストリームが存在しない限りにおいて(S16
05)、画像内広告のセッションは終了可能である(S1606)。キューイン
グされたAVデータストリームが存在するときは、サーバは新しいAVデータス
トリームのストリーミングを開始する(S1603に戻る)。AVストリームの
終端に達していない(S1604−NO)ようなデータストリームのストリーミ
ングの処理中に、現在の広告オブジェクトがストリーミングされていないならば
、サーバは、ロケーション、ユーザプロフィールなどを含む複数のパラメータに
基づいて、(複数の)新しい広告オブジェクトを選択して(S1608)AVス
トリームに挿入することができる(S1609)。サーバが、AVデータストリ
ームのストリーミングの処理中であって、広告オブジェクトが選択されてAVス
トリームに挿入されているならば、クライアントは、ビットストリームを前述さ
れたように復号化して、複数のオブジェクトをレンダリングする(S1610)
。AVデータストリームが継続する一方で、画像内広告ストリームは、クライア
ントの対話、サーバの介入、又は広告ストリームの終了を含むさまざまな理由に
よって終了してもよい(S1611)。画像内広告ストリームが終了したとき(
S1611−YES)、新しい画像内広告の再選択がS1608で発生してもよ
い。AVデータストリームと画像内広告ストリームが継続しているとき(S16
11−NO)、クライアントは、広告オブジェクトとの任意の対話を取得する。
ユーザがオブジェクトをクリックするとき(S1612−YES)、クライアン
トはサーバに通知を送る(S1613)。サーバの動的メディア合成プログラム
のスクリプトは、何のアクションが応答として実行されるべきかを定義する。こ
れらは、アクションなし、遅延された(延期された)アクション、又は即時のア
クションを含む(S1614)。アクションなしの場合(S1614−NONE
)には、サーバは将来の(オンライン又はオフラインの)フォローアップアクシ
ョンのためにこの事実を登録することができ(S1619)、このことは、同様
の広告又はフォローアップ広告の目標を定めるために使用可能なユーザプロフィ
ール情報の更新を含むことができる。遅延されたアクションの場合(S1614
−延期)には、実行されるアクションは、S1619に着手されることによって
フォローアップのために登録すること(S1619)、又は、現在のAVデータ
ストリームの終了の間に、ストリーミングのために新しいAVデータをキューイ
ングすること(S1618)を含みうる。サーバがクライアント装置上にある場
合には、これは、キューイングされて、装置が次にオンラインサーバに接続され
たときにダウンロードされてもよい。遠隔のオンラインサーバの場合には、現在
のAVストリームが完了されるとき、次いで、キューイングされたストリームを
再生する(S1605−YES)。即時のアクションの場合には(S1614−
即時)、広告オブジェクトに添付された制御情報に基づいて多数のアクションが
実行可能であり、上記アクションは、現在の広告オブジェクトに対するアニメー
ションパラメータを変化させること(S1615−アニメーション)と、(複数
の)現在の広告オブジェクトを置換すること(S1615−広告)と、現在のA
Vデータストリームを置換すること(S1617)とを含む。アニメーション要
求の変化(S1615−アニメーション)は、変形(translation)又は回転と
、透明度などのような、オブジェクトに対するレンダリングの変化を結果的にも
たらすことができる(S1620)。このことは、(s1619)によって後の
フォローアップのために登録される。広告オブジェクト変化の要求の場合(S1
615−広告)には、新しい広告オブジェクトが以前のように選択可能である(
S1608)。
【0250】 もう1つの実施形態において、このビデオシステムの動的メディア合成の能力
は、閲覧者らが彼らのコンテンツをカスタマイズすることを可能にするために用
いられてもよい。1つの例は、多数のキャラクターのうちの1つから、筋書きの
中の主役のキャラクターとなるものを選択できることである。アニメーション化
された漫画に係る1つのそのような場合において、閲覧者は、男性又は女性のキ
ャラクターから選択することができる。この選択は、オンラインの複数の参加者
のエンターテインメント等のための共有されたキャラクターのセットから対話に
よって実行されてもよく、又は記憶されたユーザプロフィールに基づいてもよい
。男性のキャラクターを選択することは、男性のキャラクターのオーディオビジ
ュアルメディアオブジェクトをビットストリーム中に合成させ、女性のキャラク
ターのそれと置換させる。もう1つの例では、単に固定されたプロットのための
主役のキャラクターを選択するよりはむしろ、閲覧中に、次のどのシーンにジャ
ンプして表示するかを選択することのような、筋書きを変更する選択を行うこと
によりプロット自体が変化されることができる。任意の与えられた時点で、多数
の代替となるシーンが利用可能でありうる。選択は、以前の選択、選択されたビ
デオオブジェクト、及びビデオが存在する筋書き内の位置のようなさまざまな機
構によって制約されることがある。
【0251】 サービスプロバイダは、ビデオ素材へのユーザ認証及びアクセス制御と、コン
テンツの消費量の測定と、使用量の課金とを提供することができる。図41は、
すべてのユーザがサービス(例えば、コンテンツサービス)へのアクセスを提供
される前に、彼らが関連の認証/アクセスプロバイダ(11507)に対して登
録することができる1つの実施形態に係るシステムを示す。認証/アクセスサー
ビスは、各ユーザに対する‘固有の識別子’及び‘アクセス情報’(11506
)を作成することができる。固有の識別子は、クライアントがオンラインのとき
(例えば、サービスへの最初のアクセス)、ローカルな記憶のためにクライアン
ト装置(11502)に自動的に転送されることが可能である。ユーザらによる
、ビデオコンテンツプロバイダ(11511)を介した、記憶されたビデオコン
テンツ(11510)に対する後に続くすべての要求は、クライアントシステム
のユーザ識別子を用いて制御されることが可能である。1つの使用例では、ユー
ザは、彼らの固有の識別子の認証によって当該ユーザに対してコンテンツにアク
セスすることをイネーブルにする標準的な加入料金を請求されることが可能であ
る。それに代わって、ペイパービューの状況において、課金情報(11508)
は、使用を通じて収集されることが可能である。測定値のような使用についての
情報は、コンテンツプロバイダ(11511)によって記録され、1つ又はそれ
よりも多くの課金サービスプロバイダ(11509)及びアクセスブローカ/測
定プロバイダ(11507)に供給されることが可能である。異なるレベルのア
クセスが、異なるユーザと異なるコンテンツに対して許可されることが可能であ
る。前述のシステムの実施形態によれば、無線アクセスは複数の方法で達成可能
であり、図41は、クライアント装置(11502)がTx/Rxバッファ(1
1505)を介してローカル無線送信機(11513)にアクセスする1つの例
を示し、上記ローカル無線送信機(11513)は、LAN/イントラネット又
はインターネットの接続(11513)を介してサービスプロバイダへのアクセ
スを提供するが、なお無線WANのアクセスを除外するものではない。クライア
ント装置は、コンテンツへのアクセス権を獲得するために、アクセスブローカ/
測定(11507)とリアルタイムで連携してもよい。符号化されたビットスト
リームは、11504によって前述のように復号化され、前述のようにクライア
ントの対話が可能になっているとき、スクリーンにレンダリングされることが可
能である。アクセス制御及び/又は課金サービスプロバイダは、ユーザ使用プロ
フィールを保持することができて、上記ユーザ使用プロフィールは、次に、広告
/販売促進の目的で第三者に販売されるかライセンスを出されてもよい。課金及
び使用の制御を実装するために、前述のように適当な暗号化方法が使用可能であ
る。これに加えて、前述したように、符号化されたビデオを一意にブランディン
グする/識別するための処理が使用可能である。
【0252】 ビデオ広告パンフレット 図38に示されたように、対話型ビデオファイルが任意の時刻にオフライン又
はオンラインで見られることが可能であるように、当該対話型ビデオファイルが
装置にストリーミングされるよりはむしろダウンロードされてもよい。ダウンロ
ードされたビデオファイルは、前述のオンラインストリーミング処理によって提
供されたすべての対話と複数の動的メディア合成の能力とをなお保存する。ビデ
オパンフレット(video brochures)は、メニューと、広告オブジェクトと、さ
らに、複数のユーザ選択及びフィードバックを登録するフォームをも含むことが
できる。唯一の違いは、ビデオパンフレットはオブラインで見られることがある
ので、ビデオオブジェクトに添付されたハイパーリンクが装置上に位置していな
い新しい目標を指示できないことにある。この状況では、クライアント装置は、
装置上のデータからサービスされることができないすべてのユーザ選択を記憶し
、次に装置がオンラインになるか又はPCと同期化されるときにこれらを適当な
遠隔のサーバに伝送することができる。この方法で伝送されたユーザ選択は、別
の情報を提供すること、要求されたシーンをダウンロードすること、又は要求さ
れたURLにリンクすることのようなさまざまなアクションを実行させる。対話
型ビデオパンフレットは、対話型広告パンフレットと、企業の訓練コンテンツと
対話型エンタテインメントと、品物及びサービスの対話型のオンライン及びオフ
ラインの購入のような多くのコンテンツタイプに対して使用可能である。
【0253】 図38は、対話型ビデオパンフレット(Interactive Video Brochures;IV
B)の1つの可能な実施形態を示す。この例において、IVB(SKYファイル
)データファイルは、要求を受けて(サーバからのプル)、又はスケジュールに
従って(サーバからのプッシュ)(S1701)、クライアント装置にダウンロ
ードされることが可能である(S1702)。ダウンロードは、デスクトップP
Cとの同期化を用いて無線で発生するか、あるいは、コンパクトフラッシュ又は
メモリスティックのようなメディア記憶装置の技術で分配されて発生するかのい
ずれかが可能である。クライアント再生器は、(前述のように)ビットストリー
ムを復号化し、IVBからの最初のシーンをレンダリングする(S1703)。
再生器がIVBの終わりに達するとき(S1705−YES)、IVBは終了す
る(S1708)。再生器がIVBの終わりに達していないときは、それは(複
数の)シーンをレンダリングし、すべての無条件のオブジェクト制御アクション
を実行する(S1706)。ユーザは、オブジェクト制御によって定義されたよ
うに、オブジェクトと対話することができる。ユーザがオブジェクトと対話しな
いとき(S1707−NO)、再生器はデータファイルからの読み出しを継続す
る(S1704)。ユーザがシーン内のオブジェクト対話し(S1707−YE
S)かつオブジェクト制御アクションがフォーム操作の提出を実行するものであ
ったとき(S1709−YES)、ユーザがオンラインであるならば(S171
2−YES)フォームデータはオンラインサーバに送信されることが可能である
が(S1711)、そうではなくオフラインならば(S1712−NO)、フォ
ームデータは、後に装置がオンラインに戻ったときのアップロードのために記憶
されることが可能である(S1715)。オブジェクトの制御アクションが、あ
る場所にジャンプする振る舞いであり(S1713−YES)、制御が、新しい
シーンへのジャンプを指定したときは、再生器は、データファイルにおいて新し
いシーンのロケーションを探索し(S1710)、そこからのデータの読み出し
を継続することができる。制御がもう1つのオブジェクトへのジャンプを指定し
たときは(S1714−オブジェクト)、これは、データファイルに記憶された
ようなシーン中の正しいデータストリームにアクセスすることによって、目標の
オブジェクトを置換させてレンダリングさせることができる(S1717)。オ
ブジェクトの制御アクションがオブジェクトのアニメーションパラメータを変化
させるものであったときは(S1716−YES)、オブジェクトのアニメーシ
ョンパラメータは、オブジェクト制御によって特定されるパラメータに依存して
更新されるか又は動作されることが可能だろう(S1718)。オブジェクトの
制御アクションがオブジェクトに対して他の何らかの動作を実行するものであっ
て(S1719−YES)、制御によって特定されるすべての条件が満たされて
いるときは(S1720−YES)、制御動作が実行される(S1721)。選
択されたオブジェクトが制御動作を持たないときは(s1719−NO又はs1
720−NO)、再生器はビデオシーンの読み出しとレンダリングを継続するこ
とができる。これらの場合の任意のものにおいて、アクションの要求はログを記
録されることが可能であり、通知は、オフラインのときは後にサーバにアップロ
ードするために記憶され、オンラインのときはサーバに直接に転送されることが
可能である。
【0254】 図39は、広告及び購入のアプリケーションのための対話型ビデオパンフレッ
トの1つの実施形態を示す。図示された例は、オンライン購入のためのフォーム
と、選択肢を見るためのコンテンツを含む。IVBが選択され、再生が開始され
る(S1801)。図示されたように複数のオブジェクト(S1803、ビデオ
オブジェクトA、ビデオオブジェクトB、ビデオオブジェクトC)にてなること
が可能な導入シーンを再生することができる(S1802)。すべてのビデオオ
ブジェクトは、添付されたそれらの制御データによって定義されたさまざまなレ
ンダリングパラメータのアニメーションを有することができ、例えば、A、B及
びCは、主たる閲覧するオブジェクトがレンダリングされ始めた後で右手側から
登場することができる(S1804)。ユーザは、任意のオブジェクトと対話し
、オブジェクト制御アクションを開始することができ、例えば、ユーザは、制御
パラメータによって示されたように現在のシーンの再生を停止して新しいシーン
の再生を開始する(S1806、S1807)制御アクションである“Jump
To”ハイパーリンクを有することができるBをクリックすることが可能である
(S1805)。これは複数のオブジェクトを含み、例えば、それは、ユーザが
メインシーンに復帰する(S1809、S1810)ために選択することが可能
な(S1808)、ナビゲーション制御のためのメニューオブジェクトを取得す
ることができる。ユーザはもう1つのオブジェクト、例えばAと対話することも
でき(S1811)、Aは、もう1つの特定のシーンにジャンプする振る舞いを
有することができる(S1812、S1813)。図示された例では、ユーザは
、メインシーンに復帰するために(S1815、S1816)再びメニューオプ
ションを選択することができる(S1814)。もう1つのユーザ対話は、オブ
ジェクトBを、表示された買い物かごにドラグして入れることであり(S181
7)、このことは、オブジェクトBと買い物かごとが重複しているという条件に
基づいた他のオブジェクト制御の実行に、適当なユーザフラグ変数の状態を設定
することによって購入要求を登録させ、また、動的メディア合成(コンポジショ
ン)に基づいて、本実施例では買い物かごが満杯に図示されるように、オブジェ
クトをアニメーション化させるか又は変化させることができる(S1819、S
1820)。ユーザは、買い物かごのオブジェクトと対話することができ(S1
821)、上記買い物かごのオブジェクトは、要求された購入を表示できる支払
いのトランザクション及び情報のシーンにジャンプする振る舞いを有することが
できる(S1822、S1823)。このシーンに表示されたオブジェクトは、
ユーザフラグの変数の値に基づいて動的メディア合成(コンポジション)によっ
て決定される。ユーザは、オブジェクト制御パラメータによって定義されるよう
にユーザフラグを変更することによって、彼らの購入要求の状態をオン/オフに
変化させるようにオブジェクトと対話することができ、上記オブジェクト制御パ
ラメータは、動的メディア合成処理に、シーン中の選択されたオブジェクト又は
選択されなかったオブジェクトを表示させる。ユーザは、それに代わって、購入
するのオブジェクト又は戻るのオブジェクトと対話することを選択してもよく、
上記オブジェクトは、メインシーン又はトランザクションにコミットする所定の
シーンのような適当なシーンを目標として有する、新しいシーンにジャンプする
制御の振る舞いを有してもよい(S1825)。コミットされたトランザクショ
ンは、オフラインのときは、後にサーバにアップロードするためにクライアント
装置に記憶されることができ、クライアント装置がオンラインのときは、購入/
クレジットの認証のためにリアルタイムでサーバにアップロードされることが可
能である。オブジェクトを購入する、を選択すると、確認シーンにジャンプする
ことができ(S1827、S1828)、その一方で、トランザクションが完了
した(S1824)後で残っている任意のビデオを再生しながら、トランザクシ
ョンはサーバに送信されることが可能である(S1826)。
【0255】 分配モデル及びDMC動作 ビットストリームをクライアント装置に伝送するために、クライアント装置に
対して同期化させたデスクトップPCへのダウンロード、装置への無線オンライ
ン接続、及び複数のコンパクトなメディア記憶装置を含む、多数の分配機構が存
在する。コンテンツ伝送は、クライアント装置によってか、又はネットワークに
よってかのいずれかで開始されることが可能である。分配機構と伝送開始との組
み合わせは、多数の伝送モデルを提供する。そのような1つのモデルのクライア
ントが開始する伝送はオンデマンドストリーミングであり、ここで、オンデマン
ドストリーミングと呼ばれる1つの実施形態は、所定のチャンネルに小さい帯域
幅と短い待ち時間とを提供し(例えば、無線WAN接続)、コンテンツは、それ
がストリーミングされるときに見られる場所であるクライアント装置に対して、
リアルタイムで伝送される。コンテンツ伝送の第2のモデルは、オンラインの無
線接続を介してクライアントが開始する伝送であって、ここで、コンテンツは、
ファイル転送プロトコルを用いたりすることで、再生する前に全体を迅速にダウ
ンロードされることが可能であり、1つの実施形態は大きい帯域幅でかつ長い待
ち時間のチャンネルを提供し、上記チャンネルではコンテンツが即時に伝送され
て続いて見られる。第3の伝送モデルはネットワークが開始する伝送であって、
ここで1つの実施形態は小さい帯域幅と長い待ち時間を提供し、装置は、クライ
アント装置が常にオンラインであることができるので、 “常時オン”と呼ばれ
るものである。このモデルでは、ビデオコンテンツは、夜のうち又は他のオフピ
ークの期間に少しずつ装置にダウンロードされ、後の時刻に見るためにメモリに
バッファリングされることが可能である。このモデルでは、システムの動作は上
の第2のモデル(クライアントが開始するオンデマンドダウンロード)とは異な
り、すなわち、ユーザらがコンテンツサービスプロバイダに特定のコンテンツの
伝送に係る要求を登録する。次いで、この要求は、サーバによって、クライアン
ト装置に対してネットワークが開始する伝送を自動的にスケジューリングするた
めに用いられる。ネットワーク利用のオフピーク期間のようなコンテンツの伝送
のための適当な時間が生じるとき、サーバは、クライアント装置に対する接続を
セットアップし、複数の送信パラメータをネゴシエーションし、クライアントに
対するデータ転送を管理する。それに代わって、サーバは、ネットワークにおい
て割り当てられたもの(例えば、一定速度の接続)から残された任意の利用可能
な残りの帯域幅を用いて、時々、少量のデータを送信することができる。ユーザ
らは、彼らが、要求されたデータを彼らの準備が出来たときに見れるように、ビ
ジュアル又は可聴の指示を介してユーザらに信号を送られることによって、要求
されたデータが完全に伝送されたことを知らされることが可能である。
【0256】 再生器は、プッシュ又はプルの両方の伝送モデルを処理することができる。シ
ステムの動作の1つの実施形態が、図40に示されている。無線ストリーミング
セッションは、クライアント装置(S1903−プル)か又はネットワーク(S
1903−プッシュ)かのいずれかによって開始されることが可能である(S1
901)。クライアントが開始するストリーミングセッションの場合、クライア
ントは、URLを入力すること、対話型オブジェクトからハイパーリンクを張る
こと、又は無線サービスプロバイダの電話番号をダイヤルすることのような、さ
まざまな方法を用いてストリーミングを開始することができる(S1904)。
接続要求は、クライアントから遠隔のサーバに送信されることが可能である(S
1906)。サーバはプル接続を確立して開始することができ(S1908)、
上記プル接続は、データをクライアント装置にストリーミングすることができる
(S1910)。ストリーミングの間、クライアントは、ビットストリームを復
号化してレンダリングするとともに、前述のようにユーザ入力を取り扱う。さら
に多くのデータがストリーミングされるとき(S1912−YES)、サーバは
、復号化してレンダリングするために新しいデータをクライアントにストリーミ
ングすることを継続し、この処理は、前述のように対話性とDMC機能とを含む
ことができる。通常は、ストリーム中にさらにデータが存在しないとき(S19
12−NO)、ユーザはクライアント装置からの呼を終了することができるが(
S1915−プル)、ユーザは任意の時間に呼を終了してもよい。呼の終了は無
線ストリーミングセッションを閉じるが、そうではなく、データがストリーミン
グを終了した後でユーザが呼を終了しないならば、クライアント装置はオンライ
ンのままでアイドル状態に入ってもよい。ネットワークが開始する無線ストリー
ミングセッションの実施例(S1903−プッシュ)では、サーバはクライアン
ト装置を呼び出すことができる(S1902)。クライアント装置は、呼び出し
に自動的に応答することができ(S1905)、クライアントはプッシュ接続を
確立する(S1907)。確立処理は、クライアント装置の能力、構成、又はユ
ーザの特定のデータに関する、サーバとクライアントとの間のネゴシエーション
を含んでもよい。次いで、サーバは、データをクライアントにストリーミングし
(S1909)、クライアントは、受信されたデータを後で見るために記憶する
(S1911)。一方、さらに多くのデータがストリーミングされる必要があり
うるときは(S1912−YES)、この処理は、非常に長い時間期間にわたっ
て継続するか(小さい帯域幅で少しずつダウンロードする(trickle)ストリー
ム)、又はより短い時間期間にわたって継続する(大きい帯域幅のダウンロード
)かのいずれかが可能である。ストリーム内において、データストリームの全体
又は特定のスクリプト記述された位置に達したとき(S1912−NO)、この
プッシュ接続におけるクライアント装置(S1915−プッシュ)は、コンテン
ツは再生の準備ができていることをユーザに信号で通知することができる(S1
914)。すべての要求されたコンテンツをストリーミングした後で、サーバは
、クライアント装置への呼又は接続を終了することができ(S1917)、無線
ストリーミングセッションを終了する(S1918)。もう1つの実施形態では
、無線クライアント装置に対してネットワークが開始したメッセージを用いて、
プッシュ接続とプル接続との間のハイブリッド動作が発生することができ、上記
メッセージは、受信されたときに加入者によって対話されて、上述のようにプル
接続を開始することができる。この方法で、プル接続は、適当なハイパーリンク
を含むデータについて、ネットワークによりスケジューリングされた伝送によっ
て指示されることが可能である。
【0257】 これら3つの分配モデルは、ユニキャストモードの動作に対して適当である。
上述の最初のオンデマンドモデルでは、遠隔のストリーミングサーバは、リアル
タイムで、制約されていない動的メディア合成を実行し、ユーザ対話を処理し、
複数のオブジェクト制御アクションなどを実行することができるのに対し、他の
2つのモデルでは、ローカルクライアントは、ユーザ対話を処理し、DMCを実
行することができ、そのとき、ユーザはコンテンツをオフラインで見てもよい。
サーバに送られるべき任意のユーザ対話のデータとフォームデータとは、クライ
アントがオンラインであるときは即時に伝送されることが可能であり、又は、オ
フラインであるときは不確定な時刻に伝送されて、転送されたデータに対して後
の処理が不確定な時刻に実行されることがある。
【0258】 図42は、本発明に従って、オンデマンドストリーミング無線ビデオを再生す
るときに、無線ストリーミング再生器/クライアントが実行する主なステップに
係る1つの実施形態を示すフローチャートである。クライアントアプリケーショ
ンはステップs2001で開始し、ステップs2002で、ユーザが、遠隔のサ
ーバのURL又は電話番号を入力することを待機する。ユーザが遠隔のサーバの
URL又は電話番号を入力するとき、ステップs2003で、ソフトウェアは、
(すでに接続されているのでなければ)無線ネットワークとのネットワーク接続
を開始する。接続が確立された後で、ステップs2004で、クライアントのソ
フトウェアは、データがサーバからストリーミングされることを要求する。次い
で、クライアントは、ステップs2005のときにユーザが切断を要求するまで
、オンデマンドストリーミングビデオを処理することを継続し、ソフトウェアは
ステップs2007に進み、無線ネットワーク及び遠隔のサーバとの呼の切断を
開始する。最後に、ソフトウェアは、ステップs2009において、割り当てら
れたすべての資源を解放し、クライアントアプリケーションはステップs201
1で終了する。ユーザが、呼が切断されるべきであることを要求するまで、ステ
ップs2005はステップs2006に進み、ネットワークデータが受信された
ことをチェックする。受信されたデータが存在しないとき、ソフトウェアはステ
ップs2005に戻る。しかしながら、データがネットワークから受信されると
きは、到来するデータは、パケット全体が受信されるまでステップs2008で
バッファリングされる。完全なパケットが受信されるときは、ステップs201
0は、誤り、シーケンス情報、及び同期化情報について、データパケットをチェ
ックする。ステップs2012でデータパケットが誤りを含んでいるとき、又は
シーケンスからはずれているときは、ステップs2013で、このことを示す状
態メッセージが遠隔のサーバに送信され、続いて、ユーザの呼の切断要求をチェ
ックするためにステップs2005に戻る。しかしながら、パケットが誤りなく
受信されたときは、ステップs2012はステップs2014に進み、ステップ
s2014でデータパケットはソフトウェア復号化器に送られて復号化される。
復号化された複数のフレームは、ステップs2015でメモリにバッファリング
され、ステップs2016でレンダリングされる。最後に、アプリケーションは
ステップs2005に戻ってユーザの呼の切断をチェックし、無線ストリーミン
グ再生器のアプリケーションは継続する。
【0259】 ユニキャストに加えて、他の動作モードは、マルチキャストとブロードキャス
ト(放送)とを含む。マルチキャスト又はブロードキャストの場合、システム/
ユーザの対話及びDMC機能は、ユニキャストモデルとは異なる方法で制約され
ることが可能であり、かつ動作することがある。無線環境では、マルチキャスト
及びブロードキャストデータは、別個のチャンネルで送信されることがありえる
。これらは、パケットネットワークと同様に純粋に論理的なチャンネルではなく
、代わって、これらは回線交換されるチャンネルでもよい。1つのサーバから複
数のクライアントに単一の送信が送られる。ゆえに、ユーザ対話のデータは、各
ユーザに対して別々の各ユニキャスト‘バックチャンネル’接続を用いてサーバ
に戻されてもよい。マルチキャストとブロードキャストとの違いは、マルチキャ
ストのデータが、無線セルの範囲のような特定の地理的な境界内のみに放送され
うることにある。複数のクライアント装置に対するデータ伝送のブロードキャス
トモデルに係る1つの実施形態では、データはネットワーク内のすべての無線セ
ルに送信されることが可能であり、上記無線セルは、複数のクライアント装置が
受信するように複数の特定の無線チャンネルを介してデータをブロードキャスト
する。
【0260】 ブロードキャストチャンネルが用いられうる方法についての1つの例は、複数
のサービスディレクトリを含む複数のシーンのサイクルを送信することである。
複数のシーンは、他の選択された複数のブロードキャストチャンネルに対応する
ハイパーリンクされた複数のビデオオブジェクトのセットを含み、ユーザがある
オブジェクトを選択することが関連のチャンネルに変化させるように、カテゴリ
ー化されることが可能である。もう1つのシーンは、ビデオ・オン・デマンドサ
ービスに関連し、ハイパーリンクされた複数のビデオオブジェクトのセットを含
むことができ、ここで、ユーザは、ビデオオブジェクトを選択することによって
、新しいユニキャストチャンネルを作成してブロードキャストからそれに切り換
える。同様に、ユニキャストのオンデマンドチャンネルにおけるハイパーリンク
された複数のオブジェクトは、クライアントによって受信されているビットスト
リームを、特定されたブロードキャストチャンネルからのそれに変化させること
ができる。
【0261】 マルチ又はブロードキャストチャンネルは、サーバからすべてのクライアント
に対して同一のデータを送信するので、DMCは、シーンを各ユーザに対してカ
スタマイズするためのその能力を制限されている。ブロードキャストモデルにお
けるチャンネルに対するDMCの制御は、個別のユーザに従属することができず
、この場合、個別のユーザ対話が、ブロードキャストされているビットストリー
ムのコンテンツを変更することは不可能である。ブロードキャストは、リアルタ
イムのストリーミングに依存しているので、各シーンが複数のオブジェクトスト
リームをもつことが可能でかつジャンプする制御が実行可能な、オフラインで見
るときと同様の方法がローカルクライアントのDMCに対して可能であることは
なさそうである。しかしながら、ブロードキャストモデルにおいて、ユーザは、
複数のシーンとの対話を完全に禁止されているのではなく、それらは、なお、ア
ニメーションなどを活性化したりするようなレンダリングパラメータを自由に変
更することができ、オブジェクトの選択をサーバに対して登録し、かつ、それら
は、ビデオオブジェクトに関連付けられた任意のハイパーリンクを活性化するこ
とによって、ジャンプする先の新しいユニキャストチャンネル又はブロードキャ
ストチャンネルを自由に選択することができる。
【0262】 ブロードキャストにおいてユーザの経験をカスタマイズするためにDMCが使
用可能な1つの方法は、現在チャンネルを見ている異なるユーザの分布をモニタ
リングし、平均的なユーザプロフィールに基づいてレンダリングされるべきシー
ンを定義する発信ビットストリームを構成することである。例えば、画像内の広
告オブジェクトの選択は、男性と女性のどちらの閲覧者が支配的であったかに基
づいてもよい。ブロードキャストの状況でユーザの経験をカスタマイズするため
のDMCが使用可能なもう1つの方法は、現在の閲覧者の分布に関係なく、複数
のメディアオブジェクトを有するコンポジットビットストリームを送信すること
である。この場合のクライアントは、最終的なシーンを作成するために、クライ
アントに対してローカルなユーザプロフィールに基づいて、複数のオブジェクト
の間から選択する。例えば、多数の言語の複数のサブタイトルが、ブロードキャ
ストのためのシーンを定義するビットストリーム中に挿入されることが可能であ
る。次いで、クライアントは、ビットストリームでブロードキャストされたオブ
ジェクト制御データ中の特別な条件に基づいて、どの言語のサブタイトルをレン
ダリングすべきかを選択することができる。
【0263】 ビデオモニタリングシステム 図43は、家の地所及び家族、商業的な地所及び職員、トラフィック、児童保
護、天気、及び特別に関心の持たれた場所のような、多数の異なる環境をリアル
タイムでモニタリングするために使用可能なビデオモニタリングシステムの1つ
の実施形態を示す。この例では、ビデオの取り込みのためにビデオカメラ装置(
11604)が使用可能である。取り込まれたビデオは、前述のように、記憶装
置(11606)からの追加のビデオオブジェクトか、又は制御(11607)
を用いてサーバから遠隔にストリーミングされた追加のビデオオブジェクトかの
いずれかを結合する能力を備えた11602内で、前述のように符号化されるこ
とが可能である。モニタリング装置(11602)は、(ASIC実装における
ような)カメラの一部、クライアント装置(例えば、カメラ及びASICを備え
たPDA)の一部、カメラとは別個のもの(例えば、別個のモニタリング符号化
装置)、又は、ビデオキャプチャからは遠隔したもの(例えば、ライブビデオの
供給を有するサーバ符号化処理)であることができる。符号化されたビットスト
リームは、クライアント装置(11603)に対してスケジューリングされた時
刻にストリーミングされるか又はダウンロードされることが可能であり、上記ク
ライアント装置(11603)において、ビットストリームは、前述のように復
号化されて(11609)レンダリングされる(11608)ことが可能である
。無線LANのインターフェースを用いて短い範囲にわたって遠隔のビデオを無
線ハンドヘルド装置に送信することに加えて、モニタリング装置(11602)
はまた、TDMA、FDMA又はCDMA送信を用い、PHS、GSM又は他の
そのような無線ネットワークを用いた電話インターフェースのような、標準的な
無線ネットワークインフラストラクチャーを用いて、長い距離をわたって遠隔の
ビデオを送信することもできる。他のアクセスネットワークのアーキテクチャも
また使用可能である。モニタリングシステムは、動き検出アラーム、アラームに
係る自動通知及びダイヤルアウト、ビデオセグメントの記録及び検索、複数のカ
メラ入力の間での選択及び切り換えのような複数のインテリジェント機能を有す
ることができ、遠隔の場所における複数のディジタル又はアナログ出力に係るユ
ーザの活性化を提供することができる。これのアプリケーションは、家庭のセキ
ュリティー、子供のモニタリング、及びトラフィックのモニタリングを含む。こ
の最後の場合では、ライブのトラフィックビデオが複数のユーザにストリーミン
グされ、多数の代替の方法で実行されることが可能である。 a.ユーザは特別な電話番号をダイヤルし、次いで、オペレータ/交換機によっ
て処理される範囲内で、見るためのトラフィックカメラの場所を選択する。 b.ユーザは特別な電話番号をダイヤルし、(例えば、GPS又はGSMセルの
三角測量から導出される)ユーザの地理的場所は、可能な付随するトラフィック
情報とともに、見るためのトラフィックカメラの場所の選択肢を自動的に提供す
るために用いられる。この方法において、ユーザはオプションとして彼又は彼女
の目的地を指定できてもよく、上記目的地は、それが与えられていたならば、ト
ラフィックカメラの選択肢を提供することを援助するために用いられることが可
能である。 c.ユーザは特別なサービスに登録することができ、上記サービスでは、サービ
スプロバイダがユーザを呼び出し、潜在的に交通渋滞が存在しうる自動車道路(
自動車運転者のルート)を示すビデオを自動的にストリーミングする。登録する
と、ユーザは、この目的のための1つ又はそれよりも多くのスケジューリングさ
れたルートを選択して指定(nominate)することができ、上記ルートは、GPS
システム又はセル三角測量からの位置決め情報と関連して、できるだけユーザの
ルートを予測することを援助するために、システムによって記憶されることが可
能である。システムは、ユーザの速度及び位置を追跡して、移動の方向及び後に
続くルートを決定し、次いで、それは、潜在的なルートに沿うモニタリングされ
たトラフィックカメラのそれのリストを検索し、混雑している場所が存在するか
否かを決定する。もしそうであれば、システムは、任意の混雑したルートの自動
車運転者に通知し、ユーザに最も関連したトラフィックの概要(view)を提示す
る。定常的なユーザ又は歩く速度で移動している人は呼び出されない。それに代
わって、混雑を示すトラフィックカメラが存在するときは、システムは、そのル
ートを移動している登録されたユーザのリストを検索し、彼らに通知することが
できる。
【0264】 電子的グリーティングカードサービス 図44は、スマート携帯電話機11702及び11712と、無線接続された
PDAとのための、電子的グリーティングカードサービスの1つの実施形態のブ
ロック図である。このシステムでは、開始するユーザ11702は、インターネ
ットに接続されたパーソナルコンピュータ11707を用いてインターネット1
1708から、携帯スマート電話機11706を用いて携帯電話ネットワーク1
1703から、又は無線接続されたPDAからのいずれかで、グリーティングカ
ードサーバ11710にアクセスすることができる。グリーティングカードサー
バ11710は、サーバに記憶されたテンプレートライブラリ11711から選
択されたグリーティングカードのテンプレートをユーザがカスタマイズすること
を可能にするソフトウェアインターフェースを提供する。上記テンプレートは、
誕生日祝い、ポストカード、幸運を祈る気持ちなどのような多数の主題を扱う、
短いビデオ又はアニメーションである。カスタマイズすることは、ビデオ及びア
ニメーションのテンプレートに、テキスト及び/又はオーディオコンテンツを挿
入することを含んでもよい。カスタマイズの後で、ユーザは、トランザクション
に対して支払いをして、電子的グリーティングカードを個人の携帯電話番号に送
ることができる。次いで、電子的グリーティングは、ストリーミングサーバ11
712に送られて記憶される。最後に、グリーティングカードは、ストリーミン
グメディアサーバ11709から、オフピークの期間の間に無線電話ネットワー
ク11704を介して、所望のユーザ11705の携帯装置11712に伝送さ
れる。ポストカードの場合は、各地理的な場所における携帯電話ネットワークに
対して、その場所内に物理的に存在する人々によってのみ送信されることが可能
な、特別なテンプレートビデオが作成されることが可能である。もう1つの実施
形態では、ユーザらは、短いビデオを遠隔のアプリケーションサービスプロバイ
ダにアップロードすることができ、上記遠隔のアプリケーションサービスプロバ
イダは、次いで、ビデオを圧縮し、後に宛先の電話番号に伝送するためにそれを
記憶する。図45は、本発明に従って、ユーザが電子的グリーティングカードを
生成して送信することを実行する、1つの実施形態に係る主なステップを示すフ
ローチャートである。図示された処理はステップs2101で開始し、ここで、
ユーザは、インターネット又は無線電話ネットワークのいずれかを介してアプリ
ケーションサービスプロバイダASPに接続される。ステップs2102におい
て、ユーザが彼ら自身のビデオコンテンツを用いることを希望するときは、ユー
ザは、ライブビデオを取り込むか、又は多数のソースのうちの任意のものからビ
デオコンテンツを取得することができる。このビデオコンテンツは、ステップs
2103でファイルに記憶され、ステップs2105でユーザによってアプリケ
ーションサービスプロバイダにアップロードされ、グリーティングカードサーバ
によって記憶される。ユーザが彼ら自身のビデオコンテンツを用いることを希望
しないときは、ステップs2102はステップs2104に進み、ここで、ユー
ザは、ASPによって保持されているテンプレートライブラリから、グリーティ
ングカード/電子メールのテンプレートを選択する。ステップs2106におい
て、ユーザは、ビデオのグリーティングカード/電子メールをカスタマイズする
ことを選ぶことができ、それによって、ステップs2107において、ユーザは
テンプレートライブラリから1つ又はそれよりも多くのビデオオブジェクトを選
択し、ステップs2108において、アプリケーションサービスプロバイダは、
上記選択されたオブジェクトを、すでに選択されたビデオデータに挿入する。ユ
ーザが電子的グリーティングカード/電子メールのカスタマイズを終了したとき
、ユーザは、ステップs2109において、宛先の電話番号/アドレスを入力す
る。続いて、ステップs2110において、ASPはデータストリームを圧縮し
、それをストリーミングメディアサーバに送信するために記憶する。ステップs
2111で図示されているように、処理はここで完了する。
【0265】 無線ローカルループストリーミングビデオ及びアニメーションシステム もう1つのアプリケーションは、ローカルサーバに記憶された、法人のオーデ
ィオビジュアルの訓練素材に対する無線アクセスか、又は、家庭環境における、
音楽ビデオのようなオーディオビジュアルのエンタテインメントに対する無線ア
クセスのためのものである。無線ストリーミングにおいて遭遇される1つの問題
は、広域無線ネットワークの小さい帯域幅の容量と、関連付けられた高いコスト
とにある。高品質のビデオをストリーミングすることは、高いリンクの帯域幅を
用いるので、無線ネットワークを介した努力目標(challenge)でありうる。こ
れらの状況においてストリーミングするための代替の解決方法は、見られるべき
ビデオを、典型的な広域ネットワーク接続を介してローカル無線サーバにスプー
ルすること、又は、かつ、これがいったん完全に又は部分的に受信されると、大
きな容量のローカルループ又は構内無線ネットワークを介してクライアント装置
にデータを無線でストリーミングすることを開始することである。
【0266】 これのためのこのアプリケーションに係る1つの実施形態は、音楽ビデオのロ
ーカルな無線ストリーミングである。ユーザは、音楽ビデオを、インターネット
から、無線の家庭内ネットワークに接続されたローカルコンピュータ上にダウン
ロードする。これらの音楽ビデオは、次に、また無線接続を有するクライアント
装置(例えば、PDA又はウェアラブル計算装置)にストリーミングされること
が可能である。ローカルコンピュータサーバ上で実行されるソフトウェア管理シ
ステムは、複数のビデオのライブラリを管理し、クライアント装置/PDAから
のクライアントユーザのコマンドに応答してストリーミング処理を制御する。
【0267】 サーバ側のソフトウェア管理システムには、ブラウジング構造作成構成要素、
ユーザインターフェース構成要素、ストリーミング制御構成要素、及びネットワ
ークプロコトル構成要素の4つの主な構成要素が存在する。ブラウジング構造作
成構成要素は、ローカルに記憶されたビデオを閲覧するためのユーザインターフ
ェースを作成するために用いられるデータ構造を作成する。1つの実施形態にお
いて、ユーザは、サーバソフトウェアを用いて多数のプレイリストを作成しても
よく、これらのプレイリストは、次に、クライアント再生器への送信のために、
ユーザインターフェース構成要素によってフォーマット化される。それに代わっ
て、ユーザは、ビデオデータを階層的なファイルディレクトリ構造に記憶しても
よく、ブラウジング構造構成要素は、ディレクトリ構造を自動的にナビゲートす
ることによってブラウジングデータ構造を作成する。ユーザインターフェース構
成要素は、クライアントへの送信のためにブラウジングデータをフォーマット化
し、ストリーミング制御構成要素に対して中継されるクライアントからのコマン
ドを受信する。ユーザのプレイバックの制御は、再生の開始、一時停止の停止、
ループなどのような‘標準的’な機能を含むことができる。1つの実施形態にお
いて、ユーザインターフェース構成要素は、ブラウジングデータをHTMLにフ
ォーマット化するが、ユーザのプレイバックの制御をカスタムフォーマットにす
る。この実施形態において、クライアントユーザインターフェースは2つの別個
の構成要素を含み、HTMLブラウザはブラウジング機能を処理する一方で、プ
レイバック制御機能は、ビデオ復号化器/再生器によって処理される。もう1つ
の実施形態において、クライアントソフトウェアにおいて機能の分離は存在せず
、ビデオ復号化器/再生器は、すべてのユーザインターフェース機能それ自体を
処理する。この場合、ユーザインターフェース構成要素は、ブラウジングデータ
を、ビデオ復号化器/再生器によって直接に理解されるカスタムフォーマットに
フォーマット化する。
【0268】 このアプリケーションは、訓練又はエンタテインメントの目的のための、家庭
又は法人のアプリケーションにおける実装に対して最も適当である。例えば、技
術者は、作業領域から離れて別の部屋のコンピュータコンソールに移動すること
を必要とせずに、欠陥のある装置を修理するか又は調整する方法についてオーデ
ィオビジュアル訓練素材を取得するための構成を用いることができる。もう1つ
のアプリケーションは、家庭のユーザが、彼らのパティオの外をぶらぶら歩きな
がら、高品質のオーディオビジュアルエンタテインメントをを視聴するためのも
のである。バックチャンネルは、ユーザが、ライブラリから、何のオーディオビ
デオコンテンツを彼らが見たいのかを選択することを可能にする。第1の利点は
、ビデオモニタが携帯型であって、ゆえに、ユーザがオフィス又は家の周囲で自
由に移動させられることにある。ビデオデータストリームは、前述のように、対
話能力を持ちうる複数のビデオオブジェクトを含むことができる。これは、既知
の従来技術に係る電子ブック、及び無線セルラーネットワークにわたるストリー
ミングに対する重大な改善であることが理解されよう。
【0269】 オブジェクト指向データフォーマット オブジェクト指向マルチメディアファイルフォーマットは、以下の目的に合う
ように設計される。 ・速度−複数のファイルは、高速でレンダリングされるように設計される ・簡単さ−パージングが高速で、かつ移植が容易であるように、フォーマットは
簡単である。それに加えて、合成は、単にファイルを互いにアペンドすることに
よって実行可能である。 ・拡張性−再生器が発展するとき新しいパケットタイプが定義されることが可能
である一方で、古いほうの再生器との後方互換性を保持するように、フォーマッ
トはタグ付けされたフォーマットである。 ・柔軟性−データの、そのレンダリングの定義からの分離が存在し、データレー
トを変化させること、及びオンザフライのコーデックミッドストリームのような
全体の柔軟性を可能にする。
【0270】 ファイルは、ビッグエンディアンバイトの順序で記憶される。以下のデータタ
イプが用いられる。
【0271】
【表12】 ―――――――――――――――――――――――――――――――――――― タイプ 定義 ―――――――――――――――――――――――――――――――――――― BYTE 8ビット、符号なしのキャラクタ WORD 16ビット、符号なしのショート DWORD 32ビット、符号なしのロング BYTE[] ストリング、バイト[0]は、最大254までの長さを特定する (255は予約される) IPOINT 12ビット符号なし,12ビット符号なし、(x,y) DPOINT 8ビット符号なしキャラクタ,8ビット符号なしキャラクタ、 (dx,dy) ――――――――――――――――――――――――――――――――――――
【0272】 ファイルストリームは、データの複数のパケット又はブロックに分割される。
各パケットは、クイックタイム(Quicktime)のアトムの概念と同様に、コンテ
ナ内にカプセル化されているが、階層的ではない。コンテナは、ペイロードのタ
イプと、何らかの補助的なパケット制御情報と、データペイロードのサイズとを
特定するBaseHeader(ベースヘッダ)の記録にてなる。ペイロードの
タイプは、ストリーム中のさまざまな種類のパケットを定義する。このルールに
対する1つの例外は、端末間のネットワークリンクの管理を実行するために用い
られるSystemControl(システム制御)パケットである。これらの
パケットは、ペイロードを持たないBaseHeaderにてなる。この場合、
ペイロードのサイズのフィールドは、再び解釈される。回線交換されるネットワ
ークを介してストリーミングする場合には、予備的な追加のネットワークコンテ
ナは、同期化及びチェックサムに提供することによって、誤りの回復を達成する
ために用いられる。
【0273】 ビットストリーム内には、データパケット、定義パケット、制御パケット、及
びさまざまな種類のメタデータパケットの、4つの主なタイプのパケットが存在
する。定義パケットは、メディアフォーマットと、データパケットを解釈するた
めに用いられるコーデック情報とを伝送するために用いられる。データパケット
は、選択されたアプリケーションによって復号化されるべき圧縮されたデータを
伝送する。ゆえに、適当な定義パケットは、各与えられたデータタイプのすべて
のデータパケットに先行する。レンダリング及びアニメーションパラメータを定
義する制御パケットは、定義パケットの後であるが、データパケットの前に発生
する。
【0274】 概念的には、オブジェクト指向データは、3つの主なインターリーブされたデ
ータのストリームにてなると考えることができる。定義、データ、制御ストリー
ムである。メタデータはオプションの第4のストリームである。これら3つの主
なストリームは、閲覧者に提示される最終的なオーディオビジュアルの体験内容
を生成するように相互作用する。
【0275】 すべてのファイルは、AVシーン空間を定義するSceneDefiniti
on(シーン定義)ブロックから開始し、任意のオーディオ又はビデオのストリ
ーム又はオブジェクトは、上記AVシーン空間の中にレンダリングされる。メタ
データ及びディレクトリパケットは、データパケットの閲覧を援助するために、
データ及び定義パケットによって含まれるデータについての追加の情報を含む。
任意のメタデータブロックが存在するときは、それらは、SceneDefin
itionパケットの直後に発生する。Metadata(メタデータ)パケッ
トが存在しないときは、Metadataパケット又はSceneDefini
tionパケットの直後にディレクトリパケットが続く。
【0276】 ファイルフォーマットは、遠隔のサーバからデータをストリーミングするとき
と、ローカルに記憶されたコンテンツにアクセスするときとの両方のときに、種
々のメディアタイプが統合化されたものが、オブジェクト指向の対話をサポート
することを可能にする。この目的のために、複数のシーンが定義されることが可
能であり、それぞれが、最大200までの別個のメディアオブジェクトを同時に
含んでもよい。これらのオブジェクトは、ビデオ、オーディオ、テキスト又はベ
クトルグラフィックスのような単一のメディアタイプか、又はこれらのメディア
タイプの組み合わせから作成された合成物にてなることができる。
【0277】 図4に示されたように、ファイル構造はエンティティの階層構造を定義し、あ
るファイルはより多くのシーンからの1つを含むことができ、各シーンはより多
くのオブジェクトからの1つを含んでもよく、各オブジェクトは1つ又はそれよ
りも多くのフレームを含むことができる。本質的には、各シーンは、多数の別個
のインターリーブされたデータストリームから構成され、その1つは各オブジェ
クトに対応し、それぞれ多数のフレームから構成される。各ストリームは、より
多くの定義パケットからの1つより構成され、すべて同一のobject_id
番号を生成するデータ及び制御パケットによって後続される。
【0278】 ストリームシンタックス 有効なパケットタイプ ベースヘッダは、ペイロードに従って、合計して最大255個までの異なるパ
ケットタイプを許容する。このセクションでは、以下の表にリストを上げられた
ような、有効なパケットタイプに対するパケットフォーマットを定義する。
【0279】
【表13】 ―――――――――――――――――――――――――――――――――――― 値 データタイプ ペイロード コメント ―――――――――――――――――――――――――――――――――――― 0 SCENEDEFN SceneDefinition シーン空間のプロパティを定義する (シーン定義) 1 VIDEODEFN VideoDefinition ビデオフォーマット/コーデックの (ビデオ定義) プロパティを定義する 2 AUDIODEFN AudioDefinition オーディオフォーマット/コーデックの (オーディオ定義) プロパティを定義する 3 TEXTDEFN TextDefinition テキストフォーマット/コーデックの (テキスト定義) プロパティを定義する 4 GRAFDEFN GrafDefinition ベクトルグラフィックスのフォーマット (グラフ定義) /コーデックのプロパティを定義する 5 VIDEOKEY VideoKey ビデオキーフレームのデータ (ビデオキー) 6 VIDEODAT VideoData 圧縮されたビデオデータ (ビデオデータ) 7 AUDIODAT AudioData 圧縮されたオーディオデータ (オーディオデータ) 8 TEXTDAT TextData テキストデータ (テキストデータ) 9 GRAFDAT GrafData ベクトルグラフィックスデータ (グラフデータ) 10 MUSICDAT Music Data 音楽スコアデータ (音楽データ) 11 OBJCTRL ObjectControl オブジェクトのアニメーション/ (オブジェクト制御) レンダリングのプロパティを定義する 12 LINKCTRL − ストリーミングする端末間のリンクを 管理するために用いられる 13 USERCTRL UserControl ユーザシステムの対話のための (ユーザ制御) バックチャンネル 14 METADATA MetaData AVシーンについての (メタデータ) メタデータを含む 15 DIRECTORY Directory データ又はシステムオブジェクトの (ディレクトリ) ディレクトリ 16 VIDEOENH − RESERVED(予約されている) −ビデオエンハンスメントデータ 17 AUDIOENH − RESERVED(予約されている) −オーディオエンハンスメントデータ 18 VIDEOEXTN − 誤り訂正のための余分なIフレーム 19 VIDEOTERP Video Data 廃棄可能な補間されたビデオファイル (ビデオデータ) 20 STREAMEND − ストリームの終了部と 新しいストリームの開始部を示す 21 MUSICDEFN Music Defin 音楽のフォーマットを定義する 22 FONTLIB FontLibDefn フォントライブラリデータ 23 OBJLIBCTRL ObjectLibCntrol オブジェクト/フォントライブラリの 制御 225 RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0280】Baseheader(ベースヘッダ)
【表14】 短いBaseheaderは、65536バイトよりも短いパケット用である ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Type BYTE ペイロードパケットタイプ[0]、 (タイプ) 定義、データ、又は制御パケットでありうる obj_id BYTE オブジェクトストリームID −これは何のオブジェクトに属しているか Seq_no WORD フレームシーケンス番号、 各オブジェクトに対する個別のシーケンス Length WORD 後続するフレームのサイズのバイト数 (長さ) {0はストリームの終了を意味する} ――――――――――――――――――――――――――――――――――――
【0281】
【表15】 長いBaseheaderは、64Kから最大0xFFFFFFFFバイトまで
のパケットをサポートする ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Type BYTE ペイロードパケットタイプ[0]、 (タイプ) 定義、データ、又は制御パケットでありうる obj_id BYTE オブジェクトストリームID −これは何のオブジェクトに属しているか Seq_no WORD フレームシーケンス番号、 各オブジェクトに対する個別のシーケンス Frag WORD 0xFFFF (フラグ) Length DWORD 後続するフレームのサイズのバイト数 (長さ) ――――――――――――――――――――――――――――――――――――
【0282】
【表16】 システムBaseheaderは端末間のネットワークリンクの管理用である ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Type BYTE DataType(データタイプ)=SYSCTRL (タイプ) obj_id BYTE オブジェクトストリームID −これは何のオブジェクトに属しているか Seq_no WORD フレームシーケンス番号、 各オブジェクトに対する個別のシーケンス Status WORD StatusType(状態タイプ){ACK,NAK,CONNECT, (状態) DISCONNECT,IDLE}+オブジェクトタイプ ―――――――――――――――――――――――――――――――――――― 全体のサイズは6又は10バイトである
【0283】SceneDefinition(シーン定義)
【表17】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Magic BYTE[4] ASKY=0x41534B59 (マジック) (フォーマット照合のために用いられる) Version BYTE バージョン0x00−現在 (バージョン) Compatible BYTE バージョン0x00−現在 (互換可能) −再生可能な最小のフォーマット Width WORD SceneSpace (シーン空間)の幅 (幅) (0=特定されていない) Height WORD SceneSpace (シーン空間)の高さ (高さ) (0=特定されていない) Backfill WORD RESERVED−シーンを充填するスタイル/色 (背景の充填) NumObjs BYTE このシーンにどれだけ多くのオブジェクトがあるか Mode BYTE フレームプレイアウトモードのビットフィールド (モード) ―――――――――――――――――――――――――――――――――――― 全体のサイズは14バイトである
【0284】MetaData(メタデータ)
【表18】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― NumItem WORD ファイル/シーン中のシーン/フレームの数 (0=特定されていない) SceneSize DWORD 含んでいるファイル/シーン/オブジェクトの (シーンサイズ) サイズのバイト数(0=特定されていない) SceneTime WORD ファイル/シーン/オブジェクトの再生時間の秒数 (シーン時間) (0=特定されていない/静的) BitRate WORD ファイル/シーン/オブジェクトに係る (ビットレート) kビット毎秒のビットレート MetaMask DWORD 何のオプションの32個のメタデータタグが (メタマスク) 後続するかを特定するビットフィールド Title BYTE[] ビデオファイル/シーンのタイトル (タイトル) −あなたが好むものは何でも,バイト[0]=長さ Creator BYTE[] 誰がこれを作成したか,バイト[0]=長さ (作成者) Date BYTE[8] ASCIIによる作成の日付 (日付) =>DDMMYYYY Copyright BYTE[] (著作権) Rating BYTE X,XX,XXXなど (レーティング) EncoderID BYTE[] − (符号化器ID) − BYTE − ――――――――――――――――――――――――――――――――――――
【0285】Directory(ディレクトリ) これは、タイプWORD又はDWORDのアレーである。サイズは、Base
HeaderパケットのLengthフィールドによって与えられる。
【0286】VideoDefinition(ビデオ定義)
【表19】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Codec BYTE ビデオコーデックのタイプ{RAW(未処理),QTREE} (コーデック) Frate BYTE 1/5秒によるフレームレート {0=ビデオの再生を停止する/一時停止する} Width WORD ビデオフレームの幅 (幅) Height WORD ビデオフレームの高さ (高さ) Time DWORD シーンの開始部からの分解能50msによるタイムスタンプ (時間) (0=特定されていない) ―――――――――――――――――――――――――――――――――――― 全体のサイズは10バイトである
【0287】AudioDefinition(オーディオ定義)
【表20】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Codec BYTE オーディオコーデックのタイプ (コーデック) {RAW,G723,ADPCM} Format BYTE ビット7乃至4にオーディオフォーマット、 (フォーマット) ビット3乃至0にサンプルレート Fsize WORD フレームごとのサンプル数 Time DWORD シーンの開始部からの分解能50msによるタイムスタンプ (時間) (0=特定されていない) ―――――――――――――――――――――――――――――――――――― 全体のサイズは8バイトである
【0288】TextDefinition(テキスト定義)
【表21】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Type BYTE 下位ニブルのタイプ{TEXT,HTMLなど} (タイプ) 上位ニブルは圧縮 Fontinfo BYTE 下位ニブルにフォントサイズ 上位ニブルにフォントスタイル Colour WORD フォントの色 (色) Backfill WORD 背景色 (背景の充填) Bounds WORD テキストの境界ボックス(フレーム) (境界) 上位バイトにX、下位バイトにY Xpos WORD 0に対して定義されているときはオブジェクトの 原点に関するXpos,そうでないときは0 Ypos WORD 0に対して定義されているときはオブジェクトの 原点に関するXpos,そうでないときは0 Time DWORD シーンの開始部からの分解能50msによるタイムスタンプ (時間) (0=特定されていない) ―――――――――――――――――――――――――――――――――――― 全体のサイズは16バイトである
【0289】 GrafDefinition(グラフ定義)
【表22】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Xpos WORD 0に対して定義されているときはオブジェクトの 原点に関するXPos,そうでないときは0 Ypos WORD 0に対して定義されているときはオブジェクトの 原点に関するXPos,そうでないときは0 FrameRate WORD 8.8fpsのフレームの遅延 (フレームレート) FrameSize WORD RESERVED(予約されている)twips(1/20ペル) (フレームサイズ) でのフレームサイズ−シーン空間が適合するように 大きさを定めるために用いられる Time DWORD シーンの開始部からの分解能50msによる (時間) タイムスタンプ ―――――――――――――――――――――――――――――――――――― 全体のサイズは12バイトである
【0290】VideoKey(ビデオキー),VideoData(ビデオデータ),Au dioData(オーディオデータ)TextData(テキストデータ) GrafData(グラフデータ) 及びMusicData(音楽データ)
【表23】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Payload − 圧縮されたデータ (ペイロード) ――――――――――――――――――――――――――――――――――――
【0291】 StreamEnd(ストリームの終わり)
【表24】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― StreamObjs BYTE 次のストリームにおいてどれだけ多くのオブジェクトが ストリーミングされているか StreamMode BYTE RESERVED(予約されている) (ストリームモード) StreamSize DWORD 次のストリームの長さのバイト数 (ストリームサイズ) ―――――――――――――――――――――――――――――――――――― 全体のサイズは6バイトである
【0292】UserControl(ユーザ制御)
【表25】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Event BYTE ユーザデータタイプ、例えば PENDOWN(ペンを下ろす), (イベント) KEYEVENT(キーイベント),PLAYCTRL(再生の制御) Key BYTE パラメータ1=キーコードの値/開始/停止/一時停止 (キー) HiWord WORD パラメータ2=Xの位置 LoWord WORD パラメータ3=Yの位置 Time WORD タイムスタンプ (時間) =活性化されたオブジェクトのシーケンス番号 Data BYTE[] フォームフィールドデータのためのオプションの (データ) フィールド ―――――――――――――――――――――――――――――――――――― 全体のサイズは8+バイトである
【0293】ObjectControl(オブジェクト制御)
【表26】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― ControlMask BYTE 共通のオブジェクト制御を定義する (制御マスク) ビットフィールド ControlObject BYTE 作用されたオブジェクトの(オプションの)ID (制御オブジェクト) Timer WORD (オプションの)上位ニブル=タイマの番号, (タイマ) 下位の12ビット=100msステップ ActionMask WORD|BYTE 残りのペイロードにおいて定義される (アクションマスク) ビットフィールドのアクション Params … アクションビットフィールドによって 定義されるアクションのためのパラメータ ――――――――――――――――――――――――――――――――――――
【0294】 ObjLibCtrl
【表27】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Action BYTE このオブジェクトを用いて何をすべきか (アクション) 1.INSERT(挿入) −LibIDのロケーションを上書きしない 2.UPDATE(更新) −LibIDのロケーションに上書きする 3.PURGE(パージ)−除去する 4.QUERY(質問)−Unique_IDオブジェクトに 対してLibID/Versionを戻す LibID BYTE ライブラリ中のオブジェクトのインデックス/番号 Version BYTE このオブジェクトのバージョン番号 (バージョン) Persist/Expire BYTE これはガーベッジコレクションされたか、又は (永続/満了) それは待機(stick around)するか 0=セッションの後で除去する 1−254=満了の前の日数 255=永続 Access BYTE アクセス制御機能 (アクセス) 上位4ビット:誰がこのオブジェクトを 上書きできるか、又は除去できるか 1.(LibIDによる)随意に任意のセッション 2.システムパージ/リセット 3.オブジェクトに対する固有のID/ libIDを知ることによって 4.決してしない/RESERVED(予約されている) ビット3:ユーザはこのオブジェクトをもう1人 に転送できるか、beaming(1=YES) ビット2:ユーザはこれをライブラリから直接 再生できるか(Yes=1/No) ビット1:RESERVED ビット0:RESERVED UniqueID BYTE[] このオブジェクトに対する固有のID/ラベル (固有のID) State DWORD???? あなたはそれをどこから取得したか/ (状態) どのように、多くのホップ、供給時間 さもないとそれは終了(die)する 1.ホップカウント 2.ソース(SkyMail(スカイメール),SkyFile (スカイファイル),SkyServer(スカイサーバ)) 3.活性化からの時間 4.#活性化 ――――――――――――――――――――――――――――――――――――
【0295】 セマンティクス BaseHeader(ベースヘッダ) これは、ストリーム中のすべての情報パケットのためのコンテナである。
【0296】 Type−BYTE 説明−上に定義されたようにパケット中のペイロードのタイプを特定する 有効な値:0乃至255が列挙される。以下のペイロードタイプの表を参照せよ
【0297】 Obj_id−BYTE 説明−オブジェクトID−範囲を定義する−このパケットは何のオブジェクトに
属しているか。また、Zオーダーを、閲覧者の方に向かって増大する255個の
ステップで定義する。最大4つまでの異なるメディアタイプが、同一のObj_idを
共有することができる。 有効な値:0乃至NumObjs(最大200)SceneDefinitionで定義されたNumObjs 201乃至253:システムの使用のために予約されたもの 250:オブジェクトライブラリ 251:RESERVED 252:ストリームのディレクトリ 253:シーンのディレクトリ 254:当該シーン 255:当該ファイル
【0298】 Seq_no−WORD 説明−フレームシーケンス番号であって、あるオブジェクト内の各メディアタイ
プに対する個別のシーケンス。シーケンス番号は、各新しいSceneDefi
nitionパケットの後で再スタートされる。 有効な値:0乃至0xFFFF
【0299】 Flag(フラグ)(オプション)−WORD 説明−長いベースヘッダパケットを示すために用いられる 有効な値:0xFFFF
【0300】 Length(長さ)−WORD/DWORD (フラグセットパケットサイズ=長さ+0xFFFFのとき)、ペイロードの長
さを示すために用いられるバイト数である。 有効な値:フラグが0x00000001乃至0xFFFFFFFF()に設定
されているとき、0x0001乃至0xFFF ファイル/ストリーム0xFFFFの終了部に対して、0乃至RES
ERVED
【0301】 Status(状態)−WORD 端末間リンク管理のために、SysControlデータタイプフラグとともに
用いられる。 有効な値:0乃至65535が列挙される
【0302】
【表28】 ―――――――――――――――――――――――――――――――――――― 値 タイプ コメント ―――――――――――――――――――――――――――――――――――― 0 ACK 与えられたObj_id及びseq_noを備えた 肯定応答パケット 1 NAK 与えられたObj_id及びseq_noを備えた パケット上のフラグエラー 2 CONNECT クライアント/サーバ接続を確立する (接続) 3 DISCONNECT クライアント/サーバ接続を切断する (切断) 4 IDLE リンクがアイドル状態である (アイドル) 5−65535 − RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0303】 SceneDefinition(シーン定義) これは、ビデオ及びオーディオオブジェクトが再生されるAVシーン空間のプ
ロパティを定義する。
【0304】 Magic(マジック)−BYTE[4] 説明−フォーマットの照合のために用いられる 有効な値:ASKY=0x41534B59
【0305】 Version(バージョン)−BYTE 説明−ストリームフォーマットの照合のために用いられる 有効な範囲:0乃至255(現在=0)
【0306】 Compatible(互換可能)−BYTE 説明−このフォーマットを読み出すことができる最小の再生器は何か 有効な範囲:0乃至Version
【0307】 Width(幅)−WORD 説明−SceneSpace(シーン空間)の幅の画素数 有効な範囲:0x0000乃至0xFFFF
【0308】 Height(高さ)−WORD 説明−SceneSpace(シーン空間)の高さの画素数 有効な範囲:0x0000乃至0xFFFF
【0309】 Backfill−(RESERVED)WORD 説明−背景シーンの充填(ビットマップ、単一色、グラディエント) 有効な範囲:0x1000乃至0xFFFFの単一色の15ビットフォーマット
であり、そうでなければ、下位オーダーのバイトがベクトルオブジェクトに対す
るオブジェクトidを定義し、上位オーダーのバイト(0乃至15)がグライデ
ィエント充填のスタイルテーブルに対するインデックスである。ベクトルオブジ
ェクトの定義は、すべてのデータ制御パケットに先行して発生する。
【0310】 NumObjs−BYTE 説明−このシーン中にどれだけ多くのデータオブジェクトが存在するか 有効な範囲:0乃至200(201−255はシステムオブジェクトのために予
約される)
【0311】 Mode(モード)−BYTE 説明−フレームのプレイアウトモードのビットフィールド Bit:[7]再生状態−一時停止されているとき=0,再生=1//連続的な
再生又はステップスルー Bit:[6]RESERVED ズーム−好ましいとき=1,通常=0//ズームされ
た再生 Bit:[5]RESERVED−データ記憶装置−ライブ=1,記憶されたもの=0/
/ストリーミングされているか。 Bit:[4]RESERVED ストリーミング−信頼できる=1,ベストトライ=0
//ストリーミングは信頼できるか Bit:[3]RESERVED データソース−ビデオ=1,シンクライアント=0/
/発信するソース Bit:[2]RESERVED 対話−許容=1,不可=0 Bit:[1]RESERVED Bit:[0]ライブラリシーン−これはライブラリシーンか 1=yes,0
=no
【0312】 MetaData(メタデータ) これは、ファイル全体、シーン、又は個別のAVオブジェクトのいずれかに関
連付けられたメタデータを特定する。ファイルは縦続接続されることが可能であ
るので、ファイル範囲を備えたメタデータブロックが、それが特定する最後のシ
ーンを有効に通過することの保証は存在しない。しかしながら、単に、このメタ
データパケット中のSCENESIZE(シーンサイズ)フィールドに対してフ
ァイルサイズを比較することで、これを確認することができる。
【0313】 ベースヘッダにおけるOBJ_IDフィールドは、メタデータパケットの範囲
を定義する。この範囲は、ファイル全体(255)、単一のシーン(254)、
又は個別のビデオオブジェクト(0乃至200)であることができる。ゆえに、
複数のMetaDataパケットがファイル中に存在するときは、それらは、S
ceneDefinitionパケットの直後に複数の群れ又はフロック(パッ
ク?)で発生する。
【0314】 NumItem−WORD 説明−ファイル/シーン中のシーン/ファイルの数。シーン範囲に対して、Nu
mItemはobj_id=0を備えたビデオオブジェクトに対するフレーム数
を含む 有効な範囲:0乃至65535(0=特定されていない)
【0315】 SceneSize(シーンサイズ)−DWORD 説明−ファイル/シーン/オブジェクトが含むバイトのそれ自体を含んだサイズ 有効な範囲:0x0000乃至0xFFFFFFFF(0=特定されていない)
【0316】 SceneTime(シーン時間)−WORD 説明−ファイル/シーン/オブジェクトの再生時間の秒数 有効な範囲:0x0000乃至0xFFFF(0=特定されていない)
【0317】 BitRate(ビットレート)−WORD 説明−ファイル/シーン/オブジェクトのkbit毎秒のビットレート 有効な範囲:0x0000乃至0xFFFF(0=特定されていない)
【0318】 MetaMask(メタマスク)−(RESERVED)DWORD 説明−所定の順序の、何のオプションの32個のメタデータフィールドが続くか
を特定するビットフィールド ビット値[31]:Title(タイトル) ビット値[30]:Creator(作成者) ビット値[29]:Creation Date(作成日) ビット値[28]:Copyright(著作権) ビット値[27]:Rating(レーティング) ビット値[26]:Encoder ID(符号化器ID) ビット値[26−27]:RESERVED(予約されている)
【0319】 Title(タイトル)−(オプションの)BYTE[] 説明−最大254文字までのストリング
【0320】 Creator(作成者)−(オプションの)BYTE[] 説明−最大254文字までのストリング
【0321】 Date(日付)−(オプションの)BYTE[8] 説明−ASCIIの作成日=>DDMMYYYY
【0322】 Copyright(著作権)−(オプションの)BYTE[] 説明−最大254文字までのストリング
【0323】 Rating(レーティング)−(オプションの)BYTE 説明−0乃至255を特定するBYTE
【0324】 Directory(ディレクトリ) これは、あるファイル全体、又はあるシーンに対するディレクトリ情報を特定
する。ファイルは縦続接続されることが可能であるので、ファイル範囲を備えた
メタデータブロックが、それが特定する最後のシーンを有効に通過することの保
証は存在しない。しかしながら、単に、メタデータパケット中のSCENESI
ZE(シーンサイズ)フィールドに対してファイルサイズを比較することで、こ
れを確認することができる。
【0325】 ベースヘッダ(baseHeader)におけるOBJ_IDフィールドは、ディレクト
リパケットの範囲を定義する。OBJ_IDフィールドの値が200より小さい
ときは、ディレクトリは、ビデオデータオブジェクト中のキーフレームの複数の
シーケンス番号(WORD)のリスト(listing)である。そうでないときは、
ディレクトリはシステムオブジェクトのロケーションテーブルである。この場合
、テーブルの複数のエントリは、(複数のシーンのディレクトリに対して、及び
、他の複数のシステムオブジェクトに対するディレクトリ又はシーンに対して、
)ファイルの開始からの相対的なオフセットのバイト数(DWORD)である。
テーブル中のエントリの数とテーブルのサイズは、BaseHeaderパケッ
ト中のLENGTHフィールドから計算されることが可能である。
【0326】 MetaDataパケットと同様に、複数のDirectoryパケットがフ
ァイル中に存在するときは、それらは、SceneDefinitionパケッ
ト又はMetaDataパケットの直後に複数の群れ又はフロック(パック?)
で発生する。
【0327】 VideoDefinition(ビデオ定義) Codec(コーデック)−BYTE 説明−圧縮タイプ 有効な値:列挙された0乃至255
【0328】
【表29】 ―――――――――――――――――――――――――――――――――――― 値 コーデック コメント ―――――――――――――――――――――――――――――――――――― 0 RAW 圧縮されていない (未処理) 最初のバイトは色の深度を定義する 1 QTREE デフォルトのビデオコーデック 2−255 − RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0329】 Frate−BYTE 説明−1/5秒のフレームプレイアウトレート(すなわち、最大値は51fps
で、最小値は0.2fps) 有効な値:1乃至255,再生する/停止されているときは再生を開始する 0−再生を停止する
【0330】 Width(幅)−WORD 説明−ビデオフレーム中でどれだけの幅の画素数が存在するか 有効な値:0乃至65535
【0331】 Height(高さ)−WORD 説明−ビデオフレーム中でどれだけの高さの画素数が存在するか 有効な値:0乃至65535
【0332】 Times(時間)−WORD 説明−シーンの開始からの50msの分解能でのタイムスタンプ (0=特定されていない) 有効な値:1乃至0xFFFFFFFF(0=特定されていない)
【0333】 AudioDefinition(オーディオ定義) Codec(コーデック)−BYTE 説明−圧縮タイプ 有効な値:列挙された1(0=特定されていない)
【0334】
【表30】 ―――――――――――――――――――――――――――――――――――― 値 コーデック コメント ―――――――――――――――――――――――――――――――――――― 0 WAV 圧縮されていない 1 G723 デフォルトのビデオコーデック 2 IMA 対話型マルチメディアアソシエーションADPCM 3−255 − RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0335】 Format(フォーマット)−BYTE 説明−BYTEは、独立に定義される2つの別個のフィールドに分割される。上
位4ビットはオーディオフォーマット(フォーマット≫4)を定義する一方、下
位4ビットはサンプルレート(フォーマット&0x0F)を別に定義する。
【0336】 下位4ビット,値:列挙された0乃至15、サンプリングレート
【表31】 ―――――――――――――――――――――――――――――――――――― 値 Samp.Rate コメント ―――――――――――――――――――――――――――――――――――― 0 0 0−再生を停止する 1 5.5kHz 5.5kHzの非常に低いレートのサンプリング、 停止されていたならば再生を開始する 2 8kHz 標準の8000Hzのサンプリング 停止されていたならば再生を開始する 3 11kHz 標準の11025Hzのサンプリング 停止されていたならば再生を開始する 4 16kHz 2×8000Hzのサンプリング 停止されていたならば再生を開始する 5 22kHz 標準の22050Hzのサンプリング 停止されていたならば再生を開始する 6 32kHz 4×8000Hzのサンプリング 停止されていたならば再生を開始する 7 44kHz 標準の44100Hzのサンプリング 停止されていたならば再生を開始する 8−15 RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0337】 ビット4乃至5,値:列挙された0乃至3、フォーマット
【表32】 ―――――――――――――――――――――――――――――――――――― 値 フォーマット コメント ―――――――――――――――――――――――――――――――――――― 0 MONO8 モノフォニック、1サンプル当り8ビット毎 1 MONO16 モノフォニック、1サンプル当り16ビット毎 2 STEREO8 ステレオ、1サンプル当り8ビット毎 3 STEREO16 ステレオ、1サンプル当り16ビット毎 ――――――――――――――――――――――――――――――――――――
【0338】 上位2ビット(6乃至7),値:列挙された0乃至3、特別
【表33】 ―――――――――――――――――――――――――――――――――――― コーデック コメント ―――――――――――――――――――――――――――――――――――― WAV RESERVED(使用されない) G.723 RESERVED(使用されない) IMA サンプル毎のビット数(値+2) ――――――――――――――――――――――――――――――――――――
【0339】 Fsize−WORD 説明−フレーム毎のサンプル数 有効な値:0乃至65535
【0340】 Times(時間)−WORD 説明−シーンの開始からの50msの分解能でのタイムスタンプ (0=特定されていない) 有効な値:1乃至0xFFFFFFFF(0=特定されていない)
【0341】 TextDefinition(テキスト定義) われわれは、記述の方向(writing direction)を含むことを必要とし、それ
はLRTB、又はRLTB、又はTBRL、又はTBLRであることができる。
このことは、方向を示すための、テキストの本文中の特別な文字コードを用いる
ことによって実行されることが可能であり、例えば、われわれは、このタスクの
ためにDC1−DC4(ASCIIデバイス制御コード17−20)を用いるこ
とができる。われわれはまた、開始時にビットマップフォントともにダウンロー
ドされたフォントテーブルを有する必要がある。プラットフォームに依存して、
再生器は、テキストをレンダリングするために、ビットマップフォントを無視す
るか又はビットマップフォントを用いることを試みるかのいずれかが可能なレン
ダラ上で動作している。ビットマップフォントテーブルが存在しないとき又はそ
れが再生器によって無視されているとき、レンダリングシステムは、テキストを
レンダリングするために、オペレーティングシステムテキスト出力機能を用いる
ように自動的に試みる。
【0342】 Type(タイプ)−BYTE 説明−下位ニブルで、テキストデータが解釈される方法を定義し(Type&0
x0F)、上位ニブルで、圧縮方法を定義する(Type≫4)
【0343】 下位4ビット,値:列挙された0乃至15、タイプ−解釈
【表34】 ―――――――――――――――――――――――――――――――――――― 値 タイプ コメント ―――――――――――――――――――――――――――――――――――― 0 PLAIN プレインテキスト−解釈なし 1 TABLE RESERVED−テーブルデータ 2 FORM ユーザ入力のためのフォーム/テキストフィールド 3 WML RESERVED WAP−WML 4 HTML RESERVED HTML 5−15 − RESERVED ――――――――――――――――――――――――――――――――――――
【0344】 上位4ビット,値:列挙された0乃至15、圧縮方法
【表35】 ―――――――――――――――――――――――――――――――――――― 値 コーデック コメント ―――――――――――――――――――――――――――――――――――― 0 NONE 圧縮されていない8ビットのASCIIコード 1 TEXT7 RESERVED−7ビットの文字コード 2 HUFF4 RESERVED −4ビットのハフマン符号化されたASCII 3 HUFF8 RESERVED −8ビットのハフマン符号化されたASCII 4 LZW RESERVED −レンペル−ジブ−ウェルチ符号化されたASCII 5 ARITH RESERVED− −算術符号化されたASCII 6−15 − RESERVED ――――――――――――――――――――――――――――――――――――
【0345】 FontInfo−BYTE 説明−下位ニブルにサイズ(FontInfo&0x0F)、上位ニブルにスタ
イル(FontInfo≫4)。このフィールドは、タイプがWML又はHTM
Lであるときは無視される。 下位4ビットの値:0乃至15 FontSize 上位4ビットの値:列挙された1乃至15、FontStyle
【0346】 Colour(色)−WORD 説明−テキストフェースの色 有効な値:0x0000乃至0xEFFF、15ビットのRGBの色(R5、G
5、B5) 0x8000乃至0x80FF,VideoData(ビデオデータ
)LUT中のインデックスとしての色(0x80FF=透明) 0x8100乃至0xFFFF RESERVED
【0347】 BackFill−WORD 説明−背景色 有効な値:0x0000乃至0xEFFF、15ビットのRGBの色(R5、G
5、B5) 0x8000乃至0x80FF,VideoData(ビデオデータ
)LUT中のインデックスとしての色(0x80FF=透明) 0x8100乃至0xFFFF RESERVED
【0348】 Bounds(境界)−WORD 説明−キャラクタ単位でのテキスト境界ボックス(フレーム)であって、LoB
yte(Bounds&0x0F)に幅があって、HiByte(Bounds
≫4)に高さがある。テキストは、幅を用いてラッピング(wrap)され、高さに
対してクリッピングされる。 有効な値:幅=1乃至255、高さ=1乃至255 幅=0−ラッピングが実行されない 高さ=0−クリッピングが実行されない
【0349】 Xpos−WORD 説明−定義されているならばオブジェクトの原点に対するposであり、そうで
ないときは0,0に対するposである 有効な値:0x0000乃至0xFFFF
【0350】 Ypos−WORD 説明−定義されているならばオブジェクトの原点に対するposであり、そうで
ないときは0,0に対するposである 有効な値:0x0000乃至0xFFFF
【0351】 注: VideoData LUTが最大240色までしかサポートしていないので
、0x80F0乃至0x80FFの範囲の色は、それらVideoData L
UT中への有効な色のインデックスではない。ゆえに、それらは後続のテーブル
により解釈される。これらの色は、テーブルに従って最良の候補(possible)と
して特定の装置/OSシステムの色にマッピングされる必要がある。標準的なP
alm(パーム) OS UIでは8色のみが用いられ、これらの色のうちのい
くつかは他のプラットフォームでも類似しているが同一ではなく、これはアステ
リスクを用いて示される。失った8色は、アプリケーションによって設定される
必要がある。
【0352】 GrafDefinition(グラフ定義) このパケットは、基本的なアニメーションパラメータを含んでいる。実際のグ
ラフィックオブジェクトの定義はGrafData(グラフデータ)パケットに
含まれ、アニメーションの制御はobjControlパケットに含まれる。
【0353】 Xpos−WORD 説明−定義されているならばオブジェクトの原点に対するXPosであり、そう
でないときは0,0に対するXPosである 有効な値: Ypos−WORD 説明−定義されているならばオブジェクトの原点に対するXPosであり、そう
でないときは0,0に対するXPosである 有効な値: FrameRate(フレームレート)−WORD 説明−8.8fpsでのフレームの遅延 有効な値: FrameSize(フレームサイズ)−WORD 説明−twip(1/20ペル)でのフレームサイズ−シーン空間が適合するよ
うに大きさを定めるために用いられる 有効な値: FrameCount(フレームカウント)−WORD 説明−このアニメーションにはどれだけ多くのフレームが存在するか 有効な値: Time(時間)−DWORD 説明−シーンの開始からの50msの分解能でのタイムスタンプ 有効な値:
【0354】 VideoKey(ビデオキー),VideoData(ビデオデータ),Vi
deoTrp及びAudioData(オーディオデータ) これらのパケットは、特定のコーデックのための圧縮されたデータを含んでい
る。これらのパケットは、特定のコーデックのための圧縮されたデータを含んで
いる。
【0355】 バッファサイズは、VideoDefn及びAudioDefnパケットで伝
送される情報から決定されるものとする。TypeTag以外は、VideoK
eyパケットはVideoDataパケットと同様であり、透明な領域を符号化
するそれらの能力が異なるのみである−VideoKeyフレームは透明な領域
を持たない。タイプの定義における相違は、ファイルのパージングのレベルで可
視なキーフレームに、閲覧(ブラウジング)を容易化させる。VideoKey
パケットは、VideoDataパケットのシーケンスの不可欠な構成要素(in
tegral component)であり、それらは、典型的には、同じパケットシーケンスの
一部としてそれらの間で散在されている。VideoTrpパケットは、ビデオ
ストリームにとって本質的ではないフレームを表し、従って、それらは、Sky
復号化エンジンによって廃棄されてもよい。
【0356】 TextData(テキストデータ) テキストデータパケットは、レンダリングされるべきテキストに対するASC
IIキャラクタコードを含んでいる。何のセリフシステムのフォントが利用可能
なものであっても、これらのフォントをレンダリングするためにクライアント装
置が用いられる必要がある。プロポーショナルフォントは、レンダリングするた
めに追加の処理を必要とするので、セリフフォントが用いられるものとする。特
定のセリフシステムのフォントのスタイルが利用可能でない場合は、最もよく一
致する利用可能なフォントが用いられるべきである。
【0357】 プレインテキストは、いかなる解釈もなしに直接にレンダリングされる。LF
(改行)キャラクタと、スペースと、以下に特定されるようなテーブル及びフォ
ームのための他の特別なコードとは異なる空白文字は完全に無視され、飛び越え
られる。すべてのテキストは、シーンの境界においてクリッピングされる。
【0358】 境界ボックスは、テキストのラッピング(wrapping)がどのように機能するか
を定義する。テキストは幅を用いてラッピングされ、それが高さを超えるときは
クリッピングされる。境界の幅が0であるときはラッピングは発生しない。高さ
が0であるときはクリッピングは発生しない。
【0359】 テーブルデータは、行の終わりを示すために用いられるLFと、列の中断を示
すために用いられるCRキャラクタとを例外として、プレインテキストと同様に
処理される。
【0360】 WML及びHTMLは、それらの各標準に従って解釈され、このフォーマット
で指定されるフォントスタイルは無視される。WML及びHTMLでは、画像は
サポートされていない。
【0361】 ストリーミングテキストデータを取得するために、新しいTextDataパ
ケットが送られて、関連するオブジェクトを更新する。また、通常のテキストア
ニメーションにおいて、TextDataのレンダリングは、ObjectCo
ntrolパケットを用いて定義されることが可能である。
【0362】 GrafData(グラフデータ) このパケットは、グラフィックスアニメーションに用いられるグラフィックの
形状及びスタイルの定義のすべてを制御する。これは、非常に簡単なアニメーシ
ョンデータのタイプである。それぞれの形状は、パス(path)、いくつかの属性
、及び描画スタイルによって定義される。1つのグラフィックオブジェクトは、
任意の1つのGraphData(グラフデータ)パケットにおける複数のパス
のアレーから構成されることが可能である。このグラフィックオブジェクトのア
ニメーションは、次のフレームにおける個別の形状記録アレーの全体をクリアー
するか置換することによって発生することができ、アレーに新しい記録を追加す
ることもまた、CLEAR(クリアー)及びSKIP(スキップ)パスのタイプ
を用いて実行されることが可能である。
【0363】 GrafDataパケット
【表36】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― NumShapes BYTE 後続する形状記録の数 Primitives SHAPERecord[] 形状の定義のアレー (画素) ――――――――――――――――――――――――――――――――――――
【0364】 ShapeRecord(形状記録)
【表37】 ―――――――――――――――――――――――――――――――――――― 記述 タイプ コメント ―――――――――――――――――――――――――――――――――――― Path BYTE 形状のパス及びDELETE(削除)動作を設定する (パス) Style BYTE パスが解釈されてレンダリングされる方法を定義する (スタイル) Offset IPOINT (オフセット) Vertices DPOINT[] パスの下位ニブルで与えられたアレーの長さ (頂点) FillColour WORD[] フィルスタイル及び#頂点に依存するエントリの数 (充填する色) LineColour WORD スタイルフィールドによって決定される (ラインの色) オプションのフィールド ――――――――――――――――――――――――――――――――――――
【0365】 Path(パス)−BYTE 説明−上位ニブルにおける形状のパスと下位ニブルにおける#頂点とのセット 下位4ビットの値:0乃至15:複数のパス(poly path)中の頂点の数 上記4ビットの値:ENUMERATED(列挙されている):0乃至15はパ
スの形状を定義する
【0366】
【表38】 ―――――――――――――――――――――――――――――――――――― 値 パス コメント ―――――――――――――――――――――――――――――――――――― 0 CLEAR アレーからSHAPERECORDの 定義を削除する 1 SKIP アレーにおける当該SHAPERECORDを スキップする 2 RECT 説明−左上の角、右下の角、 有効な値:(0..4096,0..4096), [0..255,0..255]... 3 POLY 説明−#ポイント、xyの初期値、 相対的なpt座標のアレー 有効な値:0..255, (0..4096,0..4096), [0..255,0..255]... 4 ELLIPSE 説明−中心の座標、長軸半径、短軸半径 (楕円) 有効な値:(0..4096,0..4096), 0..255,0..255 5−15 RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0367】 Style(スタイル)−BYTE 説明−パスがどのように解釈されるかを定義する 下位4ビットの値:0乃至15 ラインの厚さ 上位4ビット:BITFIELD(ビットフィールド):パスレンダリングパラ
メータ。デフォルトは、形状が不可視のホットな領域として動作するように、当
該形状をまったく描画しない。 ビット[4]:CLOSED(クローズされている)−ビットが設定されるとき
、パスは閉じられる ビット[5]:FILLFLAT(平坦に充填する)−デフォルトは充填しない
−両方とも充填するとき、何も実行しない ビット[6]:FILLSHADE(影を充填する)−デフォルトは充填しない
−両方とも充填するとき、何も実行しない ビット[7]:LINECOLOR(ラインの色)−デフォルトはアウトライン
を持たない
【0368】 UserControl(ユーザ制御) これらは、ユーザ−システム、及びユーザ−オブジェクトの対話イベントを制
御するために用いられる。それらは、ユーザ対話をサーバに戻してサーバ側の制
御を生じさせるためのバックチャンネルとして用いられる。しかしながら、ファ
イルがストリーミングされてないときは、これらのユーザ対話は、クライアント
によってローカルに処理される。各パケットにおけるユーザ−オブジェクトの制
御に対して、多数のアクションが定義されることが可能である。このバージョン
では、以下のアクションが定義されている。サーバは何のアクションが有効であ
るかを認識しているので、1つのユーザ−オブジェクトの対話が発生したことを
サーバに通知することを除いて、ユーザ−オブジェクトの対話は特定される必要
がない。
【0369】
【表39】 ―――――――――――――――――――――――――――――――――――― ユーザ−システムの対話 ユーザ−オブジェクトの対話 ―――――――――――――――――――――――――――――――――――― ペンのイベント(上げる、下げる、 2D位置、可視性(それ自体、他)を 動かす、dblクリック) 設定する ―――――――――――――――――――――――――――――――――――― キーボードのイベント システム制御を再生/一時停止する ―――――――――――――――――――――――――――――――――――― 再生の制御(再生、一時停止、 ハイパーリンク−#(シーン、フレーム フレームの前進、停止) ラベル、URL)に進む ―――――――――――――――――――――――――――――――――――― データからのリターン ハイパーリンク−次の/前の (シーン、フレーム)に進む ―――――――――――――――――――――――――――――――――――― ハイパーリンク−オブジェクトを (それ自体で、他のもので)置換する ―――――――――――――――――――――――――――――――――――― ハイパーリンク−サーバで定義されたもの
――――――――――――――――――――――――――――――――――――
【0370】 ユーザ−オブジェクトの対話は、各オブジェクトがユーザによってクリックさ
れるときに、上記各オブジェクトに対して何のアクションが定義されているかに
依存する。再生器は、ObjectControlメッセージの媒体を介して、
これらのアクションについて知ることができる。そうでないときは、それらは、
処理のためにオンラインサーバに伝送される。ユーザ−オブジェクトの対話を用
いて、関連するオブジェクトの識別が、BaseHeaderのobj_idフ
ィールドにおいて示される。これは、OBJCTRL及びFORMDATAイベ
ントのタイプに適用する。ユーザ−システムの対話に対して、obj_idフィ
ールドの値は255である。UserControlパケットにおけるイベント
のタイプは、キー、HiWord及びLoWordのデータフィールドの解釈を
特定する。
【0371】 Event(イベント)−BYTE 説明−ユーザイベントのタイプ 有効な値:列挙された0乃至255
【0372】
【表40】 ―――――――――――――――――――――――――――――――――――― 値 イベントタイプ コメント ―――――――――――――――――――――――――――――――――――― 0 PENDOWN ユーザはタッチスクリーン上にペンを下ろした 1 PENUP ユーザはタッチスクリーンからペンを持ち上げた 2 PENMOVE ユーザはタッチスクリーン上でペンをドラグして 動かした 3 PENDBLCLK ユーザはタッチスクリーンをペンで ダブルクリックした 4 KEYDOWN ユーザはキーを押した 5 KEYUP ユーザはキーを押した 6 PLAYCTRL ユーザは再生/一時停止/停止の制御ボタンを 活性化した 7 OBJCTRL ユーザはAVオブジェクトを クリックした/活性化した 8 FORMDATA ユーザはデータから復帰している 9−255 − RESERVED(予約されている) ――――――――――――――――――――――――――――――――――――
【0373】 キー、HiWord及びLoWord−BYTE、WORD、WORD 説明−異なるイベントタイプのためのパラメータ 有効な値:これらのフィールドの解釈は次のようになる
【0374】
【表41】 ―――――――――――――――――――――――――――――――――――― イベント キー HiWord LoWord ―――――――――――――――――――――――――――――――――――― PENDOWN キーが保持されている X位置 Y位置 ときはキーコード PENUP キーが保持されている X位置 Y位置 ときはキーコード PENMOVE キーが保持されている X位置 Y位置 ときはキーコード PENDBLCLK キーが保持されている X位置 Y位置 ときはキーコード KEYDOWN キーコード ユニコードの 第2のキーが キーコード 保持される KEYUP キーコード ユニコードの 第2のキーが キーコード 保持される PLAYCTRL 停止=0、 RESERVED RESERVED 開始=1、 一時停止=2 OBJCTRL ペンイベントのID キーが保持されてい RESERVED るときはキーコード FORMDATA RESERVED データフィールド RESERVED の長さ ――――――――――――――――――――――――――――――――――――
【0375】 Time(時間)−WORD 説明−ユーザイベントの時刻=活性化されたオブジェクトのシーケンス番号 有効な値:0乃至0xFFFF
【0376】 Data(データ)−(RESERVED−OPTIONAL(オプション)) 説明−オブジェクトからのテキスト列 有効な値:0...65535バイトの長さ
【0377】 注: PLAYCTRLの場合では、再生がすでに一時停止されているときに重ねて
一時停止するイベントは、サーバから、フレームを前進する応答を呼び出さなけ
ればならない。停止することは、フィルム/ストリームの開始部を再生すること
をリセットしなければならない。
【0378】 ObjectControl(オブジェクト制御) オブジェクト制御パケットは、オブジェクト−シーン及びシステム−シーンの
対話を定義するために用いられる。それらはまた、複数のオブジェクトがどのよ
うにレンダリングされるかと、複数のシーンがどのように最後まで再生されるか
とを特別に定義する。新しいOBJCTRLパケットは、個別のオブジェクトの
レイアウトを調整するために各フレームに対して用いられる。各パケットにおけ
る1つのオブジェクトに対して、多数のアクションが定義されることが可能であ
る。このバージョンでは、以下のアクションが定義されている。
【0379】
【表42】 ―――――――――――――――――――――――――――――――――――― オブジェクト−システムアクション システム−シーンアクション ―――――――――――――――――――――――――――――――――――― 2D/3Dの位置を設定する #(シーン、フレーム、ラベル、URL) に進む ―――――――――――――――――――――――――――――――――――― 3Dの回転を設定する 次の、前の、(シーン、フレーム)に進む ―――――――――――――――――――――――――――――――――――― シーン/サイズ係数を設定する 再生する/一時停止する ―――――――――――――――――――――――――――――――――――― 可視性を設定する オーディオを消音(ミュート)する ―――――――――――――――――――――――――――――――――――― (ツールチップにおけるものと (シーン、フレーム、オブジェクト) して用いるための) ならば、(アクション)を実行する ラベル/タイトルを設定する ―――――――――――――――――――――――――――――――――――― 背景色を設定する(nil=透明) ―――――――――――――――――――――――――――――――――――― (アニメーションのための) トゥイーニング値を設定する ―――――――――――――――――――――――――――――――――――― 開始/終了/継続時間/反復(ループ) ―――――――――――――――――――――――――――――――――――― 陰に(implicit) ――――――――――――――――――――――――――――――――――――
【0380】 ・ControlMask(制御マスク)−BYTE 〇説明−ビットフィールド−制御マスクは、オブジェクトレベルとシステムレ
ベルの動作で共通の制御を定義する。ControlMaskに続くものは、作
用されるオブジェクトのオブジェクトidを示すオプションのパラメータである
。特定された作用されるオブジェクトIDが存在しないときは、作用されるオブ
ジェクトidはベースヘッダのオブジェクトidである。ControlMas
kに続くActionMask(アクションマスク)(オブジェクト又はシステ
ムの範囲)のタイプは、作用されるオブジェクトidによって決定される。 ・ビット:[7]CONDITION(条件)−これらのアクションを実行
するために何が必要とされているか ・ビット:[6]BACKCOLR(背景色)−オブジェクトの背景の色を
設定する ・ビット:[5]PROTECT(プロテクト)−シーンのオブジェクトに
係るユーザの変更を制限する ・ビット:[4]JUMPTO(ある場所へのジャンプ)−オブジェクトに
対するソースストリームをもう1つのものと置換する ・ビット:[3]HYPERLINK(ハイパーリンク)−ハイパーリンク
の目標を設定する ・ビット:[2]OTHER(その他)−作用されるオブジェクトのオブジ
ェクトidが続く(255=システム) ・ビット:[1]SETTIMER(タイマ設定)−タイマを設定し、カウ
ントダウンを開始する ・ビット:[0]EXTEND(拡張)−将来の拡張のためにRESERV
ED(予約されている)
【0381】 ・ControlObject(制御オブジェクト)−BYTE(オプション) 〇説明:作用されるオブジェクトのオブジェクトID。ControlMas
kのビット2が設定されているとき含まれる。 〇有効な値:0乃至255
【0382】 ・Timer(タイマ)−WORD(オプション) 〇説明:上位ニブル=タイマの数、下位の12ビット=時間の設定 〇上位ニブル、有効な値:このオブジェクトに対して0乃至15のタイマの数 〇下位の12ビットの有効な範囲:100msのステップでの0乃至4096
の時間の設定
【0383】 ・ActionMask(アクションマスク)[OBJECTの範囲]−WOR
D 〇説明−ビットフィールド−これは、この記録において何のアクションが指定
されているかと、後続すべきパラメータとを定義する。これの2つのバージョン
が存在して、一方はオブジェクトのためであり、他方はシステムの範囲のためで
ある。このフィールドは、メディアオブジェクトに対して適用するアクションを
定義する。 〇有効な値:オブジェクトに対して、ActionMaskにおける16ビッ
トのうちのそれぞれは、とられるべきアクションを識別する。ビットが設定され
ているときは、このフィールドに追加の関連付けられたパラメータの値が続く。 ・ビット:[15]BEHAVIOR(振る舞い)−アクションが実行され
た後であっても、このアクション及び条件がオブジェクトとともに残っているこ
とを示す ・ビット:[14]ANIMATE(アニメーション化)−パスを定義する
複数の制御ポイントが続く ・ビット:[13]MOVETO(移動する)−スクリーンの位置を設定す
る ・ビット:[12]ZORDER(Zオーダー)−深度を設定する ・ビット:[11]ROTATE(回転)−3Dの方向 ・ビット:[10]ALPHA(アルファ)−透明度 ・ビット:[9]SCALE(スケール)−スケール/サイズ ・ビット:[8]VOLUME(ボリューム)−音量を設定する ・ビット:[7]FORECOLR(前景色)−前景色を設定する/変化す
る ・ビット:[6]CTRLLOOP(制御ループ)−(ENDLOOPに代
わって設定されているときは)次の#アクションを繰り返す ・ビット:[5]ENDLOOP(終了ループ)−制御/アニメーションを
ループしているとき、それを中断する ・ビット:[4]BUTTON(ボタン)−ボタンに対してpenDown
画像を定義する ・ビット:[3]COPYFRAME(コピーフレーム)−フレームをオブ
ジェクトからこのオブジェクト(チェックボックス)にコピーする ・ビット:[2]CLEAR_WAITING_ACTION−待機アクシ
ョンをクリアーする ・ビット:[1]OBJECT_MAPPING−ストリーム間のオブジェ
クトマッピングを特定する ・ビット:[0]ACTIONEXTEND−拡張されたアクションマスク
が続く
【0384】 ・ActionExtend[OBJECTの範囲]−WORD 〇説明−ビットフィールド−RESERVED
【0385】 ・ActionMask(アクションマスク)[SYSTEMの範囲]−BYT
E 〇説明−ビットフィールド−これは、この記録において何のアクションが特定
されているかと、後続すべきパラメータとを定義する。これの2つのバージョン
が存在して、一方はオブジェクトのためであり、他方はシステムの範囲のためで
ある。このフィールドは、シーンの幅の範囲を有するアクションを定義する。 〇有効な値:システムに対して、ActionMaskにおける16ビットの
うちのそれぞれは、とられるべきアクションを識別する。ビットが設定されてい
るときは、このフィールドに追加の関連付けられたパラメータの値が続く。 ・ビット[7]PAUSEPLAY(再生の一時停止)−再生しているとき
は、決定的ではなく(indefinitively)一時停止する ・ビット[6]SNDMUTE−音声が出ているときはミュートし、ミュー
トされているときは音声を出す ・ビット[5]SETFLAG(フラグ設定)−ユーザが割り当て可能なシ
ステムフラグ値を設定する ・ビット[4]MAKECALL(呼の発生)−物理的チャンネルを変化す
る/オープンにする ・ビット[3]SENDDTMF−音声呼上にDTMFトーンを送る ・ビット[2−0]−RESERVED(予約されている)
【0386】 ・Params−BYTEアレー 〇説明−バイトアレー。上記ビットフィールドにおいて定義されたアクション
のほとんどは、追加のパラメータを用いる。設定されているビットフィールド値
によって示されたように用いられるパラメータは、トップ(15)からボトム(
0)へのビットフィールドと、マスクの順序と、すなわちActionMask
に次いで[Object/System]Mask(2つの間ですでに特定され
た、作用されるオブジェクトidを除く)と同じ順序で、ここに特定される。こ
れらのパラメータはオプションのフィールドを含んでもよく、これらは以下の表
において黄色の行で示されている。 〇CONDITION(条件)ビット−互いに連結された1つ又はそれ以上の
状態記録からなり、各記録はまた、それの後にオプションのフレーム番号フィー
ルドを有することができる。各記録内の条件は、互いに論理積演算される。より
大きな柔軟性のために、追加の記録はビット0を用いて連結されて、論理和演算
条件を作成することが可能である。このことに加えて、複数の、別個の定義の記
録が、各オブジェクトに対して複数の条件制御パスを作成する任意の1つのオブ
ジェクトに対して存在してもよい。
【0387】
【表43】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― State WORD これらのアクションを実行するために何が必要とされるか ビットフィールド(論理積演算されている) ・ビット:[15]playing (再生中)//連続的な再生 ・ビット:[14]paused (一時停止された)// 再生が一時停止される ・ビット:[13]stream (ストリーム)// 遠隔のサーバからストリーミングされる ・ビット:[12]stored (記憶された)// ローカル記憶装置から再生する ・ビット:[11]buffered (バッファリングされた) //オブジェクトフレーム#はバッファリングされたか。 (記憶されているときは真) ・ビット:[10]overlap (オーバーラップ)// われわれは、何のオブジェクト上にドロップして 落とされる必要があるか。 ・ビット:[9]event (イベント)//何のユーザ イベントが発生される必要があるか。 ・ビット:[8]wait (待機)//われわれは条件が 真になることを待機するか。 ・ビット:[7]userflags (ユーザフラグ)// 後続するユーザフラグをテストする ・ビット:[6]TimeUp //タイマが満了した ・ビット:[5−1]RESERVED(予約されている) ・ビット:[0]OrStart // OrStart の条件の記録が続く Frame WORD ビット11の条件に対する(オプションの)フレーム番号 (フレーム) Object BYTE ビット10の条件に対する(オプションの) (オブジェクト) オブジェクトID、不可視なオブジェクトが 用いられることが可能である Event WORD 上位BYTE:UserControlパケットからの (イベント) イベントフィールド 下位BYTE:UserControlパケットからのキーフィール
ド 0xFFはキーを無視し、 0x00はキーが押されていない User Frags DWORD 上位WORD:どのフラグをチェックするかを示すマスク (ユーザフラグ) 下位WORD:(設定されているか、設定されていない) ユーザフラグの値を示すマスク TimeUp BYTE 上位ニブル:RESERVED (タイムアップ) 下位ニブル:タイマのid番号(0乃至15) State WORD 前の状態フィールドと同じビットフィールドであるが、 (状態) それに対して論理和演算されている … WORD … ――――――――――――――――――――――――――――――――――――
【0388】 〇ANIMATEビットセット−アニメーション化ビットが設定されていると
き、アニメーションパラメータが続いて、アニメーションの回数及び補間を特定
する。アニメーション化ビットはまた、この制御中に存在する多数のMOVET
O、ZORDER、ROTATE、ALPHA、SCALE、及びVOLUME
パラメータに作用する。各パラメータに対して複数の値が発生し、各制御ポイン
トに対して1つの値が発生する。
【0389】
【表44】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― AnimCtrl BYTE 上位ニブル:制御ポイントの数−1 下位ニブル:パスの制御 ・ビット[3]:アニメーションをループする ・ビット[2]:RESERVED ・ビット[1..0]:列挙された(enum)、パスの タイプ−{0:線形、1:2次、2:3次} Start time WORD シーンの開始又は条件からの、50msのステップでの (開始時刻) アニメーションの開始時刻 Durations WORD[] 50msのインクリメントでの継続時間のアレー (継続時間) 長さ=制御ポイント−1 ――――――――――――――――――――――――――――――――――――
【0390】 〇MOVETO(移動する)ビットセット
【表45】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Xpos WORD 現在のposに関する、移動する先のXの位置 Ypos WORD 現在のposに関する、移動する先のYの位置 ――――――――――――――――――――――――――――――――――――
【0391】 〇ZORDER(Zオーダー)ビットセット
【表46】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Depth WORD 深度は閲覧者から離れるように増大し、0,256,512, (深度) 768などの値が予約される ――――――――――――――――――――――――――――――――――――
【0392】 〇ROTATE(回転)ビットセット
【表47】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Xrot BYTE X軸の回転、角度の絶対値*255/360 Yrot BYTE Y軸の回転、角度の絶対値*255/360 Zrot BYTE Z軸の回転、角度の絶対値*255/360 ――――――――――――――――――――――――――――――――――――
【0393】 〇ALPHA(アルファ)ビットセット
【表48】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― alpha BYTE 透明度0=透明、255=完全に不透明 ――――――――――――――――――――――――――――――――――――
【0394】 〇SCALE(スケール)ビットセット
【表49】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― scale WORD 8.8の固定されたintフォーマットのサイズ/スケール ――――――――――――――――――――――――――――――――――――
【0395】 〇VOLUME(音量)ビットセット
【表50】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― vol BYTE 音量0=最も静か、255=最も音が大きい ――――――――――――――――――――――――――――――――――――
【0396】 〇BACKCOLR(背景色)ビットセット
【表51】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― fillcolr WORD SceneDefinition背景色と同じフォーマット (nil=透明) ――――――――――――――――――――――――――――――――――――
【0397】 〇PROTECT(プロテクト)ビットセット
【表52】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Protect BYTE シーンオブジェクトビットフィールドのユーザの変更 を制限する。ビットセット=ディスエーブルにされた ・ビット:[7]move (移動)//オブジェクトの移動を 禁止する ・ビット:[6]alpha (アルファ)//アルファ値の 変化を禁止する ・ビット:[5]depth (深度)//深度の値の変化を 禁止する ・ビット:[4]clicks (クリック)//クリックスルー の振る舞いをディスエーブルにする ・ビット:[3]drag (ドラグ)//オブジェクトの ドラグをディスエーブルにする ・ビット:[2..0]//RESERVED ――――――――――――――――――――――――――――――――――――
【0398】 〇CTRLLOOPビットセット
【表53】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Repeat BYTE このオブジェクトに対する次の#アクションを繰り返す (反復) −オブジェクトをクリックしてループを中断する ――――――――――――――――――――――――――――――――――――
【0399】 〇SETFLAG(フラグ設定)ビットセット
【表54】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Flag BYTE 上位ニブル=フラグの番号 (フラグ) 下位ニブルが真ならばフラグを設定し、 そうでないときはフラグをリセットする ――――――――――――――――――――――――――――――――――――
【0400】 〇HYPERLINK(ハイパーリンク)ビットセット
【表55】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― hLink BYTE[] クリックする(click through)ためのハイパーリンクの 目標のURLを設定する ――――――――――――――――――――――――――――――――――――
【0401】 〇JUMPTO(ある場所にジャンプする)ビットセット
【表56】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― scene BYTE シーン#に進む 値=0xFFのとき、 (シーン) ハイパーリンクに進む(250=ライブラリ) stream BYTE [オプションの]ストリーム# (ストリーム) 値=0のときは、オプションのオブジェクトidを読み出す object BYTE [オプションの]オブジェクトid# (オブジェクト) ――――――――――――――――――――――――――――――――――――
【0402】 〇BUTTON(ボタン)ビットセット
【表57】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― scene BYTE シーン#(250=ライブラリ) (シーン) stream BYTE ストリーム# (ストリーム) 値=0のときは、オプションのオブジェクトidを読み出す object BYTE [オプションの]オブジェクトid# (オブジェクト) ――――――――――――――――――――――――――――――――――――
【0403】 〇COPYFRAME(コピーフレーム)ビットセット
【表58】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― object BYTE フレームはこのidを有するオブジェクトからコピーされる (オブジェクト) ――――――――――――――――――――――――――――――――――――
【0404】 〇OBJECTMAPPING(オブジェクトマッピング)ビットセット−オ
ブジェクトがもう1つのストリームにジャンプするとき、上記ストリームは、現
在のシーンに対して異なるオブジェクトidを用いてもよい。ゆえに、オブジェ
クトマッピングは、JUMPTOコマンドを含む同じパケットにおいて特定され
る。
【0405】
【表59】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― Objects BYTE マッピングされるべきオブジェクト数 (オブジェクト) Mapping WORD[] 複数のワードのアレー、長さ=複数のオブジェクト (マッピング) 上位BYTE:われわれがジャンプする先のストリームに おいて用いられているオブジェクトid 下位BYTE:新しいオブジェクトidがマッピングされる 先の現在のシーンのオブジェクトid ――――――――――――――――――――――――――――――――――――
【0406】 〇MAKECALL(呼の発生)ビットセット
【表60】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― channel DWORD 新しいチャンネルの電話番号 (チャンネル) ――――――――――――――――――――――――――――――――――――
【0407】 〇SENDDTMFビットセット
【表61】 ―――――――――――――――――――――――――――――――――――― Param タイプ コメント ―――――――――――――――――――――――――――――――――――― DTMF BYTE[] チャンネル上で送られるべきDTMF列 ――――――――――――――――――――――――――――――――――――
【0408】 注: ・PAUSEPLAY及びSNDMUTEアクションに対しては、これらがバイ
ナリフラグであるので、パラメータが存在しない。 ・ボタンの状態は、最初は透明に設定されるべき余分な画像オブジェクトを有す
ることによって作成されることが可能である。ユーザがボタンオブジェクトをク
リックするとき、これは、ボタン振る舞いフィールドを用いて可視に設定される
不可視のオブジェクトによって置換され、ペンが持ち上げられたときは元の状態
に戻る。
【0409】 ObjLibControl ObjLibCtrlパケットは、再生器が保持する永続的なローカルオブジ
ェクトライブラリを制御するために用いられる。1つの意味において、ローカル
オブジェクトライブラリは、リソースを記憶するものとみなすことができる。合
計で200個のユーザオブジェクトと55個のシステムオブジェクトとが、各ラ
イブラリに記憶されることが可能である。プレイバックの間に、オブジェクトラ
イブラリは、シーンに対するobj_id=250を用いることによって直接に
アドレス指定されることが可能である。オブジェクトライブラリは、非常に強力
であって、フォントライブラリとは異なり、永続性と自動的なガーベッジコレク
ションとの両方をサポートする。
【0410】 複数のオブジェクトは、ObjLibCtrlパケットと、モードビットフィ
ールド[ビット0]にObjLibraryビットセットを有するSceneD
efnパケットとの組み合わせを用いて、オブジェクトライブラリに挿入される
。SceneDefnパケットにこのビットを設定することは、後続のデータが
最後まで直接に再生されるものではないが、オブジェクトライブラリに転送する
(populate)ために用いられるものであることを、再生器に通知する。ライブラ
リに対する実際のオブジェクトデータは、いかなる特別な方法でもパッケージ化
されておらず、それは、いまだ、複数の定義パケット及び複数のデータパケット
から構成されている。違いは、シーン中のオブジェクトデータを用いて何をすべ
きかを再生器に命令する、各オブジェクトに対する関連付けられたObjLib
Ctrlパケットがここで存在することにある。各ObjLibCtrlパケッ
トは、ベースヘッダに同じobj_idを備えた、オブジェクトに対する管理情
報を含んでいる。ObjLibCtrlパケットの特別な場合は、250に設定
されたobject_idをベースヘッダに有するものである。これらは、ライ
ブラリシステム管理コマンドを再生器に伝送するために用いられる。
【0411】 ここに記述された本発明は、便利なことには、コンピュータ技術の当業者には
明らかになるように、本願明細書の教示するところに従ってプログラミングされ
た従来の汎用のディジタルコンピュータ又はマイクロプロセッサを用いて実行さ
れることが可能である。適当なソフトウェアのコーディングは、ソフトウェア技
術の当業者には明らかになるように、本開示の教示することに基づいて熟練した
プログラマによって容易に準備されることが可能である。本発明はまた、当業者
には直ちに明らかになるように、特定用途向け集積回路の準備によって、又は従
来の構成要素回路の適当なネットワークを相互に接続することによって実装され
ることも可能である。本発明は、ここに開示された符号化処理及びシステムを含
むだけでなく、対応する復号化システム及び処理も含むことが注意されるべきで
あり、上記復号化システム及び処理は、符号化器によって生成された符号化され
たビットストリーム又はファイルを、基本的には符号化と逆の順序で、ある符号
化の特定のステップを回避して復号化するために動作するように実装されること
が可能である。
【0412】 本発明は、本発明の処理を実行するようにコンピュータ又はコンピュータ化さ
れた装置をプログラムするために用いられることが可能である複数の命令を含む
記憶媒体である、コンピュータプログラム製品又は製造物を含む。上記記憶媒体
は、フロッピー(登録商標)ディスク、光ディスク、CD−ROM、及び光磁気
ディスクを含む任意のタイプのディスク、ROM、RAM、EPROM、EEP
ROM、磁気又は光カード、又は、電子的な命令を記憶するために適当な任意の
タイプの媒体を含むことができるが、しかしそれらに制限されない。本発明はま
た、本発明の符号化処理によって生成されたデータ又は信号も含む。上記データ
又は信号は、電磁波の形式で存在するか、又は適当な記憶媒体に記憶されること
ができる。
【0413】 当業者には、ここに記述された本発明の精神及び範囲から離れることなく、多
くの変形例が明らかになるだろう。
【図面の簡単な説明】
【図1】 本発明の1つの実施形態に係るオブジェクト指向マルチメディア
システムの簡単化されたブロック図である。
【図2】 図1に示された実施形態のオブジェクト指向データストリームに
インターリーブされた3つの主なパケットタイプを示す概略図である。
【図3】 本発明の実施形態のオブジェクト指向マルチメディア再生器にお
けるデータ処理の3つのフェーズを示するブロック図である。
【図4】 本発明に係るオブジェクト指向データファイルにおけるオブジェ
クトタイプの階層を示す概略図である。
【図5】 本発明に係るデータファイル又はストリームにおける典型的なパ
ケットシーケンスを示す図である。
【図6】 本発明に係るオブジェクト指向マルチメディア再生器のクライア
ント構成要素とサーバ構成要素との間の情報の流れを示す図である。
【図7】 本発明に係るオブジェクト指向マルチメディア再生器のクライア
ントの主な構成要素を示すブロック図である。
【図8】 本発明に係るオブジェクト指向マルチメディア再生器のクライア
ントの機能的な構成要素を示すブロック図である。
【図9】 本発明に係るマルチオブジェクトクライアントレンダリング処理
の主なステップを示すフローチャートである。
【図10】 本発明の好ましい実施形態に係るクライアントレンダリングエ
ンジンのブロック図である。
【図11】 本発明の好ましい実施形態に係るクライアント対話エンジンを
示すブロック図である。
【図12】 DMC機能を用いた対話的なマルチオブジェクトビデオシーン
の実施形態を示す構成要素の図である。
【図13】 本発明に従ってクライアントが対話型オブジェクト指向ビデオ
の再生を実行する処理における主なステップを示すフローチャートである。
【図14】 本発明に係る対話型マルチメディア再生器のローカルサーバ構
成要素のブロック図である。
【図15】 本発明に係る遠隔のストリーミングサーバのブロック図である
【図16】 本発明に係る動的メディア合成を実行するクライアントによっ
て実行される主なステップを示すフローチャートである。
【図17】 本発明に係る動的メディア合成を実行するサーバクライアント
によって実行される主なステップを示すフローチャートである。
【図18】 本発明に係るオブジェクト指向ビデオ符号化器のブロック図で
ある。
【図19】 本発明に係るビデオ符号化器によって実行される主なステップ
を示すフローチャートである。
【図20】 本発明に係るビデオ符号化器の入力色処理構成要素のブロック
図である。
【図21】 本発明に係るビデオ符号化器において用いられる領域更新選択
処理の構成要素のブロック図である。
【図22】 ビデオ符号化において用いられる3つの高速動き補償方法の図
である。
【図23】 本発明に係るビデオ符号化器において用いられるツリー分割方
法の図である。
【図24】 本発明に係る、ビデオ圧縮処理から結果的に得られたデータを
符号化するために実行される主なステージのフローチャートである。
【図25】 本発明に係るカラーマップ更新情報を符号化するステップのフ
ローチャートである。
【図26】 本発明に係る、通常に予測されたフレームの四分木構造データ
を符号化するステップのフローチャートである。
【図27】 本発明に係る四分木データ構造におけるリーフの色を符号化す
るステップのフローチャートである。
【図28】 本発明に係る、ビデオキーフレームを圧縮するためにビデオ符
号化器によって実行される主なステップのフローチャートである。
【図29】 本発明に係る代替例の符号化方法を用いてビデオを圧縮するた
めにビデオ符号化器によって実行される主なステップのフローチャートである。
【図30】 本発明に従って、クライアントにおいて、リアルタイムで、リ
アルタイムの色(ベクトル)量子化を実行するための、前置量子化処理において
主に用いられるフローチャートである。
【図31】 本発明に係る音声コマンド処理の主なステップのフローチャー
トである。
【図32】 本発明に係るウルトラシンコンピューティングクライアントの
ローカルエリア無線ネットワーク(LAN)システムのブロック図である。
【図33】 本発明に係るウルトラシンコンピューティングクライアントの
広域無線ネットワーク(WAN)システムのブロック図である。
【図34】 本発明に係るウルトラシンコンピューティングクライアントの
遠隔のLANサーバシステムのブロック図である。
【図35】 本発明に係る複数の参加者の無線ビデオ会議システムのブロッ
ク図である。
【図36】 本発明の1つの実施形態に係る、目標を決められた画像内のユ
ーザ広告を有した対話型‘ビデオ・オン・デマンド’システムのブロック図であ
る。
【図37】 本発明の1つの実施形態に係る、対話型の、画像内の、目標を
決められたユーザ広告を伝送し、取扱う処理に必要とされる主なステップのフロ
ーチャートである。
【図38】 本発明の1つの実施形態に係る対話型ビデオパンフレットを再
生し、取扱う処理に必要とされる主なステップのフローチャートである。
【図39】 本発明の1つの実施形態に係る対話型ビデオパンフレットにお
ける可能なユーザ対話のシーケンスのフローチャートである。
【図40】 本発明に係るビデオデータのプッシュ又はプルに基づいた分配
に必要とされる主なステップのフローチャートである。
【図41】 ユーザ認証、アクセス制御、課金及び使用量の測定を含む、遠
隔のサーバに基づいたディジタル権利管理機能を有する、本発明に係る対話型‘
ビデオ・オン・デマンド’システムのブロック図である。
【図42】 本発明に係る、再生器ソフトウェアがオンデマンドでストリー
ミング無線ビデオを再生するときに実行する処理の主なステップのフローチャー
トである。
【図43】 本発明に係るビデオセキュリティー/監視システムのブロック
図である。
【図44】 本発明に係る電子的グリーティングカードシステム及びサービ
スのブロック図である。
【図45】 本発明に従って、個人化された電子的グリーティングカードか
、又はビデオ電子メールを作成して、移動体電話機に送信するときに必要とされ
る主なステップのフローチャートである。
【図46】 MPEG4標準において用いられる、集中化されたパラメータ
によるシーン記述を示すブロック図である。
【図47】 本発明に係る、リアルタイムの色量子化のために色量子化デー
タを復号化器に供給することの主なステップを示すブロック図である。
【図48】 本発明に係るオブジェクトライブラリの主な構成要素を示すブ
ロック図である。
【図49】 本発明に係るビデオ復号化器の主なステップのフローチャート
である。
【図50】 本発明に係る四分木で符号化されたビデオフレームに必要とさ
れる主なステップのフローチャートである。
【図51】 本発明に係る四分木のリーフの色を復号化することに必要とさ
れる主なステップのフローチャートである。
【符号の説明】
01a…BIFS、 01b…オブジェクト記述器、 01c…エレメンタリデータストリーム、 02a…24ビットカラーデータ、 02b…ベクトル量子化、 02c…八分木圧縮、 02d…リアルタイム量子化、 02e…8ビットカラーデータ、 10…入力色処理、 11…動き補償、 12…オーディオ符号化、 13…レート、 14…シーン/オブジェクト制御データ、 16…色差管理及び同期化、 16a…現在のフレーム記憶装置、 16b…以前のフレーム記憶装置、 16c…画素間の知覚される色差の計算、 16d…しきい値動きデータ、 16e…空間的なフィルタ、 16f…無効なカラーマップ基準の決定、 16g…条件を満たす画像の形成、 18…合成された空間/時間符号化器、 20…クライアント、 21…サーバ、 22…送信バッファ、 23…ローカルサーバ、 24…遠隔のサーバ、 25…マルチプレクサ/データソースマネージャ、 26…データソースマネージャ、 27…インテリジェントマルチプレクサ、 28…XMLパーザ、 29…IAVMLスクリプト、 30…入力データバッファ、 31…ヒットテスタ、 32…入力データスイッチ/デマルチプレクサ、 33…ベクトルグラフィックス復号化器、 34…オプションの復号化、 35…ビットマップ合成器、 36…グラフィック要素走査変換器、 37…オーディオミキサ、 38…ビデオ復号化器、 39…オブジェクト記憶装置、 40…オブジェクト管理、 41…対話管理エンジン、 41a…対話制御、 41b…アニメーションリスト/アニメーションパス補間器、 41c…ユーザイベントコントローラ、 41d…待機アクションリスト、 41e…状態フラグレジスタ、 41f…条件評価器、 41g…履歴/フォーム記憶装置、 42…オーディオ復号化器、 43…復号化器、 44…ビデオディスプレイ、 45…DRMエンジン、 46…オーディオプレイバック、 47…ユーザイベント、 48…ユーザの入力/制御、 50…符号化器、 51…未処理のオブジェクトデータ、 52…圧縮されたオブジェクトデータ、 53…ストリームのエンドマーク、 54…ベクトルグラフィック表示リスト、 55…オーディオオブジェクト記憶装置、 56…レンダリングパラメータ、 58…オブジェクトライブラリ制御、 59…ストリームのディレクトリ、 61…複数の出力装置、 62…復号化エンジン、 64…圧縮されたデータパケット、 66…定義パケット、 68…オブジェクト制御パケット、 69…ユーザ制御パケット、 70…システムのディスプレイ、 71…ディスプレイシーンラスタ、 72…復号化処理、 73…グラフィカルユーザインターフェース、 74…レンダリングエンジン、 75…オブジェクトライブラリ、 75a…LibID、 75b…バージョン、 75c…永続的フラグ、 75d…アクセスフラグ、 75e…固有のID、 75f…状態、 75g…オブジェクトライブラリデータ記憶装置、 75h…オブジェクトライブラリマネージャ、 75i…ライブラリの質問結果、 76…動的メディア合成、 79…データソース、 80…オブジェクト指向マルチメディアファイル、 81…シーン、 82…ストリーム、 83…ビデオ、 84…オーディオ、 85…テキスト、 86…グラフィックス、 87…音楽、 88…フレーム、 89…構成要素、 90…シーン、 91,93a,93b,93c…ビデオオブジェクト、 92…任意形状のチャンネル変化のビデオオブジェクト、 11001…GUIを実行するプログラム、 11002…プログラム出力ビデオ変換器、 11003…GUIスクリーン読み出し、 11004…OOビデオ符号化、 11005…プログラムGUI制御の実行、 11006…ウルトラシンクライアント対GUI制御の解釈、 11007…クライアントの応答、 11008…Tx/Rxバッファ、 11010,11505,11610,11611…Tx/Rx及びバッファ、 11009,11608…GUI表示及び入力、 11011…OOビデオ復号化、 11012…遠隔の制御システム、 11013…計算サーバシステム、 11014…オーディオ読み出し、 11115…ハンドセット及びモデム、 11116…送信、 11215,11512…LAN/インターネット/イントラネット、 11216,11308,11513…ローカル無線送信機、 11302,11402,11502,11603…クライアント装置、 11303,11403,11503…表示モード、 11304,11404,11504,11609…OOビデオ復号化手段、 11305…OOビデオ符号化手段、 11306…無線ネットワークカード、 11307,11410…ディジタルカメラ、 11309…LAN/インターネット、 11310…デスクトップコンピュータ、 11311,11313…PDA装置、 11312…携帯電話機、 11406,11412,11510…記憶されたビデオ、 11407…ビデオオンデマンドサーバ、 11408…ビデオオブジェクトオーバーレイ手段、 11409…販売促進選択手段、 11411,11605…ビデオ符号化手段、 11413…プロフィール記憶装置、 11414…広告オブジェクト、 11506…ユーザ情報、 11507…アクセスブローカー/課金、 11508…課金情報、 11509…課金サービスプロバイダ、 11511…ビデオコンテンツプロバイダ、 11602…モニタリング装置、 11604…ビデオカメラ、 11606…ビデオ記憶装置、 11607…制御手段、 11702…開始するユーザ、 11703,11704…ネットワークオペレータ、 11705…所望のユーザ、 11706,11712…携帯スマート電話機、 11707…インターネットに接続されたパーソナルコンピュータ、 11708…インターネット、 11709…ストリーミングメディアサーバ、 11710…グリーティングカードサーバ、 11711…テンプレートライブラリ。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/173 610 H04N 7/08 Z 5C064 11/04 (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,MZ,SD,SL,SZ,TZ,UG ,ZW),EA(AM,AZ,BY,KG,KZ,MD, RU,TJ,TM),AE,AG,AL,AM,AT, AU,AZ,BA,BB,BG,BR,BY,BZ,C A,CH,CN,CR,CU,CZ,DE,DK,DM ,DZ,EE,ES,FI,GB,GD,GE,GH, GM,HR,HU,ID,IL,IN,IS,JP,K E,KG,KP,KR,KZ,LC,LK,LR,LS ,LT,LU,LV,MA,MD,MG,MK,MN, MW,MX,MZ,NO,NZ,PL,PT,RO,R U,SD,SE,SG,SI,SK,SL,TJ,TM ,TR,TT,TZ,UA,UG,US,UZ,VN, YU,ZA,ZW (72)発明者 ルーベン・ゴンザレス オーストラリア4214クイーンズランド州ア ランデル・ヒルズ、ヘリントン・クロース 6番 Fターム(参考) 5B050 AA08 BA08 BA09 CA07 CA08 EA10 EA19 FA02 FA05 FA10 FA13 5C053 FA20 FA23 GA11 GB01 GB11 GB19 GB37 KA21 KA24 LA01 LA06 LA11 LA15 5C057 AA01 AA03 AA06 AA07 BA01 CA01 DA01 EA01 EA11 EG08 EL01 EM12 GF03 GF04 GG01 GM01 5C059 MA00 MB01 MB22 MB23 NN01 PP04 PP12 PP14 PP19 PP20 RA01 RA04 RA08 RB02 RB09 RC11 RC31 RC32 RC34 SS07 SS30 UA02 UA05 5C063 AA01 AB03 AB07 AC01 AC10 CA29 CA36 DA07 DA13 DB10 5C064 BA01 BA07 BC10 BC16 BC25 BD02 BD08 BD09 BD13

Claims (252)

    【特許請求の範囲】
  1. 【請求項1】 ビデオ、テキスト、オーディオ、音楽及び/又はグラフィッ
    クス要素のうちの少なくとも1つを含むデータを、ビデオパケットストリーム、
    テキストパケットストリーム、オーディオパケットストリーム、音楽パケットス
    トリーム及び/又はグラフィックスパケットストリームとしてそれぞれ符号化す
    ることと、 上記複数のパケットストリームを、それ自体の制御情報を含み、単一のそれ自
    体で完備したオブジェクトに結合することと、 上記複数のオブジェクトをデータストリームに配置することと、 1つ又はそれよりも多くの上記データストリームを、単一の連続的なそれ自体
    で完備したシーンにグループ化することとを含み、上記シーンはフォーマットの
    定義をパケットのシーケンスにおける最初のパケットとして含む、オブジェクト
    指向対話型マルチメディアファイルを生成する方法。
  2. 【請求項2】 1つ又はそれよりも多くの上記シーンを結合することを含む
    請求項1記載の対話型マルチメディアファイルを生成する方法。
  3. 【請求項3】 単一のシーンはオブジェクトライブラリを含む請求項1記載
    の対話型マルチメディアファイルを生成する方法。
  4. 【請求項4】 上記複数のオブジェクト内に、カスタマイズ可能な複数の圧
    縮解除変換を構成するためのデータが含まれる請求項1記載の対話型マルチメデ
    ィアファイルを生成する方法。
  5. 【請求項5】 オブジェクト制御データは、ビデオビットストリーム中にイ
    ンターリーブされる複数のオブジェクトに添付され、上記オブジェクト制御デー
    タは、複数の対話の振る舞いと、複数のレンダリングパラメータと、コンポジシ
    ョンと、圧縮されたデータの解釈とを制御する請求項1記載の対話型オブジェク
    ト指向マルチメディアファイルを生成する方法。
  6. 【請求項6】 シーン情報を含む第1のレベルのディレクトリデータは、第
    1の上記シーンに含まれ、ストリーム情報を含む第2のレベルのディレクトリデ
    ータは、1つ又はそれよりも多くの上記シーンに含まれ、複数のイントラフレー
    ムの回転を識別する情報を含む第3のレベルのディレクトリデータは、上記デー
    タストリーム内に含まれる、階層的ディレクトリ構造を備えた請求項1記載の対
    話型オブジェクト指向マルチメディアファイルを生成する方法。
  7. 【請求項7】 少なくとも1つのビデオ及びオーディオ要素を含むデータを
    、ビデオパケットストリーム及びオーディオパケットストリームとしてそれぞれ
    符号化することと、 上記複数のパケットストリームを、単一のそれ自体で完備したオブジェクトに
    結合することと、 上記オブジェクトをデータストリームに配置することと、 上記ストリームを、フォーマットの定義を含み、単一の連続的なそれ自体で完
    備したシーンに配置することと、 上記複数のシーンを結合することとを含む、オブジェクト指向対話型マルチメ
    ディアファイルを生成する方法。
  8. 【請求項8】 上記オブジェクト制御データは、複数のオブジェクト制御パ
    ケット内にカプセル化された複数のメッセージの形式をとり、かつ複数のパラメ
    ータを表し、上記複数のパラメータは、ビデオ及びグラフィックスオブジェクト
    をレンダリングし、上記複数のオブジェクトの対話型の振る舞いを定義し、上記
    複数のオブジェクトへの、及び上記複数のオブジェクトからの複数のハイパーリ
    ンクを作成し、上記複数のオブジェクトに対する複数のアニメーションパスを定
    義し、複数の動的メディア合成パラメータを定義し、複数のユーザ変数に値を割
    り当て、複数のオブジェクトとの対話と他の複数の制御との因果関係を、1つの
    オブジェクトからもう1つのものにリダイレクトするか又は目標を変更し、音声
    呼とタイマのスタート及び停止とを含む実行可能な複数の振る舞いを複数のオブ
    ジェクトに添付し、複数の制御アクションの実行に対する条件を定義することと
    を含む、請求項1記載の対話型オブジェクト指向マルチメディアファイルを生成
    する方法。
  9. 【請求項9】 上記複数のレンダリングパラメータは、オブジェクトの透明
    度、スケール、ボリューム、位置、Zオーダー、背景色、及び回転を表し、上記
    複数のアニメーションパスは、上記複数のレンダリングパラメータのうちの任意
    のものに作用し、上記複数のハイパーリンクは、ノンリニアーのビデオをサポー
    トし、他の複数のビデオファイルとファイル内の複数の個別のシーンとシーン内
    の他の複数のオブジェクトストリームとに対するリンクを目標としてサポートし
    、上記対話型の振る舞いのデータは、再生を一時停止すること及びループ再生す
    ることと、ユーザ情報をサーバに戻すことと、複数のオブジェクトアニメーショ
    ンを活性化するか又は不活性化することと、複数のメニューと、複数のユーザ選
    択を登録できる複数の簡単なフォームとを定義することとを含む、請求項7記載
    の対話型オブジェクト指向マルチメディアファイルを生成する方法。
  10. 【請求項10】 複数のレンダリングアクション又は複数のオブジェクトの
    振る舞いの条件付き実行が提供され、条件は、タイマイベントと、ユーザイベン
    トと、システムイベントと、対話イベントと、オブジェクト間の関係と、ユーザ
    変数と、再生、一時停止、ストリーミング又はスタンドアローンの再生のような
    システムの状態との形式をとる、請求項7記載の対話型オブジェクト指向マルチ
    メディアファイルを生成する方法。
  11. 【請求項11】 非定常的な3次元のデータセットを単一の次元にリアルタ
    イムでマッピングする方法であって、 上記データを予め計算するステップと、上記マッピングを符号化するステップ
    と、 上記符号化されたマッピングをクライアントに送信するステップと、 上記クライアントが上記マッピングを上記データに適用するステップとを含む
    方法。
  12. 【請求項12】 上記データセットはカラービデオフレームを含み、上記予
    め計算することはベクトル量子化処理を含み、 上記マッピング処理において、各セルに対して最も近いコードブックベクトル
    を決定することと、 八分木表現を用いて上記符号化を実行することと、 上記符号化された八分木を復号化器に送信することと、 次いで上記復号化器が上記データセットに対してマッピングを適用することと
    を含む、請求項11記載の非定常的な3次元のデータセットを単一の次元にリア
    ルタイムでマッピングする方法。
  13. 【請求項13】 ビデオ、テキスト、オーディオ、音楽、及び/又はグラフ
    ィックのデータを含む単一のオブジェクトを含む対話型マルチメディアファイル
    フォーマットであって、上記オブジェクトのうちの少なくとも1つはデータスト
    リームを含み、上記データストリームのうちの少なくとも1つはシーンを含み、
    上記シーンのうちの少なくとも1つはファイルを含み、ディレクトリデータ及び
    メタデータはファイル情報を提供する対話型マルチメディアファイルフォーマッ
    ト。
  14. 【請求項14】 オブジェクト指向対話型ビデオシステムにおいて表示され
    たビデオの実際のコンテンツを動的に変化させるシステムであって、 ビデオ、テキスト、オーディオ、音楽、及び/又はグラフィックのデータを含
    む複数のオブジェクトを含む対話型マルチメディアファイルフォーマットを含む
    動的メディア合成処理を含み、上記オブジェクトのうちの少なくとも1つはデー
    タストリームを含み、上記データストリームのうちの少なくとも1つはシーンを
    含み、上記シーンのうちの少なくとも1つはファイルを含み、 ファイル情報を提供するディレクトリデータ構造と、 複数のオブジェクトの正しい組み合わせが互いに合成されることを可能にする
    選択機構と、 ディレクトリ情報を用い、上記ディレクトリ情報に基づいて上記複数のオブジ
    ェクトの位置を知るデータストリームマネージャとを備え、 上記シーン中の上記複数のオブジェクトと、上記ビデオ中の上記複数のシーン
    とを、ユーザによって見られている間にリアルタイムで、挿入し、削除し、又は
    置換する制御機構を備えたシステム。
  15. 【請求項15】 遠隔のサーバの非順次的なアクセス能力と、各オブジェク
    トストリームから複数の適当なデータ構成要素を選択する選択機構と、上記デー
    タ構成要素を最終的なコンポジットデータストリームに配置するインターリーブ
    機構と、上記最終的なコンポジットストリームをクライアントに送信する無線送
    信機構とを備えた請求項14記載のシステム。
  16. 【請求項16】 遠隔のサーバの非順次的なアクセス能力を含み、上記遠隔
    のサーバから上記システムに伝送された複数のライブラリ管理命令を実行する機
    構を含み、上記サーバは、上記ライブラリに質問し、そこに含まれた複数の特定
    のオブジェクトについての情報を受信し、上記ライブラリのコンテンツを挿入し
    、更新し、又は削除することができ、上記動的メディア合成エンジンは、必要な
    ときは上記ライブラリ及び遠隔のサーバの両方を同時にオブジェクトデータスト
    リームのソースとすることができる請求項14記載のシステム。
  17. 【請求項17】 オフラインの再生モードを提供するローカルサーバと、 複数の適当なデータ構成要素を複数のローカルファイルに記憶する記憶機構と
    、 個別のソースから複数の適当なデータ構成要素を選択する選択機構と、 当該ファイル内に連続的に記憶された各シーンに対する複数のストリームを含
    むローカルデータファイルと、 上記ローカルサーバが上記シーン内の各ストリームにランダムにアクセスする
    ためのアクセス機構と、 レンダリングのために上記複数のオブジェクトを選択する選択機構と、 上記遠隔のサーバから管理されることが可能であり、動的メディア合成におい
    て用いる永続的オブジェクトライブラリとを含み、上記複数のオブジェクトは、
    完全なディジタル権利管理情報とともに上記ライブラリに記憶されることが可能
    であり、 上記遠隔のサーバからクライアントに伝送された複数のライブラリ管理命令を
    実行するための、上記クライアントが利用可能なソフトウェアを含み、上記サー
    バは、上記ライブラリに質問し、そこに含まれた複数の特定のオブジェクトにつ
    いての情報を受信し、上記ライブラリのコンテンツを挿入し、更新し、又は削除
    することができ、 上記動的メディア合成エンジンは、上記ライブラリ及び遠隔のサーバの両方を
    同時にオブジェクトデータストリームのソースとすることができる請求項14記
    載のシステム。
  18. 【請求項18】 上記各ストリームは、ストリームの境界を画定するための
    ストリームパケットの終端部を含み、上記シーン内の最初のストリームは、上記
    シーン内の複数のオブジェクトの記述を含み、 上記シーン内の複数のオブジェクト制御パケットは、特定のオブジェクトに対
    するソースデータを異なるストリームに変化させる、対話性のための情報を提供
    し、 ローカルなプレイバックを実行しているとき、上記ファイル内から同時に1つ
    よりも多くのストリームを読み出す、上記サーバにおける読み出し機構と、 複数のストリームにてなるアレー又はリンクされたリストを管理する機構と、
    各ストリームから1つのパケットを周期的な方法で読み出すことができるデータ
    ストリームマネージャと、上記ファイルにおける現在の位置を記憶する記憶機構
    と、複数の参照するオブジェクトのリストを記憶する記憶機構とを備えた請求項
    14記載のシステム。
  19. 【請求項19】 データはメディア再生器クライアントにストリーミングさ
    れ、上記クライアントは、遠隔のサーバから受信された複数のパケットを復号化
    し、上記サーバに複数のユーザ操作を送り返すことができ、上記サーバは、クリ
    ックすることのような複数のユーザ操作に応答し、上記クライアントに送信され
    る上記データを変更し、上記各シーンは、1つ又はそれよりも多くのオブジェク
    トから構成される単一の多重化されたストリームを含み、上記サーバは、クライ
    アントの複数の要求に基づいて複数のオブジェクトデータストリームを多重化す
    ることによってリアルタイムでシーンを構成して、任意の与えられたシーンに対
    する単一の多重化されたストリームを構成し、プレイバックのために上記クライ
    アントに無線ストリーミングすることができる請求項14記載のシステム。
  20. 【請求項20】 複数のビデオオブジェクトを同時に再生する再生機構を含
    み、上記ビデオオブジェクトのそれぞれは異なるソースから発生することができ
    、上記サーバは、上記ソースのそれぞれをオープンにし、複数のビットストリー
    ムをインターリーブし、適当な制御情報を追加し、かつ新しいコンポジットスト
    リームを上記クライアントに伝送することができる請求項14記載のシステム。
  21. 【請求項21】 上記ソースファイルにランダムにアクセスすることができ
    、かつ表示シーンを構成するために必要とされる上記ストリームから正しいデー
    タ及び制御パケットを読み出すことができるデータソースマネージャを含み、単
    一の入力を備えた複数のソースマネージャのインスタンスからの入力と、動的メ
    ディア合成エンジンからの入力を受信することができるサーバマルチプレクサを
    含み、上記マルチプレクサは、上記複数のソースからのオブジェクトデータパケ
    ットを互いに多重化し、コンポジットシーンにおける複数の構成要素オブジェク
    トのレンダリングを制御するために複数の追加の制御パケットを上記データスト
    リームに挿入することができる請求項14記載のシステム。
  22. 【請求項22】 IAVMLスクリプトを記述することにより、上記動的メ
    ディア合成のプログラム可能な制御を可能にするXMLパーザを含む請求項14
    記載のシステム。
  23. 【請求項23】 上記遠隔のサーバは、サーバの操作者から多数の入力を受
    けて上記動的メディア合成処理をさらに制御しかつカスタマイズすることができ
    、上記入力は、ユーザプロフィール、人口統計、地理的な場所、又は1日の時刻
    を含む請求項14記載のシステム。
  24. 【請求項24】 上記遠隔のサーバは、サーバの操作者から多数の入力を受
    けて上記動的メディア合成処理をさらに制御しかつカスタマイズすることができ
    、上記入力は、何の広告がユーザに対して成功したかについての知識のようなユ
    ーザ対話のログを含む請求項14記載のシステム。
  25. 【請求項25】 1つ又はそれよりも多くの連続的なそれ自体で完備したシ
    ーンの組み合わせを含み、 上記各シーンは、シーンフォーマット定義を最初のパケットとして含み、及び
    上記最初のパケットに続く1つ又はそれよりも多くのデータストリームのグルー
    プを含み、 最初のデータストリームを除く上記各データストリームは、上記最初のデータ
    ストリームにおけるオブジェクト制御情報によって特定されるように、動的メデ
    ィア合成処理に従ってオプションで復号化されて表示されることが可能である複
    数のオブジェクトを含み、 上記各データストリームは、1つ又はそれよりも多くの単一のそれ自体で完備
    したオブジェクトを含み、終端部のストリームマーカーによって境界を画定され
    、上記複数のオブジェクトは、それぞれ、それ自体の制御情報を含み、複数のパ
    ケットストリームを結合することによって形成され、上記複数のパケットストリ
    ームは、ビデオ、テキスト、オーディオ、音楽、又はグラフィックス要素のうち
    の少なくとも1つ又は組み合わせを含む未処理の対話型マルチメディアデータを
    、ビデオパケットストリーム、テキストパケットストリーム、オーディオパケッ
    トストリーム、音楽パケットストリーム、及びグラフィックスパケットストリー
    ムとしてそれぞれ符号化することによって形成されるオブジェクト指向対話型マ
    ルチメディアファイル。
  26. 【請求項26】 上記動的メディア合成処理を実行するサーバソフトウェア
    を含み、上記処理は、表示されるビデオシーンをユーザが見る一方で、上記表示
    されるビデオシーンの実際のコンテンツがリアルタイムで動的に変化されること
    を可能にし、サーバソフトウェアは、上記シーンの任意形状のビジュアル/オー
    ディオビデオオブジェクトのうちの任意のものを挿入し、置換し、又は追加し、 複数の画像内オブジェクトを他の複数のオブジェクトによって置換して、複数
    の画像内オブジェクトを現在のフレームに追加するか又は現在のフレームから除
    去する制御機構を含み、上記制御機構は、上記処理を固定されたモード、適応的
    なモード、又はユーザが媒介したモードで実行する、請求項25記載の対話型マ
    ルチメディアファイルのフォーマットを含むオブジェクト指向対話型ビデオシス
    テム。
  27. 【請求項27】 上記複数のシーン内にカスタマイズ可能な圧縮解除変換を
    構成するデータを含む請求項25記載のオブジェクト指向対話型マルチメディア
    ファイル。
  28. 【請求項28】 上記処理をサポートするローカルオブジェクトライブラリ
    を提供する制御機構を含み、上記ライブラリは、上記処理において用いる複数の
    オブジェクトを記憶する記憶手段を含み、制御機構は、ストリーミングサーバか
    らの上記ライブラリの管理を可能にし、制御機構は、上記複数のライブラリオブ
    ジェクトにバージョン管理の制御を提供し、非永続的な複数のライブラリオブジ
    ェクトの自動的な満了を可能にし、 上記サーバから複数のオブジェクトを自動的に更新し、上記複数のライブラリ
    オブジェクトに対して複数のレベルのアクセス制御を提供し、上記複数のライブ
    ラリオブジェクトのそれぞれに対する一意な識別、履歴及び状態をサポートする
    制御機構を含む請求項25記載の対話型マルチメディアファイルのフォーマット
    を含むオブジェクト指向対話型ビデオシステム。
  29. 【請求項29】 ユーザがセッションにおいて上記オブジェクトをクリック
    することに対して、上記動的メディア合成処理を即時に実行することによって応
    答する制御機構と、 ユーザを複数のオフラインフォローアップアクションに対して登録し、上記セ
    ッションの終わりに、新しいハイパーリンクの宛先に移動する制御機構とを含む
    、請求項25記載の対話型マルチメディアファイルのフォーマットを含むオブジ
    ェクト指向対話型ビデオシステム。
  30. 【請求項30】 無線ネットワークを介して、請求項25記載のオブジェク
    ト指向ファイルのフォーマットにおけるファイルデータをリアルタイムでストリ
    ーミングする方法であって、それによって、シーンはただ1つのストリームを含
    み、上記動的メディア合成エンジンは、他の複数のストリームからの複数のオブ
    ジェクトを適当なレートで上記最初のストリームにインターリーブする方法。
  31. 【請求項31】 無線ネットワークを介して、請求項25記載のオブジェク
    ト指向ファイルのフォーマットにおけるファイルデータをリアルタイムでストリ
    ーミングする方法であって、それによって、シーンはただ1つのストリームを含
    み、上記動的メディア合成エンジンは、他の複数のストリームからの複数のオブ
    ジェクトを適当なレートで上記最初のストリームにインターリーブする方法。
  32. 【請求項32】 ライブビデオコンテンツをユーザに対してストリーミング
    し、上記他の複数のストリームは、リアルタイムで符号化される複数のストリー
    ムを含む請求項30記載の方法。
  33. 【請求項33】 上記ユーザが遠隔のサーバに接続するステップと、 上記ユーザが、操作者/交換機によって処理される領域内で見るためのカメラ
    位置を選択するステップとを含むライブビデオコンテンツをユーザに対してスト
    リーミングする請求項31記載の方法。
  34. 【請求項34】 上記ユーザが遠隔のサーバに接続するステップと、 宛先に係る上記ユーザの選択を援助するために、全地球測位システム又はセル
    三角測量から導出された上記ユーザの地理的位置が用いられて、見るためのカメ
    ラ位置の選択肢を自動的に提供するステップとを含むライブビデオコンテンツを
    ユーザに対してストリーミングする請求項31記載の方法。
  35. 【請求項35】 サービスプロバイダが、上記ユーザを呼び出して、潜在的
    に問題を有する領域を含む自動車運転者のルートを表示するビデオを自動的にス
    トリーミングする特別なサービスに、上記ユーザが登録するステップと、 登録すると、上記ユーザが、この目的のためのルートを選択して指定すること
    ができ、上記ルートを決定することを援助することができるステップと、 上記システムが、上記ユーザの速度及び位置を追跡して、移動の方向と後に続
    いているルートとを決定し、次に、上記システムが、複数の潜在的なルートに沿
    ってモニタリングされたトラフィックカメラのそれのリストを探索して、問題を
    有する領域である場所が存在するか否かを決定し、問題が存在するときは、上記
    システムが上記ユーザに通知して、トラフィック情報及び状況を提示するための
    ビデオを再生するステップとを含む、ライブのトラフィックビデオコンテンツを
    ユーザに対してストリーミングする請求項31記載の方法。
  36. 【請求項36】 上記動的メディア合成処理は、加入者プロフィールデータ
    ベースに記憶された加入者自身のプロフィール情報に基づいて複数のオブジェク
    トを選択する請求項26に基づく広告方法。
  37. 【請求項37】 ストリーミングビデオシステムにおいて動作することがで
    きる低いパワーの装置の音声コマンド操作を提供する方法であって、 ユーザの発話音声を上記装置上で取り込むステップと、 上記発話音声を圧縮するステップと、 上記圧縮された発話音声の複数の符号化されたサンプルを複数のユーザ制御パ
    ケットに挿入するステップと、 音声コマンドを処理することができるサーバに上記圧縮された発話音声を送信
    するステップと、 上記サーバが自動音声認識を実行するステップと、 上記サーバが、文字に変換された発話音声をコマンドのセットにマッピングす
    るステップと、 上記システムが、上記コマンドが上記ユーザによって発生されたか上記サーバ
    によって発生されたかをチェックするステップと、 上記文字に変換されたコマンドが上記サーバからのものであるとき、上記サー
    バが上記コマンドを実行するステップと、 上記文字に変換されたコマンドが上記ユーザからのものであるとき、上記シス
    テムが上記コマンドを上記ユーザの装置に伝送するステップと、 上記ユーザが上記コマンドを実行するステップとを含む方法。
  38. 【請求項38】 上記システムは、文字に変換されたコマンドが予め定義さ
    れたものであるか否かを決定し、 上記文字に変換されたコマンドが予め定義されていないとき、上記システムは
    、上記文字に変換されたテキスト列を上記ユーザに送信し、 上記ユーザは、上記テキスト列を適当なテキストフィールドに挿入する、請求
    項37記載のストリーミングビデオシステムにおいて動作することができる低い
    パワーの装置の音声コマンド操作を提供する方法。
  39. 【請求項39】 画像の色に基づいてカラーマップを生成するステップと、 上記カラーマップを用いて上記画像の表現を決定するステップと、 上記カラーマップを用いて表現される上記画像の少なくとも1つのセクション
    の相対的な動きを決定するステップとを含む画像処理方法。
  40. 【請求項40】 上記画像の表現を符号化するステップをさらに含む請求項
    39記載の方法。
  41. 【請求項41】 上記相対的な動きを符号化するステップをさらに含む請求
    項39記載の方法。
  42. 【請求項42】 上記画像の表現と上記相対的な動きとを符号化するステッ
    プをさらに含む請求項39記載の方法。
  43. 【請求項43】 上記生成するステップは、上記カラーマップを生成するた
    めに色量子化を実行することを含む請求項39記載の方法。
  44. 【請求項44】 上記生成するステップは、直前のフレームに係る以前に決
    定されたカラーマップに基づいて上記カラーマップを作成するステップをさらに
    含む請求項43記載の方法。
  45. 【請求項45】 上記作成するステップは、現在のフレームに繰り越される
    直前のフレームからの複数の画素の色が、当該カラーマップの同一のインデック
    スにマッピングされるように、上記以前に決定されたカラーマップに基づいて上
    記カラーマップを再編成することをさらに含む請求項44記載の方法。
  46. 【請求項46】 上記作成するステップは、上記カラーマップを上記以前に
    決定されたカラーマップに対して相関させることを含む請求項44記載の方法。
  47. 【請求項47】 相対的な動きを決定する上記ステップは、上記画像の少な
    くとも1つのセクションに対する動きベクトルを決定することを含む請求項39
    記載の方法。
  48. 【請求項48】 画像の表現を符号化するために四分木を作成することを含
    む画像処理方法。
  49. 【請求項49】 上記符号化するステップは、透明なリーフ表現を有する四
    分木を作成することを含む請求項48記載の方法。
  50. 【請求項50】 上記符号化するステップは、複数の任意形状のオブジェク
    トを表現するために利用される上記透明なリーフ表現を有する四分木を作成する
    ことを含む請求項49記載の方法。
  51. 【請求項51】 上記符号化するステップは、最下位レベルノードのタイプ
    の除去を有するように四分木を作成することを含む請求項50記載の方法。
  52. 【請求項52】 色を表現するために利用されるビット数を解析することと
    、 上記色を表現するために利用されるビット数が第1の値を超えているとき、第
    1のフラグ値と第1の予め決められたビット数とを利用して上記色を表現するこ
    とと、 上記色を表現するために利用されるビット数が第1の値を超えていないとき、
    第2のフラグ値と第2の予め決められたビット数とを利用して上記色を表現する
    こととを含む、画像の符号化された表現を決定する方法。
  53. 【請求項53】 上記第1のフラグ値を利用して上記色を表現するステップ
    は、8個である上記第1の予め決められたビット数を用いて上記色を表現するこ
    とを含み、 上記第2のフラグ値を利用して上記色を表現するステップは、4個である上記
    第2の予め決められたビット数を用いて上記色を表現することを含む請求項52
    記載の方法。
  54. 【請求項54】 画像の色に基づいてカラーマップを生成する手段と、 上記カラーマップを用いて上記画像の表現を決定する手段と、 上記カラーマップを用いて表現される上記画像の少なくとも1つのセクション
    の相対的な動きを決定する手段とを備えた画像処理システム。
  55. 【請求項55】 上記画像の表現を符号化する手段をさらに備えた請求項5
    4記載のシステム。
  56. 【請求項56】 上記相対的な動きを符号化する手段をさらに備えた請求項
    54記載のシステム。
  57. 【請求項57】 上記画像の表現と上記相対的な動きとを符号化する手段を
    さらに備えた請求項54記載のシステム。
  58. 【請求項58】 上記生成する手段は、上記カラーマップを生成するために
    色量子化を実行する手段を備えた請求項54記載のシステム。
  59. 【請求項59】 上記生成する手段は、直前のフレームに係る以前に決定さ
    れたカラーマップに基づいて上記カラーマップを作成する手段を備えた請求項5
    8記載のシステム。
  60. 【請求項60】 上記作成する手段は、現在のフレームに繰り越される直前
    のフレームからの複数の画素の色が、当該カラーマップの同一のインデックスに
    マッピングされるように、上記以前に決定されたカラーマップに基づいて上記カ
    ラーマップを再編成する手段を備えた請求項59記載のシステム。
  61. 【請求項61】 上記作成する手段は、上記カラーマップを上記以前に決定
    されたカラーマップに対して相関させる手段を備えた請求項59記載のシステム
  62. 【請求項62】 相対的な動きを決定する上記手段は、上記画像の少なくと
    も1つのセクションに対する動きベクトルを決定する手段を備えた請求項54記
    載のシステム。
  63. 【請求項63】 画像の表現を符号化するために四分木を作成する手段を備
    えた画像符号化システム。
  64. 【請求項64】 上記符号化する手段は、透明なリーフ表現を有する四分木
    を作成する手段を備えた請求項63記載のシステム。
  65. 【請求項65】 上記符号化する手段は、複数の任意形状のオブジェクトを
    表現するために利用される上記透明なリーフ表現を有する四分木を作成する手段
    を備えた請求項64記載のシステム。
  66. 【請求項66】 上記符号化する手段は、最下位レベルノードのタイプの除
    去を有するように四分木を作成する手段を備えた請求項65記載のシステム。
  67. 【請求項67】 色を表現するために利用されるビット数を解析する手段と
    、 上記色を表現するために利用されるビット数が第1の値を超えているとき、第
    1のフラグ値と第1の予め決められたビット数とを利用して上記色を表現する手
    段と、 上記色を表現するために利用されるビット数が第1の値を超えていないとき、
    第2のフラグ値と第2の予め決められたビット数とを利用して上記色を表現する
    手段とを備えた、画像の符号化された表現を決定する画像符号化システム。
  68. 【請求項68】 上記第1のフラグ値を利用して上記色を表現する手段は、
    8個である上記第1の予め決められたビット数を用いて上記色を表現することを
    含み、 上記第2のフラグ値を利用して上記色を表現するステップは、4個である上記
    第2の予め決められたビット数を用いて上記色を表現することを含む請求項67
    記載のシステム。
  69. 【請求項69】 情報をスクリプト言語でパージングするステップと、 ビデオ、グラフィックス、アニメーション及びオーディオのうちの少なくとも
    1つの形式の複数のオブジェクトを含む複数のデータソースを読み出すステップ
    と、 上記スクリプト言語の情報に基づいて上記複数のオブジェクトに制御情報を添
    付するステップと、 上記複数のオブジェクトを、データストリーム及びファイルの少なくとも一方
    にインターリーブするステップとを含むオブジェクトを処理する方法。
  70. 【請求項70】 ユーザからの情報を入力するステップをさらに含み、上記
    添付するステップは、上記スクリプト言語の情報と上記ユーザからの情報とに基
    づいて実行される請求項69記載の方法。
  71. 【請求項71】 プロフィール情報、人口統計情報、地理的情報、及び一時
    的情報のうちの少なくとも1つから選択された制御情報を入力するステップをさ
    らに含み、上記添付するステップは、上記スクリプト言語の情報と上記制御情報
    とに基づいて実行される請求項69記載の方法。
  72. 【請求項72】 ユーザからの情報を入力するステップをさらに含み、上記
    添付するステップは、上記スクリプト言語の情報と、上記制御情報と、上記ユー
    ザからの情報とに基づいて実行される請求項71記載の方法。
  73. 【請求項73】 上記ユーザからの情報を入力するステップは、ディスプレ
    イ上のオブジェクトをグラフィックス画面でポインティングして選択することを
    含む請求項72記載の方法。
  74. 【請求項74】 上記データストリーム及びファイルの少なくとも一方にオ
    ブジェクトを挿入するステップをさらに含む請求項69記載の方法。
  75. 【請求項75】 上記挿入するステップは、上記データストリーム及びファ
    イルの少なくとも一方に広告を挿入することを含む請求項74記載の方法。
  76. 【請求項76】 上記広告を異なるオブジェクトと置換するステップをさら
    に含む請求項75記載の方法。
  77. 【請求項77】 上記挿入するステップは、上記データストリーム及びファ
    イルの少なくとも一方に図形文字を挿入することを含む請求項74記載の方法。
  78. 【請求項78】 上記図形文字を挿入するステップは、ユーザの地理的場所
    に基づいて上記図形文字を挿入することを含む請求項77記載の方法。
  79. 【請求項79】 上記複数のオブジェクトのうちの1つを他のオブジェクト
    で置換するステップをさらに含む請求項69記載の方法。
  80. 【請求項80】 上記複数のオブジェクトのうちの1つを置換するステップ
    は、見られたシーンである複数のオブジェクトのうちの1つを、新しいシーンで
    置換することを含む請求項79記載の方法。
  81. 【請求項81】 上記複数のデータソースを読み出すステップは、訓練のビ
    デオである複数のデータソースのうちの少なくとも1つを読み出すことを含む請
    求項69記載の方法。
  82. 【請求項82】 上記複数のデータソースを読み出すステップは、教育のビ
    デオである複数のデータソースのうちの少なくとも1つを読み出すことを含む請
    求項69記載の方法。
  83. 【請求項83】 上記複数のデータソースを読み出すステップは、販売促進
    のビデオである複数のデータソースのうちの少なくとも1つを読み出すことを含
    む請求項69記載の方法。
  84. 【請求項84】 上記複数のデータソースを読み出すステップは、娯楽のビ
    デオである複数のデータソースのうちの少なくとも1つを読み出すことを含む請
    求項69記載の方法。
  85. 【請求項85】 上記複数のデータソースを読み出すステップは、監視カメ
    ラからのビデオを取得することを含む請求項69記載の方法。
  86. 【請求項86】 上記挿入するステップは、上記データストリーム及びファ
    イルの少なくとも一方に、自動車のトラフィックを見るためのカメラからのビデ
    オを挿入することを含む請求項74記載の方法。
  87. 【請求項87】 上記挿入するステップは、上記データストリーム及びファ
    イルの少なくとも一方に、グリーティングカードの情報を挿入することを含む請
    求項74記載の方法。
  88. 【請求項88】 上記挿入するステップは、遠隔の計算装置のモニタの、コ
    ンピュータで生成された画像を挿入することを含む請求項74記載の方法。
  89. 【請求項89】 上記データストリーム及びファイルの少なくとも一方をユ
    ーザに提供するステップをさらに含み、上記データストリーム及びファイルの少
    なくとも一方は対話型ビデオパンフレットを含む請求項69記載の方法。
  90. 【請求項90】 対話のフォームを含む上記データストリーム及びファイル
    の少なくとも一方をユーザに提供するステップと、 上記ユーザによって、上記フォームに電子的に記入するステップと、 上記フォームに記入したときに、上記ユーザによって入力された情報を電子的
    に記憶するステップとをさらに含む請求項69記載の方法。
  91. 【請求項91】 上記電子的に記憶された情報を送信するステップをさらに
    含む請求項90記載の方法。
  92. 【請求項92】 上記制御情報を添付するステップは、対話の振る舞いを示
    す制御情報を添付することを含む請求項69記載の方法。
  93. 【請求項93】 上記制御情報を添付するステップは、複数のレンダリング
    パラメータを含む制御情報を添付することを含む請求項69記載の方法。
  94. 【請求項94】 上記制御情報を添付するステップは、コンポジション情報
    を含む制御情報を添付することを含む請求項69記載の方法。
  95. 【請求項95】 上記制御情報を添付するステップは、圧縮されたデータの
    処理方法を示す制御情報を添付することを含む請求項69記載の方法。
  96. 【請求項96】 上記制御情報を添付するステップは、実行可能な振る舞い
    を添付することを含む請求項69記載の方法。
  97. 【請求項97】 上記実行可能な振る舞いを添付するステップは、アニメー
    ションのために用いられる複数のレンダリングパラメータを添付することを含む
    請求項96記載の方法。
  98. 【請求項98】 上記実行可能な振る舞いを添付するステップはハイパーリ
    ンクを添付することを含む請求項96記載の方法。
  99. 【請求項99】 上記実行可能な振る舞いを添付するステップはタイマを添
    付することを含む請求項96記載の方法。
  100. 【請求項100】 上記実行可能な振る舞いを添付するステップは、音声呼
    を発生することを可能にする振る舞いを添付することを含む請求項96記載の方
    法。
  101. 【請求項101】 上記実行可能な振る舞いを添付するステップは、一時停
    止と再生のうちの少なくとも一方を含むシステム状態を添付することを含む請求
    項96記載の方法。
  102. 【請求項102】 上記実行可能な振る舞いを添付するステップは、複数の
    ユーザ変数を変化させることを可能にする情報を添付することを含む請求項96
    記載の方法。
  103. 【請求項103】 情報をスクリプト言語でパージングする手段と、 ビデオ、グラフィックス、アニメーション及びオーディオのうちの少なくとも
    1つの形式の複数のオブジェクトを含む複数のデータソースを読み出す手段と、 上記スクリプト言語の情報に基づいて上記複数のオブジェクトに制御情報を添
    付する手段と、 上記複数のオブジェクトを、データストリーム及びファイルのうちの少なくと
    も一方にインターリーブする手段とを備えたオブジェクトを処理するシステム。
  104. 【請求項104】 ユーザからの情報を入力する手段をさらに備え、上記添
    付する手段は、上記スクリプト言語の情報と上記ユーザからの情報とに基づいて
    動作する請求項103記載のシステム。
  105. 【請求項105】 プロフィール情報、人口統計情報、地理的情報、及び一
    時的情報のうちの少なくとも1つから選択された制御情報を入力する手段をさら
    に備え、上記添付する手段は、上記スクリプト言語の情報と上記制御情報とに基
    づいて動作する請求項103記載のシステム。
  106. 【請求項106】 ユーザからの情報を入力する手段をさらに備え、上記添
    付する手段は、上記スクリプト言語の情報と、上記制御情報と、上記ユーザから
    の情報とに基づいて動作する請求項105記載のシステム。
  107. 【請求項107】 上記ユーザからの情報を入力する手段は、ディスプレイ
    上のオブジェクトをグラフィックス画面でポインティングして選択する手段を備
    えた請求項106記載のシステム。
  108. 【請求項108】 上記データストリーム及びファイルの少なくとも一方に
    オブジェクトを挿入する手段をさらに備えた請求項103記載のシステム。
  109. 【請求項109】 上記挿入する手段は、上記データストリーム及びファイ
    ルの少なくとも一方に広告を挿入する手段を備えた請求項108記載のシステム
  110. 【請求項110】 上記広告を異なるオブジェクトと置換する手段をさらに
    備えた請求項109記載のシステム。
  111. 【請求項111】 上記挿入する手段は、上記データストリーム及びファイ
    ルの少なくとも一方に図形文字を挿入する手段を備えた請求項108記載のシス
    テム。
  112. 【請求項112】 上記図形文字を挿入する手段は、ユーザの地理的場所に
    基づいて上記図形文字を挿入する手段を備えた請求項111記載のシステム。
  113. 【請求項113】 上記複数のオブジェクトのうちの1つを他のオブジェク
    トで置換する手段をさらに備えた請求項103記載のシステム。
  114. 【請求項114】 上記複数のオブジェクトのうちの1つを置換する手段は
    、見られたシーンである複数のオブジェクトのうちの1つを、新しいシーンで置
    換する手段を備えた請求項113記載のシステム。
  115. 【請求項115】 上記複数のデータソースを読み出す手段は、訓練のビデ
    オである複数のデータソースのうちの少なくとも1つを読み出す手段を備えた請
    求項103記載のシステム。
  116. 【請求項116】 上記複数のデータソースを読み出す手段は、販売促進の
    ビデオである複数のデータソースのうちの少なくとも1つを読み出す手段を備え
    た請求項103記載のシステム。
  117. 【請求項117】 上記複数のデータソースを読み出す手段は、娯楽のビデ
    オである複数のデータソースのうちの少なくとも1つを読み出す手段を備えた請
    求項103記載のシステム。
  118. 【請求項118】 複数のデータソースを読み出す手段は、教育のビデオで
    ある複数のデータソースのうちの少なくとも1つを読み出す手段を備えた請求項
    103記載のシステム。
  119. 【請求項119】 上記複数のデータソースを読み出す手段は、監視カメラ
    からのビデオを取得する手段を備えた請求項103記載のシステム。
  120. 【請求項120】 上記挿入する手段は、上記データストリーム及びファイ
    ルの少なくとも一方に、自動車のトラフィックを見るためのカメラからのビデオ
    を挿入する手段を備えた請求項107記載のシステム。
  121. 【請求項121】 上記挿入する手段は、上記データストリーム及びファイ
    ルの少なくとも一方に、グリーティングカードの情報を挿入する手段を備えた請
    求項107記載のシステム。
  122. 【請求項122】 上記挿入する手段は、遠隔の計算装置のモニタの、コン
    ピュータで生成された画像を挿入することを含む請求項107記載のシステム。
  123. 【請求項123】 上記データストリーム及びファイルの少なくとも一方を
    ユーザに提供する手段をさらに含み、上記データストリーム及びファイルの少な
    くとも一方は対話型ビデオパンフレットを含む請求項103記載のシステム。
  124. 【請求項124】 対話のフォームを含む上記データストリーム及びファイ
    ルの少なくとも一方をユーザに提供する手段と、 上記ユーザによって、上記フォームに電子的に記入する手段と、 上記フォームに記入したときに、上記ユーザによって入力された情報を電子的
    に記憶する手段とをさらに備えた請求項103記載のシステム。
  125. 【請求項125】 上記電子的に記憶された情報を送信する手段をさらに備
    えた請求項124記載のシステム。
  126. 【請求項126】 上記制御情報を添付する手段は、対話の振る舞いを示す
    制御情報を添付する手段を備えた請求項103記載のシステム。
  127. 【請求項127】 上記制御情報を添付する手段は、複数のレンダリングパ
    ラメータを含む制御情報を添付する手段を備えた請求項103記載のシステム。
  128. 【請求項128】 上記制御情報を添付する手段は、コンポジション情報を
    含む制御情報を添付する手段を備えた請求項103記載のシステム。
  129. 【請求項129】 上記制御情報を添付する手段は、圧縮されたデータの処
    理方法を示す制御情報を添付する手段を備えた請求項103記載のシステム。
  130. 【請求項130】 上記制御情報を添付する手段は、実行可能な振る舞いを
    添付する手段を備えた請求項103記載のシステム。
  131. 【請求項131】 上記実行可能な振る舞いを添付する手段は、アニメーシ
    ョンのために用いられる複数のレンダリングパラメータを添付する手段を備えた
    請求項130記載のシステム。
  132. 【請求項132】 上記実行可能な振る舞いを添付する手段はハイパーリン
    クを添付する手段を備えた請求項130記載のシステム。
  133. 【請求項133】 上記実行可能な振る舞いを添付する手段はタイマを添付
    する手段を備えた請求項130記載のシステム。
  134. 【請求項134】 上記実行可能な振る舞いを添付する手段は、音声呼を発
    生することを可能にする振る舞いを添付する手段を備えた請求項130記載のシ
    ステム。
  135. 【請求項135】 上記実行可能な振る舞いを添付する手段は、一時停止と
    再生のうちの少なくとも一方を含むシステム状態を添付する手段を備えた請求項
    130記載のシステム。
  136. 【請求項136】 上記実行可能な振る舞いを添付する手段は、複数のユー
    ザ変数を変化させることを可能にする情報を添付する手段を備えた請求項130
    記載のシステム。
  137. 【請求項137】 データに基づいてサーバにおいて計算演算を実行するス
    テップと、 上記計算演算に基づいて上記サーバにおいて画像情報を生成するステップと、 上記データを送信することなく、上記サーバからクライアント計算装置に上記
    画像情報を無線接続を介して送信するステップと、 上記クライアント計算装置によって上記画像情報を受信するステップと、 上記クライアント計算装置によって上記画像情報を表示するステップとを含む
    、コンピュータを遠隔制御する方法。
  138. 【請求項138】 上記クライアント計算装置のユーザによって、入力情報
    を入力するステップと、 上記クライアント計算装置から上記サーバに上記入力情報を上記無線接続を介
    して送信するステップと、 上記入力情報を上記サーバにおいて処理するステップと、 上記入力情報に基づいて上記サーバにおいて上記画像情報を変更するステップ
    と、 上記変更された画像情報を上記無線接続を介して送信するステップと、 上記変更された画像情報を上記クライアント計算装置によって受信するステッ
    プと、 上記変更された画像情報を上記クライアント計算装置によって表示するステッ
    プとを含む請求項137記載の方法。
  139. 【請求項139】 上記サーバにおいて上記画像情報を取り込むステップを
    さらに含み、上記送信するステップは、上記取り込まれた画像情報を送信するこ
    とを含む請求項137記載の方法。
  140. 【請求項140】 上記送信するステップは、そこに添付された制御情報を
    有するビデオオブジェクトとして、上記画像情報を送信することを含む請求項1
    37記載の方法。
  141. 【請求項141】 データに基づいてサーバにおいて計算演算を実行する手
    段と、 上記計算演算に基づいて上記サーバにおいて画像情報を生成する手段と、 上記データを送信することなく、上記サーバからクライアント計算装置に上記
    画像情報を無線接続を介して送信する手段と、 上記クライアント計算装置によって上記画像情報を受信する手段と、 上記クライアント計算装置によって上記画像情報を表示する手段とを備えた、
    コンピュータを遠隔制御するシステム。
  142. 【請求項142】 上記クライアント計算装置のユーザによって、入力情報
    を入力する手段と、 上記クライアント計算装置から上記サーバに上記入力情報を上記無線接続を介
    して送信する手段と、 上記入力情報を上記サーバにおいて処理する手段と、 上記入力情報に基づいて上記サーバにおいて上記画像情報を変更する手段と、 上記変更された画像情報を上記無線接続を介して送信する手段と、 上記変更された画像情報を上記クライアント計算装置によって受信する手段と
    、 上記変更された画像情報を上記クライアント計算装置によって表示する手段と
    を備えた請求項141記載のシステム。
  143. 【請求項143】 上記サーバにおいて上記画像情報を取り込む手段をさら
    に備え、 上記送信する手段は、上記取り込まれた画像情報を送信する手段を備えた請求
    項141記載のシステム。
  144. 【請求項144】 上記送信する手段は、そこに添付された制御情報を有す
    るビデオオブジェクトとして、上記画像情報を送信する手段を備えた請求項13
    9記載のシステム。
  145. 【請求項145】 グリーティングカードの特徴を示す情報を入力するステ
    ップと、 上記グリーティングカードに対応する画像情報を生成するステップと、 上記画像情報を、制御情報を有するオブジェクトとして符号化するステップと
    、 上記制御情報を有するオブジェクトを無線接続を介して送信するステップと、 上記制御情報を有するオブジェクトを、無線ハンドヘルド計算装置によって受
    信するステップと、 上記無線ハンドヘルド計算装置によって、上記制御情報を有するオブジェクト
    をグリーティングカードの画像に復号化するステップと、 復号化された上記グリーティングカードの画像を、上記ハンドヘルド計算装置
    上に表示するステップとを含む、電子的グリーティングカードを送信する方法。
  146. 【請求項146】 上記画像情報を生成するステップは、1つの画像と、カ
    スタム画像情報としての一連の画像とのうちの少なくとも一方を取り込むことを
    含み、上記符号化するステップは、上記カスタム画像を、制御情報を有するオブ
    ジェクトとして符号化することをさらに含み、上記復号化するステップは、上記
    画像情報を用いて符号化されたオブジェクトを復号化することと、上記カスタム
    画像情報を用いて符号化されたオブジェクトを復号化することとを含み、上記表
    示するステップは、画像情報とカスタム画像情報とをグリーティングカードとし
    て表示することを含む請求項145記載の方法。
  147. 【請求項147】 グリーティングカードの特徴を示す情報を入力する手段
    と、 上記グリーティングカードに対応する画像情報を生成する手段と、 上記画像情報を、制御情報を有するオブジェクトとして符号化する手段と、 上記制御情報を有するオブジェクトを無線接続を介して送信する手段と、 上記制御情報を有するオブジェクトを、無線ハンドヘルド計算装置によって受
    信する手段と、 上記無線ハンドヘルド計算装置によって、上記制御情報を有するオブジェクト
    をグリーティングカードの画像に復号化する手段と、 復号化された上記グリーティングカードの画像を、上記ハンドヘルド計算装置
    上に表示する手段とを備えた、電子的グリーティングカードを送信するシステム
  148. 【請求項148】 上記画像情報を生成する手段は、1つの画像と、カスタ
    ム画像情報としての一連の画像とのうちの少なくとも一方を取り込む手段を備え
    、上記符号化する手段は、上記カスタム画像を、制御情報を有するオブジェクト
    として符号化する手段をさらに備え、上記復号化する手段は、上記画像情報を用
    いて符号化されたオブジェクトを復号化し、上記カスタム画像情報を用いて符号
    化されたオブジェクトを復号化する手段を備え、上記表示する手段は、画像情報
    とカスタム画像情報とをグリーティングカードとして表示する手段を備えた請求
    項147記載のシステム。
  149. 【請求項149】 計算装置によってオーディオ信号を入力するステップと
    、 上記オーディオ信号を符号化するステップと、 上記オーディオ信号を遠隔の計算装置に送信するステップと、 上記オーディオ信号を上記遠隔の計算装置において解釈して、上記オーディオ
    信号に対応する情報を生成するステップと、 上記オーディオ信号に対応する情報を上記計算装置に送信するステップと、 上記オーディオ信号に対応する情報を用いて上記計算装置を制御するステップ
    とを含む、計算装置を制御する方法。
  150. 【請求項150】 上記制御するステップは、上記オーディオ信号に対応す
    る情報に対応する複数のコンピュータ命令を用いて上記計算装置を制御すること
    を含む請求項149記載の方法。
  151. 【請求項151】 上記制御するステップは、上記オーディオ信号に対応す
    る情報に対応するデータを用いて上記計算装置を制御することを含む請求項14
    9記載の方法。
  152. 【請求項152】 上記オーディオ信号を解釈するステップは音声認識を実
    行することを含む請求項149記載の方法。
  153. 【請求項153】 計算装置によってオーディオ信号を入力することと、 上記オーディオ信号を符号化することと、 上記オーディオ信号を遠隔の計算装置に送信することと、 上記オーディオ信号を上記遠隔の計算装置において解釈して、上記オーディオ
    信号に対応する情報を生成することと、 上記オーディオ信号に対応する情報を上記計算装置に送信することと、 上記オーディオ信号に対応する情報を用いて上記計算装置を制御することとを
    備えた、計算装置を制御するシステム。
  154. 【請求項154】 上記制御する手段は、上記オーディオ信号に対応する情
    報に対応する複数のコンピュータ命令を用いて上記計算装置を制御する手段を備
    えた請求項153記載のシステム。
  155. 【請求項155】 上記制御する手段は、上記オーディオ信号に対応する情
    報に対応するデータを用いて上記計算装置を制御する手段を備えた請求項153
    記載のシステム。
  156. 【請求項156】 上記オーディオ信号を解釈する手段は音声認識を実行す
    る手段を備えた請求項153記載のシステム。
  157. 【請求項157】 無線ハンドヘルド装置上に広告を表示するステップと、 上記無線ハンドヘルド装置から情報を送信するステップと、 上記広告の表示によって、上記送信された情報に関連付けられた割引価格を受
    信するステップとを含む送信を実行する方法。
  158. 【請求項158】 上記表示するステップは、上記送信するステップよりも
    前に実行される請求項157記載の方法。
  159. 【請求項159】 上記表示するステップは、上記送信するステップの間に
    実行される請求項157記載の方法。
  160. 【請求項160】 上記表示するステップは、上記送信するステップよりも
    後に実行される請求項157記載の方法。
  161. 【請求項161】 上記割引価格を受信するステップは、上記送信された情
    報に関連付けられたコスト全体の割引値を受信することを含む請求項157記載
    の方法。
  162. 【請求項162】 上記表示するステップは、オブジェクトを対話型オブジ
    ェクトとして表示することを含み、当該方法は、ユーザによって上記オブジェク
    トと対話することと、上記ユーザによる対話に応答してビデオを表示することと
    をさらに含む請求項157記載の方法。
  163. 【請求項163】 無線ハンドヘルド装置上に広告を表示する手段と、 上記無線ハンドヘルド装置から情報を送信する手段と、 上記広告の表示によって、上記送信された情報に関連付けられた割引価格を受
    信する手段とを備えた送信を実行するシステム。
  164. 【請求項164】 上記広告を表示する手段は、上記情報を送信することよ
    りも前に動作する請求項163記載のシステム。
  165. 【請求項165】 上記広告を表示する手段は、上記情報を送信することの
    間に動作する請求項163記載のシステム。
  166. 【請求項166】 上記広告を表示する手段は、上記情報を送信することよ
    りも後に動作する請求項163記載のシステム。
  167. 【請求項167】 上記割引価格を受信する手段は、上記送信された情報に
    関連付けられたコスト全体の割引値を受信する手段を備えた請求項163記載の
    システム。
  168. 【請求項168】 上記表示する手段は、オブジェクトを対話型オブジェク
    トとして表示する手段を備え、当該システムは、ユーザによって上記オブジェク
    トと対話する手段と、上記ユーザによる対話に応答してビデオを表示する手段と
    をさらに備えた請求項163記載のシステム。
  169. 【請求項169】 イベントが発生したか否かを決定するステップと、 領域のビデオを取得し、上記イベントに応答して上記領域のビデオを無線送信
    によってユーザに送信するステップとを含むビデオを提供する方法。
  170. 【請求項170】 上記決定するステップは、上記ユーザによってロケーシ
    ョンを選択することを含み、上記送信するステップは、上記ロケーションに対応
    する領域のビデオを送信することを含む請求項169記載の方法。
  171. 【請求項171】 上記選択するステップは、トラフィックビデオに対応す
    る電話番号をダイヤルすることを含む請求項170記載の方法。
  172. 【請求項172】 全地球測位システムを用いて上記領域の決定を実行する
    ステップをさらに含む請求項169記載の方法。
  173. 【請求項173】 上記ユーザによって利用されるセルの場所に基づいて上
    記領域の決定を実行するステップをさらに含む請求項169記載の方法。
  174. 【請求項174】 上記決定するステップは、予め決められたルートにトラ
    フィック問題が存在することを決定することを含み、上記ビデオを取得するステ
    ップは、上記予め決められたルートに対応するビデオを取得することを含む請求
    項169記載の方法。
  175. 【請求項175】 上記送信するステップは、上記ユーザが予め決められた
    速度よりも大きい速度で移動しているときのみ上記ユーザに対して上記ビデオを
    送信することを含む請求項174記載の方法。
  176. 【請求項176】 イベントが発生したか否かを決定する手段と、 領域のビデオを取得する手段と、 上記イベントに応答して上記領域のビデオを無線送信によってユーザに送信す
    る手段とを備えたビデオを提供するシステム。
  177. 【請求項177】 上記決定する手段は、上記ユーザによってロケーション
    を選択する手段を備え、上記送信する手段は、上記ロケーションに対応する領域
    のビデオを送信する手段を備えた請求項176記載のシステム。
  178. 【請求項178】 上記選択する手段は、トラフィックビデオに対応する電
    話番号をダイヤルする手段を備えた請求項177記載のシステム。
  179. 【請求項179】 全地球測位システムを用いて上記領域の決定を実行する
    手段をさらに備えた請求項176記載のシステム。
  180. 【請求項180】 上記ユーザによって利用されるセルの場所に基づいて上
    記領域の決定を実行する手段をさらに備えた請求項176記載のシステム。
  181. 【請求項181】 上記決定する手段は、予め決められたルートにトラフィ
    ック問題が存在することを決定する手段を備え、上記ビデオを取得する手段は、
    上記予め決められたルートに対応するビデオを取得する手段を備えた請求項17
    6記載のシステム。
  182. 【請求項182】 上記送信する手段は、上記ユーザが予め決められた速度
    よりも大きい速度で移動しているときのみ上記ユーザに対して上記ビデオを送信
    する手段を備えた請求項181記載のシステム。
  183. 【請求項183】 ビデオオブジェクト形状情報を提供するために、余分な
    データのオーバーヘッド又は処理のオーバーヘッドを必要とせず、複数の任意形
    状のビデオオブジェクトをサポートすることができるオブジェクト指向マルチメ
    ディアビデオシステム。
  184. 【請求項184】 上記複数のビデオオブジェクトは、それら自体に添付さ
    れた制御情報を有する請求項183記載のシステム。
  185. 【請求項185】 上記複数のビデオオブジェクトは、遠隔のサーバからク
    ライアントにストリーミングされる請求項183記載のシステム。
  186. 【請求項186】 上記ビデオオブジェクトの形状は、複数の画像の表現で
    固有に符号化される請求項183記載のシステム。
  187. 【請求項187】 上記制御情報を添付するステップは、複数の制御を実行
    するための複数の条件を添付することを含む請求項69記載の方法。
  188. 【請求項188】 複数のユーザフラグ又は変数からの情報を取得するステ
    ップをさらに含み、上記添付するステップは、上記スクリプト言語の情報と、上
    記制御情報と、上記ユーザフラグからの情報とに基づいて実行される請求項71
    記載の方法。
  189. 【請求項189】 マルチメディアコンテンツをサーバが開始した通信によ
    って複数の無線装置に伝送する方法であって、コンテンツは、所望の時刻に、又
    はコストについて効率的な方法で伝送するためにスケジューリングされ、上記ユ
    ーザは、装置のディスプレイ又は他の表示器を介して伝送の完了を警告される方
    法。
  190. 【請求項190】 上記ユーザは、コンテンツサービスプロバイダに対して
    、特定のコンテンツの伝送に関する要求を登録し、上記要求は、クライアント装
    置に対するネットワークが開始する伝送を自動的にスケジューリングするために
    用いられる請求項189記載の方法。
  191. 【請求項191】 記憶された情報はオフラインで見られることが可能であ
    り、上記装置が次にオンラインに接続されるとき、特定の遠隔のサーバに無線ネ
    ットワークを介して自動的に伝送されるユーザ入力及び対話を記憶する対話型シ
    ステム。
  192. 【請求項192】 上記記憶された情報は、ノンリニアーにナビゲートする
    ことができるオブジェクト指向マルチメディアデータである請求項191記載の
    対話型システム。
  193. 【請求項193】 上記複数のデータソースを読み出すステップは、市場調
    査、販売促進、製品情報、娯楽ビデオのビデオの形式をとる複数のデータソース
    のうちの少なくとも1つを読み出すことを含む請求項69記載の方法。
  194. 【請求項194】 上記符号化するステップは、フラグが真であると定義さ
    れているときはFIFOバッファ中のインデックスとして表され、又は上記フラ
    グが偽であるときは色値として表された複数のリーフノード値を有する四分木を
    作成することを含む請求項51記載の方法。
  195. 【請求項195】 上記符号化する手段は、フラグが真であると定義されて
    いるときはFIFOバッファ中のインデックスとして表され、又は上記フラグが
    偽であるときは色値として表された複数のリーフノード値を有する四分木を作成
    する手段を備えた請求項66記載のシステム。
  196. 【請求項196】 上記符号化するステップは、平均と、水平及び垂直方向
    の勾配として表された複数のリーフノード値を有する四分木を作成することを含
    む請求項51記載の方法。
  197. 【請求項197】 上記符号化するステップは、フラグが真であると定義さ
    れているときはFIFOバッファ中のインデックスとして表され、又は上記フラ
    グが偽であるときは色値として表された複数のリーフノード平均値を有する四分
    木を作成することを含む請求項196記載の方法。
  198. 【請求項198】 上記符号化する手段は、平均と、水平及び垂直方向の勾
    配として表された複数のリーフノード値を有する四分木を作成することを含む請
    求項66記載のシステム。
  199. 【請求項199】 上記符号化する手段は、フラグが真であると定義されて
    いるときはFIFOバッファ中のインデックスとして表され、又は上記フラグが
    偽であるときは色値として表された複数のリーフノード平均値を有する四分木を
    作成することを含む請求項198記載のシステム。
  200. 【請求項200】 動的メディア合成において用いるための携帯型クライア
    ント装置上の永続的オブジェクトライブラリを含み、上記ライブラリは上記遠隔
    のサーバから管理することができ、上記遠隔のサーバからそれに伝送された複数
    のライブラリ管理命令を実行するためにクライアントが利用可能なソフトウェア
    を含み、上記サーバは、上記ライブラリに質問して、そこに含まれた特定のオブ
    ジェクトについての情報を受信し、上記ライブラリのコンテンツを挿入し、更新
    し、又は削除し、上記動的メディア合成エンジンは、必要なときは上記ライブラ
    リ及び遠隔のサーバの両方を同時にオブジェクトデータストリームのソースとす
    ることができ、上記永続的オブジェクトライブラリは、満了の日付、アクセス許
    可、固有の識別、メタデータ、及び状態情報を含むオブジェクト情報を記憶し、
    上記システムは、満了されたオブジェクト、アクセス制御、ライブラリ探索、及
    びさまざまな他のライブラリ管理のタスクに対して自動的ガーベッジコレクショ
    ンを実行する請求項14記載のシステム。
  201. 【請求項201】 オブジェクト制御データを備えたビデオデータをビデオ
    オブジェクトとして符号化することと、 上記複数のビデオオブジェクトを各ビデオデータ及びオブジェクト制御データ
    とともに含むデータストリームを生成することとを含むビデオ符号化方法。
  202. 【請求項202】 シーンを表すシーンパケットを生成し、各ビデオオブジ
    ェクトとともに上記複数のデータストリームを含む請求項201記載のビデオ符
    号化方法。
  203. 【請求項203】 各データストリーム及びユーザ制御データを有する上記
    複数のシーンパケットを含むビデオデータファイルを生成することを含む請求項
    202記載のビデオ符号化方法。
  204. 【請求項204】 上記ビデオデータは、複数のビデオフレーム、複数のオ
    ーディオフレーム、テキスト、及び/又はグラフィックスを表す請求項201記
    載のビデオ符号化方法。
  205. 【請求項205】 上記ビデオオブジェクトは、上記符号化されたビデオデ
    ータの複数のデータパケットを備えたパケットと、上記ビデオオブジェクトに対
    する上記オブジェクト制御データを備えた少なくとも1つのオブジェクト制御パ
    ケットとを含む請求項201記載のビデオ符号化方法。
  206. 【請求項206】 上記ビデオデータファイル、上記複数のシーンパケット
    、及び上記複数のデータストリームは、それぞれのディレクトリデータを含む請
    求項202記載のビデオ符号化方法。
  207. 【請求項207】 上記オブジェクト制御データは、ユーザによるシーン内
    の上記オブジェクトの対話型制御を可能にする上記ビデオオブジェクトを定義す
    る複数のパラメータを表す請求項201記載のビデオ符号化方法。
  208. 【請求項208】 上記符号化することは、上記ビデオオブジェクトの形状
    を表す形状データとともに、上記ビデオデータの輝度及び色情報を符号化するこ
    とを含む請求項201記載のビデオ符号化方法。
  209. 【請求項209】 上記オブジェクト制御データは、上記複数のビデオオブ
    ジェクトに対する、形状、レンダリング、アニメーション、及び対話のパラメー
    タを定義する請求項201記載のビデオ符号化方法。
  210. 【請求項210】 色の削減された表現に基づいて、ビデオストリーム中の
    色データを量子化することと、 上記量子化された色と透明な領域とを表す、符号化されたビデオフレームデー
    タを生成することと、 上記符号化されたビデオデータとともに送信する、符号化されたオーディオデ
    ータとオブジェクト制御データを生成することとを含むビデオ符号化方法。
  211. 【請求項211】 上記ストリームのビデオフレーム中の色の変化を表す動
    きベクトルを生成することを含み、上記符号化されたビデオフレームデータは、
    上記動きベクトルを表す請求項210記載のビデオ符号化方法。
  212. 【請求項212】 上記符号化されたビデオデータとともに送信する、符号
    化されたテキストオブジェクトとベクトルグラフィックオブジェクトと音楽オブ
    ジェクトとを生成することと、 カスタマイズ可能な圧縮解除変換を構成する、符号化されたデータを生成する
    こととを含む請求項211記載のビデオ符号化方法。
  213. 【請求項213】 上記複数のビデオオブジェクトに対するユーザ対話に基
    づいて、ユーザに対する上記複数のシーンパケットをリアルタイムで動的に生成
    することを含む請求項2記載のビデオ符号化方法。
  214. 【請求項214】 上記オブジェクト制御データは、(i)複数のビデオオ
    ブジェクトをレンダリングするパラメータ、(ii)上記複数のビデオオブジェ
    クトの対話の振る舞いを定義するパラメータ、(iii)上記複数のオブジェク
    トに対するハイパーリンクと、上記複数のオブジェクトからのハイパーリンクと
    を作成するパラメータ、(iv)上記複数のオブジェクトに対するアニメーショ
    ンパスを定義するパラメータ、(v)複数の動的メディア合成パラメータを定義
    するパラメータ、(vi)複数のユーザ変数に複数の値を割り当てるパラメータ
    、及び/又は(vii)複数の制御アクションの実行のための条件を定義するパ
    ラメータを表す請求項1記載のビデオ符号化方法。
  215. 【請求項215】 上記オブジェクト制御データは、ビデオフレームの複数
    のオブジェクトをレンダリングする複数のパラメータを表す請求項210又は2
    11記載のビデオ符号化方法。
  216. 【請求項216】 上記複数のパラメータは、透明度、スケール、ボリュー
    ム、位置、及び回転を表す請求項210又は211記載のビデオ符号化方法。
  217. 【請求項217】 上記符号化されたビデオ、オーディオ及び制御データは
    各パケットとして送信されて、それぞれ復号化される請求項210又は211記
    載のビデオ符号化方法。
  218. 【請求項218】 (i)ビデオデータの各ビデオフレームに対して削減さ
    れた色のセットを選択することと、 (ii)フレーム間の色を調整することと、 (iii)動き補償を実行することと、 (iv)知覚可能な色差の測定値に基づいて、フレームの更新領域を決定する
    ことと、 (v)ステップ(i)乃至(iv)に基づいて、上記複数のフレームに対する
    ビデオデータを複数のビデオオブジェクトに符号化することと、 (vi)各ビデオオブジェクトに、アニメーション、レンダリング、及び動的
    合成制御を包含させることとを含むビデオ符号化方法。
  219. 【請求項219】 先行する請求項のうちの任意の1つに記載された方法に
    従って符号化されたビデオデータを復号化するビデオ復号化方法。
  220. 【請求項220】 上記符号化されたデータをパージングして、複数のオブ
    ジェクト制御パケットをオブジェクト管理処理に分配し、複数の符号化されたビ
    デオパケットをビデオ復号化器に分配する請求項219記載のビデオ復号化方法
  221. 【請求項221】 上記複数のレンダリングパラメータは、オブジェクトの
    透明度、スケール、ボリューム、位置、及び回転を表す請求項214記載のビデ
    オ符号化方法。
  222. 【請求項222】 上記複数のアニメーションパスは上記複数のレンダリン
    グパラメータを調整する請求項214記載のビデオ符号化方法。
  223. 【請求項223】 上記複数のハイパーリンクは、複数のビデオファイル、
    複数のシーンパケット及び複数のオブジェクトのそれぞれに対するリンクを表す
    請求項214記載のビデオ符号化方法。
  224. 【請求項224】 上記対話の振る舞いのデータは、上記複数のオブジェク
    トの再生と、ユーザデータの返却との制御を提供する請求項214記載のビデオ
    符号化方法。
  225. 【請求項225】 受信されてレンダリングされた複数のビデオオブジェク
    トに対する上記複数のオブジェクト制御パケットに基づいて、ユーザに対する複
    数のビデオオブジェクト制御を生成することを含む請求項220記載のビデオ復
    号化方法。
  226. 【請求項226】 請求項219記載のビデオ復号化方法に係る複数のステ
    ップを実行するための構成要素を有するビデオ復号化器。
  227. 【請求項227】 請求項226記載のビデオ復号化器を有するコンピュー
    タ装置。
  228. 【請求項228】 上記装置は、携帯電話機又はPDAのような、携帯型で
    ありかつハンドヘルドである請求項227記載のコンピュータ装置。
  229. 【請求項229】 請求項1記載のビデオ符号化方法を実行することと、ユ
    ーザがリアルタイムの色削減を選択することを可能にするように、上記ユーザに
    送信するための付加的な色量子化情報を追加することとを含む、動的な色空間符
    号化方法。
  230. 【請求項230】 目標を定められたユーザ広告及び/又はローカルビデオ
    広告を上記ビデオオブジェクトに追加することを含む請求項201記載のビデオ
    符号化方法。
  231. 【請求項231】 請求項219記載のビデオ復号化方法を実行し、上記複
    数のビデオオブジェクトを含む遠隔のサーバにアクセスするように適応されたウ
    ルトラシンクライアントを有するコンピュータ装置。
  232. 【請求項232】 請求項201記載のビデオ符号化方法を実行することを
    含む複数のビデオのビデオ会議をする方法。
  233. 【請求項233】 ユーザの選択のために複数のビデオメニュー及びフォー
    ムを生成して、上記複数のビデオオブジェクトに包含させることを含む請求項2
    01記載のビデオ符号化方法。
  234. 【請求項234】 請求項201記載の上記ビデオ符号化方法を実行するこ
    とを含む、携帯電話機に送信するための電子的カードを生成する方法。
  235. 【請求項235】 請求項201乃至請求項218のうちの任意の1つに記
    載のビデオ符号化方法に係るステップを実行するための構成要素を有するビデオ
    符号化器。
  236. 【請求項236】 請求項235記載のビデオ符号化器を含むビデオ・オン
    ・デマンドシステム。
  237. 【請求項237】 請求項235記載のビデオ符号化器を含むビデオセキュ
    リティーシステム。
  238. 【請求項238】 請求項226記載のビデオ復号化器を含む対話型携帯ビ
    デオシステム。
  239. 【請求項239】 上記複数のビデオオブジェクトに基づいて生成されたビ
    デオ表示を制御するために、ユーザからの音声コマンドを処理することを含む請
    求項219記載のビデオ復号化方法。
  240. 【請求項240】 コンピュータが読み取り可能な記憶媒体上に記憶され、
    請求項219記載のビデオ復号化方法を実行し、上記複数のビデオオブジェクト
    に対する複数の制御を含むビデオ表示を生成し、上記複数の制御のアプリケーシ
    ョンに応答して上記表示を調整するためのコードを含むコンピュータプログラム
  241. 【請求項241】 複数のIAVML命令を含む請求項240記載のコンピ
    ュータプログラム。
  242. 【請求項242】 (i)携帯型モニタ装置及び第1の無線通信手段と、 (ii)圧縮されたディジタルビデオとコンピュータアニメーションを記憶し
    、ユーザが、利用可能なビデオのライブラリから、見るためのディジタルビデオ
    を閲覧して選択することを可能にするサーバと、 (iii)第2の無線通信手段を設けられ、上記サーバから上記携帯型モニタ
    装置に送信可能なデータを送信する少なくとも1つのインターフェースモジュー
    ルとを含み、上記携帯型モニタ装置は、上記送信可能なデータを受信し、上記送
    信可能なデータをビデオ画像に変換し、上記ビデオ画像を表示し、上記ユーザが
    上記サーバと通信して、見るためのビデオを対話的に閲覧して選択することを可
    能にする無線ストリーミングビデオ及びアニメーションシステム。
  243. 【請求項243】 上記携帯型の無線装置は、ハンドヘルド処理装置である
    請求項242記載の無線ストリーミングビデオ及びアニメーションシステム。
  244. 【請求項244】 (a)後のローカルサーバからの送信のために、圧縮さ
    れたビデオ及びアニメーションデータを遠隔のサーバから広域ネットワークを介
    してダウンロードするステップと、 (b)ユーザが、上記ローカルサーバに記憶されたビデオデータのライブラリ
    から、見るためのディジタルビデオデータを閲覧して選択することを可能にする
    ステップと、 (c)上記データを携帯型モニタ装置に送信するステップと、 (d)上記データを処理して、上記携帯型モニタ装置上に画像を表示するステ
    ップとのうちの少なくとも1つを含む、ビデオ及びアニメーションの無線ストリ
    ーミングを提供する方法。
  245. 【請求項245】 (a)(i)パンフレット中のさまざまなシーンと、各
    シーン内で発生しうるさまざまなビデオオブジェクトとを特定するステップと、
    (ii)プリセットされかつユーザが選択可能なシーンのナビゲーションの制御
    と、各シーンに対する個別のコンポジションルールとを特定するステップと、(
    iii)複数のメディアオブジェクト上の複数のレンダリングパラメータを特定
    するステップと、(iv)複数のメディアオブジェクト上の制御を特定して、ユ
    ーザのフィードバックを収集するためのフォームを作成するステップと、(v)
    圧縮された複数のメディアストリームとオブジェクト制御情報をコンポジットデ
    ータストリームに統合化するステップとによって、ビデオパンフレットを作成す
    るステップのうちの少なくとも1つを含む、対話型ビデオパンフレットを提供す
    る方法。
  246. 【請求項246】 (a)上記コンポジットデータストリームを処理し、上
    記オブジェクト制御情報を解釈して、各シーンを表示することと、 (b)ユーザ入力を処理して、パンフレットを通じたナビゲーション、アニメ
    ーションなどの活性化、登録と複数のユーザ選択、及び他のユーザ入力のような
    、任意の関連するオブジェクト制御を実行することと、 (c)ネットワーク接続が利用可能になったときの、ビデオパンフレットネッ
    トワークサーバのプロバイダに対する後のアップロードのために、上記複数のユ
    ーザ選択及びユーザ入力を記憶することと、 (d)遠隔のネットワークサーバにおいて、複数の対話型ビデオパンフレット
    からのユーザ選択のアップロードを受信し、情報を処理してそれを顧客/クライ
    アントデータベースに統合化することとを含む請求項245記載の方法。
  247. 【請求項247】 (a)(i)ライブラリからテンプレートのビデオシー
    ン又はアニメーションを選択することと、(ii)ユーザが供給したテキスト又
    はオーディオオブジェクトを追加することによってか、又はシーン中の俳優とし
    て挿入される複数のビデオオブジェクトをライブラリから選択することによって
    上記テンプレートをカスタマイズすることとによって、顧客がビデオグリーティ
    ングカードを作成することを可能にするステップと、 (b)顧客から(i)識別の詳細、(ii)好ましい伝送方法、(iii)支
    払いの詳細、(iv)意図された受信者の携帯装置の番号を取得するステップと
    、 (c)指定された伝送方法に依存して、帯域幅が利用可能になるか、又はオフ
    ピーク伝送を取得できるようになるかのいずれかまで上記グリーティングカード
    をキューイングし、受信者の装置をポーリングして上記グリーティングカードを
    処理できるか否かを調べ、そうであるときは、指定された携帯装置に伝送するス
    テップのうちの少なくとも1つを含む、ビデオグリーティングカードを作成して
    携帯装置に送信する方法。
  248. 【請求項248】 上記オブジェクト制御データは、ユーザが上記ビデオオ
    ブジェクトに対応する任意形状のビデオをレンダリングすることを可能にする、
    複数の形状パラメータを含む請求項201記載のビデオ符号化方法。
  249. 【請求項249】 上記オブジェクト制御データは、上記ビデオオブジェク
    トに対する対応する制御をいつ呼び出すかを決定する条件データを含む請求項2
    01記載のビデオ符号化方法。
  250. 【請求項250】 上記オブジェクト制御データは、もう1つのビデオオブ
    ジェクトに作用する制御を表す請求項201記載のビデオ符号化方法。
  251. 【請求項251】 イベント又はユーザ対話に応答して、フラグのセットに
    基づいて、上記複数のビデオオブジェクトの動的メディア合成を制御することを
    含む請求項201記載のビデオ符号化方法。
  252. 【請求項252】 上記データストリームをブロードキャストする、及び/
    又はマルチキャストすることを含む請求項201記載のビデオ符号化方法。
JP2001534008A 1999-10-22 2000-10-20 オブジェクト指向ビデオシステム Pending JP2003513538A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AU3603 1999-10-22
AUPQ3603A AUPQ360399A0 (en) 1999-10-22 1999-10-22 An object oriented video system
AUPQ8661A AUPQ866100A0 (en) 2000-07-07 2000-07-07 An object oriented video system
AU8661 2000-07-07
PCT/AU2000/001296 WO2001031497A1 (en) 1999-10-22 2000-10-20 An object oriented video system

Publications (2)

Publication Number Publication Date
JP2003513538A true JP2003513538A (ja) 2003-04-08
JP2003513538A5 JP2003513538A5 (ja) 2007-12-13

Family

ID=25646184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001534008A Pending JP2003513538A (ja) 1999-10-22 2000-10-20 オブジェクト指向ビデオシステム

Country Status (13)

Country Link
US (1) US20070005795A1 (ja)
EP (1) EP1228453A4 (ja)
JP (1) JP2003513538A (ja)
KR (1) KR20020064888A (ja)
CN (1) CN1402852A (ja)
AU (1) AU1115001A (ja)
BR (1) BR0014954A (ja)
CA (1) CA2388095A1 (ja)
HK (1) HK1048680A1 (ja)
MX (1) MXPA02004015A (ja)
NZ (1) NZ518774A (ja)
TW (2) TWI229559B (ja)
WO (1) WO2001031497A1 (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087760A (ja) * 2001-09-10 2003-03-20 Ntt Communications Kk 情報提供ネットワークシステム及び情報提供方法
WO2005002219A1 (ja) * 2003-06-30 2005-01-06 Matsushita Electric Industrial Co.,Ltd. 記録媒体、再生装置、記録方法、プログラム、再生方法
WO2005027439A1 (ja) * 2003-09-12 2005-03-24 Nec Corporation メディアストリ−ムのマルチキャスト配信方法及び装置
JP2005527126A (ja) * 2001-08-29 2005-09-08 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Umtsネットワークにおいてマルチキャスト通信を実行するための方法および装置
JP2005528849A (ja) * 2002-06-04 2005-09-22 クゥアルコム・インコーポレイテッド ポータブルデバイスにおけるマルチメディアレンダリングのためのシステム
WO2006132021A1 (ja) * 2005-06-08 2006-12-14 Matsushita Electric Industrial Co., Ltd. Guiコンテンツ再生装置及びプログラム
JP2007519074A (ja) * 2003-10-23 2007-07-12 マイクロソフト コーポレーション リモートなビジュアル構成のためのプロトコル
JP2009105901A (ja) * 2002-06-19 2009-05-14 Microsoft Corp ビデオ合成を表示するための方法
JP2012527815A (ja) * 2009-05-18 2012-11-08 サムスン エレクトロニクス カンパニー リミテッド エンコーダ、デコーダ、符号化、及び復号化方法
CN102946529A (zh) * 2012-10-19 2013-02-27 华中科技大学 基于fpga和多核dsp的图像传输及处理系统
JP2013512640A (ja) * 2009-12-10 2013-04-11 サムスン エレクトロニクス カンパニー リミテッド 情報オブジェクトを符号化する方法及びそれを用いるエンコーダ
JP2013115784A (ja) * 2011-11-30 2013-06-10 Fujitsu Ltd 情報処理装置、画像送信方法及び画像送信プログラム
KR101349672B1 (ko) 2012-12-27 2014-01-10 전자부품연구원 영상 특징 고속 추출 방법 및 이를 지원하는 장치
KR101390143B1 (ko) 2006-08-02 2014-04-28 소니 주식회사 기록 장치 및 방법, 촬상 장치, 재생 장치 및 방법, 및 프로그램
JP2015505208A (ja) * 2011-12-20 2015-02-16 インテル・コーポレーション 強化型ワイヤレスディスプレイ
KR101517815B1 (ko) 2013-01-21 2015-05-07 전자부품연구원 실시간 객체 추출 방법 및 이를 적용한 감시 시스템
WO2015107622A1 (ja) * 2014-01-14 2015-07-23 富士通株式会社 画像処理プログラム、表示プログラム、画像処理方法、表示方法、画像処理装置、および情報処理装置
JP2015530649A (ja) * 2012-08-14 2015-10-15 トムソン ライセンシングThomson Licensing ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用
KR20160048178A (ko) * 2013-08-29 2016-05-03 메디아프로두씨온, 에스.엘.유. 영상 프로덕션을 만들기 위한 방법 및 그 시스템
JP2016519501A (ja) * 2013-04-05 2016-06-30 ブリティッシュ・ブロードキャスティング・コーポレーションBritish Broadcasting Corporation 合成画像の送信および受信
JP2016167841A (ja) * 2009-12-04 2016-09-15 クゥアルコム・インコーポレイテッドQualcomm Incorporated 移動体メディアサーバ
KR101666918B1 (ko) * 2015-06-08 2016-10-17 주식회사 솔박스 스트리밍 서비스에서의 영상 스킵 및 검색 처리를 위한 방법 및 그 장치
JP2018503279A (ja) * 2014-10-22 2018-02-01 華為技術有限公司Huawei Technologies Co.,Ltd. インタラクティブな動画生成
KR102110195B1 (ko) * 2019-08-09 2020-05-14 주식회사 볼트홀 응용 프로그램의 스트리밍 영상 제공 장치 및 방법
JPWO2020261313A1 (ja) * 2019-06-24 2020-12-30
JP2022527572A (ja) * 2019-03-21 2022-06-02 ジェームス フィオレンティーノ,マイケル 階層化メディアを生成すること、分配すること、及び階層化メディアと対話することのためのプラットフォーム、システム及び方法

Families Citing this family (665)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5694546A (en) 1994-05-31 1997-12-02 Reisman; Richard R. System for automatic unattended electronic information transport between a server and a client by a vendor provided transport software with a manifest list
US8165155B2 (en) * 2004-07-01 2012-04-24 Broadcom Corporation Method and system for a thin client and blade architecture
US8464302B1 (en) 1999-08-03 2013-06-11 Videoshare, Llc Method and system for sharing video with advertisements over a network
KR100636095B1 (ko) * 1999-08-27 2006-10-19 삼성전자주식회사 멀티미디어 파일 관리방법
AU2001245575A1 (en) 2000-03-09 2001-09-17 Videoshare, Inc. Sharing a streaming video
US7630721B2 (en) 2000-06-27 2009-12-08 Ortiz & Associates Consulting, Llc Systems, methods and apparatuses for brokering data between wireless devices and data rendering devices
US7782363B2 (en) 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
US8583027B2 (en) 2000-10-26 2013-11-12 Front Row Technologies, Llc Methods and systems for authorizing computing devices for receipt of venue-based data based on the location of a user
US20030112354A1 (en) * 2001-12-13 2003-06-19 Ortiz Luis M. Wireless transmission of in-play camera views to hand held devices
US7149549B1 (en) 2000-10-26 2006-12-12 Ortiz Luis M Providing multiple perspectives for a venue activity through an electronic hand held device
US7812856B2 (en) 2000-10-26 2010-10-12 Front Row Technologies, Llc Providing multiple perspectives of a venue activity to electronic wireless hand held devices
US7133837B1 (en) * 2000-06-29 2006-11-07 Barnes Jr Melvin L Method and apparatus for providing communication transmissions
US7487112B2 (en) * 2000-06-29 2009-02-03 Barnes Jr Melvin L System, method, and computer program product for providing location based services and mobile e-commerce
US6766376B2 (en) 2000-09-12 2004-07-20 Sn Acquisition, L.L.C Streaming media buffering system
US8121897B2 (en) * 2000-12-06 2012-02-21 Kuo-Ching Chiang System and method of advertisement via mobile terminal
US6937562B2 (en) * 2001-02-05 2005-08-30 Ipr Licensing, Inc. Application specific traffic optimization in a wireless link
US7380250B2 (en) * 2001-03-16 2008-05-27 Microsoft Corporation Method and system for interacting with devices having different capabilities
WO2002076058A2 (en) * 2001-03-21 2002-09-26 Research In Motion Limited Method and apparatus for providing content to media devices
WO2002093873A1 (en) * 2001-05-15 2002-11-21 Corbett Wall Method and apparatus for creating and distributing real-time interactive media content through wireless communication networks and the internet
US7493397B1 (en) * 2001-06-06 2009-02-17 Microsoft Corporation Providing remote processing services over a distributed communications network
JP4168606B2 (ja) * 2001-06-28 2008-10-22 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7203692B2 (en) 2001-07-16 2007-04-10 Sony Corporation Transcoding between content data and description data
US7386870B2 (en) 2001-08-23 2008-06-10 Koninklijke Philips Electronics N.V. Broadcast video channel surfing system based on internet streaming of captured live broadcast channels
WO2003027876A1 (en) * 2001-09-26 2003-04-03 Jodie Lynn Reynolds System and method for communicating media signals
US8079045B2 (en) * 2001-10-17 2011-12-13 Keen Personal Media, Inc. Personal video recorder and method for inserting a stored advertisement into a displayed broadcast stream
FR2831363A3 (fr) * 2001-10-22 2003-04-25 Bahia 21 Corp Procede et systeme de transmission securisee de documents video et assistant personnel electronique associe
AU2002366661B2 (en) * 2001-12-10 2008-07-10 Wilson, Eric Cameron A system for secure distribution of electronic content and collection of fees
US20030110297A1 (en) * 2001-12-12 2003-06-12 Tabatabai Ali J. Transforming multimedia data for delivery to multiple heterogeneous devices
AUPR947701A0 (en) * 2001-12-14 2002-01-24 Activesky, Inc. Digital multimedia publishing system for wireless devices
US20040110490A1 (en) 2001-12-20 2004-06-10 Steele Jay D. Method and apparatus for providing content to media devices
US7433526B2 (en) * 2002-04-30 2008-10-07 Hewlett-Packard Development Company, L.P. Method for compressing images and image sequences through adaptive partitioning
US7302006B2 (en) * 2002-04-30 2007-11-27 Hewlett-Packard Development Company, L.P. Compression of images and image sequences through adaptive partitioning
US10489449B2 (en) 2002-05-23 2019-11-26 Gula Consulting Limited Liability Company Computer accepting voice input and/or generating audible output
US8611919B2 (en) 2002-05-23 2013-12-17 Wounder Gmbh., Llc System, method, and computer program product for providing location based services and mobile e-commerce
US7064760B2 (en) 2002-06-19 2006-06-20 Nokia Corporation Method and apparatus for extending structured content to support streaming
FR2841724A1 (fr) * 2002-06-28 2004-01-02 Thomson Licensing Sa Systeme et procede de synchronisation pour programmes audiovisuels, dispositifs et procedes associes
US20040010793A1 (en) * 2002-07-12 2004-01-15 Wallace Michael W. Method and system for flexible time-based control of application appearance and behavior
US7620699B1 (en) * 2002-07-26 2009-11-17 Paltalk Holdings, Inc. Method and system for managing high-bandwidth data sharing
US7239981B2 (en) 2002-07-26 2007-07-03 Arbitron Inc. Systems and methods for gathering audience measurement data
US20040024900A1 (en) * 2002-07-30 2004-02-05 International Business Machines Corporation Method and system for enhancing streaming operation in a distributed communication system
US7755641B2 (en) * 2002-08-13 2010-07-13 Broadcom Corporation Method and system for decimating an indexed set of data elements
US8421804B2 (en) 2005-02-16 2013-04-16 At&T Intellectual Property Ii, L.P. System and method of streaming 3-D wireframe animations
US7639654B2 (en) * 2002-08-29 2009-12-29 Alcatel-Lucent Usa Inc. Method and apparatus for mobile broadband wireless communications
AU2003246033B2 (en) * 2002-09-27 2006-11-23 Canon Kabushiki Kaisha Relating a Point of Selection to One of a Hierarchy of Graphical Objects
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
GB0222557D0 (en) * 2002-09-28 2002-11-06 Koninkl Philips Electronics Nv Portable computer device
GB2407675B (en) * 2002-09-30 2006-01-04 Adobe Systems Inc Reduction of search ambiguity with multiple media references
US7574653B2 (en) * 2002-10-11 2009-08-11 Microsoft Corporation Adaptive image formatting control
US20040139481A1 (en) * 2002-10-11 2004-07-15 Larry Atlas Browseable narrative architecture system and method
US7904812B2 (en) * 2002-10-11 2011-03-08 Web River Media, Inc. Browseable narrative architecture system and method
US7339589B2 (en) 2002-10-24 2008-03-04 Sony Computer Entertainment America Inc. System and method for video choreography
US8549574B2 (en) 2002-12-10 2013-10-01 Ol2, Inc. Method of combining linear content and interactive content compressed together as streaming interactive video
US20090118019A1 (en) 2002-12-10 2009-05-07 Onlive, Inc. System for streaming databases serving real-time applications used through streaming interactive video
US9108107B2 (en) 2002-12-10 2015-08-18 Sony Computer Entertainment America Llc Hosting and broadcasting virtual events using streaming interactive video
US8949922B2 (en) * 2002-12-10 2015-02-03 Ol2, Inc. System for collaborative conferencing using streaming interactive video
US8387099B2 (en) 2002-12-10 2013-02-26 Ol2, Inc. System for acceleration of web page delivery
US8832772B2 (en) 2002-12-10 2014-09-09 Ol2, Inc. System for combining recorded application state with application streaming interactive video output
US8893207B2 (en) 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US9003461B2 (en) 2002-12-10 2015-04-07 Ol2, Inc. Streaming interactive video integrated with recorded video segments
US20110126255A1 (en) * 2002-12-10 2011-05-26 Onlive, Inc. System and method for remote-hosted video effects
US8468575B2 (en) 2002-12-10 2013-06-18 Ol2, Inc. System for recursive recombination of streaming interactive video
US8840475B2 (en) 2002-12-10 2014-09-23 Ol2, Inc. Method for user session transitioning among streaming interactive video servers
US9032465B2 (en) * 2002-12-10 2015-05-12 Ol2, Inc. Method for multicasting views of real-time streaming interactive video
US8661496B2 (en) 2002-12-10 2014-02-25 Ol2, Inc. System for combining a plurality of views of real-time streaming interactive video
US8495678B2 (en) 2002-12-10 2013-07-23 Ol2, Inc. System for reporting recorded video preceding system failures
AU2003234420A1 (en) 2002-12-27 2004-07-29 Nielsen Media Research, Inc. Methods and apparatus for transcoding metadata
US8312131B2 (en) * 2002-12-31 2012-11-13 Motorola Mobility Llc Method and apparatus for linking multimedia content rendered via multiple devices
US7930716B2 (en) * 2002-12-31 2011-04-19 Actv Inc. Techniques for reinsertion of local market advertising in digital video from a bypass source
EP1876598A3 (en) * 2003-01-29 2008-03-19 LG Electronics Inc. Method and apparatus for managing animation data of an interactive DVD.
WO2004068490A1 (en) * 2003-01-29 2004-08-12 Lg Electronics Inc. Method and apparatus for managing animation data of an interactive disc
KR100573685B1 (ko) * 2003-03-07 2006-04-25 엘지전자 주식회사 대화형 광디스크의 애니메이션 데이터 재생방법 및 장치
KR101019333B1 (ko) 2003-01-31 2011-03-07 파나소닉 주식회사 재생장치, 기록방법, 재생방법
KR100574823B1 (ko) 2003-03-07 2006-04-28 엘지전자 주식회사 대화형 광디스크의 애니메이션 천크 데이터 및 그속성정보 관리방법
EP1876588A3 (en) * 2003-02-10 2008-08-20 LG Electronics Inc. Method for managing animation chunk data and its attribute information for use in an interactive disc
BR0318098A (pt) * 2003-02-10 2005-12-20 Lg Electronics Inc Método para gerenciar dados de fragmentos de animação e sua informação de atributo para uso em um disco interativo
CN100555441C (zh) 2003-02-28 2009-10-28 松下电器产业株式会社 再现装置、记录方法再现方法
US20110181686A1 (en) * 2003-03-03 2011-07-28 Apple Inc. Flow control
SE0300622D0 (sv) * 2003-03-06 2003-03-06 Ericsson Telefon Ab L M Pilot packet in radio communication systems
KR100925195B1 (ko) * 2003-03-17 2009-11-06 엘지전자 주식회사 대화형 디스크 플레이어의 이미지 데이터 처리장치 및처리방법
US8230094B1 (en) 2003-04-29 2012-07-24 Aol Inc. Media file format, system, and method
DE602004010098T3 (de) 2003-05-06 2014-09-04 Apple Inc. Verfahren zur änderung von einer nachrichtspeicherungs und weiterleitungsnetzwerkssystem und datenbenachrichtigungssystem
US8824553B2 (en) 2003-05-12 2014-09-02 Google Inc. Video compression method
NL1023423C2 (nl) 2003-05-14 2004-11-16 Nicolaas Theunis Rudie Van As Systeem en methode voor onderbreking van, en koppeling van een boodschap aan, alle vormen van digitaal berichtenverkeer (zoals SMS en MMS), met toestemming van de verzender.
US7761795B2 (en) * 2003-05-22 2010-07-20 Davis Robert L Interactive promotional content management system and article of manufacture thereof
US8151178B2 (en) * 2003-06-18 2012-04-03 G. W. Hannaway & Associates Associative media architecture and platform
ATE396587T1 (de) * 2003-07-03 2008-06-15 Matsushita Electric Ind Co Ltd Aufzeichnungsmedium, wiedergabevorrichtung, aufzeichnungsverfahren, integrierte schaltung, programm und wiedergabeverfahren
GB0321337D0 (en) * 2003-09-11 2003-10-15 Massone Mobile Advertising Sys Method and system for distributing advertisements
EP1665075A4 (en) * 2003-09-27 2010-12-01 Korea Electronics Telecomm PACKET METADATA AND TARGETING / SYNCHRONIZING SERVICE DELIVERY SYSTEM USING THE SAME
US8533597B2 (en) * 2003-09-30 2013-09-10 Microsoft Corporation Strategies for configuring media processing functionality using a hierarchical ordering of control parameters
EP1683103A2 (en) * 2003-10-14 2006-07-26 Kimberley Hanke System for manipulating three-dimensional images
US7886337B2 (en) * 2003-10-22 2011-02-08 Nvidia Corporation Method and apparatus for content protection
US7593015B2 (en) * 2003-11-14 2009-09-22 Kyocera Wireless Corp. System and method for sequencing media objects
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
US7818658B2 (en) * 2003-12-09 2010-10-19 Yi-Chih Chen Multimedia presentation system
GB2409540A (en) * 2003-12-23 2005-06-29 Ibm Searching multimedia tracks to generate a multimedia stream
US7966613B2 (en) * 2004-01-20 2011-06-21 Broadcom Corporation System and method for supporting multiple users
US7984114B2 (en) * 2004-02-27 2011-07-19 Lodgenet Interactive Corporation Direct access to content and services available on an entertainment system
US7430222B2 (en) * 2004-02-27 2008-09-30 Microsoft Corporation Media stream splicer
CA2933668C (en) 2004-04-23 2019-01-08 The Nielsen Company (Us), Llc Methods and apparatus to maintain audience privacy while determining viewing of video-on-demand programs
US7890604B2 (en) * 2004-05-07 2011-02-15 Microsoft Corproation Client-side callbacks to server events
US20050251380A1 (en) * 2004-05-10 2005-11-10 Simon Calvert Designer regions and Interactive control designers
US8065600B2 (en) * 2004-05-14 2011-11-22 Microsoft Corporation Systems and methods for defining web content navigation
US9026578B2 (en) * 2004-05-14 2015-05-05 Microsoft Corporation Systems and methods for persisting data between web pages
US7312803B2 (en) * 2004-06-01 2007-12-25 X20 Media Inc. Method for producing graphics for overlay on a video source
US7881235B1 (en) * 2004-06-25 2011-02-01 Apple Inc. Mixed media conferencing
KR100745689B1 (ko) * 2004-07-09 2007-08-03 한국전자통신연구원 혼합된 오디오 스트림으로부터 오디오 객체를 분리하기위한 단말 장치 및 그 방법
KR100937045B1 (ko) * 2004-07-22 2010-01-15 한국전자통신연구원 Saf 동기화 계층 패킷 구조
US7614075B2 (en) * 2004-08-13 2009-11-03 Microsoft Corporation Dynamically generating video streams for user interfaces
GB0420531D0 (en) * 2004-09-15 2004-10-20 Nokia Corp File delivery session handling
US8457314B2 (en) 2004-09-23 2013-06-04 Smartvue Corporation Wireless video surveillance system and method for self-configuring network
US8208019B2 (en) * 2004-09-24 2012-06-26 Martin Renkis Wireless video surveillance system and method with external removable recording
US20060095539A1 (en) 2004-10-29 2006-05-04 Martin Renkis Wireless video surveillance system and method for mesh networking
US7728871B2 (en) 2004-09-30 2010-06-01 Smartvue Corporation Wireless video surveillance system & method with input capture and data transmission prioritization and adjustment
US8842179B2 (en) * 2004-09-24 2014-09-23 Smartvue Corporation Video surveillance sharing system and method
US20060090166A1 (en) * 2004-09-30 2006-04-27 Krishna Dhara System and method for generating applications for communication devices using a markup language
EP2426919A3 (en) * 2004-10-04 2012-06-06 Cine-Tal Systems, Inc. Video monitoring system
US20060095461A1 (en) * 2004-11-03 2006-05-04 Raymond Robert L System and method for monitoring a computer environment
KR100654447B1 (ko) * 2004-12-15 2006-12-06 삼성전자주식회사 지역별로 존재하는 컨텐츠를 글로벌로 공유하고 거래하는방법 및 시스템
US20060135190A1 (en) * 2004-12-20 2006-06-22 Drouet Francois X Dynamic remote storage system for storing software objects from pervasive devices
CN101088293A (zh) * 2004-12-22 2007-12-12 皇家飞利浦电子股份有限公司 视频流修改器
KR100714683B1 (ko) * 2004-12-24 2007-05-04 삼성전자주식회사 디지털 컨텐츠를 글로벌로 공유하고 거래하는 방법 및시스템
US8230096B2 (en) * 2005-01-14 2012-07-24 Citrix Systems, Inc. Methods and systems for generating playback instructions for playback of a recorded computer session
US8200828B2 (en) * 2005-01-14 2012-06-12 Citrix Systems, Inc. Systems and methods for single stack shadowing
US20060159432A1 (en) * 2005-01-14 2006-07-20 Citrix Systems, Inc. System and methods for automatic time-warped playback in rendering a recorded computer session
US8340130B2 (en) * 2005-01-14 2012-12-25 Citrix Systems, Inc. Methods and systems for generating playback instructions for rendering of a recorded computer session
US8935316B2 (en) 2005-01-14 2015-01-13 Citrix Systems, Inc. Methods and systems for in-session playback on a local machine of remotely-stored and real time presentation layer protocol data
US8145777B2 (en) * 2005-01-14 2012-03-27 Citrix Systems, Inc. Method and system for real-time seeking during playback of remote presentation protocols
US8296441B2 (en) 2005-01-14 2012-10-23 Citrix Systems, Inc. Methods and systems for joining a real-time session of presentation layer protocol data
KR100567157B1 (ko) * 2005-02-11 2006-04-04 비디에이터 엔터프라이즈 인크 모바일 환경에서의 플레이리스트를 통한 다수 파일의 스트리밍 방법 및 그 시스템
GB0502812D0 (en) * 2005-02-11 2005-03-16 Vemotion Ltd Interactive video
US20060184784A1 (en) * 2005-02-16 2006-08-17 Yosi Shani Method for secure transference of data
DE102005008366A1 (de) * 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten
US7805679B2 (en) * 2005-02-24 2010-09-28 Fujifilm Corporation Apparatus and method for generating slide show and program therefor
US7457835B2 (en) 2005-03-08 2008-11-25 Cisco Technology, Inc. Movement of data in a distributed database system to a storage location closest to a center of activity for the data
WO2006095933A1 (en) * 2005-03-08 2006-09-14 Samsung Electronics Co., Ltd. An storage medium including data structure for reproducing interactive graphic streams supporting multiple languages seamlessly, apparatus and method therefor
US8028322B2 (en) * 2005-03-14 2011-09-27 Time Warner Cable Inc. Method and apparatus for network content download and recording
EP1875704A1 (de) * 2005-04-13 2008-01-09 Nokia Siemens Networks Gmbh & Co. Kg Verfahren zur synchronisation von mediumströmen in einem paketvermittelten mobilfunknetz, endgerät und anordnung für ein solches
WO2006110975A1 (en) * 2005-04-22 2006-10-26 Logovision Wireless Inc. Multimedia system for mobile client platforms
US7701463B2 (en) * 2005-05-09 2010-04-20 Autodesk, Inc. Accelerated rendering of images with transparent pixels using a spatial index
US7516136B2 (en) * 2005-05-17 2009-04-07 Palm, Inc. Transcoding media files in a host computing device for use in a portable computing device
KR20060119739A (ko) * 2005-05-18 2006-11-24 엘지전자 주식회사 구간 통과시간에 대한 예측정보를 제공하고 이를 이용하는방법 및 장치
KR20060119746A (ko) * 2005-05-18 2006-11-24 엘지전자 주식회사 교통상태에 대한 정보를 제공하고 이를 이용하는 방법 및장치
KR20060119742A (ko) * 2005-05-18 2006-11-24 엘지전자 주식회사 도로 정보를 제공하고 이를 이용하는 방법 및 장치
KR20060119741A (ko) * 2005-05-18 2006-11-24 엘지전자 주식회사 소통상태의 추이정보를 제공하고 이를 이용하는 방법 및장치
KR20060119743A (ko) 2005-05-18 2006-11-24 엘지전자 주식회사 구간 속도에 대한 예측정보를 제공하고 이를 이용하는 방법및 장치
KR101061460B1 (ko) * 2005-05-18 2011-09-02 엘지전자 주식회사 소통상태에 대한 예측정보를 제공하고 이를 이용하는 방법및 장치
KR20060122668A (ko) * 2005-05-27 2006-11-30 엘지전자 주식회사 교통 정보 제공 방법 및 수신 장치
US7706607B2 (en) * 2005-06-23 2010-04-27 Microsoft Corporation Optimized color image encoding and decoding using color space parameter data
US20070006238A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Managing application states in an interactive media environment
WO2007005746A2 (en) * 2005-07-01 2007-01-11 Filmloop, Inc. Systems and methods for presenting with a loop
US8711850B2 (en) * 2005-07-08 2014-04-29 Lg Electronics Inc. Format for providing traffic information and a method and apparatus for using the format
US20070016530A1 (en) * 2005-07-15 2007-01-18 Christopher Stasi Multi-media file distribution system and method
US8191008B2 (en) 2005-10-03 2012-05-29 Citrix Systems, Inc. Simulating multi-monitor functionality in a single monitor environment
CA2562202C (en) 2005-10-05 2013-06-18 Lg Electronics Inc. Method of processing traffic information and digital broadcast system
US7804860B2 (en) 2005-10-05 2010-09-28 Lg Electronics Inc. Method of processing traffic information and digital broadcast system
US7720062B2 (en) 2005-10-05 2010-05-18 Lg Electronics Inc. Method of processing traffic information and digital broadcasting system
CA2562206C (en) 2005-10-05 2012-07-10 Lg Electronics Inc. A method and digital broadcast transmitter for transmitting a digital broadcast signal
KR101254219B1 (ko) * 2006-01-19 2013-04-23 엘지전자 주식회사 링크 식별 방법 및 링크 식별 장치
US7840868B2 (en) 2005-10-05 2010-11-23 Lg Electronics Inc. Method of processing traffic information and digital broadcast system
CA2562209C (en) 2005-10-05 2011-11-22 Lg Electronics Inc. Method of processing traffic information and digital broadcast system
US7668209B2 (en) 2005-10-05 2010-02-23 Lg Electronics Inc. Method of processing traffic information and digital broadcast system
CA2562220C (en) 2005-10-05 2013-06-25 Lg Electronics Inc. Method of processing traffic information and digital broadcast system
TWI468969B (zh) * 2005-10-18 2015-01-11 Intertrust Tech Corp 授權對電子內容作存取的方法及授權對該電子內容執行動作之方法
US9626667B2 (en) 2005-10-18 2017-04-18 Intertrust Technologies Corporation Digital rights management engine systems and methods
KR100733965B1 (ko) 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
KR100647402B1 (ko) * 2005-11-01 2006-11-23 매그나칩 반도체 유한회사 이미지 센서의 화질개선장치 및 그 방법
FR2892883B1 (fr) * 2005-11-02 2008-01-25 Streamezzo Sa Procede d'optimisation de rendu d'une scene multimedia, programme, signal, support de donnees, terminal et procede de reception correspondants.
JP4668040B2 (ja) * 2005-11-18 2011-04-13 富士フイルム株式会社 動画生成装置、動画生成方法、及びプログラム
EP1788773A1 (en) * 2005-11-18 2007-05-23 Alcatel Lucent Method and apparatuses to request delivery of a media asset and to establish a token in advance
DE102005057568B4 (de) * 2005-12-02 2021-06-17 Robert Bosch Gmbh Sendeeinrichtung und Empfangseinrichtung
US9015740B2 (en) 2005-12-12 2015-04-21 The Nielsen Company (Us), Llc Systems and methods to wirelessly meter audio/visual devices
US7738768B1 (en) 2005-12-16 2010-06-15 The Directv Group, Inc. Method and apparatus for increasing the quality of service for digital video services for mobile reception
US7702279B2 (en) * 2005-12-20 2010-04-20 Apple Inc. Portable media player as a low power remote control and method thereof
JP4868171B2 (ja) 2005-12-27 2012-02-01 日本電気株式会社 データ圧縮方法及び装置、データ復元方法及び装置ならびにプログラム
US20070157071A1 (en) * 2006-01-03 2007-07-05 William Daniell Methods, systems, and computer program products for providing multi-media messages
KR100754739B1 (ko) * 2006-01-25 2007-09-03 삼성전자주식회사 비디오 연동형 서비스 객체 스트림 다운로드를 위한 dmb시스템 및 방법과 dmb 단말기
US7979059B2 (en) * 2006-02-06 2011-07-12 Rockefeller Alfred G Exchange of voice and video between two cellular or wireless telephones
TW200731113A (en) * 2006-02-09 2007-08-16 Benq Corp Method for utilizing a media adapter for controlling a display device to display information of multimedia data corresponding to an authority datum
CN101035303A (zh) * 2006-03-10 2007-09-12 鸿富锦精密工业(深圳)有限公司 多媒体装置测试方法
JP5200204B2 (ja) 2006-03-14 2013-06-05 ディブエックス リミテッド ライアビリティー カンパニー 高信頼性システムを含む連合型デジタル権限管理機構
TW200739372A (en) * 2006-04-03 2007-10-16 Appro Technology Inc Data combining method for a monitor-image device and a vehicle or a personal digital assistant and image/text data combining device
CA2648617C (en) 2006-04-05 2017-12-12 Yap, Inc. Hosted voice recognition system for wireless devices
US8510109B2 (en) 2007-08-22 2013-08-13 Canyon Ip Holdings Llc Continuous speech transcription performance indication
KR100820379B1 (ko) * 2006-04-17 2008-04-08 김용태 인코더와 플레이어가 일체화된 웹페이지 동영상 콘텐츠제공 시스템 및 그 방법
US20080021777A1 (en) * 2006-04-24 2008-01-24 Illumobile Corporation System for displaying visual content
US11363347B1 (en) 2006-05-19 2022-06-14 Universal Innovation Council, LLC Creating customized programming content
US9602884B1 (en) 2006-05-19 2017-03-21 Universal Innovation Counsel, Inc. Creating customized programming content
US8024762B2 (en) 2006-06-13 2011-09-20 Time Warner Cable Inc. Methods and apparatus for providing virtual content over a network
US7844661B2 (en) * 2006-06-15 2010-11-30 Microsoft Corporation Composition of local media playback with remotely generated user interface
US8793303B2 (en) * 2006-06-29 2014-07-29 Microsoft Corporation Composition of local user interface with remotely generated user interface and media
EP2044764A4 (en) * 2006-07-06 2013-01-23 Sundaysky Ltd AUTOMATIC GENERATION OF VIDEO FROM STRUCTURED CONTENT
US7917440B2 (en) * 2006-07-07 2011-03-29 Microsoft Corporation Over-the-air delivery of metering certificates and data
GB0613944D0 (en) * 2006-07-13 2006-08-23 British Telecomm Decoding media content at a wireless receiver
US20080034277A1 (en) * 2006-07-24 2008-02-07 Chen-Jung Hong System and method of the same
US8888592B1 (en) 2009-06-01 2014-11-18 Sony Computer Entertainment America Llc Voice overlay
GB2435565B (en) 2006-08-09 2008-02-20 Cvon Services Oy Messaging system
JP2008040347A (ja) * 2006-08-09 2008-02-21 Toshiba Corp 画像表示装置、画像表示方法および画像表示プログラム
US20080052157A1 (en) * 2006-08-22 2008-02-28 Jayant Kadambi System and method of dynamically managing an advertising campaign over an internet protocol based television network
US9247260B1 (en) * 2006-11-01 2016-01-26 Opera Software Ireland Limited Hybrid bitmap-mode encoding
GB2435730B (en) 2006-11-02 2008-02-20 Cvon Innovations Ltd Interactive communications system
US8781089B2 (en) 2006-11-09 2014-07-15 Shai Haim Gilboa System, method and device for managing VOIP telecommunications
US7805740B2 (en) 2006-11-10 2010-09-28 Audiogate Technologies Ltd. System and method for providing advertisement based on speech recognition
GB2436412A (en) 2006-11-27 2007-09-26 Cvon Innovations Ltd Authentication of network usage for use with message modifying apparatus
US20080134012A1 (en) * 2006-11-30 2008-06-05 Sony Ericsson Mobile Communications Ab Bundling of multimedia content and decoding means
KR100827241B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 동적 영상물을 생성하기 위한 템플릿을 편집하는 장치 및방법
KR101221913B1 (ko) 2006-12-20 2013-01-15 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US20080153520A1 (en) * 2006-12-21 2008-06-26 Yahoo! Inc. Targeted short messaging service advertisements
US20080154627A1 (en) * 2006-12-23 2008-06-26 Advanced E-Financial Technologies, Inc. Polling and Voting Methods to Reach the World-wide Audience through Creating an On-line Multi-lingual and Multi-cultural Community by Using the Internet, Cell or Mobile Phones and Regular Fixed Lines to Get People's Views on a Variety of Issues by Either Broadcasting or Narrow-casting the Issues to Particular Registered User Groups Located in Various Counrtries around the World
US8421931B2 (en) * 2006-12-27 2013-04-16 Motorola Mobility Llc Remote control with user profile capability
ES2401975T3 (es) * 2006-12-29 2013-04-25 Telecom Italia S.P.A. Conferencia en cuyo transcurso la mezcla se somete a un control temporal por parte de un dispositivo de representación
CN101589372B (zh) 2007-01-09 2016-01-20 日本电信电话株式会社 编码解码装置、方法、程序、记录介质
US20080183559A1 (en) * 2007-01-25 2008-07-31 Milton Massey Frazier System and method for metadata use in advertising
CN110191354B (zh) * 2007-02-02 2021-10-26 赛乐得科技(北京)有限公司 具有不同用户终端的多媒体通信中跨层优化的方法和装置
US20080195977A1 (en) * 2007-02-12 2008-08-14 Carroll Robert C Color management system
US8630346B2 (en) * 2007-02-20 2014-01-14 Samsung Electronics Co., Ltd System and method for introducing virtual zero motion vector candidates in areas of a video sequence involving overlays
JP2008211310A (ja) * 2007-02-23 2008-09-11 Seiko Epson Corp 画像処理装置および画像表示装置
US20080208668A1 (en) * 2007-02-26 2008-08-28 Jonathan Heller Method and apparatus for dynamically allocating monetization rights and access and optimizing the value of digital content
US8577279B2 (en) * 2007-03-19 2013-11-05 Semantic Compaction Systems, Inc. Visual scene displays, uses thereof, and corresponding apparatuses
WO2008116072A1 (en) * 2007-03-21 2008-09-25 Frevvo, Inc. Methods and systems for creating interactive advertisements
US7941764B2 (en) 2007-04-04 2011-05-10 Abo Enterprises, Llc System and method for assigning user preference settings for a category, and in particular a media category
GB2448190A (en) 2007-04-05 2008-10-08 Cvon Innovations Ltd Data delivery evaluation system
US9973450B2 (en) 2007-09-17 2018-05-15 Amazon Technologies, Inc. Methods and systems for dynamically updating web service profile information by parsing transcribed message strings
US8352264B2 (en) 2008-03-19 2013-01-08 Canyon IP Holdings, LLC Corrective feedback loop for automated speech recognition
EP1981271A1 (en) * 2007-04-11 2008-10-15 Vodafone Holding GmbH Methods for protecting an additional content, which is insertable into at least one digital content
US20100107117A1 (en) * 2007-04-13 2010-04-29 Thomson Licensing A Corporation Method, apparatus and system for presenting metadata in media content
US8671000B2 (en) 2007-04-24 2014-03-11 Apple Inc. Method and arrangement for providing content to multimedia devices
US20080282090A1 (en) * 2007-05-07 2008-11-13 Jonathan Leybovich Virtual Property System for Globally-Significant Objects
CN101035279B (zh) * 2007-05-08 2010-12-15 孟智平 一种在视频资源中使用信息集的方法
US20080279535A1 (en) * 2007-05-10 2008-11-13 Microsoft Corporation Subtitle data customization and exposure
GB2440015B (en) 2007-05-18 2008-07-09 Cvon Innovations Ltd Allocation system and method
US8935718B2 (en) 2007-05-22 2015-01-13 Apple Inc. Advertising management method and system
US8326442B2 (en) * 2007-05-25 2012-12-04 International Business Machines Corporation Constrained navigation in a three-dimensional (3D) virtual arena
US8832220B2 (en) 2007-05-29 2014-09-09 Domingo Enterprises, Llc System and method for increasing data availability on a mobile device based on operating mode
US20080306815A1 (en) * 2007-06-06 2008-12-11 Nebuad, Inc. Method and system for inserting targeted data in available spaces of a webpage
US20080304638A1 (en) * 2007-06-07 2008-12-11 Branded Marketing Llc System and method for delivering targeted promotional announcements over a telecommunications network based on financial instrument consumer data
GB2450144A (en) 2007-06-14 2008-12-17 Cvon Innovations Ltd System for managing the delivery of messages
US8619853B2 (en) * 2007-06-15 2013-12-31 Qualcomm Incorporated Separable directional transforms
US8571104B2 (en) * 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
FR2917929B1 (fr) * 2007-06-19 2010-05-28 Alcatel Lucent Dispositif de gestion d'insertion de contenus complementaires dans des flux de contenus multimedia.
US8489702B2 (en) * 2007-06-22 2013-07-16 Apple Inc. Determining playability of media files with minimal downloading
GB2436993B (en) 2007-06-25 2008-07-16 Cvon Innovations Ltd Messaging system for managing
US10848811B2 (en) 2007-07-05 2020-11-24 Coherent Logix, Incorporated Control information for a wirelessly-transmitted data stream
US20090010533A1 (en) * 2007-07-05 2009-01-08 Mediatek Inc. Method and apparatus for displaying an encoded image
US9426522B2 (en) * 2007-07-10 2016-08-23 Qualcomm Incorporated Early rendering for fast channel switching
GB2445438B (en) 2007-07-10 2009-03-18 Cvon Innovations Ltd Messaging system and service
KR20090006371A (ko) * 2007-07-11 2009-01-15 야후! 인크. 온라인 방송 시스템에서 방송 시청자들 또는 청취자들에게가상 공존감(virtual co-presence)을제공하기 위한 방법 및 시스템
US8842739B2 (en) 2007-07-20 2014-09-23 Samsung Electronics Co., Ltd. Method and system for communication of uncompressed video information in wireless systems
US8091103B2 (en) * 2007-07-22 2012-01-03 Overlay.Tv Inc. Server providing content directories of video signals and linkage to content information sources
US20090037294A1 (en) * 2007-07-27 2009-02-05 Bango.Net Limited Mobile communication device transaction control systems
US8744118B2 (en) * 2007-08-03 2014-06-03 At&T Intellectual Property I, L.P. Methods, systems, and products for indexing scenes in digital media
KR101382618B1 (ko) * 2007-08-21 2014-04-10 한국전자통신연구원 콘텐츠 정보 생성 방법 및 콘텐츠 정보를 이용한 콘텐츠처리 장치
US8140632B1 (en) 2007-08-22 2012-03-20 Victor Roditis Jablokov Facilitating presentation by mobile device of additional content for a word or phrase upon utterance thereof
US9053489B2 (en) 2007-08-22 2015-06-09 Canyon Ip Holdings Llc Facilitating presentation of ads relating to words of a message
US9203445B2 (en) 2007-08-31 2015-12-01 Iheartmedia Management Services, Inc. Mitigating media station interruptions
US8260230B2 (en) * 2007-08-31 2012-09-04 Clear Channel Management Services, Inc. Radio receiver and method for receiving and playing signals from multiple broadcast channels
WO2009040681A2 (en) 2007-09-04 2009-04-02 Lg Electronics Inc. System and method for changing orientation of an image in a display device
US8108257B2 (en) * 2007-09-07 2012-01-31 Yahoo! Inc. Delayed advertisement insertion in videos
US8739200B2 (en) 2007-10-11 2014-05-27 At&T Intellectual Property I, L.P. Methods, systems, and products for distributing digital media
GB2453810A (en) 2007-10-15 2009-04-22 Cvon Innovations Ltd System, Method and Computer Program for Modifying Communications by Insertion of a Targeted Media Content or Advertisement
TWI474710B (zh) * 2007-10-18 2015-02-21 Ind Tech Res Inst 行動通訊設備於離線使用數位內容之收費方法及其系統
SG152082A1 (en) * 2007-10-19 2009-05-29 Creative Tech Ltd A method and system for processing a composite video image
US7957748B2 (en) * 2007-10-19 2011-06-07 Technigraphics, Inc. System and methods for establishing a real-time location-based service network
KR101445074B1 (ko) * 2007-10-24 2014-09-29 삼성전자주식회사 미디어 플레이어에서 미디어 객체 처리 방법 및 그 장치
US20090110313A1 (en) * 2007-10-25 2009-04-30 Canon Kabushiki Kaisha Device for performing image processing based on image attribute
US20090150260A1 (en) * 2007-11-16 2009-06-11 Carl Koepke System and method of dynamic generation of a user interface
JP5513400B2 (ja) 2007-11-16 2014-06-04 ソニック アイピー, インコーポレイテッド マルチメディアファイルのための階層的で簡略なインデックス構造体
US8224856B2 (en) 2007-11-26 2012-07-17 Abo Enterprises, Llc Intelligent default weighting process for criteria utilized to score media content items
CN101448200B (zh) * 2007-11-27 2010-08-18 中兴通讯股份有限公司 一种支持动态交互式多媒体场景的移动终端
WO2009076650A1 (en) * 2007-12-12 2009-06-18 Mogreet, Inc. Methods and systems for transmitting video messages to mobile communication devices
US20090158146A1 (en) * 2007-12-13 2009-06-18 Concert Technology Corporation Resizing tag representations or tag group representations to control relative importance
US9275056B2 (en) 2007-12-14 2016-03-01 Amazon Technologies, Inc. System and method of presenting media data
US9211473B2 (en) * 2008-12-15 2015-12-15 Sony Computer Entertainment America Llc Program mode transition
US8613673B2 (en) 2008-12-15 2013-12-24 Sony Computer Entertainment America Llc Intelligent game loading
US8147339B1 (en) 2007-12-15 2012-04-03 Gaikai Inc. Systems and methods of serving game video
US8968087B1 (en) 2009-06-01 2015-03-03 Sony Computer Entertainment America Llc Video game overlay
US20090160735A1 (en) * 2007-12-19 2009-06-25 Kevin James Mack System and method for distributing content to a display device
GB2455763A (en) 2007-12-21 2009-06-24 Blyk Services Oy Method and arrangement for adding targeted advertising data to messages
US20090171780A1 (en) * 2007-12-31 2009-07-02 Verizon Data Services Inc. Methods and system for a targeted advertisement management interface
US20110191809A1 (en) 2008-01-30 2011-08-04 Cinsay, Llc Viral Syndicated Interactive Product System and Method Therefor
US8312486B1 (en) 2008-01-30 2012-11-13 Cinsay, Inc. Interactive product placement system and method therefor
US11227315B2 (en) 2008-01-30 2022-01-18 Aibuy, Inc. Interactive product placement system and method therefor
WO2009101624A2 (en) * 2008-02-13 2009-08-20 Innovid Inc. Apparatus and method for manipulating an object inserted to video content
US8255224B2 (en) 2008-03-07 2012-08-28 Google Inc. Voice recognition grammar selection based on context
US9043483B2 (en) * 2008-03-17 2015-05-26 International Business Machines Corporation View selection in a vehicle-to-vehicle network
US9123241B2 (en) 2008-03-17 2015-09-01 International Business Machines Corporation Guided video feed selection in a vehicle-to-vehicle network
US8200166B2 (en) * 2008-03-26 2012-06-12 Elektrobit Wireless Communications Oy Data transmission
US8433812B2 (en) * 2008-04-01 2013-04-30 Microsoft Corporation Systems and methods for managing multimedia operations in remote sessions
US20090254607A1 (en) * 2008-04-07 2009-10-08 Sony Computer Entertainment America Inc. Characterization of content distributed over a network
SG142399A1 (en) * 2008-05-02 2009-11-26 Creative Tech Ltd Apparatus for enhanced messaging and a method for enhanced messaging
US20170149600A9 (en) 2008-05-23 2017-05-25 Nader Asghari Kamrani Music/video messaging
US7526286B1 (en) 2008-05-23 2009-04-28 International Business Machines Corporation System and method for controlling a computer via a mobile device
US20110066940A1 (en) * 2008-05-23 2011-03-17 Nader Asghari Kamrani Music/video messaging system and method
GB0809631D0 (en) * 2008-05-28 2008-07-02 Mirriad Ltd Zonesense
JP5408906B2 (ja) * 2008-05-28 2014-02-05 キヤノン株式会社 画像処理装置
US8406748B2 (en) 2009-01-28 2013-03-26 Headwater Partners I Llc Adaptive ambient services
US8391834B2 (en) 2009-01-28 2013-03-05 Headwater Partners I Llc Security techniques for device assisted services
US8346225B2 (en) 2009-01-28 2013-01-01 Headwater Partners I, Llc Quality of service for device assisted services
US8832777B2 (en) 2009-03-02 2014-09-09 Headwater Partners I Llc Adapting network policies based on device service processor configuration
US8402111B2 (en) 2009-01-28 2013-03-19 Headwater Partners I, Llc Device assisted services install
US8626115B2 (en) 2009-01-28 2014-01-07 Headwater Partners I Llc Wireless network service interfaces
US8340634B2 (en) 2009-01-28 2012-12-25 Headwater Partners I, Llc Enhanced roaming services and converged carrier networks with device assisted services and a proxy
US8589541B2 (en) 2009-01-28 2013-11-19 Headwater Partners I Llc Device-assisted services for protecting network capacity
US8583781B2 (en) 2009-01-28 2013-11-12 Headwater Partners I Llc Simplified service network architecture
US8275830B2 (en) 2009-01-28 2012-09-25 Headwater Partners I Llc Device assisted CDR creation, aggregation, mediation and billing
US8548428B2 (en) 2009-01-28 2013-10-01 Headwater Partners I Llc Device group partitions and settlement platform
US8635335B2 (en) 2009-01-28 2014-01-21 Headwater Partners I Llc System and method for wireless network offloading
EP2439904B1 (en) 2008-06-07 2014-01-15 Coherent Logix Incorporated Transmitting and receiving control information for use with multimedia streams
US8595341B2 (en) * 2008-06-30 2013-11-26 At&T Intellectual Property I, L.P. System and method for travel route planning
US8151314B2 (en) * 2008-06-30 2012-04-03 At&T Intellectual Property I, Lp System and method for providing mobile traffic information in an internet protocol system
US20100010893A1 (en) * 2008-07-09 2010-01-14 Google Inc. Video overlay advertisement creator
US20120004982A1 (en) * 2008-07-14 2012-01-05 Mixpo Portfolio Broadcasting, Inc. Method And System For Automated Selection And Generation Of Video Advertisements
US8107724B2 (en) * 2008-08-02 2012-01-31 Vantrix Corporation Method and system for predictive scaling of colour mapped images
KR100897512B1 (ko) * 2008-08-07 2009-05-15 주식회사 포비커 데이터 방송에 적응적인 광고 방법 및 시스템
CA2730145C (en) * 2008-08-07 2014-12-16 Research In Motion Limited System and method for providing content on a mobile device by controlling an application independent of user action
US20100036711A1 (en) * 2008-08-11 2010-02-11 Research In Motion System and method for mapping subscription filters to advertisement applications
US20100036737A1 (en) * 2008-08-11 2010-02-11 Research In Motion System and method for using subscriptions for targeted mobile advertisement
EP2154892B1 (en) * 2008-08-11 2012-11-21 Research In Motion Limited Methods and systems to use data façade subscription filters for advertisement purposes
EP2154891B1 (en) * 2008-08-11 2013-03-20 Research In Motion Limited Methods and systems for mapping subscription filters to advertisement applications
US8332839B2 (en) * 2008-08-15 2012-12-11 Lsi Corporation Method and system for modifying firmware image settings within data storage device controllers
US20100057938A1 (en) * 2008-08-26 2010-03-04 John Osborne Method for Sparse Object Streaming in Mobile Devices
EP2329394A4 (en) 2008-09-16 2012-02-29 Freewheel Media Inc DISTRIBUTION FORECASTING CALCULATION APPARATUS FOR DISPLAY DEVICE AND CONTINUOUS VIDEO ADVERTISING
US20100074321A1 (en) * 2008-09-25 2010-03-25 Microsoft Corporation Adaptive image compression using predefined models
US9043276B2 (en) * 2008-10-03 2015-05-26 Microsoft Technology Licensing, Llc Packaging and bulk transfer of files and metadata for synchronization
US8081635B2 (en) 2008-10-08 2011-12-20 Motorola Solutions, Inc. Reconstruction of errored media streams in a communication system
CN101729902B (zh) * 2008-10-15 2012-09-05 深圳市融创天下科技股份有限公司 一种视频压缩方法
US8239911B1 (en) * 2008-10-22 2012-08-07 Clearwire Ip Holdings Llc Video bursting based upon mobile device path
US20100103183A1 (en) * 2008-10-23 2010-04-29 Hung-Ming Lin Remote multiple image processing apparatus
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US20100107090A1 (en) * 2008-10-27 2010-04-29 Camille Hearst Remote linking to media asset groups
JP5084696B2 (ja) 2008-10-27 2012-11-28 三洋電機株式会社 画像処理装置、画像処理方法及び電子機器
US8301792B2 (en) * 2008-10-28 2012-10-30 Panzura, Inc Network-attached media plug-in
US8452227B2 (en) * 2008-10-31 2013-05-28 David D. Minter Methods and systems for selecting internet radio program break content using mobile device location
US9124769B2 (en) 2008-10-31 2015-09-01 The Nielsen Company (Us), Llc Methods and apparatus to verify presentation of media content
US8356328B2 (en) 2008-11-07 2013-01-15 Minter David D Methods and systems for selecting content for an Internet television stream using mobile device location
US8213620B1 (en) 2008-11-17 2012-07-03 Netapp, Inc. Method for managing cryptographic information
KR20100059379A (ko) * 2008-11-26 2010-06-04 삼성전자주식회사 컨텐츠 제공을 위한 영상 표시 장치 및 그의 컨텐츠 제공 방법
US20100142521A1 (en) * 2008-12-08 2010-06-10 Concert Technology Just-in-time near live DJ for internet radio
US8926435B2 (en) 2008-12-15 2015-01-06 Sony Computer Entertainment America Llc Dual-mode program execution
CN102257826A (zh) * 2008-12-19 2011-11-23 皇家飞利浦电子股份有限公司 显示参数设置的控制
US8661155B2 (en) * 2008-12-30 2014-02-25 Telefonaktiebolaget Lm Ericsson (Publ) Service layer assisted change of multimedia stream access delivery
FR2940703B1 (fr) * 2008-12-31 2019-10-11 Jacques Lewiner Procede et dispositif de modelisation d'un affichage
FR2940690B1 (fr) * 2008-12-31 2011-06-03 Cy Play Un procede et dispositif de navigation d'utilisateur d'un terminal mobile sur une application s'executant sur un serveur distant
US20110119587A1 (en) * 2008-12-31 2011-05-19 Microsoft Corporation Data model and player platform for rich interactive narratives
EP2382756B1 (fr) 2008-12-31 2018-08-22 Lewiner, Jacques Procédé de modélisation par macroblocs de l'affichage d'un terminal distant à l'aide de calques caractérisés par un vecteur de mouvement et des données de transparence
US20110113315A1 (en) * 2008-12-31 2011-05-12 Microsoft Corporation Computer-assisted rich interactive narrative (rin) generation
US9092437B2 (en) * 2008-12-31 2015-07-28 Microsoft Technology Licensing, Llc Experience streams for rich interactive narratives
JP5681641B2 (ja) 2009-01-07 2015-03-11 ソニック アイピー, インコーポレイテッド オンラインコンテンツのためのメディアガイドの特異的、収集的および自動的な生成
US10237757B2 (en) 2009-01-28 2019-03-19 Headwater Research Llc System and method for wireless network offloading
US9578182B2 (en) 2009-01-28 2017-02-21 Headwater Partners I Llc Mobile device and service management
US9954975B2 (en) 2009-01-28 2018-04-24 Headwater Research Llc Enhanced curfew and protection associated with a device group
US9557889B2 (en) 2009-01-28 2017-01-31 Headwater Partners I Llc Service plan design, user interfaces, application programming interfaces, and device management
US9392462B2 (en) 2009-01-28 2016-07-12 Headwater Partners I Llc Mobile end-user device with agent limiting wireless data communication for specified background applications based on a stored policy
US10326800B2 (en) 2009-01-28 2019-06-18 Headwater Research Llc Wireless network service interfaces
US9253663B2 (en) 2009-01-28 2016-02-02 Headwater Partners I Llc Controlling mobile device communications on a roaming network based on device state
US10248996B2 (en) 2009-01-28 2019-04-02 Headwater Research Llc Method for operating a wireless end-user device mobile payment agent
US10200541B2 (en) 2009-01-28 2019-02-05 Headwater Research Llc Wireless end-user device with divided user space/kernel space traffic policy system
US9858559B2 (en) 2009-01-28 2018-01-02 Headwater Research Llc Network service plan design
US10492102B2 (en) 2009-01-28 2019-11-26 Headwater Research Llc Intermediate networking devices
US11985155B2 (en) 2009-01-28 2024-05-14 Headwater Research Llc Communications device with secure data path processing agents
US9572019B2 (en) 2009-01-28 2017-02-14 Headwater Partners LLC Service selection set published to device agent with on-device service selection
US11973804B2 (en) 2009-01-28 2024-04-30 Headwater Research Llc Network service plan design
US9706061B2 (en) 2009-01-28 2017-07-11 Headwater Partners I Llc Service design center for device assisted services
US9351193B2 (en) 2009-01-28 2016-05-24 Headwater Partners I Llc Intermediate networking devices
US8745191B2 (en) 2009-01-28 2014-06-03 Headwater Partners I Llc System and method for providing user notifications
US11218854B2 (en) 2009-01-28 2022-01-04 Headwater Research Llc Service plan design, user interfaces, application programming interfaces, and device management
US10779177B2 (en) 2009-01-28 2020-09-15 Headwater Research Llc Device group partitions and settlement platform
US9565707B2 (en) 2009-01-28 2017-02-07 Headwater Partners I Llc Wireless end-user device with wireless data attribution to multiple personas
US10715342B2 (en) 2009-01-28 2020-07-14 Headwater Research Llc Managing service user discovery and service launch object placement on a device
US9647918B2 (en) 2009-01-28 2017-05-09 Headwater Research Llc Mobile device and method attributing media services network usage to requesting application
US10264138B2 (en) 2009-01-28 2019-04-16 Headwater Research Llc Mobile device and service management
US10057775B2 (en) 2009-01-28 2018-08-21 Headwater Research Llc Virtualized policy and charging system
US9755842B2 (en) 2009-01-28 2017-09-05 Headwater Research Llc Managing service user discovery and service launch object placement on a device
US8793758B2 (en) 2009-01-28 2014-07-29 Headwater Partners I Llc Security, fraud detection, and fraud mitigation in device-assisted services systems
US10841839B2 (en) 2009-01-28 2020-11-17 Headwater Research Llc Security, fraud detection, and fraud mitigation in device-assisted services systems
US10064055B2 (en) 2009-01-28 2018-08-28 Headwater Research Llc Security, fraud detection, and fraud mitigation in device-assisted services systems
US10783581B2 (en) 2009-01-28 2020-09-22 Headwater Research Llc Wireless end-user device providing ambient or sponsored services
US10484858B2 (en) 2009-01-28 2019-11-19 Headwater Research Llc Enhanced roaming services and converged carrier networks with device assisted services and a proxy
US9955332B2 (en) 2009-01-28 2018-04-24 Headwater Research Llc Method for child wireless device activation to subscriber account of a master wireless device
US9270559B2 (en) 2009-01-28 2016-02-23 Headwater Partners I Llc Service policy implementation for an end-user device having a control application or a proxy agent for routing an application traffic flow
US9571559B2 (en) 2009-01-28 2017-02-14 Headwater Partners I Llc Enhanced curfew and protection associated with a device group
US9980146B2 (en) 2009-01-28 2018-05-22 Headwater Research Llc Communications device with secure data path processing agents
US10798252B2 (en) 2009-01-28 2020-10-06 Headwater Research Llc System and method for providing user notifications
US20100191715A1 (en) * 2009-01-29 2010-07-29 Shefali Kumar Computer Implemented System for Providing Musical Message Content
KR101593569B1 (ko) * 2009-02-02 2016-02-15 삼성전자주식회사 콘텐츠 오브젝트 구성 방법 및 시스템
US9467518B2 (en) * 2009-02-16 2016-10-11 Communitake Technologies Ltd. System, a method and a computer program product for automated remote control
US8180906B2 (en) * 2009-03-11 2012-05-15 International Business Machines Corporation Dynamically optimizing delivery of multimedia content over a network
JP6144449B2 (ja) * 2009-03-30 2017-06-07 アバイア インク. 永続的マルチメデア・会議・サービスのシステムと方法。
US20100253850A1 (en) * 2009-04-03 2010-10-07 Ej4, Llc Video presentation system
US20100262931A1 (en) * 2009-04-10 2010-10-14 Rovi Technologies Corporation Systems and methods for searching a media guidance application with multiple perspective views
US9369759B2 (en) * 2009-04-15 2016-06-14 Samsung Electronics Co., Ltd. Method and system for progressive rate adaptation for uncompressed video communication in wireless systems
WO2010126612A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Reference picture lists for 3dv
US8666528B2 (en) 2009-05-01 2014-03-04 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
US20120054022A1 (en) * 2009-05-06 2012-03-01 Yona Kosashvili Real-time display of multimedia content in mobile communication devices
US10395214B2 (en) * 2009-05-15 2019-08-27 Marc DeVincent Method for automatically creating a customized life story for another
US10440329B2 (en) * 2009-05-22 2019-10-08 Immersive Media Company Hybrid media viewing application including a region of interest within a wide field of view
US8506402B2 (en) 2009-06-01 2013-08-13 Sony Computer Entertainment America Llc Game execution environments
JP5495625B2 (ja) * 2009-06-01 2014-05-21 キヤノン株式会社 監視カメラシステム、監視カメラ及び監視カメラ制御装置
US8612883B2 (en) 2009-06-08 2013-12-17 Apple Inc. User interface for managing the display of multiple display regions
TWI494841B (zh) * 2009-06-19 2015-08-01 Htc Corp 影像資料瀏覽方法及系統,及其電腦程式產品
US9094713B2 (en) 2009-07-02 2015-07-28 Time Warner Cable Enterprises Llc Method and apparatus for network association of content
BR112012006973A2 (pt) * 2009-09-29 2016-04-05 Intel Corp fontes diferentes de ligação de conteúdo
JP2011081457A (ja) * 2009-10-02 2011-04-21 Sony Corp 情報処理装置および方法
US20110085023A1 (en) * 2009-10-13 2011-04-14 Samir Hulyalkar Method And System For Communicating 3D Video Via A Wireless Communication Link
US8392497B2 (en) 2009-11-25 2013-03-05 Framehawk, LLC Systems and algorithm for interfacing with a virtualized computing service over a network using a lightweight client
EP2507995A4 (en) 2009-12-04 2014-07-09 Sonic Ip Inc SYSTEMS AND METHODS FOR TRANSPORTING ELEMENTARY BIT TRAIN CRYPTOGRAPHIC MATERIAL
US9203883B2 (en) * 2009-12-08 2015-12-01 Citrix Systems, Inc. Systems and methods for a client-side remote presentation of a multimedia stream
CN101729858A (zh) * 2009-12-14 2010-06-09 中兴通讯股份有限公司 一种蓝牙媒体的播放控制方法及系统
US8707182B2 (en) * 2010-01-20 2014-04-22 Verizon Patent And Licensing Inc. Methods and systems for dynamically inserting an advertisement into a playback of a recorded media content instance
US8879698B1 (en) 2010-02-03 2014-11-04 Tal Lavian Device and method for providing enhanced telephony
US8681951B1 (en) 2010-02-03 2014-03-25 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8548131B1 (en) 2010-02-03 2013-10-01 Tal Lavian Systems and methods for communicating with an interactive voice response system
US8687777B1 (en) 2010-02-03 2014-04-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8537989B1 (en) 2010-02-03 2013-09-17 Tal Lavian Device and method for providing enhanced telephony
US8625756B1 (en) 2010-02-03 2014-01-07 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8594280B1 (en) 2010-02-03 2013-11-26 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8548135B1 (en) 2010-02-03 2013-10-01 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8553859B1 (en) 2010-02-03 2013-10-08 Tal Lavian Device and method for providing enhanced telephony
US8903073B2 (en) 2011-07-20 2014-12-02 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US8572303B2 (en) 2010-02-03 2013-10-29 Tal Lavian Portable universal communication device
US9001819B1 (en) 2010-02-18 2015-04-07 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
CN106067985B (zh) 2010-04-13 2019-06-28 Ge视频压缩有限责任公司 跨平面预测
HUE026590T2 (hu) 2010-04-13 2016-06-28 Ge Video Compression Llc Öröklés minta tömb többes fa szerkezetû alosztásban
TWI756010B (zh) 2010-04-13 2022-02-21 美商Ge影像壓縮有限公司 樣本區域合併技術
ES2752227T3 (es) * 2010-04-13 2020-04-03 Ge Video Compression Llc Codificación de vídeo que usa subdivisiones multi-árbol de imágenes
KR101789633B1 (ko) 2010-04-19 2017-10-25 엘지전자 주식회사 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신장치
US9276986B2 (en) 2010-04-27 2016-03-01 Nokia Technologies Oy Systems, methods, and apparatuses for facilitating remote data processing
US8898217B2 (en) 2010-05-06 2014-11-25 Apple Inc. Content delivery based on user terminal events
US9367847B2 (en) 2010-05-28 2016-06-14 Apple Inc. Presenting content packages based on audience retargeting
US8650437B2 (en) * 2010-06-29 2014-02-11 International Business Machines Corporation Computer system and method of protection for the system's marking store
US8307006B2 (en) 2010-06-30 2012-11-06 The Nielsen Company (Us), Llc Methods and apparatus to obtain anonymous audience measurement data from network server data for particular demographic and usage profiles
US8782268B2 (en) 2010-07-20 2014-07-15 Microsoft Corporation Dynamic composition of media
CN103180891B (zh) * 2010-07-22 2015-09-02 杜比实验室特许公司 显示器管理服务器
US8996402B2 (en) 2010-08-02 2015-03-31 Apple Inc. Forecasting and booking of inventory atoms in content delivery systems
US8990103B2 (en) 2010-08-02 2015-03-24 Apple Inc. Booking and management of inventory atoms in content delivery systems
US8560331B1 (en) 2010-08-02 2013-10-15 Sony Computer Entertainment America Llc Audio acceleration
US8392533B2 (en) 2010-08-24 2013-03-05 Comcast Cable Communications, Llc Dynamic bandwidth load balancing in a data distribution network
US8510309B2 (en) 2010-08-31 2013-08-13 Apple Inc. Selection and delivery of invitational content based on prediction of user interest
US8983978B2 (en) 2010-08-31 2015-03-17 Apple Inc. Location-intention context for content delivery
KR102000618B1 (ko) 2010-09-13 2019-10-21 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 부가기능의 관리
KR20130090898A (ko) 2010-09-13 2013-08-14 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 2중 모드 프로그램 실행 및 로딩
WO2012036901A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
US20120158524A1 (en) * 2010-12-16 2012-06-21 Viacom International Inc. Integration of a Video Player Pushdown Advertising Unit and Digital Media Content
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
US20120185890A1 (en) * 2011-01-19 2012-07-19 Alan Rouse Synchronized video presentation
US9264435B2 (en) * 2011-02-15 2016-02-16 Boingo Wireless, Inc. Apparatus and methods for access solutions to wireless and wired networks
US8682750B2 (en) 2011-03-11 2014-03-25 Intel Corporation Method and apparatus for enabling purchase of or information requests for objects in digital content
DE102011014625B4 (de) * 2011-03-21 2015-11-12 Mackevision Medien Design GmbH Stuttgart Verfahren zum Bereitstellen eines Videofilms mit mindestens einem während des Ablaufs konfigurierbaren Objekts
US11099982B2 (en) 2011-03-31 2021-08-24 Oracle International Corporation NUMA-aware garbage collection
US10140208B2 (en) * 2011-03-31 2018-11-27 Oracle International Corporation NUMA-aware garbage collection
US9154826B2 (en) 2011-04-06 2015-10-06 Headwater Partners Ii Llc Distributing content and service launch objects to mobile devices
EP2697929A4 (en) 2011-04-11 2014-09-24 Intertrust Tech Corp INFORMATION SECURITY SYSTEMS AND METHODS
US9380356B2 (en) 2011-04-12 2016-06-28 The Nielsen Company (Us), Llc Methods and apparatus to generate a tag for media content
US10600139B2 (en) 2011-04-29 2020-03-24 American Greetings Corporation Systems, methods and apparatus for creating, editing, distributing and viewing electronic greeting cards
US9241184B2 (en) * 2011-06-01 2016-01-19 At&T Intellectual Property I, L.P. Clothing visualization
US9063691B2 (en) * 2011-06-07 2015-06-23 National Instruments Corporation Zero client device with multi-boot capability supporting multiple zero client protocols
TW201251429A (en) * 2011-06-08 2012-12-16 Hon Hai Prec Ind Co Ltd System and method for sending streaming of desktop sharing
US9219945B1 (en) * 2011-06-16 2015-12-22 Amazon Technologies, Inc. Embedding content of personal media in a portion of a frame of streaming media indicated by a frame identifier
US9210208B2 (en) 2011-06-21 2015-12-08 The Nielsen Company (Us), Llc Monitoring streaming media content
US9209978B2 (en) 2012-05-15 2015-12-08 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US8949905B1 (en) 2011-07-05 2015-02-03 Randian LLC Bookmarking, cataloging and purchasing system for use in conjunction with streaming and non-streaming media on multimedia devices
AU2012289868B2 (en) * 2011-08-03 2016-04-14 Intent IQ, LLC Targeted television advertising based on profiles linked to multiple online devices
CA2748698A1 (en) * 2011-08-10 2013-02-10 Learningmate Solutions Private Limited System, method and apparatus for managing education and training workflows
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
CN103875248B (zh) 2011-08-30 2018-09-07 帝威视有限公司 用于编码和流处理通过使用多个最大比特率级别编码的视频的系统和方法
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US8615159B2 (en) 2011-09-20 2013-12-24 Citrix Systems, Inc. Methods and systems for cataloging text in a recorded session
CA2849974C (en) * 2011-09-26 2021-04-13 Sirius Xm Radio Inc. System and method for increasing transmission bandwidth efficiency ("ebt2")
US20130076756A1 (en) * 2011-09-27 2013-03-28 Microsoft Corporation Data frame animation
US20130086609A1 (en) * 2011-09-29 2013-04-04 Viacom International Inc. Integration of an Interactive Virtual Toy Box Advertising Unit and Digital Media Content
EP2595399A1 (en) * 2011-11-16 2013-05-22 Thomson Licensing Method of digital content version switching and corresponding device
DE102011055653A1 (de) 2011-11-23 2013-05-23 nrichcontent UG (haftungsbeschränkt) Verfahren und Vorrichtung zur Aufbereitung von Mediendaten
EP2783349A4 (en) * 2011-11-24 2015-05-27 Nokia Corp METHOD, APPARATUS AND COMPUTER PROGRAM PRODUCT FOR PRODUCING AN ANIMATED IMAGE ASSOCIATED WITH MULTIMEDIA CONTENT
TWI448125B (zh) * 2011-11-25 2014-08-01 Ind Tech Res Inst 多媒體檔案分享方法及系統
WO2013082270A1 (en) 2011-11-29 2013-06-06 Watchitoo, Inc. System and method for synchronized interactive layers for media broadcast
CN103136192B (zh) * 2011-11-30 2015-09-02 北京百度网讯科技有限公司 翻译需求识别方法及系统
CN103136277B (zh) * 2011-12-02 2016-08-17 宏碁股份有限公司 多媒体文件播放方法与电子装置
US9229231B2 (en) * 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US9182815B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US9183807B2 (en) 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Displaying virtual data as printed content
US8751800B1 (en) 2011-12-12 2014-06-10 Google Inc. DRM provider interoperability
WO2013095445A1 (en) * 2011-12-21 2013-06-27 Intel Corporation Techniques for rate governing of a display data stream
US8825879B2 (en) * 2012-02-02 2014-09-02 Dialogic, Inc. Session information transparency control
US8731148B1 (en) 2012-03-02 2014-05-20 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8867708B1 (en) 2012-03-02 2014-10-21 Tal Lavian Systems and methods for visual presentation and selection of IVR menu
US8255495B1 (en) 2012-03-22 2012-08-28 Luminate, Inc. Digital image and content display systems and methods
US8838149B2 (en) 2012-04-02 2014-09-16 Time Warner Cable Enterprises Llc Apparatus and methods for ensuring delivery of geographically relevant content
US8832741B1 (en) * 2012-04-03 2014-09-09 Google Inc. Real time overlays on live streams
CN102623036A (zh) * 2012-04-06 2012-08-01 南昌大学 裸眼三维平面兼容的5.0英寸高清数字播放器
US20130271476A1 (en) * 2012-04-17 2013-10-17 Gamesalad, Inc. Methods and Systems Related to Template Code Generator
CN104303507B (zh) * 2012-04-25 2018-06-01 三星电子株式会社 用于多媒体传输系统的收发数据的方法和装置
US20130311859A1 (en) * 2012-05-18 2013-11-21 Barnesandnoble.Com Llc System and method for enabling execution of video files by readers of electronic publications
US9165381B2 (en) 2012-05-31 2015-10-20 Microsoft Technology Licensing, Llc Augmented books in a mixed reality environment
US9752995B2 (en) * 2012-06-07 2017-09-05 Varex Imaging Corporation Correction of spatial artifacts in radiographic images
CN102801539B (zh) * 2012-06-08 2016-01-20 深圳创维数字技术有限公司 一种信息发布方法及设备、系统
US20130329808A1 (en) * 2012-06-12 2013-12-12 Jorg-Ulrich Mohnen Streaming portions of a quilted image representation along with content control data
US9693108B2 (en) 2012-06-12 2017-06-27 Electronics And Telecommunications Research Institute Method and system for displaying user selectable picture
US8819525B1 (en) * 2012-06-14 2014-08-26 Google Inc. Error concealment guided robustness
US9141504B2 (en) 2012-06-28 2015-09-22 Apple Inc. Presenting status data received from multiple devices
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
DE102012212139A1 (de) * 2012-07-11 2014-01-16 Mackevision Medien Design GmbH Stuttgart Verfahren zum Betreiben eines Servers für das HLS-Streaming eines Video-Films mit mindestens einem konfigurierbaren Objekt
JP2015523816A (ja) 2012-07-13 2015-08-13 華為技術有限公司Huawei Technologies Co.,Ltd. コンテンツ転送および配信におけるコンテンツ暗号化および権利管理のシグナリングおよびハンドリング
US9280575B2 (en) * 2012-07-20 2016-03-08 Sap Se Indexing hierarchical data
US10455284B2 (en) * 2012-08-31 2019-10-22 Elwha Llc Dynamic customization and monetization of audio-visual content
US9300994B2 (en) 2012-08-03 2016-03-29 Elwha Llc Methods and systems for viewing dynamically customized audio-visual content
US20140040946A1 (en) * 2012-08-03 2014-02-06 Elwha LLC, a limited liability corporation of the State of Delaware Dynamic customization of audio visual content using personalizing information
US10237613B2 (en) 2012-08-03 2019-03-19 Elwha Llc Methods and systems for viewing dynamically customized audio-visual content
US11349699B2 (en) * 2012-08-14 2022-05-31 Netflix, Inc. Speculative pre-authorization of encrypted data streams
WO2014036642A1 (en) 2012-09-06 2014-03-13 Decision-Plus M.C. Inc. System and method for broadcasting interactive content
US9560392B2 (en) * 2012-09-07 2017-01-31 Google Inc. Dynamic bit rate encoding
CN102843542B (zh) * 2012-09-07 2015-12-02 华为技术有限公司 多流会议的媒体协商方法、设备和系统
US9152971B2 (en) 2012-09-26 2015-10-06 Paypal, Inc. Dynamic mobile seller routing
US9927959B2 (en) * 2012-10-05 2018-03-27 Tactual Labs Co. Hybrid systems and methods for low-latency user input processing and feedback
TWI474200B (zh) * 2012-10-17 2015-02-21 Inst Information Industry Scene clip playback system, method and recording medium thereof
US9721263B2 (en) * 2012-10-26 2017-08-01 Nbcuniversal Media, Llc Continuously evolving symmetrical object profiles for online advertisement targeting
US10462499B2 (en) * 2012-10-31 2019-10-29 Outward, Inc. Rendering a modeled scene
US9111378B2 (en) 2012-10-31 2015-08-18 Outward, Inc. Virtualizing content
US10699361B2 (en) * 2012-11-21 2020-06-30 Ati Technologies Ulc Method and apparatus for enhanced processing of three dimensional (3D) graphics data
GB2509055B (en) * 2012-12-11 2016-03-23 Gurulogic Microsystems Oy Encoder and method
US10255315B2 (en) 2012-12-11 2019-04-09 Gurulogic Microsystems Oy Encoder, decoder and method
KR101467868B1 (ko) * 2012-12-20 2014-12-03 주식회사 팬택 소스 장치, 싱크 장치, 이들을 포함하는 무선랜 시스템, 싱크 장치를 제어하는 방법, 단말 장치 및 사용자 인터페이스
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9313544B2 (en) 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US20140236709A1 (en) * 2013-02-16 2014-08-21 Ncr Corporation Techniques for advertising
KR101932539B1 (ko) * 2013-02-18 2018-12-27 한화테크윈 주식회사 동영상 데이터를 기록하는 방법, 및 이 방법을 채용한 촬영 장치
WO2014159862A1 (en) 2013-03-14 2014-10-02 Headwater Partners I Llc Automated credential porting for mobile devices
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
CN103150761A (zh) * 2013-04-02 2013-06-12 乐淘奇品网络技术(北京)有限公司 通过网页高速逼真3d渲染进行物品设计定制的方法
CN103237216B (zh) * 2013-04-12 2017-09-12 华为技术有限公司 深度图像的编解码方法和编解码装置
US9438947B2 (en) 2013-05-01 2016-09-06 Google Inc. Content annotation tool
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US20140355665A1 (en) * 2013-05-31 2014-12-04 Altera Corporation Adaptive Video Reference Frame Compression with Control Elements
US20140375746A1 (en) * 2013-06-20 2014-12-25 Wavedeck Media Limited Platform, device and method for enabling micro video communication
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
WO2015006776A1 (en) 2013-07-12 2015-01-15 Tactual Labs Co. Reducing control response latency with defined cross-control behavior
US20150039321A1 (en) 2013-07-31 2015-02-05 Arbitron Inc. Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device
US9711152B2 (en) 2013-07-31 2017-07-18 The Nielsen Company (Us), Llc Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio
US8718445B1 (en) 2013-09-03 2014-05-06 Penthera Partners, Inc. Commercials on mobile devices
US9244916B2 (en) * 2013-10-01 2016-01-26 Penthera Partners, Inc. Downloading media objects
TWI636683B (zh) * 2013-10-02 2018-09-21 知識體科技股份有限公司 降低頻寬負載之遠端互動的系統及其方法
FR3011704A1 (fr) * 2013-10-07 2015-04-10 Orange Procede de mise en œuvre d'une session de communication entre une pluralite de terminaux
WO2015059605A1 (en) * 2013-10-22 2015-04-30 Tata Consultancy Services Limited Window management for stream processing and stream reasoning
US10933209B2 (en) * 2013-11-01 2021-03-02 Georama, Inc. System to process data related to user interactions with and user feedback of a product while user finds, perceives, or uses the product
CN111091843B (zh) 2013-11-07 2023-05-02 瑞典爱立信有限公司 用于编码的矢量分段的方法和设备
US9699500B2 (en) * 2013-12-13 2017-07-04 Qualcomm Incorporated Session management and control procedures for supporting multiple groups of sink devices in a peer-to-peer wireless display system
US9445031B2 (en) * 2014-01-02 2016-09-13 Matt Sandy Article of clothing
US9319730B2 (en) * 2014-01-13 2016-04-19 Spb Tv Ag Method and a system for targeted video stream insertion
WO2015122163A1 (ja) 2014-02-14 2015-08-20 日本電気株式会社 映像処理システム
KR102201616B1 (ko) * 2014-02-23 2021-01-12 삼성전자주식회사 전자 장치 간의 장치 검색 방법
AU2015225459A1 (en) * 2014-03-04 2016-09-15 Comhear, Inc. Object-based teleconferencing protocol
US9417911B2 (en) 2014-03-12 2016-08-16 Live Planet Llc Systems and methods for scalable asynchronous computing framework
WO2015148844A1 (en) * 2014-03-26 2015-10-01 Nant Holdings Ip, Llc Protocols for interacting with content via multiple devices, systems and methods
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
US9594580B2 (en) * 2014-04-09 2017-03-14 Bitspray Corporation Secure storage and accelerated transmission of information over communication networks
RU2014118550A (ru) * 2014-05-08 2015-11-20 Максим Владимирович Гинзбург Система для передачи сообщений
US9820216B1 (en) * 2014-05-12 2017-11-14 Sprint Communications Company L.P. Wireless traffic channel release prevention before update process completion
US9420351B2 (en) * 2014-06-06 2016-08-16 Google Inc. Systems and methods for prefetching online content items for low latency display to a user
US9462239B2 (en) * 2014-07-15 2016-10-04 Fuji Xerox Co., Ltd. Systems and methods for time-multiplexing temporal pixel-location data and regular image projection for interactive projection
US9786276B2 (en) * 2014-08-25 2017-10-10 Honeywell International Inc. Speech enabled management system
CN105373938A (zh) * 2014-08-27 2016-03-02 阿里巴巴集团控股有限公司 识别视频图像中的商品和展示其信息的方法、装置及系统
US10484697B2 (en) 2014-09-09 2019-11-19 Qualcomm Incorporated Simultaneous localization and mapping for video coding
US20160088079A1 (en) * 2014-09-21 2016-03-24 Alcatel Lucent Streaming playout of media content using interleaved media players
US11537777B2 (en) * 2014-09-25 2022-12-27 Huawei Technologies Co., Ltd. Server for providing a graphical user interface to a client and a client
US9311735B1 (en) * 2014-11-21 2016-04-12 Adobe Systems Incorporated Cloud based content aware fill for images
TWI574158B (zh) * 2014-12-01 2017-03-11 旺宏電子股份有限公司 具應用程式資訊感知的資料處理方法以及系統
US9420292B2 (en) * 2014-12-09 2016-08-16 Ncku Research And Development Foundation Content adaptive compression system
US9743219B2 (en) * 2014-12-29 2017-08-22 Google Inc. Low-power wireless content communication between devices
US20160196104A1 (en) * 2015-01-07 2016-07-07 Zachary Paul Gordon Programmable Audio Device
US10104415B2 (en) * 2015-01-21 2018-10-16 Microsoft Technology Licensing, Llc Shared scene mesh data synchronisation
US10306229B2 (en) 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
US9729885B2 (en) * 2015-02-11 2017-08-08 Futurewei Technologies, Inc. Apparatus and method for compressing color index map
US10026450B2 (en) * 2015-03-31 2018-07-17 Jaguar Land Rover Limited Content processing and distribution system and method
US9762965B2 (en) 2015-05-29 2017-09-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
CN104915412B (zh) * 2015-06-05 2018-07-03 北京京东尚科信息技术有限公司 一种动态管理数据库连接的方法及系统
US10089325B1 (en) * 2015-06-30 2018-10-02 Open Text Corporation Method and system for using micro objects
CN104954497B (zh) * 2015-07-03 2018-09-14 浪潮(北京)电子信息产业有限公司 一种云存储系统中数据传输方法和系统
JP2018525866A (ja) * 2015-07-08 2018-09-06 クロード クラウディング コーポレイション カメラからの信号を安全に伝送するためのシステムおよび方法
US10204449B2 (en) * 2015-09-01 2019-02-12 Siemens Healthcare Gmbh Video-based interactive viewing along a path in medical imaging
US10313765B2 (en) * 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
CN108028765A (zh) * 2015-09-11 2018-05-11 巴科股份有限公司 用于连接电子设备的方法和系统
US10419788B2 (en) * 2015-09-30 2019-09-17 Nathan Dhilan Arimilli Creation of virtual cameras for viewing real-time events
KR101661162B1 (ko) * 2015-10-20 2016-09-30 (주)보강하이텍 보일러 노 내부 감시 카메라의 영상 처리 방법
JP6556022B2 (ja) * 2015-10-30 2019-08-07 キヤノン株式会社 画像処理装置および画像処理方法
US10353473B2 (en) 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
US10992461B2 (en) 2015-11-20 2021-04-27 Genetec Inc. Secure layered encryption of data streams
JP6966439B2 (ja) 2015-11-20 2021-11-17 ジェネテック インコーポレイテッド メディア・ストリーミング
US9852053B2 (en) * 2015-12-08 2017-12-26 Google Llc Dynamic software inspection tool
US9807453B2 (en) * 2015-12-30 2017-10-31 TCL Research America Inc. Mobile search-ready smart display technology utilizing optimized content fingerprint coding and delivery
CN105744298A (zh) * 2016-01-30 2016-07-06 安徽欧迈特数字技术有限责任公司 一种基于视频码流技术的工业交换机电口传输方法
WO2017156300A1 (en) 2016-03-09 2017-09-14 Bitspray Corporation Secure file sharing over multiple security domains and dispersed communication networks
US10931402B2 (en) 2016-03-15 2021-02-23 Cloud Storage, Inc. Distributed storage system data management and security
US10623774B2 (en) 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
US11402213B2 (en) * 2016-03-30 2022-08-02 Intel Corporation Techniques for determining a current location of a mobile device
CN109417653A (zh) * 2016-04-28 2019-03-01 夏普株式会社 用于用信号发送紧急警报的系统和方法
CN105955688B (zh) * 2016-05-04 2018-11-02 广州视睿电子科技有限公司 播放ppt丢帧处理的方法与系统
CN106028172A (zh) * 2016-06-13 2016-10-12 百度在线网络技术(北京)有限公司 音/视频处理方法及装置
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US11354863B2 (en) 2016-06-30 2022-06-07 Honeywell International Inc. Systems and methods for immersive and collaborative video surveillance
CN107578777B (zh) * 2016-07-05 2021-08-03 阿里巴巴集团控股有限公司 文字信息显示方法、装置及系统、语音识别方法及装置
CN107770601B (zh) * 2016-08-16 2021-04-02 上海交通大学 一种面向多媒体内容组件个性化呈现的方法及系统
US10951874B2 (en) * 2016-09-02 2021-03-16 Mediatek Inc. Incremental quality delivery and compositing processing
US10158684B2 (en) * 2016-09-26 2018-12-18 Cisco Technology, Inc. Challenge-response proximity verification of user devices based on token-to-symbol mapping definitions
US11412312B2 (en) * 2016-09-28 2022-08-09 Idomoo Ltd System and method for generating customizable encapsulated media files
CN106534519A (zh) * 2016-10-28 2017-03-22 努比亚技术有限公司 屏幕投影方法和移动终端
US10282889B2 (en) * 2016-11-29 2019-05-07 Samsung Electronics Co., Ltd. Vertex attribute compression and decompression in hardware
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
US20180278947A1 (en) * 2017-03-24 2018-09-27 Seiko Epson Corporation Display device, communication device, method of controlling display device, and method of controlling communication device
US11049219B2 (en) 2017-06-06 2021-06-29 Gopro, Inc. Methods and apparatus for multi-encoder processing of high resolution content
WO2018223241A1 (en) * 2017-06-08 2018-12-13 Vimersiv Inc. Building and rendering immersive virtual reality experiences
GB201714000D0 (en) 2017-08-31 2017-10-18 Mirriad Advertising Ltd Machine learning for identification of candidate video insertion object types
CN107920202B (zh) 2017-11-15 2020-02-21 阿里巴巴集团控股有限公司 基于增强现实的视频处理方法、装置及电子设备
CN108012173B (zh) 2017-11-16 2021-01-22 百度在线网络技术(北京)有限公司 一种内容识别方法、装置、设备和计算机存储介质
EP3721634A1 (en) * 2017-12-06 2020-10-14 V-Nova International Limited Methods and apparatuses for encoding and decoding a bytestream
US11032580B2 (en) 2017-12-18 2021-06-08 Dish Network L.L.C. Systems and methods for facilitating a personalized viewing experience
JP2019117571A (ja) * 2017-12-27 2019-07-18 シャープ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US10365885B1 (en) 2018-02-21 2019-07-30 Sling Media Pvt. Ltd. Systems and methods for composition of audio content from multi-object audio
US10922438B2 (en) 2018-03-22 2021-02-16 Bank Of America Corporation System for authentication of real-time video data via dynamic scene changing
US11374992B2 (en) * 2018-04-02 2022-06-28 OVNIO Streaming Services, Inc. Seamless social multimedia
US10503566B2 (en) 2018-04-16 2019-12-10 Chicago Mercantile Exchange Inc. Conservation of electronic communications resources and computing resources via selective processing of substantially continuously updated data
EP3570207B1 (en) * 2018-05-15 2023-08-16 IDEMIA Identity & Security Germany AG Video cookies
US20190377461A1 (en) * 2018-06-08 2019-12-12 Pumpi LLC Interactive file generation and execution
CN112262570B (zh) * 2018-06-12 2023-11-14 E·克里奥斯·夏皮拉 实时地自动修改高分辨率视频数据的方法和计算机系统
WO2020024049A1 (en) * 2018-07-31 2020-02-06 10819964 Canada Inc. Interactive devices, media systems, and device control
US10460766B1 (en) 2018-10-10 2019-10-29 Bank Of America Corporation Interactive video progress bar using a markup language
US10805690B2 (en) 2018-12-04 2020-10-13 The Nielsen Company (Us), Llc Methods and apparatus to identify media presentations by analyzing network traffic
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding
US11182247B2 (en) 2019-01-29 2021-11-23 Cloud Storage, Inc. Encoding and storage node repairing method for minimum storage regenerating codes for distributed storage systems
US20220134227A1 (en) * 2019-02-25 2022-05-05 Google Llc Variable end-point user interface rendering
KR102279164B1 (ko) * 2019-03-27 2021-07-19 네이버 주식회사 인공지능 모델을 이용한 이미지 편집 방법 및 장치
US11228781B2 (en) * 2019-06-26 2022-01-18 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
US11191423B1 (en) 2020-07-16 2021-12-07 DOCBOT, Inc. Endoscopic system and methods having real-time medical imaging
US11423318B2 (en) 2019-07-16 2022-08-23 DOCBOT, Inc. System and methods for aggregating features in video frames to improve accuracy of AI detection algorithms
US10671934B1 (en) * 2019-07-16 2020-06-02 DOCBOT, Inc. Real-time deployment of machine learning systems
US11973991B2 (en) * 2019-10-11 2024-04-30 International Business Machines Corporation Partial loading of media based on context
US11481863B2 (en) 2019-10-23 2022-10-25 Gopro, Inc. Methods and apparatus for hardware accelerated image processing for spherical projections
US10805665B1 (en) * 2019-12-13 2020-10-13 Bank Of America Corporation Synchronizing text-to-audio with interactive videos in the video framework
US20210105451A1 (en) * 2019-12-23 2021-04-08 Intel Corporation Scene construction using object-based immersive media
CN111209440B (zh) * 2020-01-13 2023-04-14 深圳市雅阅科技有限公司 一种视频播放方法、装置和存储介质
WO2021178651A1 (en) * 2020-03-04 2021-09-10 Videopura Llc Encoding device and method for video analysis and composition cross-reference to related applications
US11350103B2 (en) * 2020-03-11 2022-05-31 Videomentum Inc. Methods and systems for automated synchronization and optimization of audio-visual files
EP3883235A1 (en) 2020-03-17 2021-09-22 Aptiv Technologies Limited Camera control modules and methods
KR102470139B1 (ko) 2020-04-01 2022-11-23 삼육대학교산학협력단 쿼드 트리 기반의 객체 탐지 방법 및 장치
US20230199231A1 (en) * 2020-04-17 2023-06-22 Benoit Fredette Virtual venue
US11478124B2 (en) 2020-06-09 2022-10-25 DOCBOT, Inc. System and methods for enhanced automated endoscopy procedure workflow
US11678292B2 (en) * 2020-06-26 2023-06-13 T-Mobile Usa, Inc. Location reporting in a wireless telecommunications network, such as for live broadcast data streaming
EP4209107A1 (en) * 2020-09-02 2023-07-12 Serinus Security Pty Ltd A device and process for detecting and locating sources of wireless data packets
CN112150591B (zh) * 2020-09-30 2024-02-02 广州光锥元信息科技有限公司 智能动画和图层化的多媒体处理装置
US11100373B1 (en) 2020-11-02 2021-08-24 DOCBOT, Inc. Autonomous and continuously self-improving learning system
US11134217B1 (en) 2021-01-11 2021-09-28 Surendra Goel System that provides video conferencing with accent modification and multiple video overlaying
CN112950351B (zh) * 2021-02-07 2024-04-26 北京淇瑀信息科技有限公司 用户策略生成方法、装置及电子设备
US11430132B1 (en) * 2021-08-19 2022-08-30 Unity Technologies Sf Replacing moving objects with background information in a video scene
CN113905270B (zh) * 2021-11-03 2024-04-09 广州博冠信息科技有限公司 节目播出控制方法和装置、可读存储介质、电子设备
WO2023083918A1 (en) * 2021-11-09 2023-05-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for decoding, method for encoding and bitstream, using a plurality of packets, the packets comprising one or more scene configuration packets and one or more scene update packets with of one or more update conditions
CN114120466A (zh) * 2021-11-22 2022-03-01 浙江嘉科电子有限公司 用于巡检信息交换的编解码装置及方法
US11985381B2 (en) 2022-01-10 2024-05-14 Tencent America LLC Mapping architecture of immersive technologies media format (ITMF) specification with rendering engines
WO2024007074A1 (en) * 2022-07-05 2024-01-11 Imaging Excellence 2.0 Inc. Interactive video brochure system and method
CN116980544B (zh) * 2023-09-22 2023-12-01 北京淳中科技股份有限公司 视频编辑方法、装置、电子设备及计算机可读存储介质
CN117251231B (zh) * 2023-11-17 2024-02-23 浙江口碑网络技术有限公司 一种动画资源处理方法、装置、系统及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998046006A2 (en) * 1997-04-07 1998-10-15 At & T Corp. System and method for interfacing mpeg-coded audiovisual objects permitting adaptive control

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8412424D0 (en) * 1983-10-26 1984-06-20 Marconi Co Ltd Speech responsive apparatus
US4567359A (en) * 1984-05-24 1986-01-28 Lockwood Lawrence B Automatic information, goods and services dispensing system
US4725956A (en) * 1985-10-15 1988-02-16 Lockheed Corporation Voice command air vehicle control system
US4752893A (en) * 1985-11-06 1988-06-21 Texas Instruments Incorporated Graphics data processing apparatus having image operations with transparent color having a selectable number of bits
IT1190565B (it) * 1986-04-07 1988-02-16 Cselt Centro Studi Lab Telecom Procedimento e dispositivo di codifica di segnali numerizati mediante quantizzazione vettoriale
US5226090A (en) * 1989-12-29 1993-07-06 Pioneer Electronic Corporation Voice-operated remote control system
EP0523650A3 (en) * 1991-07-16 1993-08-25 Fujitsu Limited Object oriented processing method
EP0529864B1 (en) * 1991-08-22 2001-10-31 Sun Microsystems, Inc. Network video server apparatus and method
US5586235A (en) * 1992-09-25 1996-12-17 Kauffman; Ivan J. Interactive multimedia system and method
US5426594A (en) * 1993-04-02 1995-06-20 Motorola, Inc. Electronic greeting card store and communication system
WO1996008095A1 (en) * 1994-09-08 1996-03-14 Virtex Communications, Inc. Method and apparatus for electronic distribution of digital multi-media information
FR2726146B1 (fr) * 1994-10-21 1996-12-20 Cohen Solal Bernard Simon Systeme automatise de gestion de television interactive
US5721720A (en) * 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
US5752159A (en) * 1995-01-13 1998-05-12 U S West Technologies, Inc. Method for automatically collecting and delivering application event data in an interactive network
CA2168327C (en) * 1995-01-30 2000-04-11 Shinichi Kikuchi A recording medium on which a data containing navigation data is recorded, a method and apparatus for reproducing a data according to navigationdata, a method and apparatus for recording a data containing navigation data on a recording medium.
SE504085C2 (sv) * 1995-02-01 1996-11-04 Greg Benson Sätt och system för att hantera dataobjekt i enlighet med förutbestämda villkor för användare
US5710887A (en) * 1995-08-29 1998-01-20 Broadvision Computer system and method for electronic commerce
FR2739207B1 (fr) * 1995-09-22 1997-12-19 Cp Synergie Systeme de video surveillance
CA2191373A1 (en) * 1995-12-29 1997-06-30 Anil Dass Chaturvedi Greeting booths
US5826240A (en) * 1996-01-18 1998-10-20 Rosefaire Development, Ltd. Sales presentation system for coaching sellers to describe specific features and benefits of a product or service based on input from a prospect
US5862325A (en) * 1996-02-29 1999-01-19 Intermind Corporation Computer-based communication system and method using metadata defining a control structure
US6215910B1 (en) * 1996-03-28 2001-04-10 Microsoft Corporation Table-based compression with embedded coding
AU6693196A (en) * 1996-05-01 1997-11-19 Tvx, Inc. Mobile, ground-based platform security system
US6078619A (en) * 1996-09-12 2000-06-20 University Of Bath Object-oriented video system
US5999526A (en) * 1996-11-26 1999-12-07 Lucent Technologies Inc. Method and apparatus for delivering data from an information provider using the public switched network
JPH10200924A (ja) * 1997-01-13 1998-07-31 Matsushita Electric Ind Co Ltd 画像伝送装置
US6130720A (en) * 1997-02-10 2000-10-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for providing a variety of information from an information server
US6167442A (en) * 1997-02-18 2000-12-26 Truespectra Inc. Method and system for accessing and of rendering an image for transmission over a network
WO1999010801A1 (en) * 1997-08-22 1999-03-04 Apex Inc. Remote computer control system
WO1999013661A1 (en) * 1997-09-10 1999-03-18 Motorola Inc. Wireless two-way messaging system
GB2329542B (en) * 1997-09-17 2002-03-27 Sony Uk Ltd Security control system and method of operation
AU708489B2 (en) * 1997-09-29 1999-08-05 Canon Kabushiki Kaisha A method and apparatus for digital data compression
CN1146205C (zh) * 1997-10-17 2004-04-14 皇家菲利浦电子有限公司 在恒定大小的传送分组中封装数据的方法
US6621932B2 (en) * 1998-03-06 2003-09-16 Matsushita Electric Industrial Co., Ltd. Video image decoding and composing method and video image decoding and composing apparatus
US6185535B1 (en) * 1998-10-16 2001-02-06 Telefonaktiebolaget Lm Ericsson (Publ) Voice control of a user interface to service applications
US6697519B1 (en) * 1998-10-29 2004-02-24 Pixar Color management system for converting computer graphic images to film images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998046006A2 (en) * 1997-04-07 1998-10-15 At & T Corp. System and method for interfacing mpeg-coded audiovisual objects permitting adaptive control

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005527126A (ja) * 2001-08-29 2005-09-08 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Umtsネットワークにおいてマルチキャスト通信を実行するための方法および装置
JP2003087760A (ja) * 2001-09-10 2003-03-20 Ntt Communications Kk 情報提供ネットワークシステム及び情報提供方法
JP2005528849A (ja) * 2002-06-04 2005-09-22 クゥアルコム・インコーポレイテッド ポータブルデバイスにおけるマルチメディアレンダリングのためのシステム
JP2009105901A (ja) * 2002-06-19 2009-05-14 Microsoft Corp ビデオ合成を表示するための方法
US8010908B2 (en) 2003-06-30 2011-08-30 Panasonic Corporation Recording medium, reproduction apparatus, recording method, program, and reproduction method
US7913169B2 (en) 2003-06-30 2011-03-22 Panasonic Corporation Recording medium, reproduction apparatus, recording method, program, and reproduction method
US8020117B2 (en) 2003-06-30 2011-09-13 Panasonic Corporation Recording medium, reproduction apparatus, recording method, program, and reproduction method
CN101527863B (zh) * 2003-06-30 2011-09-07 松下电器产业株式会社 再现装置、记录方法和再现方法
WO2005002219A1 (ja) * 2003-06-30 2005-01-06 Matsushita Electric Industrial Co.,Ltd. 記録媒体、再生装置、記録方法、プログラム、再生方法
US7620297B2 (en) 2003-06-30 2009-11-17 Panasonic Corporation Recording medium, recording method, reproduction apparatus and method, and computer-readable program
US7664370B2 (en) 2003-06-30 2010-02-16 Panasonic Corporation Recording medium, reproduction device, recording method, program, and reproduction method
US7668440B2 (en) 2003-06-30 2010-02-23 Panasonic Corporation Recording medium, recording method, reproduction apparatus and method, and computer-readable program
US7680394B2 (en) 2003-06-30 2010-03-16 Panasonic Corporation Recording medium, recording method, reproduction apparatus and method, and computer-readable program
US7716584B2 (en) 2003-06-30 2010-05-11 Panasonic Corporation Recording medium, reproduction device, recording method, program, and reproduction method
US8006173B2 (en) 2003-06-30 2011-08-23 Panasonic Corporation Recording medium, reproduction apparatus, recording method, program and reproduction method
WO2005027439A1 (ja) * 2003-09-12 2005-03-24 Nec Corporation メディアストリ−ムのマルチキャスト配信方法及び装置
JP4691037B2 (ja) * 2003-10-23 2011-06-01 マイクロソフト コーポレーション リモートなビジュアル構成のためのプロトコル
JP2007519074A (ja) * 2003-10-23 2007-07-12 マイクロソフト コーポレーション リモートなビジュアル構成のためのプロトコル
WO2006132021A1 (ja) * 2005-06-08 2006-12-14 Matsushita Electric Industrial Co., Ltd. Guiコンテンツ再生装置及びプログラム
JP4575445B2 (ja) * 2005-06-08 2010-11-04 パナソニック株式会社 Guiコンテンツ再生装置及びプログラム
JPWO2006132021A1 (ja) * 2005-06-08 2009-01-08 松下電器産業株式会社 Guiコンテンツ再生装置及びプログラム
KR101390143B1 (ko) 2006-08-02 2014-04-28 소니 주식회사 기록 장치 및 방법, 촬상 장치, 재생 장치 및 방법, 및 프로그램
JP2012527815A (ja) * 2009-05-18 2012-11-08 サムスン エレクトロニクス カンパニー リミテッド エンコーダ、デコーダ、符号化、及び復号化方法
US9866338B2 (en) 2009-05-18 2018-01-09 Samsung Electronics., Ltd Encoding and decoding method for short-range communication using an acoustic communication channel
US8737435B2 (en) 2009-05-18 2014-05-27 Samsung Electronics Co., Ltd. Encoder, decoder, encoding method, and decoding method
JP2016167841A (ja) * 2009-12-04 2016-09-15 クゥアルコム・インコーポレイテッドQualcomm Incorporated 移動体メディアサーバ
US8675646B2 (en) 2009-12-10 2014-03-18 Samsung Electronics Co., Ltd. Method for encoding information object and encoder using the same
US9438375B2 (en) 2009-12-10 2016-09-06 Samsung Electronics Co., Ltd Method for encoding information object and encoder using the same
JP2013512640A (ja) * 2009-12-10 2013-04-11 サムスン エレクトロニクス カンパニー リミテッド 情報オブジェクトを符号化する方法及びそれを用いるエンコーダ
JP2013115784A (ja) * 2011-11-30 2013-06-10 Fujitsu Ltd 情報処理装置、画像送信方法及び画像送信プログラム
KR101606662B1 (ko) * 2011-12-20 2016-03-25 인텔 코포레이션 향상된 무선 디스플레이
JP2015505208A (ja) * 2011-12-20 2015-02-16 インテル・コーポレーション 強化型ワイヤレスディスプレイ
US9756333B2 (en) 2011-12-20 2017-09-05 Intel Corporation Enhanced wireless display
JP2015530649A (ja) * 2012-08-14 2015-10-15 トムソン ライセンシングThomson Licensing ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用
US9911195B2 (en) 2012-08-14 2018-03-06 Thomson Licensing Method of sampling colors of images of a video sequence, and application to color clustering
CN102946529A (zh) * 2012-10-19 2013-02-27 华中科技大学 基于fpga和多核dsp的图像传输及处理系统
KR101349672B1 (ko) 2012-12-27 2014-01-10 전자부품연구원 영상 특징 고속 추출 방법 및 이를 지원하는 장치
KR101517815B1 (ko) 2013-01-21 2015-05-07 전자부품연구원 실시간 객체 추출 방법 및 이를 적용한 감시 시스템
JP2016519501A (ja) * 2013-04-05 2016-06-30 ブリティッシュ・ブロードキャスティング・コーポレーションBritish Broadcasting Corporation 合成画像の送信および受信
KR102189139B1 (ko) 2013-08-29 2020-12-10 메디아프로두씨온, 에스.엘.유. 영상 프로덕션을 만들기 위한 방법 및 그 시스템
KR20160048178A (ko) * 2013-08-29 2016-05-03 메디아프로두씨온, 에스.엘.유. 영상 프로덕션을 만들기 위한 방법 및 그 시스템
JPWO2015107622A1 (ja) * 2014-01-14 2017-03-23 富士通株式会社 画像処理プログラム、画像処理方法、画像処理装置、および情報処理装置
WO2015107622A1 (ja) * 2014-01-14 2015-07-23 富士通株式会社 画像処理プログラム、表示プログラム、画像処理方法、表示方法、画像処理装置、および情報処理装置
JP2018503279A (ja) * 2014-10-22 2018-02-01 華為技術有限公司Huawei Technologies Co.,Ltd. インタラクティブな動画生成
JP2019154045A (ja) * 2014-10-22 2019-09-12 華為技術有限公司Huawei Technologies Co.,Ltd. インタラクティブな動画生成
KR101666918B1 (ko) * 2015-06-08 2016-10-17 주식회사 솔박스 스트리밍 서비스에서의 영상 스킵 및 검색 처리를 위한 방법 및 그 장치
JP2022527572A (ja) * 2019-03-21 2022-06-02 ジェームス フィオレンティーノ,マイケル 階層化メディアを生成すること、分配すること、及び階層化メディアと対話することのためのプラットフォーム、システム及び方法
JP7333825B2 (ja) 2019-03-21 2023-08-25 ジェームス フィオレンティーノ,マイケル 階層化メディアを生成すること、分配すること、及び階層化メディアと対話することのためのプラットフォーム、システム及び方法
JPWO2020261313A1 (ja) * 2019-06-24 2020-12-30
WO2020261313A1 (ja) * 2019-06-24 2020-12-30 日本電信電話株式会社 画像符号化方法、及び画像復号方法
JP7273339B2 (ja) 2019-06-24 2023-05-15 日本電信電話株式会社 画像符号化方法、及び画像復号方法
KR102110195B1 (ko) * 2019-08-09 2020-05-14 주식회사 볼트홀 응용 프로그램의 스트리밍 영상 제공 장치 및 방법
WO2021029756A1 (ko) * 2019-08-09 2021-02-18 주식회사 볼트홀 응용 프로그램의 스트리밍 영상 제공 장치 및 방법

Also Published As

Publication number Publication date
MXPA02004015A (es) 2003-09-25
TWI229559B (en) 2005-03-11
CN1402852A (zh) 2003-03-12
TW200400764A (en) 2004-01-01
WO2001031497A1 (en) 2001-05-03
HK1048680A1 (zh) 2003-04-11
BR0014954A (pt) 2002-07-30
AU1115001A (en) 2001-05-08
NZ518774A (en) 2004-09-24
CA2388095A1 (en) 2001-05-03
KR20020064888A (ko) 2002-08-10
US20070005795A1 (en) 2007-01-04
EP1228453A4 (en) 2007-12-19
EP1228453A1 (en) 2002-08-07

Similar Documents

Publication Publication Date Title
JP2003513538A (ja) オブジェクト指向ビデオシステム
Koenen MPEG-4 multimedia for our time
JP5113294B2 (ja) マルチメディアシステムにおけるユーザインターフェースサービスを提供する装置及び方法
JP4959504B2 (ja) 適応制御を行うことができるmpegコード化オーディオ・ビジュアルオブジェクトをインターフェイスで連結するためのシステムおよび方法
US8677428B2 (en) System and method for rule based dynamic server side streaming manifest files
KR101560183B1 (ko) 사용자 인터페이스를 제공/수신하는 방법 및 장치
JP2003522348A (ja) ウェブページを再フォーマットするための方法及び装置
TWI729430B (zh) 浸入式媒體內容覆蓋的方法和裝置
US7320106B2 (en) User interface system, scene description generating device and method, scene description converting device and method, recording medium, and sending medium
Laghari et al. The state of art and review on video streaming
KR101944601B1 (ko) 기간들에 걸쳐 오브젝트들을 식별하기 위한 방법 및 이에 대응하는 디바이스
TWI815187B (zh) 適應性媒體串流系統之伺服器側串流適應系統和方法
US20220116677A1 (en) Method, system, and computer readable recording medium for implementing seamless switching mode between channels in multi-stream live transmission environment
Signes Binary Format for Scene (BIFS): Combining MPEG-4 media to build rich multimedia services
AU2007216653A1 (en) An object oriented video system
KR20020021420A (ko) 스마일 에디터를 이용한 정보 제공방법 및 시스템
Puri et al. Overview of the MPEG Standards
KR100317299B1 (ko) Mpeg-4 화상회의를 위한 멀티미디어 정보구조와mpeg-4 화상회의 시스템
Law et al. The MPEG-4 Standard for Internet-based multimedia applications
Pereira et al. MPEG-4-opening new frontiers to broadcast services
KR100393756B1 (ko) 동영상 압축 파일의 생성방법
CN113542873A (zh) 数据处理方法及装置、存储介质、电子设备
Viljoen The Specification and Design of a Prototype 2-D MPEG-4 Authoring Tool
De Pietro Multimedia Applications for Parallel and Distributed Systems
Srivastava Broadcasting in the new millennium: A prediction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706