JP2001512637A - オブジェクト指向オーディオ−ビジュアル端末及びビットストリーム構造 - Google Patents

オブジェクト指向オーディオ−ビジュアル端末及びビットストリーム構造

Info

Publication number
JP2001512637A
JP2001512637A JP53587898A JP53587898A JP2001512637A JP 2001512637 A JP2001512637 A JP 2001512637A JP 53587898 A JP53587898 A JP 53587898A JP 53587898 A JP53587898 A JP 53587898A JP 2001512637 A JP2001512637 A JP 2001512637A
Authority
JP
Japan
Prior art keywords
objects
scene
visual
audio
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP53587898A
Other languages
English (en)
Other versions
JP4393591B2 (ja
Inventor
アクレサンドロス エレフセリアディス
ハリ カルヴァ
Original Assignee
ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=21896290&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2001512637(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク filed Critical ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Publication of JP2001512637A publication Critical patent/JP2001512637A/ja
Application granted granted Critical
Publication of JP4393591B2 publication Critical patent/JP4393591B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Stereophonic System (AREA)

Abstract

(57)【要約】 オブジェクト指向ビテオ又はオーディオ−ビジュアル(AV)端末で処理すべき情報として、オブジェクト指向ビットストリームは、オブジェクト、構成情報及びシーン境界画定情報を有する。このようなビットストリーム構成によって、オンライン編集、例えば、カット、ペースト、挿入/削除、グループ化及び特別な機能を実行することができる。編集を簡単にするために、AVオブジェクト及びその構成情報を、個別の論理チャネル(LC)上で送信し及びその上にアクセスする。最初の表示時間を超える寿命をデコーダ中に有するオブジェクトは、選択した満了時間まで再使用のためにキャッシュされる。システムは、デマルチプレクサ(1)と、AV端末の動作を制御するコントローラ(2)と、入力バッファ(3)と、AVオブジェクトデコーダ(4)と、復号化されたデータ用のバッファ(4’)と、コンポーザ(5)と、ディスプレイ(6)と、オブジェクトキャッシュ(7)とを有する。

Description

【発明の詳細な説明】 オブジェクト指向オーディオ−ビジュアル端末及びビットストリーム構造技術分野 本発明は、ビデオ及びオーディオ−ビジュアル情報、特にオブジェクト指向情 報の表現、送信、処理及び表示に関するものである。発明の背景 イメージ及びビデオ圧縮技術が開発されており、それは、波形符号化と異なり 、ハイレベル構造の視覚成分を取り出すことを試みるものである。このような構 成は構成「オブジェクト」に関して説明され、それは、よく知られた物理的なオ ブジェクト、例えば、ボール、テーブル、人、曲又は話されたフレーズを表す直 接的な視覚的な関連性を有する。オブジェクトは、各オブジェクトに対して最良 の品質を与える圧縮技術を用いて独立して符号化される。圧縮されたオブジェク トは、オブジェクトがシーン中のどの位置にあるかを端末に知らせる構成情報に 従って端末に送信される。端末は、オブジェクトを復号化し、かつ、構成情報に よって指定されたようにオブジェクトをシーン中に配置する。符号化利得の発生 に加えて、オブジェクト指向表示は、モジュール化、内容の再生、処理の容易化 、個々のイメージ成分とのインタラクションの容易化及びカメラで撮った自然の 成分とコンピュータで発生させた合成内容との統合に有利である。発明の要約 オブジェクト指向又はオーディオ−ビジュアル(AV)端末で処理すべき情報 に対する好適なアーキテクチャ、構造又はフォーマットにおいて、オブジェクト 指向ビットストリームは、オブジェクト、合成情報及びシーン境界画定情報を有 する。ビットストリーム構成によって、オンライン編集、例えば、カット及びペ ースト、挿入/削除、グループ化及び特別の機能を許容する。 編集の容易に関する好適なアーキテクチャにおいて、AVオブジェクト及びそ の構成情報は、個別の論理チャネル(LC)上で送信され又はアクセスされる。 そのアーキテクチャによって「オブジェクト持続」を利用することもでき、これ によって、一部のオブジェクトが、最初の表示時間を超えた選択した満了時間ま での寿命をデコーダ中で有するという利点がある。図面の簡単な説明 図1は、オブジェクト指向オーディオ−ビジュアル端末の一例の機能図である 。 図2aは、オブジェクト指向オーディオ−ビジュアル構成パケットの一例の線 形図である。 図2bは、オブジェクト指向オーディオ−ビジュアルデータパケットの一例の 線形図である。 図2cは、複合構成パケットの一例の線形図である。 図3は、構成を用いたノード及びシーン表現情報の一例の線形図である。 図4は、ストリーム−ノード関連情報の一例の線形図である。 図5は、シーンを用いたノード/グラフ更新情報の一例の線形図である。 図6は、オーディオ−ビジュアル端末設計の一例の線形図である。 図7は、図6による端末中のオーディオ−ビジュアルシステムコントローラの 一例の線形図である。 図8は、図7によるコントローラ中の情報の流れの一例の線形図である。詳細な説明 オーディオ−ビジュアル(AV)端末は、オーディオ−ビジュアル成分を形成 し、表現し又は表示する装置であるシステム構成要素である。これは、オーディ オ−ビジュアル情報が処理されるサーバ機構及びコンピュータ本体の機構と同様 に、モニタスクリーン及び拡声器を有するエンド−ユーザ端末を有する(が、こ れに限定されるものではない。)。AV端末において、所望の機能を、ハードウ ェア、ファームウェア又はソフトウェアで実現することができる。処理すべき情 報を、通信チャネルを通じて遠隔情報源から端末に供給し、それを、例えばロー カルア−カイブから検索することができる。さらに、オブジェクト指向オーディ オ−ビジュアル端末は、端末に供給された構成情報に従ってシーンに結合すべき 個々のオブジェクトの形態の情報を受信する。 図1はこのような端末を示し、それは、論理チャネルLC0を通じてシステム コントローラすなわち「実行部」2に接続するとともに論理チャネルLC1を通 じてバッファ3に接続したデマルチプレクサ(DMUX)1を有する。実行部2 及びバッファ3をテコーダ4に接続し、それを構成ユニット5に接続する。また 、実行部2を構成ユニット5に直接接続し、実行部2は、例えばユーザインタラ クション用の外部入力部を有する。 好適なAVアーキテクチャにおいて、AVオブジェクト及びその構成情報を送 信し又は個別の論理チャネル上でアクセスする。DMUXは、下層からMux2 層を受信し、それを論理チャネル上でデマルチプレクサ処理する。LC0は、実 行部に送られる構成情報を搬送する。他の論理チャネル上で受信したAVオブジ ェクトは、デコーダによって作動すべきバッファに格納される。実行部は、符号 化及び表示タイムスタンプを有する構成情報を受信し、それに応じてデコーダ及 びコンポーザ(composer)に命令を行う。 システムは、オブジェクト構成パケット(OCP)及びオブジェクトデータパ ケット(ODP)を処理する。構成パケットは、オブジェクトID、タイムスタ ンプ及びオブジェクトを発生させるための「構成パラメータ」を有する。オブジ ェクトデータパケットは、オブジェクトID、持続オブジェクトの場合の満了タ イムスタンプ及びオブジェクトデータを有する。 好適には、ユーザインタラクションのような任意の外部入力を、実行部に供給 される前にOCP及び/又はODPに変換する。ネットワーク上で搬送されるビ ットストリームにヘッダは必要でない。しかしながら、ファイルにMPEG4表 示を格納する際にはヘッダが必要とされる。 図2a及び2bは、構成パケット及びデータパケットの構造を更に詳細に示す 。関連の形態は次の通りである。 オブジェクトIDをオブジェクトタイプ及びオブジェクト数から構成する。オ ブジェクトIDのデフォルト長を2バイトとし、それは、オブジェクト数に対す る10ビットと、オブジェクトタイプ(例えば、テキスト、グラフィックス、M PEG2 VOP、構成オブジェクト)に対する6ビットを有する。1023個 より多いオブジェクト又は31個より多いオブジェクトタイプに適応するために 、拡張可能コードを用いる。以下の規則を設ける。オブジェクトIDの最初の6 ビットの0b111111の値は、31及び直後にオブジェクトIDが続くバイ トの値に相当する。オブジェクトIDの10の最下位ビットの0b11.111 1.1111の値は、(存在する場合にオブジェクトタイプ拡張バイトを計数す ることなく)1023及び直後にオブジェクトIDが続く2バイトの値に相当す る。以下のオブジェクトタイプを規定する。 合成オブジェクト(16−ビットオブジェクトID) 0X0000 シーン形態オブジェクト 0X0001 ノード階層仕様 0X0002 ストリーム−ノード連関 0X0003 ノード/シーン更新 0X0004 合成オブジェクト オブジェクトデータ(オブジェクトタイプ、6の最上位ビット) 0b00.0010 テキスト 0b00.0011 MPEG2 VOP(矩形VOP) 持続オブジェクト(PO)は、後に使用するためにデコーダにセーブすべきオ ブジェクトである。満了タイムスタンプ(ETS)は、数ミリ秒中にPOの寿命 を与える。POは、ETSがなくなった後にデコーダを利用できない。POをシ ーン中で後に使用すべき場合、対応する構成情報をAV端末に送信するだけでよ い。 復号化タイムスタンプ(DTS)は、オブジェクト(アクセスユニット)をデ コーダで復号化する必要があるときを示す。 表示タイムスタンプ(PTS)は、オブジェクト(アクセスユニット)をデコ ーダによって表示すべきときを示す。 寿命タイムスタンプ(LTS)は、オブジェクトがシーン中に表示すべき(数 ミリ秒の)持続時間を与える。LTSは、一部の場合、例えば、フレームを1/ フレーム−レート中すなわち次のフレームが利用できるまで表示するビデオシー ケンスにおいて暗黙であり、いずれの場合も大きい。暗黙LTSは、グラフィッ クス及びテキストを表示する際に用いられる。AVオブジェクトを、その寿命中 に使用するために一度だけ復号化する必要がある。 満了タイムスタンプ(ETS)は、オブジェクト持続の意向をサポートするた めに明記される。オブジェクトは、それを表示した後、ETSによって時間を付 与されるまでデコーダ(キャッシュ)にセーブされる。このようなオブジェクト を、ETSがなくなる前に複数回使用することができる。満了したETSを有す るPOはもはやデコーダを利用できない。 オブジェクト時間基準(OTB)は、付与されたAVオブジェクトエンコーダ の時間の概念を規定する。相違するオブジェクトが相違する時間基準に属するこ とができる。AV端末は、これら時間基準を、MSDL VMで指定したような ローカルのものに適合させる。 オブジェクトクロック基準(OCR)を、OTBの速度をデコーダに搬送する 必要がある場合に用いることができる。この機構によって、OTBをAV端末で 回復し/適合させることかできる。 構成パラメータを用いて、シーンを構成する(シーン中にオブジェクトを配置 する)。これらパラメータは、表示フレームの左上からの移動、回転角、ズーミ ング係数等を有する。 プライオリティは、送信、復号化及び表示に対するオブジェクトのプライオリ ティを表す。MPEG4は、32レベルのプライオリティをサポートする。数が 小さくなるに従ってプライオリティが高くなることを表す。 持続インディケータ(PI)は、オブジェクトが継続するか否かを表す。 継続インディケータ(CI)は、現パケット中のオブジェクトの終了(又は継 続)を表す。 オブジェクトグループ化は、単一動作を有する一組のオブジェクトに適用すべ き動作を容易にする。このような形態を用いて、送信される構成情報の量を最小 にするとともに、独立したサブシーンに基づいて階層シーン構成をサポートする ことができる。コンポーザは構成オブジェクトをグループとして処理する。構成 パケット(CCP)の構成を図2cに示す。 ビットストリーム構成は、構成を表現するとともに表示を制御するオブジェク ト構成パケットと、オブジェクトに対するデータを有するオブジェクトデータパ ケットとを有する。シーンを、一組の構成パケットによって構成する。ビットス トリームは、構成オブジェクト(CCP)を用いることによって、ノード階層と しても既知である階層としてシーンの表示をサポートする。CCPによって、構 成オブジェクトを結合して複雑なオーディオ−ビジュアルシーンを形成すること ができる。 オブジェクト−データパケット: オブジェクトID − min(default)10ビット CI及びPIを結合することができる。 00 − 非持続開始 01 − 持続開始 10 − 継続 11 − オブジェクトの終了 プライオリティ:CI/PIが0b00又は0b01の場合のみ存在する5ビッ ト ETS:CI/PIが0b01である場合に存在する30ビット 予測指向ビデオ符号化に対して、VOP_typeを2ビット(00(I),0 1(P),10(B),11(PB))によって表して、編集を容易にする。 オブジェクト合成パケット 構成パラメータは、MSDL Verification Model,MP EG N1483,Systems Working Draft V2.0の セクション2に規定され、その開示を、ここに参照することによって組み込む。 構成パケット シーン構成パケット(SCP)を用いて、基準シーン幅、高さを変更し、バッ ファをフラッシュし及び他の構成機能を実行する。SCPに対するオブジェクト タイプを0b00.0000とする。これは、1,024個の相違する構成パケ ットを許容する。オブジェクト番号0b00.0000.0000(オブジェク トID 0X0000)を、端末バッファをフラッシュために規定する。 バッファ管理に対する合成制御(オブジェクトID 0x0000) AV端末バッファを、Flush_Cacheフラグ及びScene_Upd ateフラグを用いてフラッシュする。階層シーン構造を用いると、現在のシー ングラフがフラッシュされ、端末はビットストリームから新たなシーンをロード する。フラグを使用することによって、それをフラッシュする代わりに現在のシ ーン構造をセーブすることができる。新たなシーンが開始するときには常に、こ れらフラグを用いて基準シーン幅及び高さを更新する。Flush_Cache フラグをセットする場合、キャッシュがフラッシュされ、(任意の場合には)オ ブジェクトを除去する。Scene_Updateフラグをセットする場合、二 つの可能性がある。(i)Flush_Cacheフラグをセットして、キャッ シュ中のオブジェクトをもはや使用できないようにする。(ii)Flush_C acheフラグをセットせず、導入された新たなシーン(ビットストリーム上で の編集作業)が現在のシーンをスプライスし、シーン中のオブジェクトを新たな シーンの終了後に用いる。任意の場合には、オブジェクトのETSを、導入され た新たなシーンの持続時間中に凍結する。次のシーンを、他のシーン形成パケッ トによって表す。 シーン表現に対する構成制御(オブジェクトID 0x0001) ノードの階層を規定し、シーンを表現する。シーン構成パケットを用いて、A Vオブジェクトの階層としてシーンを表現するのを許容するシーン階層を規定す ることもできる。このようなグラフの各ノードは、リーフをグループ分けするノ ード及び/又はグラフの他のノードの構成AVオブジェクトへのグループ化とな る。各ノード(リーフ)は、図3に示すようなパラメータが続く独自のIDを有 する。 ストリーム−ノードマッピングに対する合成制御(オブジェクトID 0x0 002) 図4に示すように、テーブルエントリは、論理チャネル中の基本オブジェクト ストリームを階層シーンの各ノードに関連させる。ストリームIDは特有である が、ノードIDはそうでない。これは、1個より多いストリームを同一ノードに 関連させることができることを意味する。 シーン更新に対する構成制御(オブジェクトID 0x0003) 図5は、ノードの特定のパラメータを変更することによるシーン階層中のノー ドの更新を示す。グラフそれ自体を、グラフ中でノードを追加/削除することに よって更新することができる。パケット中の更新タイプは、グラフ中で実行すべ きタイプを表す。構造的な実施の形態 以下説明する実施の形態は、オブジェクト指向AVビットストリーム及び端末 アーキテクチャを有する。ビットストリーム設計は、AVオブジェクトを表示す る方法及びこれらを構成する方法を2ビット形態で指定する。AV端末構造は、 2値ビットストリーム中のオブジェクトを復号化し及び表示する方法を指定する 。 AV端末アーキテクチャ 図1及び6を参照すると、デマルチフルクサ1に対する入力を、MPEG−4 のようなオブジェクト指向ビットストリームとし、それは、AVオブジェクトと 、論理チャネル(LC)にマルチプレクサ処理される構成情報とからなる。シー ン中のオブジェクトの構成を、独立した構成指定を有するオブジェクトの集合と して、すなわち、階層シーングラフとして指定することができる。構成及び制御 情報をLC0に含めることができる。制御情報は、シーングラフを更新するため の制御コマンド、デコーダバッファをリセットするための制御コマンド等を有す る。論理チャネルはオブジェクト日付を有する。システムは、AV端末の動作を 制御するコントローラ(すなわち「実行部」)2を有する。 端末は、入力バッファ3と、AVオブジェクトデコーダ4と、復号化されたデ ータ用のバッファ4’と、コンポーザ5と、ディスプレイ6と、オブジェクトキ ャッシュ7とを更に具える。入力ビットストリームを、ネットワーク接続部又は DVD,CD−ROM若しくはコンピュータハードディスクのような局部記憶装 置から読み出すことができる。構成情報を有するLC0はコントローラに供給さ れる。DMUXは、LC1等のオブジェクトを、コントローラによって指定され たバッファのロケーションに格納する。ネットワーク配送の場合、エンコーダ及 びストリームサーバが共同して、入力オブジェクトバッファがオーバフローもア ンダフローもしないようにする。符号化されたデータオブジェクトは、典型的に は関連の復号化タイムスタンプによって付与される復号化時のデコーダによる読 出し時まで入力データバッファに格納される。データオブジェクトをバッファに 書き込む前に、DMUXは、タイムスタンプ及び他のヘッダをオブジェクトデー タパケットから除去し、それを、適切なデコーダに信号送信するコントローラ及 び入力バッファに送信する。テコーダは、コントローラによって信号送信される と、入力バッファ中のデータを復号化し、それをデコーダ出力バッファに格納す る。AV端末は、ユーザインタラクションのような外部入力も処理する。 オブジェクトは、初期表示時間を超えて使用するためにオブジェクトキャッシ ュ7に格納される。そのようなオブジェクトは、関連のノードがシーングラフか ら除去されてもキャッシュ中に存在したままであるが、満了タイムスタンプと称 される関連の時間間隔の満了時にのみ除去される。この形態を、オブジェクトが セッション中に繰り返し用いられる表示において使用することができる。そのよ うなオブジェクトに関連した構成を、適切な更新メッセージを用いて更新するこ とができる。例えば、放送局のロゴを表示の開始時にダウンロードし、同一コピ ーを用いてセッション中で繰り返し表示することができる。続く構成更新によっ て、ディプレ以上のロゴの位置を変更することができる。最初の表示時間を超え て再生されるオブジェクトを、持続オブジェクトと称する。 システムコントローラ(SC) システムコントローラは、AV端末のビットストリームの復号化及び再生を制 御する。始動時に、SCは、ユーザインタラクションから又はセッション中にデ フォルトネットワークアドレスを見ることによって、局部記憶装置又はネットワ ークポートからの読出しを行うためにDMUXを初期化する。初期化の際に制御 論理をプログラムRAMにロードする。命令デコーダは、プログラムから命令を 読出し、それを実行する。実行は、入力バッファからのデータ(構成データ又は 外部データ)の読出し、データRAMに対するオブジェクトテーブルのロードす なわち更新、オブジェクトタイマのロード又は制御信号送信を伴う。 図7は、システムコントローラを更に詳細に示す。DMUXは、入力ビットス トリームを読み出し、LC0の構成データをコントローラに供給する。構成デー タは、AV表示の第1シーンの表現によって開始する。このシーンを、構成パケ ットを用いるオブジェクトの階層集合又は独立したオブジェクト構成パケットの 集合として表現することができる。基本ストリームをシーン表現中のノードに関 連させるテーブルが、シーン表現の直後に続く。コントローラは、オブジェクト ID(ストリームID)を、データRAM中に維持されるオブジェクトリスト及 び描写リストにロードする。描写リストは、表示装置上に描写すべきオブジェク トのリストを有する。ユーザインタラクションによって無効にされるオブジェク トを描写リストから除去する。構成制御パケットを通じて送信されるノード除去 コマンドによって、オブジェクトリストから対応するオブジェクトIDを除去す る。ノード階層は、データRAM中にも維持され、構成更新を受信したときには 常に更新される。 構成デコーダは、構成及び外部データバッファからデータを読出し、これらデ ータを、命令デコーダによって理解されるフォーマットに変換する。外部入力は 、オブジェクトを選択するとともにオブジェクト及びオブジェクト上の予め規定 された動作を無効にし及び有効にするユーザインストラクションを有する。プロ グラム実行中、データRAMに2個のリストが形成される。これらのリストは、 現在デコーダによって処理されているオブジェクトのリスト(オブジェクトID )を有するオブジェクトリスト及びシーン中の有効なオブジェクトのリストを有 する描写リストである。これらリストは、構成情報を受信すると動的に更新され る。例えば、ユーザが外部入力を通じてコマンドを送信することによってオブジ ェクトを隠すことを選択すると、オブジェクトは、ユーザによって指定されるま で描写リストから除去される。これは、外部入力をシステムによって処理する方 法でもある。一部の外部インタラクションがあるときは常に、構成デコーダは、 外部データバッファの読出しを行うとともに、要求された動作を実行する。 また、SCは、デコーダ及びデコーダバッファに復号化及び表示時間を信号送 信するために各AVオブジェクトに対するタイミングを維持する。AVオブジェ クトに対するタイミング情報は、時間基準に関して指定される。端末はシステム クロックを使用して、オブジェクトの時間基準をシステム時間に変換する。復号 化の必要がないオブジェクトに対して、表示タイマのみが必要となる。これらタ イマに、当該AVオブジェクトに対する復号化タイムスタンプ及び表示タイムス タンプをロードする。コントローラは、DMUXから各オブジェクトに対するタ イムスタンプを得る。オブジェクトに対する復号化タイマが切れると、適切なデ コーダに対する信号送信が行われて、入力バッファからデータが読み出されると ともに復号化プロセスを開始する。表示タイマが切れると、当該オブジェクトに 対する復号化データを、表示のためにフレームバッファに転送する。デュアルバ ッファアプローチ(dual buffer approach)を用いて、第 2バッファの内容をモニタに表示する間フレームバッファへの書込みを行うこと ができる。命令デコーダは、リセット信号を送信することによってDMUXすな わち入力バッファをリセットすることができ、これによってこれらをデフォルト 状態に初期化する。 コントローラ中の情報の流れ 図8は、コントローラ中の情報の流れを示す。形態を簡単にするために、命令 デコーダによって実行される動作をグループで示す。3グループはそれぞれオブ ジェクト特性変更、オブジェクトタイミング及び信号送信に関する。 オブジェクト特性変更 これら動作は、基本ストリームIDとも称されるオブジェクトIDを処理する 。最初にシーンがロードされると、シーン中のオブジェクトのオブジェクトID によってシーングラフが形成される。コントローラは、シーン中のオブジェクト 及び描写リストからのオブジェクト中の有効なオブジェクトのリスト(オブジェ クトリスト)を形成し及び維持する。他の動作は、端末が構成パケットを受信す る際に構成パラメータのようなオブジェクト特性を設定し及び更新する。 オブジェクトタイミング このグループの動作は、同期、表示及び復号化に対するオブジェクトタイマの 管理を行う。オブジェクト時間基準に関して指定したオブジェクトのタイムスタ ンプは、システム時間に変換され、そのオブジェクトの表示及び復号化時間がセ ットされる。これら動作は、持続オブジェクトに対する満了タイムスタンプもセ ットし及びリセットする。 信号送信 信号送信は、端末の全体に亘る動作を制御する。端末の種々の構成要素が、コ ントローラの信号送信によってセット、リセット及び操作される。コントローラ は、描写リスト中のオブジェクトの復号化時間及び表示時間を検査し、それに応 じてデコーダ及び表示フレームバッファに信号送信する。また、コントローラは 、ネットワーク又は部分記憶装置からの読出しを行うためにDEMUXを初期化 する。コントローラの起動時に、テコーダは、入力バッファからデータを読み出 し、データをデコーダ出力バッファに送信する。復号化されたデータは、コント ローラによって信号送信されると表示装置に送られる。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 エレフセリアディス アクレサンドロス アメリカ合衆国 ニューヨーク州 10027 ―6699 ニューヨーク ウェスト ワンハ ンドレッドトゥエンティース ストリート 500 コロンビア ユニヴァーシティ デパートメント オブ エレクトリカル エンジニアリング (72)発明者 カルヴァ ハリ アメリカ合衆国 ニューヨーク州 10027 ―6699 ニューヨーク ウェスト ワンハ ンドレッドトゥエンティース ストリート 500 コロンビア ユニヴァーシティ デパートメント オブ エレクトリカル エンジニアリング

Claims (1)

  1. 【特許請求の範囲】 1.オブジェクト指向オーディオ−ビジュアル/ビデオデータを表示するに当た り、 (a)複数のオーディオ−ビジュアル/ビデオオブジェクト及びオブジェクト に対する構成情報を時間外に受信し、 (b)前記オブジェクトのうちの少なくとも1個をキャッシュメモリに格納し 、 (c)前記キャッシュメモリに格納されたオブジェクトのうちの1個を有する 前記オブジェクトからシーンを構成し、 (d)構成したシーンを表示することを特徴とする方法。 2.前記オブジェクトのうちの1個を格納することに加えて、前記オブジェクト のうちの1個に対する満了時間データを格納することを更に具えることを特徴と する請求の範囲1記載の方法。 3.前記オブジェクトのうちの少なくとも1個をネットワーク接続部から受信す ることを特徴とする請求の範囲1記載の方法。 4.前記オブジェクトのうちの少なくとも1個をローカルメモリから受信するこ とを特徴とする請求の範囲1記載の方法。 5.前記オブジェクトのうちの少なくとも1個をローカルメモリから受信すると ともに前記少なくとも1個以外のオブジェクトのうちの少なくとも1個をネット ワーク接続部から受信し、前記構成したシーンが、前記オブジェクトのうちの少 なくとも1個及び前記少なくとも1個以外のオブジェクトのうちの少なくとも1 個を有することを特徴とする請求の範囲1記載の方法。 6.インタラクティブユーザ入力に応答することを特徴とする請求の範囲1記載 の方法。 7.前記応答が、前記オブジェクトのうちの1個を選択すること、それを有効に すること及びそれを無効にすることのうちの少なくとも1個を具えることを特徴 とする請求の範囲6記載の方法。 8.オブジェクト指向オーディオ−ビジュアル/ビデオデータを表示する装置で あって、 (a)複数のオーディオ−ビジュアル/ビデオオブジェクト及びそのオブジェ クトに対する構成情報の時間外の取り出しを制御する制御回路と、 (b)前記オブジェクトのうちの少なくとも1個を格納するキャッシュメモリ と、 (c)このキャッシュメモリに結合され、前記格納メモリに格納されたオブジ ェクトのうちの1個を有する前記ビデオオブジェクトからシーンを構成する構成 回路と、 (d)構成したシーン用のディスプレイとを具えることを特徴とする装置。 9.オブジェクト指向オーディオ−ビジュアル/ビデオデータを表示する装置で あって、プロセッサを具え、このプロセッサが、 (a)複数のオーディオ−ビジュアル/ビデオオブジェクト及びオブジェクト に対する構成情報の時間外の取り出しを制御し、 (b)前記オブジェクトのうちの少なくとも1個をキャッシュメモリに格納し 、 (c)前記キャッシュメモリに格納されたオブジェクトのうちの1個を有する 前記ビデオオブジェクトからシーンを構成し、 (d)構成したシーンを表示するように命令されるようにしたことを特徴とす る装置。 10.オブジェクト指向オーディオ−ビジュアル/ビデオデータを表示する装置 であって、 (a)複数のオーディオ−ビジュアル/ビデオオブジェクト及び前記オブジェ クトに対する構成情報の時間外の取り出しを制御する手段と、 (b)前記オブジェクトのうちの少なくとも1個をキャッシュメモリに格納す る手段と、 (c)前記キャッシュメモリに結合され、前記キャッシュメモリに格納された オブジェクトのうちの1個を有する前記ビデオオブジェクトからシーンを構成す る手段と、 (d)前記シーンを表示する手段とを具えることを特徴とする装置。
JP53587898A 1997-02-14 1998-02-13 オブジェクト指向オーディオ−ビジュアル端末及びビットストリーム構造 Expired - Lifetime JP4393591B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US3777997P 1997-02-14 1997-02-14
US60/037,779 1997-02-14
PCT/US1998/002668 WO1998036559A1 (en) 1997-02-14 1998-02-13 Object-based audio-visual terminal and bitstream structure

Publications (2)

Publication Number Publication Date
JP2001512637A true JP2001512637A (ja) 2001-08-21
JP4393591B2 JP4393591B2 (ja) 2010-01-06

Family

ID=21896290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53587898A Expired - Lifetime JP4393591B2 (ja) 1997-02-14 1998-02-13 オブジェクト指向オーディオ−ビジュアル端末及びビットストリーム構造

Country Status (9)

Country Link
US (9) US8421923B2 (ja)
EP (3) EP1276326A3 (ja)
JP (1) JP4393591B2 (ja)
AT (1) ATE331390T1 (ja)
CA (1) CA2281538C (ja)
DE (1) DE69835039T2 (ja)
ES (1) ES2266396T3 (ja)
HK (1) HK1053929A1 (ja)
WO (1) WO1998036559A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1276326A3 (en) 1997-02-14 2003-12-10 The Trustees of Columbia University in the City of New York Object based audio visual terminal and bitstream structure
US6295380B1 (en) * 1997-02-27 2001-09-25 Matsushita Electric Industrial Co., Ltd. Object data processing apparatus, object data recording apparatus, data storage media, data structure for transmission
US7920143B1 (en) * 1997-03-27 2011-04-05 At&T Intellectual Property Ii, L.P. Method for defining animation parameters for an animation definition interface
US6535530B1 (en) 1997-07-23 2003-03-18 Matsushita Electric Industrial Co., Ltd. Apparatus and method for demultiplexing multiplexed data
US7630570B1 (en) * 1998-05-06 2009-12-08 At&T Intellectual Property Ii, L.P. Method and apparatus to prioritize video information during coding and decoding
US6580756B1 (en) * 1998-12-11 2003-06-17 Matsushita Electric Industrial Co., Ltd. Data transmission method, data transmission system, data receiving method, and data receiving apparatus
US7000245B1 (en) 1999-10-29 2006-02-14 Opentv, Inc. System and method for recording pushed data
US6970641B1 (en) 2000-09-15 2005-11-29 Opentv, Inc. Playback of interactive programs
US8250617B2 (en) 1999-10-29 2012-08-21 Opentv, Inc. System and method for providing multi-perspective instant replay
ATE254822T1 (de) * 1999-10-29 2003-12-15 Opentv Corp System und verfahren zur aufnahme von push daten
JP2001189713A (ja) * 1999-12-28 2001-07-10 Toshiba Corp データ伝送装置およびデータ伝送方法
WO2002015564A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia applications
US6496217B1 (en) * 2001-06-12 2002-12-17 Koninklijke Philips Electronics N.V. Video communication system using model-based coding and prioritzation techniques
JP2003018580A (ja) * 2001-06-29 2003-01-17 Matsushita Electric Ind Co Ltd コンテンツ配信システムおよび配信方法
US6814842B1 (en) 2001-12-14 2004-11-09 Networks Associates Technology, Inc. System and method for organizing objects of a voice call in a tree representation
US6970823B1 (en) 2001-12-14 2005-11-29 Networks Associates Technology, Inc. System, method and computer program product for monitoring voice application calls over a network
US6604139B1 (en) 2001-12-14 2003-08-05 Networks Associates Technology, Inc. Voice protocol filtering system and method
KR100497497B1 (ko) 2001-12-27 2005-07-01 삼성전자주식회사 엠펙 데이터의 송수신시스템 및 송수신방법
JP4408677B2 (ja) * 2002-11-29 2010-02-03 キヤノン株式会社 受信装置及び受信方法
EP1499131A1 (en) * 2003-07-14 2005-01-19 Deutsche Thomson-Brandt Gmbh Method and apparatus for decoding a data stream in audio video streaming systems
US7711840B2 (en) * 2003-10-23 2010-05-04 Microsoft Corporation Protocol for remote visual composition
JP2006261860A (ja) * 2005-03-15 2006-09-28 Toshiba Corp 情報再生方法及び情報再生装置
KR100929073B1 (ko) * 2005-10-14 2009-11-30 삼성전자주식회사 휴대 방송 시스템에서 다중 스트림 수신 장치 및 방법
KR100733965B1 (ko) 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
KR100942142B1 (ko) * 2007-10-11 2010-02-16 한국전자통신연구원 객체기반 오디오 콘텐츠 송수신 방법 및 그 장치
CN101859333A (zh) * 2010-05-17 2010-10-13 山东大学 数字电视处理芯片多核系统片上网络拓扑结构
US9838823B2 (en) * 2013-04-27 2017-12-05 Intellectual Discovery Co., Ltd. Audio signal processing method
US9286383B1 (en) 2014-08-28 2016-03-15 Sonic Bloom, LLC System and method for synchronization of data and audio
US11130066B1 (en) 2015-08-28 2021-09-28 Sonic Bloom, LLC System and method for synchronization of messages and events with a variable rate timeline undergoing processing delay in environments with inconsistent framerates
US20170344523A1 (en) * 2016-05-25 2017-11-30 Samsung Electronics Co., Ltd Method and apparatus for presentation customization and interactivity
WO2022211459A1 (ko) * 2021-04-02 2022-10-06 현대자동차주식회사 세그멘테이션을 이용하는 비디오 코딩방법 및 장치

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4899299A (en) * 1987-12-23 1990-02-06 International Business Machines Corporation Method for managing the retention of electronic documents in an interactive information handling system
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
JP2654324B2 (ja) * 1991-12-31 1997-09-17 インターナショナル・ビジネス・マシーンズ・コーポレイション マルチメディア・データ処理システム及びマルチメディア・データ処理システムの動作方法
US5590252A (en) * 1992-04-29 1996-12-31 Canon Kabushiki Kaisha Video processor system and audio processor system
JPH07325934A (ja) * 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5450140A (en) * 1993-04-21 1995-09-12 Washino; Kinya Personal-computer-based video production system
JP3427416B2 (ja) * 1993-05-25 2003-07-14 ソニー株式会社 多重化データ分離装置および方法
US5557342A (en) * 1993-07-06 1996-09-17 Hitachi, Ltd. Video display apparatus for displaying a plurality of video signals having different scanning frequencies and a multi-screen display system using the video display apparatus
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5852669A (en) * 1994-04-06 1998-12-22 Lucent Technologies Inc. Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video
US5592602A (en) * 1994-05-17 1997-01-07 Macromedia, Inc. User interface and method for controlling and displaying multimedia motion, visual, and sound effects of an object on a display
WO1996007979A1 (en) * 1994-09-08 1996-03-14 Andrew Welch Method and apparatus for determining the location of a reflective object within a video field
US5781184A (en) * 1994-09-23 1998-07-14 Wasserman; Steve C. Real time decompression and post-decompress manipulation of compressed full motion video
US5760838A (en) * 1994-09-30 1998-06-02 Intel Corporation Method and system for configuring a display
US5541662A (en) 1994-09-30 1996-07-30 Intel Corporation Content programmer control of video and data display using associated data
EP1271957B1 (en) * 1994-12-20 2006-05-24 Matsushita Electric Industrial Co., Ltd. Object-based digital image predictive coding and transfer method and apparatus, and decoding apparatus
US5826102A (en) * 1994-12-22 1998-10-20 Bell Atlantic Network Services, Inc. Network arrangement for development delivery and presentation of multimedia applications using timelines to integrate multimedia objects and program objects
US5943046A (en) * 1995-07-19 1999-08-24 Intervoice Limited Partnership Systems and methods for the distribution of multimedia information
US5896176A (en) * 1995-10-27 1999-04-20 Texas Instruments Incorporated Content-based video compression
US5784620A (en) * 1995-11-15 1998-07-21 Philips Electronics North America Corp. Object-oriented system having shared-persistent class pattern
KR100211056B1 (ko) * 1995-12-23 1999-07-15 이계철 다수개의 비디오에 대한 윈도우 제어방법
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
US5778098A (en) * 1996-03-22 1998-07-07 Microsoft Corporation Sprite coding
KR100209412B1 (ko) * 1996-05-10 1999-07-15 전주범 비디오 신호의 유호 색차 성분 부호화 방법
US6084912A (en) * 1996-06-28 2000-07-04 Sarnoff Corporation Very low bit rate video coding/decoding method and apparatus
US5880792A (en) * 1997-01-29 1999-03-09 Sarnoff Corporation Command and control architecture for a digital studio
US6134269A (en) * 1996-09-25 2000-10-17 At&T Corp Fixed or adaptive deinterleaved transform coding for image coding and intra coding of video
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US6512775B1 (en) * 1996-11-08 2003-01-28 The Trustees Of Columbia University In The City Of New York Method and apparatus for a programmable bitstream parser for audiovisual and generic decoding systems
US5872565A (en) * 1996-11-26 1999-02-16 Play, Inc. Real-time video processing system
US6047088A (en) * 1996-12-16 2000-04-04 Sharp Laboratories Of America, Inc. 2D mesh geometry and motion vector compression
EP1042736B1 (en) * 1996-12-30 2003-09-24 Sharp Kabushiki Kaisha Sprite-based video coding system
US6148026A (en) * 1997-01-08 2000-11-14 At&T Corp. Mesh node coding to enable object based functionalities within a motion compensated transform video coder
US6028539A (en) * 1997-02-07 2000-02-22 Matsushita Electric Industrial Co., Ltd. Buffer control method, and decoding apparatus performing buffer control
EP1276326A3 (en) 1997-02-14 2003-12-10 The Trustees of Columbia University in the City of New York Object based audio visual terminal and bitstream structure
US6005980A (en) * 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
JP4726096B2 (ja) * 1997-04-07 2011-07-20 エイ・ティ・アンド・ティ・コーポレーション Mpegコード化オーディオ・ビジュアル対象物を表すビット・ストリームの発生およびインターフェースで連結するためのシステムおよび方法
JP4832619B2 (ja) * 1997-04-07 2011-12-07 エイ・ティ・アンド・ティ・コーポレーション 対象物をベースとするオーディオ・ビジュアル情報を処理するためのシステムおよび方法
CA2257577C (en) * 1997-04-07 2002-03-19 At&T Corp. System and method for interfacing mpeg-coded audiovisual objects permitting adaptive control
GB9712724D0 (en) * 1997-06-18 1997-08-20 Holmes Steven Method and apparatus for interaction with broadcast television content
US6233356B1 (en) * 1997-07-08 2001-05-15 At&T Corp. Generalized scalability for video coder based on video objects
WO1999019864A2 (en) * 1997-10-15 1999-04-22 At & T Corp. Improved system and method for processing object-based audiovisual information
US6414678B1 (en) * 1997-11-20 2002-07-02 Nintendo Co., Ltd. Image creating apparatus and image display apparatus
US7199836B1 (en) * 1998-02-13 2007-04-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
US6621932B2 (en) * 1998-03-06 2003-09-16 Matsushita Electric Industrial Co., Ltd. Video image decoding and composing method and video image decoding and composing apparatus
US7149770B1 (en) * 1999-01-29 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and system for client-server interaction in interactive communications using server routes
JP4151158B2 (ja) * 1999-06-14 2008-09-17 ソニー株式会社 シーン記述生成装置及び方法

Also Published As

Publication number Publication date
HK1053929A1 (zh) 2003-11-07
US20150095040A1 (en) 2015-04-02
DE69835039D1 (de) 2006-08-03
US8917357B2 (en) 2014-12-23
US8922717B2 (en) 2014-12-30
US20070165139A1 (en) 2007-07-19
EP1209915A2 (en) 2002-05-29
US20090245389A1 (en) 2009-10-01
US20130159006A1 (en) 2013-06-20
DE69835039T2 (de) 2007-07-12
ATE331390T1 (de) 2006-07-15
US20110007219A1 (en) 2011-01-13
US8531608B2 (en) 2013-09-10
US20130314602A1 (en) 2013-11-28
EP1010318A4 (en) 2001-01-31
EP1209915A3 (en) 2003-07-09
ES2266396T3 (es) 2007-03-01
US20170069350A1 (en) 2017-03-09
CA2281538C (en) 2006-01-03
EP1209915B1 (en) 2006-06-21
US8115873B2 (en) 2012-02-14
EP1276326A2 (en) 2003-01-15
CA2281538A1 (en) 1998-08-20
EP1276326A3 (en) 2003-12-10
US20140368739A1 (en) 2014-12-18
US8421923B2 (en) 2013-04-16
JP4393591B2 (ja) 2010-01-06
WO1998036559A1 (en) 1998-08-20
EP1010318A1 (en) 2000-06-21
US8854552B2 (en) 2014-10-07
US20120105727A1 (en) 2012-05-03

Similar Documents

Publication Publication Date Title
JP4393591B2 (ja) オブジェクト指向オーディオ−ビジュアル端末及びビットストリーム構造
US7199836B1 (en) Object-based audio-visual terminal and bitstream structure
JP3407287B2 (ja) 符号化復号システム
JP2001511629A (ja) デジタルトランスポートストリーム処理
JP2003511918A (ja) デジタル・ビデオ・システムにおけるトリックモード生成のための方法および装置
JP2002502169A (ja) 会話形通信におけるクライアント−サーバインタラクションの方法及びシステム
JP4343411B2 (ja) 画像処理方法及び装置と再生方法とプログラム及び記憶媒体
EP1613089A1 (en) Object-based audio-visual terminal and corresponding bitstream structure
KR100984915B1 (ko) 오디오 비디오 스트리밍 시스템에서 데이터 스트림을디코딩하기 위한 방법 및 장치
JP4289753B2 (ja) 再生方法及び装置と表示装置
JP2001016582A (ja) 画像処理装置およびその方法
Puri et al. Scene description, composition, and playback systems for MPEG-4
US8639845B2 (en) Method for editing multimedia pages on a terminal using pre-stored parameters of objects appearing in scenes
JP2003009146A (ja) コマンドフレーム及びコマンドフレームを連結する方法
JP2005159878A (ja) データ処理装置及びデータ処理方法、並びにプログラム、記憶媒体
JPH0870422A (ja) 圧縮動画データ編集装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20051102

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20051219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061228

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070419

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091014

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term