JP2008518544A - Mpegストリームのスライシング - Google Patents

Mpegストリームのスライシング Download PDF

Info

Publication number
JP2008518544A
JP2008518544A JP2007538583A JP2007538583A JP2008518544A JP 2008518544 A JP2008518544 A JP 2008518544A JP 2007538583 A JP2007538583 A JP 2007538583A JP 2007538583 A JP2007538583 A JP 2007538583A JP 2008518544 A JP2008518544 A JP 2008518544A
Authority
JP
Japan
Prior art keywords
time value
data stream
frames
frame
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007538583A
Other languages
English (en)
Inventor
ラマンツィン イヴ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2008518544A publication Critical patent/JP2008518544A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Separation By Low-Temperature Treatments (AREA)
  • Superconductors And Manufacturing Methods Therefor (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本発明は、第1データストリーム(ds1)と第2データストリーム(ds2)とを集結する方法に関するものであり、各データストリームは符号化フレーム(I, P)から成り、各符号化フレームは相対時刻値に関連し、データストリームの特定の符号化フレームに絶対時刻値が先行する。この方法は:現在の符号化フレームに対する現在基準時刻値を、前の基準時刻値及び現在の相対時刻値の整数部に基づいて計算するステップと;第1データストリームにおける表示順の最終フレームの基準時刻値に基づいてオフセット時間値を計算するステップと;第2データストリームの前記特定の符号化フレームの絶対時刻値を、これらの絶対時刻値に前記オフセット値を加算することによって修正するステップとを具えている。

Description

(発明の分野)
本発明は2つのデータストリームを集結する方法に関するものである。この方法はあらゆるMPEG4エディタ(編集機)に使用することができ、このエディタはモバイル(移動)電話機のような装置に埋め込まれる。
(発明の背景)
2つのビデオストリームを圧縮領域で集結することは現在研究されているが、その実現方法はまだ提案されていない。両方のストリームが同じパラメータで符号化されていても、MPEG4規格の場合には、これらのストリームを単に連結することはできない。実際に、MPEG4ビデオストリームはビデオオブジェクト・プレーンVOP(Video Object Plane)から成り、各VOPはタイムスタンプ(日時印)に関連する。これらのタイムスタンプは、時間軸の連続性を保証するために必要である。MPEG4ビデオストリームでは、このタイムスタンプは可変長符号を用いて符号化される。従って、単に各VOPヘッダ中の一部のビットを変更するだけでは、時間軸の連続性を保証することはできない。
明白な取り組み方法は、集結すべき2つのビデオストリームの第2の方の各VOPを復号化し、そしてこれを、上記2つのビデオストリームの第1の方の最後のタイムスタンプを考慮して修正したタイムスタンプで再符号化することである。
しかし、この解決法は不満足なものである、というのは、この方法は、一方では第2ビデオストリームの視覚品質を劣化させ、他方ではリソース(資源)を消費するからである。
(発明の概要)
本発明の目的は、2つのデータストリームを集結する方法及び装置であって、従来技術の方法及び装置より良好な品質を提供する方法及び装置を提案することにある。
本発明の他の目的は、2つのデータストリームを集結する方法及び装置であって、従来技術の方法及び装置よりリソースを消費しない方法及び装置を提案することにある。
この目的のために、本発明による2つのデータストリームを集結する方法は:
現在の符号化フレームに対する基準時刻値を、前の基準時刻値、及び現在の相対時刻値の整数部に基づいて計算するステップと;
前記第1データストリームにおける表示順の最終フレームの前記基準時刻値に基づいて、オフセット時間値を計算するステップと;
前記第2データストリームの特定の符号化フレームの絶対時刻値を、これらの絶対時刻値に前記オフセット時間値を加算することによって修正するステップと
を具えている。
結果として、本発明による方法は、2つのデータストリームを圧縮領域で、符号化されたフレームを復号化も符号化もすることなしに、時間軸の連続性を保証しつつ、集結することができる。従ってこの方法は、従来技術の方法より良好な品質を提供し、かつリソースを消費しない、というのは、本発明の方法は完全な復号化及び再符号化を必要としないからである。
本発明の好適例によれば、上記集結方法はさらに:
前記第2データストリームにおける表示順の第1フレームに対する修正相対時刻値を、前記第1フレームの初期相対時刻値から計算し、前記第1フレームが前記第1データストリームの最終フレームと前記第1フレーム(の初期相対時刻値)との間の時間的ギャップ(間隙)の中央にシフト(移動)されるような値にするステップと;
ヌル(0)データの内容を有する非符号化フレームを前記第2データストリーム中に加え、前記非符号化フレームは前記初期相対時刻値に関連するステップと
を具えている。
本発明の他の好適例によれば、前記集結方法がさらに:
前記第1データストリーム終わりにある第1組の符号化フレームを復号化し、前記第2データストリームの初めにある第2組の符号化フレームを復号化するステップと;
復号化した前記第1組のフレーム及び前記第2組のフレームを、前記第1組のフレームと前記第2組のフレームとの間の滑らかな遷移が保証される方法で修正するステップと;
前記復号化し修正したフレームを符号化し、これらのフレームに関連する相対時刻値を符号化するステップと
を具えている。
上記他の好適例による集結は、さらに、前記復号化した第1組のフレームと前記復号化した第2組のフレームとの間に少なくとも1つの追加的フレームを生成するステップを具えていることが有益である。前記第2組の最後の復号化フレームも修正しない。
本発明は、2つのデータストリームを集結する方法を実現する装置、及びこうした装置を含むモバイル(移動)装置、及び上記方法を実現するためのプログラム命令を含むコンピュータプログラム製品にも関するものである。
本発明のこれら及び他の態様は、以下に述べる実施例を参照した説明より明らかになる。
以下、本発明の実施例を、図面を参照しながら詳細に説明する
(実施例の詳細な説明)
本発明を、2つのMPEG4ビデオストリームを集結する場合について説明する。しかし、本発明は、より一般的な第1データストリームと第2データストリームとの集結に適用されることは当業者にとって明らかであり、ここで各データストリームは符号化フレームから成り、各符号化フレームは相対時刻値に関連し、データストリームの特定の符号化フレームに絶対時刻値が先行する。他の例として、上記データストリームがオーディオ・ストリームである。上記絶対時刻値は、例えば、データストリームにランダムアクセスするために使用する。2つのMPEG4ビデオストリームを集結する場合には、上記符号化フレームはビデオオブジェクト・プレーン(VOP)と称される。
MPEG4は、非常にフレキシブルな符号化のフレームワーク(枠組)を提供することを目標とし、機能性、フォーマット、ビットレート、またはフレームレートの意味で広範囲の応用をカバーする。フレームレートに関しては、MPEG4は65,535フレーム/秒(fps)までのあらゆるレートをカバーし、そしてこのフレームレートは可変かつ非整数とすることができる。結果として、デコーダ(復号化器)側で時間的に一貫した表示を可能にするために、各VOPの合成時刻をビットストリーム内で伝送しなければならない。広範囲のフレームレートをカバーすることを考えて、時間を符号化するための効率的な方法が設計されている。
MPEG4ビデオの基本時間単位は秒である。1fpsより大きいあらゆるフレームレートをカバーするためには、秒の再分割を規定しなければならず、この再分割をチック(刻み)と称する。図1は時間分割を示す。チックticは時間符号化の基本要素であり、このことは、すべての時間値がチックの整数倍として表現されることを意味する。チックの数は、vop_time_increment_resolution(VOP時間増分分解能)vtirフィールドを用いてビデオオブジェクト層VOL(Video Object Layer)内に伝送される。このvtirフィールドは、1秒(s)に含まれるチック数ticを示す。従って、vitrフィールドは1000/vtir(ms)のチック持続時間を与える。このvtirフィールドは符号化フレームレートを示さず、VOL中で見つかる最大フレームレートを示すに過ぎない、というのは、最大でもVOPが各チックに対応するからである。図1の例では、1秒間にvtir=6チックが存在し、このためチック持続時間は166msである。
ビデオストリーム中では、時刻はGOV(VOPのグループ用)と称される特定ヘッダによっても搬送される。GOVヘッダは、時/分/秒として符号化された絶対時刻値を搬送するヘッダである。このGOVヘッダはビデオストリームにおけるランダムアクセスを可能にする、というのは、GOVヘッダには常に、内部符号化されたI−VOP(即ち、他のVOPを参照せずに符号化されたVOP)が続き、このため復号化を開始するために前の復号化情報を必要としないからである。
そして、各VOPの合成時刻(またはタイムスタンプ)を、VOPヘッダの2フィールド、即ちvop_time_increment(VOP時間増分)vti及びmodulo_time_base(モジュロ・タイムベース)mtbを通して符号化する。mtbフィールドは、VOPが属する秒を定めることを可能にし、そしてvtiフィールドは、この秒内のVOPの正確な位置をチック数で定める。
VOPの合成時刻は差分的に符号化される:このことは、あるVOPに関連するvti及びmtbフィールドが、整数の秒数で表現される基準の秒の値srefに対して相対的に符号化される(即ち、vti及びmtbフィールドは相対時刻値を与える)ことを意味する。
I−VOP及び予測符号化されたP−VOP(即ち、前のP−VOPまたはI−VOPを参照して符号化されたVOP)用のベース(基本)層では、この基準の秒srefは秒未満を切り捨てた時刻によって規定され、前のGOV、I−VOPまたはP−VOP中で復号化順に復号化される。双方向的に予測され符号化されたB−VOP(即ち、以前及び将来のP−VOPまたはI−VOPを参照して符号化されたVOP)については、この基準の秒srefは秒未満を切り捨てた時刻によって規定され、前のGOV、I−VOPまたはP−VOP中で表示順に復号化される。図2に、所定のビデオストリームのベース層についての、基準の秒の値の進展を示す。エンハンス(拡張)層では、すべてのVOPについて、この基準の秒srefは秒未満を切り捨てた時刻によって規定され、前のGOVまたはVOP中で表示順に符号化される。
mtbフィールドは、秒未満を切り捨てたVOPの合成時刻と前記基準の秒の値との差を示す。ビデオストリーム中では、このmtbフィールドは、この差の値と同数の’1’で符号化され、これに’0’が続く。vtiフィールドは、vtir値を符号化することができるために必要なビット数を用いて符号化される。例えば、1秒当たり2チックしかない場合には、2ビットのみを用いてvop_time_incrementフィールドを符号化するのに対し、1秒当たり25チックが存在する場合には5ビットを必要とする。
VOPの合成時刻は、秒数とvtir値未満のチック数の合計として表現される。
VOPの合成時刻は、各VOPを復号化した後に、あるいはGOVヘッダに出会った際に更新される。
第1のMPEG4ビデオストリームと第2のMPEG4ビデオストリームとを集結するために、本発明による方法は次のステップを具えている。
第1ステップでは、合成時刻または現在時刻値t[i]を、最後のGOVヘッダ、I−VOP、P−VOPまたはB−VOPによって与えられる前の基準時刻値(即ち基準の秒)sref[t−k]に基づいて、第1ビデオストリームds1の符号化VOP F[i](ここにFはI、PまたはB−VOPである)毎に計算し、ここにkはGOV当りのBフレーム数及び符号化層(ベースまたはエンハンス)、及び上述したように値mtb[i]及びvti[i]によって与えられる現在の相対時刻値に依存する整数である。換言すれば、チック数で表現される現在の合成時刻は次式により計算される:
t[i]=(sref[i−k]+mtb[i])×vtir+vti[i]
そして、現在の基準時刻値sref[i]は、I−VOPについてはベース層において、あるいはあらゆるVOPについてはエンハンス層において、次式のように導出される:
sref[i]=sref[i−k]+mtb[i]
第2のステップでは、オフセット時間値を、第1ビデオストリームにおける表示順の最後のVOP P[n]基準時刻値sref[n]に基づいて計算する。このオフセット時間値offは次式のように計算する:
vti[n]<vti[n+1]の場合には、off=sref[n]、
vti[n]≧vti[n+1]の場合には、off=sref[n]+1
ここに、n+1は第2ビデオストリームds2の最初のVOPの指標(インデックス)である。
第3のステップでは、第2ビデオストリームds2のGOVに含まれる初期絶対時刻値tgov2_iniを、次式のように前記オフセット時間値offをこれらの初期絶対時刻値に加算して、修正した絶対時刻値tgov2_modを得ることによって修正する:
tgov2_mod=tgov2_ini+off
従って、第2ビデオストリームds2の、第1I−VOP I[n+1]の直前の第1GOV中で搬送される絶対時刻値は、第2ビデオストリームの最初のVOPの合成時刻が第1ビデオストリームの最後のVOPの合成時刻にすぐ続くように、そして第1ビデオストリームを再生した直後に第2ビデオストリームを再生することができるような値に計算する。そして、第2ビデオストリーム中で出会う各GOVによって搬送される値は、計算したオフセット時間値を加算することによって修正される。
VOPに関連する相対時刻値は基準の秒中の位置として与えられるので、第1データストリームの最終フレームと第2データストリームの第1フレームとの間に時間的ギャップδtが存在し得る。このギャップδtはチック数で表現され、そして1秒までに及び得る。エンドユーザの視点からは、この結果は、この時間的ギャップの長さ中には、第1データストリームの最終フレーム上でのフリーズ(静止)を生じさせ、そして通常のように再生が再開される。
この問題を克服するために、本発明の実施例による方法はさらに、次のステップを具えている。
第1ステップでは、第2データストリームの第1フレームI[n+1]に対して新たな基準時刻値sref’[n+1]を計算し、即ち、新たな値mtb’[n+1]及びvti’[n+1]を計算し、I[n+1]が上記時間的ギャップの中央に移動する値にする。
このことを図3に示す。第1データストリームにおける表示順の最終フレームP[n]の合成時刻はt[n]であり、第2データストリームの第1フレームI[n+1]の合成時刻はt[n+1]=t[n]+δtである。チック数が偶数である場合には、フレームI[n+1]は合成時刻t’[n+1]=t[n]+δt/2にシフトされる。対応する相対時刻値(即ちmtb’[n+1]及びvti’[n+1])は、これに応じて導出される。チック数が奇数である場合には、フレームI[n+1]は合成時刻t’[n+1]=t[n]+(δt±1)/2にシフトされる。対応する相対時刻値(即ちmtb’[n+1]及びvti’[n+1])も、これに応じて導出される。
そして、第2のステップでは、新たなフレームNCF、例えば非符号化フレーム(即ち、MPEG規格において符号化されないVOPとも称されるヌル(0)の内容を有するフレーム)を加える。この非符号化フレームは、第2データストリームの第1フレームI[n+1]の初期合成時刻t[n+1]を有し、従って、同じ相対時刻値(即ち、mtb[n+1]及びvti[n+1]フィールドと同じ値)を有する。この非符号化フレームは、第2データストリームのすべての後続フレームの時間軸の連続性を保証する。エンドユーザにとっては、このことは、フリーズ(静止)が上記時間的ギャップの半分の持続時間中継続する印象を生じさせる、というのは、エンドユーザは時間的ギャップの1/2のフリーズを2回観測するからである。
図4に、本発明の他の実施例を表わす。本実施例によれば、2つのデータストリームを集結する方法が次のステップを具えている。
最初のステップ410では、第1データストリームの終わりにある第1組S1の符号化フレーム及び第2データストリームの初めにある第2組S2の符号化フレームを復号化する。この復号化は、予測符号化技法に課せられた制約を考慮に入れなければならないことは、当業者にとって明らかである。MPEG4の場合は、例えば、B−VOP B[n−1]は、その前後の基準VOP、即ち図4ではそれぞれI[n−3]及びP[n]で表わされるVOPが復号化されている場合のみに復号化することができる。同様に、P−VOP P[n]は、その前のVOP、即ち図4ではI[n−3]で表わされるVOPが復号化されている場合のみに復号化することができる。第1組及び第2組の符号化フレームは中間データストリームを構成する。
第2ステップ420では、この中間データストリームを、復号化した第1組の符号化
フレームと第2組の符号化フレームとの間の滑らかな遷移が保証される方法で修正する。例えば、図4に示すように、復号化したフレームにある種の黒幕を加え、この黒幕を徐々に「閉じ」そして徐々に「開く」ことができる。あるいはまた、復号化したフレームを徐々に暗くし、そして徐々に再びオン状態にすることができる。
随意的な第3のステップでは、少なくとも1つの追加的フレームを、上記第1組のフレームと第2組のフレームとの間の時間的ギャップ中に加える。これらの追加的フレームは、これら2組のフレーム間の遷移を改善し、そして第1データストリームにおける表示順の最後の復号化フレーム及び/または第2データストリームにおける表示順の最初の復号化フレームから計算される。
次のステップでは、上記中間データストリームを構成する上記修正した復号化フレーム及び存在すれば上記追加的フレームを符号化し、そしてこれらに関連する相対時刻値も、時間軸におけるこれらのそれぞれの位置に応じて符号化する。
最後のステップでは、第2データストリームのGOVヘッダに含まれる絶対時刻値を、上述したようにこれらの時刻値に上記オフセット時間値を加算することによって修正する。
なお、第2ステップに後続する、上記第1組の符号化フレームを除いた第1データストリーム、上記中間データストリーム、及び上記第2組の符号化フレームを除いた第2データストリームの連結の復号化を変化させないために、第2データストリームの最後の復号化フレームは第2ステップ中に修正しないことが好ましい。
本発明の他の実施例により、時間軸の連続性が保証される。さらに、上記中間データストリームの第1フレームを内部符号化フレームとして再符号化する必要はない。従って本発明の集結方法は、前述したように、3つのデータストリームの単純な連結、及びこれに加えて、上記第2組の符号化フレームを除いた第2データストリームのGOVヘッダによって搬送される値の更新である。
なお、上述した実施例は本発明を例示するものであり限定するものではなく、当業者は、請求項に規定する本発明の範囲を逸脱することなしに多くの代案実施例を設計することができる。これらの請求項では、括弧内に記載した参照符号は請求項を限定するものではない。「具える」及び「具えている」等は、請求項または明細書全体に挙げた以外の要素またはステップの存在を排除するものではない。各要素は複数存在し得る。本発明は、いくつかの別個の要素から成るハードウェアによって、及び適切にプログラムされたコンピュータによって実現することができる。いくつかの手段を挙げた装置の請求項では、これらの手段のいくつかは同一のハードウェア・アイテムによって具体化することができる。互いに異なる従属請求項に特定の方策が挙げられていることは、これらの方策の組合せを有利に用いることはできないことを示すものではない。
チックによる時間軸の分割を示す図である。 第2の基準値の時間軸に沿った進展を示す図である。 本発明による集結方法の実施例を示す図である。 本発明による集結方法の他の実施例を示す図である。

Claims (8)

  1. 第1データストリーム(ds1)と第2データストリーム(ds2)とを集結する方法であって、前記データストリームの各々が符号化フレーム(I,P,B)から成り、前記符号化フレームの各々が相対時刻値に関連し、前記データストリームの特定の前記符号化フレームに絶対時刻値が先行するデータストリームの集結方法において、
    現在の符号化フレームに対する現在の基準時刻値を、前の基準時刻値、及び現在の相対時刻値の整数部に基づいて計算するステップと;
    前記第1データストリームにおける表示順の最終フレームの基準時刻値に基づいて、オフセット時間値を計算するステップと;
    前記第2データストリームの前記特定の符号化フレームの前記絶対時刻値を、これらの絶対時刻値に前記オフセット時間値を加算することによって修正するステップと
    を具えていることを特徴とするデータストリームの集結方法。
  2. さらに、
    前記第2データストリームにおける表示順の第1フレーム(I[n+1])に対する修正相対時刻値を、前記第1フレームの初期相対時刻値から計算し、前記第1フレームが、前記第1データストリームの前記最終フレーム(F[n])と前記第1フレームとの間の時間的ギャップの中央にシフトされる値にするステップと;
    ヌルデータの内容を有し、かつ前記初期相対時刻値に関連する非符号化フレーム(NCF)を前記第2データストリーム中に加えるステップと
    を具えていることを特徴とする請求項1に記載の方法。
  3. 前記第1データストリームの終わりにある第1組の符号化フレーム及び前記第2データストリームの初めにある第2組の符号化フレームを復号化するステップと;
    復号化した前記第1組のフレーム及び前記第2組のフレームを、前記第1組のフレームと前記第2組のフレームとの間の滑らかな遷移が保証される方法で修正するステップと;
    前記復号化し修正したフレームを符号化し、これらのフレームに関連する相対時刻値を符号化するステップと
    を具えていることを特徴とする請求項1に記載の方法。
  4. さらに、前記復号化した前記第1組のフレームと前記第2組のフレームとの間に少なくとも1つの追加的フレームを生成するステップを具えていることを特徴とする請求項3に記載の方法。
  5. 前記復号化した前記第2組のフレームの最後のフレームを修正しないことを特徴とする請求項3に記載の方法。
  6. 第1データストリームと第2データストリームとを集結する装置であって、前記データストリームの各々が符号化フレームから成り、前記符号化フレームの各々が相対時刻値に関連し、前記データストリームの特定の前記符号化フレームに絶対時刻値が先行するデータストリーム集結装置において、
    現在の符号化フレームに対する基準時刻値を、前の基準時刻値、及び現在の相対時刻値の整数部に基づいて計算する手段と;
    前記第1データストリームにおける表示順の最終フレームの基準時刻値に基づいて、オフセット時間値を計算する手段と;
    前記第2データストリームの前記特定の符号化フレームの前記絶対時刻値を、これらの絶対時刻値に前記オフセット時間値を加算することによって修正する手段と
    を具えていることを特徴とするデータストリーム集結装置。
  7. 請求項6に記載の装置を具えたモバイル装置。
  8. プロセッサによって実行した際に、請求項1に記載の方法を実現するためのプログラム命令を具えたコンピュータプログラム製品。
JP2007538583A 2004-10-29 2005-10-27 Mpegストリームのスライシング Pending JP2008518544A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04300748 2004-10-29
PCT/IB2005/053510 WO2006046212A1 (en) 2004-10-29 2005-10-27 Splicing mpeg streams

Publications (1)

Publication Number Publication Date
JP2008518544A true JP2008518544A (ja) 2008-05-29

Family

ID=35482223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007538583A Pending JP2008518544A (ja) 2004-10-29 2005-10-27 Mpegストリームのスライシング

Country Status (8)

Country Link
US (1) US8139646B2 (ja)
EP (1) EP1808022B1 (ja)
JP (1) JP2008518544A (ja)
KR (1) KR20070083861A (ja)
CN (1) CN101091391B (ja)
AT (1) ATE418842T1 (ja)
DE (1) DE602005011991D1 (ja)
WO (1) WO2006046212A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7474327B2 (en) 2002-02-12 2009-01-06 Given Imaging Ltd. System and method for displaying an image stream
EP1855402A1 (en) * 2006-05-11 2007-11-14 Koninklijke Philips Electronics N.V. Transmission, reception and synchronisation of two data streams
US8045836B2 (en) * 2008-01-11 2011-10-25 Texas Instruments Incorporated System and method for recording high frame rate video, replaying slow-motion and replaying normal speed with audio-video synchronization
US8270494B2 (en) * 2008-05-14 2012-09-18 Arcsoft, Inc. Video concatenation for MPEG-4 and H.263 bit streams
US8682142B1 (en) * 2010-03-18 2014-03-25 Given Imaging Ltd. System and method for editing an image stream captured in-vivo
US9060673B2 (en) 2010-04-28 2015-06-23 Given Imaging Ltd. System and method for displaying portions of in-vivo images
GB2491574B (en) * 2011-06-02 2013-11-20 Nds Ltd Content insertion in adaptive streams
CN104735552A (zh) * 2013-12-23 2015-06-24 北京中传数广技术有限公司 一种直播视频标签插入的方法与系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4232209B2 (ja) * 1998-01-19 2009-03-04 ソニー株式会社 圧縮画像データの編集装置及び圧縮画像データの編集方法
JP2000013790A (ja) * 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
ID24586A (id) * 1998-12-21 2000-07-27 Matsushita Electric Ind Co Ltd Perangkat dan metode penyelarasan waktu dengan menggunakan modul basis waktu dan resolusi peningkatan waktu
US6792047B1 (en) * 2000-01-04 2004-09-14 Emc Corporation Real time processing and streaming of spliced encoded MPEG video and associated audio
GB2364459B (en) * 2000-06-30 2004-03-31 Nokia Mobile Phones Ltd Video error resilience
FR2848766B1 (fr) * 2002-12-13 2005-03-11 Thales Sa Procede de commutation de signaux numeriques avant emission, commutateur et signal resultant

Also Published As

Publication number Publication date
WO2006046212A1 (en) 2006-05-04
US8139646B2 (en) 2012-03-20
EP1808022A1 (en) 2007-07-18
ATE418842T1 (de) 2009-01-15
US20090201985A1 (en) 2009-08-13
CN101091391A (zh) 2007-12-19
CN101091391B (zh) 2011-03-16
KR20070083861A (ko) 2007-08-24
EP1808022B1 (en) 2008-12-24
DE602005011991D1 (de) 2009-02-05

Similar Documents

Publication Publication Date Title
JP2008518544A (ja) Mpegストリームのスライシング
JP4510909B2 (ja) 動画像符号化方法
KR101204134B1 (ko) 트랜스포트 데이터 스트림내에서 참조하는 유연성 있는 서브스트림
AU2005204229B2 (en) Image encoding method, image decoding method, and apparatus thereof
US7362906B2 (en) Computational graceful degradation method using priority information in multiple objects case
EP1021039A2 (en) Image processing apparatus and method
TW201032597A (en) Method and apparatus for video coding and decoding
JP5409762B2 (ja) 画像復号化装置および画像復号化方法
TW200715868A (en) Coding dependency indication in scalable video coding
KR100911882B1 (ko) 이미지를 포함하는 디지털 오디오 신호 생성장치 및 방법
TW200850011A (en) System and method for implementing fast tune-in with intra-coded redundant pictures
EP2276192A2 (en) Method and apparatus for transmitting/receiving multi - channel audio signals using super frame
US7844000B2 (en) Method and apparatus for video encoding
JP3927713B2 (ja) 放送受信装置およびその方法
JP4306850B2 (ja) 放送受信装置およびその方法
JP4343411B2 (ja) 画像処理方法及び装置と再生方法とプログラム及び記憶媒体
JP2002142227A (ja) 映像信号の階層型符号化装置および階層型復号化装置
JP4289753B2 (ja) 再生方法及び装置と表示装置
JP4401463B2 (ja) 放送受信装置及びその方法
JP2015177440A (ja) 動画像伝送システム、動画像符号化装置、動画像復号装置及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
TW410298B (en) Video/audio transmission apparatus, video/audio receiving apparatus, data processing apparatus, data processing method, data processing apparatus and data processing method, transmission method and apparatus for waveform data
KR20040028054A (ko) 영상 분할에 기반한 신축적인 동영상 부호화/복호화 장치및 그 방법
Sorokin et al. Coding method for embedding audio in video stream
JP2001217793A (ja) ストリーム生成方法及び装置
KR20040035005A (ko) 비디오 압축을 위한 결정선택방법을 이용한모션정보예측보간

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120807