JP2009290768A - 映像処理装置および映像処理方法 - Google Patents
映像処理装置および映像処理方法 Download PDFInfo
- Publication number
- JP2009290768A JP2009290768A JP2008143507A JP2008143507A JP2009290768A JP 2009290768 A JP2009290768 A JP 2009290768A JP 2008143507 A JP2008143507 A JP 2008143507A JP 2008143507 A JP2008143507 A JP 2008143507A JP 2009290768 A JP2009290768 A JP 2009290768A
- Authority
- JP
- Japan
- Prior art keywords
- stream
- time information
- video
- video processing
- dts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 27
- 239000000284 extract Substances 0.000 claims description 2
- 238000012986 modification Methods 0.000 abstract 1
- 230000004048 modification Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 13
- 238000000926 separation method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/02—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
- H04H60/04—Studio equipment; Interconnection of studios
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/28—Arrangements for simultaneous broadcast of plural pieces of information
- H04H20/30—Arrangements for simultaneous broadcast of plural pieces of information by a single channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4348—Demultiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】再生装置のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続する。
【解決手段】映像処理装置は先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース11と、インタフェース11で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部12とを備える。
【選択図】 図1
【解決手段】映像処理装置は先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース11と、インタフェース11で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部12とを備える。
【選択図】 図1
Description
本発明は、2つの映像音声多重化ストリームをシームレス接続する処理を行う映像処理装置および映像処理方法に関する。
近年では、大容量の映像情報および音声情報をデジタル化して記録または伝送する場合に、MPEG(Moving Picture Experts Group)方式で符号化されることが一般的になっている。このMPEG方式はISO/IEC 11172規格やISO/IEC 13818規格として知られる国際標準の符号化方式であり、例えばデジタル衛星放送、DVDレコーダ、デジタルビデオカメラにおいて映像情報および音声情報を符号化するために利用されている。ISO/IEC 13818規格(すなわち、MPEG−2規格)では、映像情報および音声情報が符号化されたビデオデータの連続する映像ストリームおよび符号化されたオーディオデータの連続する音声ストリームに変換される。ビデオデータはピクチャ単位で符号化されたものであり、動き補償予測の単位である複数のピクチャからなるグループオブピクチャ(GOP)単位に編集される。オーディオデータはオーディオフレーム単位に符号化されたものである。映像ストリームおよび音声ストリームはそれぞれ独立してパケット化され、例えばトランスポートストリーム(Transport Stream)として多重化される。これにより得られた映像音声多重化ストリームは、あるGOPの先頭を含むパケットから、次のGOPの先頭を含むパケットまでの連続するパケットをユニット(VOBU)として編集される。
映像音声多重化ストリームをVOBU境界で先行ストリームと後続ストリームに分割して編集を行うと、この編集後に先行ストリームの終了ポイントの時刻情報と後続ストリームの開始ポイントの時刻情報とが不連続となるギャップが発生しやすい。このギャップは、映像および音声を停止することなく連続的かつ滑らかに再生させる先行および後続ストリームのシームレス接続を困難にする原因となっている。
従来においては、このシームレス接続を行うために先行ストリームおよび後続ストリームをデコードしてから再生時刻のずれを修正し、この修正結果を再エンコードする必要があった。また、時間情報のオフセットを利用した補正によりギャップに対処する方策も提案されている(例えば特許文献1を参照)。
特開2001−320704号公報
しかしながら、特許文献1の技術は、従来のような再エンコード時間を必要としないが、ギャップ調整のために時間情報を管理するハードウェアを再生装置に設ける必要がある。
本発明の目的は、再生装置のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続することが可能な映像処理装置および映像処理方法を提供することにある。
本発明の一観点によれば、先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース部と、インタフェース部で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部とを備える映像処理装置が提供される。
本発明の他の観点によれば、先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取り、先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行う映像処理方法が提供される。
これら映像処理装置および映像処理方法では、先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報が順次抽出され、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えが行われる。これにより、再生装置のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続することが可能となる。
以下、本発明の一実施形態に係るシームレス再生システムについて添付図面を参照して説明する。このシームレス再生システムは映像および音声情報をMPEG方式で符号化して映像音声多重化ストリーム(プログラムストリーム)として記録する例えばデジタルビデオカメラから分割編集結果として順次出力される2つの先行および後続ストリームをシームレス接続して再生するために用いられる。
図1はこのシームレス再生システムの概略的な構成を示す。このシームレス再生システムは先行ストリームおよび後続ストリームをシームレス接続する処理を行う映像処理装置10およびこの映像処理装置10がシームレス接続の処理結果として出力されるストリームを再生する再生装置20により構成される。
映像処理装置10は先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリーム(プログラムストリーム)を順次受け取るインタフェース部11と、インタフェース部11で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えをストリーム変換処理として行うストリーム変換処理部12とを備える。
再生装置20はストリーム分離部21、ビデオバッファ22、オーディオバッファ23、ビデオデコーダ24、オーディオデコーダ25、システム時刻クロック部14、システム制御部27を備える。ストリーム分離部21は、映像処理装置10から出力されるストリームを受け取り、ビデオパケットとオーディオパケットに分離し、ビデオパケットをビデオバッファ22に送り、オーディオパケットをオーディオバッファ23に送る。ビデオバッファ22はビデオパケットを蓄積しながらビデオデコーダ24に送出し、オーディオバッファ23はオーディオパケットを蓄積しながらオーディオデコーダ25に送出する。システム時刻クロック部26はビデオパケットのデコードおよび再生タイミングおよびオーディオパケットのデコードおよび再生タイミングの基準となるシステム時刻(STC:System Time Clock)を発生し、これらビデオおよびオーディオを同期させる。
ビデオデコーダ24は、受け取ったビデオパケットに記述されたタイムスタンプとシステム時刻とを比較して、タイムスタンプに合致するタイミングでデコードおよび再生出力を行う。オーディオデコーダ25は、受け取ったオーディオパケットに記述されたタイムスタンプとシステム時刻とを比較して、タイムスタンプに合致するタイミングでデコードおよび再生出力を行う。
図2は、映像処理装置10の構成例を示す。ここでは、CPU12A、ROM12B、RAM12Cがストリーム変換処理部12を構成し、バスラインによりインタフェース部11に接続される。CPU12Aはストリームに対して様々な処理を行うものである。ROM12BはアプリケーションソフトウェアとしてCPU12Aの制御プログラムや初期データ等を保持するものである。RAM12CはCPU12Aに入出力するデータを一時的に格納するものである。
MPEG方式では、ストリームデータ内の基準時刻情報であるSTC(System Time Clock)をもとに、ピクチャ毎の表示時間を示すPTS(Presentation Time Stamp)と、再生装置10のバッファからデコーダに送る時間(デコード時刻)を示すDTS(Decoding Time Stamp)を利用して、デコード時間と表示時間の時刻制御が行われる。本実施形態では、2種類のMPEG方式のうちのプログラムストリーム形式を想定しているが、トランスポートストリーム形式についても同様である。STCは、プログラムストリームの場合、ストリーム内のSCR(System Clock Reference)をもとに生成される。SCRはストリームの符号化時の基準時間であり、27MHzの精度でプログラムストリームのパックヘッダに記述される。再生システムでは、STCがDTSの時間に到達すると、そのピクチャをデコードし、PTS時刻になるとそのピクチャを表示することになる。図1に示すストリーム分離部は、多重化されている音声データ、ビデオデータ、それ以外を分離し、時刻情報をシステム時間管理モジュール(STC)に送る機能モジュールである。
通常、一つの映像データは連続する時刻情報を持っているため、再生装置10は問題無く動作するが、エンコード(符号化)機器の都合により、途中でこの時刻情報が不連続になってしまうケースがある。例えばデジタルビデオカメラで撮った映像は、録画開始、停止、ポイントでこの時刻情報が不連続となることが多い。このようなケースの場合、再生装置10がその不連続に対応できずに、結果として再生が停止したり、映像が乱れたりすることが多い。
そのため本実施形態では、この不連続部分を解消するために、ストリーム変換処理部12が図3に示すような時刻情報を書き換えるストリーム変換処理をする。PTS/DTSは、32ビットの90KHzのカウンタであるため、最小値から始めても時間にして約13時間弱でカウンタが一周(ラップアラウンド)してしまう。このような状況になると、再生装置10側では時刻情報が最大値近辺から急激に最小値近辺になるため、スムースな再生ができない場合も多い。また、カウンタが最小値から使われるとは限らないため、この状況は13時間以上のコンテンツでのみ発生するわけではない。
そこで、ストリーム変換処理部12はストリーム変換処理でラップアラウンド抑制対応として、全体の時刻情報をストリーム先頭が最小値近辺になるように付け替え、これにより再生装置10に優しいストリームに変換するものである。
ストリーム変換処理は分離およびPTS/DTS書換処理P1、ビデオバッファ処理P2、オーディオバッファ処理P3、多重化およびSCR設定処理P4を含む。分離およびPTS/DTS書換処理P1では、ビデオパケットおよびオーディオパケットの分離、並びにDTSおよびPTSのオフセット(書き換え)が行われる。この書き換えでは、PTSおよびDTSのビット数の範囲でラップアラウンドを生じさせないように一方の時刻情報に対してシフト量の加算または減算が行われる。ビデオパケットおよびオーディオパケットはそれぞれビデオバッファ処理P2、オーディオバッファ処理P3として一時的に保持される。この後、プログラムストリーム出力のために、多重化およびSCR設定処理P4が行われる。ここでは、SCRを書換られた時刻情報に合わせる値に置き換えられる。
図4は上述のストリーム変換処理によって得られる時刻情報の変化を示す。PTS/DTS(時刻情報)は加算方向へシフトさせる書き換えにより先行ストリームと後続ストリームの接続ポイントでも連続する状態となる。
ちなみに、図5は分離およびPTS/DTS書換処理P1の対象となるPES(Packetized Elementary Stream)のデータ構造を示す。
DTS(PTS)はMPEG規格のPESパケット内に設定されており、PES形式のデータ構造は図5のようになっている。各項目の設定フラグにより値が存在するか確認できる。図5では、PTSおよびDTSが設定されている例である。
図6はこれらPTS/DTSのビット構成を示す。本実施形態での時刻情報書き換えは、上位PTS[32]〜PTS[22]のみを使用する。すなわち、ストリーム変換処理部12はシフト量の加算または減算を前記時刻情報の上位所定所定ビットについて行う。下位PTS[0]-PTS[21]では、約45秒しかカウントできないため、上位PTS/DTSのみ考慮すれば大きな影響はなく、後の32ビット演算処理がしやすくなる。
ストリーム変換処理を開始し、最初に取得したPESのDTS[32]〜[22]がすべて0の場合は書き換えは必要ないために行わない。これに対して、ストリーム変換処理を開始し、最初に取得したPESのDTS[32]〜PTS[22]が0以外の場合、上位DTS[32]〜[22]は必ず「0x001」へ書き換える。最初に取得したDTSを基準に処理を開始し、その後はピクチャ毎にDTSについては、NTSCシステム用であれば1ピクチャの表示時間となる3003を加算していき、新PTSについてはDTSが一緒に格納されているケースでは、元のPTSとDTSの差分値を、一緒に格納されているDTSに加算すればよい。PTSのみが格納されたケースでは、PTSはDTSと同じと考えられるため、直前のDTS+3003がPTSとなる。
これを、要約すると以下のように書き変えが行われる。
(最初のDTSの設定)
・DTS[32]〜[22]がゼロの場合、特に何もしない。
・DTS[32]〜[22]がゼロの場合、特に何もしない。
・DTS[32]〜[22]がゼロ以外の場合、上位DTS[32]〜[22]を0x001とする。
(DTSの設定)
新DTS = ピクチャ数 × 3003 + 最初のDTS
(DTS/PTS両方が入ったPESのPTS設定)
新PTS = 旧PTS − 旧DTS + 新DTS
(PTSのみが入ったPESのPTS設定)
新PTS = 直前に設定したDTS + (3003 × DTSを設定したピクチャからここまでのピクチャ数)
このような処理により、約13時間弱の間、時刻情報が不連続とならないストリームに変換することができる。尚、ストリーム変換処理部12はさらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行っている。すなわち、ストリーム変換処理は強制的に時刻情報を連続的な値に置き換えるため、ラップアラウンド時だけでなく、もともとのストリームに時刻情報のギャップが存在するときにも、そのギャップを埋めることが可能となる。
新DTS = ピクチャ数 × 3003 + 最初のDTS
(DTS/PTS両方が入ったPESのPTS設定)
新PTS = 旧PTS − 旧DTS + 新DTS
(PTSのみが入ったPESのPTS設定)
新PTS = 直前に設定したDTS + (3003 × DTSを設定したピクチャからここまでのピクチャ数)
このような処理により、約13時間弱の間、時刻情報が不連続とならないストリームに変換することができる。尚、ストリーム変換処理部12はさらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行っている。すなわち、ストリーム変換処理は強制的に時刻情報を連続的な値に置き換えるため、ラップアラウンド時だけでなく、もともとのストリームに時刻情報のギャップが存在するときにも、そのギャップを埋めることが可能となる。
図4は理論的なものであるが、実際のPTSはMPEGの参照フレームの関係上完全な単調増加とはならならず、GOP(Group of Pictures)内でのバラツキがある。ただし、例えばI-Pictureだけに着目すれば、単調増加になる。
上述の実施形態では、先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報が順次抽出され、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えが行われる。これにより、再生装置10のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続することが可能となる。
具体的には、MPEGシステムで符号化された映像音声ストリームデータの時刻情報の不連続部分を解消することによって、再生装置10にてスムーズな再生ができるようになる。特に通常のネットワーク再生や、時刻情報の不連続ポイントに関するストリーム情報を事前に再生機器に入力できないような再生のケースで有効に機能する。また、符号化されたストリームに時刻情報のラップアラウンドが発生している場合に、再生時間が13時間弱までその発生を抑制することができる。さらに、エンコーダの都合で、ストリームの中途で時刻情報が不連続になっている場合も、その部分を連続化することができる。
また、本実施形態では、ストリーム変換処理部12がソフトウエアベースで構成されているため、例えばブルーレイフォーマット同士の変換やブルーレイフォーマットからDVDフォーマットへの変換を兼ねてストリーム変換処理を行うことのできる汎用性を有する。
尚、本発明は上述の実施形態に限定されず、その要旨を逸脱しない範囲で様々に変形可能である。
10…映像処理装置、11…インタフェース部、12…ストリーム変換処理部、12A…CPU、12B…ROM、12C…RAM、20…再生装置、21…ストリーム分離部、22…ビデオバッファ、23…オーディオバッファ、24…ビデオデコーダ、25…オーディオデコーダ、26…システム時刻クロック部、27…システム制御部。
Claims (10)
- 先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース部と、前記インタフェース部で受け取った前記先行ストリームおよび前記後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、前記時刻情報が前記先行ストリームおよび前記後続ストリーム間の接続ポイントで不連続とならないように前記先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部とを備えることを特徴とする映像処理装置。
- 前記映像音声多重化ストリームはMPEG(Moving Picture Experts Group)形式ストリームであり、前記ストリーム変換処理部は各ストリームのPTS(Presentation Time Stamp)およびDTS(Decode Time Stamp)を前記時刻情報として取り扱うことを特徴とする請求項1に記載の映像処理装置。
- 前記ストリーム変換処理部は前記PTSおよび前記DTSのビット数の範囲でラップアラウンドを生じさせないように前記一方の時刻情報に対してシフト量の加算または減算をすることを特徴とする請求項2に記載の映像処理装置。
- 前記ストリーム変換処理部は前記シフト量の加算または減算を前記時刻情報の上位所定所定ビットについて行うことを特徴とする請求項3に映像処理装置。
- 前記ストリーム変換処理部はさらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行うことを特徴とする請求項1に記載の映像処理装置。
- 先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取り、前記先行ストリームおよび前記後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、前記時刻情報が前記先行ストリームおよび前記後続ストリーム間の接続ポイントで不連続とならないように前記先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うことを特徴とする映像処理方法。
- 前記映像音声多重化ストリームはMPEG(Moving Picture Experts Group)形式ストリームであり、各ストリームのPTS(Presentation Time Stamp)およびDTS(Decode Time Stamp)を前記時刻情報として取り扱うことを特徴とする請求項6に記載の映像処理方法。
- 前記PTSおよび前記DTSのビット数の範囲でラップアラウンドを生じさせないように前記一方の時刻情報に対してシフト量の加算または減算をすることを特徴とする請求項7に記載の映像処理方法。
- 前記シフト量の加算または減算を前記時刻情報の上位所定所定ビットについて行うことを特徴とする請求項8に映像処理方法。
- さらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行うことを特徴とする請求項6に記載の映像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008143507A JP2009290768A (ja) | 2008-05-30 | 2008-05-30 | 映像処理装置および映像処理方法 |
US12/474,352 US20090296741A1 (en) | 2008-05-30 | 2009-05-29 | Video processor and video processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008143507A JP2009290768A (ja) | 2008-05-30 | 2008-05-30 | 映像処理装置および映像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009290768A true JP2009290768A (ja) | 2009-12-10 |
Family
ID=41379742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008143507A Pending JP2009290768A (ja) | 2008-05-30 | 2008-05-30 | 映像処理装置および映像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090296741A1 (ja) |
JP (1) | JP2009290768A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018211613A1 (ja) * | 2017-05-17 | 2018-11-22 | 三菱電機株式会社 | 符号化映像再生装置および符号化映像再生方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8331459B2 (en) * | 2007-09-26 | 2012-12-11 | Intel Corporation | Method and apparatus for smooth digital media playback |
US9060187B2 (en) | 2008-12-22 | 2015-06-16 | Netflix, Inc. | Bit rate stream switching |
US9883213B2 (en) * | 2014-02-10 | 2018-01-30 | Dolby International Ab | Embedding encoded audio into transport stream for perfect splicing |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5838678A (en) * | 1996-07-24 | 1998-11-17 | Davis; Joseph W. | Method and device for preprocessing streams of encoded data to facilitate decoding streams back-to back |
US6724825B1 (en) * | 2000-09-22 | 2004-04-20 | General Instrument Corporation | Regeneration of program clock reference data for MPEG transport streams |
JP2003230092A (ja) * | 2002-02-04 | 2003-08-15 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
JP4704972B2 (ja) * | 2006-07-24 | 2011-06-22 | ルネサスエレクトロニクス株式会社 | ストリーム編集方法及びストリーム編集装置 |
-
2008
- 2008-05-30 JP JP2008143507A patent/JP2009290768A/ja active Pending
-
2009
- 2009-05-29 US US12/474,352 patent/US20090296741A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018211613A1 (ja) * | 2017-05-17 | 2018-11-22 | 三菱電機株式会社 | 符号化映像再生装置および符号化映像再生方法 |
Also Published As
Publication number | Publication date |
---|---|
US20090296741A1 (en) | 2009-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1909278B1 (en) | Reproduction device, video decoding device, synchronization/reproduction method, program, and recording medium | |
US8503541B2 (en) | Method and apparatus for determining timing information from a bit stream | |
US8620134B2 (en) | Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams | |
JP4983923B2 (ja) | デコーダ装置、およびデコード方法 | |
EP3057261B1 (en) | Transmission method, reception method, transmission device, and reception device | |
US8144791B2 (en) | Apparatus, method, and medium for video synchronization | |
KR100983989B1 (ko) | 트랜스포트 스트림으로부터 프로그램 스트림으로의 변환 | |
US8472781B2 (en) | Playback method, playback program and playback apparatus | |
JP2010212996A (ja) | 情報処理装置および多重化処理方法 | |
US8359413B2 (en) | Data stream buffer control using reference time and decoding time | |
JP2009290768A (ja) | 映像処理装置および映像処理方法 | |
US20050004940A1 (en) | Information processing apparatus and method | |
US20240064359A1 (en) | Transmitting method, receiving method, transmitting device, and receiving device | |
JPH1093841A (ja) | 映像同期信号補正装置 | |
JP4764707B2 (ja) | 番組単位分離装置、及び番組単位分離プログラム | |
JP2823806B2 (ja) | 画像復号装置 | |
JP2005333412A (ja) | 多重ストリーム作成装置 | |
JP2002335528A (ja) | 動画像復号化装置及び方法 | |
JPH099215A (ja) | データ多重方法、データ伝送方法、及び多重データ復号方法、多重データ復号装置 | |
JP3671969B2 (ja) | データ多重方法及び多重データ復号方法 | |
JP2004242041A (ja) | 情報処理装置及び情報処理方法 | |
JP2004248104A (ja) | 情報処理装置及び情報処理方法 | |
JP2008035216A (ja) | 動画像復号装置 | |
JP2009290767A (ja) | 映像音声再生装置および映像音声再生方法 | |
JP2012109655A (ja) | メディア受信装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100302 |