JP2009290768A - 映像処理装置および映像処理方法 - Google Patents

映像処理装置および映像処理方法 Download PDF

Info

Publication number
JP2009290768A
JP2009290768A JP2008143507A JP2008143507A JP2009290768A JP 2009290768 A JP2009290768 A JP 2009290768A JP 2008143507 A JP2008143507 A JP 2008143507A JP 2008143507 A JP2008143507 A JP 2008143507A JP 2009290768 A JP2009290768 A JP 2009290768A
Authority
JP
Japan
Prior art keywords
stream
time information
video
video processing
dts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008143507A
Other languages
English (en)
Inventor
Yoshihisa Kizuka
善久 木塚
Hitoshi Saijo
人司 西條
Sayoko Tanaka
砂与子 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008143507A priority Critical patent/JP2009290768A/ja
Priority to US12/474,352 priority patent/US20090296741A1/en
Publication of JP2009290768A publication Critical patent/JP2009290768A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】再生装置のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続する。
【解決手段】映像処理装置は先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース11と、インタフェース11で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部12とを備える。
【選択図】 図1

Description

本発明は、2つの映像音声多重化ストリームをシームレス接続する処理を行う映像処理装置および映像処理方法に関する。
近年では、大容量の映像情報および音声情報をデジタル化して記録または伝送する場合に、MPEG(Moving Picture Experts Group)方式で符号化されることが一般的になっている。このMPEG方式はISO/IEC 11172規格やISO/IEC 13818規格として知られる国際標準の符号化方式であり、例えばデジタル衛星放送、DVDレコーダ、デジタルビデオカメラにおいて映像情報および音声情報を符号化するために利用されている。ISO/IEC 13818規格(すなわち、MPEG−2規格)では、映像情報および音声情報が符号化されたビデオデータの連続する映像ストリームおよび符号化されたオーディオデータの連続する音声ストリームに変換される。ビデオデータはピクチャ単位で符号化されたものであり、動き補償予測の単位である複数のピクチャからなるグループオブピクチャ(GOP)単位に編集される。オーディオデータはオーディオフレーム単位に符号化されたものである。映像ストリームおよび音声ストリームはそれぞれ独立してパケット化され、例えばトランスポートストリーム(Transport Stream)として多重化される。これにより得られた映像音声多重化ストリームは、あるGOPの先頭を含むパケットから、次のGOPの先頭を含むパケットまでの連続するパケットをユニット(VOBU)として編集される。
映像音声多重化ストリームをVOBU境界で先行ストリームと後続ストリームに分割して編集を行うと、この編集後に先行ストリームの終了ポイントの時刻情報と後続ストリームの開始ポイントの時刻情報とが不連続となるギャップが発生しやすい。このギャップは、映像および音声を停止することなく連続的かつ滑らかに再生させる先行および後続ストリームのシームレス接続を困難にする原因となっている。
従来においては、このシームレス接続を行うために先行ストリームおよび後続ストリームをデコードしてから再生時刻のずれを修正し、この修正結果を再エンコードする必要があった。また、時間情報のオフセットを利用した補正によりギャップに対処する方策も提案されている(例えば特許文献1を参照)。
特開2001−320704号公報
しかしながら、特許文献1の技術は、従来のような再エンコード時間を必要としないが、ギャップ調整のために時間情報を管理するハードウェアを再生装置に設ける必要がある。
本発明の目的は、再生装置のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続することが可能な映像処理装置および映像処理方法を提供することにある。
本発明の一観点によれば、先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース部と、インタフェース部で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部とを備える映像処理装置が提供される。
本発明の他の観点によれば、先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取り、先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行う映像処理方法が提供される。
これら映像処理装置および映像処理方法では、先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報が順次抽出され、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えが行われる。これにより、再生装置のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続することが可能となる。
以下、本発明の一実施形態に係るシームレス再生システムについて添付図面を参照して説明する。このシームレス再生システムは映像および音声情報をMPEG方式で符号化して映像音声多重化ストリーム(プログラムストリーム)として記録する例えばデジタルビデオカメラから分割編集結果として順次出力される2つの先行および後続ストリームをシームレス接続して再生するために用いられる。
図1はこのシームレス再生システムの概略的な構成を示す。このシームレス再生システムは先行ストリームおよび後続ストリームをシームレス接続する処理を行う映像処理装置10およびこの映像処理装置10がシームレス接続の処理結果として出力されるストリームを再生する再生装置20により構成される。
映像処理装置10は先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリーム(プログラムストリーム)を順次受け取るインタフェース部11と、インタフェース部11で受け取った先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えをストリーム変換処理として行うストリーム変換処理部12とを備える。
再生装置20はストリーム分離部21、ビデオバッファ22、オーディオバッファ23、ビデオデコーダ24、オーディオデコーダ25、システム時刻クロック部14、システム制御部27を備える。ストリーム分離部21は、映像処理装置10から出力されるストリームを受け取り、ビデオパケットとオーディオパケットに分離し、ビデオパケットをビデオバッファ22に送り、オーディオパケットをオーディオバッファ23に送る。ビデオバッファ22はビデオパケットを蓄積しながらビデオデコーダ24に送出し、オーディオバッファ23はオーディオパケットを蓄積しながらオーディオデコーダ25に送出する。システム時刻クロック部26はビデオパケットのデコードおよび再生タイミングおよびオーディオパケットのデコードおよび再生タイミングの基準となるシステム時刻(STC:System Time Clock)を発生し、これらビデオおよびオーディオを同期させる。
ビデオデコーダ24は、受け取ったビデオパケットに記述されたタイムスタンプとシステム時刻とを比較して、タイムスタンプに合致するタイミングでデコードおよび再生出力を行う。オーディオデコーダ25は、受け取ったオーディオパケットに記述されたタイムスタンプとシステム時刻とを比較して、タイムスタンプに合致するタイミングでデコードおよび再生出力を行う。
図2は、映像処理装置10の構成例を示す。ここでは、CPU12A、ROM12B、RAM12Cがストリーム変換処理部12を構成し、バスラインによりインタフェース部11に接続される。CPU12Aはストリームに対して様々な処理を行うものである。ROM12BはアプリケーションソフトウェアとしてCPU12Aの制御プログラムや初期データ等を保持するものである。RAM12CはCPU12Aに入出力するデータを一時的に格納するものである。
MPEG方式では、ストリームデータ内の基準時刻情報であるSTC(System Time Clock)をもとに、ピクチャ毎の表示時間を示すPTS(Presentation Time Stamp)と、再生装置10のバッファからデコーダに送る時間(デコード時刻)を示すDTS(Decoding Time Stamp)を利用して、デコード時間と表示時間の時刻制御が行われる。本実施形態では、2種類のMPEG方式のうちのプログラムストリーム形式を想定しているが、トランスポートストリーム形式についても同様である。STCは、プログラムストリームの場合、ストリーム内のSCR(System Clock Reference)をもとに生成される。SCRはストリームの符号化時の基準時間であり、27MHzの精度でプログラムストリームのパックヘッダに記述される。再生システムでは、STCがDTSの時間に到達すると、そのピクチャをデコードし、PTS時刻になるとそのピクチャを表示することになる。図1に示すストリーム分離部は、多重化されている音声データ、ビデオデータ、それ以外を分離し、時刻情報をシステム時間管理モジュール(STC)に送る機能モジュールである。
通常、一つの映像データは連続する時刻情報を持っているため、再生装置10は問題無く動作するが、エンコード(符号化)機器の都合により、途中でこの時刻情報が不連続になってしまうケースがある。例えばデジタルビデオカメラで撮った映像は、録画開始、停止、ポイントでこの時刻情報が不連続となることが多い。このようなケースの場合、再生装置10がその不連続に対応できずに、結果として再生が停止したり、映像が乱れたりすることが多い。
そのため本実施形態では、この不連続部分を解消するために、ストリーム変換処理部12が図3に示すような時刻情報を書き換えるストリーム変換処理をする。PTS/DTSは、32ビットの90KHzのカウンタであるため、最小値から始めても時間にして約13時間弱でカウンタが一周(ラップアラウンド)してしまう。このような状況になると、再生装置10側では時刻情報が最大値近辺から急激に最小値近辺になるため、スムースな再生ができない場合も多い。また、カウンタが最小値から使われるとは限らないため、この状況は13時間以上のコンテンツでのみ発生するわけではない。
そこで、ストリーム変換処理部12はストリーム変換処理でラップアラウンド抑制対応として、全体の時刻情報をストリーム先頭が最小値近辺になるように付け替え、これにより再生装置10に優しいストリームに変換するものである。
ストリーム変換処理は分離およびPTS/DTS書換処理P1、ビデオバッファ処理P2、オーディオバッファ処理P3、多重化およびSCR設定処理P4を含む。分離およびPTS/DTS書換処理P1では、ビデオパケットおよびオーディオパケットの分離、並びにDTSおよびPTSのオフセット(書き換え)が行われる。この書き換えでは、PTSおよびDTSのビット数の範囲でラップアラウンドを生じさせないように一方の時刻情報に対してシフト量の加算または減算が行われる。ビデオパケットおよびオーディオパケットはそれぞれビデオバッファ処理P2、オーディオバッファ処理P3として一時的に保持される。この後、プログラムストリーム出力のために、多重化およびSCR設定処理P4が行われる。ここでは、SCRを書換られた時刻情報に合わせる値に置き換えられる。
図4は上述のストリーム変換処理によって得られる時刻情報の変化を示す。PTS/DTS(時刻情報)は加算方向へシフトさせる書き換えにより先行ストリームと後続ストリームの接続ポイントでも連続する状態となる。
ちなみに、図5は分離およびPTS/DTS書換処理P1の対象となるPES(Packetized Elementary Stream)のデータ構造を示す。
DTS(PTS)はMPEG規格のPESパケット内に設定されており、PES形式のデータ構造は図5のようになっている。各項目の設定フラグにより値が存在するか確認できる。図5では、PTSおよびDTSが設定されている例である。
図6はこれらPTS/DTSのビット構成を示す。本実施形態での時刻情報書き換えは、上位PTS[32]〜PTS[22]のみを使用する。すなわち、ストリーム変換処理部12はシフト量の加算または減算を前記時刻情報の上位所定所定ビットについて行う。下位PTS[0]-PTS[21]では、約45秒しかカウントできないため、上位PTS/DTSのみ考慮すれば大きな影響はなく、後の32ビット演算処理がしやすくなる。
ストリーム変換処理を開始し、最初に取得したPESのDTS[32]〜[22]がすべて0の場合は書き換えは必要ないために行わない。これに対して、ストリーム変換処理を開始し、最初に取得したPESのDTS[32]〜PTS[22]が0以外の場合、上位DTS[32]〜[22]は必ず「0x001」へ書き換える。最初に取得したDTSを基準に処理を開始し、その後はピクチャ毎にDTSについては、NTSCシステム用であれば1ピクチャの表示時間となる3003を加算していき、新PTSについてはDTSが一緒に格納されているケースでは、元のPTSとDTSの差分値を、一緒に格納されているDTSに加算すればよい。PTSのみが格納されたケースでは、PTSはDTSと同じと考えられるため、直前のDTS+3003がPTSとなる。
これを、要約すると以下のように書き変えが行われる。
(最初のDTSの設定)
・DTS[32]〜[22]がゼロの場合、特に何もしない。
・DTS[32]〜[22]がゼロ以外の場合、上位DTS[32]〜[22]を0x001とする。
(DTSの設定)
新DTS = ピクチャ数 × 3003 + 最初のDTS
(DTS/PTS両方が入ったPESのPTS設定)
新PTS = 旧PTS − 旧DTS + 新DTS
(PTSのみが入ったPESのPTS設定)
新PTS = 直前に設定したDTS + (3003 × DTSを設定したピクチャからここまでのピクチャ数)
このような処理により、約13時間弱の間、時刻情報が不連続とならないストリームに変換することができる。尚、ストリーム変換処理部12はさらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行っている。すなわち、ストリーム変換処理は強制的に時刻情報を連続的な値に置き換えるため、ラップアラウンド時だけでなく、もともとのストリームに時刻情報のギャップが存在するときにも、そのギャップを埋めることが可能となる。
図4は理論的なものであるが、実際のPTSはMPEGの参照フレームの関係上完全な単調増加とはならならず、GOP(Group of Pictures)内でのバラツキがある。ただし、例えばI-Pictureだけに着目すれば、単調増加になる。
上述の実施形態では、先行ストリームおよび後続ストリームにおいてそれぞれ単調増加する時刻情報が順次抽出され、時刻情報が先行ストリームおよび後続ストリーム間の接続ポイントで不連続とならないように先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えが行われる。これにより、再生装置10のハードウェア構成の変更を必要とせずに先行ストリームおよび後続ストリームをシームレス接続することが可能となる。
具体的には、MPEGシステムで符号化された映像音声ストリームデータの時刻情報の不連続部分を解消することによって、再生装置10にてスムーズな再生ができるようになる。特に通常のネットワーク再生や、時刻情報の不連続ポイントに関するストリーム情報を事前に再生機器に入力できないような再生のケースで有効に機能する。また、符号化されたストリームに時刻情報のラップアラウンドが発生している場合に、再生時間が13時間弱までその発生を抑制することができる。さらに、エンコーダの都合で、ストリームの中途で時刻情報が不連続になっている場合も、その部分を連続化することができる。
また、本実施形態では、ストリーム変換処理部12がソフトウエアベースで構成されているため、例えばブルーレイフォーマット同士の変換やブルーレイフォーマットからDVDフォーマットへの変換を兼ねてストリーム変換処理を行うことのできる汎用性を有する。
尚、本発明は上述の実施形態に限定されず、その要旨を逸脱しない範囲で様々に変形可能である。
本発明の一実施形態に係るシームレス再生システムの概略的構成を示すブロック図である。 図1に示す映像処理装置の構成例を示すブロック図である。 図2に示すストリーム変換処理部によって行われる処理を示す図である。 図3に示すストリーム変換処理によって得られる時刻情報の変化を示す図である。 図3に示す分離およびPTS/DTS書換処理の対象となるPESのデータ構造を示す図である。 図5に示すPTSおよびDTSのビット構成を示す図である。
10…映像処理装置、11…インタフェース部、12…ストリーム変換処理部、12A…CPU、12B…ROM、12C…RAM、20…再生装置、21…ストリーム分離部、22…ビデオバッファ、23…オーディオバッファ、24…ビデオデコーダ、25…オーディオデコーダ、26…システム時刻クロック部、27…システム制御部。

Claims (10)

  1. 先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取るインタフェース部と、前記インタフェース部で受け取った前記先行ストリームおよび前記後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、前記時刻情報が前記先行ストリームおよび前記後続ストリーム間の接続ポイントで不連続とならないように前記先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うストリーム変換処理部とを備えることを特徴とする映像処理装置。
  2. 前記映像音声多重化ストリームはMPEG(Moving Picture Experts Group)形式ストリームであり、前記ストリーム変換処理部は各ストリームのPTS(Presentation Time Stamp)およびDTS(Decode Time Stamp)を前記時刻情報として取り扱うことを特徴とする請求項1に記載の映像処理装置。
  3. 前記ストリーム変換処理部は前記PTSおよび前記DTSのビット数の範囲でラップアラウンドを生じさせないように前記一方の時刻情報に対してシフト量の加算または減算をすることを特徴とする請求項2に記載の映像処理装置。
  4. 前記ストリーム変換処理部は前記シフト量の加算または減算を前記時刻情報の上位所定所定ビットについて行うことを特徴とする請求項3に映像処理装置。
  5. 前記ストリーム変換処理部はさらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行うことを特徴とする請求項1に記載の映像処理装置。
  6. 先行ストリームおよび後続ストリームとして接続すべき2つの映像音声多重化ストリームを順次受け取り、前記先行ストリームおよび前記後続ストリームにおいてそれぞれ単調増加する時刻情報を順次抽出し、前記時刻情報が前記先行ストリームおよび前記後続ストリーム間の接続ポイントで不連続とならないように前記先行ストリームおよび後続ストリームのうちの一方の時刻情報を一律にシフトさせる書き換えを行うことを特徴とする映像処理方法。
  7. 前記映像音声多重化ストリームはMPEG(Moving Picture Experts Group)形式ストリームであり、各ストリームのPTS(Presentation Time Stamp)およびDTS(Decode Time Stamp)を前記時刻情報として取り扱うことを特徴とする請求項6に記載の映像処理方法。
  8. 前記PTSおよび前記DTSのビット数の範囲でラップアラウンドを生じさせないように前記一方の時刻情報に対してシフト量の加算または減算をすることを特徴とする請求項7に記載の映像処理方法。
  9. 前記シフト量の加算または減算を前記時刻情報の上位所定所定ビットについて行うことを特徴とする請求項8に映像処理方法。
  10. さらに各ストリーム内に存在する時刻情報のギャップを埋めるための書き換えを行うことを特徴とする請求項6に記載の映像処理方法。
JP2008143507A 2008-05-30 2008-05-30 映像処理装置および映像処理方法 Pending JP2009290768A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008143507A JP2009290768A (ja) 2008-05-30 2008-05-30 映像処理装置および映像処理方法
US12/474,352 US20090296741A1 (en) 2008-05-30 2009-05-29 Video processor and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008143507A JP2009290768A (ja) 2008-05-30 2008-05-30 映像処理装置および映像処理方法

Publications (1)

Publication Number Publication Date
JP2009290768A true JP2009290768A (ja) 2009-12-10

Family

ID=41379742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008143507A Pending JP2009290768A (ja) 2008-05-30 2008-05-30 映像処理装置および映像処理方法

Country Status (2)

Country Link
US (1) US20090296741A1 (ja)
JP (1) JP2009290768A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211613A1 (ja) * 2017-05-17 2018-11-22 三菱電機株式会社 符号化映像再生装置および符号化映像再生方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8331459B2 (en) * 2007-09-26 2012-12-11 Intel Corporation Method and apparatus for smooth digital media playback
US9060187B2 (en) 2008-12-22 2015-06-16 Netflix, Inc. Bit rate stream switching
US9883213B2 (en) * 2014-02-10 2018-01-30 Dolby International Ab Embedding encoded audio into transport stream for perfect splicing

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5838678A (en) * 1996-07-24 1998-11-17 Davis; Joseph W. Method and device for preprocessing streams of encoded data to facilitate decoding streams back-to back
US6724825B1 (en) * 2000-09-22 2004-04-20 General Instrument Corporation Regeneration of program clock reference data for MPEG transport streams
JP2003230092A (ja) * 2002-02-04 2003-08-15 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP4704972B2 (ja) * 2006-07-24 2011-06-22 ルネサスエレクトロニクス株式会社 ストリーム編集方法及びストリーム編集装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211613A1 (ja) * 2017-05-17 2018-11-22 三菱電機株式会社 符号化映像再生装置および符号化映像再生方法

Also Published As

Publication number Publication date
US20090296741A1 (en) 2009-12-03

Similar Documents

Publication Publication Date Title
EP1909278B1 (en) Reproduction device, video decoding device, synchronization/reproduction method, program, and recording medium
US8503541B2 (en) Method and apparatus for determining timing information from a bit stream
US8620134B2 (en) Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams
JP4983923B2 (ja) デコーダ装置、およびデコード方法
EP3057261B1 (en) Transmission method, reception method, transmission device, and reception device
US8144791B2 (en) Apparatus, method, and medium for video synchronization
KR100983989B1 (ko) 트랜스포트 스트림으로부터 프로그램 스트림으로의 변환
US8472781B2 (en) Playback method, playback program and playback apparatus
JP2010212996A (ja) 情報処理装置および多重化処理方法
US8359413B2 (en) Data stream buffer control using reference time and decoding time
JP2009290768A (ja) 映像処理装置および映像処理方法
US20050004940A1 (en) Information processing apparatus and method
US20240064359A1 (en) Transmitting method, receiving method, transmitting device, and receiving device
JPH1093841A (ja) 映像同期信号補正装置
JP4764707B2 (ja) 番組単位分離装置、及び番組単位分離プログラム
JP2823806B2 (ja) 画像復号装置
JP2005333412A (ja) 多重ストリーム作成装置
JP2002335528A (ja) 動画像復号化装置及び方法
JPH099215A (ja) データ多重方法、データ伝送方法、及び多重データ復号方法、多重データ復号装置
JP3671969B2 (ja) データ多重方法及び多重データ復号方法
JP2004242041A (ja) 情報処理装置及び情報処理方法
JP2004248104A (ja) 情報処理装置及び情報処理方法
JP2008035216A (ja) 動画像復号装置
JP2009290767A (ja) 映像音声再生装置および映像音声再生方法
JP2012109655A (ja) メディア受信装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100302