JP4487374B2 - 符号化装置及び符号化方法並びに多重化装置及び多重化方法 - Google Patents

符号化装置及び符号化方法並びに多重化装置及び多重化方法 Download PDF

Info

Publication number
JP4487374B2
JP4487374B2 JP2000090769A JP2000090769A JP4487374B2 JP 4487374 B2 JP4487374 B2 JP 4487374B2 JP 2000090769 A JP2000090769 A JP 2000090769A JP 2000090769 A JP2000090769 A JP 2000090769A JP 4487374 B2 JP4487374 B2 JP 4487374B2
Authority
JP
Japan
Prior art keywords
picture
bit
encoded stream
video
occupancy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000090769A
Other languages
English (en)
Other versions
JP2001054118A (ja
Inventor
元樹 加藤
功史 小幡
信弥 伊木
芳和 高島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000090769A priority Critical patent/JP4487374B2/ja
Priority to EP20000304570 priority patent/EP1058262A3/en
Priority to US09/583,422 priority patent/US6795499B1/en
Priority to TW89110626A priority patent/TW545058B/zh
Priority to CNB001262904A priority patent/CN1186937C/zh
Publication of JP2001054118A publication Critical patent/JP2001054118A/ja
Priority to US10/861,748 priority patent/US7394851B2/en
Application granted granted Critical
Publication of JP4487374B2 publication Critical patent/JP4487374B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • H04N21/23655Statistical multiplexing, e.g. by controlling the encoder to alter its bitrate to optimize the bandwidth utilization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ビデオ符号ストリームの符号化装置及び符号化方法並びに多重化装置及び多重化方法に関する。
【0002】
【従来の技術】
動画像を示すビデオストリームを符号化する手法として、MPEG(Moving Picture Experts Group)規格がある。このMPEG規格は、エンコーダ出力に接続される仮想的なデコーダモデルを規定している。すなわち、MPEG規格では、エンコードしたビデオストリームが入力されるデコーダ側のバッファのアンダーフロー及びオーバーフローを防止するために、エンコードを行うときに想定するデコーダ側のバッファ容量を制限している。このようにMPEG規格では、デコーダモデルに含まれるバッファの占有量に対する制限によって、ビデオストリームをエンコードする処理に対する制限を規定している。ここで、上記仮想的なデコーダモデルはVBV(Video Buffering Verifier)と呼ばれ、上述の想定するデコーダ側のバッファはVBVバッファと呼ばれている。
【0003】
そして、MPEG規格に従ってビデオストリームをエンコードするときには、上記VBVバッファをアンダーフロー及びオーバーフローさせないように行う必要がある。例えばMPEG2規格のMP@ML(Main Profile at Main Level)におけるVBVバッファサイズは、1.75Mbitと規定されている。
【0004】
エンコーダは、各ピクチャに含まれランダムアクセス時のバッファの初期状態を示すvbv-delayという16ビットのフィールドを符号化する。上記vbv-delayの値は、そのピクチャを復号するときにVBVバッファに必要なビット占有量を表す。そして、仮想的なデコーダは、あるピクチャを復号するとき、そのピクチャに付加されたvbv_delayを読み出し、VBVバッファがvbv_delayで示されるビット占有量になったときにそのピクチャを復号する。
【0005】
ところで、MPEG規格で符号化された2つのビデオストリームをピクチャ単位の精度で継ぎ合わせるように編集処理を行うとき、2つのビデオストリームを継ぎ合わせる点となる編集点の前後のピクチャの数枚を再エンコードする場合がある。このとき、編集処理されたビデオストリームをデコーダがシームレスに復号して画像の再生を行うためには、VBVバッファのオーバーフロー及びアンダーフローが発生しないように、ビデオストリームが編集され、再エンコードされていることを要する。そのため、編集されたビデオストリームにおいて、編集点に対して時間的に前に位置するアウト点側のピクチャと、編集点に対して時間的に後に位置するイン点側のピクチャとを次のように再エンコードする。
【0006】
アウト点側のピクチャを再エンコードするときには、先ず、エンコーダは、再エンコードする最初のピクチャの一つ前のピクチャのvbv-delayを読み出す。次に、エンコーダは、再エンコードする最初のピクチャがVBVによりデコードされるときのVBVバッファの初期ビット占有量を、読み出したvbv-delayを用いて計算する。そして、エンコーダは、計算した初期ビット占有量からVBVモデルに従って、ピクチャを再エンコードする。
【0007】
また、イン点側のピクチャを再エンコードするときには、先ず、エンコーダは、再エンコードする最後のピクチャの次のピクチャのvbv-delayを読み出す。次に、エンコーダは、再エンコードする最後のピクチャがVBVによりデコード終了するときのVBVバッファに必要なビット占有量を、読み出したvbv-delayを用いて計算する。そして、エンコーダは、計算したビット占有量からVBVモデルに従ってピクチャを再エンコードする。
【0008】
【発明が解決しようとする課題】
ところで、MPEG2規格においては、ピクチャ層のヘッダ情報にvbv_delayの値をエンコードしてビデオストリームに含めるか否かはオプションとなされている。したがって、上述のエンコーダは、MPEG2規格でエンコードされたビデオストリームのピクチャ層のヘッダ情報として含まれているvbv-delayの16ビットのフィールドを“0×FFFF”という値としてエンコードすることが多かった。このようにvbv-delayの値をオプションとしてエンコードを行うと、任意のピクチャについてのVBVバッファのビット占有量を正しく計算することができず、上述のエンコーダでは、編集処理を行うときにおいて、ビット占有量を計算して再エンコードをすることができない。
【0009】
そこで、本発明は、上述したような実情に鑑みて提案されたものであり、編集処理行うときにおいてビデオストリームの一部を再エンコードするとき、ピクチャ層のパラメータとして含まれるvbv-delayを参照しなくても、ビデオストリームを再エンコードすることができる符号化装置及び符号化方法並びに多重化装置及び多重化方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述の課題を解決し上記目的を達成するため提案される本発明に係る符号化装置は、符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャで終了する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算する第1のビット占有量計算手段と、上記第1のビット占有量計算手段で計算した第1のビット占有量に基づいて、上記第1のピクチャの後に接続され第2のピクチャから開始し第3のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算する第2のビット占有量計算手段と、上記第2のビット占有量に基づいて、上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定する割り当てビット量決定手段と、上記割り当てビット量で生成される第2の符号化ストリームの第3のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第3のビット占有量を計算する第3のビット占有量計算手段と、上記第2の符号化ストリームの第3のピクチャの後に接続され第4のピクチャから開始する第3の符号化ストリームの第4のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算する初期ビット占有量計算手段と、上記第3のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、上記第3のビット占有量が上記初期ビット占有量より小さい場合、上記第3のビット占有量が上記初期ビット占有量以上となるように上記第2の符号化ストリームの第2のピクチャを上記第1の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する符号化制御手段とを備える
【0012】
ここで、上記仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものが用いられる。
【0013】
また、本発明に係る符号化方法は、符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャで終了する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算し、上記第1のビット占有量に基づいて、上記第1のピクチャの後に接続され第2のピクチャから開始し第3のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算し、上記第2のビット占有量に基づいて、上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定し、上記割り当てビット量で生成される第2の符号化ストリームの第3のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第3のビット占有量を計算し、上記第2の符号化ストリームの第3のピクチャの後に接続され第4のピクチャから開始する第3の符号化ストリームの第4のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算し、上記第3のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、上記第3のビット占有量が上記初期ビット占有量より小さい場合、上記第3のビット占有量が上記初期ビット占有量以上となるように上記第2の符号化ストリームの第2のピクチャを上記第1の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する
【0015】
ここで、仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものが用いられる。
【0016】
更に、本発明に係る符号化装置は、符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算する第1のビット占有量計算手段と、上記第1のビット占有量計算手段で計算した第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算する初期ビット占有量計算手段と、上記初期ビット占有量に基づいて、上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの各ピクチャの割り当てビット量を決定するビット量決定手段と、上記割り当てビット量で生成される第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算する第2のビット占有量計算手段と、上記第2のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、上記第2のビット占有量が上記初期ビット占有量より小さい場合、上記第2のビット占有量が上記初期ビット占有量以上となるように上記第1の符号化ストリームの第1のピクチャを上記第2の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する符号化制御手段とを備える符号化装置。
【0017】
ここで、仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものが用いられる。
【0018】
更にまた、本発明に係る符号化方法は、符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算し、上記第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算し、上記初期ビット占有量に基づいて、上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの各ピクチャの割り当てビット量を決定し、上記割り当てビット量で生成される第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算し、上記第2のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、上記第2のビット占有量が上記初期ビット占有量より小さい場合、上記第2のビット占有量が上記初期ビット占有量以上となるように上記第1の符号化ストリームの第1のピクチャを上記第2の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する
【0019】
更にまた、本発明に係る多重化装置は、符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算する第1のビット占有量計算手段と、上記第1のビット占有量計算手段で計算した第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算する初期ビット占有量計算手段と、上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量が、上記初期ビット占有量以上となるように上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定する割り当てビット量決定手段と、上記割り当てビット量に基づいて上記第2の符号化ストリームを生成して多重化する多重化手段と、上記仮想的なシステムターゲットデコーダモデルのビデオバッファに、上記第2の符号化ストリームに続いて上記第1の符号化ストリームの第1のピクチャが入力されるときの第3のビット占有量が所定の範囲内であるか否かを判定する判定手段と、上記第3のビット占有量が所定の範囲内でない場合、上記第1のピクチャの上記仮想的なシステムターゲットデコーダモデルへの入力時刻を遅らせるように上記第1のピクチャを含むビデオパックの入力時刻を書き換える多重化制御手段とを備える
【0020】
更にまた、本発明に係る多重化方法は、符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算し、上記第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算し、上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量が、上記初期ビット占有量以上となるように上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定し、上記割り当てビット量に基づいて上記第2の符号化ストリームを生成して多重化し、上記仮想的なシステムターゲットデコーダモデルのビデオバッファに、上記第2の符号化ストリームに続いて上記第1の符号化ストリームの第1のピクチャが入力されるときの第3のビット占有量が所定の範囲内であるか否かを判定し、上記第3のビット占有量が所定の範囲内でない場合、上記第1のピクチャの上記仮想的なシステムターゲットデコーダモデルへの入力時刻を遅らせるように上記第1のピクチャを含むビデオパックの入力時刻を書き換える
【0021】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0022】
本発明に係る動画像記録再生装置は、例えば図1に示すような構成を備える。この図1に示す動画像記録再生装置1は、光ディスク2に記録されているMPEG2規格で圧縮符号化された動画像データを編集することによって、復号装置側で2つのビデオストリームを継ぎ合わせたときにおける再生がシームレスに行えるような動画像データを生成し、この動画像データを再度光ディスク2に記録する装置である。
【0023】
以下この動画像記録再生装置1に用いられる光ディスク2には、MPEG2方式で符号化したビデオデータ及びオーディオデータがパック化され、このパック単位で時分割多重化された多重化ストリームが記録されている。また、2つのビデオストリームを継ぎ合わせて再生するの際のアウト点ピクチャが含まれる動画像プログラムをアウト点側プログラムと呼び、イン点ピクチャが含まれる動画像プログラムをイン点側プログラムと呼ぶ。また、再生の際のアウト点ピクチャが含まれるGOP(group of pictures )をアウト点側GOPとも呼び、また、イン点ピクチャが含まれるGOPをイン点側GOPとも呼ぶ。
【0024】
この動画像記録再生装置1は、光ディスク2から多重化ストリームを読み出す読み出し部3と、読み出し部3により読み出された多重化ストリームを復調する復調部4と、復調部4により復調された多重化ストリームに誤り訂正処理を施す誤り訂正処理部5と、誤り訂正処理部5により誤り訂正処理が施された多重化ストリームを一時格納するバッファ6と、編集処理をして生成された多重化ストリームに誤り訂正符号を付加する誤り訂正符号付加部7と、誤り訂正符号付加部7により誤り訂正符号が付加された多重化ストリームを変調する変調部8と、変調部8により変調された多重化ストリームを光ディスク2に書き込む書き込み部9とを備えている。
【0025】
また、動画像記録再生装置1は、バッファ6に格納されている多重化ストリームをビデオストリームとオーディオストリームとに分離するデマルチプレクサ11と、デマルチプレクサ11により分離されたビデオストリームを復号してビデオデータを生成するビデオデコーダ12と、ビデオデコーダ12により復号されたビデオデータを再符号化してビデオストリームを生成するビデオエンコーダ13と、ビデオストリームとオーディオストリームと時分割多重化して多重化ストリームを生成するマルチプレクサ14とを備えている。
【0026】
更に、動画像記録再生装置1は、イン点ピクチャの情報及びアウト点ピクチャの情報等の再生をする際に必要となる編集情報を読み出し部3に入力する編集情報入力部15を備えている。この編集情報入力部15は、例えばユーザにより操作されるキーボード等からの操作入力命令に従って指定されたイン点ピクチャの情報及びアウト点ピクチャの情報等を用いて編集情報を生成して読み出し部3に出力する。
【0027】
また、この動画像記録再生装置1は、編集情報入力部15により入力された編集情報、デマルチプレクサ11から供給される多重化ストリーム等を解析し、復号装置で再生をシームレスに行わせるために必要な編集処理情報を生成して、ビデオエンコーダ13及びマルチプレクサ14を制御する解析制御部16を備えている。この解析制御部16は、ビデオエンコーダ13によりビデオストリームの再エンコード処理を実行するための方法をビデオエンコーダ13に出力するとともに、マルチプレクサ14により再多重化処理を実行するための方法を示す編集処理情報をマルチプレクサ14に出力する。
【0028】
また、この動画像記録再生装置1は、マルチプレクサ14に供給するビデオストリームの供給元を切り換える切換器17を備えている。切換器17は、解析制御部16の制御に応じて、デマルチプレクサ11により分離されたビデオストリームをビデオデコーダ12及びビデオエンコーダ13により復号及び再エンコードさせてマルチプレクサ14に供給するか、或いは、デマルチプレクサ11により分離されたビデオストリームをそのままマルチプレクサ14に供給するかを切り換える。なお、デマルチプレクサ11により分離されたオーディオストリームは、復号及び再エンコードされずにそのままマルチプレクサ14に供給される。
【0029】
以上のような構成の動画像記録再生装置1は、解析制御部16が光ディスク2に記録されている多重化ストリームを解析して、読み出し部3、ビデオデコーダ12、ビデオエンコーダ13、マルチプレクサ14、及び切換器17を制御することにより、復号装置で継ぎ合わせたビデオストリームの再生をシームレスに行うためのブリッジシーケンスを生成し、このブリッジシーケンスを光ディスク2に記録する。
【0030】
次に、動画像記録再生装置1でのビデオストリームの再エンコード処理について説明する。
【0031】
この動画像記録再生装置1では、復号装置において動画像プログラムの一部分をスキップ再生する際に、スキップ再生開始点であるアウト点ピクチャより時間的に前側のプログラムであるアウト点側プログラムと、スキップ再生到達点であるイン点ピクチャより時間的に後側のプログラムであるイン点側プログラムとをシームレスに継ぎ合わせることができるように、ビデオストリームの再エンコード処理をビデオエンコーダ13、解析制御部16により行う。
【0032】
MPEG2規格に準じた画像群の単位であるGOPには、他の画像からの予測符号化なしに画像が符号化された参照画像である少なくとも1つのI(Intra)ピクチャと、表示順序に順方向の予測符号化を用いて画像が符号化された順方向予測符号化画像であるP(predictive)ピクチャと、順方向及び逆方向の予測符号化を用いて画像が符号化された双方向予測符号化画像であるB(bidirectionally)ピクチャとの3種類の符号化画像が含まれている。
【0033】
例えば、図2(a)に示すように、アウト点ピクチャ(Pout)が含まれるアウト点側GOPをGOP(1)とし、アウト点ピクチャをその中のBピクチャであるB14とする。このGOP(1)は、GOP(0)から続くGOPである。また、図2(b)に示すように、イン点ピクチャ(Pin)が含まれるイン点側GOPをGOP(n)とし、イン点ピクチャをその中のBピクチャであるBn4とする。このGOP(n)には、GOP(m)が後に続いている。なお、i番目のGOP(i)における表示順序がj番目(すなわち、テンポラルリファレンスがj)のIピクチャをIijと表記し、i番目のGOP(i)における表示順序がj番目のPピクチャをPijと表記し、i番目のGOP(i)における表示順序がj番目のBピクチャをBijと表記する。
【0034】
具体的に、アウト点側GOPであるGOP(1)には、I12,B10,B11,P15,B13,B14,P18,B16,B17の順序で光ディスク2に記録されるピクチャが含まれている。また、イン点側GOPであるGOP(n)には、In2,Bn0,Bn1,Pn5,Bn3,Bn4,Pn8,Bn6,Bn7の順序で光ディスク2に記録されるピクチャが含まれている。
【0035】
この図2(a)及び図2(b)に示したようなアウト点側GOP及びイン点側GOPを例にとって、動画像記録再生装置1のビデオエンコーダ13により行う再エンコード処理について説明する。
【0036】
先ず、アウト点ピクチャ(Pout)を含むアウト点側GOPであるGOP(1)を復号する。これに続いて、上記アウト点ピクチャ(Pout)が、表示順序でアウト点ピクチャ(Pout)よりも後の符号化画像を予測参照しなくても復号できるようにこのGOP(1)を再びエンコードする。図2(a)に示すようにアウト点側GOPであるGOP(1)のピクチャB14がアウト点ピクチャ(Pout)である場合、ピクチャP15に基づき予測符号化されているピクチャB13、B14を、このピクチャP15に基づき予測参照しないで作れるように再エンコードを行い、図2(c)に示すような新たなGOPであるGOP(1−x)を生成する。
【0037】
具体的に、このGOP(1−x)を生成するには、まず始めに、ピクチャI12,B10,B11,P15,B13,B14を復号して符号化していないビデオデータにビデオデコーダ12により戻してから、ピクチャB14をピクチャI12に基づき予測符号化されたPピクチャのピクチャP14xに再エンコードする。続いて、ピクチャB13をピクチャI12とピクチャP14xに基づき予測符号化されるBピクチャのB13xに再エンコードする。そして、ピクチャI12,B10,B12は再エンコードを行わないで、GOP(1)からコピーする。なお、これらのピクチャI12,B10,B12についても再エンコードしてもよい。このように再エンコードされた結果、図2(c)に示すような、I12,B10,B11,P14x,B13xから構成されたGOP(1−x)とSQE(Sequence-end-code)とが生成される。
【0038】
次に、イン点ピクチャ(Pin)を含むイン点側GOPであるGOP(n)を復号する。続いて、上記イン点ピクチャ(Pin)が、表示順序でイン点ピクチャより前の符号化画像を予測参照しなくても復号できるようにこのGOP(n)を再び符号化する。すなわち、図2(b)のようにイン点側GOPであるGOP(n)のピクチャBn4がイン点ピクチャ(Pin)である場合、ピクチャIn2に基づき予測符号化されているピクチャBn4を、予測参照しないで作れるように再エンコードを行い、図2(d)に示すような新たなGOPであるGOP(n−x)を生成する。
【0039】
具体的に、このGOP(n−x)を生成するには、まず始めに、ピクチャIn2,Bn0,Bn1,Pn5,Bn3,Bn4,Pn8,Bn6,Bn7を復号して符号化されていないビデオデータにビデオデコーダ12により戻してから、ピクチャPn5をIピクチャのピクチャIn5xに再エンコードする。そして、ピクチャBn4,Pn8,Bn6,Bn7については、同じピクチャタイプのピクチャBn4x,Pn8x,Bn6x,Bn7xに再エンコードする。このように再エンコードされた結果、図2(d)に示すような、SH(Sequence Header)と、ピクチャIn5x,Bn4x,Pn8x,Bn6x,Bn7xとから構成されたGOP(n−x)とを生成する。
【0040】
動画像記録再生装置1では、以上のようなイン点側GOP及びアウト点側GOPの再エンコード処理を、解析制御部16がビデオデコーダ12及びビデオエンコーダ13並びに切換器17を制御して行う。そして、この動画像記録再生装置1では、アウト点ピクチャB14より表示順序で前側の画像(・・・I12,B10,B11,B13)と、イン点ピクチャBn4より表示順序で後ろ側の画像(Pn5,Pn8,Bn6,Bn7・・・)とを再エンコードすることにより、図2(e)に示すように、・・・B10,B11,I12,B13x,P14x,Bn3x,Bn4x,In5x,Bn6x,Bn7x,Pn8x・・・といった順序で表示される動画像を生成する。
【0041】
次に、動画像記録再生装置1に備えられたマルチプレクサ14で行う多重化ストリームの再多重化処理について説明する。
【0042】
解析制御部16では、復号装置において動画像プログラムの一部分をスキップ再生する際に、スキップ再生開始点であるアウト点ピクチャより時間的に前側のプログラムであるアウト点側プログラムと、スキップ再生到達点であるイン点ピクチャより時間に後側のプログラムであるイン点側プログラムとをシームレスに継ぎ合わせることができるように、マルチプレクサ14に多重化ストリームの再多重化処理を行わせる。
【0043】
図3(a)に、アウト点側プログラムの多重化ストリームの構造の一例を示す。Clip−Aは、アウト点側プログラムが含まれている多重化ストリームであって、例えば、MPEG2システム規格(ISO/IEC 13818-1)で定義されてる連続したSCR(System Clock Reference)が付加されているプログラムストリームである。Clip−Aには、1本のビデオストリームと1本のオーディオストリームがパック単位で時分割多重化されている。図3において、v0,v1,v2,v3はGOP長のビデオストリームであり、a0,a1,a2,a3はGOP長のオーディオストリームである。例えば、Clip−Aの中のバイト位置BaからBjoの間に、v1とa0とがパック単位で時分割多重化されている。なお、1パックの大きさは、例えば、2048バイトである。
【0044】
Clip−Aの中のオーディオストリームは、同期再生されるビデオストリームに対して所定のバイト量(audio skew:AV多重化位相差)の距離を離れたバイト位置に存在している。この図3(a)に示す例では、このaudio skewを一定にしているが、この値はプログラムストリーム中で変化してもよい。本例では、v0とa0が同期しており、同様にv1とa1、v2とa2、v3とa3が同期している。
【0045】
ここで、Clip−Aのv3のGOPの中からアウト点ピクチャ(Pout)が選択されたとする。この場合、動画像記録再生装置1では、以下に示す手順でアウト点側のブリッジシーケンス(bridge sequence)を生成する。このブリッジシーケンスとは、編集点付近のビデオストリームを再エンコードして生成したビデオストリームを、再多重化した多重化ストリームである。
【0046】
まず、第1の工程として、上述したビデオストリームの再エンコード処理に基づいて、アウト点ピクチャが含まれたv3のGOPを再エンコードする。この場合、v3のGOPを再エンコードして、新たにv3’のGOPを生成する。このv3’の時間長は、v3の時間長よりも短い。
【0047】
第2の工程として、Clip−Aからアウト点側のブリッジシーケンスへのジャンプ点をBjoとして、このBjo以降のバイト位置に存在するビデオストリームであってv3より前のビデオストリーム(この場合v2)をClip−Aからコピーする。また、このBjo以降のバイト位置に存在するオーディオストリームであってv3’と同期したオーディオストリームより前のオーディオストリーム(この場合a1,a2)をClip−Aからコピーする。続いて、v3’に同期するオーディオストリームを、a3内からコピーして、オーディオストリームa3’を生成する。
【0048】
第3の工程として、上記第1及び第2の工程で生成したビデオストリーム及びオーディオストリームを再多重化する。この場合、v2,v3’と、a1, a2,a3’とを再多重化して、図3(b)に示すようなbridge sequence-Aを生成し、光ディスク2に記録する。
【0049】
このようにbridge sequence-Aが記録された光ディスク2を復号装置で2つのビデオストリームを継ぎ合わせて再生する時に読み出す場合、アウト点側の多重化ストリームを再生するときにClip−AをBjo点まで読み出した後、このbridge sequence-Aを読み出すようにする。
【0050】
なお、動画像記録再生装置1では、Bjo点までのClip−Aからbridge sequence-Aへと続くストリームを、SCRが連続したプログラムストリームとするように多重化を行わなければならない。
【0051】
図4(a)に、イン点側プログラムの多重化ストリームの構造の一例を示す。Clip−Bは、イン点側プログラムが含まれている多重化ストリームであって、例えば、MPEG2システム規格で定義されてる連続したSCRが付加されているプログラムストリームである。Clip−Bには、1本のビデオストリームと1本のオーディオストリームがパック単位で時分割多重化されている。図3と同様にして図4において、v5,v6,v7,v8はGOP長のビデオストリームであり、a5,a6,a7はGOP長のオーディオストリームである。例えば、Clip−Bのバイト位置BjiからBbの間にv8とa7がパック単位で時分割多重化されている。Clip−Bの中のオーディオストリームは、同期再生されるビデオストリームに対して所定のバイト量(audio skew)の距離を離れたバイト位置に存在している。この図4(a)に示す例も、audio skewを一定にしているが、この値はプログラムストリーム中で変化してもよい。また、本例では、v5とa5が同期しており、同様にv6とa6、v7とa7、v8とa8が同期している。
【0052】
ここで、Clip−Bのv5の中からイン点ピクチャ(Pin)が選択されたとする。この場合、動画像記録再生装置1では、以下に示す手順でイン点側のブリッジシーケンスを生成する。
【0053】
まず、第1の工程として、上述したビデオストリームの再エンコード処理に基づいて、イン点ピクチャが含まれたv5のGOPを再エンコードする。この場合、v5のGOPを再エンコードして、新たにV5’のGOPを生成する。このv5’の時間長は、v5の時間長よりも短い。
【0054】
第2の工程として、イン点側のブリッジシーケンスからClip−Bへのジャンプ点をBjiとして、v5より後のビデオパックであってこのBji以前のバイト位置に存在するビデオストリーム(この場合v6,v7)をClip−Bからコピーする。また、v5’と同期したオーディオストリームより後のオーディオストリームであってこのBji以前のバイト位置に存在するオーディオストリーム(この場合a6)をClip−Bからコピーする。続いて、v5’に同期するオーディオストリームを、a5内からコピーして、オーディオストリームa5’を生成する。
【0055】
第3の工程として、上記第1及び第2の工程で生成したビデオストリーム及びオーディオストリームを再多重化する。v5’,v6,v7と、a5’,a6とを再多重化して、図4(b)に示すようなbridge sequence-Bを生成し、光ディスク2に記録する。
【0056】
このようにbridge sequence-Bが記録された光ディスク2を復号装置で2つのビデオストリームを継ぎ合わせて再生する時に読み出す場合、イン点側プログラムを再生するときにこのbridge sequence-Bを読み出した後、Clip−BをBji点から読み出すようにする。
【0057】
なお、動画像記録再生装置1では、Bridge sequence-BからBji点以後のClip−Bへと続くストリームを、SCRが連続したプログラムストリームとするように多重化を行わなければならない。
【0058】
動画像記録再生装置1では、以上のような再多重化をすることによって、図3(b)に示すようなbridge sequence-Aと、図4(b)に示すようなbridge sequence-Bを生成することができる。
【0059】
図5に、Bjo点以前のClip−Aからbridge sequence-Aへと続く多重化ストリームをClip−1とし、bridge sequence-BからBji点以後のClip−Bへと続く多重化ストリームをClip−2としたときの、編集点前後での多重化ストリームの構造を示す。復号装置側では、このClip−1からClip−2へ続く多重化ストリームを連続してデコードしたとき、シームレスにビデオ及びオーディオを再生する必要がある。動画像記録再生装置1では、復号装置側でビデオ及びオーディオをシームレスに再生させるために、Clip−1とClip−2とのオーディオストリームに以下の制限を設けて、再エンコード及び再多重化を行う。
【0060】
動画像記録再生装置1は、Clip−1の終端部とClip−2の始端部の境界において、オーディオの表示時間のギャップが存在しないよう制限をする。すなわち、Clip−1のオーディオストリームはClip−1のビデオが表示終了する時刻に表示されるオーディオサンプルを含むように再多重化をし、Clip−2のオーディオストリームはClip−2のビデオが表示開始する時刻に表示されるオーディオサンプルを含むように再多重化をする。従って、この境界において、2 audio frame以下の表示時間のオーバーラップが存在する可能性がある。ここで、1 audio frameは、例えば、MPEG1のオーディオストリームの場合、24msecの長さの表示時間のオーディオストリームである。
【0061】
なお、図5に示すV1LBI、A1LBI、V2FBI、A2FBIは以下のとおりである。
V1LBI : Clip−1の中のvideo-1の最後のパックの最終バイト位置
A1LBI : Clip−1の中のaudio-1の最後のパックの最終バイト位置
V2FBI : Clip−2の中のvideo-2の最初のパックの第1バイト位置
A2FBI : Clip−2の中のaudio-2の最初のパックの第1バイト位置
また、これらV1LBI、A1LBI、V2FBI、A2FBIの関係は以下のとおりである。
V1LBI < A1LBI
V2FBI < A2FBI
なお、上記以外の関係になることは、MPEGの規格上では可能であるが、実用上ではほとんど存在しない。
【0062】
次に、上述の動画像記録再生装置1により再エンコード及び再多重化を行って光ディスク2に記録されたオーディオストリームとビデオストリームとがパック化されてなる多重化ストリーム(Clip−1及びClip−2)を再生する仮想的なデコーダモデルであるシステムターゲットデコーダの構成について図6を用いて説明する。
【0063】
ここで、多重化ストリームは、システムターゲットデコーダ20への出力タイミングを示すSCR(System Clock Reference)、デコードタイミングを示すDTS(Decoding Time Stamp)及びデコードされたデータの出力タイミングを示すPTS(Presentation Time Stamp)が付加情報として付加されたビデオパックと、ビデオパックと同様にSCR、DTS及びPTSが付加情報として付加されたオーディオパックからなり、これら付加情報が参照されてデコードタイミング及び出力タイミングが制御される。
【0064】
図6に示すシステムターゲットデコーダ20は、光ディスク2から再生した多重化ストリーム(Clip−1及びClip−2)が入力され、この多重化ストリームをビデオストリームとオーディオストリームに分離するデマルチプレクサ21と、デマルチプレクサ21により分離されたビデオストリームを一時格納するビデオバッファ22と、デマルチプレクサ21により分離されたオーディオストリームを一時格納するオーディオバッファ23と、ビデオバッファ22に格納されたビデオストリームを抜き出して復号するビデオデコーダ24と、復号したビデオデータを一時格納するリオーダバッファ25と、オーディオバッファ23に格納されたオーディオストリームを抜き出して復号するオーディオデコーダ26と、ビデオデコーダ24により復号されたビデオデータとリオーダバッファ25に格納されているビデオデータとを切り換えて出力する出力スイッチ27とを備えている。
【0065】
また、システムターゲットデコーダ20は、デマルチプレクサ21のビデオーストリームとオーディオストリームとの切り換えタイミング、ビデオデコーダ24の復号タイミング、オーディオデコーダ26の復号及び出力タイミング、出力スイッチ27の出力タイミングを制御するための基準同期信号(STC:System Time Clock)を供給する時間制御部28を備えている。
【0066】
また、システムターゲットデコーダ20は、時間制御部28から供給されるSTC−1とSTC−2とで切り換える第1から第4のSTCスイッチSW1〜SW4を備えている。
【0067】
デマルチプレクサ21には、多重化ストリームに付加されているSCRに応じてこの多重化ストリームを構成する各パケットが入力される。デマルチプレクサ21は、この多重化ストリームを時間制御部28から供給されるSTCに基づいてビデオストリームとオーディオストリームとに分離する。そして、デマルチプレクサ21は、ビデオストリーム及びオーディオストリームを所定の出力レートprogram_mux_rateでビデオバッファ22及びオーディオバッファ23に出力する。
【0068】
ビデオデコーダ24は、ビデオストリームに付加されているDTSと、時間制御部28から供給されたSTCとが一致したときに、ビデオバッファ22から所定のピクチャのデータを抜き出して復号する。そして、ビデオデコーダ24は、PTSとDTSとが一致したときに、復号したビデオデータを、出力スイッチ27を介して外部に出力する処理或いは、リオーダバッファ25に一旦格納された後出力スイッチ27を介して出力する処理を行う。
【0069】
オーディオデコーダ26は、オーディオストリームに付加されているDTSと、時刻制御部28から供給されたSTCとが一致したときに、オーディオバッファ23からオーディオストリームを抜き出して復号する。そして、オーディオデコーダ26は、PTSとSTCとが一致したときに復号したオーディオデータをSTCスイッチSW3に出力する処理を行う。
【0070】
なお、このオーディオデコーダ26の前段にあるオーディオバッファ23のバッファサイズは、MPEG-2 CSPS=1に規定されたバッファサイズに比べて、次に示すだけの大きさが必要である。
【0071】
additional-buffer-size = (program_mux-rate-Ra)*Ra / program-mux-rate
ここで、“Ra”は、オーディオストリームの最大ビットレートである。“program-mux-rate”は、Clip−1 とClip−2のプログラムストリームの最大ビットレートのうち、大きい方の値である。例えば、program-mux-rate=10 Mbps, Ra=256 kbpsであれば、オーディオバッファ23のadditional-buffer-sizeは、0.249Mbitとなる。
【0072】
出力スイッチ27は、ビデオパックに付加されているPTSと、時刻制御部28から供給されたSTCとが一致したときに、復号したビデオデータを出力する。なお、この出力スイッチ27は、必要に応じて、リオーダバッファ25に格納されたビデオデータを出力する。
【0073】
時間制御部28は、2つのビデオストリームを継ぎ合わせて再生する際のアウト点側プログラムからイン点側プログラムへの切り換え時に、アウト点側プログラムのSCRに同期したSTCと、イン点側プログラムのSCRに同期したSTCとの2つのSTCを発生する。
【0074】
時間制御部28は、例えば、STCを発生するSTC発生器28aと、STC発生器28aが発生したSTCから所定のオフセット値(STC_delta)を減算する減算器28bとを有しており、オフセット値が減算されていないSTC発生器28aから直接出力されたSTC(これはアウト点側プログラムのSCRに同期したSTCであり、以下STC−1と呼ぶ。)と、STC発生器28aから直接出力されるSTC−1からオフセット値(STC_delta)を減算したSTC(これはイン点側プログラムのSCRに同期したSTCであり、以下STC−2と呼ぶ。)との2つのSTCを出力する。
【0075】
すなわち、このオフセット値(STC delta)は、Clip−1とClip−2との多重化ストリームの時間軸のオフセット量を示しており、Clip−1のビデオを表示終了する時のClip−1の時間軸上での時刻とClip−2のビデオを表示開始する時のClip−2の時間軸上での時刻の差を示している。
【0076】
例えば、ここで、Clip−1の時間軸上におけるアウト点ピクチャPoutのPTSを“PTS-Pout”とし、アウト点ピクチャPoutの表示期間を“Tpp”とし、Clip−2の時間軸上におけるイン点ピクチャPinのPTSを“PTS-Pin”とすると、オフセット値“STC delta”は、以下の式1に示すようになる。
PTS-Pout-end = PTS-Pout + Tpp
STC-delta = PTS-Pout-end−PTS-Pin (式1)
この時間制御部28から出力される2つのSTC(STC−1,STC−2)は、第1から第4のSTCスイッチSW1〜SW4によりいずれか一方が選択されて、デマルチプレクサ21、ビデオデコーダ24、オーディオデコーダ26、出力スイッチ27に供給される。第1のSTCスイッチSW1は、端子AにSTC−1が入力され、端子BにSTC−2が入力され、いずれか一方の端子を選択して選択した端子に入力されたSTCをデマルチプレクサ21に供給する。第2のSTCスイッチSW2は、端子AにSTC−1が入力され、端子BにSTC−2が入力され、いずれか一方の端子を選択して選択した端子に入力されたSTCをビデオデコーダ24に供給する。第3のSTCスイッチSW3は、端子AにSTC−1が入力され、端子BにSTC−2が入力され、いずれか一方の端子を選択して選択した端子に入力されたSTCをオーディオデコーダ26に供給する。第4のSTCスイッチSW4は、端子AにSTC−1が入力され、端子BにSTC−2が入力され、いずれか一方の端子を選択して選択した端子に入力されたSTCを出力スイッチ27に供給する。
【0077】
次に、このように構成されるシステムターゲットデコーダ20の動作について説明する。
【0078】
図7にClip−1からClip−2へと連続して続く2つの多重化ストリームが入力されたときのシステムターゲットデコーダ20の動作タイミングを表すタイミングチャートを示す。
【0079】
まず、Clip−1の最初のパックに示されているSCRがSTC発生器28aにSTCとしてセットされる。第1から第4の各STCスイッチSW1〜SW4は全て端子A側に切り換えられ、STC−1(Clip−1のSCRに同期したSTC)がデマルチプレクサ21、ビデオデコーダ24、オーディオデコーダ26及び出力スイッチ27に供給されている。すなわち、Clip−1に付加されたSCRに基づき全ての機能が動作している。
【0080】
時刻T1以前では、デマルチプレクサ21には、Clip−1の各パックに付加されているSCRと第1のSTCスイッチの端子Aから供給されるオフセットが加算されていないSTC−1とが一致したタイミングで入力される。続いて時刻T1となると、Clip−1の最後のビデオパックのデマルチプレクサ21への入力が終了する。続いて時刻T1から時刻T2の間では、デマルチプレクサ21には、Clip−1の各パックが、各パックに付加されたSCRを無視して、Clip−1の最大ビットレートprogram_mux_rate1で入力される。この最大ビットレートprogram_mux-rate1は、例えば、光ディスク2からデータを読み出す際の最大転送レートであってもよい。
【0081】
ここで、Clip−1の最後のビデオパックの次のパックから、Clip−1の最後のパックまでのデータ量を“N1”とすると、時刻T1から時刻T2までの時間“ΔT1”は、以下式2のようになる。
【0082】
ΔT1 =T2−T1 = N1 / program-mux-rate1 (式2)
続いて時刻T2となると、Clip−1の最後のパック(オーディオパック)のデマルチプレクサ21への入力が終了する。この時刻T2において、第1のSTCスイッチSW1は端子B側に切り換えられ、デマルチプレクサ21にSTC−2(Clip−2のSCRに同期したSTC)が供給される。そのため、デマルチプレクサ21は、Clip−2に付加されたSCRに基づき動作を開始する。続いて時刻T2から時刻T3の間では、Clip−2の最初のパケットがビデオパックでない場合、デマルチプレクサ21には、Clip−2の最初のパックからClip−2の最初のビデオパックの前のパックまでのパックが、各パックのSCRを無視して、Clip−2の最大ビットレートprogram-mux-rate2で入力される。この最大ビットレートprogram_mux_rate2は、例えば、光ディスク2からデータを読み出す際の最大転送レートであってもよい。
【0083】
ここで、Clip−2の最初のパックから、Clip−2の最初のビデオパックの前のパックまでのデータ量を“N2”とすると、時刻T2から時刻T3までの時間“ΔT2”は、以下の式3のようになる。
【0084】
ΔT2 =T3−T2 = N2 / program-mux-rate2 (式3)
なお、MPEG2プログラムストリームは、一般的に、最初のパックがビデオパックであるため、ΔT2=0である。
【0085】
続いて時刻T3となると、Clip−2の最初のビデオパックのデマルチプレクサ21への入力が開始し、以後デマルチプレクサ21には、Clip−2の各パックのSCRと第1のSTCスイッチSW1の端子Bから供給されるオフセットが加算されたSTC−1とが一致したタイミングで入力される。ここで、Clip−2の最初のビデオパックのSCRは、次の式4を満たさなければならない。
【0086】
SCR-video2-start > SCR-video1-end−STC-delta+ΔT1+ΔT2 (式4)
SCR-video1-end = SCR-last-video1+pack_length/program-mux-rate1
“SCR-video2-start”はClip−2の最初のビデオパックのSCRであり、“SCR-video1-end”はClip−1の最後のビデオパックがデマルチプレクサ21へ入力終了する時のClip−1の時間軸上での時刻である。これは、Clip−1の最後のビデオパックのsystem-clock-reference(SCR-last-video1)とprogram-mux-rate1とパック長(pack-length)から以下のように計算することができる値である。pack-lengthは、例えば、2048 byteである。
【0087】
続いて時刻T4にとなると、第2のSTCスイッチSW2が端子A側から端子B側に切り換えられ、ビデオデコーダ24が参照しているSTCがSTC−1からSTC−2に切り換えられる。ビデオデコーダ24は、ビデオストリームの各ピクチャに付けられているDTSを参照するためのSTCが切り換えられることにより、Clip−2のビデオストリームの復号を開始する。
【0088】
続いて時刻T5となると、第3のSTCスイッチSW3が端子A側から端子B側に切り換えられ、オーディオデコーダ26が参照しているSTCがSTC−1からSTC−2に切り換えられる。オーディオデコーダ26は、オーディオストリームに付けられているPTSを参照するためのSTCが切り換えられることにより、Clip−2のオーディオストリームの出力を開始する。なお、オーディオデコーダ26は、Clip−1の終了部分のオーディオデータとClip−2の開始部のオーディオデータに、データのオーバーラップがあるときには、どちらのオーディオのサンプルを表示するか選択する必要がある。
【0089】
続いて時刻T6となると、第4のSTCスイッチSW4が端子A側から端子B側に切り換えられ、出力スイッチ27が参照しているSTCがSTC−1からSTC−2に切り換えられる。出力スイッチ27は、ビデオストリームの各ピクチャに付けられているPTSを参照するためのSTCが切り換えられることにより、Clip−2のビデオストリームの出力を開始する。
【0090】
そして、この時刻T6において、第1から第4のSTCスイッチSW1〜SW4が全て端子B側に切り換えられると、STC発生器28aから発生されるSTCの値が、[STC−STC-delta]にリセットされ、それとともに、第1から第4のSTCスイッチSW1〜SW4がすべて端子A側に切り換えられ、上述した時刻T1以前の状態と同一となる。
【0091】
このような仮想的なデコーダモデルを規定したシステムターゲットデコーダ20は、エンコードしたビデオストリームを入力したときにおいて、ビデオバッファ22のアンダーフロー及びオーバーフローを防止するために、ビデオバッファ22のバッファ容量を制限するように、動画像記録再生装置1によりビデオストリームをエンコード及び多重化する処理に対する制限を規定している。
【0092】
そして、動画像記録再生装置1によりビデオストリームをエンコード及び多重化するときには、図8に示すMPEG規格に準拠したVBV(Video Buffering Verifier)モデル30を満たすようにビデオストリームを符号化して、図6のシステムターゲットデコーダのビデオバッファ22をオーバーフローさせないように多重化を行う。
【0093】
上記VBVモデル30は、ビデオストリームが入力されるVBVバッファ31と、VBVバッファ31から所定の出力タイミングでビデオストリームが入力されデコードを行う仮想ビデオデコーダ32とからなり、仮想的な復号を行って復号ピクチャを出力するようになされている。
【0094】
動画像記録再生装置1は、各ピクチャに含まれランダムアクセス時のVBVバッファ31の初期状態を示すvbv_delayという16ビットのフィールドを符号化する。上記vbv_delayの値は、そのピクチャを復号するときにVBVバッファ31に必要なビット占有量を表す。そして、VBVモデル30の仮想ビデオデコーダ32は、あるピクチャを復号するとき、そのピクチャに付加されたvbv_delayを読み出し、VBVバッファ31がvbv_delayで示されるビット占有量になったときにそのピクチャを復号する。
【0095】
次に、上述したようなシステムターゲットデコーダ20のような仮想的なデコーダモデルを規定しビデオストリームを再エンコード及び再多重化するときの制限に従って、動画像記録再生装置1によりビデオストリームの再エンコードを行って再多重化を行うときの処理手順について図9に示すフローチャートを用いて説明する。
【0096】
この図9によれば、先ず、ステップST1において、動画像記録再生装置1は、ビデオエンコーダ13で行う再エンコード及びマルチプレクサ14で行う再多重化におけるシステムターゲットデコーダ20で規定される制限に対応するための各種パラメータを決定する処理を行う。
【0097】
すなわち、動画像記録再生装置1は、再エンコードするアウト点側プログラムのビデオのビットレートRv1、再エンコードするイン点側プログラムのビデオのビットレートRv2、再エンコードするイン点側プログラムの最初のピクチャをデコードするときのVBVバッファ31のビット占有量Bvsd、再エンコードしたアウト点側プログラムのビデオストリームとオーディオストリームとを多重化するときの多重化位相差時間Tasを決定する。なお、上記各種パラメータを設定するときの詳細な説明は後述する。
【0098】
次のステップST2において、動画像記録再生装置1は、アウト点側プログラムのビデオストリームについて再エンコードをビデオエンコーダ13により行って、再エンコードされたビデオストリームとオーディオストリームとをパック単位で時分割多重化する処理をマルチプレクサ14により行う。なお、アウト点側プログラムについて行う再エンコード及び再多重化の処理の詳細については後述する。
【0099】
次のステップST3において、動画像記録再生装置1は、イン点側プログラムのビデオストリームについて再エンコードをビデオエンコーダ13により行って、再エンコードされたビデオストリームとオーディオストリームとをパック単位で時分割多重化する処理をマルチプレクサ14により行って処理を終了する。なお、イン点側プログラムについて行う再エンコード及び多重化の処理の詳細については後述する。
【0100】
次に、上述の図9に示したステップST1における再エンコードを行うときの各種パラメータについて説明する。
【0101】
動画像記録再生装置1は、ビデオエンコーダ13により再エンコードを行うとき、Clip−1とClip−2とからなる多重化ストリームのビデオストリームに編集処理を行うときにおいて、上記ビットレートRv1、ビットレートRv2、ビット占有量Bvsd、多重化位相差時間Tasを下記の式5を満たすように決定する。
(Tvs1−Tms1)+(Tvs2−Tms2)>△T1 (式5)
ここで、Tvs1=Bvsd/Rv1、Tms1=Bvsd/(Rm1−Ra1)、Tvs2=Bvsd/Rv2、Tms2=Bvsd/(Rm2−Ra2)、△T1=Tas*Ra1/Rm1である。
【0102】
上記Rm1はClip−1の多重化ストリームのビットレートprogram_mux-rateであり、上記Ra1はClip−1のオーディオストリームのビットレートである。また、上記Rm2はClip−2の多重化ストリームのビットレートprogram-mux-rateであり、上記Ra2はClip−2のオーディオストリームのビットレートである。上記Rm1及び上記Rm2は下記式6及び式7で表現される。
Rm1=Ra1+Rv1+α (α>0) (式6)
Rm2=Ra2+Rv2+β (β>0) (式7)
更に、上記BvsdはVBVバッファ31のビット占有量であり、例えばClip−2のイン点ピクチャに含まれるGOPの最初のIピクチャをデコードするときのVBVバッファ31のビット占有量とする。
【0103】
ここで、上記Bvsdを、図2(b)のGOP(n)のピクチャIn2をデコードするときのVBVバッファ31のビット占有量とする具体例を図10を用いて説明する。図10は、Clip−2についてのSTCの時刻(STC−2)と、システムターゲットデコーダ20にビデオストリーム及びオーディオストリームが入力されたときにおけるビデオバッファ22のビット占有量(STDバッファのビット占有量)との関係を示す図である。ここで、図中のSTDバッファとは、システムターゲットデコーダ20にビデオストリームとオーディオストリームとが多重化されたClip−1及びClip−2とが入力されているときにおけるビデオバッファ22のビット占有量を示す。したがって、ビット占有量の傾きがゼロの直線(水平)の時間帯は、例えばデマルチプレクサ21からオーディオバッファ23にオーディオストリームが入力されている時間帯等であることにより、ビデオバッファ22へのデータ入力が停止していることを表す。これに対し、後述の図15は、VBVバッファ31にビデオストリームのみが入力されているときのVBVバッファ31のビット占有量を示す。図10における右上がりの直線の傾きは、多重化ストリームのビットレートである。また図15における右上がりの直線の傾きは、ビデオストリームのビットレートである。
【0104】
図10中scr(In2)は、ピクチャIn2の先頭のビデオデータを含むビデオパックをシステムターゲットデコーダ20に入力する時刻であり、ビデオパックのヘッダに含まれるSCRに示される時刻である。ピクチャIn2の先頭のデータを含むパックは、STCとscr(In2)とが一致したタイミングでシステムターゲットデコーダ20に入力される。システムターゲットデコーダ20にビデオパックのビデオストリームが入力されるときには、ビデオバッファ22のビット占有量がビットレートRm2で増加する。また、図中dts(In2)は、ピクチャIn2をデコードする時刻であり、ピクチャIn2を含むビデオパックに付加されたDTSで示される時刻である。そして、dts(In2)においてピクチャIn2のビデオデータが引き抜かれてビット占有量が減少する。
【0105】
そして、図10に示すようにdts(In2)におけるシステムターゲットデコーダ20のビデオバッファ22のビット占有量を再エンコードするイン点側のビデオの最初のピクチャをデコードするときのVBVバッファ31のビット占有量Bvsdとする。
【0106】
更にまた、△T1は、上述したように、Clip−1の最後のビデオパックの次のパックから、Clip−1の最後のパックまでのデータ量を“N1”とすると、Clip−1の最後のビデオパックのデマルチプレクサ21への入力が終了した時刻(T1)からClip−1の最後のパック(オーディオパック)のデマルチプレクサ21への入力が終了する時刻(T2)であり下記式8に示すように表現される。
ΔT1=T2−T1=N1/ program_mux-rate (式8)
そして、動画像記録再生装置1は、上述のように定義される上記ビットレートRv1、ビットレートRv2、ビット占有量Bvsd、多重化位相差時間Tasを上記式4を満たすように再エンコード及び再多重化を行う。
【0107】
更に、図11に、Clip−1をエンコードするときにおける、時間とVBVバッファ31又はSTDバッファ(ビデオバッファ22)のビット占有量との関係を示す。この図11によれば、ビットレート(Rm1−Ra1)でビデオバッファ22にビデオストリームを入力したときのビット占有量Bvsdに達するのに要する時間は上記Tms1であり、ビットレートRv1でVBVバッファ31にビデオストリームを入力したときのビット占有量Bvsdに達するのに要する時間は上記Tvs1である。そして、Clip−1のビデオストリームをビデオバッファ22に入力するときにおいて、上記式6におけるαが大きいほど、図中の時間X(=Tvs1−Tms1)が大きくなり、Clip−1のビデオデータのビデオバッファ22への入力終了する時刻(SCR-video1-end)を小さく(速く)することができる。
【0108】
更にまた、図12に、Clip−2をエンコードするときにおける、時間とVBVバッファ31又はSTDバッファ(ビデオバッファ22)のビット占有量との関係を示す。この図12によれば、ビットレート(Rm2-Ra2)でビデオバッファ22にビデオストリームを入力したときのビット占有量Bvsdに達するのに要する時間は上記Tms2であり、ビットレートRv2でVBVバッファ31にビデオストリームを入力したときのビット占有量Bvsdに達するのに要する時間は上記Tvs2である。そして、Clip−2のビデオストリームをビデオバッファ22に入力するときにおいて、上記式7におけるβが大きいほど、図中の時間Y(=Tvs2−Tms2)が大きくなり、Clip−2のビデオデータのビデオバッファ22への入力する時刻(SCR_video2_start)を大きく(遅らせる)できる。
【0109】
次に、上述のステップST2において、動画像記録再生装置1によりアウト点側プログラムのビデオストリームの再エンコード及び再多重化を行うときの処理手順について図13を参照して説明する。
【0110】
この図13によれば、先ず、ステップST11において、ビデオエンコーダ13は、再エンコードをするビデオデータの各ピクチャのピクチャタイプを決定する処理を行う。すなわち、ビデオエンコーダ13は、図2(a)及び図2(c)を用いて説明したように、ピクチャB14がアウト点ピクチャ(Pout)である場合、ピクチャP18に基づき予測符号化されているピクチャB14を、予測参照しないで作れるように再エンコードを行うときにピクチャタイプを変更する処理を行う。
【0111】
次のステップST12において、ビデオエンコーダ13は、アウト点側の多重化ストリームであって、再エンコードしないビデオストリームの最後のピクチャがシステムターゲットデコーダ20のビデオバッファ22(STDバッファ)に入力終了したときのビット占有量Baを計算する処理を行う。
【0112】
具体的には、上記再エンコードしないビデオストリームの最後のピクチャとは、再エンコードを行う直前のデータ、すなわち図2(c)中のGOP(0)のB07が相当する。
【0113】
図14に、図2(c)に示すアウト点側のビデオストリーム(・・・,B07)が入力されたときのビデオバッファ22のビット占有量(STDバッファのビット占有量)と、ビデオパックに付加されたSCRに従った時間制御部28で生成するSTC−1との関係を示す。この図14は、ピクチャB04,P08,B06,B07がパック化されてなるビデオパックがビデオバッファ22に入力されたときのビット占有量を示している。
【0114】
図14中のscr(B04)は、ピクチャB04を含むビデオパックを最初にシステムターゲットデコーダ20に入力する時刻である。そして、時間制御部28からのSTC−1に従い、scr(B04)と一致したときからビデオパックをSCRに従って入力し、各ピクチャに付加されているDTSに従ってビデオデコーダ24でデコードを行う。すなわち、ビデオデコーダ24は、dts(B04)の時刻になったときにピクチャB04をデコードし、dts(P08)となったときにピクチャP08をデコードし、dts(B06)となったときにピクチャB06をデコードし、dts(B07)となったときにピクチャB07をデコードする。
【0115】
そして、GOP(0)に含まれる最後のピクチャB07がシステムターゲットデコーダ20に入力終了された時刻Taにおけるビデオバッファ22(STDバッファ)のビット占有量Baを計算する。
【0116】
また、時刻Ta以降にデコードされるピクチャP08,B06,B07についてのビット量(アクセスユニットサイズ)a(P08),a(B06),a(B07)を調べておく。
【0117】
なお、図14に示した一例においては、STC−1とscr(B04)とが一致したときからビット占有量Baを計算する処理を開始しているが、scr(B04)となる前の時刻からビット占有量Baの計算を開始しても良く、要するに、ビット占有量Baの計算開始時刻から時刻Taの間に少なくとも1回のDTSが存在していればよく、例えば図2(c)のピクチャI02からビット占有量Baの計算を開始してもよい。
【0118】
次のステップST13において、ビデオエンコーダ13は、ステップST12において計算したビット占有量Baに基づいて、再エンコードするビデオストリームの最初のピクチャをデコードするときのVBVバッファ31のビット占有量Bosを決定する処理を行う。
【0119】
具体的には、上記再エンコードするビデオストリームの最初のピクチャとは、図2(c)中のGOP(1−x)のピクチャI12が相当する。
【0120】
図15に、図2(c)に示すアウト点側のビデオストリーム(I12,・・・)が入力されたときのVBVバッファ31のビット占有量と、ビデオパックに付加されたSCRに従った時間制御部28で生成するSCR−1との関係を示す。ここで、図15は、ピクチャP08,B06,B07,I12,B10,B11,P14x,P13xがVBVバッファ31に入力されたときのビット占有量を示している。
【0121】
そして、ビデオエンコーダ13は、再エンコードするビデオストリームの最初のピクチャI12をデコードするときのVBVバッファ31の初期ビット占有量Bosを決める。このとき、ビデオエンコーダ13は、先ず、dts(P08)におけるVBVバッファ31のビット占有量を上記Baに設定する。ここで、ビット占有量Baが1.75Mbitより大きいときはビット占有量Baを1.75Mbitと設定する。
【0122】
そして、ビデオエンコーダ13は、上述のように設定したビット占有量Ba、ステップST13で調べたピクチャP08,B06,B07についてのビット量(アクセスユニットサイズ)a(P08),a(B06),a(B07)及びビットレートRv1に基づいて、ビデオデコーダ24によりピクチャP08,B06,B07をデコードピクチャB07をデコード終了した時刻(dts(I12))におけるVBVバッファ31のビット占有量Bosを求める。
【0123】
次のステップST14において、ビデオエンコーダ13は、再エンコードするビデオストリームの最後のピクチャ(P13x)のデコード終了時におけるビット占有量Bend1を求める。そして、ビデオエンコーダ13は、VBVバッファ31のビット占有量Bend1が、イン点側のビデオストリームのピクチャをデコードするときのVBVバッファ31のビット占有量Bvsdよりも大きくなるように、再エンコードするときのビデオストリームの割り当てビット量を決定する。
【0124】
次のステップST15において、ビデオエンコーダ13は上述のステップST14において決定したビデオストリームの割り当てビット量に基づいて、アウト点側のビデオストリームを再エンコードして、マルチプレクサ14により再多重化を行う。
【0125】
再多重化を行うとき、マルチプレクサ14は、図16に示す時刻Taからアウト点側の最後のビデオパックがデマルチプレクサ21へ入力終了する時刻SCR_video1_endまでに再エンコードされたビデオストリームの多重化を行う。これにより、マルチプレクサ14は、Clip−A及びbridge sequence-AからなるClip−1の多重化を行う。
【0126】
図16において、縦軸はビデオバッファ22(STDバッファ)のビット占有量を示し、BSの値は例えばMPEG2 MP@MLでは232 kByteであり、横軸は時間制御部28で生成するSTC−1及びSTC−2を示す。また、図16中の点線で示したビット占有量は、Clip−1とClip−2とが連続してビデオバッファ22に入力されるときの軌跡である。
【0127】
次に、上述のステップST3において、動画像記録再生装置1によりイン点側プログラムのビデオストリームの再エンコード及び再多重化を行うときの処理手順について図17のフローチャートを参照して説明する。
【0128】
この図17によれば、先ず、ステップST21において、ビデオエンコーダ13は、再エンコードをするビデオデータの各ピクチャのピクチャタイプを決定する処理を行う。
【0129】
すなわち、ビデオエンコーダ13は、図2(b)及び図2(d)を用いて説明したように、例えばピクチャBn4がイン点ピクチャ(Pin)である場合、ピクチャIn2に基づき予測符号化されているピクチャPn5を、予測参照しないで作れるように再エンコードを行うときにピクチャタイプをIピクチャに変更する処理を行う。
【0130】
次のステップST22において、ビデオエンコーダ13は、イン点側の多重化ストリームであって、再エンコードしないビデオストリームの最初のピクチャがシステムターゲットデコーダ20のビデオバッファ22(STDバッファ)に入力したときの初期ビット占有量Bj’を計算する処理を行う。
【0131】
具体的には、上記再エンコードしないビデオストリームの最初のピクチャとは、再エンコードを行うGOP(n)の直後のデータ、すなわち図2(d)中のGOP(m)のピクチャIm2が相当する。
【0132】
図18に、図2(d)に示すイン点側のビデオストリーム(Im2,Bm0,・・・)が入力されたときのビデオバッファ22のビット占有量(STDバッファのビット占有量)と、ビデオパックに付加されたSCRに従った時間制御部28で生成するSTC−2との関係を示す。この図18は、ピクチャIm2,Bm0,Bm1がパック化されてなるビデオパックがビデオバッファ22に入力されたときのビット占有量を示している。
【0133】
図18中のscr(Im2)は、ピクチャIm2を含むビデオパックを最初にシステムターゲットデコーダ20に入力する時刻である。そして、時間制御部28からのSTC−2に従い、scr(Im2)と一致したときからビデオパックをSCRに従って入力し、各ピクチャに付加されているDTSに従ってビデオデコーダ24でデコードを行う。すなわち、ビデオデコーダ24は、dts(Im2)の時刻になったときにピクチャIm2をデコードし、dts(Bm0)となったときにピクチャBm0をデコードし、dts(Bm1)となったときにピクチャBm1をデコードする。そして、ビデオエンコーダ13は、dts(Im2)におけるビデオバッファ22(STDバッファ)の初期ビット占有量Bj’を計算する。
【0134】
次のステップST23において、ビデオエンコーダ13は、上述のステップST22で計算した初期ビット占有量Bj’に基づいて、再エンコードするビデオストリームの最初のピクチャをデコードするときのVBVバッファ31のビット占有量Bjを決定する処理を行う。
【0135】
具体的には、上記再エンコードしないビデオストリームの最初のピクチャとは、図2(d)中のGOP(m)のピクチャIm2が相当する。そして、本例では、VBVバッファ31の初期ビット占有量BjをステップST22で求めたビット占有量Bj’とし、ビット占有量Bj’が1.75Mbitより大きいときはビット占有量Bjは1.75Mbitとする。
【0136】
次のステップST24において、ビデオエンコーダ13は、再エンコードする最後のピクチャをデコード終了後のVBVバッファ31のビット占有量が上記初期ビット占有量Bjよりも大きくなるように再エンコードするビデオデータの割り当てビット量を決定する。
【0137】
具体的には、図19に示すように、図2(d)の再エンコードするGOPであるGOP(n−x)に含まれるピクチャBn7xのデコードが終了した時刻におけるビット占有量Bend2が、ビット占有量Bjよりも大きくなるように割り当てビット量を決定する。
【0138】
次のステップST25において、ビデオエンコーダ13は、上述のステップST24で決定した割り当てビット量に基づいて、イン点側のビデオストリームのうち、再エンコードするGOPであるGOP(n−x)を再エンコードする。
【0139】
次のステップST26において、上述のステップST25で再エンコードされたビデオストリームを再多重化する。このとき、マルチプレクサ14は、図16に示すように、再エンコードしたClip−2のビデオストリームの再多重化をSCR_video2_startから開始する。このとき、マルチプレクサ14は、システムターゲットデコーダ20の時間制御部28からのSTC−2に従ってSCR_video2_startを決定し、ビデオバッファ22がオーバーフローしないように再多重化を行う。
【0140】
次のステップST27において、動画像記録再生装置1は、ステップST26で再多重化したビデオストリームから再多重化していないビデオストリームに移行したときにシステムターゲットデコーダ20のビデオバッファ22(STDバッファ)がオーバーフローするか否かを判定する。
【0141】
すなわち、マルチプレクサ14は、再多重化したGOP(n−x)とこのGOPに続いて表示されるGOP(m)を接続するときにビデオバッファ22(STDバッファ)がオーバーフローしないか否かを判定する。
【0142】
更に具体的には、例えば図20に示すように、scr(In5x)で再多重化されたイン点側のGOPを含むビデオパックが入力開始され(SCR_video2_start)、scr(Im2)で多重化されたビデオストリームに続くビデオストリームが連続してビデオバッファ22に入力開始されたときにおいて、図中の点線で示すようにビット占有量BS以下のビット占有量の軌跡であれば、ビデオバッファ22(STDバッファ)がオーバーフローすることなく、dts(Im2)でピクチャIm2のデコードが開始される。
【0143】
一方、図21に示すように、scr(In5x)で再多重化されたイン点側のGOPを含むビデオパックが入力開始され(SCR-video2-start)、scr(Im2)で多重化されたビデオストリームに続くビデオストリームが連続してビデオバッファ22に入力開始されたときにおいて、図中の点線で示すようにビット占有量BS以上のビット占有量の軌跡となると、ビデオバッファ22(STDバッファ)がオーバーフローしてしまう。すなわち、マルチプレクサ14は、図20を用いて説明したように再多重化されたビデオストリームに続いてscr(Im2)においてビデオストリームが入力開始されたときにおいてビデオバッファ22(STDバッファ)のオーバーフローが発生しないと判定したときには処理を終了し、図21を用いて説明したように再多重化されたビデオストリームに続いてscr(Im2)においてビデオストリームが入力開始されたときにおいてビデオバッファ22(STDバッファ)のオーバーフローが発生すると判定したときにはステップST28に進む。
【0144】
ステップST28において、マルチプレクサ14は、ビデオバッファ22(STDバッファ)のオーバーフローが発生しないように、再多重化したビデオストリームに続いて表示されるビデオストリームの最初のピクチャのデコード時刻以前に入力されたビデオパックの入力時刻を遅らせるようにビデオパックに付加されているSCRを書き換える処理を行う。
【0145】
具体的には、マルチプレクサ14は、図22の点線で示すようにSTC−2が“0”の時刻からピクチャIm2の入力開始するのに対して、図中Dで示す時間だけ遅らせて新たなscr(Im2)からピクチャIm2を含むGOP(m)をビデオバッファ22に入力するように、ピクチャIm2を含むビデオパックに付加されているSCRを書き換える処理を行って、dts(Im2)からピクチャIm2のデコードを開始して処理を終了する。
【0146】
このような処理を行う動画像記録再生装置1は、図13を用いて説明したように、再エンコードしないアウト点側のビデオストリームの最後のピクチャ(図2(c)中のピクチャB07)をビデオバッファ22(STDバッファ)に入力終了したときのビット占有量Baを計算し、ビット占有量Baに基づいて再エンコードされるビデオストリームの最初のピクチャ(図2(c)中のピクチャI12)をデコードするときのVBVバッファ31のビット占有量Bosを求めて割り当てビット量を決定するので、再エンコードされたアウト点側のビデオストリームの最初のピクチャ(図2(c)中のピクチャI12)をデコードするときにビデオバッファ22のオーバーフロー及びアンダーフローを発生させないようにアウト点側のビデオストリームについて再エンコード及び再多重化を行うことができる。また、動画像記録再生装置1は、図17を用いて説明したように、再エンコードしないイン点側のビデオストリームの最初のピクチャ(図2(d)中のピクチャIm2)をデコードするときのビデオバッファ22(STDバッファ)のビット占有量Bj’を計算し、ビット占有量Bj’に基づいて再エンコードしないビデオストリームの最初のピクチャ(図2(d)中のピクチャIm2)をデコードするときのVBVバッファ31のビット占有量Bjを求めるので、再エンコードしないビデオストリームの最初のピクチャ(図2(d)中のピクチャIm2)をデコードするときにビデオバッファ22(STDバッファ)のオーバーフロー及びアンダーフローを発生させないようにイン点側のビデオストリームについて再エンコード及び再多重化を行うことができる。
【0147】
したがって、この動画像記録再生装置1によれば、各ピクチャに付加されたvbv_delayを参照しなくても、ビデオバッファ22のオーバーフロー及びアンダーフローを発生させずにイン点側及びアウト点側のビデオストリームの再エンコード及び再多重化を行うことにより、Clip−1とClip−2とを継ぎ合わせて再生させるときにシームレスに再生させることがことができる。
【0148】
なお、マルチプレクサ14は、上述のステップST27及びステップST28で説明した処理を行わないで、ステップST26において再多重化する範囲を再エンコードをしたビデオストリームのみならず、SCR_video2_startから始まって、再エンコードしていない最初のピクチャのデコード開始時刻より前までにシステムターゲットデコーダ20に入力されるビデオパックとしてもよい。すなわち、マルチプレクサ14は、図16において、SCR_video2_startからdts(Im2)までにシステムターゲットデコーダ20に入力されるビデオパックを再多重化するようにしてもよい。これにより、マルチプレクサ14は、再エンコードを行ったイン点側のビデオストリームについて再多重化を行うときに発生するビデオバッファ22のオーバーフローを防止するとともに、ビデオパックに付加されているSCRを書き換える処理等を行う必要がない。
【0149】
次に、上述した動画像記録再生装置1により再エンコード及び再多重化を行うときの他の一例について説明する。
【0150】
図23に、ビデオエンコーダ13で行うアウト点側のビデオストリームの再エンコードの一例について示す。
【0151】
ビデオエンコーダ13は、図23(a)に示すように光ディスク2に記録されたアウト点側のビデオストリームのうち、GOP(1)のピクチャB11がアウト点ピクチャ(Pout)として指定されたとき、図23(b)、図23(c)又は図23(d)に示すようにアウト点側のビデオストリームの再エンコードを行う。
【0152】
図23(b)によれば、ビデオエンコーダ13は、アウト点側のビデオストリームのうち、GOP(1)のみを再エンコードする。すなわち、ビデオエンコーダ13は、GOP(1)のピクチャB10をIピクチャのI10xに再エンコードし、アウト点ピクチャのピクチャB11をPピクチャのP11xに再エンコードして新たなGOP(1−x)を生成する。
【0153】
また、図23(c)及び図23(d)によれば、ビデオエンコーダ13は、GOP(0)とGOP(1)の2つのGOPを再エンコードする。
【0154】
図23(c)によれば、ビデオエンコーダ13は、GOP(0)とGOP(1)を一つのGOP(a−x)として再エンコードする。このとき、ビデオエンコーダ13は、GOP(0)のピクチャI02〜B07をGOP(a−x)にコピーし、GOP(1)のピクチャB10,B11をそれぞれGOP(a−x)のPピクチャのピクチャP10x,P11xに再エンコードする。
【0155】
また、図23(d)によれば、ビデオエンコーダ13は、GOP(0)とGOP(1)を2つのGOP(a−x1)とGOP(a−x2)に再エンコードする。このとき、ビデオエンコーダ13は、GOP(0)のピクチャI02〜B04をGOP(a−x1)にコピーし、GOP(0)のピクチャP08,B06,B07をそれぞれGOP(a−x2)のピクチャI8x,B6x,B7xに再エンコードし、GOP(1)のピクチャB10,B11をGOP(a−x2)のピクチャP10x,P11xに再エンコードする。なお、この図23(d)に示したビデオエンコーダ13で行う再エンコードの一例は、GOPの最大長が5ピクチャに制限されている場合である。
【0156】
上述した再エンコードを行うビデオエンコーダ13は、再エンコードを行うとき、図23(b)に示した再エンコードと図23(c)又は図23(d)とのいずれかの再エンコードを行うかを選択するかは、システムターゲットデコーダ20に備えられているビデオバッファ22による制限に基づいて決定する。
【0157】
図24に、イン点側のビデオストリームの再エンコードの一例について示す。
ビデオエンコーダ13は、図24(a)に示すように光ディスク2に記録されたイン点側のビデオストリームのうち、GOP(n)のピクチャPn8がイン点ピクチャ(Pin)として指定されたとき、図24(b)、図24(c)又は図24(d)に示すようにイン点側のビデオストリームの再エンコードを行う。
【0158】
図24(b)によれば、ビデオエンコーダ13は、イン点側のビデオストリームのうち、GOP(n)のみを再エンコードする。すなわち、ビデオエンコーダ13は、GOP(n)のピクチャPn8,Bn6,Bn7を、それぞれピクチャI8x,Bn6x,Bn7xに再エンコードして新たなGOP(n−x)を生成する。
【0159】
また、図24(c)及び図24(d)によれば、ビデオエンコーダ13は、GOP(n)とGOP(m)の2つのGOPを再エンコードする。
【0160】
図24(c)によれば、ビデオエンコーダ13は、GOP(n)とGOP(m)を一つのGOP(b−x)として再エンコードする。このとき、ビデオエンコーダ13は、GOP(n)のピクチャPn8,Bn6,Bn7をピクチャIn8x,Bn6x,Bn7xに再エンコードし、GOP(m)のピクチャIm2をPピクチャのピクチャPm2xに再エンコードし、GOP(m)のピクチャIm2より後ろのピクチャを同じピクチャタイプのピクチャに再エンコードして、新たなGOP(b−x)を生成する。
【0161】
また、図24(d)によれば、ビデオエンコーダ13は、GOP(n)とGOP(m)を2つのGOP(b−x1)とGOP(b−x2)に再エンコードする。このとき、ビデオエンコーダ13は、GOP(n)のピクチャPn8,Bn6,Bn7をピクチャIn8x,Bn6x,Bn7xに再エンコードし、GOP(m)のピクチャPm5をGOP(b−x2)のピクチャIm5xに再エンコードし、GOP(m)のピクチャPm5よりも後ろのピクチャを同じピクチャタイプのピクチャに再エンコードする。
【0162】
上述した再エンコードを行うビデオエンコーダ13は、再エンコードを行うとき、図24(b)に示した再エンコードと図24(c)又は図24(d)とのいずれかの再エンコードを行うかを選択するかは、システムターゲットデコーダ20に備えられているビデオバッファ22による制限に基づいて決定する。
【0163】
次に、上述の図23を用いて説明したビデオエンコーダ13による再エンコードを行って、マルチプレクサ14により再多重化を行うときの処理手順について図25のフローチャートを用いて説明する。なお、図25に示すフローチャートの説明において、図13に示すフローチャートと同じ処理内容のステップについては同じステップ番号を付することによりその詳細な説明を省略する。
【0164】
図25のフローチャートによれば、先ず、上述のステップST11〜ステップST13に示す処理を行う。
【0165】
すなわち、ビデオエンコーダ13は、ステップST11において、再エンコードをするビデオデータの各ピクチャのピクチャタイプを決定する処理、すなわち、図23(a)及び図23(b)を用いて説明したように、ピクチャB11がアウト点ピクチャ(Pout)である場合、ピクチャP15に基づき予測符号化されているピクチャB11を、予測参照しないで作れるように、ピクチャB10をピクチャI10xとし、ピクチャB11をピクチャP11xとなるようにピクチャタイプを決定する。そして、ビデオエンコーダ13は、ステップST12においてピクチャB07がビデオバッファ22に入力されたときのビット占有量Baを計算し、ステップST13においてビット占有量Baに基づいてピクチャI10xをデコードするときのVBVバッファ31のビット占有量Bosを決めて、ステップST31に進む。
【0166】
ステップST31において、ビデオエンコーダ13は、再エンコードするビデオストリームの各ピクチャI10x,P11xについての割り当てビット量を決定する。
【0167】
次のステップST32において、ビデオエンコーダ13は、上述のステップST31で決定した割り当てビット量で再エンコードするとしたとき、再エンコードするビデオストリームの最後のピクチャP11xのデコード終了後のVBVバッファ31のビット占有量Bend1を計算する。
【0168】
次のステップST33において、ビデオエンコーダ13は、上述のステップST32で計算したビット占有量Bend1と、再エンコードするイン点側のビデオストリームの最初のピクチャをデコードするときのVBVバッファ31の初期ビット占有量Bvsdとの大きさを比較する処理を行う。ここで、初期ビット占有量Bvsdは、図24の例を取って説明すると、ピクチャIn8xをデコードするときのVBVバッファ31のビット占有量とする。
【0169】
そして、ビデオエンコーダ13は、ビット占有量Bend1が初期ビット占有量Bvsd以上であると判定したにはステップST15に進み、ビット占有量Bend1が初期ビット占有量Bvsdよりも小さいと判定したときにはステップST34に進む。
【0170】
このステップST33において、ビデオエンコーダ13によりビット占有量Bend1が初期ビット占有量Bvsd以上となると判定されるときの一例を図25に示す。
【0171】
図26において、横軸の時間軸上の時刻t()は、再エンコードされるピクチャのデコード時刻を示し、例えばt(P08)はピクチャP08のデコード時刻を示す。また、図26中のa()はピクチャのビット量を示し、例えばa(I10x)はピクチャI10xのビット量を示す。この図26において、上述のステップST31で再エンコードするビデオストリームのピクチャI10x,P11xの割り当てビット量を決定したときには、各ピクチャI10x,P11xをデコードしたときにa(I10x)、a(P11x)で示されるデータ量がバッファから削除され、ビット占有量Bend1が初期ビット占有量Bvsd以上となると判定し、図23(b)に示すGOP(1−x)を再エンコードするようにステップST15に進む。
【0172】
一方、ステップST33において、ビデオエンコーダ13によりビット占有量Bend1が初期ビット占有量Bvsdより小さいと判定されるときの一例を図27に示す。
【0173】
この図27において、ビデオエンコーダ13は、上述のステップST31で再エンコードするビデオストリームのピクチャI10x,P11xの割り当てビット量を決定したときには、各ピクチャI10x,P11xをデコードしたときにa(I10x)、a(P11x)で示されるデータ量がバッファから削除され、ビット占有量Bend1が初期ビット占有量Bvsdより小さくなると判定しステップST34に進む。
【0174】
ステップST15において、ビデオエンコーダ13は、図23(b)に示したアウト点側のビデオストリームを再エンコードする。
【0175】
ステップST34において、ビデオエンコーダ13は、再エンコードを開始するピクチャを再エンコードをするGOPの順序における前側のGOPに属するピクチャに変更する。すなわち、ビデオエンコーダ13は、図23(b)に示すように再エンコードするピクチャI10xを、前のGOP(0)に属するピクチャP10xとし、再エンコードするピクチャ数を変更する処理を行うことにより、図23(c)に示す再エンコードする新たなGOP(a−x)を生成する。
【0176】
また、ビデオエンコーダ13は、図23(b)に示すGOP(0)、GOP(1−x)から図23(d)に示すGOP(a−x1)、GOP(a−x2)を生成するようにしてもよい。そして、ビデオエンコーダ13は、ステップST34からステップST11に戻り、ステップST34で変更された再エンコードを行うビデオストリームについてステップST11からステップST33までの処理を行ってステップST15で再エンコード及び再多重化を行う。
【0177】
このようにステップST34に示す処理を行うことにより、図25に示したようなビデオバッファ22のビット占有量を図28に示すように変更する。図28によれば、図23(b)のピクチャI10xを図23(c)に示すピクチャP10xと変更して、再度ステップST31で再エンコードするビデオストリームのピクチャP10x,P11xの割り当てビット量を決定したときには、各ピクチャP10x,P11xをデコードしたときにa(P10x)、a(P11x)で示されるデータ量がバッファから削除され、ビット占有量Bend1が初期ビット占有量Bvsd以上となると判定し、図23(c)に示すGOP(a−x)を再エンコードするようにステップST15に進んで再エンコード及び再多重化を行うことができる。
【0178】
次に、上述の図24を用いて説明したビデオエンコーダ13による再エンコードを行って、マルチプレクサ14により再多重化を行うときの処理手順について図29のフローチャートを用いて説明する。なお、図29に示すフローチャートの説明において、図17に示すフローチャートと同じ処理内容のステップについては同じステップ番号を付することによりその詳細な説明を省略する。
【0179】
図29のフローチャートによれば、先ず、上述のステップST21〜ステップST23に示す処理を行う。
【0180】
すなわち、ビデオエンコーダ13は、ステップST21において、再エンコードをするビデオデータの各ピクチャのピクチャタイプを決定する処理、すなわち、図24(a)及び図24(b)を用いて説明したように、ピクチャPn8がイン点ピクチャ(Pin)である場合、ピクチャPn5に基づき予測符号化されているピクチャPn8を、予測参照しないで作れるように、ピクチャPn8をピクチャIn8xとし、ピクチャBn6をピクチャBn6x、ピクチャBn7をピクチャBn7xとなるようにピクチャタイプを決定する。そして、ビデオエンコーダ13は、ステップST22においてピクチャIm2をデコードするときの初期ビット占有量Bj’を計算し、ステップST23において初期ビット占有量Bj’に基づいてピクチャIm2をデコードするときのVBVバッファ31の初期ビット占有量Bjを決めて、ステップST41に進む。
【0181】
ステップST41において、ビデオエンコーダ13は、再エンコードするビデオストリームの各ピクチャIn8x,Bn6x,Bn7xついての割り当てビット量を決定する。
【0182】
次のステップST42において、ビデオエンコーダ13は、上述のステップST41で決定した割り当てビット量で再エンコードするとしたとき、再エンコードするビデオストリームの最後のピクチャBn7xのデコード終了後のVBVバッファ31のビット占有量Bend2を計算する。
【0183】
次のステップST43において、ビデオエンコーダ13は、上述のステップST42で計算したビット占有量Bend2と、初期ビット占有量Bjとの大きさを比較する処理を行う。
【0184】
そして、ビデオエンコーダ13は、ビット占有量Bend2が初期ビット占有量Bj以上であると判定したにはステップST25に進み、ビット占有量Bend2が初期ビット占有量Bjよりも小さいと判定したときにはステップST44に進む。
【0185】
このステップST43において、ビデオエンコーダ13によりビット占有量Bend2が初期ビット占有量Bj以上となると判定されるときの一例を図30に示す。
【0186】
図30において、上述のステップST41で再エンコードするビデオストリームのピクチャIn8x,Bn6x,Bn7xの割り当てビット量を決定したときには、各ピクチャIn8x,Bn6x,Bn7xをデコードしたときにa(In8x)、a(Bn6x)、a(Bn7x)で示されるデータ量がバッファから削除され、ビット占有量Bend2が初期ビット占有量Bj以上となると判定し、図24(b)に示すGOP(a−x)をデコードするようにステップST25に進む。
【0187】
ビデオエンコーダ13は、ステップST25において図24(b)に示したイン点側のビデオストリームを再エンコードをし、ステップST26において再エンコードしたビデオストリームを用いてビデオバッファ22の制限に従いマルチプレクサ14で再多重化を行い、多重化したデータを再生したときにビデオバッファ22がオーバーフローしないようにステップST27及びステップST28を行って処理を終了する。
【0188】
一方、ステップST43において、ビデオエンコーダ13によりビット占有量Bend2が初期ビット占有量Bjより小さいと判定されるときの一例を図31に示す。
【0189】
この図31において、ビデオエンコーダ13は、上述のステップST41で再エンコードするビデオストリームのピクチャIn8x,Bn6x,Bn7xの割り当てビット量を決定したときには、各ピクチャIn8x,Bn6x,Bn7xをデコードしたときにa(In8x)、a(Bn6x)、a(Bn7x)で示されるデータ量がバッファから削除され、ビット占有量Bend2が初期ビット占有量Bjより小さくなると判定する。
【0190】
また、この図31によれば、ビデオエンコーダ13は、再エンコードするGOP(n−x)と再エンコードしないGOP(m)とを連続して再エンコードするときに、ビット占有量の軌跡が連続になるように再エンコードできないことが分かる。すなわち、GOP(n−x)をVBVバッファ31に入力してデコードしたときのビット占有量の軌跡Aと、GOP(m)をVBVバッファ31に入力してデコードしたときのビット占有量の軌跡Bとが一致していない。
【0191】
ステップST44において、ビデオエンコーダ13は、GOP(n)とGOP(m)を一つのGOP(b−x)として再エンコードするようにピクチャタイプの変更を行ってステップST21に戻る。すなわち、ビデオエンコーダ13は、図24(b)に示すピクチャIm2をピクチャPm2xとし、再エンコードするピクチャ数を変更する処理を行うことにより、図24(c)に示す再エンコードする新たなGOP(b−x)を生成する。そして、ビデオエンコーダ13は、ステップST44において新たに生成した再エンコードするビデオデータについてステップST21〜ステップST42までの処理を行ってステップST25以降の処理を行う。このようにステップST44に示す処理を行うことにより、ビデオエンコーダ13は、図31に示したようなビデオバッファ22のビット占有量を図32に示すように変更させる。
【0192】
図32によれば、動画像記録再生装置1は、図24(b)のピクチャIm2を図24(c)に示すピクチャPm2xに変更して、再度ステップST41で再エンコードするビデオストリームのピクチャIn8x,Bn6x,Bn7xの割り当てビット量を決定したときには、各ピクチャIn8x,Bn6x,Bn7xをデコードしたときにa(In8x)、a(Bn6x)、a(Bn7x)で示されるデータ量が発生し、ビット占有量Bend2が初期ビット占有量Bj以上となると判定し、図24(c)に示すGOP(a−x)をデコードするようにステップST25に進んで再エンコード及び再多重化を行うことができる。
【0193】
また、この図32によれば、ビデオエンコーダ13は、再エンコードするGOP(n−x)と再エンコードしないGOP(m)とを連続して再エンコードするときに、ビット占有量の軌跡が連続になるように再エンコードできることが分かる。すなわち、ピクチャBn7xとピクチャPm2を連続してデコードしたときにビット占有量の軌跡が連続していることが分かる。
【0194】
上述したように、動画像記録再生装置1は、ステップST33においてビット占有量Bend1が初期ビット占有量Bvsdよりも小さいと判定したときにはステップST34において、例えば図23(b)に示すように再エンコードするピクチャI10xを、前のGOP(0)に属するピクチャP10xとし、図23(c)に示す再エンコードする新たなGOP(a−x)を生成することにより、図27及び図28に示すように、ビデオバッファ22のビット占有量の急激な減少を抑制することができる。したがって、この動画像記録再生装置1によれば、アウト点側のビデオデータを更に高画質に再エンコードをして、高画質に再多重化を行うことができる。
【0195】
また、動画像記録再生装置1は、ステップST43においてビット占有量Bend2が初期ビット占有量Bjよりも小さいと判定したときにはステップST44において、例えば図24(b)に示すように再エンコードするピクチャIm2を、ピクチャPm2xとし、図24(c)に示す再エンコードする新たなGOP(b−x)を生成することにより、図31及び図32に示すように、イン点側のビデオデータを再エンコードするときに、ビデオバッファ22のビット占有量を連続とすることができる。したがって、この動画像記録再生装置1によれば、アウト点側のビデオデータを更に高画質に再エンコードをして、高画質に再多重化を行うことができる。
【0196】
なお、以上説明した動画像記録再生装置1の説明においては、MPEG2システム規格で定義されてる連続したSCRが付加されているプログラムストリームであるときの一例について説明したが、これに限られず、複数プログラム(マルチプログラム)を多重化するためのトランスポートストリームである場合でも適用することができる。トランスポートストリームの場合、動画像記録再生装置1は、SCRに代えてPCR(Program Clock Reference)を参照し、またSTDをT−STDのモデルとし、ビデオバッファ22のビット占有量の計算を行う。
【0197】
ここで、トランスポートストリーム形式の多重化ストリームは、システムターゲットデコーダ40への出力タイミングを示すPCR(Program Clock Reference)を格納するPCRパケットと、デコードタイミングを示すDTS及びデコードされたデータの出力タイミングを示すPTSが付加情報として追加されたビデオのPES(Packetized Elementary Stream)パケットをトランスポートパケットに分割したものと、PTSが付加情報として付加されたオーディオのPESパケットをトランスポートパケットに分割したものと、その他にシステムデータを送るためのトランスポートパケットなどを含み、複数のプログラムが時分割で多重化されている。多重化ストリームは、付加情報が参照されてデコードタイミング及び出力タイミングが制御される。
【0198】
図33は動画像記録再生装置1が多重化した多重化ストリームを復号するシステムターゲットデコーダ40をトランスポートストリームの場合について示したブロック図である。なお、上述のシステムターゲットデコーダ20と同じ部分については同じ符号を付することによりその詳細な説明を省略する。
【0199】
システムターゲットデコーダ40には、トランスポートストリームが多重化された多重化ストリームが入力される点で、前述の図6のシステムターゲットデコーダ20と異なる。
【0200】
多重化ストリームが入力されたデマルチプレクサ41は、多重化された各トランスポートストリームのパケットヘッダに含まれるPID(Packet Identifier、パケット識別子)を読み出し、PIDの値によってペイロードに格納されたデータの種類がビデオ、オーディオ、システムデータのいずれであるかを判定する。デマルチプレクサ41は、PIDによる判定結果に基づいて、ビデオトランスポートパケット、オーディオトランスポートパケット及びシステムトランスポートパケットをビデオトランスポートバッファ42、オーディオトランスポートバッファ43及びシステムトランスポートバッファ44に出力する。このとき、デマルチプレクサ41は、PIDに従って接続部41aと各バッファ42〜44に接続された端子と接続切換する。
【0201】
ビデオトランスポートバッファ42からは、ビデオトランスポートパケットのペイロードの部分(PESパケット)のみが多重バッファ45へ送られ、さらにエレメンタリーストリームとしてビデオエレメンタリーバッファ46へと送られる。
【0202】
ビデオトランスポートパケット以外のオーディオトランスポートパケット及びシステムトランスポートパケットは、オーディオトランスポートバッファ43、システムトランスポートバッファ44からオーディオエレメンタリーストリーム、システムエレメンタリーストリームとして、直接オーディオメインバッファ47、システムメインバッファ48へ送られる。
【0203】
ビデオエレメンタリーバッファ46、オーディオメインバッファ47及びシステムメインバッファ48に格納されたエレメンタリーストリームは、DTSによって指定された時刻に各バッファ46〜48から除かれて各デコーダ49〜51に入力され、デコーダ49〜51においてデコードされる。
【0204】
時間制御部28は、アウト点及びイン点のビデオストリームを継ぎ合わせて再生する際のアウト点側プログラムからイン点側プログラムへの切り換え時に、アウト点側プログラムのPCRに同期したSTC−1と、イン点側プログラムのPCRに同期したSTC−2との2つのSTCを発生する。
【0205】
トランスポートストリームの場合における再エンコードは、プログラムストリームの場合と同様にビデオエレメンタリーバッファ46がオーバーフロー及びアンダーフローしない条件に従って行う。
【0206】
トランスポートストリームの場合における再多重化は、T−STDの各バッファがMPEG2規格で既定された条件(1)〜(3)を満たすように行う。
【0207】
(1)各種パケットが格納される各トランスポートバッファ42〜44がオーバーフローせず1秒間に最低1回は空になること
(2)ビデオ多重バッファ45がオーバーフローせず1秒間に最低1回は空になること
(3)ビデオエレメンタリーバッファ46及びその他のストリームのメインバッファ47,48はオーバーフロー及びアンダーフローを起こさないこと
システムターゲットデコーダ40では、編集点の前後でPCRの値が不連続になるときを除いて、再多重化時には以上の条件(1)〜(3)を満たすことが必要である。なお、このシステムターゲットデコーダ40において、編集点の前後でのSTC−1からSTC−2への時間軸の切替はプログラムストリームの場合と同様である。
【0208】
システムターゲットデコーダ40では、プログラムストリームの場合と異なり、トランスポートストリームの場合はPAT(Program Association Table)とPMT(Program Map Table)によって送信されるシステムデータ及びPCRを取得した後でなければビデオやオーディオのエレメンタリーストリームのデコードを開始することができない。このため、編集点の前後でのPIDが1つでも異なる場合、再多重化後のCLIP−2の先頭はPAT、PMT、PCRパケットの順に開始していなければならない。
【0209】
編集点の前後でPCRが不連続になるため、このことをシステムターゲットデコーダに知らせるためにDIT(DISCONTINUITY INFORMATION TABLE)を編集点に挿入してもよい。
【0210】
また、上述した動画像記録再生装置1の説明においては、アウト点ピクチャ及びイン点ピクチャが指定されたときに、アウト点ピクチャを含むClip−1と、イン点ピクチャを含むClip−2とを継ぎ合わせる編集処理を行うときに、ビデオストリームを再エンコードして再多重化を行う一例について説明したが、これに限らず、例えば多重化ストリームに新たなビデオストリームを挿入するような編集処理であっても本発明が適用可能である。このとき、動画像記録再生装置1は、新たなビデオストリームが挿入される前後の多重化ストリームについて、上述したようにビデオバッファ22がオーバーフロー及びアンダーフローが発生しないように、ビデオバッファ22のビット占有量を計算して再エンコード及び再多重化を行う。
【0211】
【発明の効果】
以上詳細に説明したように、本発明に係る符号化装置及び方法は、第1のピクチャで終了する第1の符号化ストリームの第1のピクチャが入力終了したときの第1のビット占有量を計算し、第1のピクチャの後に接続され第2のピクチャから開始する第2の符号化ストリームの第2のピクチャについてVBVモデルに従ってデコードを開始するときのVBVバッファの第2のビット占有量を計算し、第2のビット占有量に基づいて第2の符号化ストリームの符号化をするので、ビデオストリームの一部を再エンコードするとき、ピクチャ層のパラメータとして含まれるvbv_delayを参照しなくても、ビデオストリームを再エンコードすることができる。
【0212】
また、本発明に係る他の符号化装置及び方法は、第1のピクチャが復号されるときの第1のビット占有量を計算し、第1のピクチャの前に接続され第2のピクチャで終了する第2の符号化ストリームの第2のピクチャについてのVBVモデルに従ってデコードを終了するときのVBVバッファの第2のビット占有量を計算し、第2のビット占有量に基づいて第2の符号化ストリームの符号化をするので、ビデオストリームの一部を再エンコードするとき、ピクチャ層のパラメータとして含まれるvbv_delayを参照しなくても、ビデオストリームを再エンコードすることができる。
【0213】
更に、本発明に係る多重化装置及び方法は、システムターゲットデコーダモデルのビデオバッファの第1の符号化ストリームの先頭に位置する第1のピクチャが復号されるときの第1のビット占有量を計算し、第1のビット占有量に基づいて、第1のピクチャの前に接続され第2のピクチャで終了する第2の符号化ストリームの第2のピクチャについてのVBVモデルに従ってデコードを終了するときのVBVバッファの第2のビット占有量を計算し、第2のビット占有量に基づいて、第2の符号化ストリームの符号化をして多重化するので、ビデオストリームの一部を再エンコードするとき、ピクチャ層のパラメータとして含まれるvbv_delayを参照しなくても、ビデオストリームを再エンコードして多重化することができる。
【図面の簡単な説明】
【図1】本発明を適用した動画像記録再生装置のブロック図である。
【図2】(a)はアウト点側のビデオストリームを示す図であり、(b)はイン点側のビデオストリームを示す図であり、(c)はアウト点側のビデオストリームにおいて上記動画像記録再生装置により再エンコード及び再多重化される部分を示す図であり、(d)はイン点側のビデオストリームにおいて上記動画像記録再生装置により再エンコード及び再多重化される部分を示す図であり、(e)は上記動画像記録再生装置により再エンコード及び再多重化されたビデオストリームの表示順序を示す図である。
【図3】(a)は上記動画像記録再生装置が再多重化するアウト点側プログラムの多重化ストリームを示す図であり、(b)は再多重化して生成したブリッジシーケンスを示す図である。
【図4】(a)は上記動画像記録再生装置が再多重化するイン点側プログラムの多重化ストリームを示す図であり、(b)は再多重化して生成したブリッジシーケンスを示す図である。
【図5】アウト点側プログラムとイン点側プログラムの編集点前後の多重化ストリームの構造を示す図である。
【図6】上記動画像記録再生装置が多重化した多重化ストリームを復号するシステムターゲットデコーダのブロック図である。
【図7】上記動画像記録再生装置により多重化された多重化ストリームが入力されたときの上記システムターゲットデコーダの動作タイミングを表すタイミングチャートである。
【図8】MPEG規格に準拠したVBVモデルを示す図である。
【図9】上記動画像記録再生装置によりビデオストリームの再エンコードを行って再多重化を行うときの処理手順について説明するための図である。
【図10】Clip−2についてのSTCの時刻と、ビデオバッファに入力されるビット占有量(STDバッファのビット占有量)との関係を示す図である。
【図11】Clip−1をエンコードするときにおける、時間とビデオバッファのビット占有量(STDバッファのビット占有量)との関係を示す図である。
【図12】Clip−2をエンコードするときにおける、時間とビデオバッファ(STDバッファのビット占有量)のビット占有量との関係を示す図である。
【図13】動画像記録再生装置によりアウト点側プログラムのビデオストリームの再エンコード及び再多重化を行うときの処理手順について説明するための図である。
【図14】アウト点側のビデオストリーム(・・・、B07)が入力されたときのSTDのビデオバッファのビット占有量と、ビデオパックに付加されたSCRに従ったSTC−1との関係を示す図である。
【図15】アウト点側のビデオストリーム(I12、・・・)が入力されたときのVBVバッファのビット占有量と、ビデオパックに付加されたSCRに従ったSCR−1との関係を示す図である。
【図16】アウト点側のビデオストリームが入力され、続いてイン点側のビデオストリームが入力されるときのSTDのビデオバッファのビット占有量と、STC−1及びSTC−2との関係を示す図である。
【図17】動画像記録再生装置によりイン点側プログラムのビデオストリームの再エンコード及び再多重化を行うときの処理手順について説明するための図である。
【図18】イン点側のビデオストリーム(Im2,Bm0,・・・)が入力されたときのSTDのビデオバッファのビット占有量と、ビデオパックに付加されたSCRに従ったSTC−2との関係を示す図である。
【図19】再エンコードするGOPであるGOP(n−x)に含まれるピクチャBn7xのデコードが終了した時刻におけるVBVバッファのビット占有量Bend2が、ビット占有量Bjよりも大きくなるように割り当てビット量を決定することを説明するための図である。
【図20】scr(In5x)から再多重化されたイン点側のGOPを含むビデオパックが入力開始され(SCR_video2_start)、それに続いてscr(Im2)以後のビデオパックをSTDのビデオバッファに入力したときにおける、STDのビデオバッファのビット占有量と、STC−2との関係を示す図である。
【図21】scr(In5x)から再多重化されたイン点側のGOPを含むビデオパックが入力開始され(SCR_video2_start)、それに続いてscr(Im2)以後のビデオパックをSTDのビデオバッファに入力したときにおける、STDのビデオバッファのビット占有量と、STC−2との関係を示す図である。
【図22】所定の時間だけ遅らせてイン点側のビデオデータをビデオバッファに入力するように、ビデオパックに付加されているSCRを書き換える処理について説明するための図である。
【図23】上記動画像記録再生装置により行うアウト点側のビデオストリームの再エンコードの他の一例について示す図であり、(a)はアウト点ピクチャを含むアウト点側のビデオストリームを示す図であり、(b)はアウト点側のビデオストリームにおいて上記動画像記録再生装置による再エンコード及び再多重化について示す図であり、(c)はアウト点側のビデオストリームにおいて上記動画像記録再生装置による再エンコード及び再多重化の他の一例について示す図であり、(d)はアウト点側のビデオストリームにおいて上記動画像記録再生装置による再エンコード及び再多重化の更に他の一例について示す図である。
【図24】上記動画像記録再生装置により行うイン点側のビデオストリームの再エンコードの他の一例について示す図であり、(a)はイン点ピクチャを含むアウト点側のビデオストリームを示す図であり、(b)はイン点側のビデオストリームにおいて上記動画像記録再生装置による再エンコード及び再多重化について示す図であり、(c)はイン点側のビデオストリームにおいて上記動画像記録再生装置による再エンコード及び再多重化の他の一例について示す図であり、(d)はイン点側のビデオストリームにおいて上記動画像記録再生装置による再エンコード及び再多重化の更に他の一例について示す図である。
【図25】上記動画像記録再生装置により、図23を用いて説明したビデオエンコーダによる再エンコードを行って、マルチプレクサにより再多重化を行うときの処理手順を示すフローチャートである。
【図26】ビデオエンコーダによりビット占有量Bend1が初期ビット占有量Bvsd以上となると判定されるときの一例について説明するための図である。
【図27】ビデオエンコーダによりビット占有量Bend1が初期ビット占有量Bvsdより小さいと判定されるときの一例について説明するための図である。
【図28】図27に示したようなビデオバッファのビット占有量を変更することについて説明するための図である。
【図29】図24を用いて説明したビデオエンコーダによる再エンコードを行って、マルチプレクサにより再多重化を行うときの処理手順を示すフローチャートである。
【図30】ビデオエンコーダによりビット占有量Bend2が初期ビット占有量Bj以上となると判定されるときの一例について説明するための図である。
【図31】ビデオエンコーダによりビット占有量Bend2が初期ビット占有量Bjより小さいと判定されるときの一例について説明するための図である。
【図32】図31に示したようなビデオバッファのビット占有量を変更することについて説明するための図である。
【図33】上記動画記録再生装置がトランスポートストリーム形式で多重化した多重化ストリームを複合するシステムターゲットデコーダのブロック図である。
【符号の説明】
1 動画像記録再生装置、13 ビデオエンコーダ、14 マルチプレクサ、20 システムターゲットデコーダ、22 ビデオバッファ、24 ビデオデコーダ

Claims (22)

  1. 符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャで終了する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算する第1のビット占有量計算手段と、
    上記第1のビット占有量計算手段で計算した第1のビット占有量に基づいて、上記第1のピクチャの後に接続され第2のピクチャから開始し第3のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算する第2のビット占有量計算手段と、
    上記第2のビット占有量に基づいて、上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定する割り当てビット量決定手段と、
    上記割り当てビット量で生成される第2の符号化ストリームの第3のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第3のビット占有量を計算する第3のビット占有量計算手段と、
    上記第2の符号化ストリームの第3のピクチャの後に接続され第4のピクチャから開始する第3の符号化ストリームの第4のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算する初期ビット占有量計算手段と、
    上記第3のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、上記第3のビット占有量が上記初期ビット占有量より小さい場合、上記第3のビット占有量が上記初期ビット占有量以上となるように上記第2の符号化ストリームの第2のピクチャを上記第1の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する符号化制御手段と
    を備える符号化装置。
  2. 上記符号化制御手段は、上記第3のビット占有量が上記初期ビット占有量より小さい場合、上記第3のビット占有量が上記初期ビット占有量以上となるように上記第1の符号化ストリームのピクチャタイプを変更し、再度割り当てビット量を決定して上記第1の符号化ストリームの一部のピクチャを含む符号化ストリームと、上記第1の符号化ストリームの一部を除く他部のピクチャ及び上記第2の符号化ストリームのピクチャを含む符号化ストリームとを生成する請求項1記載の符号化装置。
  3. 上記第2の符号化ストリームは、アウト点ピクチャを含み、上記第3の符号化ストリームは、イン点ピクチャを含み、再生時には上記アウト点ピクチャとイン点ピクチャとが接続される請求項1記載の符号化装置。
  4. 上記仮想的なシステムターゲットデコーダは、MPEG(Moving Picture Experts Group)規格に準拠したものである請求項1記載の符号化装置。
  5. 上記仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものである請求項1記載の符号化装置。
  6. 符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャで終了する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算し、
    上記第1のビット占有量に基づいて、上記第1のピクチャの後に接続され第2のピクチャから開始し第3のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算し、
    上記第2のビット占有量に基づいて、上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定し、
    上記割り当てビット量で生成される第2の符号化ストリームの第3のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第3のビット占有量を計算し、
    上記第2の符号化ストリームの第3のピクチャの後に接続され第4のピクチャから開始する第3の符号化ストリームの第4のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算し、
    上記第3のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、
    上記第3のビット占有量が上記初期ビット占有量より小さい場合、上記第3のビット占有量が上記初期ビット占有量以上となるように上記第2の符号化ストリームの第2のピクチャを上記第1の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する符号化方法。
  7. 上記第3のビット占有量が上記初期ビット占有量より小さい場合、上記第3のビット占有量が上記初期ビット占有量以上となるように上記第1の符号化ストリームのピクチャタイプを変更し、再度割り当てビット量を決定して上記第1の符号化ストリームの一部のピクチャを含む符号化ストリームと、上記第1の符号化ストリームの一部を除く他部のピクチャ及び上記第2の符号化ストリームのピクチャを含む符号化ストリームとを生成する請求項6記載の符号化方法。
  8. 上記第2の符号化ストリームは、アウト点ピクチャを含み、上記第3の符号化ストリームは、イン点ピクチャを含み、再生時には上記アウト点ピクチャとイン点ピクチャとが接続される請求項6記載の符号化方法。
  9. 上記仮想的なシステムターゲットデコーダは、MPEG(Moving Picture Experts Group)規格に準拠したものであることを特徴とする請求項6記載の符号化方法。
  10. 上記仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものであることを特徴とする請求項6記載の符号化方法。
  11. 符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算する第1のビット占有量計算手段と、
    上記第1のビット占有量計算手段で計算した第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算する初期ビット占有量計算手段と、
    上記初期ビット占有量に基づいて、上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの各ピクチャの割り当てビット量を決定するビット量決定手段と、
    上記割り当てビット量で生成される第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算する第2のビット占有量計算手段と、
    上記第2のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、上記第2のビット占有量が上記初期ビット占有量より小さい場合、上記第2のビット占有量が上記初期ビット占有量以上となるように上記第1の符号化ストリームの第1のピクチャを上記第2の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する符号化制御手段と
    を備える符号化装置。
  12. 上記第2の符号化ストリームは、イン点ピクチャを含んでいる請求項11記載の符号化装置。
  13. 上記仮想的なシステムターゲットデコーダは、MPEG(Moving Picture Experts Group)規格に準拠したものであることを特徴とする請求項11記載の符号化装置。
  14. 上記仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものであるであることを特徴とする請求項11記載の符号化装置。
  15. 符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算し、
    上記第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算し、
    上記初期ビット占有量に基づいて、上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの各ピクチャの割り当てビット量を決定し、
    上記割り当てビット量で生成される第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量を計算し、
    上記第2のビット占有量が上記初期ビット占有量以上である場合、上記割り当てビット量で第2の符号化ストリームを生成し、
    上記第2のビット占有量が上記初期ビット占有量より小さい場合、上記第2のビット占有量が上記初期ビット占有量以上となるように上記第1の符号化ストリームの第1のピクチャを上記第2の符号化ストリームに属するピクチャタイプに変更し、再度割り当てビット量を決定して上記第1の符号化ストリームのピクチャと上記第2の符号化ストリームのピクチャとを含む符号化ストリームを生成する符号化方法。
  16. 上記第2の符号化ストリームは、イン点ピクチャを含んでいる請求項15記載の符号化方法。
  17. 符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算する第1のビット占有量計算手段と、
    上記第1のビット占有量計算手段で計算した第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算する初期ビット占有量計算手段と、
    上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量が、上記初期ビット占有量以上となるように上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定する割り当てビット量決定手段と、
    上記割り当てビット量に基づいて上記第2の符号化ストリームを生成して多重化する多重化手段と、
    上記仮想的なシステムターゲットデコーダモデルのビデオバッファに、上記第2の符号化ストリームに続いて上記第1の符号化ストリームの第1のピクチャが入力されるときの第3のビット占有量が所定の範囲内であるか否かを判定する判定手段と、
    上記第3のビット占有量が所定の範囲内でない場合、上記第1のピクチャの上記仮想的なシステムターゲットデコーダモデルへの入力時刻を遅らせるように上記第1のピクチャを含むビデオパックの入力時刻を書き換える多重化制御手段と
    を備える多重化装置。
  18. 上記仮想的なシステムターゲットデコーダは、MPEG(Moving Picture Experts Group)規格に準拠したものであることを特徴とする請求項17記載の多重化装置。
  19. 上記仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものであることを特徴とする請求項17記載の多重化装置。
  20. 符号化ストリームをデコードする仮想的なシステムターゲットデコーダモデルのビデオバッファに、第1のピクチャから開始する第1の符号化ストリームの第1のピクチャが入力されるときの第1のビット占有量を計算し、
    上記第1のビット占有量に基づいて、上記第1の符号化ストリームの第1のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの初期ビット占有量を計算し、
    上記第1の符号化ストリームの前に接続され第2のピクチャで終了する第2の符号化ストリームの第2のピクチャについて仮想的なビデオデコーダモデルに従ってデコードするときの当該ビデオデコーダモデルのビデオバッファの第2のビット占有量が、上記初期ビット占有量以上となるように上記第2の符号化ストリームの各ピクチャの割り当てビット量を決定し、
    上記割り当てビット量に基づいて上記第2の符号化ストリームを生成して多重化し、
    上記仮想的なシステムターゲットデコーダモデルのビデオバッファに、上記第2の符号化ストリームに続いて上記第1の符号化ストリームの第1のピクチャが入力されるときの第3のビット占有量が所定の範囲内であるか否かを判定し、
    上記第3のビット占有量が所定の範囲内でない場合、上記第1のピクチャの上記仮想的なシステムターゲットデコーダモデルへの入力時刻を遅らせるように上記第1のピクチャを含むビデオパックの入力時刻を書き換える多重化方法。
  21. 上記仮想的なシステムターゲットデコーダは、MPEG(Moving Picture Experts Group)規格に準拠したものであることを特徴とする請求項20記載の多重化方法。
  22. 上記仮想的なビデオデコーダモデルは、MPEG(Moving Picture Experts Group)規格に準拠したものであるしたものであることを特徴とする請求項20記載の多重化方法。
JP2000090769A 1999-06-01 2000-03-27 符号化装置及び符号化方法並びに多重化装置及び多重化方法 Expired - Fee Related JP4487374B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2000090769A JP4487374B2 (ja) 1999-06-01 2000-03-27 符号化装置及び符号化方法並びに多重化装置及び多重化方法
EP20000304570 EP1058262A3 (en) 1999-06-01 2000-05-30 Encoding and multiplexing of video streams
US09/583,422 US6795499B1 (en) 1999-06-01 2000-05-31 Encoding apparatus and method, and multiplexing apparatus and method
TW89110626A TW545058B (en) 1999-06-01 2000-05-31 Encoding apparatus and method, and multiplexing apparatus and method
CNB001262904A CN1186937C (zh) 1999-06-01 2000-06-01 编码设备和方法、多路复用设备和方法
US10/861,748 US7394851B2 (en) 1999-06-01 2004-06-04 Encoding apparatus and method, and multiplexing apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-154402 1999-06-01
JP15440299 1999-06-01
JP2000090769A JP4487374B2 (ja) 1999-06-01 2000-03-27 符号化装置及び符号化方法並びに多重化装置及び多重化方法

Publications (2)

Publication Number Publication Date
JP2001054118A JP2001054118A (ja) 2001-02-23
JP4487374B2 true JP4487374B2 (ja) 2010-06-23

Family

ID=26482696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000090769A Expired - Fee Related JP4487374B2 (ja) 1999-06-01 2000-03-27 符号化装置及び符号化方法並びに多重化装置及び多重化方法

Country Status (5)

Country Link
US (2) US6795499B1 (ja)
EP (1) EP1058262A3 (ja)
JP (1) JP4487374B2 (ja)
CN (1) CN1186937C (ja)
TW (1) TW545058B (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487374B2 (ja) * 1999-06-01 2010-06-23 ソニー株式会社 符号化装置及び符号化方法並びに多重化装置及び多重化方法
TW518844B (en) * 2001-03-21 2003-01-21 Ind Tech Res Inst Transmission method of multimedia data packet in network system
KR20030087193A (ko) 2002-05-07 2003-11-14 엘지전자 주식회사 멀티 채널 방송 스트림의 기록 관리방법
JP4299779B2 (ja) * 2002-06-21 2009-07-22 エルジー エレクトロニクス インコーポレーテッド ビデオデータの再生を管理するためのデータ構造を有する記録媒体
MXPA04002365A (es) * 2002-06-21 2004-11-22 Lg Electronics Inc Medio de grabacion que tiene estructura de datos para manejar la reproduccion de datos de video grabados en el mismo.
CN101350215B (zh) 2002-06-24 2012-08-29 Lg电子株式会社 记录和再现用于视频数据的再现的数据结构的方法及装置
KR20040000290A (ko) 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
WO2004001751A1 (en) 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure including navigation control information for managing reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
RU2347284C2 (ru) * 2002-10-14 2009-02-20 Эл Джи Электроникс Инк. Носитель записи со структурой данных для управления воспроизведением записанного на нем множества аудиопотоков и способы и устройства записи и воспроизведения
CN100479051C (zh) * 2002-10-15 2009-04-15 Lg电子有限公司 具有管理多路图形流重现的数据结构的记录介质及记录和重现方法和装置
US7606463B2 (en) * 2003-02-24 2009-10-20 Lg Electronics, Inc. Recording medium having data structure for managing playback control and recording and reproducing methods and apparatuses
US7693394B2 (en) * 2003-02-26 2010-04-06 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
EP1604356A4 (en) 2003-02-28 2009-12-16 Lg Electronics Inc RECORD MEDIUM WITH A DATA STRUCTURE FOR MANAGING THE RANDOM / SHUFFLE PLAYBACK OF RECORDED VIDEO DATA, AND METHOD AND DEVICES FOR RECORDING AND PLAYING
US7620301B2 (en) 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
JP4902935B2 (ja) 2003-05-08 2012-03-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び記録媒体
WO2005099259A1 (ja) * 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 高速変換可能なストリームを記録した情報記録媒体並びにその記録装置及び記録方法
JP4105207B2 (ja) * 2004-04-07 2008-06-25 松下電器産業株式会社 高速変換可能なストリームを記録した情報記録媒体並びにその記録装置及び記録方法
CN100518283C (zh) 2004-04-07 2009-07-22 松下电器产业株式会社 记录可以高速转换的流的信息记录装置和记录方法
EP1737225B1 (en) 2004-04-07 2011-11-09 Panasonic Corporation Information recording medium wherein stream convertible at high-speed is recorded, and recording apparatus and recording method therefor
JP4177409B2 (ja) 2004-04-07 2008-11-05 松下電器産業株式会社 情報記録装置及び情報記録方法
JP4221667B2 (ja) * 2004-08-25 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
EP1786212A4 (en) * 2004-08-25 2011-08-17 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, RECORDING MEDIUM AND PROGRAM
JP2006135667A (ja) * 2004-11-05 2006-05-25 Toshiba Corp データ送信機、データ送信方法、データ受信機、及びデータ受信処理方法
JP4678486B2 (ja) * 2005-03-11 2011-04-27 ソニー株式会社 多重化装置および多重化方法、プログラム、並びに記録媒体
US20060233237A1 (en) * 2005-04-15 2006-10-19 Apple Computer, Inc. Single pass constrained constant bit-rate encoding
US8437392B2 (en) * 2005-04-15 2013-05-07 Apple Inc. Selective reencoding for GOP conformity
JP4251298B2 (ja) * 2005-07-15 2009-04-08 ソニー株式会社 再生装置および再生方法、プログラム、プログラム格納媒体、データ、記録媒体、記録装置、および、記録媒体の製造方法
WO2007069452A1 (ja) 2005-12-14 2007-06-21 Matsushita Electric Industrial Co., Ltd. コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及び集積回路
WO2007112445A2 (en) * 2006-03-28 2007-10-04 Motionbox, Inc. A system and data model for shared viewing and editing of time-based media
US8582663B2 (en) * 2006-08-08 2013-11-12 Core Wireless Licensing S.A.R.L. Method, device, and system for multiplexing of video streams
JP4221676B2 (ja) 2006-09-05 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
EP2403248B1 (en) 2009-02-27 2018-07-04 Fujitsu Limited Moving picture encoding device, moving picture encoding method, and moving picture encoding computer program
US20110093902A1 (en) * 2009-10-16 2011-04-21 At&T Intellectual Property I, L.P. System and Method to Process a Data Stream Having Different Content Types
US10334288B2 (en) * 2010-06-15 2019-06-25 Avago Technologies International Sales Pte. Limited Method and system for zero overhead parallel entropy decoding
EP2698999B1 (en) 2011-04-12 2017-01-04 Sun Patent Trust Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus
KR102015674B1 (ko) 2011-05-24 2019-08-28 벨로스 미디어 인터내셔널 리미티드 화상 부호화 방법, 화상 부호화 장치, 화상 복호 방법, 화상 복호 장치, 및, 화상 부호화 복호 장치
EP4213483A1 (en) 2011-05-27 2023-07-19 Sun Patent Trust Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
EP2717579B1 (en) 2011-05-31 2020-01-22 Sun Patent Trust Video decoding method and video decoding device
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
MX2013014347A (es) * 2011-06-15 2014-01-31 Sony Corp Aparato de recepcion, aparato terminal, metodo de cotrol, programa, y sistema de comunicacion.
MX2013013029A (es) 2011-06-30 2013-12-02 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, dispositivo de decodificacion de imagenes, dispositivo de codificacion de imagenes y dispositivo de codificacion/decodifi cacion de imagenes.
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
MX341415B (es) 2011-08-03 2016-08-19 Panasonic Ip Corp America Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
JP6308495B2 (ja) 2011-10-19 2018-04-11 サン パテント トラスト 画像復号方法、および、画像復号装置
JP5772623B2 (ja) * 2012-01-20 2015-09-02 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
KR20130088676A (ko) * 2012-01-31 2013-08-08 삼성전자주식회사 재생 장치 및, 재생 장치의 제어 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6026232A (en) * 1995-07-13 2000-02-15 Kabushiki Kaisha Toshiba Method and system to replace sections of an encoded video bitstream
DE69841897D1 (de) * 1997-07-25 2010-10-28 Sony Corp Bearbeitungsanlage, bearbeitungsverfahren, spleissungsanlage, spleissungsverfahren, kodieranlage und kodierverfahren
US6396874B1 (en) * 1997-11-12 2002-05-28 Sony Corporation Decoding method and apparatus and recording method and apparatus for moving picture data
US6301428B1 (en) * 1997-12-09 2001-10-09 Lsi Logic Corporation Compressed video editor with transition buffer matcher
JPH11285002A (ja) * 1998-02-02 1999-10-15 Sony Corp 動画像符号化装置及び動画像符号化方法
EP0935395A2 (en) * 1998-02-06 1999-08-11 Sony Corporation Video encoding methods and apparatus
CA2265089C (en) * 1998-03-10 2007-07-10 Sony Corporation Transcoding system using encoding history information
EP1099333A1 (en) 1998-07-22 2001-05-16 Nokia Corporation Method and apparatus for performing a traffic measurement in a telecommunication network
EP1069779B1 (en) * 1999-02-09 2016-04-13 Sony Corporation Coding system and its method
JP4487374B2 (ja) * 1999-06-01 2010-06-23 ソニー株式会社 符号化装置及び符号化方法並びに多重化装置及び多重化方法

Also Published As

Publication number Publication date
EP1058262A3 (en) 2004-04-21
TW545058B (en) 2003-08-01
EP1058262A2 (en) 2000-12-06
CN1283045A (zh) 2001-02-07
CN1186937C (zh) 2005-01-26
US7394851B2 (en) 2008-07-01
US20040264566A1 (en) 2004-12-30
US6795499B1 (en) 2004-09-21
JP2001054118A (ja) 2001-02-23

Similar Documents

Publication Publication Date Title
JP4487374B2 (ja) 符号化装置及び符号化方法並びに多重化装置及び多重化方法
US7054546B2 (en) Data multiplexing method, data recorded medium, data recording apparatus and data recording program
JP2002519917A (ja) 符号化されたav系列のフレームの正確な編集
JP3529599B2 (ja) 符号化装置における編集可能点挿入方法および符号化装置
US6240137B1 (en) Encoding apparatus and method, decoding apparatus and method, and editing method
EP0935395A2 (en) Video encoding methods and apparatus
US8086087B2 (en) Information processing device and method, program, and recording medium
JP3918332B2 (ja) 多重化装置、多重化方法及び記録媒体
JP2001043616A (ja) 記録方法、記録媒体及び記録装置
JP2003052040A (ja) Mpegデータ再生装置
JP2005198350A (ja) アフレコ信号再生方法
JPH08335371A (ja) ストリーム多重装置、ストリーム多重方法及び蓄積メディア
JP2000316158A (ja) 符号化装置及び符号化方法
JPH10262219A (ja) ディジタル信号再生方法及び装置
JP2003092733A (ja) Mpegデータ記録装置
JP2005237021A (ja) アフレコ信号再生用プログラム
JP2005245006A (ja) アフレコ信号再生装置
JP2005253093A (ja) アフレコ信号伝送装置
JP2005198351A (ja) アフレコ信号再生装置
JP2005260979A (ja) アフレコ信号伝送方法
JP2003116107A (ja) Mpegデータ記録方法
JP2003116106A (ja) Mpegデータ記録方法
JP2003111026A (ja) Mpegデータ記録方法
JPH11215470A (ja) 動画像データの記録装置及び記録方法、記録媒体、並びに、動画像データの復号装置及び復号方法
JP2008005522A (ja) Mpegデータ記録再生方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees