CN1186937C - 编码设备和方法、多路复用设备和方法 - Google Patents

编码设备和方法、多路复用设备和方法 Download PDF

Info

Publication number
CN1186937C
CN1186937C CNB001262904A CN00126290A CN1186937C CN 1186937 C CN1186937 C CN 1186937C CN B001262904 A CNB001262904 A CN B001262904A CN 00126290 A CN00126290 A CN 00126290A CN 1186937 C CN1186937 C CN 1186937C
Authority
CN
China
Prior art keywords
data stream
memory space
picture
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB001262904A
Other languages
English (en)
Other versions
CN1283045A (zh
Inventor
加藤元树
小幡功史
伊木信弥
高岛芳和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1283045A publication Critical patent/CN1283045A/zh
Application granted granted Critical
Publication of CN1186937C publication Critical patent/CN1186937C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • H04N21/23655Statistical multiplexing, e.g. by controlling the encoder to alter its bitrate to optimize the bandwidth utilization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

一种编码视频数据流的编码器,其视频编码器计算当结束以第一画面结尾的数据流对STD视频缓存器的输入时STD视频缓存器应具有的位存储量,在VBV缓存器中,计算连结到第一画面结尾和开始于第二画面的数据流的第二画面的初始位存储量,并且据此编码数据流。视频编码器还计算STD视频缓存器的位存储量,基于所计算位存储量编码数据流。由此,当编辑视频数据流时,能再编码一部分视频数据流而不参考视频缓存器初始状态。

Description

编码设备和方法、多路 复用设备和方法
技术领域
本发明涉及视频数据流编码器和视频数据流编码方法、以及视频数据流多路复用器和视频数据流多路复用方法,特别涉及对于视频数据流编辑,当再编码一部分视频数据流时,在不参考表示视频缓存器初始状态的情况下,能够再编码视频数据流的视频数据流编码器和视频数据流编码方法、以及视频数据流多路复用器和视频数据流多路复用方法。
背景技术
可以采用MPEG(运动图像编码专家组)标准作为用于编码代表运动图像的视频数据流的技术之一。MPEG标准规定了用于与编码器输出连接的虚拟解码器模型。具体地说,为了防止解码器模型中的缓存器的任何下溢和上溢(编码视频数据流要提供给该缓存器),MPEG标准限制了当编码视频数据流时期望的该缓存器容量。通过如此限制由包括在解码器模型中的缓存器存储数据的占用,MPEG定义了加在视频数据流编码上的限度。虚拟解码器模型称为“VBV”(Video Buffering Verifer,视频缓存校验符),该虚拟解码器中的缓存器称为“VBV缓存器”。
为了与MPEG标准中规定的要求一致,视频数据流的编码应当使VBV缓存器既不下溢又不上溢。例如,对于MPEG-2标准的MP@ML(在主电平上的主轮廓)来说,VBV缓存器大小定义为1.77兆位。
编码器编码包括在每个图像中且表示在随机存取的缓存器的初始状态的称为“表示视频缓存器的初始状态的信息”的16位字段。表示视频缓存器的初始状态的信息具有代表位存储量(位占有)的值,VBV缓存器应当具有它用于解码该图像。当解码图像时,虚拟解码器读出附着在该图像上的表示视频缓存器的初始状态的信息,然后,当VBV缓存器具有由表示视频缓存器的初始状态的信息所表示的位存储量时解码该图像。
当编辑两个根据MPEG标准编码的视频数据流以便将它们与图像精确度连接时,在作为两个视频数据流之间连接点上的编辑点之前和之后的几幅图像在某些情况下被再编码。对于通过解码器无缝(no seam)地解码的编辑视频数据流的图像再现来说,该视频数据流应当被编辑和再编码以便不使VBV缓存器的上溢和下溢是必要的。为此,在编辑的视频数据流中,暂时位于该编辑点之前的外点侧图像(outpoint-side picture)和暂时位于该编辑点之后的内点侧图像(inpoint-side picture)被再编码,这将在下面说明。
为再编码外点侧图像,编码器首先读出表示在被再编码的第一画面之前的图像的视频缓存器的初始状态的信息。接着,编码器使用表示视频缓存器的初始状态的该读出信息,以计算VBV缓存器为了再编码要由VBV再编码的第一画面而应当具有的初始位存储量。然后,基于所计算的初始位存储量,编码器根据VBV模型再编码该图像。
另外,为再编码内点侧图像,编码器首先读出表示邻接要再编码的最后图像的图像的视频缓存器的初始状态的信息。接着,编码器使用表示视频缓存器的初始状态的该读出信息,以计算VBV缓存器为了再编码要由VBV再编码的最后图像而应当具有的位存储量。然后,编码器根据VBV模型通过所计算的位存储量来再编码该图像。
MPEG-2标准规定可以选择性地选择表示视频缓存器值的初始状态的信息是否应当被编码为图像层的首标信息和包括在视频数据流中。因此,在许多情况下,上述编码器将包括在已被编码成符合MPEG-2标准的视频数据流的图像层首标信息中的表示视频缓存器字段初始状态的16位信息编码为“0xFFFF”值。因此,当表示视频缓存器值的初始状态的信息被选择性编码时,对于任意图像,不可能计算出VBV缓存器的正确位存储量。因此,使用上述编码器不能够计算位存储量,并且当编辑视频数据流时不能通过任何位存储量再编码图像。
发明内容
因此,本发明的目的是通过提供编码设备和方法、以及多路复用设备和方法,克服现有技术的上述缺陷,其适用于在不需要参考表示作为图像层参数所包含的视频缓存器初始状态信息的情况下能够在编辑视频数据流时再编码它们中的一部分。
上述目的能够通过提供编码器实现,根据本发明,该编码器包括:
再编码装置,用于再编码以第一画面结尾的第一编码数据流、和连结到第一画面结尾且开始于第二画面的第二编码数据流;
第一位存储量计算装置,用于对用于解码通过再编码装置再编码的编码数据流的虚拟系统目标解码器模型中的视频缓存器,计算应当是当第一编码数据流的第一画面到视频缓存器的输入结束时的第一位存储量;
第二位存储量计算装置,用于基于通过第一位存储量计算装置计算的第一位存储量,计算第二位存储量,其是虚拟系统目标解码器模型中的视频缓存器应当具有的,用于根据虚拟系统目标解码器模型启动第二编码数据流的第二画面的解码;和
再编码控制装置,用于基于通过第二位存储量计算装置计算的第二位存储量,控制由再编码装置完成的第二编码数据流的再编码。
上述编码器还包括多路复用装置,用于基于第一位存储量,多路复用包括由再编码控制装置再编码的第二编码数据流的多路复用数据流。
用于上述编码器的虚拟系统目标解码器模型符合MPEG(运动图像编码专家组)标准。
而且,通过提供一种编码方法能够获得上述目的,根据本发明的该方法包括步骤:
对于用于解码被再编码的编码数据流的虚拟系统目标解码器模型中的视频缓存器,计算应当是当以第一画面结束的第一编码数据流的第一画面对视频缓存器的输入结束时的第一位存储量;
基于第一位存储量,计算第二位存储量,其是虚拟系统目标解码器模型中的视频缓存器应当具有的,用于根据虚拟系统目标解码器模型来启动连结到第一画面结尾和开始于第二画面的第二编码数据流的第二画面的解码;和
基于第二位存储量,再编码第二编码数据流。
上述编码方法还包括再多路复用步骤,用于基于第一位存储量,再多路复用包括由编码控制装置再编码的第二编码数据流的多路复用数据流。
用于上述编码方法的虚拟系统目标解码器模型符合MPEG(运动图像编码专家组)标准。
借助上述编码装置和方法,有可能在不参照表示作为图像层参数所包括的视频缓存器初始状态信息的情况下,再编码一部分视频数据流。另外,上述目的能够通过根据本发明提供的编码器实现,其包括:再编码装置,用于再编码以第一画面开始的第一编码数据流和连结到第一画面的开头且以第二画面结束的第二编码数据流;用于计算第一位存储量的装置,第一位存储量是在用于解码通过再编码装置再编码的编码数据流的虚拟系统目标解码器模型中、用于解码第一编码数据流的第一画面的视频缓存器具有的;用于计算第二位存储量的装置,用于基于通过第一位存储量计算装置计算的第一位存储量计算第二位存储量,第二位存储量是在虚拟系统目标解码器模型中、用于根据虚拟系统目标解码器模型来结束对第二编码数据流的第二画面的解码的视频缓存器具有的;和控制装置,用于基于通过第二位存储量计算装置计算的第二位存储量,控制由再编码装置完成的第二编码数据流的再编码。
另外,根据本发明,能够通过提供一种编码方法实现上述目的,其包括步骤:计算第一位存储量,该第一位存储量是在用于解码被再编码的编码数据流的虚拟系统目标解码器模型中、用于解码在第一编码数据流顶部的第一画面的视频缓存器具有的;基于第一位存储量计算第二位存储量,第二位存储量是用于根据虚拟系统目标解码器模型来结束连结到第一画面的开头和结束于第二画面的第二编码数据流的第二画面的解码的视频缓存器具有的;和基于第二位存储量再编码第二编码数据流。借助上述编码装置和方法,有可能在不需要涉及表示作为图像层参数所包括的视频缓存器初始状态信息的情况下,再编码一部分视频数据流。
而且,上述目的能够通过根据本发明提供的多路复用器实现,其包括:再编码装置,用于再编码以第一画面开始的第一编码数据流和连结到第一画面的开头且以第二画面结束的第二编码数据流;用于计算第一位存储量的装置,第一位存储量是在用于解码通过再编码装置再编码的编码数据流的虚拟系统目标解码器模型中、用于解码第一编码数据流的第一画面的视频缓存器具有的;用于计算第二位存储量的装置,用于基于通过第一位存储量计算装置计算的第一位存储量计算第二位存储量,第二位存储量是在虚拟系统目标解码器模型中、用于根据虚拟系统目标解码器模型来解码第二编码数据流的第二画面的视频缓存器具有的;控制装置,用于基于通过第二位存储量计算装置计算的第二位存储量,控制由再编码装置完成的第二编码数据流的再编码;多路复用装置,用于使用通过再编码装置再编码的第二编码数据流,产生包括第二编码数据流的再多路复用数据流;判定装置,用于判定第三位存储量是否在预定的范围内,第三位存储量是在虚拟系统目标解码器模型中、用于将通过多路复用装置再多路复用的再多路复用数据流连结到包括第一编码数据流的多路复用数据流的视频缓存器具有的,其中第一编码数据流的多路复用数据流在来自多路复用装置的再多路复用数据流之后出现;和多路复用控制装置,用于基于判定装置的判定结果,控制包括第一编码数据流的多路复用数据流的第一画面将被提供给系统目标解码器模型的时间。
而且,上述目的能够通过根据本发明提供的多路复用方法实现,其包括步骤:计算第一位存储量,第一位存储量是在用于解码被再编码的编码数据流的虚拟系统目标解码器模型中、用于解码在第一编码数据流顶部的第一画面的视频缓存器具有的;基于第一位存储量计算第二位存储量,第二位存储量是在虚拟系统目标解码器模型中、用于根据虚拟系统目标解码器模型来结束对连结到第一画面的开头和结束于第二画面的第二编码数据流的第二画面的解码的视频缓存器具有的;基于第二位存储量再编码第二编码数据流;使用再编码的第二编码数据流,产生包括第二编码数据流的再多路复用数据流;判定第三位存储量是否在预定的范围内,第三位存储量是在虚拟系统目标解码器模型中、用于将再多路复用数据流连结到包括第一编码数据流的多路复用数据流的视频缓存器具有的,其中第一编码数据流的多路复用数据流在再多路复用数据流之后出现;基于判定结果,控制包括第一编码数据流的多路复用数据流的第一画面将被提供给系统目标解码器模型的时间。
借助上述多路复用装置和方法,对于再多路复用,有可能在不需要参照表示作为图像层参数所包括的视频缓存器初始状态信息的情况下,再编码一部分视频数据流。
附图说明
通过结合附图对本发明优选实例的详细说明,本发明的上述目的,优点和特征将变得更为清楚。
图1是根据本发明的运动图像记录和/或写入装置的方框图;
图2a是外点侧的视频数据流;
图2b是内点侧的视频数据流;
图2c是一部分外点侧视频数据流,其被图1的运动图像记录和/或再现装置再编码和再多路复用;
图2d是一部分内点侧视频数据流,其被运动图像记录和/或再现装置再编码和再多路复用;
图2e表示视频数据流出现的顺序,其中视频数据流被运动图像记录和/或再现装置再编码和再多路复用;
图3a表示被运动图像记录和/或再现装置再多路复用的外点侧节目的多路复用数据流;
图3b表示通过再多路复用产生的桥式序列;
图4a表示被运动图像记录和/或再现装置再多路复用的内点侧节目的多路复用数据流;
图4b表示通过再多路复用产生的桥式序列;
图5表示分别在编辑点之前和之后外点侧节目和内点侧节目的多路复用数据流的结构;
图6是解码被运动图像记录和/或再现装置多路复用的数据流的系统目标解码器的方框图;
图7是当被提供有通过运动图像记录和/或再现装置多路复用的数据流时由系统目标解码器执行的操作的时序图;
图8表示符合MPEG标准的VBV模型;
图9是由运动图像记录和/或再现装置完成的操作的流程图,其用于再编码视频数据流和然后对它们进行再多路复用;
图10表示Clip-2的STC(System Time Clock,系统时钟)时间和视频缓存器应当具有的位存储量(STD(System Target Decoder,系统目标解码器)缓存器的位存储量)之间的关系;
图11表示时间和视频缓存器应当具有的用于编码Clip-1的位存储量(STD缓存器的位存储量)之间的关系;
图12表示时间和视频缓存器应当具有的用于编码Clip-2的位存储量(STD缓存器的位存储量)之间的关系;
图13是由运动图像记录和/或再现装置完成操作的流程图,其用于再编码外点侧节目的视频数据流;
图14表示在当提供有外点侧视频数据流(...,B07)时存储在STD视频缓存器的位量与根据附加到视频包之SCR(System Clock Reference,系统时钟基准)的STC-1之间的关系;
图15表示在当提供有内点侧视频数据流(I12,...)时存储在VBV视频缓存器的位量与根据附加到视频包之SCR的STC-1之间的关系;
图16表示在当提供有外点侧视频数据流然后提供有内点侧视频数据流时存储在STD视频缓存器的位量与STC-1和STC-2之间的关系;
图17是当再编码和再多路复用内点侧节目的视频数据流时由运动图像记录和/或再现装置完成的操作的流程图;
图18表示在当提供有内点侧视频数据流(Im2、Im0、...)时存储在STD缓存器的位量与根据附加到视频包之SCR的STC-2之间的关系;
图19解释如何确定分配的位量,使得VBV缓存器在当包括在GOP(n-x)中的图像Bn7x是要再编码的GOP时的时刻应当具有的位存储量Bend2变成大于位存储量Bj。
图20表示STC-2和位存储量之间的关系,当包括再多路复用内点侧GOP的视频包从时间scr(In5x)开始提供(SCR_video2_start)并且然后在时间scr(Im2)之后视频包被提供给STD视频缓存器时该位存储量是STD视频缓存器应当具有的;
图21表示当包括再多路复用内点侧GOP的视频包从时间scr(In5x)开始提供(SCR_video2_start)并且然后在时间scr(Im2)之后视频包被提供给STD视频缓存器时STC-2和存储在STD视频缓存器中的位量之间的关系;
图22解释如何改写附加到视频包的SCR,使得内点侧视频数据以预定的时间延迟被提供给视频缓存器;
图23a到23d一起表示通过运动图像记录和/或再现装置再编码外点侧视频数据流的另一个例子,其中:
图23a表示包括出点外点侧图像的视频数据流;
图23b表示通过运动图像记录和/或再现装置再编码和再多路复用外点侧视频数据流;
图23c表示通过运动图像记录和/或再现装置再编码和再多路复用外点侧视频数据流的另一个例子;
图23d表示通过运动图像记录和/或再现装置再编码和再多路复用外点侧视频数据流的又一个例子;
图24a到24d一起表示通过运动图像记录和/或再现装置再编码内点侧视频数据流的另一个例子,其中:
图24a表示包括内点图像的内点侧的视频数据流;
图24b表示通过运动图像记录和/或再现装置再编码和再多路复用内点侧视频数据流;
图24c表示通过运动图像记录和/或再现装置再编码和再多路复用内点侧视频数据流的另一个例子;
图24d表示通过运动图像记录和/或再现装置再编码和再多路复用内点侧视频数据流的又一个例子;
图25是由运动图像记录和/或再现装置完成操作的流程图,其用于通过上面参考图23已经说明的视频编码器进行再编码和通过多路复用器进行再多路复用;
图26解释位存储量Bend1通过视频编码器判定大于初始位存储量Bvs的例子;
图27解释位存储量Bend1通过视频编码器判定小于初始位存储量Bvsd的例子;
图28解释如何改变图27所示的视频缓存器的位存储量;
图29是由运动图像记录和/或再现装置完成的操作的流程图,其用于通过上面参考图24已经说明的视频编码器进行再编码和通过多路复用器进行再多路复用;
图30解释位存储量Bend2通过视频编码器判定大于初始位存储量Bj的例子;
图31解释位存储量Bend2通过视频编码器判定小于初始位存储量Bj的例子;
图32解释如何改变图31所示的视频缓存器的位存储量;和
图33是系统目标解码器的方框图,其合成通过运动图像记录和/或再现装置以传输流形式多路复用的多路复用数据流。
具体实施方式
现在参考图1,这里以示意方框图的形式示出了运动图像记录和/或再现装置,其中采用了根据本发明的编码器或编码方法和多路复用器或多路复用方法。运动图像记录和/或再现装置通常用标记1表示。运动图像记录和/或再现装置1编辑已经根据MPEG-2标准压缩编码的运动图像数据以产生能够以在通过解码器连结的两个视频数据流之间无缝地进行再现的运动图像数据,以及将该运动图像数据再次写入光盘2。
用在运动图像记录和/或再现装置1的光盘2已经在其中将根据MPEG-2标准编码的视频数据和音频数据打包,并且已经在其中记录以包为单位时分多路复用的多路复用数据流。包括连结用于再现的任意两个视频数据流外点图像的运动图像节目称为“外点侧节目”,包括视频数据流内点图像的运动图像节目称为“内点侧节目”。包括再现的视频数据流外点图像的图像组(GOP,Group OfPicture)称为“外点侧GOP”,包括再现的视频数据流内点图像的GOP称为“内点侧GOP”。
如图1所示,运动图像记录和/或再现装置1包括:从光盘2读出多路复用数据流的读出头3;解调由读出头3读出的该多路复用数据流的解调器4;对由解调器4解调的该多路复用数据流进行纠错的纠错电路(ECC)5;临时存储其差错已经由ECC电路5校正的多路复用数据流的缓存器6;将纠错码(ECC)添加到由编辑产生的多路复用数据流的纠错码(ECC)添加电路7;调制已经通过ECC添加电路7添加了ECC的多路复用数据流的调制器8;以及将通过调制器8调制的多路复用数据流写入光盘2的写入头9。
另外,运动图像记录和/或再现装置1包括:将存储在缓存器6的多路复用数据流分离成视频数据流和音频数据流的多路分用器11;用于解码由多路分用器11分离的视频数据流以产生视频数据的视频解码器12;用于再编码由视频解码器12解码的视频数据以产生视频数据流的视频编码器13;以及用于对视频和音频数据流进行时分多路复用以产生多路复用数据流的多路复用器14。
而且,运动图像记录和/或再现装置1包括编辑信息输入装置15,其给读出头3提供再现信息必需的诸如内点图像信息和外点图像信息的编辑信息。编辑信息输入装置15从根据例如通过用户操作的键盘提供的操作输入命令指定的内点图像信息和外点图像信息中产生编辑信息,并且将其提供给读出头3。
另外,运动图像记录和/或再现装置1包括分析控制器16,其分析从编辑信息输入装置15提供的编辑信息和从多路分用器11提供的多路复用数据流等,产生用于使解码器进行无缝再现所必需的编辑信息,以及控制视频编码器13和多路复用器14。分析控制器16给视频编码器13提供使视频编码器13再编码视频数据流的方法,和给多路复用器14提供编辑信息,该编辑信息提出了一种使多路复用器14能够再多路复用视频数据流的方法。
而且,运动图像记录和/或再现装置1包括选择开关17,其选择视频数据流提供给多路复用器14的视频数据流路径。在分析控制器16的控制下,选择开关17在两路径之间进行选择,沿着该路径,由多路分用器11分离的视频数据流被视频解码器12解码和被视频编码器13再编码,然后被提供给多路复用器14,而由多路分用器11分离的视频数据流被直接提供给多路复用器14。由多路分用器11分离的音频数据流被直接提供给多路复用器14,不进行解码和再编码。
在按上述构成的运动图像记录和/或再现装置1中,分析控制器16分析记录在光盘2上的多路复用数据流以控制读出头3、视频解码器12、视频编码器13、多路复用器14和选择开关17,由此产生桥式序列,其中通过解码器连结的视频数据流在视频数据流之间被无缝再现,分析控制器16将该桥式序列记录到光盘2。
下面说明运动图像记录和/或再现装置1中视频数据流的再编码。
在运动图像记录和/或再现装置1中,视频数据流在分析控制器16的控制下通过视频编码器13再编码,使得对于解码器中一部分运动图像节目的跳跃再现,在开始跳跃再现时在外点图像之前临时作为节目的外点侧节目和在到达跳跃再现时在内点图像之后临时作为节目的内点侧节目能够无缝连结。
作为符合MPEG-2标准的图像组单元的GOP包括三种类型的编码图像:至少一个I(内部)图像、P(预测)图像和B(双向)图像。I(内部)图像是由编码图像产生的基准图像,而没有从其它任何图像进行预测编码;P(预测)图像是由编码图像产生的前向预测编码图像,按出现顺序进行了前向预测编码;B(双向)图像是在前向预测编码和后向预测编码内由编码图像产生的双向预测编码图像。
例如假设如图2a中所示,包括外点图像(Pout)的外点侧GOP为GOP(1),外点图像为包括在外点侧GOP中的B图像的B14。GOP(1)邻接GOP(0)。假如还假设如图2b中所示,包括内点图像(Pin)的内点侧GOP为GOP(n),外点图像为包括在内点侧GOP中的B图像的Bn4。GOP(n)继之以GOP(m)。注意,在第i个GOP(即GOP(i))中出现在第j个位置(即临时标记为“j”)的I图像将用“Iij”表示,在第i个GOP(i)中出现在第j个位置的P图像将用“Pij”表示,在第i个GOP(i)中出现在第j个位置的B图像将用“Bij”表示。
具体地说,作为外点侧GOP的GOP(1)包括图像I12、B10、B11、P15、B13、B14、P18、B16和B17,它们按照这个顺序被记录在光盘2中。另外,作为内点侧GOP的GOP(n)包括图像In2、Bn0、Bn1、Pn5、Bn3、Bn4、Pn8、Bn6和Bn7,它们按照这个顺序被记录在光盘2中。
下面说明运动图像记录和/或再现装置1中通过视频编码器13进行的再编码,涉及了外点侧GOP和内点侧GOP,如图2a和2b所示。
首先,解码作为包括外点图像(Pout)的外点侧GOP的GOP(1)。然后,GOP(1)被再编码,使得不必按出现的顺序预测参考在外点图像(Pout)之后的任何编码图像,外点图像(Pout)就能被重新解码。如果如图2a所示在作为外点侧GOP的GOP(1)中的图像B14是外点图像(Pout),则在不预测参考图像P15的情况下能够得到已经基于图像P15被预测编码的图像B13和B14,由此产生是新GOP的GOP(1-x),如图2c所示。
具体地说,为了产生GOP(1-x),首先图像I12、B10、B11、P15、B13和B14通过视频解码器12被解码和描绘(render)回成非编码视频数据,并且之后图像B14被再编码成基于图像I12预测编码的P图像的图像P14x。接着,图像B13被再编码成基于图像I12和P14x预测编码的B图像的图像B13x。图像I12、B10和B12从GOP(1)中拷贝,不用再编码。这些图像I12、B10和B12可以被再编码。再编码的结果,就产生了由图像I12、B10、B11、P14x和B13x构成的GOP(1-x)和SQE(序列结束码),如图2c所示。
接着,解码作为包括内点图像(Pin)的内点侧GOP的GOP(n)。然后,GOP(n)被再编码,使得不必按出现的顺序预测参考在外点图像(Pin)之前的任何编码图像,外点图像(Pin)就能被重新解码。如果在作为如图2b所示的内点侧GOP的GOP(n)中的图像Bn4是内点图像(Pin),则在不预测参考的情况下能够得到已经基于图像In2被预测编码的图像Bn4,由此产生是新GOP的GOP(n-x),如图2d所示。
具体地说,为了产生GOP(n-x),首先图像In2、Bn0、Bn1、Pn5、Bn3、Bn4、Pn8、Bn6和Bn7通过视频解码器12被解码和描绘回成非编码视频数据,并且之后图像Pn5被再编码成I图像的图像In5x。对于图像Bn4、Pn8、Bn6和Bn7,再编码与所考虑图像相同类型的图像Bn4x、Pn8x、Bn6x和Bn7x。再编码的结果,就产生了由SH(序列首标)图像In5x、Bn4x、Pn8x、Bn6x和Bn7x构成的GOP(n-x),如图2e所示。
在运动图像记录和/或再现装置1中,内点侧和外点侧GOP的再编码由视频解码器12、视频编码器13和选择开关17在分析控制器16控制下进行。通过再编码按出现顺序在外点图像B14之前的图像(...,I12、B10、B11和B13)和按出现顺序在内点图像Bn4之后的图像(Pn5、Pn8、Bn6、Bn7、...),运动图像记录和/或再现装置1产生运动图像,其按...,B10、B11、I12、B13x、P14x、Bn3x、Bn4x、In5x、Bn6x、Bn7x、Pn8x、...的出现顺序显示。
下面说明通过运动图像记录和/或再现装置1中提供的多路复用器14对多路复用数据流进行再多路复用。
对于解码器中一部分运动图像节目的跳跃再现,分析控制器16控制使多路复用器14再多路复用该多路复用的数据流,使得在开始跳跃再现时在外点图像之前临时作为节目的外点侧节目和在到达跳跃再现时在内点图像之后临时作为节目的内点侧节目能够无缝连结。
图3a表示外点侧节目的多路复用数据流的结构例子。在图3a中,Clip-A是包括外点侧节目的多路复用数据流。例如,其是继之以MPEG-2系统标准(ISO/IEC 13818-1)定义的系统时钟基准(SCR)的节目数据流。Clip-A包括在包中时分多路复用的视频数据流和音频数据流。在图3中,每一个视频数据流v0、v1、v2和v3是具有GOP长度的视频数据流,每一个音频数据流a0、a1、a2和a3是具有GOP长度的音频数据流。Clip-A中,数据流v1和a0是例如在Clip-A的字节位置Ba和Bj0之间的包中时分多路复用的。注意,一个包的大小例如为2048字节。
如图3a中所示,Clip-A中,音频数据流设置在预定字节数目(音频倾斜:AV多路复用相位差)的字节位置,其偏离将与音频数据流同步再现的视频数据流的位置。在图3a所示的例子中,音频倾斜(audio skew)是常数。但是,应当注意,音频倾斜在节目数据流中可以是变量。本例中,数据流v0和a0是相互同步的。类似地,数据流v1和a1、v2和a2、及v3和a3分别是相互同步的。
这里假设外点图像(Pout)是选自Clip-A中v3的GOP。在这种情况下,运动图像记录和/或再现装置1进行下面的程序以在下面的程序中产生外点侧桥式序列。桥式序列是多路复用数据流,其是通过再多路复用视频数据流获得的,视频数据流是通过再编码靠近编辑点的视频数据流产生的。
首先在第一步,包括外点图像的v3的GOP通过再编码上述视频数据流被再编码。在这种情况下,v3′的GOP是通过再编码视频数据流v3的GOP新产生的。这个新的视频数据流v3′的时间长度要比视频数据流v3短。
在第二步,在从Clip-A跳到外点侧桥式序列的点Bj0之后的字节点存在的和在视频数据流v3之前的一个视频数据流,即在这种情况下为视频数据流v2,是从Clip-A拷贝的。而且,在跳跃点Bj0之后和在与新的视频数据流v3′同步的音频数据流之前的字节位置的音频数据流,即在这种情况下为音频数据流a1和a2,是从Clip-A拷贝的。接着,与新的视频数据流v3′同步的音频数据流是从音频数据流a3的内部拷贝的以产生音频数据流a3′。
在第三步,在第一和第二步产生的视频数据流和音频数据流被再多路复用。在这种情况下,视频数据流v2和v3′以及音频数据流a1、a2和a3′被再多路复用,以产生如图3b所示的桥式序列-A和将其记录在光盘2中。
为了在解码器中读出其中记录桥式序列-A的光盘2以连结两个视频数据流用于再现,Clip-A往下读取到跳跃点Bj0,用于再现外点侧多路复用数据流,并且然后读出桥式序列-A。
注意,在运动图像记录和/或再现装置1中,在直至跳跃点Bj0的Clip-A和桥式序列-A之间连续存在的数据流不得不被多路复用,以提供继之以SCR的节目数据流。
图4a表示外点侧节目的多路复用数据流的结构例子。在图4a中,Clip-B是包括内点侧节目的多路复用数据流。例如,其是继之以MPEG-2系统定义的系统时钟基准(SCR)的节目数据流。Clip-B包括在包中时分多路复用的视频数据流和音频数据流。在图4中,每一个视频数据流v5、v6、v7和v8是具有GOP长度的视频数据流,每一个音频数据流a5、a6和a7是具有GOP长度的音频数据流。如图3。Clip-B中,数据流v8和a7是例如在Clip-B的字节位置Bji和Bb之间的包中时分多路复用的。如图4a中所示,Clip-B中,音频数据流设置在预定字节数目(音频)的字节位置,其偏离将与音频数据流同步再现的视频数据流的位置。在图4a所示的例子中,音频倾斜是常数。但是,应当注意,音频倾斜在节目数据流中可以是变量。本例中,数据流v5和a5是相互同步的。类似地,数据流v6和a6、v7和a7、及v8和a8分别是相互同步的。
这里假设内点图像(Pin)是选自Clip-B中v5的GOP。在这种情况下,运动图像记录和/或再现装置1进行下面的程序以在下面的程序中产生内点侧桥式序列。
首先在第一步,包括内点图像的v5的GOP通过再编码上述视频数据流被再编码。在这种情况下,v5′的GOP是通过再编码视频数据流v5的GOP新产生的。这个新的视频数据流v5′的时间长度要比视频数据流v5短。
在第二步,在视频数据流v5之后存在的和在从内点侧桥式序列跳到Clip-B的点Bji之前字节点处存在的视频数据流,即在这种情况下为视频数据流v6和v7,是从Clip-B拷贝的。而且,在与新的视频数据流v5′同步的音频数据流之后存在的和在跳跃点Bji之前字节位置处存在的一个音频数据流,即在这种情况下为音频数据流a6,是从Clip-B拷贝的。接着,与新的视频数据流v5′同步的音频数据流是从音频数据流a5的内部拷贝的以产生音频数据流a5′。
在第三步,在第一和第二步产生的视频数据流和音频数据流被再多路复用。在这种情况下,视频数据流v5′、v6和v7以及音频数据流a5′和a6被再多路复用以产生如图4b所示的桥式序列-B和将其记录在光盘2中。
为了在解码器中读出其中记录桥式序列-B的光盘2以连结两个视频数据流用于再现,读出桥式序列-B用于再现内点侧节目,并且Clip-B是从跳跃点Bji读出。
注意,在运动图像记录和/或再现装置1中,在桥式序列-B和跳跃点Bji之后的Clip-B之间连续存在的数据流不得不被多路复用以提供继之以SCR的节目数据流。
在运动图像记录和/或再现装置1中,上述的再多路复用技术允许产生图3b所示的桥式序列-A和图4b所示的桥式序列-B。
图5表示在编辑点之前和之后出现的多路复用数据流的结构,其中假设从跳跃点Bj0之前的Clip-A延续到桥式序列-A的多路复用数据流是Clip-1,从桥式序列-B延续到跳跃点Bj1之后的Clip-B的多路复用数据流是Clip-2。解码器中,当从Clip-1延续到Clip-2的多路复用数据流已经被连续地解码时,视频数据流和音频数据流不得在它们之间无缝地被再现。在运动图像记录和/或再现装置1中,为了在它们之间无缝地再现视频数据流和音频数据流,Clip-1和Clip-2中的音频数据流应当用下面给予它们的限制来被再编码和再多路复用。
在运动图像记录和/或再现装置1中,限制Clip-1和Clip-2中的音频数据流以便音频数据流出现的时间之间的差距不存在于Clip-1的结尾端和Clip-2的开始端之间的分界处。具体地说,Clip-1的音频数据流被再多路复用,以包括在Clip-1的视频数据流停止出现时刻出现的音频样本,同时Clip-2的音频数据流被再多路复用,以包括在Clip-2的视频数据流开始出现时刻出现的音频样本。因此,在Clip-1的结尾端和Clip-2的开始端之间的分界处,出现的时间长度比小于两音频帧的时间更短将有可能引起相互重叠。注意,在MPEG-1标准中Clip-1的音频数据流的情况下,一个音频帧是具有出现24ms时间长度的音频数据流。
图5中,图5中的V1LBI,A1LBI,V2FBI和A2FBI如下:
V1LBI Clip-1的视频-1中最后包的最后字节位置
A1LBI Clip-1的音频-1中最后包的最后字节位置
V2FBI Clip-2的视频-1中第一包的第一字节位置
A2FBI Clip-2的音频-2中第一包的第一字节位置
这些字节位置V1LBI和A1LBI,以及V2FBI和A2FBI分别有如下的关系:
V1LBI<A1LBI
V2FBI<A2FBI
与上述关系不同的关系在MPEG标准中是可能的,但它们在实际中很少存在。
图6表示系统目标解码器的结构,该系统目标解码器是虚拟解码器模型,计划用于再现多路复用数据流Clip-1和Clip-2,每个多路复用数据流都包括被运动图像记录和/或再现装置再编码和再多路复用的和被记录在光盘2上的视频数据流和音频数据流的包。系统目标解码器通常用标记20表示。
每个多路复用数据流都包括已经附加其上作为表示对系统目标解码器20输出定时的附加信息SCR(系统时钟基准)、表示解码定时的解码时间戳(DTS)和表示解码数据输出定时的出现时间戳(PTS),音频包上附加与视频包一样的附加信息SCR、DTS和PTS。解码定时和输出定时是参照这些附加信息控制的。
如图6所示,系统目标解码器20包括:用以接收从光盘2读出的多路复用数据流Clip-1和Clip-2,以及将该多路复用数据流分离成视频数据流和音频数据流的多路分用器21;暂时存储由多路分用器21分离的视频数据流的视频缓存器22;暂时存储由多路分用器21分离的音频数据流的音频缓存器23;为了解码用以提取存储在视频缓存器22中的视频数据流的视频解码器24;暂时存储解码的视频数据的重新排序缓存器25;为了解码用以提取存储在音频缓存器23中的音频数据流的音频解码器26;和为了将其作为输出,用以选择由视频解码器24解码的视频数据或者存储在排序缓存器25中的视频数据的输出开关27。
系统目标解码器20还包括提供系统时钟(STC)的定时控制器28,其用于控制多路分用器21在视频数据流和音频数据流之间的选择定时、视频解码器24的解码定时、音频解码器26的解码和输出定时、和输出开关27的输出定时。
系统目标解码器20还具有第一到第四STC开关SW1到SW4,用以在由定时控制器28提供的系统时钟STC-1和STC-2之间进行选择。
多路分用器21被提供根据附着于多路多用数据流的SCR一起形成每个多路复用数据流的包。根据定时控制器28提供的STC,多路分用器21把多路复用数据流分为视频数据流和音频数据流。之后,多路分用器21以预定的输出率(program_mux_rate)把视频和音频数据流提供给视频缓存器22和音频缓存器23。
视频解码器24用以当附加在视频数据流上的DTS与从定时控制器28供给的STC一致时从视频缓存器22中提取预定数据的数据以用于解码。然后,当PTD与DTS一致时,视频解码器24将解码的数据经过输出开关27传递到外部,或者将其一次存储在重新排序缓存器25中,并且然后经过输出开关27将其传递到外部。
为了解码,音频解码器26当附加在音频数据流上的DTS与从定时控制器28供给的STC一致时从音频缓存器23中提取音频数据流。并且当PTS与STC相互一致时,音频解码器26给STC开关SW3提供已经被解码的音频数据。
注意,根据MPEG-2 CSPS=1中规定的缓存器大小,提供在音频解码器26上游的音频缓存器23应当具有下面的大小:
附加缓存器大小=(program_mux_rate_Ra)*Ra/program_mux_rate
这里“Ra”是音频数据流的最大位速率,“program_mux_rate”是节目数据流Clip-1或Clip-2中较大一个的最大位速率。例如,如果program_mux_rate=10Mbps和Ra=256kbps,则音频缓存器23的附加缓存器大小为0.249Mbits。
当附加在视频包上的PTS与从定时控制器28供给的STC一致时输出开关27提供解码的视频数据。注意,如果需要,输出开关27提供存储在重新排序缓存器25中的视频数据作为输出。
当在外点侧节目之后选择连结两视频数据流用于再现的内点侧节目时,定时控制器28产生两个STC:一个与外点侧节目的SCR同步,另一个与内点侧节目的SCR同步。
定时控制器28包括产生STC的STC发生器28a和从由STC发生器28a产生的STC减去预先确定的偏差值(STC_delta)的减法器28b。因此,定时控制器28产生两个STC。其中一个STC是直接从STC发生器28a提供的STC,并且在此没有减去偏差值(这是与外点侧节目的SCR同步,此后将称为“STC-1”),另一个是直接从STC发生器28a提供的STC减去偏差值(STC_delta)获得的(这是与内点侧节目的SCR同步,此后将称为“STC-2”)。
偏差(STC_delta)表示在多路复用数据流Clip-1和Clip-2的时基之间的偏差。即偏差值是在当视频数据流Clip-1消失时时基上的Clip-1时间和视频数据流Clip-2开始出现时时基上的Clip-2时间之间的差值。
例如,假设在Clip-1时基上外点图像Pout的PTS是PTS-Pout,外点图像Pout的出现周期是Tpp和在Clip-2时基上内点图像Pin的PTS是PTS-Pin,偏差值“STC_delta”由下式(1)给出:
PTS-Pout-end=PTS-Pout+Tpp
STC_delta=PTS-Pout-end-PTS-Pin    (1)
从时间控制器28提供的两个STC(STC-1和STC-2)的任何一个是通过第一到第四STC开关SW1到SW4选择的,并且被提供到多路分用器21、视频解码器24、音频解码器26、和输出开关27。第一STC开关SW1在其端子A被提供STC-1,在其端子B被提供STC-2。它选择端子A和B之一并且将在所选择端子上提供的STC提供给多路分用器21。第二STC开关SW2在其端子A被提供STC-1,在其端子B被提供STC-2。它选择端子A和B之一并且将在所选择端子上提供的STC提供给视频解码器24。第三STC开关SW3在其端子A被提供STC-1,在其端子B被提供STC-2。它选择端子A和B之一并且将在所选择端子上提供的STC提供给音频解码器26。第四STC开关SW4在其端子A被提供STC-1,在其端子B被提供STC-2。它选择端子A和B之一并且将在所选择端子上提供的STC提供给输出开关27。
按上述功能构成的系统目标解码器20将在下面说明。
图7是当被提供有相互邻接的两个多路复用数据流Clip-1和Clip-2时系统目标解码器20完成的操作的时序图。
首先,附加到Clip-1中第一包的SCR在STC发生器28a中被设置成STC。所有的第一到第四STC开关SW1到SW4被分别连接到端子A,因此STC-1(与Clip-1的SCR同步的STC)被提供给多路分用器21、视频解码器24、音频解码器26、和输出开关27。即所有的功能都是以附加到Clip-1的SCR为基础工作的。
在到达时间T1之前,到多路分用器21的输入是当附加到Clip-1中每个包的SCR与还没有附加从第一STC开关SW1的端子A提供的偏差值的STC-1一致时刻进行的。接着,在时间T1结束到多路分用器21的Clip-1最后视频包的输入。对于从时间T1到时间T2的时间,多路分用器21以Clip-1的最大位速率“program-mux-rate 1”提供Clip-1的每个包,与附加到每个包的SCR无关。最大位速率“program-mux-rate 1”可以是最大传输速率,例如以此速率从光盘2上读出数据。
假设从Clip-1最后视频包的下一包到Clip-1最后包的数据量是“N1”,从时间T1到T2的时间“ΔT1”由下式(2)给出:
ΔT1=T2-T1=N1/program-mux-rate 1      (2)
在时刻T2,结束到多路分用器21的Clip-1最后包(音频包)的输入。在时刻T2,第一STC开关SW1转换到端子B,因此STC-2(与Clip-2的SCR同步的STC)被提供给多路分用器21。因此,多路分用器21启动以附加到Clip-2的SCR为基础的功能。
对于在时间T2和T3之间的时间周期,多路分用器21以Clip-2的最大位速率program-mux-rate 2被提供包括从Clip-2的第一包到Clip-2第一视频包之前包的若干包,与当Clip-2的第一包不是视频包时的每个包的SCR无关。最大位速率program-mux-rate 2可以是最大传输速率,例如以此速率从光盘2上读出数据。
假设从Clip-2第一包到Clip-2第一视频包之前包的数据量是“N2,从时间T2到T3的时间“ΔT2”由下式(3)给出:
ΔT2=T3-T2=N2/program-mux-rate 2    (3)
注意,由于MPEG-2节目数据流的第一包通常是视频包,ΔT2=0。
而且在时间T3,开始到多路分用器21的Clip-2第一视频包的输入。接着,到多路分用器21的输入是当Clip-2的每个包的SCR与附加了从第一STC开关SW1的端子B提供的偏差值的STC-1一致时的时刻进行的。此时,Clip-2第一视频包的SCR应当满足下式(4)的要求:
SR-video 2-start>SCR-videol-end-STC-delta+ΔT1+ΔT2(4)
SCR-videol-end=SCR-last-videol+pack_length/porgram_mux_rate 1
这里SCR-video 2-start是Clip-2的第一视频包的SCR,SCR-videol-end是当结束Clip-1最后视频包对多路分用器21输入时Clip-1的时基上的时间。该值按照通过系统时钟基准(SCR-last-videol)、program_mux_rate和Clip-1的最后视频包的包长度能够计算出。例如该包长度为2048字节。
接着在时间T4,第二STC开关SW2从其端子A转换到端子B,视频解码器24作为基准的STC从STC-1变化到STC-2。由于STC从基准变化到附加于视频数据流中每个图像的DTS,视频解码器24开始解码Clip-2的视频数据流。
在时间T5,第三STC开关SW3从其端子A转换到端子B,音频解码器26作为基准的STC从STC-1变化到STC-2。由于STC从基准变化到附加于音频数据流中每个图像的PTS,音频解码器26开始输出Clip-2的音频数据流。注意,当Clip-1结尾端的音频数据和Clip-2开始端的音频数据相互重叠时,必须选择这些音频数据的哪一个样本应当出现。
接着在时间T6,第四STC开关SW4从其端子A转换到端子B,输出开关27作为基准的STC从STC-1变化到STC-2。由于STC从基准变化到附加于视频数据流中每个图像的PTS,输出开关27开始输出Clip-2的视频数据流。
如果所有的第一到第四STC开关SW1到SW4被分别转换到它们各自的端子B,则在时刻T6,由STC发生器28a产生的STC值被复位到[STC-STC-delta],并且同时所有的第一到第四STC开关SW1到SW4被转换到它们各自的端子A。因此,恢复了时间T1之前的状态。
定义上述虚拟解码器模型的系统目标解码器20通过运动图像记录和/或再现装置1定义了加在视频数据流编码和多路复用上的用于限制视频缓存器22容量的限制,目的是防止当编码的视频数据流提供给视频解码器22时视频缓存器22的下溢和上溢。
为了通过运动图像记录和/或再现装置1编码和多路复用视频数据流,编码视频数据流以满足符合MPEG标准的VBV(视频缓存校验符)模型30,如图8所示,然后被多路复用以防止图6中系统目标解码器的视频缓存器22的上溢。
VBV模型30包括提供有视频数据流的VBV缓存器31和在预定的输出定时从VBV缓存器31提供有视频数据流的用以解码视频数据流的虚拟视频解码器32。即VBV模型30设计成进行理想的解码和提供解码的图像。
运动图像记录和/或再现装置1编码表示包括在每个图像中并表示在随机存取时刻VBV缓存器31初始状态的16位字段“视频缓存器初始状态的信息”。表示视频缓存器值的初始状态的信息值代表VBV缓存器31用于解码图像时应当具有的位存储量。当解码图像时,VBV模型30的虚拟视频解码器32读出附加在那个图像上的表示视频缓存器的初始状态的信息,和当VBV缓存器31的位存储量已经达到由表示视频缓存器的初始状态的信息所表达的位存储量时解码该图像。
图9是由运动图像记录和/或再现装置完成的操作的流程图,根据诸如用以再编码和再多路复用视频数据流的上述系统目标解码器20的对虚拟解码器模型定义的限制,其用于再编码视频数据流和然后对它们进行再多路复用。下面说明该再编码和再多路复用。
如图9所示,在步骤S1,在通过视频编码器13的再编码和通过多路复用器14的再多路复用中,运动图像记录和/或再现装置1确定用于处理由系统目标解码器20定义的限制的各种参数。
具体地说,运动图像记录和/或再现装置1确定用以再编码的外点侧节目中视频数据流的位速率“Rv1”、用以再编码的内点侧节目中视频数据流的位速率“Rv2”、VBV缓存器31用于解码内点侧节目中第一画面以再编码时应当具有的位存储量Bvsd、以及用于多路复用被再编码的外点侧节目中视频数据流和音频数据流的多路复用相位差时间Tas。各种参数的设置在下面进一步说明。
接着在步骤S2,运动图像记录和/或再现装置1利用视频编码器13再编码外点侧节目中的视频数据流,和利用多路复用器14时分多路复用包中的被再编码的视频数据流和音频数据流。下面将进一步说明外点侧节目的再编码和再多路复用。
在步骤S3,运动图像记录和/或再现装置1通过利用视频编码器13再编码内点侧节目中的视频数据流来结束其操作,以及利用多路复用器14时分多路复用包中的被再编码的视频数据流和音频数据流。下面将进一步说明内点侧节目的再编码和再多路复用。
下面,说明图9中所示用于在步骤S1进行再编码的各种参数。
在运动图像记录和/或再现装置1中,当数据被视频编码器13被再编码和当包括Clip-1和Clip-2的多路复用数据流中的视频数据流被编辑时,确定位速率“Rv1”、位速率“Rv2”、位存储量Bvsd、以及多路复用相位差时间Tas满足下述关系(5):
(Tvs1-Tms1)+(Tvs2-Tms2)<ΔT1    (5)
这里Tvs1=Bvsd/Rv1,Tms1=Bvsd/(Rm1-Ra1),Tvs2=Bvsd/Rv2,Tms2=Bvsd/(Rm2-Ra2)和ΔT1=Tas*Ra1/Rm1。
Rm1是Clip-1的多路复用数据流的位速率“program_mux_rate”,Ra1是Clip-1中音频数据流的位速率。Rm2是位速率“program_mux_rate”,Ra2是Clip-2中音频数据流的位速率。Rm1和Rm2分别由下式(6)和(7)给出:
Rm1=Ra1+Rv1+α    (6)
Rm2=Ra2+Rv2+β    (7)
这里α>0和β>0。
另外,Bvsd是VBV缓存器31的位存储量。它是用于解码例如包括在Clip-2内点图像中GOP的第一I图像时VBV缓存器31应当具有的位存储量。
下面参考图10说明Bvsd是用于解码图2b所示GOP(n)中图像In2的VBV缓存器31的位存储量的例子。图10表示Clip-2的STC时间(STC-2)和用于将视频和音频数据流供给系统目标解码器20的视频缓存器22的位存储量(STD缓存器的位存储量)之间的关系。图10中,STD缓存器表示用于将多路复用视频和音频数据流的Clip-1和Clip-2供给系统目标解码器20的视频缓存器22的位存储量。因此,由于位存储量用其斜率为零(水平)的线表示的时间区域是音频数据流例如从多路分用器21提供给音频缓存器23的一个区域,所以,STD缓存器的位存储量表示输入到视频缓存器22的数据正在停止。图15表示用于仅仅将视频数据流提供给VBV缓存器31的VBV缓存器31的位存储量。图10中,向右上升线的斜率表示了多路复用数据流的位速率。图15中,向右上升线表示了视频数据流的位速率。
图10中,scr(In2)是包括图像In2顶部视频包的视频包被提供给系统目标解码器20时的时间,并且也是在包括于视频包首标的SCR处出现的时间。包括图像In2顶部数据的包在STC和scr(In2)相互一致时刻提供给系统目标解码器20。当系统目标解码器20被提供有视频包的视频数据流时,视频缓存器22的位存储量以位速率“Rm2”增加。图10中,dts(In2)是当图像In2被解码时的时间,也是用附加到包括图像In2的视频包的DTS表示的时间。在时刻dts(In2),图像In2的视频数据被取出,位存储量降低。
如图10所示,在时刻dts(In2),系统目标解码器20中的视频缓存器22的位存储量是用于解码要再编码的内点侧视频数据流的第一画面的VBV缓存器31中的位存储量Bvsd。
而且,ΔT1是从当结束到多路分用器21的Clip-1最后视频包输入的时间(T1)直到当结束到多路分用器21的Clip-1最后包(音频包)输入的时间(T2)的时间,其由下式(8)给出:
ΔT1=T2-T1=N1/program-mux-rate    (8)
这里N1是从Clip-1最后视频包的下一包计数到Clip-1最后包的数据量。
运动图像记录和/或再现装置1再编码和再多路复用,使得按上述定义的位速率“Rv1”和“Rv2”、位存储量Bvsd、以及多路复用相位差时间Tas满足前述关系(4)限定的要求。
图11表示当编码Clip-1时时间和存储在VBV缓存器31或STD缓存器(视频缓存器22)的位量之间的关系。正如图11中所示,Tms1是当视频缓存器22以位速率Rm1-Ra1提供了视频数据流时到达位存储量Bvsd所用的时间,Tvs1是当VBV缓存器31以位速率Rv1提供了视频数据流时到达位存储量Bvsd所要求的时间。当Clip-1的视频数据流提供给视频缓存器22时,表达式(6)中的α项越大,图11中的时间X(=Tvs1-Tms1)越长,使得能够更早地到达结束Clip-1中的视频数据输入到视频缓存器22的时间(SCR-video1-end)。
而且,图12表示当编码Clip-2时时间和存储在VBV缓存器31或STD缓存器(视频缓存器22)的位量之间的关系。图12中,Tms2是当视频缓存器22以位速率“Rm2-Ra2”提供了视频数据流时到达位存储量所要求的时间,Tbs2是当VBV缓存器31以位速率Rv2提供了视频数据流时到达位存储量Bvsd所要求的时间。当Clip-2的视频数据流提供给视频缓存器22时,表达式(7)中的β项越大,图11中的时间Y(=Tvs2-Tms2)越长,使得能够较慢地到达结束Clip-2中的视频数据输入到视频缓存器22的时间(SCR-video2-start)。
下面,参考图13说明外点侧节目中视频数据流的再编码和再多路复用,其在步骤2由运动图像记录和/或再现装置1执行。
如图13,首先在步骤S11,视频编码器13确定要再编码的视频数据的每个图像的类型。即,正如图2a和2c所示,当图像B14是外点图像Pout时,视频编码器13改变用于再编码的图像类型,使得在不用预测参考的情况下能够得到基于图像B18预测编码的图像B14
接着在步骤S12,当结束对非再编码外点侧多路复用视频数据流的最后图像向系统目标解码器20视频缓存器22(STD缓存器)的输入时,视频编码器13计算位存储量Ba。
具体地说,非再编码视频数据流中的最后图像是恰好在被再编码之前的数据,即图2c所示GOP(0)中的B07
图14表示用于提供图2c所示外点侧视频数据流(...,B07)的存储在视频缓存器22的位量(STD视频缓存器的位存储量)与根据附加到视频包和由定时发生器28产生的SCR的STC-1之间的关系。图14表示了当包括图像B04、B08、B06和B07的视频包提供给视频缓存器22时的位存储量。
图14中,scr(B04)是包括图像B04的视频包首先供给系统目标解码器20时的时间。当来自定时控制器28的STC-1和scr(B04)一致时,根据SCR开始了视频包对系统目标解码器20的输入,并且该视频包根据附加到每个图像的DTS通过视频解码器24解码。即当到达时间dts(B04)时视频解码器24解码图像B04,到达时间dts(B08)时解码图像B08,到达时间dts(B06)时解码图像B06,和到达时间dts(B07)时解码图像B07
计算视频缓存器22(STD缓存器)的位存储量Ba,其应当是当结束包括在GOP(0)中最后图像B07对系统目录解码器20的输入时刻Ta的位存储量Ba。
另外,检查在时间Ta之后要分别解码的图像P08、P06和P07的存取单元大小(P08)、a(B06)和a(B07)。
在图14所示的例子中,当STC-1与scr(B04)一致时,开始位存储量Ba的计算。但是,位存储量Ba的计算可以在时间scr(B04)之前开始。实际上,它满足至少一个DTS存在于位存储量Ba的计算开始时间和时间Ta之间的需要。位存储量的计算可以在例如图2c的图像I02开始时开始。
接着在图13的步骤S13,基于在步骤S12已经计算的位存储量Ba,视频编码器13确定用于解码要再编码的视频数据流中第一画面的VBV缓存器3 1的位存储量Bos。
具体地说,要再编码的视频数据流中第一画面是图2c中GOP(1-x)的图像I12
图15表示在当提供有图2c所示的内点侧视频数据流(I12,...)时存储在VBV视频缓存器31的位量与根据附加到视频包的SCR的由定时控制器28产生的STC-1之间的关系。图15表示当VBV缓存器31提供有图像B08、B06、B07、I12、B10、B11、P14x和P13x时该缓存器中所存储的位量。
视频编码器13确定用于解码要再编码的视频数据流中第一画面I12的VBV缓存器31的初始位存储量Bos。此时,视频编码器13首先设置VBV缓存器31的位存储量在时刻dts(P08)的值为Ba。当位存储量Ba大于1.75Mbits(兆比特)时,位存储量Ba设置为1.75Mbits。
另外,基于上述设置的位存储量Ba、在步骤S13确定的图像P08、B06和B07的存取单元大小a(P08)、a(B06)和a(B07)和位速率Rv1,视频编码器13确定VBV缓存器31的位存储量Bos,其应当是在当结束通过视频解码器24解码图像P08、B06和B07的一个(B07)时的时刻dts(I12)。
接着在步骤S14,视频编码器13确定位存储量Bend1,其应当用于结束要再编码的视频数据流的最后图像(P13x)的解码。然后,视频编码器13确定要再编码的视频数据流的分配位量,使得VBV缓存器31的位存储量Bend1要大于用于解码内点侧视频数据流中图像的VBV缓存器31的位存储量Bvsd。
在步骤S15,基于在步骤S14为视频数据流确定的分配位量,视频编码器13再编码外点侧视频数据流,多路复用器14再多路复用该再编码的视频数据流。
为了再多路复用,多路复用器14在从时间Ta到时间SCR_video1_end的时间周期将多路复用已经被再编码的该视频数据流,在时间SCR_video1_end为结束了外点侧的最后视频包对多路分用器21的输入的时间,如图16所示。由此,多路复用器14多路复用了由Clip-A和桥式序列-A构成的Clip-1。
图16表示在用于提供外点侧视频数据流然后提供有内点侧视频数据流的STD视频缓存器22的位存储量与STC-1和STC-2之间的关系。图16中,垂直轴表示视频缓存器22(STD缓存器)的位存储量,BS是例如MPEG-2 MP@ML中的232千字节,水平轴表示由定时控制器28产生的STC-1和STC-2。另外在图16中,虚线表示描述轨迹的位存储量,沿此轨迹,STC-1和STC-2被连续地提供给出视频缓存器22。
下面,参考图17说明内点侧节目的再编码和再多路复用,其在步骤3由运动图像记录和/或再现装置1执行。图17是当再编码和再多路复用内点侧节目的视频数据流时运动图像记录和/或再现装置1操作的流程图。
如图17所示,首先在步骤S21,视频编码器13确定要再编码的视频数据的每个图像的类型。
即,正如参考图2b和2d在前面已经说明的,视频编码器13将图像类型改变为I图像,使得当例如图像Bn4是内点图像(Pin)时,在不用预测参考的情况下能够得到基于图像In2预测编码的图像Pn5
接着在步骤S22,视频编码器13计算当作为内点侧多路复用数据流并且还没有被再编码的视频数据流的第一画面被提供给系统目标解码器20的视频缓存器22(STD缓存器)时的初始位存储量Bj′。
具体地说,还没有被再编码的视频数据流中的第一画面是恰好在要再编码的GOP(n)之后的数据,即图2d所示GOP(m)中的图像Im2
图18表示应当是当提供有图2d所示内点侧视频数据流(Im2、Im0、...)时视频缓存器22的位存储量(STD视频缓存器的位存储量)与根据附加到视频包和由定时发生器28产生的SCR的STC-2之间的关系。图18表示了当包括图像Im2、Bm0和Bm1的视频包被提供时视频缓存器的位存储量。
图18中,scr(Im2)是当包括图像Im2的视频包首先供给系统目标解码器20时的时间。当来自定时控制器28的STC-2和scr(Im2)一致时,根据SCR开始了视频包对系统目标解码器20的输入,并且该视频包是根据附加到每个图像的DTS通过视频解码器24解码的。即当到达时间dts(Im2)时视频解码器24解码图像Im2,到达时间dts(Bm0)时解码图像Bm0,和到达时间dts(Bm1)时解码图像Bm1。视频编码器13计算在时刻dts(Im2)视频缓存器22(STD缓存器)所应当具有的初始位存储量Bj′。
接着步骤S23,基于在步骤S22已经计算的初始位存储量Bj′,视频编码器13确定用于解码要再编码的视频数据流中第一画面的VBV缓存器31的位存储量Bj。
具体地说,没有被再编码的视频数据流中第一画面是图2d中GOP(m)的图像Im2。在这个实例中,VBV缓存器31的初始位存储量Bj取作在步骤S22确定的位存储量Bj′。当位存储量Bj′大于1.75Mbits时,位存储量Bj设置为1.75Mbits。
接着在步骤S24,视频编码器13确定要再编码的视频数据流的分配位量,使得在要再编码的最后图像被解码之后的VBV缓存器31的位存储量大于初始位存储量Bj。
具体地说,正如图19所示,视频编码器13将确定分配的位量,使得应当在结束包括在图2(d)所示要再编码的GOP的GOP(n-x)中的图像Bn7x的解码时刻的位存储量Bend2大于位存储量Bj。
在步骤S25,基于在步骤S24确定的分配位量,视频编码器13再编码内点侧视频数据流的作为要再编码的GOP的GOP(n-x)。
接着在步骤S26,再多路复用在步骤25被再编码的视频数据流。此时,多路复用器14在时刻SCR_video2_start开始再多路复用被再编码的Clip-2视频数据流,如图16所示。此时,多路复用器14根据由系统目标解码器28的定时控制器28产生的STC-2确定时间SCR_video2_start,并且进行再多路复用,以便视频缓存器22不发生上溢。
在步骤S27,运动图像记录和/或再现装置1判断当装置1从在步骤S26再多路复用的视频数据流变换为还没有被再多路复用的视频数据流时系统目标解码器20的视频缓存器22(STD缓存器)是否上溢。
即,当再多路复用的GOP(n-x)被连结到在再多路复用的GOP(n-x)之后出现的GOP(m)时,多路复用器14将判断视频缓存器22(STD缓存器)是否将上溢。
具体地说,正如图20所示,例如,如果当包括在时间scr(In5x)处被再多路复用的内点侧GOP的视频包开始作为输入(SCR_video2_start)提供和跟随有在时间scr(Im2)处被再多路复用的视频数据流的视频数据流开始作为输入被连续提供时,位存储量描绘了用虚线表示的位存储量BS下面的轨迹的话,则图像Im2开始在时间dts(Im2)进行解码,视频缓存器22(STD缓存器)不发生上溢。
另一方面,正如图21所示,如果当包括在时间scr(In5x)处被再多路复用的内点侧GOP的视频包开始作为输入(SCR_video2_start)提供和跟随有在时间scr(Im2)处被再多路复用的视频数据流的视频数据流开始被连续地提供给视频缓存器22时,位存储量描绘了用图21的虚线表示的在位存储量BS下面的轨迹的话,视频缓存器22(STD缓存器)将发生上溢。也就是说,正如上面参考图20已经说明的,如果当跟随被再多路复用的视频数据流,视频数据流开始作为在时间scr(Im2)的输入被提供时,运动图像记录和/或再现装置1判定视频缓存器22(STD缓存器)不发生上溢的话,多路复用器14将结束该操作。正如上面参考图20已经说明的,如果当跟随被再多路复用的视频数据流,视频数据流开始作为在时间scr(Im2)的输入被提供时,运动图像记录和/或再现装置1判定视频缓存器22(STD缓存器)将发生上溢的话,该操作将进行到步骤S28。
在步骤S28,多路复用器14改写附加到视频包的SCR,目的是延迟视频包在跟随被再多路复用视频数据流出现的视频数据流第一画面被解码时的时刻之前作为输入被提供的时间,以便视频缓存器22(STD缓存器)不发生上溢。
具体地说,多路复用器14改写附加到包括图像Im2的视频包的SCR,以便在图像Im2在STC-2为“0”(如图22的虚线所示)时刻开始作为输入被提供的同时,包括图像Im2的GOP(m)在新的时间scr(Im2)被提供给视频缓存器22,该新时间是从图像Im2输入时间起被延迟图22中用D表示时间的时间,由此通过在时间dts(Im2)开始解码图像Im2来结束该操作。
正如前面参考图13已经说明的,执行上述操作的运动图像记录和/或再现装置1计算视频缓存器22(STD缓存器)的位存储量Ba,其应当是结束没有被再编码的外点侧视频数据流的最后图像(图2c的图像B07)对视频缓存器22的输入时,并且基于位存储量Ba,通过确定用于基于位存储量Ba解码再编码视频数据流的第一画面(图2c的图像I12)的VBV缓存器31的位存储量Bos来确定分配的位量。因此,当解码在再编码的外点侧视频数据流中的第一画面(图2c的图像I12)时,外点侧视频数据流能够被再编码和再多路复用,视频缓存器22不发生上溢和下溢。
正如前面参考图17已经说明的,运动图像记录和/或再现装置1计算用于解码在没有被再编码的内点侧视频数据流中的第一画面(图2d的图像Im2)的视频缓存器22(STD缓存器)的位存储量Bj′,并且基于位存储量Bj′,确定用于解码没有被再编码的视频数据流中的第一画面(图2d的图像Im2)的VBV缓存器31的位存储量Bj。因此,当解码在没有被再编码的视频数据流中的第一画面(图2d的图像Im2)时,内点侧视频数据流能够被再编码和再多路复用,视频缓存器22(STD缓存器)不发生上溢和下溢。
因此,为了通过连结Clip-1和Clip-2以将它们再现,在视频缓存器22没有上溢和下溢的情况下,甚至在不参考表示附加到每个图像的视频缓存器初始状态的信息的情况下,通过再编码和再多路复用内点和外点侧视频数据流,运动图像记录和/或再现装置1能够无缝地再现Clip-1和Clip-2。
注意,在步骤S27和S28的操作可以不执行,但是多路复用器14在步骤S26可以被允许在步骤S26再多路复用一个范围,其不仅包括被再编码的视频数据流,而且包括从时间SCR_video2_start到开始解码没有被再编码的第一画面时的时刻的一段周期内提供给系统目标解码器20的视频包。即,多路复用器14可以被允许再多路复用从时间SCR_video2_start到图6所示的时间dts(Im2)一段周期内提供给系统目标解码器20的视频包。因此,多路复用器14能够防止视频缓存器22的上溢,其将发生在当再多路复用被再编码的内点侧视频数据流的时候,并且不会改写附加在每个视频包的SCR。
下面说明在运动图像记录和/或再现装置1中执行的再编码和再多路复用的另一个例子。
图23a到23d一起表示通过视频编码器13再编码外点侧视频数据流的例子。
当记录在光盘2上的外点侧视频数据流的GOP(1)的图像B11被指定为图23a所示的外点图像(Pout)时,视频编码器13再编码外点侧视频数据流,如图23b、23c或23d所示。
如图23所示,视频编码器13仅仅再编码外点侧视频数据流的GOP(1)。也就是说,视频编码器13将GOP(1)的图像B10再编码成I图像I10x、外点图像B11再编码成P图像P11x,以产生新的GOP(1-x)。
而且,如图23c和23d所示,视频编码器13再编码两个GOP,即GOP(0)和GOP(1)。
正如图23c所示,视频编码器13再编码一个GOP(0)和GOP(1)作为一个GOP(a-x)。此时,视频编码器13将把GOP(0)的图像I02到B07拷贝到GOP(a-x),把GOP(1)的图像B10和B11分别再编码成GOP(a-x)的P图像P10x和P11x
正如图23d所示,视频编码器13再编码GOP(0)和GOP(1)为两个GOP,即GOP(a-x1)和GOP(a-x2)。此时,视频编码器13将把GOP(0)的图像I02到B04拷贝到GOP(a-x1),把GOP(0)的图像P08、B06和B07再编码成GOP(a-x2)的图像I8x、B6x和B7x,以及把GOP(1)的图像B10和B11再编码成GOP(a-x2)的图像P10x和P11x。注意,在通过图2d所示视频编码器13再编码的例子中,GOP的最大长度被限制在5个图像。
为了上述再编码,基于包括在系统目标解码器20中的视频缓存器22的限制,视频编码器13选择任何一个图23b和图23c或23d所示的再编码。
图24a到24d一起表示内点侧视频数据流的另一个例子。
当记录在光盘2上的内点侧视频数据流的GOP(n)的图像Pn8被指定为图24a所示的内点图像(Pin)时,视频编码器13再编码如图24b、24c或24d所示的内点侧视频数据流。
如图24b所示,视频编码器13仅仅再编码内点侧视频数据流的GOP(n)。也就是说,视频编码器13分别将GOP(n)的图像Pn8、Pn6和Bn7再编码成I图像I8x、Bn6x和Bn7x,以产生新的GOP(n-x)。
而且,如图24c和24d所示,视频编码器13再编码两个GOP,即GOP(n)和GOP(m)。
正如图24c所示,视频编码器13再编码一个GOP(n)和GOP(m)作为一个GOP(b-x)。此时,视频编码器13分别将把GOP(n)的图像Pn8、Bn6和Bn7再编码到In8x、Bn6x和Bn7x,把GOP(m)的图像Im2再编码成P图像Pm2x和将在GOP(m)图像Im2之后的图像再编码成相同类型的图像,以产生新的GOP(b-x)。
正如图24d所示,视频编码器13再编码GOP(n)和GOP(m)作为两个GOP,即GOP(b-x1)和GOP(b-x2)。此时,视频编码器13将分别把GOP(n)的图像Pn8、Bn6和Bn7再编码到In8x、Bn6x和Bn7x,把GOP(m)的图像Pm5x再编码成GOP(b-x2)的图像Im5,以及把GOP(m)的图像Pm5之后的图像再编码成相同类型的图像。
为了上述再编码,基于包括在系统目标解码器20中的视频缓存器22的限制,视频编码器13选择任何一个图24b和图24c或24d所示的再编码。
下面将参考图25所示的流程图说明用于通过视频编码器13进行再编码(已经在上面参考图23说明)和通过多路复用器14再多路复用的操作。图25中,与图13流程图相同操作的步骤用图13中相同的标记表示,在此不进行详细说明。
如图25,首先完成步骤S11到S13的操作。
也就是说,在步骤S11,视频编码器13将确定要再编码的视频数据中每个图像的类型。即,正如参考图23a到23b已经说明的,当图像B11是外点图像(Pout)时,视频编码器13确定图像B10的图像类型是I10x、图像B11的图像类型是图像I11x,以便在没有预测参考的情况下得到基于图像P15预测编码的图像B11视频编码器13计算视频缓存器22在图像B07提供给视频缓存器22时刻的位存储量Ba,并且基于该位存储量Ba,确定在步骤S12用于解码图像I10x的VBV缓存器31的位存储量Bos。然后,视频编码器13进行到步骤S31。
在步骤S31,视频编码器13确定用于要再编码的视频数据流每个图像I10x和P11x的所分配位置。
接着在步骤S32,为了用在步骤S31确定的所分配位量来再编码,视频编码器13计算VBV缓存器31在解码要再编码视频数据流的最后图像P11x之后的位存储量Bend1。
在步骤S33,视频编码器13将在步骤S32计算的位存储量Bend1和用于解码要再编码的内点侧视频数据流第一画面的VBV缓存器31的初始位存储量Bvsd之间进行大小比较。初始位存储量Bvsd是用于解码如图24中图像In8x的VBV缓存器31的位存储量。
当视频编码器13已经判断位存储量Bend1大于初始位存储量Bvsd时,其进行到步骤S15。当视频编码器13已经判断位存储量Bend1小于初始位存储量Bvsd时,其进行到步骤S34。
由视频编码器13在步骤S33进行的判断的例子示于图25中,这里位存储量Bend1大于初始位存储量Bvsd。
图26中,水平时基上的t()表示解码要再编码的图像的时间。例如,t(P08)表示当解码图像P08时的时间。另外在图26中,a()表示图像的位量。例如,a(I10x)表示图像I10x的位量。如图26中所示,如果通过在步骤S31为要再编码的视频数据流中的图像I10x和P11x确定分配的位量,则分别用a(I10x)和a(P11x)表示的数据量在解码图像I10x和P11x时分别从缓存器中删除,并且视频编码器13判断位存储量Bend1大于初始位存储量Bvsd。视频编码器13进行到步骤S15,在这里图23b所示的GOP(1-x)将被再编码。
由视频编码器13在步骤S33进行的判断的例子示于图27中,这里位存储量Bend1小于初始位存储量Bvsd。
如图27中所示,如果通过在步骤S31为要再编码的视频数据流中的图像I10x和P11x确定分配的位量,则分别用a(I10x)和a(P11x)表示的数据量在解码图像I10x和P11x时从缓存器中删除,并且视频编码器13判断位存储量Bend1小于初始位存储量Bvsd。视频编码器13进行到步骤S34。
在步骤S15,视频编码器13再编码图23b所示的外点侧视频数据流。
在步骤S34,视频编码器13以GOP再编码顺序将开始再编码的图像改变为属于在先GOP的图像。即,视频编码器13将如图23b所示的要再编码的图像I10x改变到属于在先GOP(0)的图像P10x,并且改变要再编码的若干图像,由此产生如图23c所示的要再编码的新GOP(a-x)。
视频编码器13可以适用于从23b所示的GOP(0)和GOP(1-x)中产生如图23d所示的GOP(a-x1)和GOP(a-x2)。视频编码器13从步骤S34返回到S11,在此它对通过在步骤S34的改变所选择的要被再编码的视频数据流进行步骤S11到S33的操作,并且在步骤S15它再编码和再多路复用该视频数据流。
通过在步骤S34进行的操作,如图25所示的视频缓存器22的位存储量被改变成图28所示。如图28所示,当图23b的图像I10x被改变成图23c所示的图像P10x并且在步骤S31再次确定了用于再编码的视频数据流的图像P10x和P11x的所分配位量时,从缓存器中删除当解码图像P10x和P11x时a(P10x)和a(P11x)表示的数据量,并且其判断位存储量Bend1大于初始位存储量Bvsd。然后,视频编码器13进行到S15以再编码图23c所示的GOP(a-x),在这里能够完成再编码和再多路复用。
下面将参考图29所示的流程图说明用于通过视频编码器13进行再编码和通过多路复用器14再多路复用(已经在上面参考图24说明)的操作。图29中,与图17流程图相同操作的步骤用图17中相同的标记表示,在此不进行详细说明。
如图29,首先执行步骤S21到S23的操作。
也就是说,在步骤S21,视频编码器13将确定要再编码的视频数据中每个图像的类型。即,正如前面参考图24a到24b已经说明的,当图像P08是内点图像(Pin)时,视频编码器13确定图像Pn8的图像类型是图像In8x,图像Bn6是图像Bn6x,图像Bn7是图像Bn7x,以便在没有预测参考的情况下得到基于图像Pn5预测编码的图像Pn8。视频编码器13在步骤S22计算用于解码图像Im2的初始位存储量Bj′,并且基于该初始位存储量Bj′,在步骤S23确定用于解码图像Im2的VBV缓存器31的初始位存储量Bj。然后,视频编码器13进行到步骤S41。
在步骤S41,视频编码器13确定用于要再编码的视频数据流每个图像In8x、Bn6x和Bn7x的所分配位量。
接着在步骤S42,为了用在步骤S41确定的所分配位量来再编码,视频编码器13计算VBV缓存器31在解码要再编码视频数据流的最后图像Bn7x之后的位存储量Bend2。
在步骤S43,视频编码器13将在步骤S42计算的位存储量Bend2和初始位存储量Bj之间进行大小比较。
当视频编码器13已经判断位存储量Bend2大于初始位存储量Bj时,其进行到步骤S25。当视频编码器13已经判断位存储量Bend2小于初始位存储量Bj时,其进行到步骤S44。
由视频编码器13在步骤S43进行的判断的例子示于图30中,这里位存储量Bend2大于初始位存储量Bj。
如图30中所示,如果通过在步骤S41为要再编码的视频数据流中的图像In8x、Bn6x和Bn7x确定分配的位量,则分别用a(In8x)、a(Bn6x)和a(Bn7x)表示的数据量在解码图像In8x、Bn6x和Bn7x时从缓存器中删除,并且视频编码器13判断位存储量Bend2大于初始位存储量Bj。视频编码器13进行到步骤S25,在此图24b所示的GOP(a-x)将被再编码。
在步骤S25,视频编码器13再编码图24b所示的内点侧视频数据流,多路复用器14在步骤S26根据视频缓存器22的限制再多路复用再编码的视频数据流,并且该操作以在步骤S27和S28的操作结束,以便当再现被多路复用的数据时将不发生视频缓存器22的上溢。
由视频编码器13在步骤S43进行的判断的例子示于图31中,这里位存储量Bend2小于初始位存储量Bj。
如图31中所示,如果通过在步骤S41为要再编码的视频数据流中的图像In8x、Bn6x和Bn7x确定分配的位量,则分别用a(In8x)、a(Bn6x)和a(Bn7x)表示的数据量在解码图像In8x、Bn6x和Bn7x时从缓存器中删除,并且视频编码器13判断位存储量Bend2小于初始位存储量Bj。
另外如图31所示,视频编码器13不能连续地再编码要再编码的GOP(n-z)和不要再编码的GOP(m),以便位存储量描绘出连续的轨迹。也就是说,通过在提供给VBV缓存器31之后解码的GOP(n-x)的位存储量描绘的轨迹A与通过在提供给VBV缓存器31之后解码的GOP(m)的位存储量描绘的轨迹B不一致。
在步骤S44,视频编码器13改变图像类型,以便将GOP(n)和GOP(m)再编码成一个GOP(b-x),并且然后返回到步骤S21。具体地说,视频编码器13将图24b所示的图像Im2改变到图像Pm2x以改变图像数目,并且改变要再编码的图像数目,由此产生如图24c所示的要再编码的新GOP(b-x)。在步骤S44,视频编码器13对在步骤S44新产生的视频数据执行在步骤S21到S42的操作,然后进行步骤S25和随后步骤的操作。借助步骤S44的操作,视频编码器13将图31所示的视频缓存器22的位存储量改变为图32所示。
正如从图32所见的,在运动图像记录和/或再现装置1中,当要再编码的视频数据流中的图像In8x、Bn6x和Bn7x的所分配位量在步骤S41是通过将图24b的图像Im2改变到图24c所示的图像Pm2x来确定时,在解码图像In8x、Bn6x和Bn7x的时候的数据量为a(In8x)、a(Bn6x)和a(Bn7x)。因此,其判断位存储量Bend 2大于初始位存储量Bj。视频编码器13将进行到步骤S25,以解码图24c所示的GOP(a-x)。在步骤S25,能够完成该再编码和再多路复用。
从图32中还可看出,视频编码器13能够连续地再编码要再编码的GOP(n-x)和未再编码的GOP(m),以便位存储量将描绘连续的轨迹。即,当图像Bn7x和Pm2是连续地被解码时,位存储量将描绘连续的轨迹。
正如前面已经说明的,在运动图像记录和/或再现装置1中,当在步骤S33确定位存储量Bend1小于初始位存储量Bvsd时,要再编码的图像I10x在步骤S34被变化到属于如图23b所示的在前GOP(0)的图像P10x,以产生如图23c所示的要再编码的新GOP(a-x)。因此,可能禁止视频缓存器22的位存储量突然下降,如图27和28所示。因此,在运动图像记录和/或再现装置1中,有可能将外点侧视频数据再编码成更高的图像质量和用高的图像质量来再多路复用该数据。
另外在运动图像记录和/或再现装置1中,当在步骤S43确定位存储量Bend 2小于初始位存储量Bj时,例如图24b所示的在步骤S44要再编码的图像Im2被变化到图像Pm2x,以产生如图24c所示的要再编码的新GOP(b-x)。因此,当再编码内点侧视频数据时,视频缓存器22的位存储量能够描绘出连续的轨迹,如图31和32所示。因此,借助运动图像记录和/或再现装置1,有可能用更高的图像质量再编码外点侧视频数据和用高的图像质量来再多路复用该数据。
前述中,运动图像记录和/或再现装置1已经参照节目流的例子进行了说明,其中SCR按MPEG标准定义连续被附加到该节目流。但是,本发明并不局限于这种程序流,其可适用于用于多路复用多个节目的传输流。在传输流的情况下,为了计算视频缓存器22的位存储量,运动图像记录和/或再现装置1参照节目检查基准(PCR),而不涉及参照SCR,并且使用了用于STD的T-STD。
呈传输流形式的多路复用数据流包括存储了表示到系统目标解码器40的输出定时的节目时钟基准(PCR)、用于被解码数据的表示解码定时的DTS和表示输出定时的PTS被作为附加信息附加到的视频数据包基本流(PES)、以及由PTS被作为附加信息附加到的音频数据PES包的传输包构成、以及由作为计划用于系统数据传输的传输包构成。即,多路复用数据流包括多个时分多路复用节目。多路复用数据流具有附加其上的用于控制解码定时和输出定时的附加信息。
图33是系统目标解码器40的方框图,其解码通过运动图像记录和/或再现装置1以传输流形式多路复用的再多路复用数据流。图33中,与系统目标解码器20相同的元件和单元用与系统目标解码器20中相同的或类似的标记表示,并且不详细说明。
正如所见,只要其提供有由多路复用传输流构成的多路复用流,系统目标解码器40类似于图6的系统目标解码器20。
系统目标解码器40包括多路分用器41。提供有多路复用流,多路分用器41读出包括在每个多路复用传输流的首标中的包识别符(PID),并且基于存储在净荷中的数据是哪种类型的PID值,判断视频、音频或系统数据。根据基于PID的判断结果,多路分用器41将视频传输包、音频传输包或系统传输包提供给视频传输缓存器42、音频传输缓存器43和系统传输缓存器44。此时,根据PID值,多路分用器41将变换在其连接器41a和连接到缓存器42到44的端子之间的连接。
视频传输缓存器42仅将视频传输包的净荷部分(PES包)送到多路复用缓存器45,并且将它作为基本流送到视频基本缓存器46。
音频传输包和系统传输包被直接送到音频主缓存器47和系统主缓存器48,作为分别来自音频传输缓存器43和系统传输缓存器44的音频基本流和系统基本流。
存储在视频基本缓存器46、音频主缓存器47和系统主缓存器48中的基本流在DTS定义的时间上从对应的缓存器46-48中去掉,并且被提供给解码器49到51,在这里它们将被解码。
当在通过将外点和内点侧视频数据流相互连结的数据再现中从外点侧节目到内点侧节目的变换时,定时控制器28产生两个STC,即与外点侧节目PCR同步的STC-1和与内点侧节目同步的STC-2。
传输流的再编码以这种方式由视频基本缓存器46完成,即在再编码节目流时视频基本缓存器46将不会上溢和下溢。
传输流的再多路复用要使每个T-STD缓存器满足MPEG-2标准规定的下述要求(1)到(3):
1其中存储了各种包的传输缓存器42到44每秒至少一次为空而无上溢。
2视频多路复用缓存器45每秒至少一次为空而无上溢。
3对于其它流,视频基本缓存器46和主缓存器47应当不发生上溢和下溢。
除了当PCR值是通过编辑点中断的时候之外,当再多路复用数据时,系统目标解码器40应当满足上述要求(1)到(3)。在系统目标解码器40中,在编辑点之前和之后从STC-1到STC-2的时基的变换的实现是在节目流处理中执行的。
不同于节目流的系统目标解码器20,传输流的系统目标解码器40不能解码在获取通过节目相关表(PAT)和节目映射表(PMT)传送的系统数据和PCR之前的视频和音频基本流。因此,如果在编辑点之前和之后的PID包括相互不同的内容,则被再多路复用的Clip-2的顶部应该包括PAT、PMT和PCR,并以这种顺序。
PCR是通过编辑点中断的。在编辑点可以插入不连续性信息表(DIT)以告知这种不连续性的系统目标解码器。
前述中,参照这种例子,已经说明了运动图像记录和/或再现装置1,即为了连结包括指定外点图像的Clip-1和包括指定内点图像的Clip-2的编辑再编码和再多路复用视频数据流,。但是,本发明并不局限于这个例子,例如其能够适用于编辑将新的视频数据流插入多路复用流中。此时,在运动图像记录和/或再现装置1中,为了防止视频缓存器22的上溢和下溢,在新的视频数据流插入现有的视频数据流之前和之后,计算视频缓存器22的位存储量,以便再编码和再多路复用该多路复用的数据流。

Claims (17)

1.一种编码器,包括:
再编码装置,用于再编码以第一画面结尾的第一编码数据流和连结到第一画面结尾且开始于第二画面的第二编码数据流;
第一位存储量计算装置,用于对用于解码通过再编码装置再编码的编码数据流的虚拟系统目标解码器模型中的视频缓存器,计算第一编码数据流的第一画面向视频缓存器端的输入结束时的第一位存储量;
第二位存储量计算装置,用于基于通过第一位存储量计算装置计算的第一位存储量计算第二位存储量,第二位存储量是虚拟系统目标解码器模型中的视频缓存器具有的,用于根据虚拟系统目标解码器模型启动对第二编码数据流的第二画面的解码;和
再编码控制装置,用于基于通过第二位存储量计算装置计算的第二位存储量,控制由再编码装置完成的第二编码数据流的再编码。
2.根据权利要求1的编码器,还包括:
多路复用装置,用于基于第一位存储量,产生包括由再编码控制装置再编码的第二编码数据流的多路复用数据流。
3.根据权利要求1的编码器,其中用于上述编码器的虚拟系统目标解码器模型符合运动图像编码专家组标准。
4.根据权利要求1的编码器,还包括:
图像数目改变装置,用于基于第二位存储量,改变包括在第二编码数据流中的图像数目,其中,再编码装置基于从图像数目改变装置提供的指令再编码第二编码数据流。
5.一种编码方法,其包括步骤:
对用于解码被再编码的编码数据流的虚拟系统目标解码器模型中的视频缓存器,计算以第一画面结束的第一编码数据流的第一画面向视频缓存器端的输入结束时的第一位存储量;
基于第一位存储量计算第二位存储量,第二位存储量是虚拟系统目标解码器模型中的视频缓存器具有的,用于根据虚拟系统目标解码器模型来启动对连结到第一画面结尾和开始于第二画面的第二编码数据流的第二画面的解码;和
基于第二位存储量再编码第二编码数据流。
6.根据权利要求5的方法,还包括步骤:
基于第一位存储量产生包括被再编码的第二编码数据流的多路复用数据流。
7.根据权利要求5的方法,其中用于上述编码器中的虚拟系统目标解码器模型符合运动图像编码专家组标准。
8.根据权利要求5的方法,还包括步骤:
基于第二位存储量,改变包括在第二编码数据流中的图像数目,用以再编码其图像数目被改变的第二编码数据流。
9.一种编码器,包括:
再编码装置,用于再编码以第一画面开始的第一编码数据流和连结到第一画面的开头且以第二画面结束的第二编码数据流;
用于计算第一位存储量的装置,第一位存储量是在用于解码通过再编码装置再编码的编码数据流的虚拟系统目标解码器模型中、用于解码第一编码数据流的第一画面的视频缓存器具有的;
用于计算第二位存储量的装置,用于基于通过第一位存储量计算装置计算的第一位存储量计算第二位存储量,第二位存储量是在虚拟系统目标解码器模型中、用于根据虚拟系统目标解码器模型来结束对第二编码数据流的第二画面的解码的视频缓存器具有的;和
控制装置,用于基于通过第二位存储量计算装置计算的第二位存储量,控制由再编码装置完成的第二编码数据流的再编码。
10.根据权利要求9的编码器,其中用于上述编码器的虚拟系统目标解码器模型符合运动图像编码专家组标准。
11.根据权利要求9的编码器,还包括:
用于基于第二位存储量,改变包括在第二编码数据流中的图像数目的装置;
编码装置,用于基于图像数目改变装置提供的指令,再编码第二编码数据流。
12.一种编码方法,包括步骤:
计算第一位存储量,该第一位存储量是在用于解码被再编码的编码数据流的虚拟系统目标解码器模型中、用于解码在第一编码数据流顶部的第一画面的视频缓存器具有的;
基于第一位存储量计算第二位存储量,第二位存储量是用于根据虚拟系统目标解码器模型来结束连结到第一画面的开头和结束于第二画面的第二编码数据流的第二画面的解码的视频缓存器具有的;和
基于第二位存储量再编码第二编码数据流。
13.根据权利要求12的编码器,还包括步骤:
基于第二位存储量,改变包括在第二编码数据流中的图像数目,用以再编码其图像数目被改变的第二编码数据流。
14.一种多路复用器,其包括:
再编码装置,用于再编码以第一画面开始的第一编码数据流和连结到第一画面的开头且以第二画面结束的第二编码数据流;
用于计算第一位存储量的装置,第一位存储量是在用于解码通过再编码装置再编码的编码数据流的虚拟系统目标解码器模型中、用于解码第一编码数据流的第一画面的视频缓存器具有的;
用于计算第二位存储量的装置,用于基于通过第一位存储量计算装置计算的第一位存储量计算第二位存储量,第二位存储量是在虚拟系统目标解码器模型中、用于根据虚拟系统目标解码器模型来解码第二编码数据流的第二画面的视频缓存器具有的;
控制装置,用于基于通过第二位存储量计算装置计算的第二位存储量,控制由再编码装置完成的第二编码数据流的再编码;
多路复用装置,用于使用通过再编码装置再编码的第二编码数据流,产生包括第二编码数据流的再多路复用数据流;
判定装置,用于判定第三位存储量是否在预定的范围内,第三位存储量是在虚拟系统目标解码器模型中、用于将通过多路复用装置再多路复用的再多路复用数据流连结到包括第一编码数据流的多路复用数据流的视频缓存器具有的,其中第一编码数据流的多路复用数据流在来自多路复用装置的再多路复用数据流之后出现;和
多路复用控制装置,用于基于判定装置的判定结果,控制包括第一编码数据流的多路复用数据流的第一画面将被提供给系统目标解码器模型的时间。
15.根据权利要求14的多路复用器,其中用于上述编码器中的虚拟系统目标解码器模型符合运动图像编码专家组标准。
16.一种多路复用方法,其包括步骤:
计算第一位存储量,第一位存储量是在用于解码被再编码的编码数据流的虚拟系统目标解码器模型中、用于解码在第一编码数据流顶部的第一画面的视频缓存器具有的;
基于第一位存储量计算第二位存储量,第二位存储量是在虚拟系统目标解码器模型中、用于根据虚拟系统目标解码器模型来结束对连结到第一画面的开头和结束于第二画面的第二编码数据流的第二画面的解码的视频缓存器具有的;
基于第二位存储量再编码第二编码数据流;
使用再编码的第二编码数据流,产生包括第二编码数据流的再多路复用数据流;
判定第三位存储量是否在预定的范围内,第三位存储量是在虚拟系统目标解码器模型中、用于将再多路复用数据流连结到包括第一编码数据流的多路复用数据流的视频缓存器具有的,其中第一编码数据流的多路复用数据流在再多路复用数据流之后出现;
基于判定结果,控制包括第一编码数据流的多路复用数据流的第一画面将被提供给系统目标解码器模型的时间。
17.根据权利要求16的多路复用方法,其中用于上述编码器中的虚拟系统目标解码器模型符合运动图像编码专家组标准。
CNB001262904A 1999-06-01 2000-06-01 编码设备和方法、多路复用设备和方法 Expired - Fee Related CN1186937C (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP154402/1999 1999-06-01
JP15440299 1999-06-01
JP2000090769A JP4487374B2 (ja) 1999-06-01 2000-03-27 符号化装置及び符号化方法並びに多重化装置及び多重化方法
JP090769/2000 2000-03-27

Publications (2)

Publication Number Publication Date
CN1283045A CN1283045A (zh) 2001-02-07
CN1186937C true CN1186937C (zh) 2005-01-26

Family

ID=26482696

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB001262904A Expired - Fee Related CN1186937C (zh) 1999-06-01 2000-06-01 编码设备和方法、多路复用设备和方法

Country Status (5)

Country Link
US (2) US6795499B1 (zh)
EP (1) EP1058262A3 (zh)
JP (1) JP4487374B2 (zh)
CN (1) CN1186937C (zh)
TW (1) TW545058B (zh)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487374B2 (ja) * 1999-06-01 2010-06-23 ソニー株式会社 符号化装置及び符号化方法並びに多重化装置及び多重化方法
TW518844B (en) * 2001-03-21 2003-01-21 Ind Tech Res Inst Transmission method of multimedia data packet in network system
KR20030087193A (ko) 2002-05-07 2003-11-14 엘지전자 주식회사 멀티 채널 방송 스트림의 기록 관리방법
JP4299780B2 (ja) * 2002-06-21 2009-07-22 エルジー エレクトロニクス インコーポレーテッド ビデオデータの再生を管理するためのデータ構造を有する記録媒体
KR100620185B1 (ko) * 2002-06-21 2006-09-01 엘지전자 주식회사 비디오 데이터의 재생을 관리하기 위한 데이터 구조를갖는 기록 매체
EP1516332A4 (en) * 2002-06-24 2009-07-22 Lg Electronics Inc RECORDING MEDIUM WITH A DATA STRUCTURE FOR MANAGING THE REPRODUCTION OF MULTI-TITLE VIDEO DATA RECORDED THEREFROM AND PLAYBACK PROCESSES AND DEVICES
WO2004001752A1 (en) 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple title video data recorded thereon and recording and reproducing methods and apparatuses
KR20040000290A (ko) 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
KR100665439B1 (ko) * 2002-10-14 2007-01-04 엘지전자 주식회사 기록된 복수의 오디오 스트림의 재생을 관리하기 위한데이터 구조를 갖는 기록 매체, 그에 따른 기록 및 재생방법 및 장치
WO2004036578A1 (en) * 2002-10-15 2004-04-29 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple graphics streams recorded thereon and recording and reproducing methods and apparatuses
US7606463B2 (en) * 2003-02-24 2009-10-20 Lg Electronics, Inc. Recording medium having data structure for managing playback control and recording and reproducing methods and apparatuses
US7693394B2 (en) * 2003-02-26 2010-04-06 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
CN100397882C (zh) 2003-02-28 2008-06-25 Lg电子株式会社 具有用于管理记录其上的视频数据的随机/洗牌重现的数据结构的记录媒体以及记录和重现的方法和装置
US7620301B2 (en) * 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
JP4902935B2 (ja) 2003-05-08 2012-03-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び記録媒体
WO2005099257A1 (ja) 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 高速変換可能なストリームを記録した情報記録媒体並びにその記録装置及び記録方法
US8059943B2 (en) * 2004-04-07 2011-11-15 Panasonic Corporation Information recording medium wherein stream convertible at high-speed is recorded, and recording apparatus and recording method therefor
JP4105207B2 (ja) * 2004-04-07 2008-06-25 松下電器産業株式会社 高速変換可能なストリームを記録した情報記録媒体並びにその記録装置及び記録方法
CN101707705B (zh) * 2004-04-07 2012-11-07 松下电器产业株式会社 记录可以高速转换的流的信息记录介质,及其记录装置和记录方法
WO2005099260A1 (ja) 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 情報記録装置及び情報変換方法
EP1786212A4 (en) * 2004-08-25 2011-08-17 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, RECORDING MEDIUM AND PROGRAM
JP4221667B2 (ja) * 2004-08-25 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP2006135667A (ja) * 2004-11-05 2006-05-25 Toshiba Corp データ送信機、データ送信方法、データ受信機、及びデータ受信処理方法
JP4678486B2 (ja) * 2005-03-11 2011-04-27 ソニー株式会社 多重化装置および多重化方法、プログラム、並びに記録媒体
US20060233237A1 (en) * 2005-04-15 2006-10-19 Apple Computer, Inc. Single pass constrained constant bit-rate encoding
US8437392B2 (en) * 2005-04-15 2013-05-07 Apple Inc. Selective reencoding for GOP conformity
JP4251298B2 (ja) * 2005-07-15 2009-04-08 ソニー株式会社 再生装置および再生方法、プログラム、プログラム格納媒体、データ、記録媒体、記録装置、および、記録媒体の製造方法
WO2007069452A1 (ja) 2005-12-14 2007-06-21 Matsushita Electric Industrial Co., Ltd. コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及び集積回路
WO2007112445A2 (en) * 2006-03-28 2007-10-04 Motionbox, Inc. A system and data model for shared viewing and editing of time-based media
US8582663B2 (en) * 2006-08-08 2013-11-12 Core Wireless Licensing S.A.R.L. Method, device, and system for multiplexing of video streams
JP4221676B2 (ja) 2006-09-05 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
CN102318345B (zh) * 2009-02-27 2014-07-30 富士通株式会社 动态图像编码装置、动态图像编码方法
US20110093902A1 (en) * 2009-10-16 2011-04-21 At&T Intellectual Property I, L.P. System and Method to Process a Data Stream Having Different Content Types
US10334288B2 (en) 2010-06-15 2019-06-25 Avago Technologies International Sales Pte. Limited Method and system for zero overhead parallel entropy decoding
BR112013023478B8 (pt) 2011-04-12 2022-09-13 Panassonic Corp Método de codificação de imagem em movimento, aparelho de codificação de imagem em movimento, método de decodificação de imagem em movimento, aparelho de decodificação de imagem em movimento e aparelho de codificação e decodificação de imagem em movimento
JP5869564B2 (ja) 2011-05-24 2016-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
CA2834123C (en) 2011-05-27 2020-02-11 Panasonic Corporation Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
KR101996098B1 (ko) * 2011-06-15 2019-10-01 소니 주식회사 수신 장치, 단말 장치, 제어 방법, 프로그램 및 통신 시스템
CN103535039B (zh) 2011-06-30 2018-08-28 太阳专利托管公司 图像解码方法、图像编码方法、图像解码装置、图像编码装置以及图像编解码装置
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
CN103718558B (zh) 2011-08-03 2017-04-19 太阳专利托管公司 运动图像编码方法及装置、解码方法及装置和编解码装置
JP6308495B2 (ja) 2011-10-19 2018-04-11 サン パテント トラスト 画像復号方法、および、画像復号装置
JP5772623B2 (ja) * 2012-01-20 2015-09-02 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
KR20130088676A (ko) * 2012-01-31 2013-08-08 삼성전자주식회사 재생 장치 및, 재생 장치의 제어 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6026232A (en) * 1995-07-13 2000-02-15 Kabushiki Kaisha Toshiba Method and system to replace sections of an encoded video bitstream
DE69841897D1 (de) * 1997-07-25 2010-10-28 Sony Corp Bearbeitungsanlage, bearbeitungsverfahren, spleissungsanlage, spleissungsverfahren, kodieranlage und kodierverfahren
US6396874B1 (en) * 1997-11-12 2002-05-28 Sony Corporation Decoding method and apparatus and recording method and apparatus for moving picture data
US6301428B1 (en) * 1997-12-09 2001-10-09 Lsi Logic Corporation Compressed video editor with transition buffer matcher
JPH11285002A (ja) * 1998-02-02 1999-10-15 Sony Corp 動画像符号化装置及び動画像符号化方法
EP0935395A2 (en) * 1998-02-06 1999-08-11 Sony Corporation Video encoding methods and apparatus
CA2265089C (en) * 1998-03-10 2007-07-10 Sony Corporation Transcoding system using encoding history information
AU8978598A (en) 1998-07-22 2000-02-14 Nokia Networks Oy Method and apparatus for performing a traffic measurement in a telecommunicationnetwork
JP3672185B2 (ja) * 1999-02-09 2005-07-13 ソニー株式会社 コーディングシステム及びこれを用いた装置並びに記録媒体
JP4487374B2 (ja) * 1999-06-01 2010-06-23 ソニー株式会社 符号化装置及び符号化方法並びに多重化装置及び多重化方法

Also Published As

Publication number Publication date
CN1283045A (zh) 2001-02-07
JP4487374B2 (ja) 2010-06-23
EP1058262A2 (en) 2000-12-06
US6795499B1 (en) 2004-09-21
US7394851B2 (en) 2008-07-01
TW545058B (en) 2003-08-01
EP1058262A3 (en) 2004-04-21
US20040264566A1 (en) 2004-12-30
JP2001054118A (ja) 2001-02-23

Similar Documents

Publication Publication Date Title
CN1186937C (zh) 编码设备和方法、多路复用设备和方法
CN1239021C (zh) 信息处理设备及方法、程序和记录介质
CN1184631C (zh) 在记录介质上记录编码图像数据的方法
CN1148955C (zh) 编码数据流接合设备和方法及编码数据流生成设备和方法
CN1253017C (zh) 用于把视频目标记录在光盘上的记录设备及其方法
CN1310508C (zh) 数据传输装置及方法
CN1237822C (zh) 光盘、光盘记录方法和装置,以及光盘再现方法和装置
CN1245022C (zh) 数据处理方法/设备和数据再生方法/设备
CN100348033C (zh) 信息处理方法和装置、程序和记录介质
CN1943246A (zh) 图像解码方法
CN1167275C (zh) 图像处理方法
CN1118065C (zh) 光盘的记录和复制设备及方法
CN1906694A (zh) 再现装置、再现方法、程序、记录介质和数据结构
CN101075462A (zh) 记录/再现/编辑装置、方法、程序
CN1113537C (zh) 图像信号编码装置
CN1879410A (zh) 节目录制装置及节目录制方法
CN1383678A (zh) 编码设备和方法、记录介质和程序
CN1366776A (zh) 解码器、解码方法、记录介质和程序
CN1110893A (zh) 在视频和音频信号处理系统中辅助信息输入缓冲器的合理结构
CN1134935C (zh) 数据处理同步装置
CN1706187A (zh) 数据处理装置
CN1547852A (zh) 活动图像数据再现设备
CN1518741A (zh) 记录装置、记录介质、重放装置、程序和方法
CN1768529A (zh) 音频/视频记录装置、记录方法、再现装置、再现方法、再现程序和记录程序
CN1692644A (zh) 信息处理设备、信息处理方法和程序以及记录介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20050126

Termination date: 20150601

EXPY Termination of patent right or utility model