EP2489187A1 - Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder - Google Patents

Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder

Info

Publication number
EP2489187A1
EP2489187A1 EP10765622A EP10765622A EP2489187A1 EP 2489187 A1 EP2489187 A1 EP 2489187A1 EP 10765622 A EP10765622 A EP 10765622A EP 10765622 A EP10765622 A EP 10765622A EP 2489187 A1 EP2489187 A1 EP 2489187A1
Authority
EP
European Patent Office
Prior art keywords
coding
decoding
symbols
frequencies
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP10765622A
Other languages
English (en)
French (fr)
Other versions
EP2489187B1 (de
Inventor
Peter Amon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to EP10765622.5A priority Critical patent/EP2489187B1/de
Publication of EP2489187A1 publication Critical patent/EP2489187A1/de
Application granted granted Critical
Publication of EP2489187B1 publication Critical patent/EP2489187B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Definitions

  • the invention relates to a method for coding symbols from a sequence of digitized images and to a corresponding decoding method. Moreover, the invention relates to a coding device and a decoding device for carrying out the coding or decoding method.
  • Video coding methods are usually performed in two processing processes.
  • the images in the video stream are appropriately decorrelated by means of prediction and transformation.
  • the result of the correlating step ⁇ are symbols in the form of Transformationskoeffi ⁇ coefficients, motion vectors, coding information further and the like. Thereto often still a Quanti ⁇ tion of the symbols generated includes in itself, whereby the Kompressionsef- ficiency is increased.
  • the generated symbols are subjected to lossless entropy coding, in which the remaining redundancy in the generated symbols, ie their occurrence probabilities and their mutual statistical dependency, is exploited to obtain the shortest possible codewords with the shortest possible total length of the symbols To generate data stream.
  • each generated symbol is bijectively mapped to a codeword.
  • the relationship between a symbol and the corresponding codeword is represented by a codeta ⁇ belle, such as a look-up table.
  • arithmetic coding In contrast to the VLC coding, in which a symbol is transformed into a codeword becomes in the arithmetic coding of a plurality of symbols generates a single codeword. In the arithmetic Codie ⁇ tion the symbols are preferably mapped to binary numbers based on their frequencies, so that a binary representation of the successive symbols is obtained.
  • Entropy encoding based on the principle of deriving one or sev- eral probabilistic models from the frequencies of the symbols occurring, short code words are generated on the basis of which, ie for symbols or symbol sequences with high frequency with the Entropiecodie ⁇ tion shorter code words than for symbols or Generated symbol sequences with low frequency.
  • Entropieco- are context-based coding method, that is to be distinguished from various symbols Ty ⁇ groups that represent different information.
  • the frequencies of the symbols occurring are processed separately in their own context and thus based on their own probabilistic model.
  • a context may also depend on other criteria in video coding methods, for example the coding of an image area may depend on the coding decisions of adjacent image areas in the image.
  • Entropiecodierver- run frequently adaptively designed ie the probability models are adjusted based on the changing Frequently ⁇ fieren of the symbols occurring in coding accordingly.
  • various methods are known in the prior art.
  • the images of the video stream are divided into so-called slices, each slice representing a part of the image that can be encoded completely independently of other parts. That is, both the generation of the original symbols and the subsequent generation of the code word to an entropy coding ⁇ have based no dependencies between different small slices.
  • the probability models or contexts are not adjusted across slices. This leads to a poorer compression efficiency.
  • entropy slices allow dependency between the Sym ⁇ bolen, such as intra-prediction. Only the generation of the code words based on the entropy coding is independent between the individual entropy slices.
  • the use of entropy slices increases the compression efficiency compared to traditional slices. Nevertheless, there is still the disadvantage that different statistics are used for the symbols of different entropy slices, which in turn reduces the efficiency of entropy coding.
  • FIGS. 1A to 1C show different variants of the reading of macro blocks in accordance with reference [1], wherein the individual macro blocks are reproduced as Successive rectangles and are denoted from about ⁇ sichtiges109 only partially with the reference numeral MB.
  • Fig. 1A shows a line by line reading of macroblocks, as indicated by the vertical line LI.
  • FIG. 1B shows a further variant of the zigzag-shaped reading in of macroblocks, whereby now ⁇ more the processing of three lines per ordered entropy slice according to the line L3 is made possible.
  • FIGS. 2A and 2B Another variant of entropy slices are so-called interleaved entropy slices, which are described in reference [4].
  • the slices do not represent contiguous lines, but the lines of the individual slices are nested inside each other. This is illustrated again in FIGS. 2A and 2B.
  • Fig. 2A shows a subdivision of I picture in two conventional Entropy slices SL1 and SL2, where ⁇ at the upper half of the image forms a coherent slice SL1 with macroblock MB1, and the lower part of the picture SL2 a contiguous slice SL2 with corresponding macro ⁇ blocks MB2 (shaded) forms.
  • FIG. 2B an example of interleaved entropy slices is shown in FIG. 2B.
  • the respective slice SL1 'or SL2' is formed by macroblock lines staggered by one line.
  • the slice SL1 ' is indicated in FIG. 2B with full-area macroblock MB1' and is formed by the first, third, fifth, etc. lines.
  • Demge ⁇ gen undergraduate is the slice SL2 indicated 'by hatched macro block MB2' and formed by the second, fourth, sixth, etc. row.
  • Interleaved entropy slices allow contextualization across entropy slices. However, no common statistics are generated for the probabilistic models used for entropy coding.
  • a syntax element partitioning is also described in reference [4].
  • codewords for different groups of syntax elements such as mode information, motion vectors, transform coefficients. Since the individual groups have different contexts, the context formation is also carried out separately. Because the relative frequencies of the different groups of syntax elements, such as mode information, motion vectors, transform coefficients.
  • the object of the invention is to improve the entropy coding of symbols in a sequence of digitized images in such a way that parallel processing of several image areas is possible with simultaneously high coding efficiency.
  • the images are subdivided into image regions and the symbols of a respective image region are coded by means of entropy coding, the entropy coding being based on one or more probabilistic models.
  • image area here and in the following is to be construed broadly and can refer to image sections of any shape.
  • an image area represents an image block, for example a macroblock known from video coding.
  • the image areas are processed in the Codierzyklen ⁇ art that in one encoding cycle the Entropieco ⁇ consolidation takes place in several parallel Codierzweigen.
  • Parallel Codierzweigen Codierzweige are hen to be understood that perform entropy ⁇ encodings of image areas at the same time or overlapping in time. This achieves rapid entropy encoding through the use of parallel entropy encoders for each coding branch.
  • an image area is coded in a respective coding branch on the basis of a set of probability models, wherein a set of probabilistic models can comprise one or more probabilistic models.
  • the frequencies for the set of probability models are adapted based on the symbols occurring in the image area.
  • the inventive method is characterized in that the set of probability models used in each coding branch for encoding based on a common, valid for all Codierzweige set of probability model ⁇ len, this common set takes into account the frequencies of symbols in the image areas of all Codierzweige.
  • This common set of probability models is updated at predetermined time intervals based on frequencies adapted in at least one chronologically preceding coding cycle. Under "temporally preceding coding cycle" is an encoding cycle that has passed (immediately or even earlier) before updating the common set of probabilistic models.
  • the inventive method has the advantage that, firstly, by the use of parallel Codierzweigen a fast coding of the symbols is achieved and at ⁇ whose dellen by considering the statistics of all Codierzweige in a common set of tempkeitsmo- a high coding efficiency is ensured.
  • the updating of the common set of probabilistic models can take place according to the invention in various ways.
  • the updating of the common set of probabilistic models is carried out, at least temporarily, sequentially in such a way that, in the case of temporally successive updates, the adapted frequencies of different coding branches are taken into account.
  • the updating of the common set of probabilistic models can also take place at least temporarily at predetermined synchronization times at which the common set of probabilistic models is updated based on the adapted frequencies of all coding branches of at least one preceding coding cycle.
  • the common set of probabilistic models may be updated in a variant of the invention based on frequencies adapted in the immediate temporally preceding coding cycle.
  • the adapted frequency in an intermediate, assigned to the respective coding branch set of probability models are temporarily stored after the encoding of an image area in a respective coding branch, wherein up to update the common set of probability models one or more latched interme ⁇ intermediaries sentences of probabilistic models in combination with the common set of probability models for entropy coding in the respective coding branch. Due to the temporary buffering of the adapted frequencies, different variants of the coding according to the invention can be realized in a simple manner.
  • the entropy coding of a respective image area may be based on any entropy coding method known from the prior art.
  • VLC coding and / or arithmetic coding can be used.
  • Context-based Adaptive Variable Length Coding (CAVLC) coding or CABAC (Context-based Adaptive Binary Arithmetic Coding) coding known from the video coding standard H.264 / AVC can be used.
  • Codierzweige can be done in the method according to the invention in various ways.
  • the Codierzweige may be such bootss ⁇ taltet that an encoding cycle is gebil- det by image areas, which follow one another according to a row or column-wise course of the image regions in the images.
  • Codierzweige are such as those wholly or partly coding cycles, which follow one another in accordance with a zigzag-shaped course of the image regions in the images.
  • the last-mentioned variant also makes it possible, in particular, to achieve coding taking into account the context of adjacent image areas.
  • the method according to the invention can also be combined in a suitable manner with known coding variants in which the pictures are subdivided into picture sections which are separately entropy-coded.
  • the image sections can thereby be encoded at least temporarily, without consideration of dependencies between the image sections and / or at least temporarily taking into account dependencies between the image sections.
  • An embodiment of a coding without regard to dependencies represents the partitioning based on slices mentioned at the outset.
  • a variant of a coding with consideration of dependencies represents the initially mentioned partitioning of pictures based on entropy slices.
  • the entropy coding method according to the invention can be combined with any video coding method known from the prior art.
  • the symbols can be generated from the sequence of digitized images based on the standard H.264.
  • the symbols from the sequence of digitized images are generated by a well-known in the art transformation, such as a DCT transform, and also known from the prior art quantization of image areas.
  • the invention further comprises a decoding method with which the symbols coded according to the invention are decoded from a sequence of digitized pictures.
  • the encoded image areas are so proces tet ⁇ in decoding cycles analogous to the encoding method that entropy decoding is performed in a decoding cycle in several parallel decoding branches, wherein an encoded image area in a respective decoding branch is decoded based on a set of probabilistic models, wherein the frequencies for the set of probability models in the decoding of the coded image area based on the occurring in the decoded image area symbols.
  • the set of probability models used in each decoding branch for decoding is based on a common set of probability models valid for all decoding branches, which takes into account the frequencies of symbols in the decoded image areas of all decoding branches.
  • the common set of probability models is updated at predetermined time intervals based on frequencies adapted in at least one temporally preceding decoding cycle.
  • the invention further relates to a method for encoding and decoding a sequence of digitized images, wherein symbols from the sequence of digitized images are encoded using the encoding method described above, and subsequently, for example after transmission over a transmission link, with the above-described inventive Decoding be decoded.
  • the invention further relates to a device for encoding symbols from a sequence of digitized images, the images being subdivided into image regions and the symbols of a respective image region being encodable by the device by means of entropy coding based on one or more probabilistic models, wherein the or the probability models take into account the frequencies occurring in areas of the image icons, wherein the device comprises a processing unit which ⁇ be tains:
  • each Codiermit ⁇ tel is used for entropy encoding such a respective Codierzweigs that in a respective coding branch, an image area based on a set of probability is coded, wherein each coding means um ⁇ sums:
  • an adaptation means for adapting the frequencies for the set of probability models in the coding of the image area based on the
  • the encoding device according to the invention is thus suitable for coding of the symbols from a sequence of digitized images based on the inventive method, wherein in particular one or more of the above-described execution ⁇ form of the inventive method can be realized with corresponding further means of the coding device.
  • the invention further comprises a corresponding decoding device for decoding coded symbols from a sequence of digitized images, wherein the images are subdivided into image regions and the symbols of a respective image region have been coded by means of entropy coding based on the coding method according to the invention, wherein the entropy decoding is based on one or more probabilistic models, the probabilistic model (s) taking into account the frequencies of symbols occurring in decoded image areas.
  • the pros direction in this case comprises a processing unit which ⁇ be tains:
  • each decoding means for entropy decoding a respective decoding branch serving such that in the respective decoding branch an encoded image area is based on a decoding branch
  • each decoding means comprising:
  • Set of probability models based on the common set of likelihood models valid for all decoder branches, which takes into account the frequencies of symbols in the decoded image areas of all decoder branches; means for updating the common set of probabilistic models at predetermined time intervals based on frequencies adapted in at least one temporally preceding decoding cycle.
  • the invention also includes a codec or a system for coding and decoding symbols from a sequence of digitized images, the codec including both the coding device according to the invention and the decoding device according to the invention.
  • FIGS. 4A and 4B show two variants of the parallel processing of macroblocks based on the method according to the invention
  • Fig. 10 is a schematic representation of a
  • Embodiment of a erfindungsge ⁇ MAESSING coding and decoding Embodiment of a erfindungsge ⁇ MAESSING coding and decoding.
  • the entropy encoding of the invention or Entropiedecodier method are characterized in that a plurality of image areas are processed in parallel in different Codierzweigen, wherein the individual Codierzweige However ⁇ access scheineriesmodell to a common perception that the Häuftechniksver ⁇ distributions of the symbols of all Codierzweige considered.
  • the ⁇ ses probability model is updated periodically based on the changing frequencies of to be encoded or decoded symbols.
  • the symbols are generated in the context of a video coding method, such a method being illustrated schematically in FIG.
  • FIG. 3 shows a corresponding coder COD and the right part of FIG. 3 shows the decoder DEC used for the decoding.
  • a video stream of digitized images I is subjected to encoding in which a prediction error signal resulting from the difference between input signal I and motion-compensated reconstruction of the previous image is compressed.
  • DCT Discrete Cosine Transformation
  • the quantized symbols S in the context of the coding are also subjected to an inverse quantization IQ and an inverse transformation IT.
  • the thus generated signal finally reaches an image ⁇ memory SP, whose output is fed back again via the adder A 'to the input, wherein the output further nega tive ⁇ reaches the input of the transform T via the adder A.
  • the image memory SP thereby controls a motion estimator ME ⁇ , which in turn is acted upon on the input side with the video I ⁇ input data and provides the above-mentioned motion vectors MV for the control of the image memory SP in the coder COD.
  • the ⁇ se motion vectors are also transmitted to the decoder DEC, the motion vectors are also entropy coded for this, which is not shown in FIG. 1.
  • the codewords S 'generated by the entropy coder are finally transmitted to the decoder DEC where they are first subjected to a suitable entropy decoding according to the invention.
  • the symbols S generated on the encoder side are reconstructed, which are then subjected to an inverse quantization IQ and an inverse transformation IT.
  • decoded video data is then added to the data of a corresponding image memory SP on the side of the decoder DEC and set the off ⁇ represents transition of the decoder, this sum signal is also supplied to the decoder-side image memory SP, the output to the input of the adder A ''. is returned.
  • Embodiments of entropy coding and entropy decoding according to the invention based on the symbols of respective macroblocks in respective video images will now be described.
  • the individual Codierzweige thus represent different groups of macro blocks, wel ⁇ che, various components of the image depending on the design.
  • FIG. 4A shows a first variant of a grouping of macroblocks MB into three coding branches.
  • the macro block of the first Codierzweigs are thereby z with reference numeral 1, the macro-blocks of the second ⁇ Codierzweigs with reference numeral 2 and the macro block of the third Codierzweigs with reference numeral 3 spe ⁇ . These reference numerals are also used to denote the corresponding coding branches.
  • An encoding cycle CC is formed by three consecutive macroblocks 1, 2 and 3 in the embodiment of FIG. 4A. The image is thus read in for encoding line by line, as indicated by the line L in Fig. 4A.
  • the grouping according to FIG. 4A is suitable for entropy coding, in which no information from neighboring macroblocks is used to model the context.
  • FIG. 4B shows another variant of the formation of coding branches in which context modeling based on information from adjacent macroblocks is enabled.
  • the coding branches are formed by respective adjacent lines of the image I, the first line forming the first coding branch 1, the second line the second coding branch 2 and the third line the third coding branch 3 in FIG. 4B.
  • the processing of the individual Codierzweige carried overlapping, wherein the coding in a coding branch for coding branch of the next line to two macro blocks ⁇ is delayed, which is indicated by the line L '.
  • FIG. 4B shows a scenario in which some macro blocks ⁇ are already encoded, said macro-block are indicated by ent ⁇ speaking numerals in parentheses.
  • the co-consolidation takes place again in parallel Codierzweigen, wherein in a mutually encoding cycle now two macroblock offset macroblock from respective Codierzweigen be proces ⁇ tet.
  • the successive coding branches are formed in accordance with a zigzag-shaped course of macroblocks in the image.
  • An encoding cycle CC corresponding to FIG. 4A is shown in FIG. 4B eg by the fifth macroblock 1 in the first line of the image I, the third macroblock 2 in the second line of the image I and the first macroblock 3 in the third line of the image I. educated.
  • FIGS. 5 to 8 show various variants of the entropy coding according to the invention with different ways of updating a common set of probabilistic models.
  • the individual Codierzweige are formed based on the zeilenwei ⁇ sen processing of macro block in accordance with Fig. 4A.
  • the frequencies of the symbols are taken into account based on a set of probabilistic models, wherein a set may contain one or more probabilistic models.
  • Each probability model takes into account a context (ie a corresponding type of symbols and / or coding decisions of already coded blocks).
  • different probability models can be used for information to be coded differently, for example for transformation coefficients, motion vectors and coding mode information.
  • Entropy coding of a macroblock in a single coding branch is performed based on a standard entropy encoding, for example, based on a ⁇ gangs mentioned VLC coding or arithmetic coding.
  • a standard entropy encoding for example, based on a ⁇ gangs mentioned VLC coding or arithmetic coding.
  • CABAC or CAVLC can be used.
  • the entropy coding in a single coding branch thus proceeds based on known methods, but this entropy coding suitably uses a common set of probabilistic models in which the frequencies of the symbols of all parallel coding branches are taken into account.
  • 5 to 8 is indicated by corresponding arrows, on which set of International ⁇ scheineriesmodellen a just coded macro-block accesses.
  • the respective set of probabilistic models used for entropy coding is adapted and stored in an intermediate set of probabilistic models, the intermediate sets of probabilistic models being reproduced in the course of the method after updating the already mentioned common set of probabilistic models be discarded.
  • the intermediate sets of probabilistic models are called shadow sets.
  • Fig. 5 shows a variant of Entropieco ⁇ is sequentially adjusted by the adapted frequencies of the individual Codierzweige consolidation according to the invention, wherein the common set of probabilistic models.
  • the origin of an arrow indicates in FIG. 5 and also in all further FIGS. 6 to 9 which set of probabilistic models is accessed for that (just coded) macroblock at which the tip of the corresponding arrow is located.
  • the symbols for the macroblock of each of the coding branches 1 to 3 are encoded in the encoding cycle CC1. It will be independent used adaptive entropy coders for each of the branches.
  • the coding uses the same initial standard statistics (ie probability models) for all coding branches.
  • the original set of likely ⁇ keitsmodellen is adjusted based on the corresponding frequencies of the symbols in each coding branch, so that a first shadow set of probabilistic models for each coding branch is generated.
  • Must egismodellen these shadows sets of prob ⁇ while only the modified probability models of the respective types of symbols contained ⁇ th.
  • Unmodified probability models need not be stored.
  • the original default statistic represents the first version of a common set of probabilistic models, which is then updated as the encoding progresses.
  • Fig. 5 is performed after coding of the macro block 1 in the first encoding cycle CC1 already Co ⁇ dation of the macro block 1 in subsequent encoding cycle CC2, without having to wait for the completion of the coding of the Macro Blocks 2 and 3 in the encoding cycle CC1.
  • a second set of shadow probability models is generated, which stores the change with respect to the first set of shadow probability models.
  • the coding decisions are taken based on the original common set of probability models and the first and second shadow set of probability model ⁇ len.
  • the common set of probability model ⁇ len can with the first set of shadow trikeitsmodel- len be updated from the encoding of the macro block 2 in the first encoding cycle CC1.
  • the common set of probabilistic models is updated with the first set of shadow probability models from the encoding of the macroblock 3 in the first encoding cycle CC1. The process is continued in this manner until all the macro blocks are encoded ⁇ .
  • Coding branch CC2 start only when the common set of probability models has been updated with the first set of shadow probability models from the coding of the macroblock 1 in the coding cycle CC1. However, this updating can only be carried out when the macroblock 3 has been completely coded in the first coding cycle CC1, since otherwise false coding is used in the coding branch 3.
  • temporary sets of probability models for the common set of probabilistic models are also generated taking into account one or more already coded shadow sets of probability models.
  • a coding in a coding branch a new encoding cycle can be carried out based on a corresponding temporary set of probabilistic models, even if there takes place in a coding branch of the previous encoding cycle co ⁇ dation.
  • the above-described variant of the sequential updating of the common set of probabilistic models can also be designed as a delayed updating, in which the common set of probabilistic models does not contain corresponding sets of probabilities of the previous cycle, but of an even later cycle is updated.
  • Such a variant of the invention is ge ⁇ shows in Fig. 6. It can be seen that for the first and second coding cycles CC1 and CC2 initially an initial set of standard probability models is used, and only from the third coding cycle is a corresponding update of the common set of probabilistic models with shadow sets of probabilistic models generated in the course of the coding from the first Coding cycle CC1 leads.
  • Probability models from the third coding cycle CC3 updated The advantage of the variant of FIG. 6 is that, as a rule, the coding branches do not block each other. Furthermore, only two sets of shadow probability models are needed if the update is delayed by one encoding cycle, as indicated in FIG. If the delay is more than one co ⁇ commanding cycle, additional shadow sets of probability models are needed. The greater the delay tion of the update, the more a deviation in the rate of Codierzweige be tolerated, O ⁇ ne that the Codierzweige block each other. On ⁇ due to the delayed update of the statistics, however, the coding efficiency is slightly deteriorated.
  • Fig. 7 shows a third variant of updating the common set of probabilistic models.
  • the common set of probabilistic models is updated with all the shadow sets of probabilistic models generated for each encode branch. In this way, the generation of multiple sets of shadows of probabilistic models per coding branch is avoided.
  • the coding speed of encoding cycle is determined by the réelles ⁇ th coding branch.
  • the synchronization times Müs ⁇ sen here are not set after the end of each encoding cycle. Rather, there is also the possibility that after ei ⁇ ner predetermined number of coding cycles an update is performed.
  • FIG. 8 shows such a variant of the update of Codierzwei ⁇ gene, in which the update always takes place only after two coding cycles.
  • the same common set of probability models is used for the coding cycles CC1 and CC2, an update of this common set of probabilistic models taking into account the sets of shadows of the first coding cycle CC1 at the beginning of the coding cycle CC3.
  • Decoding of the symbols encoded by the methods described above proceeds analogously to the encoding. That is, the decoding is performed in parallel decoding branches, where the common set of probability models is again updated based on the frequencies of the decoded symbols.
  • a decoding process will be described by way of example based on the encoded symbols which he were testifies ⁇ with the encoding process of FIG. 5. This decoding process is reproduced in FIG. 9, again indicated by corresponding arrows on which set of probabilistic models a currently decoded macroblock accesses.
  • the decoding is done in appropriate decoding cycles DC1, DC2, DC3, etc., within which corresponding now parallel decoding branches 1 ', 2' and 3 'are carried out with which the ent ⁇ speaking coded macroblock are decoded.
  • Each of the decoder branches 1 ', 2' and 3 ' is thus decoded in a separate decoding process.
  • the macro blocks ⁇ first be decoded in the first decoding cycle DC1 with the appropriate initi- alen set of default probability models.
  • the decoding-resultant updates of the frequencies of the decoded symbols are in turn stored in individual shadow sets of probabilistic models.
  • the decoding of the marrow block 1' takes place in the second decoding cycle DC2 using a second decoding cycle DC1 Shadow set of probability models.
  • the common set of probabilistic models is updated analogously to the coding with the first shadow set of probability models of the macroblock 1 'in the decoding cycle DC1.
  • decoding branch 3 starts decoding if the common set of probabilistic models has been updated with the first shadow set of probabilistic models of macroblock 2' in the first decoding cycle DC1.
  • a temporary set of probability models for decoding the Marko block 3 'in the second decoding cycle DC2 USAGE be ⁇ det, if the decoding of the macroblock 1' and 2 'has been completed in the first decoding cycle DC1.
  • the Codie ⁇ tion continues based on the above steps for all wide ⁇ ren Codierzyklen with corresponding updates until all macroblock are decoded.
  • the delay D is to be transferred to the update of the common set of probabilistic models.
  • This parameter D 0 coding cycles in the embodiments of FIGS. 5 and 7.
  • D 1.
  • it is to be transmitted as a parameter whether a synchronized update at predetermined synchronization times is carried out.
  • a synchronized Aktualisie ⁇ tion is signaled, whereas is signaled in the embodiments of FIGS. 5 and Fig. 6 that no synchroni ⁇ catalyzed update is performed.
  • variants of the method according to the invention described above can be combined with suitable methods of modeling contexts, such as the entropy slices described above, the ordered entropy slices or the interleaved entropy slices.
  • suitable methods of modeling contexts such as the entropy slices described above, the ordered entropy slices or the interleaved entropy slices.
  • OF INVENTION ⁇ -making process according to the above-described syntax element partitioning and parallel processing of a plurality of binary symbols according to references [3] and [4] may be combined.
  • the inventive method has a number of advantages.
  • a high compression efficiency is he ⁇ ranges, because a common, valid for all Codierzweige set is used by probability models, which is periodically updated with the adapted Statistics Codierzweige.
  • the statistics in the common set of probabilistic models are closer to the actual probabilities than if separate independent sets of probabilistic models are used.
  • the parallel coding or decoding of a plurality of coding or decoding branches furthermore achieves rapid encoding and decoding with a low delay.
  • the invention Ver ⁇ drive the also suitably Anlagennique with other parallel processed are combined for context-based adaptive entropy coding.
  • FIG. 10 shows a schematic representation of a concrete embodiment of a system comprising an inventive coding device and a decoding device according to the invention.
  • the coding device is used for entropy coding of a sequence of digitized images and is denoted by EC analogously to FIG.
  • the decoding device is used for decoding the sequence of digitized images entropy-coded with the device EC and is denoted by ED in analogy to FIG.
  • Both the device EC and the device ED include a plurality of components, which may be configured as individual hardware components, for example as hardware components in a computer. In the same way, the device ED also contains a plurality of components which can be designed as individual hardware components, eg as hardware components in a computer.
  • the device EC may optionally comprise, as additional components, the components shown in FIG. 3 in the form of a transformation unit T, a quantizer Q, an inverse quantizer IQ, an inverse transformation unit IT, an image memory SP, a motion estimator ME and entspre ⁇ chender adder a and a 'contain. All these components can in turn be realized as individual hardware components.
  • the device EC includes means 100 for dividing the image areas of the processed images into coding cycles.
  • the entropy coding is carried out in a coding cycle in several parallel coding branches.
  • the device EC example ⁇ adhesive contains three coding means 101, 102 and 103, each coding ⁇ means is provided for encoding in the respective coding branch. If the device more than three Codierzweige be coded, a correspondingly larger number of co ⁇ commanding means is provided.
  • Each coding performs Entro ⁇ piecod réelle based by on a set of probability models.
  • the encoding means 101 includes as subcomponents a Adapti ⁇ onsstoff 101a and means 101b for processing a joint probability model.
  • the coding means 102 and 103 also contain corresponding adaptation means 102a or 103a and corresponding means 102b and 103b, respectively
  • the adaptation means in the respective coding branch serves to adapt the frequencies for the set of probability models in the coding of the image region based on the symbols occurring in the image region. That in everyone
  • Coding branch provided means for processing a common ⁇ probability probability model performs a processing ⁇ such that the in the respective coding branch for coding is based on the common set of probability models valid for all coding branches, which takes into account the frequencies of symbols in the image areas of all coding branches.
  • EC means 104 for updating the common set of probabilistic models in ⁇ predetermined time intervals further is based on provided in at least one adapted temporally preceding encoding cycle frequencies.
  • the coding device EC supplies a coded sequence of digitized images, which can be transmitted to the decoding device ED via an arbitrary transmission path.
  • the transmission over the transmission path is indicated in Fig. 10 by the arrow P.
  • the decoding ⁇ device ED receives the coded image stream and performs a corresponding Entropiedecodtechnik, the device for this purpose has a plurality of components.
  • the device ED comprises a means for dividing the coded image regions of the coded sequence of digitized images into decoding cycles in such a way that entropy decoding takes place in a decoding cycle in several parallel decoding branches.
  • each decoding branch there is provided at a corresponding decoding means 201 or 202 or 203, wherein in the case of more than three decoding branches corresponding further decoding means are integrated in the device ED.
  • Each decoding means performs Entropiede ⁇ coding based on a set of by prokeitsmo ⁇ dings.
  • the decoding means 201 comprises an adaptation means 201a for adapting the frequencies for the set of probability models in the decoding of the encoded image area based on the symbols occurring in the decoded image area.
  • the decoding means 201 also comprise the decoding means 202 and 203 a corresponding Adap ⁇ tion medium 202a and 203a for the adaptation of the frequencies, and a corresponding means 202b and 203b for processing egg ⁇ nes joint probability model.
  • the Decodiervor ⁇ direction ED of Fig. 10 further includes as a further Compo- nent a means 204 for updating the common satellite ⁇ zes of probabilistic models in predetermined time intervals based on at least in a time-adapted preceding decoding cycle frequencies.
  • the decoding device ED a decoded sequence is obtained di ⁇ gitalEnglisher images.
  • the decoding device may further include the additional components shown in FIG. 3 in the form of an inverse quantizer IQ and an inverse transformation unit IT as well as a memory SP and an adder A ".
  • This zusharm ⁇ handy components can be as individual hardware components, for example, configured as hardware components of a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder (I), wobei die Bilder (I) in Bildbereiche (MB) unterteilt sind und die Symbole (S) eines jeweiligen Bildbereichs (MB) mittels einer Entropiecodierung codiert werden, welche auf einem oder mehreren Wahrscheinlichkeitsmodellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in Bildbereichen (MB) auftretenden Symbolen (S) berücksichtigen. In dem erfindungsgemäßen Verfahren werden die Bildbereiche (MB) in Codierzyklen (CC, CC1, CC2,... CC5) derart verarbeitet, dass in einem Codierzyklus (CC, CC1, CC2,... CC5) die Entropiecodierung in mehreren parallelen Codierzweigen (1, 2, 3) erfolgt, wobei in einem jeweiligen Codierzweig (1, 2, 3) ein Bildbereich (MB) basierend auf einem Satz von Wahrscheinlichkeitsmodellen codiert wird, wobei die Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Codierung des Bildbereichs basierend auf den im Bildbereich (MB) auftretenden Symbolen (S) adaptiert werden. Der in jedem Codierzweig (1, 2, 3) zur Codierung verwendete Satz von Wahrscheinlichkeitsmodellen basiert auf einem gemeinsamen, für alle Codierzweige (1, 2, 3) gültigen Satz von Wahrscheinlichkeitsmodellen, welcher die Häufigkeiten von Symbolen (S) in den Bildbereichen (MB) aller Codierzweige (1, 2, 3) berücksichtigt. Der gemeinsame Satz von Wahrscheinlichkeitsmodellen wird in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Codierzyklus (CC, CC1, CC2,... CC5) adaptierten Häufigkeiten aktualisiert.

Description

Beschreibung
Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder
Die Erfindung betrifft ein Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder sowie ein entsprechendes Decodierverfahren . Darüber hinaus betrifft die Erfindung eine Codiervorrichtung und eine Decodiervorrichtung zur Durchführung des Codier- bzw. Decodierverfahrens .
Videocodierverfahren werden in der Regel in zwei Verarbeitungsprozessen durchgeführt. Zunächst werden die Bilder im Videostrom in geeigneter Weise mittels Prädiktion und Trans- formation dekorreliert. Das Ergebnis des Dekorrelations¬ schritts sind Symbole in der Form von Transformationskoeffi¬ zienten, Bewegungsvektoren, weiterer Codierinformationen und dergleichen. Hieran schließt sich oftmals noch eine Quanti¬ sierung der erzeugten Symbole an, wodurch die Kompressionsef- fizienz erhöht wird. In einem zweiten Verarbeitungsprozess werden die generierten Symbole einer verlustfreien Entropiecodierung unterzogen, bei der die noch vorhandene Redundanz in den generierten Symbolen, d.h. deren Auftretenswahrscheinlichkeiten und deren gegenseitigen statistischen Abhängig- keit, ausgenutzt wird, um aus den Symbolen möglichst kurze Codewörter mit möglichst kurzer Gesamtlänge des Datenstroms zu erzeugen.
Aus dem Stand der Technik sind verschiedene Verfahren zur Entropiecodierung bekannt. Bei der VLC-Codierung (VLC = Variable Length Coding) wird jedes generierte Symbol bijektiv auf ein Codewort abgebildet. Die Beziehung zwischen einem Symbol und dem entsprechenden Codewort wird dabei durch eine Codeta¬ belle, wie z.B. eine Look-up-Tabelle, repräsentiert.
Ein weiteres gängiges Verfahren der Entropiecodierung ist die arithmetische Codierung. Im Unterschied zur VLC-Codierung, bei der ein Symbol in ein Codewort transformiert wird, wird bei der arithmetischen Codierung aus mehreren Symbolen ein einzelnes Codewort generiert. Bei der arithmetischen Codie¬ rung werden die Symbole basierend auf ihren Häufigkeiten vorzugsweise auf Binärzahlen abgebildet, so dass eine binäre Repräsentation der aufeinander folgenden Symbole erhalten wird .
Allgemein beruhen Entropiecodierverfahren auf dem Prinzip, aus den Häufigkeiten der auftretenden Symbole eine oder meh- rere Wahrscheinlichkeitsmodelle abzuleiten, auf deren Basis kurze Codewörter erzeugt werden, d.h. für Symbole oder Symbolfolgen mit hoher Häufigkeit werden mit der Entropiecodie¬ rung kürzere Codewörter als für Symbole bzw. Symbolfolgen mit niedriger Häufigkeit generiert. In der Regel sind Entropieco- dierverfahren kontextbasiert, d.h. es werden verschiedene Ty¬ pen von Symbolen unterschieden, welche unterschiedliche Informationen repräsentieren. Für diese unterschiedlichen Typen von Symbolen werden die Häufigkeiten der auftretenden Symbole getrennt in einem eigenen Kontext und damit basierend auf ei- nem eigenen Wahrscheinlichkeitsmodell verarbeitet. Ein Kon¬ text kann in Videocodierverfahren gegebenenfalls auch von anderen Kriterien abhängen, beispielsweise kann die Codierung eines Bildbereichs von den Codierentscheidungen benachbarter Bildbereiche im Bild abhängen. Ferner sind Entropiecodierver- fahren häufig adaptiv ausgestaltet, d.h. die Wahrscheinlichkeitsmodelle werden basierend auf den sich verändernden Häu¬ figkeiten der auftretenden Symbole bei der Codierung entsprechend angepasst. Um die Codiergeschwindigkeit von Entropiecodierverfahren zu erhöhen, sind aus dem Stand der Technik verschiedene Verfahren bekannt. Im Videocodier-Standard H.264/AVC werden die Bilder des Videostroms in sog. Slices eingeteilt, wobei jeder Slice ein Teil des Bilds darstellt, der vollkommen unabhängig von anderen Teilen codiert werden kann. Das heißt, sowohl die Generierung der ursprünglichen Symbole als auch die anschließende Generierung des Codeworts basierend auf einer Entropie¬ codierung weisen keine Abhängigkeiten zwischen unterschiedli- chen Slices auf. Somit werden die Wahrscheinlichkeitsmodelle bzw. Kontexte nicht über Slices hinweg angepasst. Dies führt zu einer schlechteren Kompressionseffizienz. Aus dem Stand der Technik ist ferner die Unterteilung von Videobildern in sog. Entropy-Slices bekannt (siehe Druckschrift [2]) . Im Unterschied zu den oben beschriebenen herkömmlichen Slices erlauben Entropy-Slices Abhängigkeit zwischen den Sym¬ bolen, wie z.B. Intraprädiktion . Nur die Erzeugung der Code- Wörter basierend auf der Entropiecodierung ist zwischen den einzelnen Entropy-Slices unabhängig. Durch die Verwendung von Entropy-Slices wird die Kompressionseffizienz im Vergleich zu herkömmlichen Slices erhöht. Nichtsdestotrotz besteht weiterhin der Nachteil, dass unterschiedliche Statistiken für die Symbole unterschiedlicher Entropy-Slices verwendet werden, was die Effizienz der Entropiecodierung wiederum vermindert.
In dem Dokument [1] ist das Konzept von sog. geordneten
Entropy-Slices beschrieben, welche die Eigenschaften der oben beschriebenen Entropy-Slices verbessern. Es wird dabei die
Bildung eines Kontextes für die Entropiecodierung über Entropy-Slices hinweg erlaubt. Es werden somit die statistischen Abhängigkeiten zwischen Entropy-Slices berücksichtigt und hierdurch die Codiereffizienz verbessert. Darüber hinaus wer- den die einzelnen Makroblocks im Bild bei der Codierung nicht Zeile für Zeile eingelesen, sondern zickzack-förmig . Dies wird in Fig. 1A bis IC verdeutlich. Diese Figuren zeigen verschiedene Varianten des Einlesens von Makroblöcken gemäß Druckschrift [1], wobei die einzelnen Makroblöcke als aufein- ander folgende Rechtecke wiedergegeben sind und aus Über¬ sichtlichkeitsgründen nur zum Teil mit Bezugszeichen MB bezeichnet sind. Fig. 1A zeigt ein zeilenweises Einlesen von Makroblöcken, wie durch die vertikale Linie LI angedeutet ist. Bei der Berücksichtigung von Kontext, bei dem für die Codierung eines Makroblocks der linke, der obere linke, der obere und der obere rechte benachbarte Makroblock verfügbar sein müssen, besteht bei dieser Variante das Problem, dass nicht mehrere Zeilen von Makroblocks parallel verarbeitet werden können. Im Unterschied hierzu wird bei der zickzack- förmigen Verarbeitung von Makroblocks basierend auf der Linie L2 gemäß Fig. 1B eine parallele Verarbeitung von jeweils zwei Zeilen ermöglicht, denn die Codierung des ersten Makroblocks des folgenden Entropy-Slices in der dritten Zeile kann be¬ reits beginnen, wenn der fünfte Makroblock des ersten Zeilenpaars eingelesen wurde. Fig. IC zeigt eine weitere Variante des zickzack-förmigen Einlesens von Makroblocks, wobei nun¬ mehr die Verarbeitung von drei Zeilen pro geordnetem Entropy- Slice gemäß der Linie L3 ermöglicht wird.
Eine weitere Variante von Entropy-Slices sind sog. Interlea¬ ved Entropy-Slices, welche in der Druckschrift [4] beschrie¬ ben sind. Dabei stellen die Slices keine zusammenhängenden Zeilen dar, sondern die Zeilen der einzelnen Slices sind ineinander verschachtelt. Dies wird nochmals in Fig. 2A und 2B verdeutlicht. Fig. 2A zeigt dabei eine Unterteilung eines Bilds I in zwei herkömmlichen Entropy-Slices SL1 und SL2, wo¬ bei die obere Hälfte des Bilds ein zusammenhängendes Slice SL1 mit Makroblocks MB1 bildet und der untere Bildteil SL2 ein zusammenhängendes Slice SL2 mit entsprechenden Makro¬ blocks MB2 (schraffiert dargestellt) bildet. Im Unterschied zu diesen herkömmlichen Slices ist in Fig. 2B ein Beispiel von Interleaved Entropy-Slices gezeigt. Dabei wird das jewei- lige Slice SL1' bzw. SL2' durch um eine Zeile zueinander versetzte Makroblockzeilen gebildet. Das Slice SL1' ist in Fig. 2B mit vollflächigen Makroblocks MB1' angedeutet und wird durch die erste, dritte, fünfte, usw. Zeile gebildet. Demge¬ genüber ist das Slice SL2' durch schraffierte Makroblocks MB2' angedeutet und durch die zweite, vierte, sechste, usw. Zeile gebildet. Interleaved Entropy-Slices ermöglichen eine Kontextbildung über Entropy-Slices hinweg. Es wird jedoch keine gemeinsame Statistik für die zur Entropiecodierung verwendeten Wahrscheinlichkeitsmodelle generiert.
Zur Verbesserung der Kompressionseffizienz in Videocodierverfahren ist ferner in Druckschrift [4] eine Syntax-Element- Partitionierung beschrieben. Dabei werden mehrere Codewörter für unterschiedliche Gruppen von Syntaxelementen, wie z.B. Mode-Informationen, Bewegungsvektoren, Transformationskoeffizienten, erzeugt. Da die einzelnen Gruppen unterschiedliche Kontexte haben, wird die Kontextbildung auch separat durchge- führt. Da die relativen Häufigkeiten der unterschiedlichen
Gruppen verschieden sind, ist die Rechenlast bei einer Codie¬ rung unter Verwendung von parallelen Codierzweigen für die einzelnen Codierzweige unausgeglichen. In dem Dokument [3] ist eine spezielle Variante einer arith¬ metischen Codierung beschrieben, bei der zwei Binärsymbole bei der Codierung parallel verarbeitet werden. Es können auf diese Weise vier Zustände statt zwei Zustände in einem Co¬ dierzyklus codiert werden. Jedoch ist die Kontextbildung bei dieser Art der Codierung komplex und es werden pro Codierzyklus mehr Operationen benötigt.
Aufgabe der Erfindung ist es, die Entropiecodierung von Symbolen in einer Folge digitalisierter Bilder derart zu verbes- sern, dass eine parallele Verarbeitung von mehreren Bildbereichen bei gleichzeitig hoher Codiereffizienz ermöglicht wird .
Diese Aufgabe wird durch das Codierverfahren gemäß Patentan- spruch 1 bzw. das Decodierverfahren gemäß Patentanspruch 14 bzw. die Codiervorrichtung gemäß Patentanspruch 16 bzw. die Decodiervorrichtung gemäß Patentanspruch 18 gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert .
In dem erfindungsgemäßen Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder sind die Bilder in Bildbereiche unterteilt und die Symbole eines jeweiligen Bildbereichs werden mittels einer Entropiecodierung codiert, wobei die Entropiecodierung auf einem oder mehreren Wahrscheinlichkeitsmodellen beruht. Der Ausdruck Bildbereich ist hier und im Folgenden weit auszulegen und kann Bildabschnitte beliebiger Form betreffen. In einer bevorzugten Variante stellt ein Bildbereich jedoch einen Bildblock, z.B. einen aus der Videocodierung bekannten Makroblock, dar. Diese Wahrscheinlichkeitsmodelle berücksichtigen dabei die Häufigkeiten von in Bildbereichen auftretenden Symbolen. Durch die Wahr- scheinlichkeitsmodelle werden somit über entsprechende Auf¬ tretenshäufigkeiten die Wahrscheinlichkeiten der entsprechenden Symbole modelliert, wobei mehrere Wahrscheinlichkeitsmo¬ delle dann zum Einsatz kommen, wenn verschiedene Typen von Symbolen mit unterschiedlichen Statistiken eingesetzt werden.
Erfindungsgemäß werden die Bildbereiche in Codierzyklen der¬ art verarbeitet, dass in einem Codierzyklus die Entropieco¬ dierung in mehreren parallelen Codierzweigen erfolgt. Unter parallelen Codierzweigen sind dabei Codierzweige zu verste- hen, welche gleichzeitig bzw. zeitlich überlappend Entropie¬ codierungen von Bildbereichen durchführen. Hierdurch wird eine schnelle Entropiecodierung durch die Verwendung von parallel arbeitenden Entropie-Encodern für jeden Codierzweig erreicht. Erfindungsgemäß wird dabei in einem jeweiligen Co- dierzweig ein Bildbereich basierend auf einem Satz von Wahrscheinlichkeitsmodellen codiert, wobei ein Satz von Wahrscheinlichkeitsmodellen ein oder mehrere Wahrscheinlichkeitsmodelle umfassen kann. Bei der Codierung eines Bildbereichs in einem jeweiligen Codierzweig werden dabei die Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen basierend auf den im Bildbereich auftretenden Symbolen adaptiert.
Das erfindungsgemäße Verfahren zeichnet sich dadurch aus, dass der in jedem Codierzweig zur Codierung verwendete Satz von Wahrscheinlichkeitsmodellen auf einem gemeinsamen, für alle Codierzweige gültigen Satz von Wahrscheinlichkeitsmodel¬ len basiert, wobei dieser gemeinsame Satz die Häufigkeiten von Symbolen in den Bildbereichen aller Codierzweige berücksichtigt. Dieser gemeinsame Satz von Wahrscheinlichkeitsmo- dellen wird dabei in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Codierzyklus adaptierten Häufigkeiten aktualisiert. Unter „zeitlich vorhergehender Codierzyklus" ist dabei ein Codier- zyklus zu verstehen, der (unmittelbar oder auch schon länger zurückliegend) vor der Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen durchlaufen wurde. Das erfindungsgemäße Verfahren weist den Vorteil auf, dass zum einen durch die Verwendung von parallelen Codierzweigen eine schnelle Codierung der Symbole erreicht wird und zum an¬ deren durch die Berücksichtigung der Statistik aller Codierzweige in einem gemeinsamen Satz von Wahrscheinlichkeitsmo- dellen eine hohe Codiereffizienz gewährleistet wird.
Die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen kann erfindungsgemäß auf verschiedene Art und Weise erfolgen. In einer Variante wird die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen zumindest zeitweise sequentiell derart durchgeführt, dass bei zeitlich aufeinander folgenden Aktualisierungen die adaptierten Häufigkeiten von unterschiedlichen Codierzweigen berücksichtigt werden. Alternativ oder zusätzlich kann die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen zumindest zeitweise auch zu vorgegebenen Synchronisationszeitpunkten erfolgen, an denen der gemeinsame Satz von Wahrscheinlichkeitsmodellen basierend auf den adaptierten Häufigkeiten von allen Codierzweigen zumindest eines vorhergehenden Co- dierzyklus aktualisiert wird.
Der gemeinsame Satz von Wahrscheinlichkeitsmodellen kann in einer Variante der Erfindung basierend auf in dem unmittelbar zeitlich vorhergehenden Codierzyklus adaptierten Häufigkeiten aktualisiert werden. Zur Vermeidung, dass sich die Codierzweige gegenseitig blockieren, besteht ferner die Möglich¬ keit, dass die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen basierend auf in einem nicht unmittelbar zeitlich vorhergehenden Codierzyklus adaptierten Häufigkeiten erfolgt. Auf diese Weise wird die Aktualisierung um einen oder mehrere Codierzyklen verzögert. In einer weiteren Variante des erfindungsgemäßen Verfahrens werden nach der Codierung eines Bildbereichs in einem jeweiligen Codierzweig die adaptierten Häufigkeiten in einem intermediären, dem jeweiligen Codierzweig zugeordneten Satz von Wahrscheinlichkeitsmodellen zwischengespeichert, wobei bis zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen ein oder mehrere zwischengespeicherte interme¬ diäre Sätze von Wahrscheinlichkeitsmodellen in Kombination mit dem gemeinsamen Satz von Wahrscheinlichkeitsmodellen zur Entropiecodierung im jeweiligen Codierzweig eingesetzt werden. Durch die temporäre Zwischenspeicherung der adaptierten Häufigkeiten können verschiedene Varianten der erfindungsgemäßen Codierung in einfacher Weise realisiert werden. In dem erfindungsgemäßen Verfahren kann die Entropiecodierung eines jeweiligen Bildbereichs basierend auf beliebigen, aus dem Stand der Technik bekannten Entropiecodierverfahren erfolgen. Insbesondere kann die bereits eingangs erwähnte VLC- Codierung und/oder eine arithmetische Codierung eingesetzt werden. Beispielsweise kann die aus dem Videocodierstandard H.264/AVC bekannte CAVLC-Codierung (CAVLC = Context-based Adaptive Variable Length Coding) bzw. CABAC-Codierung (CABAC = Context-based Adaptive Binary Arithmetic Coding) verwendet werden .
Die Anordnung der Bildbereiche in Codierzweige kann in dem erfindungsgemäßen Verfahren auf verschiedene Art und Weise erfolgen. Insbesondere können die Codierzweige derart ausges¬ taltet sein, dass ein Codierzyklus durch Bildbereiche gebil- det wird, welche gemäß einem zeilen- oder spaltenweisen Verlauf der Bildbereiche in den Bildern aufeinander folgen.
Ebenso ist es möglich, dass die Codierzweige derart ausges¬ taltet sind, dass ein Codierzyklus durch Bildbereiche gebil¬ det wird, welche gemäß einem zickzack-förmigen Verlauf der Bildbereiche in den Bildern aufeinander folgen. Durch die zuletzt genannte Variante kann insbesondere auch eine Codierung unter Berücksichtigung des Kontexts von benachbarten Bildbereichen erreicht werden. Das erfindungsgemäße Verfahren kann in geeigneter Weise auch mit bekannten Codiervarianten kombiniert werden, bei denen die Bilder in Bildabschnitte unterteilt werden, welche sepa- rat entropiecodiert werden. Die Bildabschnitte können dabei zumindest zeitweise ohne Berücksichtigung von Abhängigkeiten zwischen den Bildabschnitten und/oder zumindest zeitweise unter Berücksichtigung von Abhängigkeiten zwischen den Bildabschnitten codiert werden. Eine Ausführungsform einer Codie- rung ohne Berücksichtigung von Abhängigkeiten stellt die eingangs erwähnte Partitionierung basierend auf Slices dar. Eine Variante einer Codierung unter Berücksichtigung von Abhängigkeiten stellt die eingangs erwähnte Partitionierung von Bildern basierend auf Entropy-Slices dar.
Das erfindungsgemäße Verfahren zur Entropiecodierung kann mit beliebigen, aus dem Stand der Technik bekannten Videocodierverfahren kombiniert werden. Insbesondere können die Symbole aus der Folge digitalisierter Bilder basierend auf dem Stan- dard H.264 generiert werden. Vorzugsweise werden die Symbole aus der Folge digitalisierter Bilder durch eine hinlänglich aus dem Stand der Technik bekannte Transformation, beispielsweise eine DCT-Transformation, und eine ebenfalls aus dem Stand der Technik bekannte Quantisierung von Bildbereichen erzeugt.
Neben dem oben beschriebenen Codierverfahren umfasst die Erfindung ferner ein Decodierverfahren, mit dem die erfindungsgemäß codierten Symbole aus einer Folge digitalisierter Bil- der decodiert werden. Dabei werden analog zum Codierverfahren die codierten Bildbereiche in Decodierzyklen derart verarbei¬ tet, dass in einem Decodierzyklus eine Entropiedecodierung in mehreren parallelen Decodierzweigen erfolgt, wobei in einem jeweiligen Decodierzweig ein codierter Bildbereich basierend auf einem Satz von Wahrscheinlichkeitsmodellen decodiert wird, wobei die Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Decodierung des codierten Bildbereichs basierend auf den im decodierten Bildbereich auftretenden Symbolen adaptiert werden.
Der in jedem Decodierzweig zur Decodierung verwendete Satz von Wahrscheinlichkeitsmodellen basiert dabei auf einem gemeinsamen, für alle Decodierzweige gültigen Satz von Wahrscheinlichkeitsmodellen, welcher die Häufigkeiten von Symbolen in den decodierten Bildbereichen aller Decodierzweige berücksichtigt. Der gemeinsame Satz von Wahrscheinlichkeitsmo- dellen wird in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Decodierzyklus adaptierten Häufigkeiten aktualisiert.
Die Erfindung betrifft darüber hinaus ein Verfahren zur Co- dierung und Decodierung einer Folge digitalisierter Bilder, wobei Symbole aus der Folge digitalisierter Bilder mit dem oben beschriebenen Codierverfahren codiert werden und anschließend, beispielsweise nach einer Übertragung über eine Übertragungsstrecke, mit dem oben beschriebenen erfindungsge- mäßen Decodierverfahren decodiert werden.
Die Erfindung betrifft darüber hinaus eine Vorrichtung zur Codierung von Symbolen aus einer Folge digitalisierter Bilder, wobei die Bilder in Bildbereiche unterteilt sind und die Symbole eines jeweiligen Bildbereichs durch die Vorrichtung mittels einer Entropiecodierung codierbar sind, welche auf einem oder mehreren Wahrscheinlichkeitsmodellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in Bildbereichen auftretenden Symbolen berücksichtigen, wobei die Vorrichtung eine Verarbeitungseinheit umfasst, welche be¬ inhaltet :
ein Mittel zur Einteilung der Bildbereiche in Codierzyklen derart, dass in einem Codierzyklus die Entropieco¬ dierung in mehreren parallelen Codierzweigen erfolgt; - eine Mehrzahl von Codiermitteln, wobei jedes Codiermit¬ tel zur Entropiecodierung eines jeweiligen Codierzweigs derart dient, dass in einem jeweiligen Codierzweig ein Bildbereich basierend auf einem Satz von Wahrscheinlich- keitsmodellen codiert wird, wobei jedes Codiermittel um¬ fasst :
ein Adaptionsmittel zur Adaption der Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Codierung des Bildbereichs basierend auf den im
Bildbereich auftretenden Symbolen,
ein Mittel zum Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells derart, dass der in dem je¬ weiligen Codierzweig zur Codierung verwendete Satz von Wahrscheinlichkeitsmodellen auf dem gemeinsamen, für alle Codierzweige gültigen Satz von Wahrscheinlichkeitsmodellen basiert, welcher die Häufigkeiten von Symbolen in den Bildbereichen aller Codierzweige berücksichtigt;
- ein Mittel zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Codierzyklus adaptierten Häufigkeiten. Die erfindungsgemäße Codiervorrichtung eignet sich somit zur Codierung der Symbole aus einer Folge digitalisierter Bilder basierend auf dem erfindungsgemäßen Verfahren, wobei insbesondere eine oder mehrere der oben beschriebenen Ausführungs¬ formen des erfindungsgemäßen Verfahrens mit entsprechenden weiteren Mitteln der Codiervorrichtung realisiert werden können .
Neben der Codiervorrichtung umfasst die Erfindung ferner eine entsprechende Decodiervorrichtung zur Decodierung von codier- ten Symbolen aus einer Folge digitalisierter Bilder, wobei die Bilder in Bildbereiche unterteilt sind und die Symbole eines jeweiligen Bildbereichs mittels einer Entropiecodierung basierend auf dem erfindungsgemäßen Codierverfahren codiert wurden, wobei die Entropiedecodierung auf einem oder mehreren Wahrscheinlichkeitsmodellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in decodierten Bildbereichen auftretenden Symbolen berücksichtigen. Die Vor- richtung umfasst dabei eine Verarbeitungseinheit, welche be¬ inhaltet :
ein Mittel zur Einteilung der codierten Bildbereiche in Decodierzyklen derart, dass in einem Decodierzyklus eine Entropiedecodierung in mehreren parallelen Decodierzwei- gen erfolgt;
eine Mehrzahl von Decodiermitteln, wobei jedes Decodier- mittel zur Entropiedecodierung eines jeweiligen Deco- dierzweigs derart dient, dass in dem jeweiligen Deco- dierzweig ein codierter Bildbereich basierend auf einem
Satz von Wahrscheinlichkeitsmodellen decodiert wird, wobei jedes Decodiermittel umfasst:
ein Adaptionsmittel zur Adaption der Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Decodierung des codierten Bildbereichs basie¬ rend auf den im decodierten Bildbereich auftretenden Symbolen,
ein Mittel zum Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells derart, dass der in dem je- weiligen Decodierzweig zur Decodierung verwendete
Satz von Wahrscheinlichkeitsmodellen auf dem gemeinsamen, für alle Decodierzweige gültigen Satz von Wahrscheinlichkeitsmodellen basiert, welcher die Häufigkeiten von Symbolen in den decodierten Bildbereichen aller Decodierzweige berücksichtigt; ein Mittel zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen in vorbestimmen zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Decodierzyklus adaptierten Häufigkeiten.
Die Erfindung umfasst neben der oben beschriebenen Codiervorrichtung und der oben beschriebenen Decodiervorrichtung auch einen Codec bzw. ein System zur Codierung und Decodierung von Symbolen aus einer Folge digitalisierter Bilder, wobei der Codec sowohl die erfindungsgemäße Codiervorrichtung als auch die erfindungsgemäße Decodiervorrichtung beinhaltet. Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.
Es zeigen:
Fig. 1A bis IC sowie
Fig. 2A und 2B verschiedene, aus dem Stand der
Technik bekannte Codiertechniken; eine Prinzipdarstellung eines Verfahrens zur Videocodierung und Vi- deodecodierung, in dem die erfindungsgemäße Entropiecodierung bzw. Entropiedecodierung eingesetzt wer den kann;
Fig. 4A und 4B zwei Varianten der parallelen Verarbeitung von Makroblöcken basierend auf dem erfindungsgemäßen Verfahren;
Fig. 5 bis Fig, verschiedene Varianten des erfin¬ dungsgemäßen Codierverfahrens mit unterschiedlichen Aktualisierungen des gemeinsamen Wahrscheinlichkeits¬ modells;
Fig. 9 eine Decodierung von Symbolen, welche mit der Variante des Verfahrens gemäß Fig. 5 codiert wurden; und
Fig. 10 eine schematische Darstellung einer
Ausführungsform eines erfindungsge¬ mäßen Codier- und Decodiersystems .
Die Varianten von aus dem Stand der Technik bekannten Codie rungen gemäß Fig. 1A bis IC sowie Fig. 2A und 2B wurden bereits weiter oben erläutert, so dass auf eine nochmalige Be Schreibung dieser Figuren verzichtet wird. Die nachfolgend beschriebenen Ausführungsformen des erfindungsgemäßen Entropiecodier- bzw. Entropiedecodier-Verfahrens zeichnen sich dadurch aus, dass parallel mehrere Bildbereiche in unterschiedlichen Codierzweigen verarbeitet werden, wobei die einzelnen Codierzweige jedoch auf ein gemeinsames Wahr¬ scheinlichkeitsmodell zugreifen, welches die Häufigkeitsver¬ teilungen der Symbole aller Codierzweige berücksichtigt. Die¬ ses Wahrscheinlichkeitsmodell wird in regelmäßigen Abständen basierend auf den sich verändernden Häufigkeiten von zu codierenden bzw. decodierten Symbolen aktualisiert. Die Symbole werden dabei im Rahmen eines Videocodierverfahrens erzeugt, wobei ein solches Verfahren schematisch in Fig. 3 dargestellt ist .
Der linke Teil der Fig. 3 zeigt einen entsprechenden Codierer COD und der rechte Teil der Fig. 3 den zur Decodierung verwendeten Decoder DEC. Gemäß Fig. 3 wird ein Videostrom aus digitalisierten Bildern I einer Codierung unterzogen, bei der ein Prädiktionsfehlersignal , welches sich aus der Differenz zwischen Eingangssignal I und bewegungskompensierter Rekonstruktion des vorherigen Bilds ergibt, komprimiert wird. Der Prädiktionsfehler, der in Fig. 3 im Addierer A als Differenz aus eingelesenem Bild und prädiziertem Bild ermittelt wurde, wird einer Transformation T, insbesondere einer DCT-Transfor- mation (DCT = Discrete Cosine Transformation), unterzogen. Die hierdurch erhaltenen Transformationskoeffizienten werden anschließend in geeigneter Weise in dem Quantisierer Q quan- tisiert. Auf diese Weise werden für entsprechende Bildberei- che in der Form von Makroblocks jeweilige Symbole S erhalten, welche codierte Bildinformationen aus dem Bildbereich repräsentieren, insbesondere in der Form von Transformationskoef¬ fizienten und zur Prädiktion verwendeter Bewegungsvektoren sowie weiterer Codierparameter. Die im Rahmen der Codierung ermittelten Bewegungsvektoren sind dabei mit MV bezeichnet, und diese Bewegungsvektoren werden auch bei der Decodierung benötigt, wie durch eine vertikal verlaufende, gestrichelte Linie in Fig. 3 angedeutet ist. Um die Codiereffizienz weiter zu erhöhen, werden die Symbole S nochmals in einem Entropie- codierer EC verlustlos entropiecodiert, wobei erfindungsgemäß eine spezielle Variante der Entropiecodierung verwendet wird. Wie sich aus Fig. 2 ergibt, werden die quantisierten Symbole S im Rahmen der Codierung auch einer inversen Quantisierung IQ und einer inversen Transformation IT unterzogen. Das hierdurch generierte Signal gelangt schließlich in einen Bild¬ speicher SP, dessen Ausgang einmal über den Addierer A' auf den Eingang rückgekoppelt ist, wobei der Ausgang ferner nega¬ tiv auf den Eingang der Transformation T über den Addierer A gelangt. Der Bildspeicher SP steuert dabei einen Bewegungs¬ schätzer ME, der seinerseits eingangsseitig mit den Videoein¬ gangsdaten beaufschlagt wird und die bereits oben erwähnten Bewegungsvektoren MV zur Ansteuerung des Bildspeichers SP im Codierer COD bereitstellt. Wie bereits erläutert, werden die¬ se Bewegungsvektoren auch an den Decoder DEC übertragen, wobei die Bewegungsvektoren hierfür auch entropiecodiert werden, was aus Fig. 1 nicht ersichtlich ist. Die durch den Entropiecodierer erzeugten Codewörter S' werden schließlich an den Decoder DEC übertragen und dort zunächst einer geeigneten erfindungsgemäßen Entropiedecodierung unterzogen. Hierdurch werden die encoderseitig generierten Symbole S wieder rekonstruiert, welche anschließend einer inversen Quantisie- rung IQ und einer inversen Transformation IT unterzogen werden. Die so ermittelten decodierten Videodaten werden anschließend mit den Daten eines entsprechenden Bildspeichers SP auf Seiten des Decoders DEC addiert und stellen den Aus¬ gang des Decoders dar. Dieses Summensignal wird außerdem dem decoderseitigen Bildspeicher SP zugeführt, dessen Ausgang auf den Eingang des Addierers A' ' zurückgeführt ist.
Im Folgenden werden Ausführungsformen der erfindungsgemäßen Entropiecodierung und Entropiedecodierung basierend auf den Symbolen jeweiliger Makroblocks in entsprechenden Videobildern beschrieben. In den hier dargelegten Varianten werden drei Codierzweige in einem entsprechenden Codierzyklus co¬ diert, wobei in jedem Codierzweig eines Codierzyklus ein Mak- roblock entropiecodiert wird. Die einzelnen Codierzweige stellen somit verschiedene Gruppen von Makroblocks dar, wel¬ che je nach Ausführungsform verschiedene Bestandteile des Bilds sind.
Fig. 4A zeigt eine erste Variante einer Gruppierung von Makroblocks MB in drei Codierzweige. Die Makroblocks des ersten Codierzweigs werden dabei mit Bezugszeichen 1, die Makro¬ blocks des zweiten Codierzweigs mit Bezugszeichen 2 und die Makroblocks des dritten Codierzweigs mit Bezugszeichen 3 spe¬ zifiziert. Diese Bezugszeichen werden auch zur Bezeichnung der entsprechenden Codierzweige verwendet. Ein Codierzyklus CC wird in der Ausführungsform der Fig. 4A durch drei aufeinander folgende Makroblocks 1, 2 und 3 gebildet. Das Bild wird zur Codierung somit Zeile für Zeile eingelesen, wie durch die Linie L in Fig. 4A angedeutet ist. Die Gruppierung gemäß Fig. 4A eignet sich dabei zu einer Entropiecodierung, bei der keine Information von benachbarten Makroblocks zur Modellierung des Kontexts verwendet wird.
Im Unterschied hierzu zeigt Fig. 4B eine weitere Variante der Ausbildung von Codierzweigen, bei der eine Kontextmodellierung basierend auf Informationen von benachbarten Makroblocks ermöglicht wird. Die Codierzweige werden dabei durch jeweili- ge benachbarte Zeilen des Bilds I gebildet, wobei in Fig. 4B die erste Zeile den ersten Codierzweig 1, die zweite Zeile den zweiten Codierzweig 2 und die dritte Zeile den dritten Codierzweig 3 bildet. Die Verarbeitung der einzelnen Codierzweige erfolgt überlappend, wobei die Codierung in einem Co- dierzweig zum Codierzweig der nächsten Zeile um zwei Makro¬ blocks zeitversetzt ist, was durch die Linie L' angedeutet wird. Fig. 4B zeigt dabei ein Szenario, bei dem einige Makro¬ blocks schon codiert sind, wobei diese Makroblocks durch ent¬ sprechende Bezugszeichen in Klammern angedeutet sind. Die Co- dierung erfolgt wiederum in parallelen Codierzweigen, wobei in einem Codierzyklus nunmehr um zwei Makroblocks zueinander versetzte Makroblocks aus jeweiligen Codierzweigen verarbei¬ tet werden. Die aufeinander folgenden Codierzweige werden so- mit gemäß einem zickzack-förmigen Verlauf der Makroblocks im Bild gebildet. Ein der Fig. 4A entsprechender Codierzyklus CC wird in Fig. 4B z.B. durch den fünften Makroblock 1 in der ersten Zeile des Bilds I, den dritten Markoblock 2 in der zweiten Zeile des Bilds I sowie den ersten Makroblock 3 in der dritten Zeile des Bilds I gebildet.
Wie bereits erwähnt, kann mit der in Fig. 4B gezeigten Aus¬ führungsform eine Modellierung eines Kontexts basierend auf benachbarten Makroblocks erreicht werden. Nichtsdestotrotz kann diese Ausführungsform auch bei einem Verfahren zur Codierung ohne Kontextmodellierung verwendet werden. Neben den in Fig. 4A und 4B gezeigten Gruppierungen von Makroblocks in parallel verarbeiteten Codierzweigen sind auch gegebenenfalls andere Gruppierungen denkbar. Entscheidend ist im Rahmen der Erfindung lediglich, dass alle Codierzweige bei der Durchführung der Entropiecodierung auf einen gemeinsamen Satz von Wahrscheinlichkeitsmodellen zugreifen, wie im Folgenden noch näher erläutert wird.
Fig. 5 bis Fig. 8 zeigen verschiedene Varianten der erfindungsgemäßen Entropiecodierung mit unterschiedlichen Arten der Aktualisierung eines gemeinsamen Satzes von Wahrscheinlichkeitsmodellen. Ohne Beschränkung der Allgemeinheit sind dabei die einzelnen Codierzweige basierend auf der zeilenwei¬ sen Verarbeitung von Makroblocks gemäß Fig. 4A gebildet. Im Rahmen der Entropiecodierung eines Makroblocks werden dabei die Häufigkeiten der Symbole basierend auf einem Satz von Wahrscheinlichkeitsmodellen berücksichtigt, wobei ein Satz ein oder mehrere Wahrscheinlichkeitsmodelle enthalten kann. Jedes Wahrscheinlichkeitsmodell berücksichtigt dabei einen Kontext (d.h. einen entsprechenden Typ von Symbolen und/oder Codierentscheidungen schon codierter Blöcke) . Beispielsweise können unterschiedliche Wahrscheinlichkeitsmodelle für unter- schiedlich zu codierende Informationen, wie z.B. für Transformationskoeffizienten, Bewegungsvektoren sowie Codiermodus- Informationen, eingesetzt werden. -
Die Entropiecodierung eines Makroblocks in einem einzelnen Codierzweig wird basierend auf einem gängigen Entropiecodierverfahren durchgeführt, beispielsweise basierend auf der ein¬ gangs erwähnten VLC-Codierung bzw. einer arithmetischen Co- dierung. Insbesondere können die aus dem Stand der Technik bekannten Codierverfahren CABAC bzw. CAVLC eingesetzt werden. Die Entropiecodierung in einem einzelnen Codierzweig läuft somit basierend auf bekannten Verfahren ab, jedoch wird bei dieser Entropiecodierung in geeigneter Weise ein gemeinsamer Satz von Wahrscheinlichkeitsmodellen verwendet, bei dem die Häufigkeiten der Symbole von allen parallelen Codierzweigen berücksichtigt werden.
In allen nachfolgend beschriebenen Figuren 5 bis 8 wird durch entsprechende Pfeile angedeutet, auf welchen Satz von Wahr¬ scheinlichkeitsmodellen ein gerade codierter Makroblock zurückgreift. Dabei wird im Rahmen der Entropiecodierung der einzelnen Makroblocks der jeweilige, zur Entropiecodierung verwendete Satz von Wahrscheinlichkeitsmodellen adaptiert und in einem intermediären Satz von Wahrscheinlichkeitsmodellen gespeichert, wobei die intermediären Sätze von Wahrscheinlichkeitsmodellen im Laufe des Verfahrens nach einer Aktualisierung des bereits oben erwähnten gemeinsamen Satzes an Wahrscheinlichkeitsmodellen wieder verworfen werden. Im Folgenden werden die intermediären Sätze von Wahrscheinlichkeitsmodellen als Schattensätze bezeichnet.
Fig. 5 zeigt eine Variante der erfindungsgemäßen Entropieco¬ dierung, bei der der gemeinsame Satz von Wahrscheinlichkeits- modellen sequentiell durch die adaptierten Häufigkeiten der einzelnen Codierzweige angepasst wird. Der Ursprung eines Pfeils zeigt dabei in Fig. 5 und auch in allen weiteren Fig. 6 bis 9 an, auf welchen Satz von Wahrscheinlichkeitsmodellen für denjenigen (gerade codierten) Makroblock zugegriffen wird, an dem sich die Spitze des entsprechenden Pfeils befindet. In der Ausführungsform der Fig. 5 werden zunächst die Symbole für den Makroblock von jedem der Codierzweige 1 bis 3 im Codierzyklus CC1 codiert. Es werden dabei unabhängige adaptive Entropiecodierer für jeden der Zweige verwendet. Da es sich in jedem Codierzweig im den ersten codierten Makro- block handelt, werden bei der Codierung die gleichen initialen Standardstatistiken (d.h. Wahrscheinlichkeitsmodelle) für alle Codierzweige verwendet. Im Rahmen der Codierung jedes Codierzweigs wird der ursprüngliche Satz von Wahrscheinlich¬ keitsmodellen basierend auf den entsprechenden Häufigkeiten der Symbole in jedem Codierzweig angepasst, so dass für jeden Codierzweig ein erster Schattensatz von Wahrscheinlichkeits- modellen generiert wird. Diese Schattensätze von Wahrschein¬ lichkeitsmodellen müssen dabei nur die modifizierten Wahrscheinlichkeitsmodelle der entsprechenden Symboltypen enthal¬ ten. Nicht-modifizierte Wahrscheinlichkeitsmodelle müssen nicht gespeichert werden. Die ursprüngliche Standard- Statistik stellt die erste Version eines gemeinsamen Satzes von Wahrscheinlichkeitsmodellen dar, welche im Laufe der Codierung dann aktualisiert wird.
In der Ausführungsform der Fig. 5 erfolgt nach der Codierung des Makroblocks 1 im ersten Codierzyklus CC1 bereits die Co¬ dierung des Makroblocks 1 im nachfolgenden Codierzyklus CC2, ohne dass auf die Beendigung der Codierung der Makroblocks 2 und 3 im Codierzyklus CC1 gewartet werden muss. Dabei wird im Rahmen der Codierung des Makroblocks 1 im zweiten Codierzyk- lus CC2 ein zweiter Schattensatz von Wahrscheinlichkeitsmodellen generiert, welcher die Änderung gegenüber dem ersten Schattensatz von Wahrscheinlichkeitsmodellen speichert. Die Codierentscheidungen werden basierend auf dem ursprünglichen gemeinsamen Satz von Wahrscheinlichkeitsmodellen sowie dem ersten und zweiten Schattensatz von Wahrscheinlichkeitsmodel¬ len getroffen.
Nach Abschluss der Codierung der Makroblocks 2 und 3 im ers¬ ten Codierzyklus CC1 wird der gemeinsame Satz von Wahrschein- lichkeitsmodellen mit dem ersten Schattensatz von Wahrscheinlichkeitsmodellen aktualisiert, der bei der Codierung des Makroblocks 1 im Codierzyklus CC1 generiert wurde. Dieser erste Schattensatz von Wahrscheinlichkeitsmodellen kann dann verworfen werden. Schließlich erfolgt die Codierung des Mak- roblocks 2 im zweiten Codierzyklus CC2, wobei nunmehr auf den aktualisierten gemeinsamen Satz von Wahrscheinlichkeitsmodellen zurückgegriffen wird. Dabei wird bei der Codierung des Makroblocks wiederum ein zuvor erzeugter erster Schattensatz von Wahrscheinlichkeitsmodellen berücksichtigt, der bei der Codierung des entsprechenden Makroblocks 2 im ersten Codierzyklus CC1 generiert wurde. Analog zu dem Makroblock 1 im zweiten Codierzweig CC2 wird bei der Codierung des Makro- blocks 2 im zweiten Codierzyklus CC2 nunmehr ein weiterer zweiter Schattensatz von Wahrscheinlichkeitsmodellen generiert, wobei die Codierung des Makroblocks 2 im Codierzyklus CC2 auf dem aktualisierten gemeinsamen Satz von Wahrscheinlichkeitsmodellen sowie dem ersten und zweiten Schattensatz von Wahrscheinlichkeitsmodellen beruht.
Sobald der Makroblock 1 im zweiten Codierzyklus CC2 codiert wurde, kann der gemeinsame Satz von Wahrscheinlichkeitsmodel¬ len mit dem ersten Schattensatz von Wahrscheinlichkeitsmodel- len aus der Codierung des Makroblocks 2 im ersten Codierzyklus CC1 aktualisiert werden. Analog wird nach der Codierung des Makroblocks 2 im zweiten Codierzyklus CC2 der gemeinsame Satz von Wahrscheinlichkeitsmodellen mit dem ersten Schattensatz von Wahrscheinlichkeitsmodellen aus der Codierung des Makroblocks 3 im ersten Codierzyklus CC1 aktualisiert. Das Verfahren wird auf diese Weise fortgesetzt, bis alle Makro¬ blocks codiert sind.
Wie sich aus der obigen Beschreibung des Ausführungsbeispiels der Fig. 5 ergibt, kann die Codierung des Makroblocks 2 im
Codierzweig CC2 erst dann beginnen, wenn der gemeinsame Satz von Wahrscheinlichkeitsmodellen mit dem ersten Schattensatz von Wahrscheinlichkeitsmodellen aus der Codierung des Makroblocks 1 im Codierzyklus CC1 aktualisiert wurde. Diese Aktua- lisierung kann jedoch erst dann durchgeführt werden, wenn der Makroblock 3 im ersten Codierzyklus CC1 fertig codiert wurde, da sonst im Codierzweig 3 mit falschen Statistiken operiert wird . In einer Weiterbildung des obigen Verfahrens werden deshalb neben den Schattensätze von Wahrscheinlichkeitsmodellen, welche für bestimmte Codierzweige spezifisch sind, auch temporä- re Sätze von Wahrscheinlichkeitsmodellen für den gemeinsamen Satz von Wahrscheinlichkeitsmodellen unter Berücksichtigung eines oder mehrerer, bereits codierter Schattensätze von Wahrscheinlichkeitsmodellen generiert. Auf diese Weise kann eine Codierung in einem Codierzweig eines neuen Codierzyklus basierend auf einem entsprechenden temporären Satz von Wahrscheinlichkeitsmodellen durchgeführt werden, auch wenn in einem Codierzweig des vorhergehenden Codierzyklus noch eine Co¬ dierung stattfindet. Sobald die Codierungen in den Codierzweigen des vorhergehenden Codierzyklus abgeschlossen sind und der gemeinsame Satz von Wahrscheinlichkeitsmodellen aktualisiert wurde, wird der entsprechende temporäre Satz von Wahrscheinlichkeitsmodellen nicht mehr benötigt. Die entsprechend generierten temporären Sätze von Wahrscheinlichkeitsmo¬ dellen müssen dabei nicht komplett generiert werden, sondern es ist ausreichend, nur diejenigen Wahrscheinlichkeitsmodelle zu berechnen, in denen sich die Häufigkeiten der Symbole verändert haben.
Die oben beschriebene Variante der sequentiellen Aktualisie- rung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen kann in geeigneter Weise auch als verzögerte Aktualisierung ausgebildet sein, bei der der gemeinsame Satz von Wahrscheinlichkeitsmodellen nicht mit entsprechenden Schattensätze von Wahrscheinlichkeitsmodellen des vorhergehenden Zyklus, son- dern eines noch weiter zurückliegenden Zyklus aktualisiert wird. Eine solche Variante der Erfindung ist in Fig. 6 ge¬ zeigt. Man erkennt hierbei, dass für den ersten und zweiten Codierzyklus CC1 und CC2 zunächst ein initialer Satz von Standard-Wahrscheinlichkeitsmodellen verwendet wird und erst ab dem dritten Codierzyklus eine entsprechende Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen mit im Laufe der Codierung erzeugter Schattensätze von Wahrscheinlichkeitsmodellen aus dem ersten Codierzyklus CC1 durchge- führt wird. Ebenso wird der gemeinsame Satz von Wahrschein¬ lichkeitsmodellen im vierten Codierzyklus CC4 mit Schattensätze von Wahrscheinlichkeitsmodellen aus dem zweiten Codierzyklus CC2 und der gemeinsame Satz von Wahrscheinlichkeitsmo- dellen im fünften Codierzyklus CC5 mit Schattensätze von
Wahrscheinlichkeitsmodellen aus dem dritten Codierzyklus CC3 aktualisiert. Der Vorteil der Variante der Fig. 6 besteht darin, dass sich im Regelfall die Codierzweige gegenseitig nicht blockieren. Ferner werden auch nur zwei Schattensätze von Wahrscheinlichkeitsmodellen benötigt, falls die Aktualisierung um einen Codierzyklus verzögert ist, wie dies in Fig. 6 angedeutet ist. Falls die Verzögerung mehr als einen Co¬ dierzyklus beträgt, werden zusätzliche Schattensätze von Wahrscheinlichkeitsmodellen benötigt. Je größer die Verzöge- rung der Aktualisierung ist, umso mehr kann eine Abweichung in der Geschwindigkeit der Codierzweige toleriert werden, oh¬ ne dass sich die Codierzweige gegenseitig blockieren. Auf¬ grund der verzögerten Aktualisierung der Statistiken ist jedoch die Codiereffizienz etwas verschlechtert.
Fig. 7 zeigt eine dritte Variante einer Aktualisierung des gemeinsamen Satzes an Wahrscheinlichkeitsmodellen. In dieser Variante wird nach Abschluss der einzelnen Codierungen in jedem Codierzyklus zu einem festen Synchronisationszeitpunkt der gemeinsame Satz von Wahrscheinlichkeitsmodellen mit allen, für jeden Codierzweig generierten Schattensätze von Wahrscheinlichkeitsmodellen aktualisiert. Auf diese Weise wird die Erzeugung von mehreren Schattensätze von Wahrscheinlichkeitsmodellen pro Codierzweig vermieden. Jedoch ist die Codiergeschwindigkeit eines Codierzyklus durch den langsams¬ ten Codierzweig bestimmt. Die Synchronisationszeitpunkte müs¬ sen dabei nicht nach Beendigung jedes Codierzyklus gesetzt werden. Vielmehr besteht auch die Möglichkeit, dass nach ei¬ ner vorbestimmten Anzahl von Codierzyklen eine Aktualisierung durchgeführt wird. Diese Variante hat den Vorteil, dass der gemeinsame Satz von Wahrscheinlichkeitsmodellen nicht mehr so oft aktualisiert werden muss und eine größere Abweichung in den Geschwindigkeiten der Codierzweige toleriert wird. Fig. 8 zeigt eine solche Variante der Aktualisierung von Codierzwei¬ gen, bei der die Aktualisierung immer erst nach zwei Codierzyklen erfolgt. Man erkennt in Fig. 8 insbesondere, dass für die Codierzyklen CC1 und CC2 jeweils der gleiche gemeinsame Satz von Wahrscheinlichkeitsmodellen verwendet wird, wobei eine Aktualisierung dieses gemeinsamen Satzes von Wahrscheinlichkeitsmodellen unter Berücksichtigung der Schattensätze des ersten Codierzyklus CC1 zu Beginn des Codierzyklus CC3 durchgeführt wurde.
Eine Decodierung der mit den im Vorangegangenen beschriebenen Verfahren codierten Symbole läuft analog zur Codierung ab. Das heißt, die Decodierung wird in parallelen Decodierzweigen durchgeführt, wobei der gemeinsame Satz von Wahrscheinlich- keitsmodellen wiederum basierend auf den Häufigkeiten der decodierten Symbole aktualisiert wird. Im Folgenden wird ein Decodierprozess beispielhaft basierend auf codierten Symbolen beschrieben, welche mit dem Codierprozess gemäß Fig. 5 er¬ zeugt wurden. Dieser Decodierprozess ist in Fig. 9 wiederge- geben, wobei wiederum durch entsprechende Pfeile angedeutet wird, auf welchem Satz von Wahrscheinlichkeitsmodellen ein gerade decodierter Makroblock zugreift. Die Decodierung erfolgt in entsprechenden Decodierzyklen DC1, DC2, DC3 usw., innerhalb welcher nunmehr parallel entsprechenden Decodier- zweige 1', 2 ' und 3' ausgeführt werden, mit denen die ent¬ sprechend codierten Makroblocks decodiert werden. Jeder der Decodierzweige 1', 2 ' und 3' wird somit in einem separaten Decodierprozess decodiert. Dabei werden zunächst die Makro¬ blocks im ersten Decodierzyklus DC1 mit dem geeigneten initi- alen Satz von Standard-Wahrscheinlichkeitsmodellen decodiert. Die sich bei der Decodierung ergebenden Aktualisierungen der Häufigkeiten der decodierten Symbole werden wiederum in individuellen Schattensätzen von Wahrscheinlichkeitsmodellen gespeichert .
Nach der Decodierung des Makroblocks 1' im ersten Decodierzyklus DC1 erfolgt die Decodierung des Markoblocks 1' im zweiten Decodierzyklus DC2 unter der Verwendung eines zweiten Schattensatzes von Wahrscheinlichkeitsmodellen. Wenn die Ent- ropiedecodierung für die Makroblocks 2 ' und 3' im ersten De- codierzyklus DC1 abgeschlossen ist, wird der gemeinsame Satz von Wahrscheinlichkeitsmodellen analog wie bei der Codierung mit dem ersten Schattensatz von Wahrscheinlichkeitsmodellen des Makroblocks 1' im Decodierzyklus DC1 aktualisiert.
Schließlich erfolgt die Decodierung des Markoblocks 2 ' des zweiten Codierzyklus DC2, wobei hierfür nunmehr der aktuali- sierte gemeinsame Satz von Wahrscheinlichkeitsmodellen verwendet wird. Alternativ kann die Entropiedecodierung des Makroblocks 2 ' im Decodierzyklus DC2 auch vor der Durchführung der Aktualisierung gestartet werden, falls ein temporärer Satz von Wahrscheinlichkeitsmodellen aus dem gemeinsamen Satz von Wahrscheinlichkeitsmodellen und dem ersten Schattensatz von Wahrscheinlichkeitsmodellen des Makroblocks 1' im Decodierzyklus DC1 generiert wird. Auf ähnliche Weise beginnt der Decodierzweig 3' die Decodierung, falls der gemeinsame Satz von Wahrscheinlichkeitsmodellen mit dem ersten Schattensatz von Wahrscheinlichkeitsmodellen des Makroblocks 2 ' im ersten Decodierzyklus DC1 aktualisiert wurde. Alternativ kann ein temporärer Satz von Wahrscheinlichkeitsmodellen zur Decodierung des Markoblocks 3' im zweiten Decodierzyklus DC2 verwen¬ det werden, falls die Decodierung der Makroblocks 1' und 2 ' im ersten Decodierzyklus DC1 abgeschlossen wurde. Die Codie¬ rung wird basierend auf den obigen Schritten für alle weite¬ ren Codierzyklen mit entsprechenden Aktualisierungen fortgesetzt, bis alle Makroblocks decodiert sind. Die Hauptparameter, welche bei der Umsetzung der oben beschriebenen Verfahren dem Decoder signalisiert werden müssen, sind zum einen die Anzahl N an parallelen Codierzweigen, wobei diese Anzahl in den Beispielen der Fig. 3 bzw. Fig. 8 N = 3 ist. Für den Fall N = 1 entspricht das Verfahren einer kon- ventionellen Entropiecodierung, wie sie beispielsweise im
Standard H.264/AVC verwendet wird. Als weiterer Parameter ist die Verzögerung D der Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen zu übertragen. Dieser Parame- ter ist D = 0 Codierzyklen in den Ausführungsformen der Fig. 5 und Fig. 7. Für die Ausführungsformen der Fig. 6 und Fig. 8 gilt D = 1. Ebenso ist als Parameter zu übermitteln, ob eine synchronisierte Aktualisierung zu vorbestimmten Synchronisa- tionszeitpunkten durchgeführt wird. In den Ausführungsformen der Fig. 7 und Fig. 8 wird eine synchronisierte Aktualisie¬ rung signalisiert, wohingegen in den Ausführungsformen der Fig. 5 und Fig. 6 signalisiert wird, dass keine synchroni¬ sierte Aktualisierung durchgeführt wird.
Die im Vorangegangenen beschriebenen Varianten des erfindungsgemäßen Verfahrens können mit geeigneten Methoden der Modellierung von Kontexten, wie den oben beschriebenen Entro- pie-Slices, den geordneten Entropie-Slices bzw. den Interlea- ved Entropy-Slices kombiniert werden. Ebenso kann das erfin¬ dungsgemäße Verfahren mit der oben beschriebenen Syntax- Element-Partitionierung bzw. der parallelen Verarbeitung von mehreren binären Symbolen gemäß Druckschriften [3] und [4] kombiniert werden.
In der Regel muss die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen dann durchgeführt werden, wenn die Entropiecodierung in den einzelnen Codierzweigen pausiert. Gegebenenfalls besteht jedoch auch die Möglichkeit, dass einzelne Wahrscheinlichkeitsmodelle in dem gemeinsamen
Satz von Wahrscheinlichkeitsmodellen in atomarer Weise aktualisiert werden. In diesem Fall können die einzelnen Codierzweige ihre Codierung ohne Unterbrechung fortsetzen. Eine Aktualisierung in atomarer Weise bedeutet dabei, dass bei der Aktualisierung eines Wahrscheinlichkeitsmodells ein Lese¬ zugriff auf dieses Modell durch die Codierzweige unterbunden wird und nach der Aktualisierung des Wahrscheinlichkeitsmo¬ dells das entsprechende Wahrscheinlichkeitsmodell aus dem Schattensatz der Wahrscheinlichkeitsmodelle der Codierzweige gelöscht wird.
Die im Vorangegangenen beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens wurden basierend auf der Codie- rung einzelner Makroblocks beschrieben. Das Verfahren ist jedoch auch auf beliebige andere Bildbereiche innerhalb einer zu codierenden Bilderfolge anwendbar und nicht auf Makroblö- cke beschränkt.
Das erfindungsgemäße Verfahren weist eine Reihe von Vorteilen auf. Insbesondere wird eine hohe Kompressionseffizienz er¬ reicht, da ein gemeinsamer, für alle Codierzweige gültiger Satz von Wahrscheinlichkeitsmodellen verwendet wird, welcher in regelmäßigen Abständen mit dem adaptierten Statistiken der Codierzweige aktualisiert wird. Somit ist die Statistik in dem gemeinsamen Satz von Wahrscheinlichkeitsmodellen besser an die tatsächlichen Wahrscheinlichkeiten angenähert, als wenn separate unabhängige Sätze von Wahrscheinlichkeitsmodel- len verwendet werden. Durch die parallele Codierung bzw. De- codierung mehrerer Codier- bzw. Decodierzweige wird ferner eine schnelle Codierung und Decodierung mit geringer Verzögerung erreicht. Darüber hinaus kann das erfindungsgemäße Ver¬ fahren auch in geeigneter Weise mit anderen parallelen Verar- beitungsverfahren zur kontextbasierten adaptiven Entropiecodierung kombiniert werden.
Fig. 10 zeigt in schematischer Darstellung eine konkrete Ausgestaltung eines Systems aus einer erfindungsgemäßen Codier- Vorrichtung und einer erfindungsgemäßen Decodiervorrichtung. Die Codiervorrichtung dient zur Entropiecodierung einer Folge von digitalisierten Bildern und ist analog zu Fig. 3 mit EC bezeichnet. Die Decodiervorrichtung dient zur Decodierung der mit der Vorrichtung EC entropiecodierten Folge digitalisier- ter Bilder und ist in Analogie zu Fig. 3 mit ED bezeichnet. Sowohl die Vorrichtung EC als auch die Vorrichtung ED beinhaltet eine Mehrzahl von Komponenten, welche als einzelne Hardwarekomponenten, beispielsweise als Hardwarekomponenten in einem Computer, ausgestaltet sein können. In gleicher Wei- se beinhaltet auch die Vorrichtung ED eine Mehrzahl von Komponenten, welche als einzelne Hardwarekomponenten, z.B. als Hardwarekomponenten in einem Computer, ausgestaltet sein können . Die Vorrichtung EC kann neben den in Fig. 10 dargestellten Komponenten gegebenenfalls als zusätzliche Komponenten die in Fig. 3 gezeigten Komponenten in der Form einer Transformati- onseinheit T, eines Quantisierers Q, eines inversen Quanti- sierers IQ, einer inversen Transformationseinheit IT, eines Bildspeichers SP, eines Bewegungsschätzers ME sowie entspre¬ chender Addierer A und A' enthalten. All diese Komponenten können wiederum als einzelne Hardwarekomponenten realisiert sein.
Die Vorrichtung EC beinhaltet in der Ausgestaltung der Fig. 10 ein Mittel 100 zur Einteilung der Bildbereiche der verarbeiteten Bilder in Codierzyklen. Dabei wird in einem Codier- zyklus die Entropiecodierung in mehreren parallelen Codierzweigen durchgeführt. Zur Durchführung der Codierung in dem jeweiligen Codierzweig enthält die Vorrichtung EC beispiel¬ haft drei Codiermittel 101, 102 und 103, wobei jedes Codier¬ mittel zur Codierung in dem jeweiligen Codierzweig vorgesehen ist. Sollten mit der Vorrichtung mehr als drei Codierzweige codierbar sein, ist eine entsprechend größere Anzahl an Co¬ diermitteln vorgesehen. Jedes Codiermittel führt eine Entro¬ piecodierung basierend auf einem Satz von Wahrscheinlichkeitsmodellen durch.
Das Codiermittel 101 enthält als Unterkomponenten ein Adapti¬ onsmittel 101a sowie ein Mittel 101b zum Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells. Analog enthalten die Codiermittel 102 und 103 auch entsprechende Adaptionsmittel 102a bzw. 103a und entsprechende Mittel 102b bzw. 103b zum
Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells. Das Adaptionsmittel in dem jeweiligen Codierzweig dient dabei zur Adaption der Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Codierung des Bildbereichs basierend auf den im Bildbereich auftretenden Symbolen. Das in jedem
Codierzweig vorgesehene Mittel zum Verarbeiten eines gemein¬ samen Wahrscheinlichkeitsmodells führt eine Verarbeitung der¬ art durch, dass der in dem jeweiligen Codierzweig zur Codie- rung verwendete Satz von Wahrscheinlichkeitsmodellen auf dem gemeinsamen, für alle Codierzweige gültigen Satz von Wahrscheinlichkeitsmodellen basiert, welcher die Häufigkeiten von Symbolen in den Bildbereichen aller Codierzweige berücksich- tigt. In der Vorrichtung EC ist ferner ein Mittel 104 zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeits¬ modellen in vorbestimmen zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Codierzyklus adaptierten Häufigkeiten vorgesehen.
Die Codiervorrichtung EC gemäß Fig. 10 liefert eine codierte Folge digitalisierter Bilder, welche über eine beliebige Übertragungsstrecke an die Decodiervorrichtung ED übertragen werden kann. Die Übertragung über die Übertragungsstrecke ist dabei in Fig. 10 durch den Pfeil P angedeutet. Die Decodier¬ vorrichtung ED empfängt den codierten Bildstrom und führt eine entsprechende Entropiedecodierung durch, wobei die Vorrichtung hierfür eine Mehrzahl von Komponenten aufweist. Im Besonderen umfasst die Vorrichtung ED ein Mittel zur Eintei- lung der codierten Bildbereiche der codierten Folge von digitalisierten Bildern in Decodierzyklen derart, dass in einem Decodierzyklus eine Entropiedecodierung in mehreren parallelen Decodierzweigen erfolgt. Für jeden Decodierzweig ist da¬ bei ein entsprechendes Decodiermittel 201 bzw. 202 bzw. 203 vorgesehen, wobei im Falle von mehr als drei Decodierzweigen entsprechende weitere Decodiermittel in der Vorrichtung ED integriert sind. Jedes Decodiermittel führt eine Entropiede¬ codierung basierend auf einem Satz von Wahrscheinlichkeitsmo¬ dellen durch.
Das Decodiermittel 201 umfasst ein Adaptionsmittel 201a zur Adaption der Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Decodierung des codierten Bildbereichs basierend auf den im decodierten Bildbereich auftretenden Symbolen. Darüber hinaus ist ein Mittel 201b zum Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells derart vorgese¬ hen, dass der in dem jeweiligen Decodierzweig zur Decodierung verwendete Satz von Wahrscheinlichkeitsmodellen auf dem ge- meinsamen, für alle Decodierzweige gültigen Satz von Wahrscheinlichkeitsmodellen basiert, welcher die Häufigkeiten von Symbolen in den decodierten Bildbereichen aller Decodierzweige berücksichtigt. Analog zu dem Decodiermittel 201 umfassen auch die Decodiermittel 202 bzw. 203 ein entsprechendes Adap¬ tionsmittel 202a bzw. 203a zur Adaption der Häufigkeiten und ein entsprechendes Mittel 202b bzw. 203b zum Verarbeiten ei¬ nes gemeinsamen Wahrscheinlichkeitsmodells. Die Decodiervor¬ richtung ED der Fig. 10 beinhaltet ferner als weitere Kompo- nente ein Mittel 204 zur Aktualisierung des gemeinsames Sat¬ zes von Wahrscheinlichkeitsmodellen in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Decodierzyklus adaptierten Häufigkeiten. Mit der Decodiervorrichtung ED wird eine decodierte Folge di¬ gitalisierter Bilder erhalten. Die Decodiervorrichtung kann dabei gegebenenfalls ferner die in Fig. 3 gezeigten zusätzlichen Komponenten in der Form eines inversen Quantisierers IQ und einer inversen Transformationseinheit IT sowie eines Speichers SP und eines Addierers A' ' enthalten. Diese zusätz¬ lichen Komponenten können dabei als einzelne Hardware- Komponenten, z.B. als Hardwarekomponenten eines Computers, ausgestaltet sein.
Literaturverzeichnis
[1] X. Guo, "Ordered Entropy Slices for Parallel CABAC",
ITU-T SG 16/Q.6, Doc. VCEG-AK25 , Yokohama, Japan, April 2009.
[2] A. Segall and J. Zhao, "Entropy slices for parallel en¬ tropy decoding," ITU-T SG 16/Q.6, Doc. COM16-C405, Ge¬ neva, Switzerland, April 2008.
[3] V. Sze and M. Budagavi, "Parallel CABAC," ITU-T SG
16/Q.6, Doc. COM16-C334, Geneva, Switzerland, April 2008.
[4] V. Sze, M. Budagavi, A. P. Chandrakasan, "Massively Parallel CABAC", ITU-T ITU-T SG 16/Q.6, Doc. VCEG-AL21 , London, UK / Geneva, Switzerland, July 2009.

Claims

Patentansprüche
1. Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder (I), wobei die Bilder (I) in Bildbereiche (MB) unterteilt sind und die Symbole (S) eines jeweiligen Bildbereichs (MB) mittels einer Entropiecodierung codiert werden, welche auf einem oder mehreren Wahrscheinlichkeitsmo¬ dellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in Bildbereichen (MB) auftretenden Sym- bolen (S) berücksichtigen, bei dem
die Bildbereiche (MB) in Codierzyklen (CC, CC1, CC2, CC5) derart verarbeitet werden, dass in einem Codierzyk¬ lus (CC, CC1, CC2, ... CC5) die Entropiecodierung in mehreren parallelen Codierzweigen (1, 2, 3) erfolgt, wobei in einem jeweiligen Codierzweig (1, 2, 3) ein Bildbereich
(MB) basierend auf einem Satz von Wahrscheinlichkeitsmo¬ dellen codiert wird, wobei die Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Codierung des Bildbereichs basierend auf den im Bildbereich (MB) auf- tretenden Symbolen (S) adaptiert werden;
der in jedem Codierzweig (1, 2, 3) zur Codierung verwendete Satz von Wahrscheinlichkeitsmodellen auf einem gemeinsamen, für alle Codierzweige (1, 2, 3) gültigen Satz von Wahrscheinlichkeitsmodellen basiert, welcher die Häu- figkeiten von Symbolen (S) in den Bildbereichen (MB) aller Codierzweige (1, 2, 3) berücksichtigt;
der gemeinsame Satz von Wahrscheinlichkeitsmodellen in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Codierzyklus (CC, CC1, CC2, CC5) adaptierten Häufigkeiten aktualisiert wird .
2. Verfahren nach Anspruch 1, bei dem die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen sequen- tiell derart erfolgt, dass bei zeitlich aufeinander folgenden Aktualisierungen die adaptierten Häufigkeiten von unterschiedlichen Codierzweigen (1, 2, 3) berücksichtigt werden.
3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen zu vorgegebenen Synchronisationszeitpunkten (Tl, T2, T3) erfolgt, an denen der gemeinsame Satz von Wahr- scheinlichkeitsmodellen basierend auf den adaptierten Häufigkeiten von allen Codierzweigen (1, 2, 3) zumindest eines vorhergehenden Codierzyklus (CC, CC1, CC2, CC5) aktualisiert wird .
4. Verfahren nach einem der vorhergehende Ansprüche, bei dem die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen zumindest zeitweise basierend auf in dem unmit¬ telbar zeitlich vorhergehenden Codierzyklus (CC, CC1, CC2, CC5) adaptierten Häufigkeiten erfolgt.
5. Verfahren nach einem der vorhergehende Ansprüche, bei dem die Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen zumindest zeitweise basierend auf in einem nicht unmittelbar zeitlich vorhergehenden Codierzyklus (CC, CC1, CC2, CC5) adaptierten Häufigkeiten erfolgt.
6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem nach der Codierung eines Bildbereichs (MB) in einem jeweiligen Codierzweig (1, 2, 3) die adaptierten Häufigkeiten in ei- nem intermediären, dem jeweiligen Codierzweig (1, 2, 3) zugeordneten Satz von Wahrscheinlichkeitsmodellen zwischengespeichert werden, wobei bis zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen ein oder mehrere zwischengespeicherte intermediäre Sätze von Wahrscheinlichkeits- modellen in Kombination mit dem gemeinsamen Satz von Wahrscheinlichkeitsmodellen zur Entropiecodierung im jeweiligen Codierzweig (1, 2, 3) eingesetzt werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Entropiecodierung eines jeweiligen Bildbereichs (MB) eine
VLC-Codierung und/oder eine arithmetische Codierung ist, insbesondere eine CAVLC- und/oder CABAC-Codierung .
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Codierzweige (1, 2, 3) derart ausgestaltet sind, dass ein Codierzyklus (CC, CC1, CC2, CC5) durch Bildbereiche (MB) gebildet wird, welche gemäß einem zeilen- oder spaltenweisen Verlauf der Bildbereiche (MB) in den Bildern (I) aufeinander folgen .
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Codierzweige (1, 2, 3) derart ausgestaltet sind, dass ein Codierzyklus (CC, CC1, CC2, CC5) durch Bildbereiche (MB) gebildet wird, welche gemäß einem zickzack-förmigen Verlauf der Bildbereiche (MB) in den Bildern (I) aufeinander folgen.
10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Bilder (I) in Bildabschnitte unterteilt werden, wel¬ che separat entropiecodiert werden.
11. Verfahren nach Anspruch 10, bei dem die Bildabschnitte zumindest zeitweise ohne Berücksichtigung von Abhängigkeiten zwischen den Bildabschnitten und/oder zumindest zeitweise unter Berücksichtigung von Abhängigkeiten zwischen den Bildabschnitten codiert werden.
12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Symbole (S) aus der Folge digitalisierter Bilder durch eine Transformation und Quantisierung von Bildbereichen (MB) generiert werden.
13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Symbole aus der Folge digitalisierter Bilder basierend auf dem Standard H.264 generiert werden.
14. Verfahren zur Decodierung von mit einem Verfahren nach einem der vorhergehenden Ansprüchen codierten Symbolen (S' ) aus einer Folge digitalisierter Bilder (I), wobei die Bilder (I) in Bildbereiche (MB) unterteilt sind und die Symbole (S) eines jeweiligen Bildbereichs (MB) mittels einer Entropieco¬ dierung nach einem der vorhergehenden Ansprüche codiert wur- den, wobei die Entropiecodierung auf einem oder mehreren Wahrscheinlichkeitsmodellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in Bildbereichen (MB) auftretenden Symbolen (S) berücksichtigen, bei dem
die codierten Bildbereiche (MB') in Decodierzyklen (DC1, DC2, DC3) derart verarbeitet werden, dass in einem Deco¬ dierzyklus (DC1, DC2, DC3) eine Entropiedecodierung in mehreren parallelen Decodierzweigen (1', 2', 3' ) erfolgt, wobei in einem jeweiligen Decodierzweig (1', 2', 3' ) ein codierter Bildbereich (MB' ) basierend auf einem Satz von Wahrscheinlichkeitsmodellen decodiert wird, wobei die Häufigkeiten für den Satz von Wahrscheinlichkeitsmodellen bei der Decodierung des codierten Bildbereichs (MB' ) basierend auf den im decodierten Bildbereich (MB' ) auftretenden Symbolen (S) adaptiert werden;
der in jedem Decodierzweig (1', 2', 3' ) zur Decodierung verwendete Satz von Wahrscheinlichkeitsmodellen auf einem gemeinsamen, für alle Decodierzweige gültigen Satz von Wahrscheinlichkeitsmodellen basiert, welcher die Häufigkeiten von Symbolen (S) in den decodierten Bildbereichen aller Decodierzweige (1', 2', 3' ) berücksichtigt;
der gemeinsame Satz von Wahrscheinlichkeitsmodellen in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Decodierzyklus (DC1, DC2, DC3) adaptierten Häufigkeiten aktualisiert wird .
15. Verfahren zur Codierung und Decodierung einer Folge digitalisierter Bilder, wobei
- Symbole (S) aus der Folge digitalisierter Bilder mit ei¬ nem Verfahren nach einem der Ansprüche 1 bis 13 codiert werden;
die codierte Symbole (S' ) mit einem Verfahren nach An¬ spruch 14 decodiert werden.
16. Vorrichtung zur Codierung von Symbolen aus einer Folge digitalisierter Bilder, wobei die Bilder (I) in Bildbereiche (MB) unterteilt sind und die Symbole (S) eines jeweiligen Bildbereichs (MB) durch die Vorrichtung mittels einer Entro¬ piecodierung codierbar sind, welche auf einem oder mehreren Wahrscheinlichkeitsmodellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in Bildbereichen (MB) auftretenden Symbolen (S) berücksichtigen, wobei die Vorrichtung eine Verarbeitungseinheit (EC) umfasst, welche beinhaltet :
ein Mittel (100) zur Einteilung der Bildbereiche (MB) in Codierzyklen (CC, CC1, CC2, CC5) derart, dass in einem Codierzyklus (CC, CC1, CC2, CC5) die Entropiecodierung in mehreren parallelen Codierzweigen (1, 2, 3) erfolgt; eine Mehrzahl von Codiermitteln, wobei jedes Codiermittel (101, 102, 103) zur Entropiecodierung eines jeweiligen Codierzweigs (1, 2, 3) derart dient, dass in dem jeweili- gen Codierzweig (1, 2, 3) ein Bildbereich (MB) basierend auf einem Satz von Wahrscheinlichkeitsmodellen codiert wird, wobei jedes Codiermittel (101, 102, 103) umfasst: ein Adaptionsmittel (101a, 102a, 103a) zur Adaption der Häufigkeiten für den Satz von Wahrscheinlich- keitsmodellen bei der Codierung des Bildbereichs basierend auf den im Bildbereich (MB) auftretenden
Symbolen (S) ,
ein Mittel (101b, 102b, 103b) zum Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells derart, dass der in dem jeweiligen Codierzweig (1, 2, 3) zur Codierung verwendete Satz von Wahrscheinlichkeitsmo¬ dellen auf dem gemeinsamen, für alle Codierzweige (1, 2, 3) gültigen Satz von Wahrscheinlichkeitsmo¬ dellen basiert, welcher die Häufigkeiten von Symbo- len (S) in den Bildbereichen (MB) aller Codierzweige (1, 2, 3) berücksichtigt;
ein Mittel (104) zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Codierzyklus (CC, CC1, CC2,
CC5) adaptierten Häufigkeiten.
17. Vorrichtung nach Anspruch 16, wobei die Vorrichtung (COD) ein oder mehrere weitere Mittel zur Durchführung eines Verfahrens nach einem der Ansprüche 2 bis 13 umfasst.
18. Vorrichtung zur Decodierung von codierten Symbolen (S' ) aus einer Folge digitalisierter Bilder (I), wobei die Bilder (I) in Bildbereiche (MB) unterteilt sind und die Symbole (S) eines jeweiligen Bildbereichs (MB) mittels einer Entropieco¬ dierung nach einem der Ansprüche 1 bis 13 codiert wurden, wo- bei die Entropiedecodierung (ED) auf einem oder mehreren
Wahrscheinlichkeitsmodellen beruht, wobei das oder die Wahrscheinlichkeitsmodelle die Häufigkeiten von in decodierten Bildbereichen (MB) auftretenden Symbolen (S) berücksichtigen, wobei die Vorrichtung eine Verarbeitungseinheit (ED) umfasst, welche beinhaltet:
ein Mittel (200) zur Einteilung der codierten Bildbereiche (MB') in Decodierzyklen (DC1, DC2, DC3) derart, dass in einem Decodierzyklus (DC1, DC2, DC3) eine Entropiede¬ codierung in mehreren parallelen Decodierzweigen (1', 2', 3') erfolgt;
eine Mehrzahl von Decodiermitteln, wobei jedes Decodier- mittel (201, 202, 203) zur Entropiecodierung eines jewei¬ ligen Decodierzweigs (1', 2', 3' ) derart dient, dass in dem jeweiligen Decodierzweig (1', 2', 3' ) ein codierter Bildbereich (MB' ) basierend auf einem Satz von Wahrscheinlichkeitsmodellen decodiert wird, wobei jedes Deco- diermittel (201, 202, 203) umfasst:
ein Adaptionsmittel (201a, 202a, 203a) zur Adaption der Häufigkeiten für den Satz von Wahrscheinlich- keitsmodellen bei der Decodierung des codierten
Bildbereichs (MB' ) basierend auf den im decodierten Bildbereich (MB' ) auftretenden Symbolen (S) , ein Mittel (201b, 202b, 203b) zum Verarbeiten eines gemeinsamen Wahrscheinlichkeitsmodells derart, dass der in dem jeweiligen Decodierzweig (1', 2', 3' ) zur Decodierung verwendete Satz von Wahrscheinlichkeitsmodellen auf dem gemeinsamen, für alle Deco- dierzweige gültigen Satz von Wahrscheinlichkeitsmo- dellen basiert, welcher die Häufigkeiten von Symbolen (S) in den decodierten Bildbereichen (MB' ) aller Decodierzweige (1', 2', 3' ) berücksichtigt;
ein Mittel (204) zur Aktualisierung des gemeinsamen Satzes von Wahrscheinlichkeitsmodellen in vorbestimmten zeitlichen Abständen basierend auf in zumindest einem zeitlich vorhergehenden Decodierzyklus (DC1, DC2, DC3) adaptierten Häufigkeiten.
19. Codec zur Codierung und Decodierung von Symbolen (S) aus einer Folge digitalisierter Bilder (I), umfassend eine Co¬ diervorrichtung (COD) nach Anspruch 16 oder 17 und eine Deco- diervorrichtung (DEC) nach Anspruch 18.
EP10765622.5A 2009-10-15 2010-10-13 Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder Active EP2489187B1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP10765622.5A EP2489187B1 (de) 2009-10-15 2010-10-13 Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP09013060 2009-10-15
EP10000484A EP2312854A1 (de) 2009-10-15 2010-01-19 Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder
PCT/EP2010/065335 WO2011045339A1 (de) 2009-10-15 2010-10-13 Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder
EP10765622.5A EP2489187B1 (de) 2009-10-15 2010-10-13 Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder

Publications (2)

Publication Number Publication Date
EP2489187A1 true EP2489187A1 (de) 2012-08-22
EP2489187B1 EP2489187B1 (de) 2013-09-18

Family

ID=43070402

Family Applications (2)

Application Number Title Priority Date Filing Date
EP10000484A Withdrawn EP2312854A1 (de) 2009-10-15 2010-01-19 Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder
EP10765622.5A Active EP2489187B1 (de) 2009-10-15 2010-10-13 Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder

Family Applications Before (1)

Application Number Title Priority Date Filing Date
EP10000484A Withdrawn EP2312854A1 (de) 2009-10-15 2010-01-19 Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder

Country Status (6)

Country Link
US (1) US9338469B2 (de)
EP (2) EP2312854A1 (de)
JP (1) JP5535326B2 (de)
KR (1) KR101767976B1 (de)
CN (1) CN102550028B (de)
WO (1) WO2011045339A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2312854A1 (de) 2009-10-15 2011-04-20 Siemens Aktiengesellschaft Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder
FR2972588A1 (fr) 2011-03-07 2012-09-14 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
US9379736B2 (en) * 2011-06-03 2016-06-28 Qualcomm Incorporated Context-adaptive coding video data
FR2977111A1 (fr) * 2011-06-24 2012-12-28 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
US9584819B2 (en) 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
US20130114667A1 (en) * 2011-11-08 2013-05-09 Sony Corporation Binarisation of last position for higher throughput
EP2839666B1 (de) * 2012-04-20 2019-12-11 The Board of Regents of The University of Texas System Systeme und verfahren zur gleichzeitigen kompression und verschlüsselung
WO2014120367A1 (en) * 2013-01-30 2014-08-07 Intel Corporation Content adaptive parametric transforms for coding for next generation video
US9432688B2 (en) * 2013-08-26 2016-08-30 Broadcom Corporation Parallel symbol decoding
US20160360236A1 (en) * 2015-06-04 2016-12-08 Mediatek Inc. Method and Apparatus for Entropy Transcoding
EP3264763A1 (de) * 2016-06-29 2018-01-03 Thomson Licensing Verfahren und vorrichtung für verbesserte flaggencodierung mit einfachem lokalem prädiktor
US10541785B2 (en) * 2016-07-18 2020-01-21 Samsung Electronics Co., Ltd. Carrier aggregation with variable transmission durations
CN108024075B (zh) * 2016-10-28 2019-10-11 原相科技股份有限公司 全局快门高动态范围像素及影像传感器

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5583500A (en) * 1993-02-10 1996-12-10 Ricoh Corporation Method and apparatus for parallel encoding and decoding of data
JP2840589B2 (ja) 1996-02-09 1998-12-24 富士通株式会社 データ圧縮装置及びデータ復元装置
JP3108404B2 (ja) 1998-06-18 2000-11-13 富士通株式会社 データ圧縮装置及びデータ復元装置
US6856701B2 (en) * 2001-09-14 2005-02-15 Nokia Corporation Method and system for context-based adaptive binary arithmetic coding
JP2003319391A (ja) * 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
ITMI20031079A1 (it) 2003-05-29 2004-11-30 St Microelectronics Srl Metodo ed apparato per dedificare immagini digitali
US20060149801A1 (en) 2003-06-30 2006-07-06 Ihor Kirenko Method of encoding a signal into a bit stream
US7286710B2 (en) * 2003-10-01 2007-10-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Coding of a syntax element contained in a pre-coded video signal
JP2005130099A (ja) * 2003-10-22 2005-05-19 Matsushita Electric Ind Co Ltd 算術復号装置、算術符号化装置、算術符号化・復号装置、携帯端末装置、動画像撮影装置、及び、動画像記録・再生装置
US7599435B2 (en) * 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
KR100644713B1 (ko) * 2005-10-31 2006-11-10 삼성전자주식회사 컨텍스트 기반 적응적 이진 산술 코딩 복호기에서 원소구문을 복호화하는 방법 및 이를 위한 복호화 장치
KR100873636B1 (ko) * 2005-11-14 2008-12-12 삼성전자주식회사 단일 부호화 모드를 이용하는 영상 부호화/복호화 방법 및장치
KR100717055B1 (ko) * 2005-11-18 2007-05-10 삼성전자주식회사 Cabac 복호기에서 복수의 이진 값들을 파이프라인방식에 의하여 복호화하는 방법 및 이를 위한 복호화 장치
JP4095664B2 (ja) 2006-04-17 2008-06-04 俊宏 南 動画像符号化装置
JP4660433B2 (ja) 2006-06-29 2011-03-30 株式会社東芝 符号化回路、復号回路、エンコーダ回路、デコーダ回路、cabac処理方法
US7443318B2 (en) * 2007-03-30 2008-10-28 Hong Kong Applied Science And Technology Research Institute Co. Ltd. High speed context memory implementation for H.264
US7710296B2 (en) * 2007-09-19 2010-05-04 Texas Instruments Incorporated N-bin arithmetic coding for context adaptive binary arithmetic coding
US8542748B2 (en) 2008-03-28 2013-09-24 Sharp Laboratories Of America, Inc. Methods and systems for parallel video encoding and decoding
US7876257B2 (en) 2008-04-28 2011-01-25 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for compressing SAR signals
US7982641B1 (en) * 2008-11-06 2011-07-19 Marvell International Ltd. Context-based adaptive binary arithmetic coding engine
FR2944391B1 (fr) 2008-11-18 2013-03-22 Valeo Sys Controle Moteur Sas Procede et dispositif electrique combine d'alimentation et de charge a moyens de compensation
WO2010063184A1 (en) * 2008-12-03 2010-06-10 Mediatek Inc. Method for performing parallel cabac processing with ordered entropy slices, and associated apparatus
US9467699B2 (en) * 2008-12-03 2016-10-11 Hfi Innovation Inc. Method for performing parallel coding with ordered entropy slices, and associated apparatus
US8660193B2 (en) * 2009-01-12 2014-02-25 Maxim Integrated Products, Inc. Parallel, pipelined, integrated-circuit implementation of a computational engine
US8294603B2 (en) * 2009-06-30 2012-10-23 Massachusetts Institute Of Technology System and method for providing high throughput entropy coding using syntax element partitioning
WO2011004577A1 (ja) 2009-07-06 2011-01-13 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、プログラムおよび集積回路
EP2312854A1 (de) 2009-10-15 2011-04-20 Siemens Aktiengesellschaft Verfahren zur Codierung von Symbolen aus einer Folge digitalisierter Bilder

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2011045339A1 *

Also Published As

Publication number Publication date
EP2312854A1 (de) 2011-04-20
JP5535326B2 (ja) 2014-07-02
WO2011045339A1 (de) 2011-04-21
CN102550028B (zh) 2015-08-26
JP2013507871A (ja) 2013-03-04
KR101767976B1 (ko) 2017-08-14
CN102550028A (zh) 2012-07-04
KR20120087943A (ko) 2012-08-07
EP2489187B1 (de) 2013-09-18
US20120207213A1 (en) 2012-08-16
US9338469B2 (en) 2016-05-10

Similar Documents

Publication Publication Date Title
WO2011045339A1 (de) Verfahren zur codierung von symbolen aus einer folge digitalisierter bilder
DE69637067T2 (de) System zur variablen Längendekodierung
EP1487113B1 (de) Kodierung und Dekodierung von Transformationskoeffizienten in Bild- oder Videokodierern
DE60307396T2 (de) Verfahren zur Bildkodierung und -dekodierung
DE60310800T2 (de) Approximierter Kubikfilter
DE2640414C2 (de) Schaltungsanordnung ung Verfahren für die Kompressionscodierung unter Verwendung einer Korrelation zwischen zweidimensionalen, aus zweiwertigen digitalen Bildern abgeleiteten Matrizen
EP1797536B1 (de) Codierschema für einen ein zeitlich veraenderliches graphikmodell darstellenden datenstrom
DE2801988A1 (de) Arithmetische codierung von symbolfolgen
EP2222086A1 (de) Verfahren und Vorrichtung zur Vermeidung von Rundungsfehlern nach Durchführung einer inversen diskreten orthogonalen Transformation
DE4446072A1 (de) Verfahren und Einrichtung zum parallelen Codieren und Decodieren von Daten
WO2012095487A1 (de) Kompression und dekompression von referenzbildern in einem videokoder
WO2008080516A1 (de) Vorrichtung und verfahren zum kodieren eines transformationskoeffizientenblockes
EP1571755A2 (de) Verfahren und Anordnung zur arithmetischen Enkodierung und Dekodierung mit Initialisierung eines Wahrscheinlichkeitsmodelles
EP2521357A1 (de) Verfahren und Vorrichtung zur Filterung von kodierten Bildpartitionen
DE3426939C2 (de) Vorrichtung für eine geschlossene prädiktive Quantisierung eines digitalen Vektorsignals
EP1472888B1 (de) Kontextsensitive kodierung und dekodierung eines videodatenstroms
DE60015755T2 (de) Verlustfreie adaptive codierung von daten eines endlichen alphabets
EP0288872A2 (de) Videosignal-Codierer mit DPCM und adaptiver Prädiktion
DE60101745T2 (de) Viterbi dekodierung mit pfadmetrikaktualisierung durchgeführt in einheiten von bitscheiben
DE10218541A1 (de) Verfahren zur Videocodierung und Computerprogrammprodukt
DE19524872C1 (de) Verfahren und Anordnung zur Codierung und Decodierung von einem Videodatenstrom für alle Bildelemente des Videodatenstroms
EP0288783A2 (de) Anordnung zur DPCM-Codierung von Fernsehsignalen
WO2001049038A1 (de) Verfahren, anordnung und computerprogrammerzeugnis zur prädiktion bei der codierung eines in bildblöcke unterteilten bildes
DE102006061647B3 (de) Vorrichtung und Verfahren zum Kodieren eines Transformationskoeffizientenblockes
EP0796016B1 (de) Verfahren zur Bearbeitung von Bildpunkten eines Bildsegments durch einen Rechner

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20120320

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS AKTIENGESELLSCHAFT

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20130415

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 633313

Country of ref document: AT

Kind code of ref document: T

Effective date: 20131015

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502010004804

Country of ref document: DE

Effective date: 20131114

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130911

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131218

REG Reference to a national code

Ref country code: NL

Ref legal event code: VDEP

Effective date: 20130918

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131219

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

BERE Be: lapsed

Owner name: SIEMENS A.G.

Effective date: 20131031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140118

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502010004804

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140120

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

26N No opposition filed

Effective date: 20140619

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20131031

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502010004804

Country of ref document: DE

Effective date: 20140619

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20131013

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20131013

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20101013

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20141031

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20141031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 7

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 633313

Country of ref document: AT

Kind code of ref document: T

Effective date: 20151013

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20151013

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 8

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 9

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20130918

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230512

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20231106

Year of fee payment: 14

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20231025

Year of fee payment: 14

Ref country code: FR

Payment date: 20231017

Year of fee payment: 14

Ref country code: DE

Payment date: 20231214

Year of fee payment: 14