EP2617197A1 - Verfahren und vorrichtungen zur bildung eines prädiktionswertes - Google Patents

Verfahren und vorrichtungen zur bildung eines prädiktionswertes

Info

Publication number
EP2617197A1
EP2617197A1 EP12700628.6A EP12700628A EP2617197A1 EP 2617197 A1 EP2617197 A1 EP 2617197A1 EP 12700628 A EP12700628 A EP 12700628A EP 2617197 A1 EP2617197 A1 EP 2617197A1
Authority
EP
European Patent Office
Prior art keywords
value
image
image value
trajectory
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP12700628.6A
Other languages
English (en)
French (fr)
Inventor
Peter Amon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP2617197A1 publication Critical patent/EP2617197A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the invention relates to methods and apparatus for forming a prediction value.
  • image and video coding for example when compressing images of a video, some images of the image sequence are coded without reference to at least image parts of other images. This is necessary, for example, at the beginning of a picture sequence since there is no previously coded picture content. Furthermore, this is necessary for groups of pictures GOPs (GOP - Group Of Pictures) which are to be independently decodable.
  • GOPs GOPs
  • An image or video encoding that does not access the image content ei ⁇ nes already encoded in the past image back is referred to as INTRA coding.
  • INTRA coding Even with Bil ⁇ countries that could access for on such image content, it can make an INTRA coding be advantageous, if not a good predictor of time can be found in one of a previously encoded image reference image. This occurs, for example, during scene change or exposure of new image content in the image.
  • FIG. 2 shows an image region with 5x5 pixels.
  • a coordinate system has been introduced in FIG. 2, horizontally with the values 0, 1, 2, 3, 4 and vertically with the values a, b, c, d, e.
  • FIG. 2 shows a hatched image area and a non-hatched image area.
  • the hatched image area comprises only reconstructed pixels, ie pixels which have already been coded and decoded and are thus available in a reconstructed form for the INTRA coding, such as the pixels aO to a4, b0, c0, d0 and e0.
  • the unshaded area embodied here as a 4x4 block, describes a prediction picture area to which, for example, the intra-prediction mode 4, ie a diagonal prediction direction, see FIG. 1, is to be applied.
  • the prediction is versinnsent ⁇ light in Figure 2 by small arrows.
  • the image value W of a pixel describes, as well as the prediction value, an amp ⁇ litudenwert for a brightness and / or color value of the jewei ⁇ time pixel.
  • the prediction value is, for example, based on a subtraction for determining a difference value RES (.)
  • a respective prediction is determined ⁇ for all the image values within the pronounceschraffier- th area.
  • the respective difference picture value is quantized and coded.
  • the coded image values yield a coded image data stream. After decoding, inverse quantization of the coded image values and addition with the prediction value, the reconstructed image values result.
  • the invention relates to a method for forming a prediction value for a first image value of a first image ⁇ point of an image based on a second image value/2017in- least one reconstructed pixel of the image with ⁇ follow the steps of: Forming at least one trajectory having a third image value, wherein along the respective trajectory an image value corresponds to the respective third image value and the respective trajectory has a shape which is not a straight line;
  • Assigning the second image value to the respective third image value Determining at least one of the trajectories as an auxiliary trajectory having a distance to a position of the first image value, the distance having a shortest distance to the position; Ektorie generating the prediction value on the basis of the third Schmwer ⁇ tes the Hilfstraj.
  • the present method has the advantage that a more accurate recuperative ⁇ on is carried out in a ⁇ due to the non-straight prediction directions, which is operated by the respective trajectory. This results in improved image quality for the same bit rate of a coded Since ⁇ tenstroms or at constant image quality deortzstromes a reductive ⁇ tion of the bit rate or the memory space of the encoded Vi-.
  • the reason for this improvement is the fact that a more accurate estimate of the predictive value to be encoded first image value is made possible by the more accurate prediction and thus created for a Differenzcodie ⁇ tion a smaller to be compressed difference value.
  • a local position of the trajectories can either be fixed, for example by a selection of possible trajectory positions or forms, or can result from already encoded and reconstructed image values or pixels.
  • an environment of the first image value to be coded can be analyzed and from this a calculation rule for a position or form of the trajectories to be formed can be determined.
  • that second image value which minimizes a distance between the second image value and the trajectory associated with the third image value can be selected.
  • the drit ⁇ th image value can be a reconstructed image value is obtained by encoding and decoding of the first image value, are generated.
  • a modification of the third pixel may be carried out after carrying out the formation of the prediction value, wherein for the formation of the prediction value for ei ⁇ NEN further first image value then the second image value, genes ⁇ riert is used by a reconstruction of the first image value after encoding and decoding. That a second image value of a reconstructed image point is used as the third image value of the respective trajectory through these Extension C ⁇ conclusions of the process is achieved, is the good Aussich ⁇ th for a good determination of the prediction value. Thus, for example, it is achieved by the minimization that the second image value is assigned to the third image value which, due to its local position, is most similar to the third image value.
  • known or standardized image or video compression methods can be used, such as, for example, ITU H.263, H.264 or MPEG2 (ITU - International Telecommunications Union, MPEG - Motion Picture Expert Group).
  • At least two auxiliary paths are determined in such a way that the distance between the respective Hilfstra ektorie and the position of the first image value comprises a shortest distance on ⁇ .
  • the prediction value in this case is formed by the third image values of the at least two auxiliary vectors.
  • the prediction value is formed by the third image values of the at least two auxiliary vectors so as to take into account those auxiliary vectors which are selected from the set of all available
  • the prediction value is represented by a weighted averaging of the third image values of the at least two Hilfstraj ektorien gebil ⁇ det. This ensures that the prediction value of the first image value can be estimated mög ⁇ lichst accurately with respect.
  • the weighted averaging can take into account the distances as reciprocal values. This is advantageous ⁇ way, since the third value of the Hilfstraj ektorie, which is closer to the first image value is greater consideration than that ektorie third value of a further Hilfstraj which lies further away. In general, more than two
  • Hilfstraj ectorien be used. This is a weighted averaging that is more than two selected
  • Hilfstraj ektorien for example, according to their distances or the reciprocal of their distances taken into account.
  • a new trajectory formed such ⁇ that the new trajectory is positioned by the position of the first image value is assigned to a third value of the new Tra ⁇ jektorie the prediction or the first image value or a reconstructed image value of the first image value.
  • a more accurate estimate of the respective first image value is made possible in the formation of a prediction value for white ⁇ tere pixels within the image is achieved.
  • the third image value of the new trajectory can be formed either by the prediction value itself, the first image value or a reconstructed image value of the first image value.
  • This extension can be added that the new trajectory is arranged such ektorien between two Hilfstraj that in any point on the new trajectory, a ratio of the shortest distances between the belie ⁇ -lived point and the two Hilfstraj ektorien to a ratio of the distances of is identical to both auxiliary fields of the first image value.
  • This extension describes a possible position and thus a possible form of the new trajec ⁇ torie. It is advantageous that the new situation of the new Hilfstraj ektorie can be determined in a simple manner.
  • the invention also relates to an apparatus for forming a prediction value for a first image value of a ers ⁇ th image point of an image based on a second image value of at least one reconstructed pixel of the image with the following units: first unit for forming at least a trajectory, each having a third Having image value, wherein along the respective trajectory an image value corresponds to the respective third image value and the respective trajectory has a shape which is not a straight line;
  • Second unit for assigning the second image value to said each ⁇ bib third image value;
  • Third unit for determining at least one of the trajectories as Hilfstra ektorie having a distance to a position of the first image value, wherein the distance has a shortest distance to the position;
  • Fourth unit for generating the prediction value on the basis of the third image value of the auxiliary vector.
  • the method can be realized and executed.
  • the advantages are analogous to the corresponding method.
  • the device may comprise at least one further unit, wherein with the further unit individual process steps of the previous developments or alternative imple mentation forms are executable.
  • the advantages are analogous to the description of the illustrated embodiments.
  • Figure 4 embodiment for forming a new Traj ektorie based on two existing trajectories
  • FIG. 7 Device for determining a prediction value.
  • Figures 1 and 2 have been explained in detail in the introduction, so that is dispensed with a more detailed description of the ⁇ ser point.
  • Figure 3 shows a picture B with 352x288 pixels. Pixels are organized into image blocks BB, for example in a size 4x4 pixels. The pixels each have an image value, each representing a color value and / or a brightness value, for example in the form of an 8-bit resolution.
  • Each square within the image block BB represents a pixel, such as a first pixel, BP1 and a corresponding first image value Wl.
  • FIG. 3 shows a hatched region with reconstructed pixels BR1, BR2 and the associated second pixel values W21, W22.
  • the reconstructed pixels were encoded at an early stage and are in their decoded, i. reconstructed form, to form the prediction value available.
  • a first step at least two trajectories TO, Tl, T2, T3, T4 are formed. These trajectories are drawn in the first embodiment as quarter circles and thus do not represent a straight line.
  • an image value corresponds to a respective third image value W31, W32.
  • the respective rigid tet trajectory in the second image value corresponding to exactly the third image value of the respective trajectory ⁇ ent.
  • two auxiliary trajectories HT1, HT2 are determined from the set of available trajectories TO, T1, T2, T3, T4 such that a respective distance A1, A2 between the auxiliary trajectories HT1, HT2 to be determined and the position PI of the first image value Wl is minimal, ie in each case has a shortest distance.
  • FIG. 3 shows the respective distance A2 of the trajectory T2 from the position T1 and AI of the trajectory T1 between trajectory T1 and position PI. Since it is the shortest distance, the distance of the respective trajectory forms a 90 ° angle to the position PI.
  • FIG. 4 shows a detail of FIG. 3 with the auxiliary fields eH1 and HT2, as well as the first image value W1 and the position PI.
  • the prediction PRW ent ⁇ speaks a weighted averaging of the third image values W31, W32 of the trajectories Tl, T2.
  • a new trajectory T5 between the existing ones will be added Trajectories T1 and T2, referred to below as T5, are generated.
  • the new trajectory T5 runs at least by the first image value Wl at the position PI.
  • the new trajectory T5 between the Hilfstra ektorien HT1, HT2 run such that at any point on the new trajectories, a ratio of the shortest distances between the arbitrary point and the two Hilfstraj ektorien to a ratio of the distances AI, A2 in the first image value is identical.
  • a third image value W35 of the new trajectory T5 is equal to the prediction value PRW for the first image value.
  • a reconstructed image value WR can also be determined for the third image value W35 of the new trajectory T5.
  • a difference value from the first image and the value W refdik ⁇ tion value PRW may first be formed into
  • RES (BP1) Wl - PRW
  • the difference value is encoded quantized, for example, with a Huffman coding deco ⁇ diert and inverse quantized.
  • Several difference values can optionally additionally be transformed before the quantization and transformed back after the inverse quantization.
  • a reconstructed difference value results
  • This reconstructed image value is taken as the third image value W35 of the new trajectory T5 in subsequent formations of a further prediction value, e.g. for PBX, see heading C3.
  • each of the trajectories is a non-linear Form has.
  • the trajectories start in each case in one of the second image values W22 and therefore have the second image value W22 as the third image value W32.
  • the first pixel BP1 is at position c3.
  • the trajectories have been constructed in such a way that they lie exactly at a position of the respective image value.
  • only one auxiliary vector eH2 is determined, in which the distance A2 is zero.
  • mixed forms may also occur in which one or more of the positions are not on a trajectory or
  • the trajectory T2 is chosen as the auxiliary vector eh2 since the distance A2 between the auxiliary vector HT2 and the position of the first image value is zero.
  • the prediction value PRW is equal to the third image value W32 of the trajectory T2, this third image value W32 being equal to the second image value W22 of the reconstructed pixel BR2.
  • a prediction is carried out stepwise, wherein after passing through a prediction a prediction direction for a subsequent prediction is adaptively adaptable.
  • a first line of first image values see in the coordinate system associated pixels at the positio ⁇ nen bl, b2, b3, b4, by the directly above the second Image values W21, W22, W23, W24 of the reconstructed pixels PR1, PR2, PR3, PR4 predicts.
  • a second line of first image values is predicted by a diagonal from top left to bottom right leading prediction direction. This corresponds, for example, to the prediction direction 4 from FIG. 1.
  • this prediction direction is also carried out for the first image values with first pixels at the positions d1 and el.
  • a downward prediction takes place, marked with the numbers 3 and 4 in FIG. 6.
  • the trajectory Tl leads from al, bl, c2, d2 to e2.
  • Analog as ⁇ to the trajectories T2 and T3 are formed.
  • a second image value of the reconstructed pixel is used, for example for generating a prediction value for a first image value at position e2 the second image value W21 of the reconstructed pixel BR1.
  • reconstructed pixels ge ⁇ Häss the hatched pixels are used in Fig. 6
  • an associated reconstructed image value WR can be determined and used for the subsequent prediction step .
  • a prediction value is determined for the first image value at the posi tion ⁇ bl.
  • a second image value for the pixel at position reconstructed BL is generated.
  • This second image value is then used for determining a prediction value for the first image value at the position ⁇ c2, instead of the second image value of the reconstructed pixel from the position al.
  • This approach can be used for other encode ⁇ de first pixels along the respective trajectory is ⁇ applies analogously. This procedure can also be used for other embodiments .
  • the described embodiments can be implemented and executed by means of specific devices, see FIG. 7.
  • the devices VOR have units E1, E2, E3, E4, EW which implement and execute individual steps of the embodiments.
  • the units can be implemented and executed in software, hardware and / or in a combination of software and hardware.
  • the units can run on a processor, wherein individual steps of the method can be stored in a memory and loaded into the processor.
  • the image values such as the first, second and third image values and further information about the image, as well as further process steps for coding and decoding image values, can be stored in the memory.
  • JTC1 / SC29 / WG11 MPEG
  • ITU-T SG16 Q.6 VCEG

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Die Erfindung betrifft Verfahren und Vorrichtung zur Bildung eines Prädiktionswertes. Hierbei wird mittels Trajektorien, die nicht geradlinig sind, eine Prädiktionsrichtung lokal beschrieben, wobei die Prädiktionsrichtung im Rahmen einer Bildung eines Prädiktionswertes verwendbar ist. Die Erfindung weist den Vorteil einer genaueren Prädiktionsbestimmung auf. Anwendungsgebiete der Erfindung sind eine Bild- oder Bildsequenzkompression.

Description

Beschreibung
Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
Die Erfindung betrifft Verfahren und Vorrichtung zur Bildung eines Prädiktionswertes.
Bei der Bild- und Videocodierung, beispielsweise bei einer Kompression von Bildern eines Videos, werden einige Bilder der Bildsequenz ohne Referenz auf zumindest Bildteile anderer Bilder codiert. Dies ist beispielsweise nötig zu Beginn einer Bildsequenz, da hier noch kein zuvor codierter Bildinhalt vorliegt. Ferner ist dies notwendig bei Gruppen von Bildern GOPs (GOP - Group Of Pictures), die unabhängig voneinander decodierbar sein sollen.
Eine Bild- oder Videocodierung, die nicht auf Bildinhalte ei¬ nes bereits in der Vergangenheit kodierten Bildes zurück- greift, wird als INTRA-Codierung bezeichnet. Selbst bei Bil¬ dern, die für auf derartige Bildinhalte zugreifen könnten, kann es vorteilhaft sein, eine INTRA-Codierung durchzuführen, falls kein guter zeitlicher Prädiktor in einem Referenzbild eines zuvor codierten Bildes gefunden werden kann. Dies tritt beispielsweise bei Szenenwechsel oder Aufdeckung von neuen Bildinhalten im Bild auf.
Bei der INTRA-Codierung kann jedoch auf bereits codierte Bildinhalte des aktuell zu kodierenden Bildes zur Prädiktion zurückgegriffen werden. Somit kann ein Decoder, der eine codierte bzw. komprimierte Bildsequenz decodieren möchte, be¬ reits auf decodierte Bildinhalte zurückgreifen und somit eine Drift aufgrund fehlerhafter Decodierung vermeiden. In einem Standard ITU H.264/AVC (ITU - International Telecom- munications Union, AVC - Advanced Video Coding) werden ver¬ schiedene INTRA-Prädiktionsrichtungen definiert. Figur 1 zeigt dies exemplarisch, wobei die Nummern 0 bis 1 und 3 bis 8 vorgebbare Prädiktionsrichtungen darstellen.
Figur 2 zeigt eine Bildregion mit 5x5 Bildpunkten. Zur Be- Stimmung einer Position des jeweiligen Bildpunktes wurde in Figur 2 ein Koordinatensystem eingeführt, horizontal mit den Werten 0, 1, 2, 3, 4 und vertikal mit den Werten a, b, c, d, e. So weist der Bildpunkt in der Ecke rechts unten die Posi¬ tion e4 auf. Zudem zeigt Figur 2 einen schraffierten Bildbe- reich und einen nichtschraffierten Bildbereich. Der schraffierte Bildbereich umfasst nur rekonstruierte Bildpunkte, d.h. Bildpunkte, die bereits codiert und decodiert wurden und somit in einer rekonstruierten Form für die INTRA-Codierung zur Verfügung stehen, wie die Bildpunkte aO bis a4, bO, cO, dO und eO.
Hingegen beschreibt der nichtschraffierte Bereich, hier als 4x4 Block ausgebildet, einen Prädiktionsbildbereich, auf den bspw. der Intra-Prädiktionsmodus 4, d.h. eine diagonale Prä- diktionsrichtung, siehe Figur 1, angewendet werden soll. Die Prädiktion wird in Figur 2 durch kleine Pfeile versinnbild¬ licht. So wird beispielsweise für den Bildpunkt bl ein Prä¬ diktionswert PRW auf Basis des rekonstruierten Bildwertes aO durchgeführt, also PRW (bl ) =W ( aO ) . Der Bildwert W eines Bild- punktes beschreibt, wie auch der Prädiktionswert, einen Amp¬ litudenwert für eine Helligkeit und/oder Farbwert des jewei¬ ligen Bildpunktes. Dann wird der Prädiktionswert bspw. einer Differenzbildung zur Ermittlung eines Differenzwertes RES ( . ) zur weiteren Codierung des Bildpunktes bl zugrunde gelegt, wie bspw. dies
RES(bl) = W(bl) - PRW(bl) = W(bl) - W(a0)
Somit kann für alle Bildwerte innerhalb des nichtschraffier- ten Bereiches ein jeweiliger Prädiktionswert ermittelt wer¬ den . In einem der Prädiktion nachfolgendem Schritt wird der jeweilige Differenzbildwert quantisiert und codiert. Die codierten Bildwerte ergeben einen codierten Bilddatenstrom. Nach einer Decodierung, inversen Quantisierung der codierten Bildwerte und Addition mit dem Prädiktionswert ergeben sich die rekonstruierten Bildwerte.
Wie Figur 1 und Figur 2 entnehmbar ist, folgen alle Prädizie- rungen geradlinigen Tra ektorien, in Figur 2 beispielsweise von dem rekonstruierten Bildpunkt aO geradlinig bis zu einem zu prädizierenden Bildpunkt e4. Texturinformation innerhalb des zu prädizierenden Bildbereichs, die nicht dieser geradli¬ nigen Prädiktionsvorschrift folgt, wäre nur unzureichend prä- diziert und ergeben eine geringe Kompressionsrate bzw. eine schlechte Bildqualität nach der Rekonstruktion.
In kürzlich erschienenen Dokumenten [1], [2] werden zwei ähnliche Codiermodi mit einem Namen „Line - based interpredicti- on" beschrieben. Hierbei kann für einen zu prädizierenden Bildpunkt eine gewichtete Mittelung von Nachbarbildpunkten herangezogen werden.
Es ist die Aufgabe der vorliegenden Erfindung Verfahren und Vorrichtungen anzugeben, die eine Verbesserung einer Prädik- tion ermöglichen.
Die Aufgabe wird durch die unabhängigen Ansprüche gelöst.
Weiterbildungen der Erfindung sind den abhängigen Ansprüchen zu entnehmen.
Die Erfindung betrifft ein Verfahren zur Bildung eines Prädiktionswertes für einen ersten Bildwert eines ersten Bild¬ punktes eines Bildes anhand eines zweiten Bildwertes zumin- dest eines rekonstruierten Bildpunktes des Bildes mit folgen¬ den Schritten: Bilden von zumindest einer Trajektorie, die einen dritten Bildwert aufweist, wobei entlang der jeweiligen Trajektorie ein Bildwert dem jeweiligen dritten Bildwert entspricht und die jeweilige Trajektorie eine Form aufweist, die keine Gera- de ist;
Zuweisen des zweiten Bildwertes zu dem jeweiligen dritten Bildwert ; Ermitteln zumindest einer der Trajektorien als Hilfstraj ekto- rie, die einen Abstand zu einer Position des ersten Bildwertes aufweist, wobei der Abstand eine kürzeste Distanz zu der Position aufweist; Erzeugen des Prädiktionswertes auf Basis des dritten Bildwer¬ tes der Hilfstraj ektorie .
Das vorliegende Verfahren weist den Vorteil auf, dass auf¬ grund der nicht geraden Prädiktionsrichtungen, die durch die jeweilige Trajektorie betrieben wird, eine genauere Prädikti¬ on durchführbar ist. Hierdurch ergibt sich eine verbesserte Bildqualität bei gleichbleibender Bitrate eines codierten Da¬ tenstroms bzw. bei gleichbleibender Bildqualität eine Reduk¬ tion der Bitrate bzw. des Speicherplatzes des codierten Vi- deodatenstromes . Der Grund für diese Verbesserung ist darin zu sehen, dass durch die genauere Prädiktion eine genauere Schätzung des Prädiktionswertes des zu codierenden ersten Bildwertes ermöglicht wird und somit für eine Differenzcodie¬ rung ein kleinerer zu komprimierender Differenzwert entsteht.
Eine örtliche Lage der Trajektorien kann entweder fest vorgegeben sein, beispielsweise durch eine Auswahl möglicher Tra- j ektorienlagen bzw. -formen, oder kann sich aufgrund bereits codierter und rekonstruierter Bildwerte bzw. Bildpunkte erge- ben. So kann eine Umgebung des zu codierenden ersten Bildwertes analysiert und hieraus eine Berechnungsvorschrift für ei¬ ne Lage bzw. Form der zu bildenden Trajektorien ermittelt werden . Ferner kann für das Zuweisen des zweiten Bildwertes derjenige zweite Bildwert ausgewählt werden, der einen Abstand zwischen dem zweiten Bildwert und der zu dem dritten Bildwert zugeord- neten Trajektorie minimiert. Alternativ hierzu kann der drit¬ te Bildwert durch einen rekonstruierten Bildwert, der sich nach Kodierung und Dekodierung des ersten Bildwertes ergibt, generiert werden. Ferner kann eine Änderung des dritten Bildpunktes nach Durchführen der Bildung des Prädiktionswertes erfolgen, wobei für die Bildung des Prädiktionswertes für ei¬ nen weiteren ersten Bildwert dann der zweite Bildwert, gene¬ riert durch eine Rekonstruktion des ersten Bildwertes nach Codierung und Decodierung, benutzt wird. Durch diese Erweite¬ rungen des Verfahrens wird erreicht, dass als dritter Bild- wert der jeweiligen Trajektorie ein zweiter Bildwert eines rekonstruierten Bildpunktes verwendet wird, der gute Aussich¬ ten für eine gute Ermittlung des Prädiktionswertes darstellt. So wird bspw. durch die Minimierung erzielt, dass derjenige zweite Bildwert dem dritten Bildwert zugeordnet wird, der aufgrund seiner örtlichen Lage dem dritten Bildwert am ähnlichsten ist. Zur Codierung und Decodierung sind bspw. bekannte oder standardisierte Bild- oder Videokompressionsverfahren einsetzbar, wie bspw. ITU H.263, H.264 oder MPEG2 (ITU - International Telecommunications Union, MPEG - Motion Pic- ture Expert Group) .
In einer Erweiterung des Verfahrens wird nur eine Trajektorie zur Generierung des ersten Bildwertes berücksichtigt, falls der Abstand gleich Null ist. Hierbei wird der dritte Bildwert der berücksichtigten Hilfstraj ektorie dem ersten Bildwert zugeordnet. Diese Erweiterung bewirkt, dass im Falle, dass die Trajektorie auf dem ersten Bildwert zu erliegen kommt, eine gute Bestimmung für den Prädiktionswert ermöglicht. Zudem wird durch diese Erweiterung eine gering komplexe Realisie- rung des Verfahrens ermöglicht.
In einer alternativen Aus führungs form zur letzten Erweiterung werden zumindest zwei Hilfstraj ektorien derart bestimmt, dass der Abstand zwischen der jeweiligen Hilfstra ektorie und der Position des ersten Bildwertes eine kürzeste Distanz auf¬ weist. Der Prädiktionswert wird in diesem Fall durch die dritten Bildwerte der zumindest zwei Hilfstra ektorien gebil- det. In dieser Aus führungs form wird der Prädiktionswert durch die dritten Bildwerte der zumindest zwei Hilfstraj ektorien derart gebildet, dass diejenigen Hilfstraj ektorien berücksichtigt werden, die aus der Menge aller verfügbaren
Hilfstraj ektorien die kürzesten Distanzen aufweisen. Somit wird zum einen die Hilfstraj ektorie verwendet, die die kür¬ zeste Distanz und ferner die weitere Hilfstraj ektorie in Be¬ tracht gezogen, die die nächst kürzeste Distanz zu der Posi¬ tion aufweist. In einer Weiterbildung dieser Aus führungs form wird der Prädiktionswert durch eine gewichtete Mittelwertbildung der dritten Bildwerte der zumindest zwei Hilfstraj ektorien gebil¬ det. Hierdurch wird erreicht, dass der Prädiktionswert mög¬ lichst genau bezüglich des ersten Bildwertes geschätzt werden kann. Zudem kann die gewichtete Mittelwertbildung die Abstände jeweils als Kehrwerte berücksichtigen. Dies ist vorteil¬ haft, da der dritte Wert der Hilfstraj ektorie, die näher bei dem ersten Bildwert liegt, stärker berücksichtigt wird als derjenige dritte Wert einer weiteren Hilfstraj ektorie, die weiter weg liegt. Im Allgemeinen können auch mehr als zwei
Hilfstraj ektorien verwendet werden. Hierbei wird eine gewichtete Mittelwertbildung, die mehr als zwei ausgewählte
Hilfstraj ektorien, beispielsweise entsprechend ihrer Abstände bzw. der Kehrwert ihrer Abstände, berücksichtigt.
Des Weiteren kann eine neue Trajektorie derart gebildet wer¬ den, dass die neue Trajektorie durch die Position des ersten Bildwertes angeordnet wird, einem dritten Wert der neuen Tra¬ jektorie der Prädiktionswert oder der erste Bildwert oder ein rekonstruierter Bildwert des ersten Bildwertes zugeordnet wird . Durch die Verwendung der neuen Hilfstra ektorie wird erreicht, dass bei der Bildung eines Prädiktionswertes für wei¬ tere Bildpunkte innerhalb des Bildes eine genauere Schätzung des jeweiligen ersten Bildwertes ermöglicht wird. Denn neben der Berücksichtigung von den gebildeten Trajektorien kann durch die neue bzw. neuen Hilfstra ektorien eine verfeinerte Schätzung des Prädiktionswertes erzielt werden. Anzumerken ist, dass der dritte Bildwert der neuen Trajektorie entweder durch den Prädiktionswert selbst, den ersten Bildwert oder einen rekonstruierten Bildwert des ersten Bildwertes gebildet werden kann.
Diese Erweiterung kann dadurch ergänzt werden, dass die neue Trajektorie derart zwischen zwei Hilfstraj ektorien angeordnet wird, dass in einem beliebigen Punkt auf der neuen Trajektorie ein Verhältnis der kürzesten Abstände zwischen dem belie¬ bigen Punkt und den beiden Hilfstraj ektorien zu einem Verhältnis der Abstände der beiden Hilfstraj ektorien zu dem ersten Bildwert identisch ist. Diese Erweiterung beschreibt eine mögliche Lage und somit eine mögliche Form der neuen Trajek¬ torie. Hierbei ist vorteilhaft, dass die neue Lage der neuen Hilfstraj ektorie in einfacher Art und Weise ermittelbar ist.
Die Erfindung betrifft auch eine Vorrichtung zur Bildung ei- nes Prädiktionswertes für einen ersten Bildwertes eines ers¬ ten Bildpunktes eine Bildes anhand eines zweiten Bildwertes zumindest eines rekonstruierten Bildpunktes des Bildes mit folgenden Einheiten: Erste Einheit zum Bilden von zumindest einer Trajektorie, die jeweils einen dritten Bildwert aufweist, wobei entlang der jeweiligen Trajektorie ein Bildwert dem jeweiligen dritten Bildwert entspricht und die jeweilige Trajektorie eine Form aufweist, die keine Gerade ist;
Zweite Einheit zum Zuweisen des zweiten Bildwertes zu dem je¬ weiligen dritten Bildwert; Dritte Einheit zum Ermitteln zumindest einer der Trajektorien als Hilfstra ektorie, die einen Abstand zu einer Position des ersten Bildwertes aufweist, wobei der Abstand eine kürzeste Distanz zu der Position aufweist;
Vierte Einheit zum Erzeugen des Prädiktionswertes auf Basis des dritten Bildwertes der Hilfstra ektorie .
Mit Hilfe der Vorrichtung ist das Verfahren realisier- und ausführbar. Die Vorteile sind analog zum korrespondierenden Verfahren .
Ferner kann die Vorrichtung zumindest eine weitere Einheit aufweisen, wobei mit der weiteren Einheit einzelne Verfahrensschritte der vorhergehenden Weiterbildungen bzw. alternativen Aus führungs formen ausführbar sind. Die Vorteile sind analog zur Beschreibung der dargestellten Aus führungs formen .
Figur 1 Darstellung möglicher Prädiktionsrichtungen gemäß
Standart ITU H.264 (Stand der Technik);
Figur 2 Allgemeine Beschreibung einer Vorgehensweise zur
Prädiktion von Bildwerten von rekonstruierten Bildpunkten;
Figur 3 Ausführungsbeispiel des erfindungsgemäßen Verfahren mit mehreren Trajektorien;
Figur 4 Ausführungsbeispiel zum Bilden einer neuen Traj ektorie auf Basis von zwei bestehenden Trajektorien;
Figur 5 Ausführungsbeispiel zum Bildung von nichtlinearen
Trajektorien zur Prädiktionswertbestimmung;
Figur 6 Ausführungsbeispiel bzgl. adaptive nichtlineare
Trajektorien zur Prädiktionswertbestimmung;
Figur 7 Vorrichtung zur Bestimmung eines Prädiktionswertes. Die Figuren 1 und 2 wurden in der Einleitung ausführlich erläutert, so dass auf eine weitergehende Beschreibung an die¬ ser Stelle verzichtet wird.
Eine erste Aus führungs form der Erfindung wird anhand von Figur 3 näher erläutert.
Figur 3 zeigt ein Bild B mit 352x288 Bildpunkten. Bildpunkte sind dabei zu Bildblöcken BB, beispielsweise in einer Größe 4x4 Bildpunkte, organisiert. Die Bildpunkte weisen jeweils einen Bildwert auf, die jeweils einen Farbwert und/oder einen Helligkeitswert, beispielsweise in Form einer 8-Bit- Auflösung, darstellen. Jedes Quadrat innerhalb des Bildblocks BB repräsentiert einen Bildpunkt, wie beispielsweise einen ersten Bildpunkt, BP1 und einen dazugehörigen ersten Bildwert Wl . Für die vorliegende Erfindung wird angenommen, dass der Bildwert eine Position innerhalb des mit dem Quadrat bezeich¬ neten Bildpunktes aufweist, beispielsweise einem Kreuzungs- punkt von Diagonalen des Quadrates.
Ferner zeigt Figur 3 einen schraffierten Bereich mit rekonstruierten Bildpunkten BR1, BR2 und den dazugehörigen zweiten Bildpunktwerten W21, W22. Die rekonstruierten Bildpunkte wur- den zu einem frühen Zeitpunkt codiert und stehen in ihrer decodierten, d.h. rekonstruierten Form, zur Bildung des Prädiktionswertes zur Verfügung.
In einem ersten Schritt werden mindestens zwei Trajektorien TO, Tl, T2, T3, T4 gebildet. Diese Trajektorien sind im ersten Ausführungsbeispiel als Viertelkreise gezeichnet und stellen somit keine Gerade dar. Entlang der jeweiligen Tra- jektorie entspricht ein Bildwert einem jeweiligen dritten Bildwert W31, W32. Im vorliegenden Ausführungsbeispiel star- tet die jeweilige Trajektorie in dem zweiten Bildwert, der exakt dem dritten Bildwert der jeweiligen Trajektorie ent¬ spricht . In einem zweiten Schritt werden zwei Hilfstra ektorien HT1, HT2 aus der Menge der verfügbaren Trajektorien TO, Tl, T2, T3, T4 derart ermittelt, dass ein jeweiliger Abstand AI, A2 zwischen der zu ermittelnden Hilfstra ektorie HT1, HT2 und der Position PI des ersten Bildwertes Wl minimal ist, d.h. jeweils eine kürzeste Distanz aufweist. Im vorliegenden Aus¬ führungsbeispiel sind die Traj ektorie Tl und T2 am nächsten zum ersten Bildpunkt benachbart, sodass HT1=T1 und HT2=T2 wird .
Figur 3 zeigt die jeweilige Distanz A2 der Trajektorie T2 vom Position Tl und AI der Trajektorie Tl zwischen Trajektorie Tl und Position PI. Da es sich um die kürzeste Distanz handelt, bildet der Abstand der jeweiligen Trajektorie einen 90° Winkel zu der Position PI.
In einem nachfolgenden Schritt wird der Prädiktionswert PRW durch gewichtete Mittelbildung der dritten Bildwerte W31, W32 der zwei Hilfstraj ektorien HT1=T1, HT2=T2 unter Berücksichtigung der zugehörigen Abstände AI, A2 folgendermaßen gebildet:
Diese Vorgehensweise ist als bi-lineare Interpolation be¬ kannt .
Mit Hilfe von Figur 4 wird eine Erweiterung der Erfindung beschrieben. Figur 4 zeigt einen Ausschnitt aus Figur 3 mit den Hilfstraj ektorien HT1 und HT2, sowie dem ersten Bildwert Wl und der Position PI. Zunächst wird der Prädiktionswert, wie in Figur 3 erläutert, gebildet. Der Prädiktionswert PRW ent¬ spricht einer gewichteten Mittelung der dritten Bildwerte W31, W32 der Trajektorien Tl, T2. In einem weiteren Schritt wird nun eine neue Trajektorie T5 zwischen den bestehenden Trajektorien Tl und T2 im Folgenden als T5 bezeichnet, generiert. Die neue Trajektorie T5 verläuft zumindest durch den ersten Bildwert Wl an der Position PI. Zudem kann die neue Trajektorie T5 derart zwischen den Hilfstra ektorien HT1, HT2 verlaufen, dass an einem beliebigen Punkt auf der neuen Trajektorien ein Verhältnis der kürzesten Abstände zwischen dem beliebigen Punkt und den beiden Hilfstraj ektorien zu einem Verhältnis der Abstände AI, A2 im ersten Bildwert identisch ist. Ein dritter Bildwert W35 der neuen Trajektorie T5 ist gleich Prädiktionswert PRW für den ersten Bildwert.
In einer alternativen Aus führungs form hierzu kann für den dritten Bildwert W35 der neuen Trajektorie T5 auch ein rekonstruierter Bildwert WR ermittelt werden. Hierzu kann zunächst ein Differenzwert aus dem ersten Bildwert Wl und dem Prädik¬ tionswert PRW gebildet werden zu
RES (BP1) = Wl - PRW Im nachfolgenden Schritt wird der Differenzwert quantisiert codiert, beispielsweise mit einer Huffmann Codierung, deco¬ diert und invers quantisiert. Mehrere Differenzwerte können optional zusätzlich vor der Quantisierung transformiert und nach der inversen Quantisierung rücktransformiert werden. Schließlich ergibt sich ein rekonstruierten Differenzwert
RES' (BP1), der unterschiedlich zu dem Differenzwert RES(BPl) sein. Der rekonstruierte Bildwert WR wird dann gebildet zu
WR = PRW + RES' (BP1)
Dieser rekonstruierte Bildwert wird als dritter Bildwert W35 der neuen Trajektorie T5 wird bei nachfolgenden Bildungen eines weiteren Prädiktionswertes, z.B. für PBX, siehe Position C3, verwendet.
Ein weiteres Ausführungsbeispiel wird anhand von Figur 5 er¬ läutert. Hierbei sind fünf Trajektorien TO, Tl, T2, T3, T4, dargestellt, wobei jede der Trajektorien eine nichtlineare Form aufweist. Die Trajektorien starten jeweils in einem der zweiten Bildwerte W22 und weisen daher als dritten Bildwert W32 den zweiten Bildwert W22 auf. In diesem Beispiel befindet sich der erste Bildpunkt BP1 auf Position c3. In Figur 5 wurden die Trajektorien derart konstruiert, dass diese genau auf einer Position des jeweiligen Bildwertes liegen. Hierbei wird nur eine Hilfstraj ektorie HT2 ermittelt, bei der der Abstand A2 Null ist. Selbstverständ- lieh können auch Mischformen vorkommen, bei der ein oder mehrere der Positionen nicht auf einer Trajektorie bzw.
Hilfstraj ektorie zu Liegen kommen.
Im vorliegenden Fall wird als Hilfstraj ektorie HT2 die Tra- jektorie T2 gewählt, da der Abstand A2 zwischen der Hilfstra- jektorie HT2 und der Position des ersten Bildwertes Null ist. Somit ist der Prädiktionswert PRW gleich dem dritten Bildwert W32 der Trajektorie T2, wobei dieser dritte Bildwert W32 gleich dem zweiten Bildwert W22 des rekonstruierten Bildpunk- tes BR2 ist.
In einem dritten Ausführungsbeispiel wird eine Kombination aus klassischer Prädiktion mit Geraden und Trajektorien, die nicht gerade sind, erläutert. In den bisherigen Beispielen wurden teilweise vorgegebene Prädiktionsmuster mit Hilfe der Trajektorien vorgestellt. Im Folgenden wird eine adaptive INTRA-Prädiktion beschrieben. Hierbei wird schrittweise eine Prädiktion durchgeführt, wobei nach Durchlaufen einer Prädiktion eine Prädiktionsrichtung für eine nachfolgende Prädikti- on adaptiv anpassbar ist.
Entgegen der bisherigen Darstellung in den Figuren 3 bis 5 wird nun eine Trajektorie durch mehrere Pfeile, die eine zu¬ sammenhängende Verbindung darstellen gebildet. In einem ers- ten Schritt wird eine erste Zeile an ersten Bildwerte, siehe im Koordinatensystem dazugehörige Bildpunkte an den Positio¬ nen bl, b2, b3, b4, durch die direkt darüberliegenden zweiten Bildwerte W21, W22, W23, W24 der rekonstruierten Bildpunkte PR1, PR2, PR3, PR4 prädiziert.
In einem zweiten Schritt wird eine zweite Zeile an ersten Bildwerten, siehe erste Bildpunkte an Positionen cl, c2, c3, c4 im Koordinatensystem durch eine Diagonale von links oben nach rechts unten führende Prädiktionsrichtung prädiziert. Die entspricht bspw. der Prädiktionsrichtung 4 aus Figur 1. Diese Prädiktionsrichtung wird in dem zweiten Schritt auch für die ersten Bildwerte mit ersten Bildpunkten an den Positionen dl und el durchgeführt.
In einem dritten und vierten Schritt findet eine nach unten gerichtete Prädiktion statt, markiert mit den Zahlen 3 und 4 in Figur 6.
Die Trajektorie Tl führt von al, bl, c2, d2 zu e2. Analog da¬ zu werden die Trajektorien T2 und T3 gebildet. Wie bereits eingangs anhand von Figur 2 erwähnt, wird bei der Prädiktion in Figur 6 ein zweiter Bildwert des rekonstruierten Bildpunktes verwendet, beispielsweise zum Erzeugen eines Prädiktionswertes für einen ersten Bildwert an Position e2 der zweite Bildwert W21 des rekonstruierten Bildpunktes BR1. Somit werden hierbei lediglich rekonstruierte Bildpunkte ge¬ mäß der schraffierten Bildpunkte in Figur 6 verwendet.
Analog zu den vorhergehenden Ausführungsbeispielen kann nach Ermittlung des Prädiktionswertes für den ersten Bildwert ein dazugehöriger rekonstruierter Bildwert WR ermittelt werden und für den nachfolgenden Prädiktionsschritt eingesetzt wer¬ den. Beispielsweise wird für den ersten Bildwert an der Posi¬ tion bl ein Prädiktionswert ermittelt. Nach Erzeugung des da¬ zugehörigen Differenzwertes der Codierung und Decodierung wird ein zweiter Bildwert für den rekonstruierten Bildpunkt an Position bl generiert. Dieser zweite Bildwert wird dann zur Ermittlung eines Prädiktionswertes für den ersten Bild¬ wert an der Position c2 verwendet, anstelle des zweiten Bild- wertes des rekonstruierten Bildpunktes von der Position al . Diese Vorgehensweise kann auch analog für andere zu codieren¬ de erste Bildpunkte entlang der jeweiligen Trajektorie ange¬ wendet werden. Diese Vorgehensweise kann auch für andere Aus¬ führungsformen Verwendung finden.
Die geschilderten Aus führungs formen können anhand von spezifischen Vorrichtungen implementiert und ausgeführt werden, siehe Figur 7. Die Vorrichtungen VOR verfügen über Einheiten El, E2, E3, E4, EW die einzelne Schritte der Ausführungsformen realisieren und ausführen. Die Einheiten können dabei in Software, Hardware und oder in einer Kombination aus Soft- und Hardware realisiert und ausgeführt werden. Die Einheiten können dabei auf einen Prozessor ablaufen, wobei einzelne Schritte des Verfahrens in einem Speicher abgelegt und in den Prozessor geladen werden können. Zudem können in dem Speicher die Bildwerte, wie die ersten, zweiten und dritten Bildwerte und weitere Informationen zu dem Bild, sowie weiterführende Verfahrensschritte zur Kodierung und Decodierung von Bildwerten abgelegt sein.
Literaturangabe
[1] H. Yang, J. Fu, S. Lin, J. Song, D. Wang, M. Yang, J.
Zhou, H. Yu, C. Lai, Y. Lin, L. Liu, J. Zheng, X. Zheng, „Description of video coding technology proposal by Hua- wei Technologies & Hisilicon Technologies" , ISO/ IEC
JTC1/SC29/WG11 (MPEG) and ITU-T SG16 Q.6 (VCEG) , docu- ment JCTVC-Alll, Dresden, Germany, April 2010.
[2] F. Wu, X. Sun, J. Xu, Y. Zhou, W. Ding, X. Peng, Z. Xi- ong, "Desription of video coding technology proposal by Microsoft", ISO/IEC JTC1/SC29/WG11 (MPEG) and ITU-T SG16 Q.6 (VCEG), document JCTVC-Al 18 , Dresden, Germany, April 2010.

Claims

Patentansprüche
1. Verfahren zur Bildung eines Prädiktionswertes (PRW) für einen ersten Bildwert (Wl) eines ersten Bildpunktes (BP1) ei- nes Bildes (B) anhand eines zweiten Bildwertes (W21, W22) zu¬ mindest eines rekonstruierten Bildpunktes (BR1, BR2 ) des Bildes (B) mit folgenden Schritten:
Bilden von zumindest einer Trajektorie (Tl, T2, T3), die ei- nen dritten Bildwert (W31, W32, W33) aufweist, wobei entlang der jeweiligen Trajektorie (Tl, T2, T3) ein Bildwert dem jeweiligen dritten Bildwert (W31, W32, W33) entspricht und die jeweilige Trajektorie (Tl, T2, T3) eine Form aufweist, die keine Gerade ist;
Zuweisen des zweiten Bildwertes (W21, W22) zu dem jeweiligen dritten Bildwert (W31, W32);
Ermitteln zumindest einer der Trajektorien (T2) als Hilfstra- jektorie (HT2), die einen Abstand (A2) zu einer Position (PI) des ersten Bildwertes (Wl) aufweist, wobei der Abstand (A2) eine kürzeste Distanz zu der Position (PI) aufweist;
Erzeugen des Prädiktionswertes (PRW) auf Basis des dritten Bildwertes (W32) der Hilfstraj ektorie (HT2) .
2. Verfahren nach Anspruch 1, bei dem
für das Zuweisen des zweiten Bildwertes (W21) entweder derjenige zweite Bildwert (W21) ausgewählt wird, der einen Abstand zwischen dem zweitem Bildwert (W21) und der zu dem dritten
Bildwert (W31) zugeordneten Trajektorie (Tl) minimiert, oder der einem rekonstruierten Bildpunkt des ersten Bildpunktes entspricht .
3. Verfahren nach Anspruch 1 oder 2, bei dem
nur eine Trajektorien (Tl, T2, T3) zur Generierung des ersten Bildwertes (Wl) berücksichtigt wird, falls der Abstand (A2) gleich Null ist; der dritten Bildwert (W32) der Hilfstra ektorie (HT2) dem ersten Bildwert (Wl) zugeordnet wird.
4. Verfahren nach Anspruch 1 oder 2, bei dem
zumindest zwei Hilfstra ektorien (HT1, HT2) derart bestimmt werden, dass der jeweilige Abstand (AI, A2 ) zwischen der Hilfstraj ektorie (HT1, HT2) und der Position (PI) die kürzes¬ te Distanz aufweist;
der Prädiktionswert (PRW) durch die dritten Bildwerte (W31, W32) der zumindest zwei Hilfstraj ektorien (HT1, HT2) gebildet wird .
5. Verfahren nach Anspruch 4, bei dem
der Prädiktionswert (PRW) durch eine gewichtete Mittelwert- bildung der dritten Bildwerte (W31, W32) der zumindest zwei Hilfstraj ektorien (HT1, HT2) gebildet wird.
6. Verfahren nach Anspruch 5, bei dem
die gewichtete Mittelwertbildung die Abstände (AI, A2 ) je- weils als Kehrwert berücksichtigt.
7. Verfahren nach einem der Ansprüche 3 bis 6, bei dem eine neue Trajektorie (T5) derart gebildet wird, dass
- die neue Trajektorie (T5) durch die Position (PI) des ersten Bildwertes (Wl) angeordnet wird;
- einem dritten Wert (W35) der neuen Trajektorie (T5) der Prädiktionswert (PRW) oder der erste Bildwert (Wl) oder ein rekonstruierter Bildwert (BR5) des ersten Bildwertes (Wl) zugeordnet wird.
8. Verfahren nach Anspruch 7, bei dem
die neue Trajektorie (T5) derart zwischen zwei Hilfstraj ekto¬ rien (HT1, HT2) angeordnet wird, dass an einem beliebigen Punkt auf der neuen Trajektorie (T5) ein Verhältnis der kür- zesten Abstände zwischen dem beliebigen Punkt und den beiden Hilfstraj ektorien (HT1, HT2) zu einem Verhältnis der Abstände (AI, A2 ) der beiden Hilfstraj ektorien (HT1, HT2) zu dem ersten Bildwert (Wl) identisch ist.
9. Vorrichtung (VOR) zur Bildung eines Prädiktionswertes (PRW) für einen ersten Bildwert (Wl) eines ersten Bildpunktes (BP1) eines Bildes (B) anhand eines zweiten Bildwertes (W21, W22) zumindest eines rekonstruierten Bildpunktes (BR1, BR2 ) des Bildes (B) mit folgenden Einheiten:
Erste Einheit (El) zum Bilden von zumindest einer Trajektorie (Tl, T2, T3), die jeweils einen dritten Bildwert (W31, W32, W33) aufweist, wobei entlang der jeweiligen Trajektorie (Tl, T2, T3) ein Bildwert dem jeweiligen dritten Bildwert (W31, W32, W33) entspricht und die jeweilige Trajektorie (Tl, T2, T3) eine Form aufweist, die keine Gerade ist; Zweite Einheit (E2) zum Zuweisen des zweiten Bildwertes (W21, W22) zu dem jeweiligen dritten Bildwert (W31, W32);
Dritte Einheit (E3) zum Ermitteln zumindest einer der Trajek- torien (T2) als Hilfstraj ektorie (HT2), die einen Abstand (A2 ) zu einer Position (PI) des ersten Bildwertes (Wl) auf¬ weist, wobei der Abstand (A2) eine kürzeste Distanz zu der Position (PI) aufweist;
Vierte Einheit (E4) zum Erzeugen des Prädiktionswertes (PRW) auf Basis des dritten Bildwertes (W32) der Hilfstraj ektorie (HT2) .
10. Vorrichtung nach Anspruch 9, die
zumindest eine weitere Einheit (EW) aufweist, wobei mit der weiteren Einheit (EW) einzelne Verfahrenschritte der Ansprü¬ che 2 bis 8 ausführbar sind.
EP12700628.6A 2011-01-14 2012-01-05 Verfahren und vorrichtungen zur bildung eines prädiktionswertes Withdrawn EP2617197A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102011002732 2011-01-14
DE102011006036A DE102011006036B4 (de) 2011-01-14 2011-03-24 Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
PCT/EP2012/050133 WO2012095350A1 (de) 2011-01-14 2012-01-05 Verfahren und vorrichtungen zur bildung eines prädiktionswertes

Publications (1)

Publication Number Publication Date
EP2617197A1 true EP2617197A1 (de) 2013-07-24

Family

ID=45509462

Family Applications (1)

Application Number Title Priority Date Filing Date
EP12700628.6A Withdrawn EP2617197A1 (de) 2011-01-14 2012-01-05 Verfahren und vorrichtungen zur bildung eines prädiktionswertes

Country Status (7)

Country Link
US (1) US9225985B2 (de)
EP (1) EP2617197A1 (de)
JP (1) JP5746370B2 (de)
KR (1) KR20140005232A (de)
CN (1) CN103283232B (de)
DE (1) DE102011006036B4 (de)
WO (1) WO2012095350A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US9467692B2 (en) * 2012-08-31 2016-10-11 Qualcomm Incorporated Intra prediction improvements for scalable video coding
KR20180054693A (ko) 2015-10-13 2018-05-24 엘지전자 주식회사 비디오 신호의 인코딩, 디코딩 방법 및 그 장치
EP3301931A1 (de) * 2016-09-30 2018-04-04 Thomson Licensing Verfahren und vorrichtung zur omnidirektionalen videocodierung mit adaptiver intraprädiktion
US10791327B2 (en) * 2017-06-30 2020-09-29 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding a picture block
EP3709643A1 (de) 2019-03-11 2020-09-16 InterDigital VC Holdings, Inc. Intraprädiktionsmodus-partitionierung

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3857298B2 (ja) 1996-05-28 2006-12-13 松下電器産業株式会社 画像予測符号化装置及び方法、並びに画像予測復号化装置及び方法
JP2006005438A (ja) 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
KR101380580B1 (ko) 2006-08-02 2014-04-02 톰슨 라이센싱 비디오 인코딩을 위한 적응형 기하학적 파티셔닝 방법 및 장치
US8542726B2 (en) * 2006-10-17 2013-09-24 Microsoft Corporation Directional and motion-compensated discrete cosine transformation
EP2081386A1 (de) 2008-01-18 2009-07-22 Panasonic Corporation Hochpräzise Randvorhersage zur Intrakodierung
JP2009284275A (ja) * 2008-05-23 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラムおよびそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
DE102008058489A1 (de) * 2008-08-19 2010-04-15 Siemens Aktiengesellschaft Verfahren zum Codieren einer Folge von digitalisierten Bildern
US20110249733A1 (en) * 2010-04-09 2011-10-13 Jie Zhao Methods and Systems for Intra Prediction
US8860824B2 (en) * 2010-08-06 2014-10-14 Honeywell International Inc. Motion blur modeling for image formation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2012095350A1 *

Also Published As

Publication number Publication date
DE102011006036A1 (de) 2012-07-19
CN103283232B (zh) 2016-04-13
DE102011006036B4 (de) 2012-12-27
CN103283232A (zh) 2013-09-04
KR20140005232A (ko) 2014-01-14
US9225985B2 (en) 2015-12-29
US20130301718A1 (en) 2013-11-14
JP2014507857A (ja) 2014-03-27
WO2012095350A1 (de) 2012-07-19
JP5746370B2 (ja) 2015-07-08

Similar Documents

Publication Publication Date Title
DE60003070T2 (de) Adaptive bewegungsvektorfeldkodierung
DE69333288T2 (de) Verbesserte vektorquantisierung
DE102019218837A1 (de) VERFAHREN UND SYSTE M ZUR NEURONALNETZ WERK-SCHLEIFENFILTERUNG ZUR VlDEOCODIERUNG
DE102016125379B4 (de) Bewegungsvektoraufteilung des letzten Frames
DE112017006657T5 (de) Adaptive planare Prädiktion mit ungleichen Gewichten
EP2617197A1 (de) Verfahren und vorrichtungen zur bildung eines prädiktionswertes
DE112019004696T5 (de) Verfahren zum Verarbeiten eines projektionsbasierten Rahmens
DE112017006638T5 (de) Verbesserte Videobitstromkodierung
DE202012013410U1 (de) Bildkompression mit SUB-Auflösungsbildern
DE202016008175U1 (de) Adaptive gerichtete Intra-Prädiktion mit Blockgröße
DE202016008155U1 (de) Hybrid-Prädiktionsmodi zur Kodierung von Videos
DE112012006541B4 (de) Verfahren zur Videokompression
DE202016008164U1 (de) Intelligente Sortierung der rekursiven Blockaufteilung für die erweiterte Intra-Prädiktion bei der Videocodierung
DE202017007520U1 (de) Bewegungskompensation durch maschinelles Lernen
DE112022004563T5 (de) Hybride, auf einem neuronalen netzwerk basierende, end-to-end-bild- und video-codierverfahren
DE102016125086A1 (de) Adaptiver direktionaler Schleifenfilter
DE602005000425T2 (de) Verfahren und Anordnung zur Erzeugung von Kandidatenvektoren für Bildinterpolierungssysteme, die Bewegungsabschätzung und -kompensation verwenden
DE69835431T2 (de) Bildkodier-und-dekodierverfahren und-vorrichtung
EP1374559A1 (de) Verfahren zur komprimierung und dekomprimierung von bilddaten
EP1941744A2 (de) Verfahren und vorrichtungen zur bestimmung und rekonstruktion eines prädizierten bildbereichs
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors
DE10022262A1 (de) Verfahren und eine Anordnung zur Codierung bzw. Decodierung einer Folge von Bildern
DE102020207711B3 (de) Verfahren und vorrichtungen zur codierung von bilddaten
DE102007051174B4 (de) Verfahren zur Bewegungsschätzung in der Bildverarbeitung
EP1121809B1 (de) Verfahren und anordnung zur codierung eines digitalisierten bildes, verfahren und anordnung zur decodierung eines digitalisierten bildes

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20130419

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20140513

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS AKTIENGESELLSCHAFT

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170801