WO2010103106A1 - Device and method for intermediate image interpolation - Google Patents

Device and method for intermediate image interpolation Download PDF

Info

Publication number
WO2010103106A1
WO2010103106A1 PCT/EP2010/053196 EP2010053196W WO2010103106A1 WO 2010103106 A1 WO2010103106 A1 WO 2010103106A1 EP 2010053196 W EP2010053196 W EP 2010053196W WO 2010103106 A1 WO2010103106 A1 WO 2010103106A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
image
input image
images
sequence
Prior art date
Application number
PCT/EP2010/053196
Other languages
German (de)
French (fr)
Inventor
Peter Rieder
Markus Schu
Kilian Jacob
Original Assignee
Trident Microsystems, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trident Microsystems, Inc. filed Critical Trident Microsystems, Inc.
Publication of WO2010103106A1 publication Critical patent/WO2010103106A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Definitions

  • the present invention relates to an apparatus and a method for interframe interpolation.
  • Devices and methods for interframe interpolation are known in principle and serve, for example, to generate an interpolated image signal representing an image sequence having a second, higher image frequency from an image signal which represents an image sequence with a first image frequency.
  • Such apparatus and methods are used, for example, in television technology to generate from an image signal representing a 50Hz (half) image sequence, an image signal representing a 100Hz image sequence, or from a motion picture film signal comprising a 24Hz image sequence represents interpolating a 100 Hz image signal.
  • the motion estimation ie the determination of motion information on image blocks of the intermediate images to be interpolated, can be very computationally intensive, in particular if the image points of the images of the image sequence to be interpolated are assigned image information values which can originate from a large range of values. This is the case, for example, if the image sequence to be interpolated is a sequence of images with a high dynamic range. Such Image sequence is also referred to below as HDR (High Dynamic Range) image sequence.
  • HDR High Dynamic Range
  • the pixels of the images of such an HDR image sequence are associated, for example, with image information in the form of data words having a data word width of 32 bits.
  • the object of the present invention is to provide a method for inter-frame interpolation, which requires a reduced computational effort, and to provide a device for carrying out such a method.
  • the apparatus comprises: an input for supplying an input image signal representing a sequence of images, each having a number of pixels, each associated with at least one image information value; a companding unit supplied with the input image signal and configured to generate a companded image signal from the input image signal by companding the image information values; a motion estimation unit supplied with the companded image signal and configured to determine motion information about the input image signal based on the composite image signal; an interpolation unit supplied with the input image signal and the motion information and configured to generate an interpolated image signal representing an image sequence having a higher image frequency and / or images having other motion phases as compared with the image sequence represented by the input image signal.
  • the inter-frame interpolation method comprises: providing an input image signal representing a sequence of images each having a number of Having pixels, each associated with at least one image information value; Generating a companded image signal from the input image signal by companding the image information values of the input image signal; Determining a motion information to the input image signal based on the companded image signal; Generating an interpolated image signal representing an image sequence having a higher frame rate and / or images with other motion phases compared to the image sequence represented by the input image signal, from the input image signal using the motion information.
  • a companding of the image information values is to be understood in the context of the present description as a reduction of the value range of the image information values.
  • the image information values of the input image signal are each represented by data words having a data word width of 32 bits, and these image information values are mapped to composite image information values, each represented by a data word having a data word image width of 8 bits.
  • a companding takes place, for example, by dividing the data word to be compiled into a number of partial data words which each have the same or different data word widths and in that the companded data word consists of the most significant bits (MSB) of the partial data words composed.
  • MSB most significant bits
  • FIG. 1 schematically illustrates an input image sequence represented by an input image signal and an interpolated image sequence resulting from this input image sequence.
  • FIG. 2 illustrates an example of an apparatus for generating the interpolated image sequence from the input image sequence, which comprises a compander unit, a motion estimation unit and an interpolation unit.
  • FIG. 3 illustrates the operation of an example of a compander unit.
  • FIG. 4 illustrates a block diagram of an example of the motion estimation unit.
  • FIG. 5 illustrates a block diagram of an example of an interpolation unit.
  • FIG. 6 illustrates by means of a block diagram a further example of a device for generating an interpolated image sequence from an input image sequence.
  • FIG. 1 schematically shows an image sequence which is also referred to below as an input image sequence and which has temporally successive images F (il), F (i).
  • the individual images F (il), F (i) each have a number of pixels (pixels), to each of which at least one image information value is assigned. For example, if these images are color images, each pixel is associated with three image information values, either a red value (R), a green value (G) and a blue value (B) in an RGB representation, or a luminance value (Y). Value) and two chrominance values (U value and V value) in a YUV representation.
  • intermediate images at temporal positions between two successive images F (il), F (i) of the input image sequence.
  • “Moving correctly” in this context means that these intermediate images are interpolated such that moving objects located in an image F (i-1) of the input image sequence at a first position and in the second image F (i) at a second position are located in the at least one intermediate image at a spatial position between the first and second position.
  • the relative spatial position of this object between the first and second position corresponds to the relative temporal position of the interpolated intermediate image between the temporal positions of the first and second image F (il), F (i).
  • the input image sequence may, with regard to the image information values assigned to the individual pixels, in particular a high-resolution image sequence, such.
  • These image information values can come from a high range of values compared to conventional television images.
  • each pixel is assigned, for example, a digital data word with a word width of 32 bits, of which 24 bits determine the color distribution and 8 bits the brightness.
  • a digital data word for a pixel of an HDR image thus comprises: 8 bits for a red component (R); 8 bits for a green component (G); 8 bits for a blue component (G); 8 bits for a brightness-determining exponent.
  • interframe interpolation For purposes of interframe interpolation, it is generally known to perform a so-called motion estimation for individual image blocks of the intermediate image to be interpolated.
  • the intermediate image is subdivided into individual blocks which are arranged in the form of a matrix and which, for example, comprise 8 ⁇ 8 or 16 ⁇ 16 pixels.
  • motion information indicating each image block to be interpolated is obtained by using the image contents of which image blocks in the first and second images F (i-1), F (i), the image content of the image to be interpolated
  • This movement information is present, for example, in the form of a so-called motion vector.
  • the determination of this movement information can be done, for example, by means of a recursive motion estimation method. Such a method is basically known, so that it is possible to dispense with further explanations.
  • Estimation method a plurality of comparisons between the image contents of image blocks in the first image F (il) on the one hand and the second image F (i) on the other.
  • Such a "block comparison" is all the more computationally intensive, the larger the value ranges to which the individual pixel values originate.
  • a device and a method for inter-frame interpolation with the device that can be carried out with this device This computational effort can be reduced, is illustrated below with reference to FIG 2.
  • FIG. 2 schematically shows a device for interframe interpolation. This device has an input to
  • an input image signal F representing an input image sequence, such as the image sequence with the images F (i-1), F (i) illustrated with reference to FIG.
  • This input image signal F thus contains a sequence of the pixel values which are assigned to the pixels in the individual images.
  • This input image signal F is supplied on the one hand to a compander unit 1 and on the other hand to an interpolation unit 4.
  • a delay element 2 is connected between the input and the interpolation unit 4, which serves to "compensate” for a signal delay which results from the processing of the input image signal F in the companion unit 1 to be explained below.
  • the compander unit 1 is designed to generate a companded image signal Fl from the input image signal F by companding the pixel values contained in the input image signal F.
  • the input image sequence F comprises, for example, a sequence of data words of a word width of n bits each, and the combined image signal F1 comprises, for example, a sequence of data words with a word width of m bits, where m is smaller than n.
  • the companded image signal Fl represents an image sequence which has the same image frequency as the image sequence represented by the input image sequence F and whose images have the same number of pixels as the images of the input image sequence.
  • the image sequence represented by the companded image sequence F1 results from the input image sequence by reducing the representation accuracy of the pixel values and thus the amount of data required for this purpose.
  • Companding an HDR image, for example, to an 8-bit image are generally known, so that it is possible to dispense with further explanations.
  • Figure 3 illustrates the operation of an example of a compander that compandes an HDR image with 32 bits per pixel onto an image with 8 bits per pixel.
  • D denotes a data word of a pixel of an HDR image in FIG. Of the 32 bits of this data word, 8 bits represent a red component R of the pixel, 8 bits a green component G, 8 bits a blue component B and 8 bits a brightness-determining exponent E.
  • E For example, in a composite data word D 'with 8 bits only 2 bits still a red component R, 2 bits a green component G, 2 bits a blue component B and 2 bits a brightness determining exponent E.
  • the conversion of the color components representing partial data words of 8 bits in the original data word on the color components representing partial data words of each 2 bits in the companded data word can be made using any linear or non-linear compander characteristic. In one example, it is provided to delete from the 8-bit-wide partial data words in each case the 6 least significant bits (LSBs, Least Significant Bits) in order to obtain the 2-bit-wide partial data words.
  • the exponent can be companded in a corresponding manner.
  • the color components and the exponent differ in different ways, i. using different compander characteristics, can be companded.
  • the data word D is removed by deleting the exponent E. pandieren.
  • the resulting data word in this case has a word length of 24 bits.
  • the companding factor is dependent on the word width of the data word D 'desired in the result.
  • the word width of the partial data words representing the colors in the companded data word D ' is, for example, between 3 bits and 6 bits, whereby the individual colors can be companded differently both with regard to the companding factor and with respect to the compander characteristic.
  • the data word D is provided to compander the data word D by deleting the color components.
  • the compiled data word corresponds in this case to the exponent E.
  • a motion estimation in this case is performed exclusively using the brightness information represented by the exponent.
  • the companded image signal Fl is supplied to a motion estimation unit 3, which is designed to determine a motion information to the input image signal F based on the composite image signal Fl.
  • This motion estimation unit 3 can be a conventional motion estimation unit, for example a motion estimation unit which determines motion information for each image block of a desired intermediate image to be interpolated by comparing individual image blocks of successive images of the "companded image sequence" represented by the companded image signal Fl.
  • Such a block comparison comprises a comparison of the individual pixels of these blocks.
  • all image information can be compared, which are assigned by the companded data words individual pixels.
  • only parts of the companded data words can be compared with each other, such as only one or more of the color information or just the health information.
  • the motion information is determined, for example, in the form of motion vectors, wherein, for example, each image block of an image to be interpolated is assigned such a motion vector.
  • This motion information M is supplied to the interpolation unit 4, which is designed to generate, based on the input image signal F and this motion information M, an interpolated image signal F2 representing an image sequence with interpolated images.
  • this image sequence with interpolated images can be an image sequence which comprises the input images and the interpolated intermediate images, which therefore has a higher frame rate than the input image sequence.
  • this image sequence with interpolated images can also be an image sequence that no longer contains the input images and that only includes images with different motion phases than the input images.
  • the computation outlay for the motion estimation is reduced since the motion estimation is not applied to the input picture sequence F but to the companded picture sequence Fl comprising a reduced data set.
  • the motion estimation unit 3 and the interpolation unit 4 may be conventional motion estimation units and interpolation units 4.
  • FIG. 3 An example of a motion estimation unit 3 is shown schematically in FIG.
  • This motion estimation unit 3 comprises two memories 31, 32, which are designed to each store a companded picture of the picture sequence represented by the companded picture signal F1.
  • the companded image signal Fl is supplied to a first memory 31 directly and a second memory 32 via a delay element 33 with a time delay.
  • a delay period of the delay In this case, the term "delay" 33 corresponds to the image duration of an image, so that two images are stored at one time in the two memories 31, 32, which temporally follow one another in the companded image sequence.
  • the movement estimation unit 3 also comprises a motion estimator 34, which accesses the two memories 31, 32 in order to compare individual picture blocks of the stored pictures.
  • the motion estimation unit 3 may also include a motion vector memory 35 in which motion vectors used by the motion estimator 34 for motion estimation are stored.
  • FIG. 4 An example of an interpolation unit 4 configured to generate the interpolated image signal F2 from the input image signal F using the motion information M is shown in FIG.
  • This interpolation unit 4 comprises two memories 41, 42 which are each capable of storing an image of the input image sequence.
  • the input image signal F is fed directly to one of the memories 41 and to a second memory 42 via a delay element 43, which has a delay time of 1 bit.
  • the interpolation unit 4 also comprises an interpolator 44, which accesses the two memories 41, 42 and which is designed to interpolate each image block of an intermediate image to be interpolated by using the image vector block associated with each motion vector in the image first memory 41 stored image block and an image block stored in the second memory 42 are mixed.
  • FIG. 6 illustrates, by means of a block diagram, a further device for inter-frame interpolation and a method which can be carried out by this device.
  • the input image signal F is supplied directly to the motion estimation unit 3, which in this case is adapted to perform a motion estimation on the uncompensated input signal F and to generate a motion information M to the input image signal F.
  • This motion information M is used in the interpolation unit 4 to generate the interpolated image signal F2.
  • This interpolated image signal F2 can represent, for example, an image sequence with input images and interpolated intermediate images, as shown in FIG.
  • This interpolated image signal is fed to a companding unit 1, which is designed to generate a companded interpolated image signal F3 from this interpolated intermediate image signal F2.
  • the companded image signal F3 has the same frame rate as the interpolated image signal F2 but has a reduced dynamic range with respect to the pixel values of the individual pixels.
  • the scope of the companding is adapted, for example, to the display options of a display device on which the companded interpolated image signal F3 is to be displayed. This device makes it possible, for example, to interpolate an input image sequence which is an HDR image sequence and to display it on a conventional television set. Although the application of the motion estimation to the input image sequence is computation-intensive, it offers the advantage of a more accurate motion estimation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

A method and a device for intermediate image interpolation are described.

Description

VORRICHTUNG UND VERFAHREN ZUR ZWISCHENBILDINTERPOLATIONDEVICE AND METHOD FOR INTERMEDIATE INTERPOLATION
Beschreibungdescription
Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zur Zwischenbildinterpolation .The present invention relates to an apparatus and a method for interframe interpolation.
Vorrichtungen und Verfahren zur Zwischenbildinterpolation sind grundsätzlich bekannt und dienen beispielsweise dazu, aus einem Bildsignal, das eine Bildfolge mit einer ersten Bildfrequenz repräsentiert, ein interpoliertes Bildsignal, das eine Bildfolge mit einer zweiten, höheren Bildfrequenz repräsentiert, zu erzeugen. Anwendung finden solche Vorrichtungen und Verfahren beispielsweise in der Fernsehtechnik, um aus einem Bildsignal, das eine 50Hz- (Halb) -Bildfolge repräsentiert, ein Bildsignal zu erzeugen, das eine 100Hz- Bildfolge repräsentiert, oder um aus einem Kinofilmsignal, das eine 24Hz-Bildfolge repräsentiert, ein lOOHz-Bildsignal zu interpolieren.Devices and methods for interframe interpolation are known in principle and serve, for example, to generate an interpolated image signal representing an image sequence having a second, higher image frequency from an image signal which represents an image sequence with a first image frequency. Such apparatus and methods are used, for example, in television technology to generate from an image signal representing a 50Hz (half) image sequence, an image signal representing a 100Hz image sequence, or from a motion picture film signal comprising a 24Hz image sequence represents interpolating a 100 Hz image signal.
Um die Zwischenbilder bewegungsrichtig interpolieren zu können, ist es bekannt, die Bilder der zu interpolierenden Bildfolge in Bildblöcke zu unterteilen und durch Vergleich der Bildinhalte aufeinanderfolgender Bilder Bewegungsinformatio- nen zu den einzelnen Bildblöcken, beispielsweise in Form von Bewegungsvektoren, zu ermitteln. Diese Bewegungsinformation wird anschließend für die Interpolation der Inhalte der Bildblöcke der Zwischenbilder verwendet.In order to be able to interpolate the intermediate images in the correct direction, it is known to subdivide the images of the image sequence to be interpolated into image blocks and to determine motion information about the individual image blocks, for example in the form of motion vectors, by comparing the image contents of successive images. This motion information is then used for the interpolation of the contents of the image blocks of the intermediate images.
Die Bewegungsschätzung, d. h. die Ermittlung von Bewegungsinformationen zu Bildblöcken der zu interpolierenden Zwischenbilder kann sehr rechenaufwendig sein, insbesondere dann, wenn den Bildpunkten der Bilder der zu interpolierenden Bildfolge Bildinformationswerte zugeordnet sind, die aus einem großen Wertebereich stammen können. Dies ist beispielsweise dann der Fall, wenn die zu interpolierende Bildfolge eine Folge von Bildern mit hohem Dynamikbereich ist. Eine solche Bildfolge wird nachfolgend auch als HDR-Bildfolge (HDR=High Dynamic Range) bezeichnet. Den Bildpunkten der Bilder einer solchen HDR-Bildfolge sind beispielsweise Bildinformationen in Form von Datenworten mit einer Datenwortbreite von 32 Bit zugeordnet.The motion estimation, ie the determination of motion information on image blocks of the intermediate images to be interpolated, can be very computationally intensive, in particular if the image points of the images of the image sequence to be interpolated are assigned image information values which can originate from a large range of values. This is the case, for example, if the image sequence to be interpolated is a sequence of images with a high dynamic range. Such Image sequence is also referred to below as HDR (High Dynamic Range) image sequence. The pixels of the images of such an HDR image sequence are associated, for example, with image information in the form of data words having a data word width of 32 bits.
Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zur Zwischenbildinterpolation zur Verfügung zu stellen, das einen reduzierten Rechenaufwand benötigt, und eine Vorrichtung zur Durchführung eines solchen Verfahrens zur Verfügung zu stellen .The object of the present invention is to provide a method for inter-frame interpolation, which requires a reduced computational effort, and to provide a device for carrying out such a method.
Diese Aufgabe wird durch eine Vorrichtung gemäß Anspruch 1 und durch ein Verfahren gemäß Anspruch 2 gelöst.This object is achieved by a device according to claim 1 and by a method according to claim 2.
Die erfindungsgemäße Vorrichtung umfasst: einen Eingang zur Zuführung eines Eingangsbildsignals, das eine Folge von Bildern repräsentiert, die jeweils eine Anzahl von Bildpunkten aufweist, denen jeweils wenigstens ein Bildinformationswert zugeordnet ist; eine Kompandereinheit, der das Eingangsbildsignal zugeführt ist und die dazu ausgebildet ist, aus dem Eingangsbildsignal durch Kompandieren der Bildinformationswerte ein kompandiertes Bildsignal zu erzeugen; eine Bewegungsschätzeinheit, der das kompandierte Bildsignal zugeführt ist und die dazu ausgebildet ist, basierend auf dem kompan- dierten Bildsignal eine Bewegungsinformation zu dem Eingangsbildsignal zu ermitteln; eine Interpolationseinheit, der das Eingangsbildsignal und die Bewegungsinformation zugeführt ist und die dazu ausgebildet ist, ein interpoliertes Bildsignal zu erzeugen, das eine Bildfolge repräsentiert, die im Vergleich zu der durch das Eingangsbildsignal repräsentierten Bildfolge eine höhere Bildfrequenz und/oder Bilder mit anderen Bewegungsphasen aufweist.The apparatus according to the invention comprises: an input for supplying an input image signal representing a sequence of images, each having a number of pixels, each associated with at least one image information value; a companding unit supplied with the input image signal and configured to generate a companded image signal from the input image signal by companding the image information values; a motion estimation unit supplied with the companded image signal and configured to determine motion information about the input image signal based on the composite image signal; an interpolation unit supplied with the input image signal and the motion information and configured to generate an interpolated image signal representing an image sequence having a higher image frequency and / or images having other motion phases as compared with the image sequence represented by the input image signal.
Das erfindungsgemäße Verfahren zur Zwischenbildinterpolation umfasst: Bereitstellen eines Eingangsbildsignals, das eine Folge von Bildern repräsentiert, die jeweils eine Anzahl von Bildpunkten aufweist, denen jeweils wenigstens ein Bildinformationswert zugeordnet ist; Erzeugen eines kompandierten Bildsignals aus dem Eingangsbildsignal durch Kompandieren der Bildinformationswerte des Eingangsbildsignals; Ermitteln ei- ner Bewegungsinformation zu dem Eingangsbildsignal anhand des kompandierten Bildsignals; Erzeugen eines interpolierten Bildsignals, das eine Bildfolge repräsentiert, die im Vergleich zu der durch das Eingangsbildsignal repräsentierten Bildfolge eine höhere Bildfrequenz und/oder Bilder mit ande- ren Bewegungsphasen aufweist, aus dem Eingangsbildsignal unter Verwendung der Bewegungsinformation.The inter-frame interpolation method according to the invention comprises: providing an input image signal representing a sequence of images each having a number of Having pixels, each associated with at least one image information value; Generating a companded image signal from the input image signal by companding the image information values of the input image signal; Determining a motion information to the input image signal based on the companded image signal; Generating an interpolated image signal representing an image sequence having a higher frame rate and / or images with other motion phases compared to the image sequence represented by the input image signal, from the input image signal using the motion information.
Unter einem Kompandieren der Bildinformationswerte ist im Zusammenhang mit der vorliegenden Beschreibung eine Reduktion des Wertebereichs der Bildinformationswerte zu verstehen.A companding of the image information values is to be understood in the context of the present description as a reduction of the value range of the image information values.
Diese Reduktion des Wertebereichs kann wahlweise unter Verwendung einer linearen oder einer nicht-linearen Kompander- kennlinie erfolgen. Bei einem Beispiel ist vorgesehen, dass die Bildinformationswerte des Eingangsbildsignals jeweils durch Datenworte mit einer Datenwortbreite von 32 Bit repräsentiert sind und dass diese Bildinformationswerte auf kom- pandierte Bildinformationswerte abgebildet werden, die jeweils durch ein Datenwort mit einer Datenwortbildbreite Von 8 Bit repräsentiert sind. Im einfachsten Fall erfolgt ei- ne solche Kompandierung beispielsweise dadurch, dass das zu kompandierende Datenwort in eine Anzahl von Teildatenworten unterteilt wird, die jeweils gleiche oder unterschiedliche Datenwortbreiten besitzen und dass sich das kompandierte Datenwort jeweils aus den signifikantesten Bits (MSB) der Teil- datenworte zusammensetzt.This reduction of the range of values can optionally be done using a linear or a non-linear compander characteristic. In one example, the image information values of the input image signal are each represented by data words having a data word width of 32 bits, and these image information values are mapped to composite image information values, each represented by a data word having a data word image width of 8 bits. In the simplest case, such a companding takes place, for example, by dividing the data word to be compiled into a number of partial data words which each have the same or different data word widths and in that the companded data word consists of the most significant bits (MSB) of the partial data words composed.
Indem bei dieser Vorrichtung bzw. bei diesem Verfahren die Bewegungsschätzung nicht auf das Eingangsbildsignal sondern auf das hinsichtlich seines Datenumfangs reduzierte kompan- dierte Bildsignal angewendet wird, lässt sich der Rechenaufwand im Zusammenhang mit der Bewegungsschätzung erheblich reduzieren . Ausführungsbeispiele werden nachfolgend unter Bezugnahme auf Figuren näher erläutert. Diese Figuren dienen zur Veranschaulichung des Grundprinzips, so dass lediglich die zur Veran- schaulichung dieses Grundprinzips notwendigen Aspekte dargestellt sind. In den Figuren bezeichnen, sofern nicht anders angegeben, gleiche Bezugszeichen gleiche Merkmale mit gleicher Bedeutung.By applying the motion estimation in this device or in this method not to the input image signal but to the computed image signal reduced in terms of its data volume, the computational outlay in connection with the motion estimation can be considerably reduced. Embodiments will be explained in more detail with reference to figures. These figures serve to illustrate the basic principle, so that only the aspects necessary for illustrating this basic principle are shown. In the figures, unless otherwise indicated, like reference numerals designate like features having the same meaning.
Figur 1 veranschaulicht schematisch eine durch ein Eingangsbildsignal repräsentierte Eingangsbildfolge und ein aus dieser Eingangsbildfolge resultierende interpolierte Bildfolge.FIG. 1 schematically illustrates an input image sequence represented by an input image signal and an interpolated image sequence resulting from this input image sequence.
Figur 2 veranschaulicht ein Beispiel einer Vorrichtung zur Erzeugung der interpolierten Bildfolge aus der Eingangsbildfolge, die eine Kompandereinheit, eine Bewegungsschätzeinheit und eine Interpolationseinheit aufweist .FIG. 2 illustrates an example of an apparatus for generating the interpolated image sequence from the input image sequence, which comprises a compander unit, a motion estimation unit and an interpolation unit.
Figur 3 veranschaulicht die Funktionsweise eines Beispiels einer Kompandereinheit.FIG. 3 illustrates the operation of an example of a compander unit.
Figur 4 veranschaulicht anhand eines Blockschaltbilds ein Beispiel der Bewegungsschätzeinheit.FIG. 4 illustrates a block diagram of an example of the motion estimation unit.
Figur 5 veranschaulicht anhand eines Blockschaltbilds ein Beispiel einer Interpolationseinheit.FIG. 5 illustrates a block diagram of an example of an interpolation unit.
Figur 6 veranschaulicht anhand eines Blockschaltbilds ein weiteres Beispiel einer Vorrichtung zur Erzeugung einer interpolierten Bildfolge aus einer Eingangsbildfolge .FIG. 6 illustrates by means of a block diagram a further example of a device for generating an interpolated image sequence from an input image sequence.
Figur 1 zeigt schematisch eine Bildfolge, die nachfolgend auch als Eingangsbildfolge bezeichnet wird und die zeitlich aufeinanderfolgende Bilder F(i-l), F (i) aufweist. Diese BiI- der sind in Figur 1 als zeitlich aufeinanderfolgende Bilder dargestellt, wobei t die Zeit und k eine diskrete Zeitvariable bezeichnet. Die einzelnen Bilder F(i-l), F(i) weisen jeweils eine Anzahl von Bildpunkten (Pixel) auf, denen jeweils wenigstens ein Bildinformationswert zugeordnet ist. Sind diese Bilder Farbbilder, so sind jedem Bildpunkt beispielsweise drei Bildinformationswerte zugeordnet, entweder ein Rot-Wert (R) , ein Grün-Wert (G) und ein Blau-Wert (B) bei einer RGB- Darstellung, oder ein Luminanzwert (Y-Wert) und zwei Chromi- nanzwerte (U-Wert und V-Wert) bei einer YUV-Darstellung. Aus verschiedenen Gründen kann es wünschenswert sein, an zeitlichen Positionen zwischen zwei aufeinanderfolgenden Bildern F(i-l), F(i) der Eingangsbildfolge bewegungsrichtig Zwischenbilder zu interpolieren. "Bewegungsrichtig" heißt in diesem Zusammenhang, dass diese Zwischenbilder so interpoliert werden, dass sich bewegende Objekte, die sich in einem Bild F(i- 1) der Eingangsbildfolge an einer ersten Position und in dem zweiten Bild F(i) an einer zweiten Position befinden, sich in dem wenigstens einen Zwischenbild an einer räumlichen Positi- on zwischen der ersten und zweiten Position befinden. Die relative räumliche Lage dieses Objekts zwischen der ersten und zweiten Position entspricht dabei der relativen zeitlichen Lage des interpolierten Zwischenbilds zwischen den zeitlichen Positionen des ersten und zweiten Bilds F(i-l), F(i) . In Fi- gur 1 sind beispielhaft zwei solcher zu interpolierender Zwischenbilder F(i-) (cxi-1)) und F(i-(cx2-l)) dargestellt. Diese Zwischenbilder unterscheiden sich von den Eingangsbildern F(i-l), F(i) hinsichtlich ihrer Bewegungsphase α, die grundsätzlich zwischen 0 und 1 liegen kann. In dem dargestellten Beispiel besitzen die Eingangsbilder beispielsweise die Bewegungsphase α=0 oder α=l, während die Zwischenbilder Bewegungsphasen
Figure imgf000006_0001
besitzen, die zwischen 0 und 1 liegen .
FIG. 1 schematically shows an image sequence which is also referred to below as an input image sequence and which has temporally successive images F (il), F (i). This picture that are shown in Figure 1 as temporally successive images, where t denotes time and k denotes a discrete time variable. The individual images F (il), F (i) each have a number of pixels (pixels), to each of which at least one image information value is assigned. For example, if these images are color images, each pixel is associated with three image information values, either a red value (R), a green value (G) and a blue value (B) in an RGB representation, or a luminance value (Y). Value) and two chrominance values (U value and V value) in a YUV representation. For various reasons, it may be desirable to interpolate intermediate images at temporal positions between two successive images F (il), F (i) of the input image sequence. "Moving correctly" in this context means that these intermediate images are interpolated such that moving objects located in an image F (i-1) of the input image sequence at a first position and in the second image F (i) at a second position are located in the at least one intermediate image at a spatial position between the first and second position. The relative spatial position of this object between the first and second position corresponds to the relative temporal position of the interpolated intermediate image between the temporal positions of the first and second image F (il), F (i). In FIG. 1, two such intermediate images F (i-) (cxi-1)) and F (i- (cx2-l)) to be interpolated are shown by way of example. These intermediate images differ from the input images F (il), F (i) in terms of their motion phase α, which may in principle be between 0 and 1. For example, in the illustrated example, the input images have the motion phase α = 0 or α = 1, while the intermediate images have motion phases
Figure imgf000006_0001
own, which lie between 0 and 1.
Die Eingangsbildfolge kann hinsichtlich der Bildinformationswerte, die den einzelnen Pixel zugeordnet sind, insbesondere eine hochaufgelöste Bildfolge, wie z. B. eine HDR-Bildfolge sein. Diese Bildinformationswerte können dabei im Vergleich zu herkömmlichen Fernsehbildern einem hohen Wertebereich entstammen. Bei HDR-Bildfolgen ist jedem Pixel beispielsweise ein digitales Datenwort mit einer Wortbreite von 32 Bit zuge- ordnet, von denen 24 bit die Farbverteilung und 8 bit die Helligkeit bestimmen. Ein digitales Datenwort für ein Pixel eines HDR-Bilds umfasst also: 8 bit für einen Rotanteil (R); 8 bit für einen Grünanteil (G) ; 8 bit für einen Blauanteil (G); 8 bit für einen die Helligkeit bestimmenden Exponenten.The input image sequence may, with regard to the image information values assigned to the individual pixels, in particular a high-resolution image sequence, such. B. an HDR image sequence be. These image information values can come from a high range of values compared to conventional television images. In the case of HDR image sequences, each pixel is assigned, for example, a digital data word with a word width of 32 bits, of which 24 bits determine the color distribution and 8 bits the brightness. A digital data word for a pixel of an HDR image thus comprises: 8 bits for a red component (R); 8 bits for a green component (G); 8 bits for a blue component (G); 8 bits for a brightness-determining exponent.
Zu Zwecken einer Zwischenbildinterpolation ist es grundsätzlich bekannt, eine sogenannte Bewegungsschätzung zu einzelnen Bildblöcken des zu interpolierenden Zwischenbildes durchzuführen. Das Zwischenbild wird hierbei in einzelne Blöcke un- terteilt, die matrixartig angeordnet sind und die beispielsweise 8x8 oder 16 x 16 Bildpunkte umfassen. Zu jedem dieser Bildblöcke wird eine Bewegungsinformation ermittelt, die für jeden zu interpolierenden Bildblock angibt, unter Verwendung der Bildinhalte welcher Bildblöcke in dem ersten und zweiten Bild F(i-l), F(i) der Bildinhalt des zu interpolierendenFor purposes of interframe interpolation, it is generally known to perform a so-called motion estimation for individual image blocks of the intermediate image to be interpolated. In this case, the intermediate image is subdivided into individual blocks which are arranged in the form of a matrix and which, for example, comprise 8 × 8 or 16 × 16 pixels. For each of these image blocks, motion information indicating each image block to be interpolated is obtained by using the image contents of which image blocks in the first and second images F (i-1), F (i), the image content of the image to be interpolated
Bildblocks zu interpolieren ist. Diese Bewegungsinformation liegt beispielsweise in Form eines sogenannten Bewegungsvektors vor. Die Ermittlung dieser Bewegungsinformation kann beispielsweise mittels eines rekursiven Bewegungsschätzver- fahrens erfolgen. Ein solches Verfahren ist grundsätzlich bekannt, so dass auf weitere Ausführungen hierzu verzichtet werden kann.To interpolate image block is. This movement information is present, for example, in the form of a so-called motion vector. The determination of this movement information can be done, for example, by means of a recursive motion estimation method. Such a method is basically known, so that it is possible to dispense with further explanations.
Die Ermittlung einer Bewegungsinformation zu einem zu inter- polierenden Bildblock erfordert abhängig vom verwendetenThe determination of a movement information for an image block to be interpolated requires depending on the used
Schätzverfahren mehrere Vergleiche zwischen den Bildinhalten von Bildblöcken in dem ersten Bild F(i-l) einerseits und dem zweiten Bild F(i) andererseits. Ein solcher "Blockvergleich" ist dabei umso rechenaufwendiger, je größer die Wertebereiche sind, denen die einzelnen Pixelwerte entstammen. Eine Vorrichtung und ein mit dieser Vorrichtung durchführbares Verfahren zur Zwischenbildinterpolation mit der bzw. mit dem sich dieser Rechenaufwand reduzieren lässt, wird nachfolgend anhand von Figur 2 veranschaulicht.Estimation method a plurality of comparisons between the image contents of image blocks in the first image F (il) on the one hand and the second image F (i) on the other. Such a "block comparison" is all the more computationally intensive, the larger the value ranges to which the individual pixel values originate. A device and a method for inter-frame interpolation with the device that can be carried out with this device This computational effort can be reduced, is illustrated below with reference to FIG 2.
Figur 2 zeigt schematisch eine Vorrichtung zur Zwischenbild- interpolation . Diese Vorrichtung besitzt einen Eingang zurFIG. 2 schematically shows a device for interframe interpolation. This device has an input to
Zuführung eines Eingangsbildsignals F, das eine Eingangsbildfolge, wie beispielsweise die anhand von Figur 1 veranschaulichte Bildfolge mit den Bildern F(i-l), F(i) repräsentiert. Dieses Eingangsbildsignal F enthält also eine Abfolge der Pi- xelwerte, die den Pixeln in den einzelnen Bildern zugeordnet sind. Dieses Eingangsbildsignal F ist zum Einen einer Kompan- dereinheit 1 und zum Anderen einer Interpolationseinheit 4 zugeführt. Optional ist zwischen den Eingang und die Interpolationseinheit 4 ein Verzögerungsglied 2 geschaltet, das dazu dient, eine Signalverzögerung, die durch die noch zu erläuternde Verarbeitung des Eingangsbildsignals F in der Kompan- dereinheit 1 resultiert, zu "kompensieren". Die Kompanderein- heit 1 ist dazu ausgebildet, aus dem Eingangsbildsignal F ein kompandiertes Bildsignal Fl zu erzeugen, indem sie die in dem Eingangsbildsignal F enthaltenen Pixelwerte kompandiert. Die Eingangsbildfolge F umfasst beispielsweise eine Abfolge von Datenworten einer Wortbreite von jeweils n Bit, und das kom- pandierte Bildsignal Fl umfasst beispielsweise eine Abfolge von Datenworten mit einer Wortbreite von m Bit, wobei m klei- ner als n ist.Supplying an input image signal F representing an input image sequence, such as the image sequence with the images F (i-1), F (i) illustrated with reference to FIG. This input image signal F thus contains a sequence of the pixel values which are assigned to the pixels in the individual images. This input image signal F is supplied on the one hand to a compander unit 1 and on the other hand to an interpolation unit 4. Optionally, a delay element 2 is connected between the input and the interpolation unit 4, which serves to "compensate" for a signal delay which results from the processing of the input image signal F in the companion unit 1 to be explained below. The compander unit 1 is designed to generate a companded image signal Fl from the input image signal F by companding the pixel values contained in the input image signal F. The input image sequence F comprises, for example, a sequence of data words of a word width of n bits each, and the combined image signal F1 comprises, for example, a sequence of data words with a word width of m bits, where m is smaller than n.
Das kompandierte Bildsignal Fl repräsentiert eine Bildfolge, die dieselbe Bildfrequenz besitzt, wie die durch die Eingangsbildfolge F repräsentierte Bildfolge, und deren Bilder die gleiche Anzahl von Bildpunkten besitzen wie die Bilder der Eingangbildfolge. Mit anderen Worten: Die durch die kompandierte Bildfolge Fl repräsentierte Bildfolge resultiert aus der Eingangsbildfolge durch Reduzieren der Darstellungsgenauigkeit der Pixelwerte und somit der hierfür benötigten Datenmenge. Bei einem Beispiel ist vorgesehen, dass die Pixelwerte der Eingangsbildfolge Datenworte der Breite n=32 Bit sind, während die Pixelwerte der "kompandierten Bildfolge" Datenworte der Breite m=8 Bit sind. In diesem Fall liegt eine Reduktion der Datenmenge um einen Faktor 4 vor. Diese Reduktion der Datenmenge kann auf beliebige Weise sowohl unter Verwendung einer linearen als auch unter Verwendung einer nicht-linearen Kompanderkennlinie erfolgen. Kompander zurThe companded image signal Fl represents an image sequence which has the same image frequency as the image sequence represented by the input image sequence F and whose images have the same number of pixels as the images of the input image sequence. In other words, the image sequence represented by the companded image sequence F1 results from the input image sequence by reducing the representation accuracy of the pixel values and thus the amount of data required for this purpose. In one example, it is provided that the pixel values of the input image sequence are data words of width n = 32 bits, while the pixel values of the "companded image sequence" Data words of width m = 8 bits. In this case, there is a factor of 4 reduction in the amount of data. This reduction in the amount of data can be done in any manner using both a linear and a nonlinear compander characteristic. Compander to
Kompandierung eines HDR-Bilds, beispielsweise auf ein 8-Bit- BiId sind grundsätzlich bekannt, so dass auf weitere Ausführungen hierzu verzichtet werden kann.Companding an HDR image, for example, to an 8-bit image are generally known, so that it is possible to dispense with further explanations.
Lediglich zum besseren Verständnis veranschaulicht Figur 3 die Funktionsweise eines Beispiels eines Kompanders, der ein HDR-BiId mit 32 Bit je Pixel auf ein Bild mit 8 Bit je Pixel kompandiert. Mit D ist in Figur 3 ein Datenwort eines Pixels eines HDR-Bilds bezeichnet. Von den 32 Bit dieses Datenworts repräsentieren 8 Bit einen Rotanteil R des Bildpunkts, 8 Bit einen Grünanteil G, 8 Bit einen Blauanteil B und 8 Bit einen die Helligkeit bestimmenden Exponenten E. In einem kompan- dierten Datenwort D' mit 8 Bit repräsentieren beispielsweise nur noch 2 Bit einen Rotanteil R, 2 Bit einen Grünanteil G, 2 Bit einen Blauanteil B und 2 Bit einen die Helligkeit bestimmenden Exponenten E. Die Umsetzung der die Farbanteile repräsentierenden Teildatenworte von je 8 Bit in dem ursprünglichen Datenwort auf die Farbanteile repräsentierenden Teildatenworte von je 2 Bit in dem kompandierten Datenwort kann un- ter Verwendung einer beliebigen linearen oder nicht-linearen Kompanderkennlinie erfolgen. Bei einem Beispiel ist vorgesehen, von den 8 Bit breiten Teildatenworten jeweils die 6 am wenigstens signifikanten Bits (LSBs, Least Significant Bits) zu streichen, um die 2 Bit breiten Teildatenworte zu erhal- ten. In entsprechender Weise kann der Exponent kompandiert werden. In diesem Zusammenhang sei noch angemerkt, dass die Farbanteile und der Exponent auf unterschiedliche Weise, d.h. unter Verwendung unterschiedlicher Kompanderkennlinien, kompandiert werden können.For the sake of clarity only, Figure 3 illustrates the operation of an example of a compander that compandes an HDR image with 32 bits per pixel onto an image with 8 bits per pixel. D denotes a data word of a pixel of an HDR image in FIG. Of the 32 bits of this data word, 8 bits represent a red component R of the pixel, 8 bits a green component G, 8 bits a blue component B and 8 bits a brightness-determining exponent E. For example, in a composite data word D 'with 8 bits only 2 bits still a red component R, 2 bits a green component G, 2 bits a blue component B and 2 bits a brightness determining exponent E. The conversion of the color components representing partial data words of 8 bits in the original data word on the color components representing partial data words of each 2 bits in the companded data word can be made using any linear or non-linear compander characteristic. In one example, it is provided to delete from the 8-bit-wide partial data words in each case the 6 least significant bits (LSBs, Least Significant Bits) in order to obtain the 2-bit-wide partial data words. The exponent can be companded in a corresponding manner. In this connection, it should be noted that the color components and the exponent differ in different ways, i. using different compander characteristics, can be companded.
Bei einem weiteren Beispiel (nicht dargestellt) ist vorgesehen, das Datenwort D durch Streichen des Exponenten E zu kom- pandieren. Das hieraus resultierende Datenwort besitzt in diesem Fall eine Wortlänge von 24 Bit. Zusätzlich zum Streichen des Exponenten, der die Helligkeitsinformation repräsentiert, besteht die Möglichkeit, die Farbinformationen für Rot, Grün und Blau zu kompandieren, um die Datenwortbreite weiter zu reduzieren. Der Kompandierungsfaktor ist dabei abhängig von der im Ergebnis gewünschten Wortbreite des Datenworts D'. Die Wortbreite der die Farben repräsentierenden Teildatenworte im kompandierten Datenwort D' ist beispiels- weise zwischen 3 Bit und 6 Bit, wobei die einzelnen Farben sowohl bezüglich des Kompandierungsfaktors als auch bezüglich der Kompanderkennlinie unterschiedlich kompandiert werden können .In another example (not shown), it is provided that the data word D is removed by deleting the exponent E. pandieren. The resulting data word in this case has a word length of 24 bits. In addition to deleting the exponent representing the brightness information, it is possible to compand the red, green and blue color information to further reduce the data word width. The companding factor is dependent on the word width of the data word D 'desired in the result. The word width of the partial data words representing the colors in the companded data word D 'is, for example, between 3 bits and 6 bits, whereby the individual colors can be companded differently both with regard to the companding factor and with respect to the compander characteristic.
Bei einem weiteren Beispiel ist vorgesehen, das Datenwort D durch Streichen der Farbanteile zu kompandieren. Das kompan- dierte Datenwort entspricht in diesem Fall dem Exponenten E. Eine Bewegungsschätzung wird in diesem Fall ausschließlich unter Verwendung der durch den Exponenten repräsentierten Helligkeitsinformation durchgeführt.In another example, it is provided to compander the data word D by deleting the color components. The compiled data word corresponds in this case to the exponent E. A motion estimation in this case is performed exclusively using the brightness information represented by the exponent.
Das kompandierte Bildsignal Fl ist einer Bewegungsschätzeinheit 3 zugeführt, die dazu ausgebildet ist, eine Bewegungsinformation zu dem Eingangsbildsignal F basierend auf dem kom- pandierten Bildsignal Fl zu ermitteln. Diese Bewegungsschätzeinheit 3 kann eine herkömmliche Bewegungsschätzeinheit sein, beispielsweise eine Bewegungsschätzeinheit, die zu jedem zu interpolierenden Bildblock eines gewünschten Zwischenbildes eine Bewegungsinformation durch Vergleich einzelner Bildblö- cke aufeinanderfolgender Bilder der durch das kompandierte Bildsignal Fl repräsentierten "kompandierten Bildfolge" ermittelt. Ein solcher Blockvergleich umfasst einen Vergleich der einzelnen Bildpunkte (Pixel) dieser Blöcke. Bei diesem Vergleich können alle Bildinformationen verglichen werden, die durch die kompandierten Datenworte einzelnen Bildpunkten zugeordnet sind. Es können allerdings auch nur Teile der kompandierten Datenworte miteinander verglichen werden, wie z.B. nur eine oder mehrere der Farbinformationen oder nur die HeI- ligkeitsInformation .The companded image signal Fl is supplied to a motion estimation unit 3, which is designed to determine a motion information to the input image signal F based on the composite image signal Fl. This motion estimation unit 3 can be a conventional motion estimation unit, for example a motion estimation unit which determines motion information for each image block of a desired intermediate image to be interpolated by comparing individual image blocks of successive images of the "companded image sequence" represented by the companded image signal Fl. Such a block comparison comprises a comparison of the individual pixels of these blocks. In this comparison, all image information can be compared, which are assigned by the companded data words individual pixels. However, only parts of the companded data words can be compared with each other, such as only one or more of the color information or just the health information.
Die Bewegungsinformation wird beispielsweise in Form von Be- wegungsvektoren ermittelt, wobei beispielsweise jedem Bildblock eines zu interpolierenden Bildes ein solcher Bewegungsvektor zugeordnet ist. Diese Bewegungsinformation M ist der Interpolationseinheit 4 zugeführt, die dazu ausgebildet ist, basierend auf dem Eingangsbildsignal F und dieser Bewegungs- Information M ein interpoliertes Bildsignal F2 zu erzeugen, das eine Bildfolge mit interpolierten Bildern repräsentiert. Diese Bildfolge mit interpolierten Bildern kann bezugnehmend auf Figur 1 eine Bildfolge sein, die die Eingangsbilder und die interpolierten Zwischenbilder umfasst, die also eine hö- here Bildfrequenz als die Eingangsbildfolge besitzt. Diese Bildfolge mit interpolierten Bilder kann jedoch auch eine Bildfolge sein, die die Eingangsbilder nicht mehr enthält und die lediglich Bilder mit anderen Bewegungsphasen als die Eingangsbilder umfasst.The motion information is determined, for example, in the form of motion vectors, wherein, for example, each image block of an image to be interpolated is assigned such a motion vector. This motion information M is supplied to the interpolation unit 4, which is designed to generate, based on the input image signal F and this motion information M, an interpolated image signal F2 representing an image sequence with interpolated images. With reference to FIG. 1, this image sequence with interpolated images can be an image sequence which comprises the input images and the interpolated intermediate images, which therefore has a higher frame rate than the input image sequence. However, this image sequence with interpolated images can also be an image sequence that no longer contains the input images and that only includes images with different motion phases than the input images.
Bei dem erfindungsgemäßen Verfahren bzw. der erfindungsgemäßen Vorrichtung ist der Rechenaufwand für die Bewegungsschätzung reduziert, da die Bewegungsschätzung nicht auf die Eingangsbildfolge F sondern auf die eine verringerte Datenmenge umfassende kompandierte Bildfolge Fl angewendet wird. Die Bewegungsschätzeinheit 3 und die Interpolationseinheit 4 können dabei herkömmliche Bewegungsschätzeinheiten und Interpolationseinheiten 4 sein.In the method according to the invention or the device according to the invention, the computation outlay for the motion estimation is reduced since the motion estimation is not applied to the input picture sequence F but to the companded picture sequence Fl comprising a reduced data set. The motion estimation unit 3 and the interpolation unit 4 may be conventional motion estimation units and interpolation units 4.
Ein Beispiel einer Bewegungsschätzeinheit 3 ist schematisch in Figur 4 dargestellt. Diese Bewegungsschätzeinheit 3 umfasst zwei Speicher 31, 32, die dazu ausgebildet sind, je ein kompandiertes Bild der durch das kompandierte Bildsignal Fl repräsentierten Bildfolge zu speichern. Das kompandierte Bildsignal Fl ist hierbei einem ersten Speicher 31 unmittelbar und einem zweiten Speicher 32 über ein Verzögerungsglied 33 zeitverzögert zugeführt. Eine Verzögerungsdauer des Verzö- gerungsglieds 33 entspricht hierbei der Bilddauer eines Bildes, so dass zu einem Zeitpunkt in den beiden Speichern 31, 32 zwei Bilder abgespeichert sind, die in der kompandierten Bildfolge zeitlich aufeinanderfolgen. Die Bewegungsschätzein- heit 3 umfasst außerdem einen Bewegungsschätzer 34, der auf die beiden Speicher 31, 32 zugreift, um einzelne Bildblöcke der abgespeicherten Bilder miteinander zu vergleichen. Die Bewegungsschätzeinheit 3 kann außerdem einen Bewegungsvektorspeicher 35 umfassen, in dem Bewegungsvektoren abgespeichert sind, die der Bewegungsschätzer 34 zur Bewegungsschätzung verwendet. Die Bewegungsinformation M steht am Ausgang des Bewegungsschätzers 34 zur Verfügung. Diese Bewegungsinformation M liegt beispielsweise in Form von Bewegungsvektoren vor, wobei der Bewegungsschätzer 34 zu jedem Bildblock eines zu interpolierenden Zwischenbildes einen Bewegungsvektor erzeugt. Bei einem Beispiel ist dabei vorgesehen, dass für Bewegungsphasen α = 0 und α = 1 keine Bewegungsschätzung durchgeführt wird, sondern dass für diese Bewegungsphasen unmittelbar die Bilder der Eingangsbildfolge in die interpolierte Bildfolge übernommen werden.An example of a motion estimation unit 3 is shown schematically in FIG. This motion estimation unit 3 comprises two memories 31, 32, which are designed to each store a companded picture of the picture sequence represented by the companded picture signal F1. The companded image signal Fl is supplied to a first memory 31 directly and a second memory 32 via a delay element 33 with a time delay. A delay period of the delay In this case, the term "delay" 33 corresponds to the image duration of an image, so that two images are stored at one time in the two memories 31, 32, which temporally follow one another in the companded image sequence. The movement estimation unit 3 also comprises a motion estimator 34, which accesses the two memories 31, 32 in order to compare individual picture blocks of the stored pictures. The motion estimation unit 3 may also include a motion vector memory 35 in which motion vectors used by the motion estimator 34 for motion estimation are stored. The motion information M is available at the output of the motion estimator 34. This motion information M is present, for example, in the form of motion vectors, wherein the motion estimator 34 generates a motion vector for each image block of an intermediate image to be interpolated. In one example, it is provided that no motion estimation is carried out for motion phases α = 0 and α = 1, but that the images of the input image sequence are directly taken over into the interpolated image sequence for these motion phases.
Ein Beispiel einer Interpolationseinheit 4, die dazu ausgebildet ist, unter Verwendung der Bewegungsinformation M aus dem Eingangsbildsignal F das interpolierte Bildsignal F2 zu erzeugen, ist in Figur 5 dargestellt. Diese Interpolationseinheit 4 umfasst zwei Speicher 41, 42, die jeweils in der Lage sind, ein Bild der Eingangsbildfolge zu speichern. Das Eingangsbildsignal F ist hierbei einem der Speicher 41 unmittelbar und einem zweiten 42 der Speicher über ein Verzöge- rungsglied 43, das eine Verzögerungsdauer von 1 Bit besitzt, zugeführt. Die Interpolationseinheit 4 umfasst außerdem einen Interpolator 44, der auf die beiden Speicher 41, 42 zugreift und der dazu ausgebildet ist, jeden Bildblock eines zu interpolierenden Zwischenbildes dadurch zu interpolieren, dass un- ter Verwendung des dem Bildblock zugeordneten Bewegungsvektors die Bildinhalte je eines in dem ersten Speicher 41 abge- speicherten Bildblock und eines in dem zweiten Speicher 42 abgespeicherten Bildblocks gemischt werden.An example of an interpolation unit 4 configured to generate the interpolated image signal F2 from the input image signal F using the motion information M is shown in FIG. This interpolation unit 4 comprises two memories 41, 42 which are each capable of storing an image of the input image sequence. In this case, the input image signal F is fed directly to one of the memories 41 and to a second memory 42 via a delay element 43, which has a delay time of 1 bit. The interpolation unit 4 also comprises an interpolator 44, which accesses the two memories 41, 42 and which is designed to interpolate each image block of an intermediate image to be interpolated by using the image vector block associated with each motion vector in the image first memory 41 stored image block and an image block stored in the second memory 42 are mixed.
Figur 6 veranschaulicht anhand eines Blockschaltbilds eine weitere Vorrichtung zur Zwischenbildinterpolation und ein durch diese Vorrichtung durchführbares Verfahren. Bei dieser Vorrichtung ist das Eingangsbildsignal F unmittelbar der Bewegungsschätzeinheit 3 zugeführt, die in diesem Fall dazu ausgebildet ist, eine Bewegungsschätzung zu dem unkompandier- ten Eingangssignal F durchzuführen und eine Bewegungsinformation M zu dem Eingangsbildsignal F zu erzeugen. Diese Bewegungsinformation M wird in der Interpolationseinheit 4 dazu verwendet, das interpolierte Bildsignal F2 zu erzeugen. Dieses interpolierte Bildsignal F2 kann beispielsweise eine Bildfolge mit Eingangsbildern und interpolierten Zwischenbildern repräsentieren, wie es in Figur 1 dargestellt ist. Dieses interpolierten Bildsignal ist einer Kompandereinheit 1 zugeführt, die dazu ausgebildet ist, aus diesem interpolierten Zwischenbildsignal F2 ein kompandiertes interpoliertes Bildsignal F3 zu erzeugen. Das kompandierte Bildsignal F3 besitzt die gleiche Bildfrequenz wie das interpolierte Bildsignal F2, jedoch einen reduzierten Dynamikbereich hinsichtlich der Pixelwerte der einzelnen Pixel. Der Umfang der Kompandie- rung ist beispielsweise an die Darstellungsmöglichkeiten ei- nes Anzeigegerätes angepasst, auf dem das kompandierte interpolierte Bildsignal F3 dargestellt werden soll. Diese Vorrichtung ermöglicht es, beispielsweise eine Eingangsbildfolge, die eine HDR-Bildfolge ist, zu interpolieren und auf einem herkömmlichen Fernsehgerät darzustellen. Die Anwendung der Bewegungsschätzung auf die Eingangsbildfolge ist zwar rechenaufwendig, bietet jedoch den Vorteil einer genaueren Bewegungsschätzung. FIG. 6 illustrates, by means of a block diagram, a further device for inter-frame interpolation and a method which can be carried out by this device. In this device, the input image signal F is supplied directly to the motion estimation unit 3, which in this case is adapted to perform a motion estimation on the uncompensated input signal F and to generate a motion information M to the input image signal F. This motion information M is used in the interpolation unit 4 to generate the interpolated image signal F2. This interpolated image signal F2 can represent, for example, an image sequence with input images and interpolated intermediate images, as shown in FIG. This interpolated image signal is fed to a companding unit 1, which is designed to generate a companded interpolated image signal F3 from this interpolated intermediate image signal F2. The companded image signal F3 has the same frame rate as the interpolated image signal F2 but has a reduced dynamic range with respect to the pixel values of the individual pixels. The scope of the companding is adapted, for example, to the display options of a display device on which the companded interpolated image signal F3 is to be displayed. This device makes it possible, for example, to interpolate an input image sequence which is an HDR image sequence and to display it on a conventional television set. Although the application of the motion estimation to the input image sequence is computation-intensive, it offers the advantage of a more accurate motion estimation.

Claims

Patentansprüche claims
1. Vorrichtung zur Zwischenbildinformation, die aufweist:1. Apparatus for intermediate image information, comprising:
einen Eingang zur Zuführung eines Eingangsbildsignals (F) , das eine Folge von Bildern (F(i-l), F(i)) repräsentiert, die jeweils eine Anzahl von Bildpunkten aufweist, denen jeweils wenigstens ein Bildinformationswert zugeordnet ist;an input for supplying an input image signal (F) representing a sequence of images (F (i-1), F (i)) each having a number of pixels to which at least one image information value is respectively assigned;
eine Kompandereinheit (1), der das Eingangsbildsignal (F) zugeführt ist und die dazu ausgebildet ist, aus dem Eingangsbildsignal (F) durch Kompandieren der Bildinformationswerte ein kompandiertes Bildsignal (Fl) zu erzeugen;a compander unit (1) supplied with the input image signal (F) and adapted to generate from the input image signal (F) a companded image signal (Fl) by companding the image information values;
eine Bewegungsschätzeinheit (3) , der das kompandierte Bildsignal (Fl) zugeführt ist und die dazu ausgebildet ist, basierend auf dem kompandierten Bildsignal (Fl) eine Bewegungsinformation (M) zu dem Eingangsbildsignal (F) zu ermitteln;a motion estimation unit (3) to which the companded image signal (Fl) is applied and which is adapted to determine a motion information (M) to the input image signal (F) based on the companded image signal (Fl);
eine Interpolationseinheit (4), der das Eingangsbildsignal (F) und die Bewegungsinformation (M) zugeführt ist und die dazu ausgebildet ist, ein interpoliertes Bildsignal (F2) zu erzeugen, das eine Bildfolge repräsentiert, die im Vergleich zu der durch das Eingangsbildsignal (F) repräsentierten BiId- folge eine höhere Bildfrequenz und/oder Bilder mit anderen Bewegungsphasen aufweist.an interpolation unit (4) to which the input image signal (F) and the motion information (M) are supplied and which is adapted to generate an interpolated image signal (F2) representing an image sequence which is compared with that obtained by the input image signal (F ) have a higher frame rate and / or images with other motion phases.
2. Verfahren zur Zwischenbildinterpolation, das aufweist:2. A method for interframe interpolation comprising:
Bereitstellen eines Eingangsbildsignals (F) , das eine Folge von Bildern (F(i-l), F(i)) repräsentiert, die jeweils eine Anzahl von Bildpunkten aufweist, denen jeweils wenigstens ein Bildinformationswert zugeordnet ist;Providing an input image signal (F) representing a sequence of images (F (i-1), F (i)) each having a number of pixels each associated with at least one image information value;
Erzeugen eines kompandierten Bildsignals (Fl) aus dem Eingangsbildsignal (F) durch Kompandieren der Bildinformationswerte des Eingangsbildsignals (F) ; Ermitteln einer Bewegungsinformation (M) zu dem Eingangsbildsignal (F) anhand des kompandierten Bildsignals (Fl);Generating a companded image signal (Fl) from the input image signal (F) by companding the image information values of the input image signal (F); Determining motion information (M) to the input image signal (F) based on the companded image signal (Fl);
Erzeugen eines interpolierten Bildsignals (F2), das eine Bildfolge repräsentiert, die im Vergleich zu der durch das Eingangsbildsignal (F) repräsentierten Bildfolge eine höhere Bildfrequenz und/oder Bilder mit anderen Bewegungsphasen aufweist, aus dem Eingangsbildsignal (F) unter Verwendung der Bewegungsinformation . Generating an interpolated image signal (F2) representing an image sequence having a higher frame rate and / or images with other motion phases compared to the image sequence represented by the input image signal (F), from the input image signal (F) using the motion information.
PCT/EP2010/053196 2009-03-12 2010-03-12 Device and method for intermediate image interpolation WO2010103106A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009001520.5 2009-03-12
DE102009001520.5A DE102009001520B4 (en) 2009-03-12 2009-03-12 Apparatus and method for interframe interpolation

Publications (1)

Publication Number Publication Date
WO2010103106A1 true WO2010103106A1 (en) 2010-09-16

Family

ID=42174436

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/053196 WO2010103106A1 (en) 2009-03-12 2010-03-12 Device and method for intermediate image interpolation

Country Status (2)

Country Link
DE (1) DE102009001520B4 (en)
WO (1) WO2010103106A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0883298A2 (en) * 1997-06-04 1998-12-09 Hitachi, Ltd. Conversion apparatus for image signals and TV receiver
WO2008081611A1 (en) * 2006-12-27 2008-07-10 Sharp Kabushiki Kaisha Image display device and method, and image processing device and method
EP2009921A2 (en) * 2007-06-26 2008-12-31 Mitsubishi Electric Corporation Method and system for inverse tone mapping of image, and codec for performing inverse tone mapping of image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737023A (en) * 1996-02-05 1998-04-07 International Business Machines Corporation Hierarchical motion estimation for interlaced video
US6192079B1 (en) * 1998-05-07 2001-02-20 Intel Corporation Method and apparatus for increasing video frame rate
KR100708091B1 (en) * 2000-06-13 2007-04-16 삼성전자주식회사 Frame rate converter using bidirectional motion vector and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0883298A2 (en) * 1997-06-04 1998-12-09 Hitachi, Ltd. Conversion apparatus for image signals and TV receiver
WO2008081611A1 (en) * 2006-12-27 2008-07-10 Sharp Kabushiki Kaisha Image display device and method, and image processing device and method
US20100002133A1 (en) * 2006-12-27 2010-01-07 Masafumi Ueno Image displaying device and method,and image processing device and method
EP2009921A2 (en) * 2007-06-26 2008-12-31 Mitsubishi Electric Corporation Method and system for inverse tone mapping of image, and codec for performing inverse tone mapping of image

Also Published As

Publication number Publication date
DE102009001520B4 (en) 2016-02-25
DE102009001520A1 (en) 2010-09-23

Similar Documents

Publication Publication Date Title
DE69831886T2 (en) Method and apparatus for image signal conversion
DE60307942T2 (en) Digital noise reduction techniques
DE2932525C2 (en)
DE102009044406B4 (en) Method and apparatus for processing video data of a liquid crystal display device
EP2011110A2 (en) Image reproduction method featuring additive color mixing from more than three color channels
DE4143074A1 (en) TV picture redn. by reformatting of interlocked data - averaging successive pixel pairs and row averages before removing foregoing pixel or row
DE102007027642A1 (en) Method for processing a sequence of images with successive video images to improve the spatial resolution
DE10241353A1 (en) Method and apparatus for converting a color image
DE102009026983A1 (en) Image processing method with a motion estimation and image processing arrangement
DE10315442A1 (en) Process and circuit for scaling raster images
DE102004007177A1 (en) Device, method and program product for image processing
EP2105883A1 (en) Method for testing a movement vector
DE4232704C2 (en) Method and circuit arrangement for the electronic retouching of images
DE69833785T2 (en) COLOR PUNCHING METHOD FOR A DIGITAL VIDEO COMPRESSION SYSTEM
WO2013068006A2 (en) Method for carrying out a dynamic range compression in traffic photography
DE102009001520B4 (en) Apparatus and method for interframe interpolation
DE602004001225T2 (en) PROCESSING SIGNALS FOR A COLOR EQUENTIAL DISPLAY
DE102009001518B4 (en) Method for generating an HDR video image sequence
EP0544735A1 (en) Process and device for transformation of image data.
EP0461168B1 (en) Electronic image-reproducing device
DE102008036279B4 (en) Method for determining a motion vector for an image block of an intermediate image
DE10236204A1 (en) Gradient-based method for pixel interpolation e.g. for TV images, requires initial selection of first and second picture elements each assigned first and second image /picture information values
DE4336352C2 (en) Method and circuit arrangement for reducing flicker in television sets
DE69927774T2 (en) Method and device for processing a digital image
EP0963113A2 (en) Standards conversion apparatus for video images and method for converting the standard of a video signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10711869

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10711869

Country of ref document: EP

Kind code of ref document: A1